WO2024090007A1 - プログラム、方法、情報処理装置、システム - Google Patents

プログラム、方法、情報処理装置、システム Download PDF

Info

Publication number
WO2024090007A1
WO2024090007A1 PCT/JP2023/030973 JP2023030973W WO2024090007A1 WO 2024090007 A1 WO2024090007 A1 WO 2024090007A1 JP 2023030973 W JP2023030973 W JP 2023030973W WO 2024090007 A1 WO2024090007 A1 WO 2024090007A1
Authority
WO
WIPO (PCT)
Prior art keywords
information
user
location
transmission information
transmission
Prior art date
Application number
PCT/JP2023/030973
Other languages
English (en)
French (fr)
Inventor
一彦 伊藤
智秀 鴫原
Original Assignee
株式会社Cri・ミドルウェア
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社Cri・ミドルウェア filed Critical 株式会社Cri・ミドルウェア
Publication of WO2024090007A1 publication Critical patent/WO2024090007A1/ja

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services

Definitions

  • This disclosure relates to a program, a method, an information processing device, and a system.
  • Patent Document 1 discloses a system that acquires the destinations of multiple traveling users, matches users with a common destination, and enables information sharing between the matched users.
  • the above technology matches users on the condition that they have a common destination, so there is room for improvement in situations where rapid information gathering is required.
  • the purpose of this disclosure is to enable rapid information gathering for users traveling by vehicle, etc.
  • the present disclosure discloses a program that causes a computer having a processor and a storage unit to transmit information to a user moving on a mobile object, the program causing the processor to execute an outgoing information acquisition step of acquiring outgoing information transmitted by a first user in association with location information relating to the location from the first user, an outgoing information storage step of storing the outgoing information acquired from the first user in the storage unit, a location designation information acquisition step of acquiring information designating a location from a second user, and a transmission information identification step of identifying transmission information to be transmitted to the second user from among the outgoing information based on the acquired location information and the location information associated with the outgoing information.
  • a user traveling by vehicle or the like can quickly collect information from other users.
  • FIG. 1 is a diagram illustrating an overview of a system 1.
  • FIG. 2 is a block diagram showing the hardware configuration of the system 1.
  • FIG. 2 is a block diagram showing the functional configuration of the terminal device 10.
  • FIG. 2 is a block diagram showing the functional configuration of the server 20.
  • 2 is a diagram showing the structure of a database stored in a storage unit 180 of a terminal device 10.
  • FIG. 2 is a diagram showing the structure of a database stored in a storage unit 220 of a server 20.
  • FIG. FIG. 2 is a flow diagram illustrating the processing flow of the system 1.
  • FIG. 2 is a diagram illustrating an example of processing performed by the system 1.
  • FIG. 11 is a block diagram showing a hardware configuration of the system 1 according to the second embodiment.
  • FIG. 11 is a flow diagram illustrating the first half of the processing flow of the system 1 in the second embodiment.
  • FIG. 11 is a flow diagram illustrating the latter half of the processing flow of the system 1 in the second embodiment.
  • FIG. 11 is a diagram illustrating an example of processing of the system 1 in the second embodiment.
  • FIG. 13 is a diagram showing a configuration of a terminal device 10 according to another embodiment.
  • the system 1 includes a terminal device 10 used by a user, and a server 20.
  • the user U1 uses the terminal device 10A to transmit desired information.
  • the transmitted information transmitted by the user U1 is transmitted to the server 20.
  • the transmitted information includes location information relating to a location.
  • the server 20 receives the transmitted information, it stores the transmitted information in a storage unit.
  • the server 20 receives information transmitted by the user U2 from the terminal device 10B.
  • the terminal device 10B is an audio device mounted on the vehicle C driven by the user U2.
  • the information transmitted by the user U2 includes location designation information, which is information that designates a location.
  • the server 20 receives information regarding the location of the vehicle C as location designation information.
  • server 20 Based on the location designation information received from terminal device 10B and the location information associated with the outgoing information in the storage unit, server 20 identifies the transmission information to be transmitted to user U2 from among the outgoing information, and transmits it to terminal device 10B. Terminal device 10B notifies user U2 of the received transmission information.
  • the information transmitted by user U1 is stored in a memory unit in association with information related to the location, and the information to be transmitted is identified based on the position information of the vehicle C driven by user U2 and notified to user U2.
  • This enables a user traveling by vehicle, etc. to quickly collect information from other users.
  • Each component is described in detail below. Note that in the following embodiments, user U1 who transmits information is also referred to as the transmitting user (the "first user” in the claims), and user U2 to whom the transmitted information is transmitted is also referred to as the receiving user (the "second user” in the claims).
  • FIG. 2 is a block diagram showing an example of a hardware configuration of the system 1.
  • the system 1 includes a plurality of terminal devices 10 and a server 20.
  • the terminal devices 10 and the server 20 are communicatively connected via a network 30.
  • the system 1 includes two terminal devices 10, but the number of terminal devices 10 is not limited to this example and may be three or more.
  • a collection of multiple devices may be one server 20.
  • the method of allocating multiple functions required to realize the server 20 of this embodiment to one or more pieces of hardware can be determined appropriately in consideration of the processing capacity of each piece of hardware and/or the specifications required for the server 20.
  • the terminal device 10 is a computer that is mounted in a vehicle that is a moving body driven by a user, and has the functions of a car navigation system (automotive navigation system) and a car audio (vehicle audio device).
  • the terminal device 10 may also be realized as a tablet terminal or a mobile terminal such as a smartphone.
  • the terminal device 10 has a communication IF (Interface) 12, an input device 13, an output device 14, a memory 15, storage 16, and a processor 19.
  • the communication IF 12 is an interface for inputting and outputting signals so that the terminal device 10 can communicate with external devices.
  • the input device 13 is a device (e.g., a touch panel, a microphone, etc.) for accepting input operations from the user.
  • a device e.g., a touch panel, a microphone, etc.
  • the output device 14 is a device (display, speaker, etc.) for presenting information to the user.
  • Memory 15 is used to temporarily store programs and data processed by the programs, and is a volatile memory such as a DRAM (Dynamic Random Access Memory).
  • DRAM Dynamic Random Access Memory
  • Storage 16 is used to store data, and is, for example, a flash memory or a hard disc drive (HDD).
  • HDD hard disc drive
  • the processor 19 is hardware for executing a set of instructions written in a program, and is composed of an arithmetic unit, registers, peripheral circuits, etc.
  • the server 20 is a computer capable of communicating with the terminal device 10 via a network 30 such as the Internet, and is realized as a so-called cloud server.
  • the server 20 includes a communication IF 22, an input/output IF 23, a memory 25, a storage 26, and a processor 29.
  • the input/output IF is an interface for connecting an input/output device when performing some input operation on the server 20 or when outputting information from the server 20.
  • the communication IF 22, memory 25, storage 26 and processor 29 are configured in the same manner as the communication IF 12, memory 15, storage 16 and processor 19 of the terminal device 10, so the description will not be repeated.
  • FIG. 3 is a block diagram showing an example of a functional configuration of the terminal device 10.
  • the terminal device 10 includes an input device 13, an output device 14, a communication unit 150, an imaging unit 160, an audio processing unit 170, a storage unit 180, a position information sensor 190, and a control unit 200.
  • the blocks included in the terminal device 10 in Fig. 3 are electrically connected to each other via a bus or the like, for example.
  • the communication unit 150 performs processes such as modulation and demodulation for the terminal device 10 to communicate with other devices.
  • the communication unit 150 performs transmission processing on signals generated by the control unit 200 and transmits them to the outside (e.g., other terminal devices 10).
  • the communication unit 150 performs reception processing on signals received from the outside and outputs them to the control unit 200.
  • the input device 13 is a device for inputting instructions or information by the user operating the terminal device 10.
  • the input device 13 is realized, for example, by a touch-sensitive device 131 where instructions are input by touching the operation surface.
  • the input device 13 may include a keyboard or a mouse.
  • the input device 13 converts the instructions or information input by the user into an electrical signal and outputs the electrical signal to the control unit 200.
  • the input device 13 may also include, for example, a receiving port that receives an electrical signal input from an external input device.
  • the output device 14 is a device for presenting information to a user operating the terminal device 10.
  • the output device 14 is realized, for example, by a display 141 or the like.
  • the display 141 displays data according to the control of the control unit 200.
  • the display 141 is realized, for example, by an LCD (Liquid Crystal Display) or an organic EL (Electro-Luminescence) display or the like.
  • the audio processing unit 170 performs digital-to-analog conversion processing of an audio signal.
  • the audio processing unit 170 converts the signal provided by the microphone 171 into a digital signal and provides the converted signal to the control unit 200.
  • the audio processing unit 170 also provides the audio signal to the speaker 172.
  • the audio processing unit 170 is realized, for example, by a processor for audio processing.
  • the microphone 171 accepts audio input and provides an audio signal corresponding to the audio input to the audio processing unit 170.
  • the speaker 172 converts the audio signal provided by the audio processing unit 170 into audio and outputs the audio to the outside of the terminal device 10.
  • the storage unit 180 is realized, for example, by the memory 15 and the storage 16, and stores data and programs used by the terminal device 10.
  • the storage unit 180 stores a user database (DB: DataBase) 181, an avatar database 182, and a performance database 183.
  • DB DataBase
  • the user database 181 is a database for storing user information. Information about the user who uses the terminal device 10 is stored in the user database 181. As an example, the user database 181 may be configured so that records are generated when a user performs user registration work using software that provides this function installed on the terminal device 10. The data structure of the user database 181 will be described in detail later.
  • the avatar database 182 is a database for storing information about avatars associated with users.
  • An avatar is a virtual character that functions as an avatar for a user, and is configured in the system 1 to play a role in communicating various information on behalf of the user.
  • the avatar database 182 stores information set for each avatar.
  • the avatar database 182 may be configured so that records are generated when a user registers avatar information using software installed in the terminal device 10 to execute this function. The data structure of the avatar database 182 will be described in detail later.
  • the performance database 183 is a database for storing information on performances set for each avatar. In this embodiment, various parameters such as tone and pitch of voice can be set for the voice emitted by the avatar as a performance.
  • the performance database 183 stores information on performances that can be set for an avatar.
  • the performance database 183 may be designed so that records prepared as initial settings are generated when software for executing this function is installed in the terminal device 10. In addition to the initial setting records, additional records may be generated when the user performs an operation to set performance information.
  • the data structure of the performance database 183 will be described in detail later.
  • the position information sensor 190 is a sensor that detects the position of the terminal device 10, and is, for example, a GPS (Global Positioning System) module.
  • the GPS module is a receiving device used in a satellite positioning system. In a satellite positioning system, signals are received from at least three or four satellites, and the current position of the terminal device 10 in which the GPS module is installed is detected based on the received signals.
  • the position information sensor 190 may also use a satellite positioning system other than GPS, for example a system called GNSS (Global Navigation Satellite System).
  • GNSS Global Navigation Satellite System
  • the control unit 200 is realized when the processor 19 reads a program stored in the storage unit 180 and executes the instructions contained in the program.
  • the control unit 200 controls the operation of the terminal device 10.
  • the control unit 200 fulfills the functions of an operation reception unit 201, a transmission/reception unit 202, a display control unit 203, a voice reception unit 204, a voice generation unit 205, a voice output unit 206, and a position information acquisition unit 207.
  • the operation reception unit 201 performs processing for receiving instructions or information input from the input device 13. Specifically, for example, the operation reception unit 201 receives information based on instructions input from the touch-sensitive device 131, etc.
  • the transmission/reception unit 202 performs processing for the terminal device 10 to transmit and receive data to and from external devices in accordance with a communication protocol.
  • the display control unit 203 controls the display of information for the user on the output device 14, represented by the display 141.
  • the voice receiving unit 204 receives the voice uttered by the user. Specifically, for example, the input of the voice uttered by the user may be detected by the microphone 171 of the terminal device 10, and the voice signal may be subjected to digital-to-analog conversion processing in the voice processing unit 170, so that the voice uttered by the user may be received by the voice receiving unit 204.
  • the voice generation unit 205 generates voice information corresponding to the transmission information to be transmitted to the user.
  • the voice generation unit 205 references the transmission information received from the server 20, the avatar database 182, and the performance database 183 to generate the voice of an avatar associated with the user.
  • the voice generation unit 205 may use well-known voice synthesis techniques such as rule synthesis (including formant voice synthesis and articulatory voice synthesis, etc.), concatenative voice synthesis (including unit selection voice synthesis, diphone voice synthesis, and field-specific voice synthesis, etc.), and statistical parametric voice synthesis (including hidden Markov model voice synthesis and neural network voice synthesis, etc.).
  • the audio output unit 206 outputs audio information corresponding to the transmission information generated by the audio generation unit 205.
  • the audio generation unit 205 provides the audio information generated by the audio generation unit 205 to the audio processing unit 170.
  • the audio processing unit 170 provides the speaker 172 with an audio signal corresponding to the received audio information.
  • the speaker 172 converts the audio signal provided by the audio processing unit 170 into audio and outputs it to the outside of the terminal device 10.
  • the location information acquisition unit 207 acquires location information of a user moving in a moving body such as a vehicle. Specifically, for example, the location information acquisition unit 207 acquires location information of the terminal device 10 acquired by the location information sensor 190. The location information acquisition unit 207 also acquires location information input by the user as location information of the terminal device 10. Details of the processing in each function of the control unit 200 will be described later.
  • the server 20 includes a communication unit 210, a storage unit 220, and a control unit 230.
  • the blocks included in the server 20 in FIG 4 are electrically connected to each other via a bus or the like, for example.
  • the communication unit 210 performs processing for the server 20 to communicate with external devices.
  • the storage unit 220 is realized by, for example, the memory 25 and the storage 26, and stores data and programs used by the server 20.
  • the storage unit 220 stores a user database 221, an avatar database 222, a performance database 223, and a transmission information database 224.
  • the user database 221 is a database for storing user information, and can have the same data structure as the user database 181 stored in the terminal device 10.
  • the user database 221 may be configured such that, when a record is created in the user database 181 of the terminal device 10, information on that record is received from the terminal device 10, and that record is added to the user database 221. Details of the data structure of the user database 221 will be described later.
  • the avatar database 222 is a database for storing information about avatars associated with users, and may have the same data structure as the avatar database 182 stored in the terminal device 10. As an example, the avatar database 222 may receive information about a record from the terminal device 10 when the record is created in the avatar database 182 of the terminal device 10, and add the record to the avatar database 222. Details of the data structure of the avatar database 222 will be described later.
  • the performance database 223 is a database for storing information on the performance set for each avatar, and can have the same data structure as the performance database 183 stored in the terminal device 10.
  • the performance database 223 may be configured such that, when a record is generated in the performance database 183 of the terminal device 10, information on that record is received from the terminal device 10, and that record is added to the performance database 223. Details of the data structure of the performance database 223 will be described later.
  • the outgoing information database 224 is a database for storing outgoing information sent by users. Information sent by users is stored as outgoing information in the outgoing information database 224. As an example, the outgoing information database 224 may be configured such that the transmission/reception module 231 of the control unit 230 receives outgoing information from the terminal device 10, and a record is generated by the outgoing information storage module 232. Details of the data structure of the outgoing information database 224 will be described later.
  • the control unit 230 is realized by the processor 29 reading a program stored in the storage unit 220 and executing instructions contained in the program. By operating according to the program, the control unit 230 is provided with a transmission/reception module 231, a transmission information storage module 232, a transmission information identification module 233, and a transmission voice generation module 234.
  • the transmission/reception module 231 performs processing for the server 20 to transmit and receive data to and from external devices in accordance with a communication protocol.
  • the outgoing information storage module 232 stores the outgoing information received by the transmission/reception module 231 from the terminal device 10 used by the sending user in the outgoing information database 224 of the storage unit 220.
  • the outgoing information storage module 232 may analyze the outgoing information received by the transmission/reception module 231 using well-known natural language processing, and store the results of the analysis in the storage unit.
  • the outgoing information storage module 232 may perform analysis processing such as morphological analysis, syntactic analysis, semantic analysis, and contextual analysis on the outgoing information received by the transmission/reception module 231 as natural language processing, and store the results of the analysis in the outgoing information database 224.
  • the transmission information identification module 233 identifies the transmission information to be transmitted to the recipient user from among the transmission information in the transmission information database 224 based on the location designation information received from the terminal device 10 used by the recipient user and the location information associated with the transmission information stored in the transmission information database 224.
  • the transmission information identification module 233 may further identify the transmission information to be transmitted to the recipient user based on information such as the date and time when the transmission information was transmitted and the date and time when the location designation information was received.
  • the transmission voice generation module 234 generates voice information corresponding to the transmission information to be transmitted to the user.
  • the transmission voice generation module 234 references the transmission information identified by the transmission information identification module 233, the avatar database 222, and the performance database 223, and generates the voice of an avatar associated with the user.
  • the transmission voice generation module 234 may use well-known voice synthesis techniques, such as rule synthesis (including formant voice synthesis and articulatory voice synthesis), waveform concatenation type voice synthesis (including unit selection type voice synthesis, diphone voice synthesis, and field-limited voice synthesis), and statistical parametric voice synthesis (including hidden Markov model voice synthesis and neural network voice synthesis).
  • FIG. 5 shows an example of the data structure of the user database 181, avatar database 182, and performance database 183 stored in the storage unit 180 of the terminal device 10.
  • a record in the user database 181 includes the items "user ID,” “user name,” “age,” “gender,” and “registration date and time,” etc.
  • the "User ID” item is identification information for identifying a user and is the primary key for uniquely identifying a record in the user database 181.
  • the "User name” item is information about the user's name.
  • the user name may be the user's real name, or it may be information that does not identify the user, such as a nickname.
  • the "Age” item is information about the user's age.
  • the "Gender” item is information about the user's gender.
  • the "Registration Date” item is information about the date the record was registered in the user database.
  • the user may be able to register user information and add records to the user database 181 using software that provides this function installed on the terminal device 10.
  • the records in the avatar database 182 include the items "Avatar ID”, “Avatar name”, “Age”, “Gender”, “Corresponding user”, and “Corresponding performance”, etc.
  • the "Avatar ID” item is identification information for identifying an avatar, and is the primary key for uniquely identifying a record in the avatar database 182.
  • the "Avatar Name” item is information about the avatar's name.
  • the "Age” item provides information about the avatar's age.
  • the "Gender” item provides information about the avatar's gender.
  • the "Corresponding User” item is information for identifying the user who is registered in association with the avatar, and the "User ID” item in the user database 181 is held as an external key.
  • one avatar is associated with one user, and is stored in the avatar database 182.
  • the item "Corresponding Effects” is identification information for identifying the effects applied to the avatar, and the item “Effect ID” in the effect database 183 is held as an external key. In this way, information about the effects applied to each avatar is stored in the avatar database 182.
  • the avatar database 182 may be generated with records prepared as initial settings.
  • the software may also be used by a user to update the contents of each item in the records of the avatar database 182.
  • the software may also be used by a user to register new information about an avatar and add records to the avatar database 182.
  • the records in the performance database 183 include the items "performance ID”, “tone of voice”, “pitch of voice”, and “ending of sentence”, etc.
  • the "Performance ID” item is identification information for identifying the performance applied to the avatar, and is the primary key for uniquely identifying a record in the performance database 183.
  • the "Tone” item is information about the tone of the avatar's voice, specifically, information about the waveform of the sound waves produced by the avatar.
  • the "Voice Pitch” item is information about the pitch of the avatar's voice, specifically, the frequency of the sound waves produced by the avatar.
  • the "Ending” item is information about words that can be added to the end of what the avatar says. Specifically, it is information about words that can be added to the end of what is said, such as "It's", “It's", and "It's".
  • FIG. 6 is a diagram showing an example of the data structure of the user database 221, avatar database 222, performance database 223, and transmission information database 224 stored in the storage unit 220 of the server 20.
  • the user database 221, avatar database 222, and performance database 223 can be configured with the same data structure as the user database 181, avatar database 182, and performance database 183 stored in the storage unit 180 of the terminal device 10, and therefore the description will not be repeated.
  • the records in the call information database 224 include the items "call ID,” "calling user,” “call content,” “location information,” and “call date and time,” etc.
  • the "Call ID” item is identification information for identifying the call information, and is the primary key for uniquely identifying a record in the call information database 224.
  • the "sender” item is information for identifying the user who sent the message, and the "user ID” item in the user database 221 is held as an external key.
  • the item "Message content” is information about the content of the message. It is preferable that the item “Message content” stores the analysis results of the message received by the transmission/reception module 231, which are analyzed by the message storage module 232 using natural language processing or the like. In other words, it is preferable that the analysis results of the voice information, rather than the voice information itself spoken by the sending user, are stored.
  • the "location information" item is information about a location that is associated with the transmitted information and obtained from the transmitting user. For example, location information included in the contents of the transmitted information may be extracted and stored as location information. Alternatively, information about the location when the transmitting user transmitted the information may be received and stored as location information. Alternatively, when the transmitting user transmits information, the transmitting user may input or select which location the information is about, and the input or selected information may be stored as location information.
  • the "Date and time of sending" item is information about the date and time when the sending user sent the information.
  • step S111 in FIG. 7 the voice receiving unit 204 of the terminal device 10A used by the calling user acquires outgoing information from the calling user. Specifically, the voice receiving unit 204 acquires the voice uttered by the calling user as outgoing information. Note that, when sending information, the calling user may input user information that identifies the calling user into the terminal device 10A, and the user information may be included in the outgoing information.
  • the voice receiving unit 204 may be configured to acquire the voice uttered by the calling user as outgoing information when a predetermined condition is met. For example, the voice receiving unit 204 may acquire the voice uttered by the calling user as outgoing information on the condition that the calling user performs a predetermined operation on the terminal device 10. Specifically, a button or the like for accepting outgoing information is displayed on the display 141 of the terminal device 10, and the voice receiving unit 204 may acquire the voice uttered by the calling user as outgoing information on the condition that the calling user presses the button.
  • the voice receiving unit 204 may be configured to acquire the voice uttered by the calling user as the transmission information on the condition that the calling user makes a specific statement. For example, when the calling user makes a statement such as "I will transmit information", a predetermined sentence, a keyword, a password, or the like, the voice receiving unit 204 may be configured to acquire the voice uttered by the calling user as the transmission information. As another example, the voice uttered by the calling user may be configured to acquire the voice uttered by the calling user as the transmission information on the condition that the calling user calls the name of the avatar associated with the calling user.
  • the voice generation unit 205 when it acquires transmission information from a transmitting user, it generates a preset reply voice for the avatar associated with the transmitting user.
  • the content of the reply i.e., the lines
  • the voice generation unit 205 refers to the avatar database 182 and acquires a record in which the item "Response performance" matches the user information included in the transmission information.
  • the voice generation unit 205 obtains the item "Response performance" in the acquired record of the avatar database 182.
  • the voice generation unit 205 references the performance database 183 and obtains a record whose item "Performance ID" matches the acquired response performance. Based on the acquired record of the performance database 183, the voice generation unit 205 generates a voice corresponding to the content of the reply as the voice of the avatar associated with the calling user.
  • step S112 the transmission/reception unit 202 of the terminal device 10A transmits the outgoing call information acquired by the voice reception unit 204 to the server 20.
  • the transmission/reception unit 202 may transmit the location information acquired by the location information acquisition unit 207 of the terminal device 10A to the server 20 together with the outgoing call information.
  • step S121 the transmission/reception module 231 of the server 20 receives the outgoing call information from the terminal device 10A.
  • the transmission/reception module 231 may receive the location information of the terminal device 10A transmitted together with the outgoing call information.
  • the outgoing information storage module 232 of the server 20 stores the outgoing information received by the transmission/reception module 231 in the outgoing information database 224 of the storage unit 220.
  • the outgoing information storage module 232 may analyze the outgoing information received by the transmission/reception module 231 using well-known natural language processing, and store the results of the analysis in the outgoing information database 224.
  • the transmission information storage module 232 may store "Hikone Castle,” which is part of the transmission content, in the "location information” item of the transmission information database 224.
  • the transmission information storage module 232 may store the location information of the terminal device 10A received together with the transmission information in the "location information” item of the transmission information database 224.
  • step S131 the voice receiving unit 204 of the terminal device 10B used by the recipient user acquires question information from the recipient user. Specifically, the voice receiving unit 204 acquires the voice uttered by the recipient user as question information. Note that when asking a question, the sending user may input user information that identifies the sending user into the terminal device 10B, and the user information may be included in the question information.
  • the voice receiving unit 204 may be configured to acquire voice uttered by the recipient user as question information when a predetermined condition is met. For example, the voice receiving unit 204 may acquire voice uttered by the recipient user as question information, on the condition that the recipient user performs a predetermined operation on the terminal device 10. Specifically, a button or the like for accepting question information may be displayed on the display 141 of the terminal device 10, and the voice receiving unit 204 may acquire voice uttered by the recipient user as question information, on the condition that the recipient user presses the button.
  • the voice receiving unit 204 may be configured to acquire the voice uttered by the receiving user as question information on the condition that the receiving user makes a specific statement. For example, when a predetermined sentence, keyword, password, etc. such as "Let me ask you a question! is made, the voice receiving unit 204 may be configured to acquire the voice uttered by the receiving user as question information. As another example, the voice uttered by the receiving user may be configured to acquire the voice uttered by the receiving user as question information on the condition that the receiving user calls out the name of the avatar associated with the receiving user.
  • the voice receiving unit 204 acquires this utterance by user B as question information.
  • the question information by the recipient user includes location designation information that specifies a location.
  • the recipient user asks a question about a specific place, and the location designation information included in the question is acquired by the voice receiving unit 204.
  • step S132 the transmission/reception unit 202 of the terminal device 10B transmits the question information acquired by the voice reception unit 204 to the server 20.
  • step S123 the transmission/reception module 231 of the server 20 receives the question information from the terminal device 10B.
  • the transmission information identification module 233 identifies the transmission information to be transmitted to the recipient user from among the transmission information in the transmission information database 224 based on the location designation information included in the question information received from the terminal device 10B and the location information associated with the transmission information stored in the transmission information database 224 (i.e., the "location information" item in the transmission information database 224).
  • the transmission information identification module 233 may determine the transmission information based on other information (hereinafter referred to as specific information). Examples of specific information include the date and time when the transmission information was transmitted by the transmitting user, the location information received from terminal device 10A together with the transmission information, and the date and time when the question information was sent by the receiving user.
  • the transmission voice generation module 234 generates voice information (hereinafter also referred to as transmission voice) corresponding to the transmission information identified by the transmission information identification module 233.
  • the transmission voice generation module 234 refers to the transmission information database to identify the sending user of the identified transmission information.
  • the transmission voice generation module 234 refers to the avatar database 222 to obtain a record whose "corresponding user" field matches the identified sending user.
  • the transmission voice generation module 234 refers to the performance database 223 and retrieves a record whose "performance ID" field matches the corresponding performance in the retrieved record of the avatar database 222. Based on the retrieved record of the performance database 223, the transmission voice generation module 234 generates voice information corresponding to the content of the transmission information as the voice of an avatar associated with the sending user. In this way, the transmission voice generation module 234 generates voice to be transmitted to the receiving user based on the content of the performance database 223. That is, a voice to which additional information (tone of voice, voice pitch, endings, etc.) has been added to the transmission information identified by the transmission information identification module 233 is generated.
  • step S126 the transmission/reception module 231 of the server 20 receives the transmission voice generated by the transmission voice generation module and transmits it to the terminal device 10B.
  • step S133 the transmission/reception unit 202 of the terminal device 10B receives the transmission voice.
  • step S134 the audio output unit 134 of the terminal device 10B outputs the transmitted audio received by the transmission/reception unit 202. Specifically, the audio output unit 134 provides the transmitted audio to the audio processing unit 170. The audio processing unit 170 provides an audio signal corresponding to the received transmitted audio to the speaker 172, and the audio is output from the speaker 172.
  • avatar b associated with user B as the receiving user says, "Tell me what the weather is like at Hikone Castle!
  • avatar a associated with user A as the sending user replies, "There's a rainbow in the sky.”
  • avatar b replies "Thank you.” This series of conversations between avatars is output from the audio output unit 134 of terminal device 10B.
  • the voice of the avatar b's utterances in 5-1. and 5-3. may be generated by the transmission voice generation module 234 of the server 20, or may be generated by the voice generation unit 205 of the terminal device 10B.
  • the recipient user can obtain the desired information by listening to the conversation between the avatars, triggered by his/her own question, and can easily obtain information without being disturbed while driving a vehicle or performing other tasks.
  • the user can enjoy an experience similar to listening to the radio, improving the user experience.
  • an outgoing information acquisition step for acquiring outgoing information from the calling user in association with location information relating to the location
  • an outgoing information storage step (S122) for storing the outgoing information acquired from the calling user in a storage unit
  • a location designation information acquisition step S131, S123
  • a transmission information identification step (S124) for identifying transmission information to be transmitted from the outgoing information to the receiving user based on the acquired location designation information and the location information associated with the outgoing information.
  • recipient users who use moving objects such as vehicles can quickly obtain answers to their questions without having to go through the time-consuming and laborious process of matching with other users or manually entering their questions.
  • terminal device 10 is mounted on a vehicle and functions as a communication-capable audio device.
  • the audio device mounted on the vehicle is used to send information from the user and transmit information to the user, making it possible to effectively transmit information by voice using the equipment built into the audio device.
  • voices are generated from avatars corresponding to the sending user and the receiving user, and the avatars converse with each other to transmit the transmitted information to the receiving user.
  • the desired information can be obtained by eavesdropping on the conversation between the avatars, and the information can be obtained easily without being disturbed while driving a vehicle or performing other tasks.
  • this type of conversation format between avatars it is possible to create the illusion of a real-time information exchange taking place regarding information that was previously sent and stored in the transmitted information database 224, and it is possible to give the user the experience of synchronous communication with other users.
  • system 1 in response to receiving question information from a recipient user, identifies the information to be transmitted to the recipient user based on location information associated with the transmitted information and information specifying the location included in the question information. In this way, it becomes possible for the recipient user to quickly obtain an answer to the information he or she wants to know.
  • Second embodiment> A system 1 according to a second embodiment of the present disclosure will be described below with reference to Figures 9 to 12. The following description will focus on differences from the above embodiment.
  • FIG. 9 is a block diagram showing an example of a hardware configuration of the system 1 in the second embodiment.
  • the system 1 further includes an external server 40.
  • the external server 40 is configured to be able to communicate with the server 20 via the network 30.
  • the external server 40 may be, for example, a server managed by an organization or the like different from the business entity managing the server 20.
  • the hardware configuration of the external server 40 is similar to that of the server 20, and therefore description thereof will not be repeated.
  • step S211 in FIG. 10 the voice reception unit 204 of the terminal device 10A used by the calling user acquires the calling information from the calling user.
  • the voice reception unit 204 of the terminal device 10A used by the calling user acquires the calling information from the calling user.
  • the calling user in the example shown in FIG. 12, in 1., user A as the calling user makes a statement saying, "There's a tire lying in the Roppongi Tunnel!, and the statement is acquired by the voice reception unit 204 as the calling information.
  • step S212 the transmission/reception unit 202 of the terminal device 10A transmits the outgoing call information acquired by the voice reception unit 204 to the server 20.
  • the transmission/reception unit 202 may transmit the location information acquired by the location information acquisition unit 207 of the terminal device 10A to the server 20 together with the outgoing call information.
  • step S221 the transmission/reception module 231 of the server 20 receives the outgoing call information from the terminal device 10A.
  • the transmission/reception module 231 may receive the location information of the terminal device 10A transmitted together with the outgoing call information.
  • step S222 the transmission/reception module 231 of the server 20 transmits the outgoing information received from the terminal device 10A to the external server 40.
  • the transmission/reception module 231 may transmit, together with the outgoing information, location information of the terminal device 10A that transmitted the outgoing information.
  • step S241 the external server 40 receives the outgoing information (and the location information of the terminal device 10A).
  • the external server 40 is a server managed by an organization that manages roads (hereinafter referred to as the road management organization).
  • the road management organization checks the content of the transmitted information based on the transmitted information received by the server 20 from the terminal device 10A.
  • the road management organization may evaluate the reliability of the transmitted information based on the location information of the terminal device 10A.
  • the external server 40 transmits the confirmed information (also called confirmation information) to the server 20.
  • the transmission/reception module 231 of the server 20 receives the confirmation information from the external server 40.
  • the confirmation information received by the server 20 may include the transmission information received from the terminal device 10A and information regarding the authenticity of the transmission information.
  • step S224 the outgoing information storage module 232 of the server 20 stores the confirmation information received by the transmission/reception module 231 in the outgoing information database 224 of the storage unit 220.
  • the road management organization that manages the external server 40 checks the transmitted information from the terminal device 10A.
  • the transmitted information storage module 232 stores "A tire has fallen in the Roppongi Tunnel” in the "Transmitted Content” item of the transmitted information database 224.
  • the transmitted information storage module 232 may store "Roppongi Tunnel” in the "Location Information” item of the transmitted information database 224.
  • step S231 in FIG. 11 the transmitting/receiving unit 202 of the terminal device 10B used by the recipient user transmits the location information of the terminal device 10B acquired by the location information acquisition unit 207 to the server 20 as information specifying a location.
  • step S225 the transmitting/receiving module 231 of the server 20 receives the location information from the terminal device 10B.
  • the transceiver 202 of the terminal device 10B transmits the location information (near Roppongi Tunnel) of the vehicle C2 used by user B to the server 20.
  • the transceiver 202 may transmit the location information to the server 20 periodically at a predetermined timing, or may transmit the location information when a predetermined operation is received from the recipient user.
  • the transmission information identification module 233 identifies the transmission information to be transmitted to the recipient user from among the transmission information in the transmission information database 224 based on the position information received from the terminal device 10B and the location information associated with the transmission information stored in the transmission information database 224 (i.e., the "location information" item in the transmission information database 224).
  • the transmission information identification module 233 may determine the transmission information based on other information (hereinafter referred to as specific information). Examples of specific information include the destination of the mobile object used by the recipient user and the time required to reach the destination.
  • step S227 the transmission voice generation module 234 generates voice information corresponding to the transmission information identified by the transmission information identification module 233.
  • step S2208 the transmission/reception module 231 of the server 20 receives the transmission voice generated by the transmission voice generation module and transmits it to the terminal device 10B.
  • step S232 the transmission/reception unit 202 of the terminal device 10B receives the transmission voice.
  • step S233 the audio output unit 134 of the terminal device 10B outputs the transmitted audio received by the transmission/reception unit 202. Specifically, the audio output unit 134 provides the transmitted audio to the audio processing unit 170. The audio processing unit 170 provides an audio signal corresponding to the received transmitted audio to the speaker 172, and the audio is output from the speaker 172.
  • avatar b associated with user B as the recipient user says, "I heard there's a tire lying in the Roppongi Tunnel up ahead!"
  • the voice of the utterance by avatar b in 5. may be generated by the transmission voice generation module 234 of the server 20, or may be generated by the voice generation unit 205 of the terminal device 10B.
  • the system 1 acquires the location information of the mobile body used by the recipient user, and identifies the transmission information to be transmitted to the recipient user based on the location information.
  • the functions of system 1 may be realized using a terminal device 10 such as a smartphone carried by the user.
  • one user is associated with one avatar, but this is not limited to the above.
  • multiple avatars may be associated with one user.
  • multiple users may be associated with one avatar.
  • Avatar database 182 may also store avatars (hereinafter referred to as ghost avatars) that are not associated with a user.
  • a specification may be made in which predetermined information is transmitted from a ghost avatar associated with the location information of a vehicle being driven by the user.
  • a specification may be made in which a mission that is completed by moving to a predetermined location, such as a quiz or a stamp rally, is provided from the ghost avatar associated with the location information, and a predetermined benefit is granted (for example, the availability of a new avatar) upon correcting the quiz or completing the mission.
  • the audio output unit 206 of the terminal device 10 may output audio having directionality that reflects the relative positions of the location information associated with the transmission information and the location information of the vehicle driven by the user, based on the location information of the vehicle.
  • the terminal device 10 as a car audio device mounted on a vehicle C may be equipped with four speakers, 172a to 172d.
  • the audio output unit 206 may output an audio signal from one of the speakers 172a to 172d (or a combination thereof) so that the user hears the transmission audio from the direction of the location information associated with the transmission information, based on the vehicle's location information.
  • the system 1 may also be designed to be multilingual.
  • the voice receiving unit 204 of the terminal device 10 may identify the language of the voice and transmit information in that language to the server 20.
  • the outgoing information storage module 232 of the server 20 may also be designed to perform analysis based on information in the language received from the terminal device 10 when analyzing the outgoing information using natural language processing.
  • the transmission voice generation module 234 may be designed to generate a transmission voice corresponding to the transmission information in the language received from the terminal device 10 when generating a transmission voice. In this way, the statement of the sending user may be translated, or the translation may be performed when transmitting to the receiving user.
  • Such specifications allow users to smoothly share information across language barriers.
  • the terminal device 10 accepts outgoing information by voice, but this is not limited to this example.
  • the terminal device 10 may accept outgoing information by the calling user inputting text using an input device such as a touch-sensitive device.
  • the control unit 230 of the server 20 may also be configured to acquire information posted by users using services such as SNS (Social Networking Service) as posted information.
  • SNS Social Networking Service
  • information posted by users on SNS websites such as Twitter (registered trademark) may be acquired by the posted information storage module 232 through crawling, and stored in the posted information database 224.
  • Existing crawling tools such as Octoparse and Web Scraper may be used for crawling.
  • the terminal device 10 is not limited to a tablet terminal or a mobile terminal such as a smartphone, but may be realized by a stationary PC (Personal Computer) or a laptop PC, etc. In this case, the terminal device 10 may be realized by installing software on a home PC, etc., and may be configured to accept operations such as a mouse.
  • a tablet terminal or a mobile terminal such as a smartphone
  • a stationary PC Personal Computer
  • a laptop PC etc.
  • the terminal device 10 may be realized by installing software on a home PC, etc., and may be configured to accept operations such as a mouse.
  • the sharing of specific information via a communication line is mainly performed via a WAN such as the Internet, but between information processing devices, the sharing may be performed only via short-range wireless communication such as Bluetooth (registered trademark) or infrared communication without using a WAN.
  • short-range wireless communication such as Bluetooth (registered trademark) or infrared communication without using a WAN.
  • each step described in the above embodiment as being executed by the terminal device 10 may be executed by the server 20, and each step described as being executed by the server 20 may be executed by the server 20.
  • the present invention may be realized as a program that causes an information processing device to execute the functions of the terminal device 10 or server 20 described above, or as a non-transitory computer-readable recording medium that stores the program.
  • a program for causing a computer having a processor and a memory unit to transmit information to a user moving on a mobile object the program causing the processor to execute the following steps: an outgoing information acquisition step (S111, S121) of acquiring outgoing information transmitted by a first user in association with location information relating to a location, an outgoing information storage step (S122) of storing the outgoing information acquired from the first user in the memory unit; a location designation information acquisition step (S123) of acquiring location designation information designating a location from a second user; and a transmission information identification step (S124) of identifying transmission information to be transmitted to the second user from the outgoing information based on the acquired location designation information and location information associated with the outgoing information.
  • Appendix 2 The program described in Appendix 1, which causes the computer mounted on the moving object to function as a communication-capable acoustic device.
  • Appendix 3 The program according to claim 1 or 2, further comprising causing the processor to execute a step of transmitting the identified communication information to the second user by voice.
  • Appendix 4 The program described in Appendix 3 causes the processor to execute the steps of generating voices to be emitted by avatars corresponding to the first user and the second user, and transmitting the transmission information to the second user by having the avatars converse with each other.
  • the computer is provided with a plurality of speakers, and the program causes the computer to output directional sound from the plurality of speakers based on location information held in the transmission information and position information of the moving body in a step of transmitting the identified transmission information to the second user by voice.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Business, Economics & Management (AREA)
  • General Engineering & Computer Science (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Tourism & Hospitality (AREA)
  • Human Computer Interaction (AREA)
  • Human Resources & Organizations (AREA)
  • Marketing (AREA)
  • Primary Health Care (AREA)
  • Strategic Management (AREA)
  • General Business, Economics & Management (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Economics (AREA)
  • Automation & Control Theory (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Navigation (AREA)
  • User Interface Of Digital Computer (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

プロセッサと記憶部を備えるコンピュータに、移動体で移動をするユーザへの情報の伝達を行わせるプログラムであって、プログラムは、プロセッサに、第1のユーザから、場所に関する場所情報と関連付けて、第1のユーザが発信する発信情報を取得する発信情報取得ステップと、第1のユーザから取得した発信情報を、記憶部に記憶させる発信情報記憶ステップと、第2のユーザから位置を指定する情報を取得する位置指定情報取得ステップと、取得した位置情報と、発信情報に関連付けられた場所情報とに基づいて、発信情報の中から第2のユーザへ伝達する伝達情報を特定する伝達情報特定ステップと、を実行させるプログラムが開示される。

Description

プログラム、方法、情報処理装置、システム
 本開示は、プログラム、方法、情報処理装置、システムに関する。
 昨今、車両等で移動するユーザが様々な情報を収集するためのシステムが開発されている。例えば、特許文献1には、移動する複数のユーザの目的地を取得して、目的地が共通するユーザのマッチングを行い、マッチングされたユーザ間での情報共有を実現するシステムが開示されている。
特開2022-50821号公報
 一方、上記技術では、目的地が共通することを条件としてユーザのマッチングをおこなっているため、迅速な情報収集を求める場面において改善の余地があった。
 本開示の目的は、車両等で移動するユーザにおいて、迅速な情報収集を可能にすることである。
 本開示では、プロセッサと記憶部を備えるコンピュータに、移動体で移動をするユーザへの情報の伝達を行わせるプログラムであって、プログラムは、プロセッサに、第1のユーザから、場所に関する場所情報と関連付けて、第1のユーザが発信する発信情報を取得する発信情報取得ステップと、第1のユーザから取得した発信情報を、記憶部に記憶させる発信情報記憶ステップと、第2のユーザから位置を指定する情報を取得する位置指定情報取得ステップと、取得した位置情報と、発信情報に関連付けられた場所情報とに基づいて、発信情報の中から第2のユーザへ伝達する伝達情報を特定する伝達情報特定ステップと、を実行させるプログラムが開示される。
 本開示によれば、車両等で移動するユーザにおいて、他のユーザからの情報収集を迅速に行うことが可能となる。
システム1の概要を説明する図である。 システム1のハードウェア構成を示すブロック図である。 端末装置10の機能構成を示すブロック図である。 サーバ20の機能構成を示すブロック図である。 端末装置10の記憶部180に記憶されるデータベースの構造を示す図である。 サーバ20の記憶部220に記憶されるデータベースの構造を示す図である。 システム1の処理の流れを説明するフロー図である。 システム1の処理の一例を説明する図である。 第2実施形態におけるシステム1のハードウェア構成を示すブロック図である。 第2実施形態におけるシステム1の処理の流れの前半を説明するフロー図である。 第2実施形態におけるシステム1の処理の流れの後半を説明するフロー図である。 第2実施形態におけるシステム1の処理の一例を説明する図である。 他の実施形態における端末装置10の構成を示す図である。
 以下、図面を参照しつつ、本開示の実施形態について説明する。以下の説明では、同一の部品には同一の符号を付してある。それらの名称及び機能も同じである。したがって、それらについての詳細な説明は繰り返さない。
 <1.第1実施形態>
 (1-1.システム1の概要)
 図1を参照して、システム1が提供する機能(以下、本機能ともいう)の概要を説明する。図1に示すように、システム1は、ユーザが使用する端末装置10と、サーバ20を備える。ユーザU1は、端末装置10Aを使用して、所望の情報を発信する。ユーザU1が発信した発信情報は、サーバ20へ送信される。一例として、発信情報には、場所に関する場所情報が含まれる。サーバ20は、発信情報を受信すると、当該発信情報を記憶部に記憶する。
 サーバ20は、ユーザU2が端末装置10Bから発信した情報を受信する。端末装置10BはユーザU2が運転する車両Cに搭載されている音響装置である。ユーザU2が発信した情報には、位置を指定する情報である位置指定情報が含まれる。サーバ20は、車両Cの位置に関する情報を位置指定情報として受信する。
 サーバ20は、端末装置10Bから受信した位置指定情報と、記憶部内の発信情報に関連付けられた場所情報とに基づいて、発信情報の中からユーザU2へ伝達する伝達情報を特定し、端末装置10Bに送信する。端末装置10Bは、受信した伝達情報をユーザU2へ通知する。
 このように、システム1では、ユーザU1が発信した発信情報を、場所に関する情報と関連付けて記憶部に記憶させ、ユーザU2が運転する車両Cの位置情報に基づいて伝達すべき情報を特定してユーザU2に通知する。これにより、車両等で移動するユーザにおいて、他のユーザからの情報収集を迅速に行うことが可能となる。以下、各構成を詳細に説明する。なお、以下の実施形態において、情報を発信するユーザU1を発信ユーザ(特許請求の範囲における「第1のユーザ」)、発信情報が伝達されるユーザU2を受取ユーザ(特許請求の範囲における「第2のユーザ」)ともいう。
 (1-2.システム1のハードウェア構成)
 図2は、システム1のハードウェア構成の例を示すブロック図である。システム1は、複数の端末装置10と、サーバ20とを備える。端末装置10およびサーバ20は、ネットワーク30を介して通信可能に接続されている。なお、図2に示す例では、システム1は2つの端末装置10を備えているが、端末装置10の数はこの例に限定されることはなく、3つ以上でもよい。
 本実施形態において、複数の装置の集合体を1つのサーバ20としてもよい。1つ又は複数のハードウェアに対して本実施形態に係るサーバ20を実現することに要する複数の機能の配分の仕方は、各ハードウェアの処理能力及び/又はサーバ20に求められる仕様等に鑑みて適宜決定することができる。
 端末装置10は、一例として、ユーザが運転する移動体としての車両に搭載され、カーナビ(Automotive navigation system)及びカーオーディオ(車両用音響装置)としての機能を備えるコンピュータである。また、端末装置10は、タブレット端末、又はスマートフォン等の携帯端末として実現してもよい。端末装置10は、通信IF(Interface)12と、入力装置13と、出力装置14と、メモリ15と、ストレージ16と、プロセッサ19とを備える。
 通信IF12は、端末装置10が外部の装置と通信するため、信号を入出力するためのインタフェースである。
 入力装置13は、ユーザからの入力操作を受け付けるための装置(例えば、タッチパネル、マイク等)である。
 出力装置14は、ユーザに対して情報を提示するための装置(ディスプレイ、スピーカ等)である。
 メモリ15は、プログラム、及び、プログラム等で処理されるデータ等を一時的に記憶するためのものであり、例えばDRAM(Dynamic Random Access Memory)等の揮発性のメモリである。
 ストレージ16は、データを保存するためのものであり、例えばフラッシュメモリ、HDD(Hard Disc Drive)である。
 プロセッサ19は、プログラムに記述された命令セットを実行するためのハードウェアであり、演算装置、レジスタ、周辺回路等により構成される。
 サーバ20は、インターネットなどのネットワーク30を介して端末装置10と通信可能なコンピュータであり、いわゆるクラウドサーバとして実現される。サーバ20は、通信IF22と、入出力IF23と、メモリ25と、ストレージ26と、プロセッサ29とを備える。
 入出力IFは、サーバ20に対して何らかの入力操作を行う場合、または、サーバ20から情報を出力する場合に、入出力装置を接続するためのインタフェースである。
 通信IF22、メモリ25、ストレージ26およびプロセッサ29は、端末装置10の通信IF12、メモリ15、ストレージ16およびプロセッサ19と同様に構成されるため、説明は繰り返さない。
 (1-3.端末装置10の機能構成)
 図3は、端末装置10の機能構成の例を示すブロック図である。図3に示すように、端末装置10は、入力装置13と、出力装置14と、通信部150と、撮像部160と、音声処理部170と、記憶部180と、位置情報センサ190と、制御部200を備える。図3において端末装置10に含まれる各ブロックは、例えば、バス等により電気的に接続される。
 通信部150は、端末装置10が他の装置と通信するための変復調処理等の処理を行う。通信部150は、制御部200で生成された信号に送信処理を施し、外部(例えば、他の端末装置10)へ送信する。通信部150は、外部から受信した信号に受信処理を施し、制御部200へ出力する。
 入力装置13は、端末装置10を操作するユーザが指示、又は情報を入力するための装置である。入力装置13は、例えば、操作面へ触れることで指示が入力されるタッチセンシティブデバイス131等により実現される。入力装置13は、キーボードまたはマウスを含んでいてもよい。入力装置13は、ユーザから入力される指示、又は情報を電気信号へ変換し、電気信号を制御部200へ出力する。なお、入力装置13には、例えば、外部の入力機器から入力される電気信号を受け付ける受信ポートが含まれてもよい。
 出力装置14は、端末装置10を操作するユーザへ情報を提示するための装置である。出力装置14は、例えば、ディスプレイ141等により実現される。ディスプレイ141は、制御部200の制御に応じたデータを表示する。ディスプレイ141は、例えば、LCD(Liquid Crystal Display)、又は有機EL(Electro-Luminescence)ディスプレイ等によって実現される。
 音声処理部170は、例えば、音声信号のデジタル-アナログ変換処理を行う。音声処理部170は、マイク171から与えられる信号をデジタル信号に変換して、変換後の信号を制御部200へ与える。また、音声処理部170は、音声信号をスピーカ172へ与える。音声処理部170は、例えば音声処理用のプロセッサによって実現される。マイク171は、音声入力を受け付けて、当該音声入力に対応する音声信号を音声処理部170へ与える。スピーカ172は、音声処理部170から与えられる音声信号を音声に変換して当該音声を端末装置10の外部へ出力する。
 記憶部180は、例えば、メモリ15、及びストレージ16等により実現され、端末装置10が使用するデータ、及びプログラムを記憶する。記憶部180は、一例として、ユーザデータベース(DB:DataBase)181と、アバターデータベース182と、演出データベース183を記憶する。
 ユーザデータベース181は、ユーザの情報を記憶するためのデータベースである。ユーザデータベース181には、当該端末装置10を利用するユーザに関する情報が記憶される。一例として、ユーザデータベース181は、端末装置10にインストールされた本機能を提供するソフトウェアを利用して、ユーザがユーザ登録の作業を行ったタイミングで、レコードが生成される仕様としてもよい。ユーザデータベース181のデータ構造の詳細は後述する。
 アバターデータベース182は、ユーザに対応づけられるアバターの情報を記憶するためのデータベースである。アバターとは、ユーザの分身としての機能を備える仮想のキャラクタであって、システム1において、ユーザの代わりに各種情報を伝達する役割を果たすように構成されている。アバターデータベース182には、アバターそれぞれに設定される情報が記憶されている。一例として、アバターデータベース182は、本機能を実行するために端末装置10にインストールされたソフトウェアを利用して、ユーザがアバターの情報を登録する作業を行ったタイミングでレコードが生成される仕様としてもよい。アバターデータベース182のデータ構造の詳細は後述する。
 演出データベース183は、アバターごとに設定される演出の情報を記憶するためのデータベースである。本実施形態では、演出としてアバターが発する音声について、声色や声の高さなどの各種パラメータを設定可能な仕様となっている。演出データベース183では、アバターに設定可能な演出の情報が記憶されている。一例として、演出データベース183は、本機能を実行するためのソフトウェアを端末装置10にインストールしたタイミングで、初期設定として用意されたレコードが生成される仕様としてもよい。また、当該初期設定のレコードに加えて、ユーザが演出の情報を設定する作業を行ったタイミングで、追加のレコードが生成される仕様としてもよい。演出データベース183のデータ構造の詳細は後述する。
 位置情報センサ190は、端末装置10の位置を検出するセンサであり、例えばGPS(Global Positioning System)モジュールである。GPSモジュールは、衛星測位システムで用いられる受信装置である。衛星測位システムでは、少なくとも3個または4個の衛星からの信号を受信し、受信した信号に基づいて、GPSモジュールが搭載される端末装置10の現在位置を検出する。なお、GPS以外の衛星測位システム、例えばGNSS(Global Navigation Satellite System:全地球航法衛星システム)と呼ばれるシステムを用いた位置情報センサ190であってもよい。
 制御部200は、プロセッサ19が記憶部180に記憶されるプログラムを読み込み、プログラムに含まれる命令を実行することにより実現される。制御部200は、端末装置10の動作を制御する。制御部200は、プログラムに従って動作することにより、操作受付部201と、送受信部202と、表示制御部203と、音声受付部204と、音声生成部205と、音声出力部206と、位置情報取得部207としての機能を発揮する。
 操作受付部201は、入力装置13から入力される指示、又は情報を受け付けるための処理を行う。具体的には、例えば、操作受付部201は、タッチセンシティブデバイス131等から入力される指示に基づく情報を受け付ける。
 送受信部202は、端末装置10が、外部の装置と通信プロトコルに従ってデータを送受信するための処理を行う。
 表示制御部203は、ユーザに対する情報のディスプレイ141に代表される出力装置14への表示を制御する。
 音声受付部204は、ユーザが発する音声を受け付ける。具体的には、例えば、ユーザが発する音声の入力を端末装置10のマイク171で検出し、音声処理部170における音声信号のデジタル-アナログ変換処理を行って、音声受付部204によってユーザが発した音声が受け付けられる仕様としてもよい。
 音声生成部205は、ユーザに伝達するための伝達情報に対応する音声情報を生成する。本実施形態では、音声生成部205は、サーバ20から受信した伝達情報と、アバターデータベース182および演出データベース183を参照し、ユーザに対応づけられたアバターの音声を生成する。音声生成部205は、音声の生成にあたり、例えば、規則合成(フォルマント音声合成および調音音声合成などを含む)、波形接続型音声合成(単位選択型音声合成、ダイフォン音声合成、および分野限定音声合成などを含む)、統計的パラメトリック音声合成(隠れマルコフモデル音声合成およびニューラルネットワーク音声合成などを含む)といった周知の音声合成技術を利用してもよい。
 音声出力部206は、音声生成部205が生成した伝達情報に対応する音声情報を出力する。具体的には、例えば、音声生成部205は、音声生成部205が生成した音声情報を音声処理部170へ与える。音声処理部170は、受け付けた音声情報に対応する音声信号のスピーカ172へ与える。スピーカ172は、音声処理部170から与えられる音声信号を音声に変換して、端末装置10の外部へ出力する。
 位置情報取得部207は、車両等の移動体で移動するユーザの位置情報を取得する。具体的には、例えば、位置情報取得部207は、位置情報センサ190が取得した端末装置10の位置情報を取得する。また、位置情報取得部207は、ユーザが入力した位置情報を、端末装置10の位置情報として取得する。制御部200の各機能における処理の詳細は後述する。
 (1-4.サーバ20の機能構成)
 図4は、サーバ20は、通信部210と、記憶部220と、制御部230を備える。図4においてサーバ20に含まれる各ブロックは、例えば、バス等により電気的に接続される。
 通信部210は、サーバ20が外部の装置と通信するための処理を行う。
 記憶部220は、例えば、メモリ25、及びストレージ26等により実現され、サーバ20が使用するデータ、及びプログラムを記憶する。記憶部220は、ユーザデータベース221と、アバターデータベース222と、演出データベース223と、発信情報データベース224を記憶する。
 ユーザデータベース221は、ユーザの情報を記憶するためのデータベースであり、端末装置10に記憶されているユーザデータベース181と同様のデータ構造とすることができる。一例として、ユーザデータベース221は、端末装置10のユーザデータベース181にレコードが生成されたタイミングで、当該レコードの情報を端末装置10から受信して、ユーザデータベース221に当該レコードが追加される仕様としてもよい。ユーザデータベース221のデータ構造の詳細は後述する。
 アバターデータベース222は、ユーザに対応づけられるアバターの情報を記憶するためのデータベースであり、端末装置10に記憶されているアバターデータベース182と同様のデータ構造とすることができる。一例として、アバターデータベース222は、端末装置10のアバターデータベース182にレコードが生成されたタイミングで、当該レコードの情報を端末装置10から受信して、アバターデータベース222に当該レコードが追加される仕様としてもよい。アバターデータベース222のデータ構造の詳細は後述する。
 演出データベース223は、アバターごとに設定される演出の情報を記憶するためのデータベースであり、端末装置10に記憶されている演出データベース183と同様のデータ構造とすることができる。一例として、演出データベース223は、端末装置10の演出データベース183にレコードが生成されたタイミングで、当該レコードの情報を端末装置10から受信して、演出データベース223に当該レコードが追加される仕様としてもよい。演出データベース223のデータ構造の詳細は後述する。
 発信情報データベース224は、ユーザが発信した発信情報を記憶するためのデータベースである。発信情報データベース224には、ユーザが発信した情報が発信情報として記憶される。一例として、発信情報データベース224は、制御部230の送受信モジュール231が端末装置10から発信情報を受信し、発信情報記憶モジュール232によってレコードが生成される仕様としてもよい。発信情報データベース224のデータ構造の詳細は後述する。
 制御部230は、プロセッサ29が記憶部220に記憶されるプログラムを読み込み、プログラムに含まれる命令を実行することにより実現される。制御部230は、プログラムに従って動作することにより、送受信モジュール231、発信情報記憶モジュール232、伝達情報特定モジュール233、伝達音声生成モジュール234を備える。
 送受信モジュール231は、サーバ20が、外部の装置と通信プロトコルに従ってデータを送受信するための処理を行う。
 発信情報記憶モジュール232は、発信ユーザが使用する端末装置10から送受信モジュール231が受信した発信情報を、記憶部220の発信情報データベース224に記憶する。発信情報記憶モジュール232は、送受信モジュール231が受信した発信情報に対して、周知の自然言語処理による解析を行い、当該解析の結果を記憶部に記憶させてもよい。一例として、発信情報記憶モジュール232は自然言語処理として、送受信モジュール231が受信した発信情報に対して、形態素解析、構文解析、意味解析、文脈解析などの解析処理を行い、当該解析の結果を発信情報データベース224に記憶する仕様としてもよい。
 伝達情報特定モジュール233は、受取ユーザが使用する端末装置10から受信した位置指定情報と、発信情報データベース224に記憶されている発信情報に関連付けられた場所情報とに基づいて、発信情報データベース224内の発信情報の中から受取ユーザへ伝達する伝達情報を特定する。伝達情報特定モジュール233は、さらに、発信情報が発信された日時および位置指定情報を受信した日時等の情報に基づいて、受取ユーザへ伝達する伝達情報を特定してもよい。
 伝達音声生成モジュール234は、ユーザに伝達するための伝達情報に対応する音声情報を生成する。本実施形態では、伝達音声生成モジュール234は、伝達情報特定モジュール233が特定した発信情報と、アバターデータベース222および演出データベース223を参照し、ユーザに対応づけられたアバターの音声を生成する。伝達音声生成モジュール234は、音声の生成にあたり、例えば、規則合成(フォルマント音声合成および調音音声合成などを含む)、波形接続型音声合成(単位選択型音声合成、ダイフォン音声合成、および分野限定音声合成などを含む)、統計的パラメトリック音声合成(隠れマルコフモデル音声合成およびニューラルネットワーク音声合成などを含む)といった周知の音声合成技術を利用してもよい。
 (1-5.データ構造)
 図5および図6を参照し、システム1で使用するデータベースのデータ構造を説明する。なお、以下に説明するデータ構造はあくまでも一例であり、他のデータベースおよびデータ項目の保有を除外するものではない。
 図5は、端末装置10の記憶部180が記憶するユーザデータベース181、アバターデータベース182、演出データベース183のデータ構造の一例を示す図である。
 図5に示すように、ユーザデータベース181のレコードは、項目「ユーザID」と、項目「ユーザ名」と、項目「年齢」と、項目「性別」と、項目「登録日時」等を含む。
 項目「ユーザID」は、ユーザを識別するための識別情報であり、ユーザデータベース181におけるレコードを一意に特定するための主キーである
 項目「ユーザ名」は、ユーザの名前についての情報である。ユーザ名は、ユーザの本名であってもよいし、ニックネームなどの本人を特定しない情報であってもよい。
 項目「年齢」は、ユーザの年齢についての情報である。
 項目「性別」は、ユーザの性別についての情報である。
 項目「登録日」は、ユーザデータベースに当該レコードが登録された日付についての情報である。
 ユーザは、端末装置10にインストールされた本機能を提供するソフトウェアを利用して、ユーザ情報を登録してユーザデータベース181にレコードを追加できる仕様としてもよい。
 アバターデータベース182のレコードは、項目「アバターID」と、項目「アバター名」と、項目「年齢」と、項目「性別」と、項目「対応ユーザ」と、項目「対応演出」等を含む。
 項目「アバターID」は、アバターを識別するための識別情報であり、アバターデータベース182におけるレコードを一意に特定するための主キーである。
 項目「アバター名」は、アバターの名前についての情報である。
 項目「年齢」は、アバターの年齢についての情報である。
 項目「性別」は、アバターの性別についての情報である。
 項目「対応ユーザ」は、アバターに対応付けて登録されるユーザを特定するための情報であり、ユーザデータベース181の項目「ユーザID」が外部キーとして保持される。本実施形態では、1のアバターに対して1のユーザが対応づけられて、アバターデータベース182に記憶される。
 項目「対応演出」は、アバターに対して適用される演出を特定するための識別情報であり、演出データベース183の項目「演出ID」が外部キーとして保持される。このように、アバターそれぞれに対して適用される演出についての情報が、アバターデータベース182に記憶される。
 一例として、端末装置10に本機能を提供するソフトウェアをインストールするタイミングで、初期設定として用意されているレコードを備えるアバターデータベース182が生成される仕様としてもよい。また、ユーザは、当該ソフトウェアを利用して、アバターデータベース182のレコードにおける各項目の内容を更新できる仕様としてもよい。また、ユーザは、当該ソフトウェアを利用して、アバターに関する情報を新たに登録してアバターデータベース182にレコードを追加できる仕様としてもよい。
 演出データベース183のレコードは、項目「演出ID」と、項目「声色」と、項目「声の高さ」と、項目「語尾」等を含む。
 項目「演出ID」は、アバターに対して適用される演出を識別するための識別情報であり、演出データベース183のレコードを一意に特定するための主キーである。
 項目「声色」は、アバターの声における音色についての情報であり、具体的には、アバターが発生する音声の音波における波形についての情報である。
 項目「声の高さ」は、アバターの声の高さについての情報であり、具体的には、アバターが発生する音声の音波における周波数についての情報である。
 項目「語尾」は、アバターの発言に対して末尾に付加される言葉についての情報である。具体的には、「~だよ」、「~じゃ」、「~ぴょん」といった発言内容の語尾に付加され得る言葉についての情報である。
 図6は、サーバ20の記憶部220が記憶するユーザデータベース221、アバターデータベース222、演出データベース223、発信情報データベース224のデータ構造の一例を示す図である。なお、ユーザデータベース221、アバターデータベース222、演出データベース223については、端末装置10の記憶部180が記憶するユーザデータベース181、アバターデータベース182、演出データベース183と同様のデータ構造で構成可能であるため、説明は繰り返さない。
 発信情報データベース224のレコードは、項目「発信ID」と、項目「発信ユーザ」と、項目「発信内容」と、項目「場所情報」と、項目「発信日時」等を含む。
 項目「発信ID」は、発信情報を識別するための識別情報であり、発信情報データベース224のレコードを一意に特定するための主キーである。
 項目「発信ユーザ」は、発信情報を発信したユーザを特定するための情報であり、ユーザデータベース221の項目「ユーザID」が外部キーとして保持される。
 項目「発信内容」は、発信情報の内容について情報である。項目「発信内容」には、送受信モジュール231が受信した発信情報に対して、発信情報記憶モジュール232が自然言語処理等の解析を行った解析結果が記憶されることが好ましい。すなわち、発信ユーザによって発声された音声情報そのものではなく、当該音声情報を解析した解析結果が記憶されることが好ましい。
 項目「場所情報」は、発信情報に関連付けられて発信ユーザから取得される場所に関する情報である。場所情報は、例えば、発信情報の内容に含まれる場所に関する情報を抽出して記憶してもよい。または、発信ユーザが情報を発信した際の位置の情報を受信して、場所情報として記憶してもよい。または、発信ユーザが情報を発信する際に、どの場所についての情報かを入力または選択し、当該入力または選択された情報を場所情報として記憶してもよい。
 項目「発信日時」は、発信ユーザが情報を発信した日時についての情報である。
 (1-6.処理の流れ)
 以下、図7および図8を参照して、システム1の処理の一例を説明する。本実施形態では、受取ユーザとしてのユーザBのみが車両等の移動体で移動している想定で説明する。
 図7におけるステップS111において、発信ユーザが使用する端末装置10Aの音声受付部204は、発信ユーザから発信情報を取得する。具体的には、音声受付部204は、発信ユーザが発した音声を発信情報として取得する。なお、発信ユーザは、情報を発信するにあたり、自身を特定するユーザ情報を端末装置10Aに入力し、当該ユーザ情報が発信情報に含まれる仕様としてもよい。
 音声受付部204は、所定の条件が満たされた場合に、発信ユーザが発した音声を発信情報として取得する仕様としてもよい。例えば、音声受付部204は、発信ユーザによる端末装置10への所定の操作を条件として、発信ユーザが発した音声を発信情報として取得してもよい。具体的には、端末装置10のディスプレイ141に発信情報を受け付けるためのボタン等が表示され、発信ユーザが当該ボタンを押下したことを条件として、音声受付部204は発信ユーザが発した音声を発信情報として取得する仕様としてもよい。
 または、音声受付部204は、発信ユーザが特定の発言をしたことを条件として、発信ユーザが発した音声を発信情報として取得する仕様としてもよい。例えば、「情報を発信します」等の予め定められた文章、キーワード、合言葉などの発言を行った場合に、音声受付部204は、発信ユーザが発した音声を発信情報として取得する仕様としてもよい。他の例として、発信ユーザが自身に対応付けられているアバターの名前を呼ぶことを条件として、発信ユーザが発した音声を発信情報として取得する仕様としてもよい。
 図8に示す例では、1-1.において発信ユーザとしてのユーザAが「彦根城に虹だ」という発言を行っており、それに対して、1-2.においてユーザAに関連付けられたアバターaが「了解!」という返事を発言している。このように、音声受付部204によって発信ユーザが発した音声が発信情報として取得されると、音声生成部205は発信ユーザに対応づけられたアバターによる返事としての音声を生成し、音声出力部206によって当該音声が出力される仕様としてもよい。
 具体的には、例えば、音声生成部205は、発信ユーザからの発信情報を取得すると、発信ユーザに対応付けられたアバターに対して予め設定された返事の音声を生成する。当該返事の内容(すなわち、セリフ)は、例えばアバターデータベース182に記憶されていてもよいし、記憶部180内の他のデータベースに記憶されていてもよい。音声生成部205は、アバターデータベース182を参照し、項目「対応演出」が発信情報に含まれるユーザ情報と一致するレコードを取得する。
 音声生成部205は、取得したアバターデータベース182のレコードにおける項目「対応演出」を取得する。音声生成部205は、演出データベース183を参照し、項目「演出ID」が取得した対応演出に一致するレコードを取得する。音声生成部205は、取得した演出データベース183のレコードに基づいて、返事の内容に対応する音声を、発信ユーザに関連付けられたアバターの音声として生成する。
 ステップS112において、端末装置10Aの送受信部202は、音声受付部204が取得した発信情報をサーバ20へ送信する。送受信部202は、発信情報の送信と合わせて、端末装置10Aの位置情報取得部207が取得した位置情報をサーバ20へ送信してもよい。ステップS121において、サーバ20の送受信モジュール231は、端末装置10Aから発信情報を受信する。送受信モジュール231は、発信情報と合わせて送信された端末装置10Aの位置情報を受信してもよい。
 ステップS122において、サーバ20の発信情報記憶モジュール232は、送受信モジュール231が受信した発信情報を、記憶部220の発信情報データベース224に記憶する。発信情報記憶モジュール232は、送受信モジュール231が受信した発信情報に対して、周知の自然言語処理による解析を行い、当該解析の結果を発信情報データベース224に記憶させてもよい。
 図8に示す例では、2.において、「彦根城に虹がかかっている」という内容が発信情報データベース224の項目「発信内容」に記憶される。この場合において、発信情報記憶モジュール232は、発信情報データベース224の項目「場所情報」に、発信内容の一部である「彦根城」を記憶させてもよい。または、発信情報記憶モジュール232は、発信情報と共に受信した端末装置10Aの位置情報を、発信情報データベース224の項目「場所情報」に記憶させてもよい。
 ステップS131において、受取ユーザが使用する端末装置10Bの音声受付部204は、受取ユーザからの質問情報を取得する。具体的には、音声受付部204は、受取ユーザが発した音声を質問情報として取得する。なお、発信ユーザは、質問を行うにあたり、自身を特定するユーザ情報を端末装置10Bに入力し、当該ユーザ情報が質問情報に含まれる仕様としてもよい。
 音声受付部204は、所定の条件が満たされた場合に、受取ユーザが発した音声を質問情報として取得する仕様としてもよい。例えば、音声受付部204は、受取ユーザによる端末装置10への所定の操作を条件として、受取ユーザが発した音声を質問情報として取得してもよい。具体的には、端末装置10のディスプレイ141に質問情報を受け付けるためのボタン等を表示させ、受取ユーザが当該ボタンを押下したことを条件として、音声受付部204は受取ユーザが発した音声を質問情報として取得する仕様としてもよい。
 または、音声受付部204は、受取ユーザが特定の発言したことを条件として、受取ユーザが発した音声を質問情報として取得する仕様としてもよい。例えば、「質問させて!」等の予め定められた文章、キーワード、合言葉などを行った場合に、音声受付部204は、受取ユーザが発した音声を質問情報として取得する仕様としてもよい。他の例として、受取ユーザが自身に対応付けられているアバターの名前を呼ぶことを条件として、受取ユーザが発した音声を質問情報として取得する仕様としてもよい。
 図8に示す例では、3.において受取ユーザとしてのユーザBが「彦根城の天気は?」という発言を行っており、音声受付部204は、このようなユーザBによる発言を質問情報として取得する。なお、本実施形態では、受取ユーザによる質問情報に、位置を指定する位置指定情報が含まれる。言い換えると、本実施形態では、受取ユーザは特定の場所に関する質問を行い、当該質問に含まれる位置指定情報が音声受付部204に取得される。
 ステップS132において、端末装置10Bの送受信部202は、音声受付部204が取得した質問情報をサーバ20へ送信する。ステップS123において、サーバ20の送受信モジュール231は、端末装置10Bから質問情報を受信する。
 ステップS124において、伝達情報特定モジュール233は、端末装置10Bから受信した質問情報に含まれる位置指定情報と、発信情報データベース224に記憶されている発信情報に関連付けられた場所情報(すなわち、発信情報データベース224の項目「場所情報」)に基づいて、発信情報データベース224内の発信情報の中から受取ユーザへ伝達する伝達情報を特定する。
 図8に示す例では、4.において受取ユーザとしてのユーザBからの質問情報に基づいて、受取ユーザへ伝達する伝達情報が彦根城の天気に関する情報であることを特定している。なお、伝達情報特定モジュール233は、伝達情報を特定するにあたって、他の情報(以下、特定情報という)に基づいて判断してもよい。特定情報としては、例えば、発信ユーザによって発信情報が発信された日時、発信情報とともに端末装置10Aから受信した位置情報、受取ユーザによって質問情報が送信された日時などを挙げることができる。
 ステップS125において、伝達音声生成モジュール234は、伝達情報特定モジュール233によって特定された伝達情報に対応する音声情報(以下、伝達音声ともいう)を生成する。具体的には、伝達音声生成モジュール234は、発信情報データベースを参照して、特定された伝達情報の発信ユーザを特定する。伝達音声生成モジュール234は、アバターデータベース222を参照し、項目「対応ユーザ」が特定した発信ユーザと一致するレコードを取得する。
 伝達音声生成モジュール234は、演出データベース223を参照し、項目「演出ID」が取得したアバターデータベース222のレコードにおける対応演出と一致するレコードを取得する。伝達音声生成モジュール234は、取得した演出データベース223のレコードに基づいて、伝達情報の内容に対応する音声情報を、発信ユーザに関連付けられたアバターの音声として生成する。このようにして、伝達音声生成モジュール234は、演出データベース223の内容に基づいて、受取ユーザに伝達する音声を生成する。すなわち、伝達情報特定モジュール233によって特定された伝達情報に対して、付加的な情報(声色、声の高さ、語尾等)が付加された音声が生成される。
 ステップS126において、サーバ20の送受信モジュール231は、伝達音声生成モジュールが生成した伝達音声を、端末装置10Bへ受信する。ステップS133において、端末装置10Bの送受信部202は、伝達音声を受信する。
 ステップS134において、端末装置10Bの音声出力部134は、送受信部202が受信した伝達音声を出力する。具体的には、音声出力部134は、伝達音声を音声処理部170へ与える。音声処理部170は、受け付けた伝達音声に対応する音声信号をスピーカ172へ与え、スピーカ172から音声が出力される。
 図8に示す例では、5―1.において、受取ユーザとしてのユーザBに対応付けられたアバターbが「彦根城の天気をおしえて!」と発言する。これに対して、5-2.において、発信ユーザとしてのユーザAに対応付けられたアバターaが「虹かかかってるよ」と回答する。さらに、5-3.において、アバターbが「ありがとう」と返事する。このようなアバター同士による一連の会話が端末装置10Bの音声出力部134から出力される。
 なお、5―1.および5-3.におけるアバターbによる発言の音声は、サーバ20の伝達音声生成モジュール234によって生成されてもよいし、端末装置10Bの音声生成部205によって生成されてもよい。このように、受取ユーザは、自身の質問をトリガーとして、アバター同士の会話を傍聴することで所望の情報を取得することができ、車両の運転などの作業を妨害されることなく、手軽に情報を取得することができる。また、ラジオをきくような体験を味わうことができ、ユーザ体験が向上する。
 (1-7.小括)
 以上のようにして、本実施形態では、車両等の移動体で移動するユーザへの情報の伝達を行うシステム1において、発信ユーザから、場所に関する場所情報と関連付けて発信情報を取得する発信情報取得ステップ(S111、S121)と、発信ユーザから取得した発信情報を、記憶部に記憶させる発信情報記憶ステップ(S122)と、受取ユーザから位置を指定する情報を取得する位置指定情報取得ステップ(S131、S123)と、取得した位置指定情報と、発信情報に関連付けられた場所情報とに基づいて、発信情報の中から受取ユーザへ伝達する伝達情報を特定する伝達情報特定ステップ(S124)が実行される。
 このようにすることにより、車両等の移動体を使用する受取ユーザは、他のユーザとのマッチングや質問を手作業で入力するなどといった時間および手間のかかる作業を行うことなく、自身の質問に対する回答を迅速に取得することが可能となる。
 また、システム1では、端末装置10は、車両に搭載され、通信可能な音響装置としての機能を実行する。このような構成とすることにより、車両に搭載されている音響装置でユーザからの情報発信およびユーザへの情報伝達を行うことになるため、音響装置に内蔵されている機器を利用して、効果的に音声による情報伝達を行うことが可能となる。
 また、システム1では、発信ユーザおよび受取ユーザのそれぞれに対応するアバターが発する音声が生成され、当該アバター同士で会話を行うことにより、伝達情報が受取ユーザに伝達される。このような構成とすることにより、アバター同士の会話を傍聴することで所望の情報を取得することができ、車両の運転などの作業を妨害されることなく、手軽に情報を取得することができる。また、このようなアバター同士での会話形式とすることで、過去に発信されて発信情報データベース224に記憶された情報について、リアルタイムでの情報交換が行われているかのような演出を行うことができ、他のユーザと同期コミュニケーションを行っているような体験をユーザに与えることが可能となる。
 また、システム1では、受取ユーザから質問情報を受け付けたことに応答して、発信情報に関連付けられた場所に関する情報と、質問情報に含まれる位置を指定する情報に基づいて、受取ユーザへ伝達する伝達情報を特定する。このようにすることで、受取ユーザが知りたい情報についての回答を迅速に取得することが可能となる。
 <2.第2実施形態>
 以下、図9~図12を参照し、本開示の第2実施形態におけるシステム1を説明する。以下、上記実施形態との相違点を中心に説明する。
 (2-1.システム1のハードウェア構成)
 図9は、第2実施形態におけるシステム1のハードウェア構成の例を示すブロック図である。システム1は、第1実施形態の構成に加えて、外部サーバ40をさらに備える。外部サーバ40は、ネットワーク30を介してサーバ20と通信可能に構成されている。外部サーバ40は、例えば、サーバ20を管理している事業者とは異なる団体等によって管理されているサーバであってもよい。外部サーバ40のハードウェア構成はサーバ20と同様であるため、説明は繰り返さない。
 (2-2.処理の流れ)
 図10~図12を参照し、第2実施形態におけるシステム1の処理の流れを説明する。本実施形態では、受取ユーザとしてのユーザBだけでなく、発信ユーザとしてのユーザAも車両等の移動体で移動している想定で説明する。また、第1実施形態と同様の処理については説明を繰り返さない。
 図10におけるステップS211において、発信ユーザが使用する端末装置10Aの音声受付部204は、発信ユーザから発信情報を取得する。図12に示す例では、1.において、発信ユーザとしてのユーザAが「六本木トンネルにタイヤが落ちてるよ!」という発言を行い、当該発言が発信情報として音声受付部204に取得される。
 ステップS212において、端末装置10Aの送受信部202は、音声受付部204が取得した発信情報をサーバ20へ送信する。送受信部202は、発信情報の送信と合わせて、端末装置10Aの位置情報取得部207が取得した位置情報をサーバ20へ送信してもよい。ステップS221において、サーバ20の送受信モジュール231は、端末装置10Aから発信情報を受信する。送受信モジュール231は、発信情報と合わせて送信された端末装置10Aの位置情報を受信してもよい。
 ステップS222において、サーバ20の送受信モジュール231は、端末装置10Aから受信した発信情報を外部サーバ40へ送信する。送受信モジュール231は、発信情報と合わせて、当該発信情報を送信した端末装置10Aの位置情報を送信してもよい。ステップS241において、外部サーバ40は、発信情報(および端末装置10Aの位置情報)を受信する。
 本実施形態における外部サーバ40は、道路を管理する団体(以下、道路管理団体という)などが管理するサーバである。道路管理団体は、サーバ20が受信した端末装置10Aからの発信情報に基づいて、当該発信内容の確認を行う。道路管理団体は、端末装置10Aの位置情報に基づいて、発信情報の信頼度を評価してもよい。
 ステップS242において、外部サーバ40は確認した情報(確認情報ともいう)をサーバ20へ送信する。ステップS223において、サーバ20の送受信モジュール231は、外部サーバ40から確認情報を受信する。一例として、サーバ20が受信した確認情報には、端末装置10Aから受信した発信情報と、当該発信情報の真偽についての情報が含まれ得る。
 ステップS224において、サーバ20の発信情報記憶モジュール232は、送受信モジュール231が受信した確認情報を、記憶部220の発信情報データベース224に記憶する。
 図12に示す例では、2-1.において、外部サーバ40を管理する道路管理団体が端末装置10Aからの発信情報を確認する。2-2.において、発信情報記憶モジュール232は、発信情報データベース224の項目「発信内容」に、「六本木トンネルにタイヤが落ちている」と記憶する。さらに、発信情報記憶モジュール232は、発信情報データベース224の項目「場所情報」に、「六本木トンネル」と記憶してもよい。
 図11におけるステップS231において、受取ユーザが使用する端末装置10Bの送受信部202は、位置情報取得部207が取得した端末装置10Bの位置情報を、位置を指定する情報としてサーバ20へ送信する。ステップS225において、サーバ20の送受信モジュール231は、端末装置10Bから位置情報を受信する。
 図12に示す例では、3.において、端末装置10Bの送受信部202は、ユーザBが使用する車両C2の位置情報(六本木トンネル付近)をサーバ20へ送信している。なお、本実施形態における送受信部202によるサーバ20への位置情報の送信は、予め定められたタイミングで定期的に行われる仕様としてもよく、受取ユーザからの所定の操作を受け付けたタイミングで行われる仕様としてもよい。
 ステップS226において、伝達情報特定モジュール233は、端末装置10Bから受信した位置情報と、発信情報データベース224に記憶されている発信情報に関連付けられた場所情報(すなわち、発信情報データベース224の項目「場所情報」)に基づいて、発信情報データベース224内の発信情報の中から受取ユーザへ伝達する伝達情報を特定する。
 図12に示す例では、4.において、端末装置10Bの位置情報に基づいて、受取ユーザへ伝達する伝達情報が六本木トンネルに関する情報であることを特定している。なお、伝達情報特定モジュール233は、伝達情報を特定するにあたって、他の情報(以下、特定情報という)に基づいて判断してもよい。特定情報としては、例えば、受取ユーザが使用する移動体の目的地、および当該目的地までの所要時間などを挙げることができる。
 ステップS227において、伝達音声生成モジュール234は、伝達情報特定モジュール233によって特定された伝達情報に対応する音声情報を生成する。
 ステップS228において、サーバ20の送受信モジュール231は、伝達音声生成モジュールが生成した伝達音声を、端末装置10Bへ受信する。ステップS232において、端末装置10Bの送受信部202は、伝達音声を受信する。
 ステップS233において、端末装置10Bの音声出力部134は、送受信部202が受信した伝達音声を出力する。具体的には、音声出力部134は、伝達音声を音声処理部170へ与える。音声処理部170は、受け付けた伝達音声に対応する音声信号をスピーカ172へ与え、スピーカ172から音声が出力される。
 図12に示す例では、5.において、受取ユーザとしてのユーザBに関連付けられたアバターbが「この先の六本木トンネルにタイヤが落ちているそうだよ!」と発言する。なお、5.におけるアバターbによる発言の音声は、サーバ20の伝達音声生成モジュール234によって生成されてもよいし、端末装置10Bの音声生成部205によって生成されてもよい。
 (2-3.小括)
 このようにして、第2実施形態では、システム1は、受取ユーザが使用する移動体の位置情報を取得し、当該位置情報に基づいて、受取ユーザに伝達する伝達情報を特定する。このような仕様とすることにより、移動体を使用するユーザの移動に伴い、移動先に関連する情報を随時ユーザに伝達することが可能となる。これにより、ユーザは、例えば車両の運転をしながら、特定の操作または質問などの行動を行うことなく、移動先に関連した情報を効率的に収集することが可能となる。
 <3 他の実施形態>
 以上、本発明における実施形態およびその変形例について説明したが、本開示の適用は上述の内容に限定されるものではない。
 例えば、上記実施形態では、移動体としての車両を利用してユーザが移動しているケースを想定しているがこの例に限定されることはない。例えば、移動体としての電車を利用しているケースであって、ユーザが携帯するスマートフォンなどの端末装置10を利用して、システム1の機能を実現してもよい。
 また、上記実施形態では、1のアバターに1のユーザが対応づけられていたが、この態様に限定されることはない。例えば、1のユーザに対して複数のアバターを対応づけてもよい。また、1のアバターに対して複数のユーザを対応づけてもよい。
 また、アバターデータベース182は、ユーザが対応づけられていないアバター(以下、ゴーストアバターという)を記憶してもよい。この場合、例えば、ユーザが運転している車両の位置情報に応じて、当該位置情報に関連付けられたゴーストアバターから所定の情報を伝達する仕様としてもよい。または、当該位置情報に関連付けられたゴーストアバターから、クイズ、スタンプラリーのような所定の場所へ移動することでクリアとなるミッションなどが提供され、当該クイズの的中またはミッションのクリアに伴い、所定の特典が付与される(例えば、新たなアバターを使用可能になる)仕様としてもよい。
 また、端末装置10の音声出力部206は、伝達情報に関連付けられた場所情報と、ユーザが運転する車両の位置情報に基づいて、両者の相対位置を反映した指向性を有する音声を出力してもよい。具体的には、例えば図13に示すように、車両Cに搭載されたカーオーディオとしての端末装置10は、スピーカ172a~172dまでの4つのスピーカを備える仕様としてもよい。この場合において、音声出力部206は、車両の位置情報を基準として、伝達情報に関連付けられた場所情報の方向から伝達音声がユーザに聞こえてくるように、スピーカ172a~172dのいずれか(またはそれらの組み合わせ)から音声信号を出力させてもよい。
 また、システム1は多言語に対応可能な仕様としてもよい。例えば、端末装置10の音声受付部204がユーザからの音声を受け付けた際に、当該音声の言語を識別してサーバ20へ当該言語の情報を送信する仕様としてもよい。また、サーバ20の発信情報記憶モジュール232は、発信情報に対して自然言語処理による解析を行う際に、端末装置10から受信した言語の情報に基づく解析を行う仕様としてもよい。さらに、伝達音声生成モジュール234は、伝達音声を生成する際に、端末装置10から受信した言語によって伝達情報に対応する伝達音声を生成する仕様としてもよい。このように、発信ユーザの発言に対して翻訳を行ってもよいし、受取ユーザへの伝達において翻訳を行ってもよい。このような仕様とすることにより、言語の壁を越えてユーザ同士が情報共有を円滑に行うことが可能となる。
 また、上記実施形態では、端末装置10は、音声で発信情報を受け付けているが、この例に限定されることはない。端末装置10は、発信ユーザがタッチセンシティブデバイスなどの入力装置を用いてテキストを入力することにより、発信情報を受け付けてもよい。
 また、サーバ20の制御部230は、ユーザがSNS(Social networking service)等のサービスを利用して発信した情報を、発信情報として取得する仕様としてもよい。例えば、ユーザがツイッター(登録商標)等のSNSのウェブサイトに発信した情報を、発信情報記憶モジュール232がクローリングにより取得して、発信情報データベース224に記憶させる仕様としてもよい。クローリングはOctoparseやWeb Scraperといった既存のクローリングツールを利用してもよい。
 また、端末装置10は、タブレット端末、又はスマートフォン等の携帯端末に限定されず、据え置き型のPC(Personal Computer)、又はラップトップPC等により実現されてもよい。この場合、家庭用のPCなどにソフトウェアをインストールすることにより、端末装置10を実現し、マウスなどの操作を受け付けるようにしてもよい。
 また、通信回線を介した所定情報の共有は、主にインターネットなどのWANを介して行われるが、情報処理装置間では、WANを介さずにBluetooth(登録商標)等の近距離の無線通信、及び赤外線通信等のみを介して行われてもよい。
 また、上記実施形態では、各機能を端末装置10またはサーバ20が備える態様の一例について説明したが、この形態に限定されることはなく、一部または全部の機能について上記実施形態と異なる態様で端末装置10、サーバ20、又は端末装置10とサーバ20の両方が備える構成としてもよい。
 また、上記実施形態において端末装置10に実行させるものとして記載されていた各ステップをサーバ20に実行させてもよく、サーバ20に実行させるものとして記載されていた各ステップをサーバ20に実行させてもよい。
 さらに、本発明は、上述した端末装置10またはサーバ20が備える機能を情報処理装置に実行させるプログラムとして実現してもよいし、当該プログラムを格納する、コンピュータ読み取り可能な非一時的な記録媒体として実現してもよい。
<付記>
 以上の各実施形態で説明した事項を以下に付記する。
(付記1)
 プロセッサと記憶部を備えるコンピュータに、移動体で移動するユーザへの情報の伝達を行わせるプログラムであって、前記プログラムは、前記プロセッサに、第1のユーザから、場所に関する場所情報と関連付けて、第1のユーザが発信する発信情報を取得する発信情報取得ステップ(S111、S121)と、前記第1のユーザから取得した前記発信情報を、前記記憶部に記憶させる発信情報記憶ステップ(S122)と、第2のユーザから位置を指定する位置指定情報を取得する位置指定情報取得ステップ(S123)と、取得した前記位置指定情報と、前記発信情報に関連付けられた場所情報とに基づいて、前記発信情報の中から前記第2のユーザへ伝達する伝達情報を特定する伝達情報特定ステップ(S124)と、を実行させるプログラム。
(付記2)
 前記プログラムは、前記移動体に搭載された前記コンピュータを、通信可能な音響装置として機能させる、付記1に記載のプログラム。
(付記3)
 前記プログラムは、前記プロセッサに、特定された前記伝達情報を、音声により前記第2のユーザに伝達するステップを実行させる、付記1または付記2に記載のプログラム。
(付記4)
 前記プログラムは、前記プロセッサに、前記第1のユーザおよび前記第2のユーザのそれぞれに対応するアバターが発する音声を生成するステップと、前記アバター同士で会話を行うことで、前記伝達情報を前記第2のユーザへ伝達するステップと、を実行させる、付記3に記載のプログラム。
(付記5)
 前記発信情報記憶ステップでは、取得した前記発信情報に対して自然言語処理による解析を行い、当該解析の結果を記憶部に記憶させる、付記1~付記4のいずれかに記載のプログラム。
(付記6)
 前記特定された伝達情報に対して、付加的な情報を加えた音声情報を生成する、付記5に記載のプログラム。
(付記7)
 前記伝達情報特定ステップでは、前記第2のユーザから質問情報を受け付けたことに応答して、当該第2のユーザへ伝達する伝達情報を特定する、付記1~付記6に記載のプログラム。
(付記8)
 前記質問情報には、前記位置を指定する情報が含まれる、付記7に記載のプログラム。
(付記9)
 前記位置指定情報取得ステップでは、前記位置を指定する情報として、前記第2のユーザが使用する移動体の位置情報を受け付ける、付記1~付記8のいずれかに記載のプログラム。
(付記10)
 前記伝達情報特定ステップでは、前記第2のユーザが使用する移動体の位置情報、当該移動体の目的地、および当該目的地までの所要時間の少なくとも1つに基づいて、前記第2のユーザへ伝達する伝達情報を特定する、付記9に記載のプログラム。
(付記11)
 前記発信情報取得ステップでは、所定の条件が満たされた場合に、前記第1のユーザが発した音声を、前記発信情報として取得する、付記1~付記10のいずれかに記載のプログラム。
(付記12)
 前記所定の条件は、前記第1のユーザによる前記コンピュータへの所定の操作である、付記11に記載のプログラム。
(付記13)
 前記コンピュータは、複数のスピーカを備え、前記プログラムは、前記コンピュータに、特定された前記伝達情報を、音声により前記第2のユーザに伝達するステップにおいて、前記伝達情報が保持する場所情報と、前記移動体の位置情報に基づいて、指向性を有する音声を前記複数のスピーカに出力させる、付記1~付記12のいずれかに記載のプログラム。
 以上、本開示のいくつかの実施形態を説明したが、これら実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれると同様に、特許請求の範囲に記載された発明とその均等の範囲に含まれるものとする。
 1:システム、10:端末装置、13:入力装置、14:出力装置、15:メモリ、16:ストレージ、19:プロセッサ、20:サーバ、25:メモリ、26:ストレージ、29:プロセッサ、30:ネットワーク、40:外部サーバ、131:タッチセンシティブデバイス、134:音声出力部、141:ディスプレイ、150:通信部、160:撮像部、170:音声処理部、171:マイク、172:スピーカ、180:記憶部、181:ユーザデータベース、182:アバターデータベース、183:演出データベース、190:位置情報センサ、200:制御部、201:操作受付部、202:送受信部、203:表示制御部、204:音声受付部、205:音声生成部、206:音声出力部、207:位置情報取得部、210:通信部、220:記憶部、221:ユーザデータベース、222:アバターデータベース、223:演出データベース、224:発信情報データベース、230:制御部、231:送受信モジュール、232:発信情報記憶モジュール、233:伝達情報特定モジュール、234:伝達音声生成モジュール。 

Claims (16)

  1.  プロセッサと記憶部を備えるコンピュータに、移動体で移動するユーザへの情報の伝達を行わせるプログラムであって、
     前記プログラムは、前記プロセッサに、
     第1のユーザから、場所に関する場所情報と関連付けて、第1のユーザが発信する発信情報を取得する発信情報取得ステップと、
     前記第1のユーザから取得した前記発信情報を、前記記憶部に記憶させる発信情報記憶ステップと、
     第2のユーザから位置を指定する位置指定情報を取得する位置指定情報取得ステップと、
     取得した前記位置指定情報と、前記発信情報に関連付けられた場所情報とに基づいて、前記発信情報の中から前記第2のユーザへ伝達する伝達情報を特定する伝達情報特定ステップと、を実行させるプログラム。
  2.  前記プログラムは、前記移動体に搭載された前記コンピュータを、通信可能な音響装置として機能させる、請求項1に記載のプログラム。
  3.  前記プログラムは、前記プロセッサに、
     特定された前記伝達情報を、音声により前記第2のユーザに伝達するステップを実行させる、請求項1または請求項2に記載のプログラム。
  4.  前記プログラムは、前記プロセッサに、
     前記第1のユーザおよび前記第2のユーザのそれぞれに対応するアバターが発する音声を生成するステップと、
     前記アバター同士で会話を行うことで、前記伝達情報を前記第2のユーザへ伝達するステップと、を実行させる、請求項3に記載のプログラム。
  5.  前記発信情報記憶ステップでは、
     取得した前記発信情報に対して自然言語処理による解析を行い、当該解析の結果を記憶部に記憶させる、請求項1~請求項4のいずれかに記載のプログラム。
  6.  前記特定された伝達情報に対して、付加的な情報を加えた音声情報を生成する、請求項5に記載のプログラム。
  7.  前記伝達情報特定ステップでは、
     前記第2のユーザから質問情報を受け付けたことに応答して、当該第2のユーザへ伝達する伝達情報を特定する、請求項1~請求項6に記載のプログラム。
  8.  前記質問情報には、前記位置を指定する情報が含まれる、請求項7に記載のプログラム。
  9.  前記位置指定情報取得ステップでは、
     前記位置を指定する情報として、前記第2のユーザが使用する移動体の位置情報を受け付ける、請求項1~請求項8のいずれかに記載のプログラム。
  10.  前記伝達情報特定ステップでは、
     前記第2のユーザが使用する移動体の位置情報、当該移動体の目的地、および当該目的地までの所要時間の少なくとも1つに基づいて、前記第2のユーザへ伝達する伝達情報を特定する、請求項9に記載のプログラム。
  11.  前記発信情報取得ステップでは、
     所定の条件が満たされた場合に、前記第1のユーザが発した音声を、前記発信情報として取得する、請求項1~請求項10に記載のプログラム。
  12.  前記所定の条件は、前記第1のユーザによる前記コンピュータへの所定の操作である、請求項11に記載のプログラム。
  13.  前記コンピュータは、複数のスピーカを備え、
     前記プログラムは、前記コンピュータに、
     特定された前記伝達情報を、音声により前記第2のユーザに伝達するステップにおいて、
     前記伝達情報が保持する場所情報と、前記移動体の位置情報に基づいて、指向性を有する音声を前記複数のスピーカに出力させる、請求項1~請求項12のいずれかに記載のプログラム。
  14.  プロセッサと記憶部を備えるコンピュータに、移動体で移動するユーザへの情報の伝達を行わせる方法であって、
     前記プロセッサに、
     第1のユーザから、場所に関する場所情報と関連付けて、第1のユーザが発信する発信情報を取得する発信情報取得ステップと、
     前記第1のユーザから取得した前記発信情報を、前記記憶部に記憶させる発信情報記憶ステップと、
     第2のユーザから位置を指定する位置指定情報を取得する位置指定情報取得ステップと、
     取得した前記位置指定情報と、前記発信情報に関連付けられた場所情報とに基づいて、前記発信情報の中から前記第2のユーザへ伝達する伝達情報を特定する伝達情報特定ステップと、を実行させる方法。
  15.  プロセッサと記憶部を備え、移動体で移動するユーザへの情報の伝達を行う情報処理装置であって、
     前記プロセッサは、
     第1のユーザから、場所に関する場所情報と関連付けて、第1のユーザが発信する発信情報を取得する発信情報取得ステップと、
     前記第1のユーザから取得した前記発信情報を、前記記憶部に記憶させる発信情報記憶ステップと、
     第2のユーザから位置を指定する位置指定情報を取得する位置指定情報取得ステップと、
     取得した前記位置指定情報と、前記発信情報に関連付けられた場所情報とに基づいて、前記発信情報の中から前記第2のユーザへ伝達する伝達情報を特定する伝達情報特定ステップと、を実行する情報処理装置。
  16.  プロセッサと記憶部を有するコンピュータを備え、移動体で移動するユーザへの情報の伝達を行うシステムであって、
     前記プロセッサに、
     第1のユーザから、場所に関する場所情報と関連付けて、第1のユーザが発信する発信情報を取得する発信情報取得ステップと、
     前記第1のユーザから取得した前記発信情報を、前記記憶部に記憶させる発信情報記憶ステップと、
     第2のユーザから位置を指定する位置指定情報を取得する位置指定情報取得ステップと、
     取得した前記位置指定情報と、前記発信情報に関連付けられた場所情報とに基づいて、前記発信情報の中から前記第2のユーザへ伝達する伝達情報を特定する伝達情報特定ステップと、を実行するシステム。 
PCT/JP2023/030973 2022-10-25 2023-08-28 プログラム、方法、情報処理装置、システム WO2024090007A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2022170356A JP2024062499A (ja) 2022-10-25 2022-10-25 プログラム、方法、情報処理装置、システム
JP2022-170356 2022-10-25

Publications (1)

Publication Number Publication Date
WO2024090007A1 true WO2024090007A1 (ja) 2024-05-02

Family

ID=90830424

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2023/030973 WO2024090007A1 (ja) 2022-10-25 2023-08-28 プログラム、方法、情報処理装置、システム

Country Status (2)

Country Link
JP (1) JP2024062499A (ja)
WO (1) WO2024090007A1 (ja)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020113907A (ja) * 2019-01-11 2020-07-27 日本テレビ放送網株式会社 変換装置、変換方法及びプログラム
JP2020119336A (ja) * 2019-01-24 2020-08-06 トヨタ自動車株式会社 情報処理装置、情報処理システム、プログラム、および情報処理方法
JP2021026274A (ja) * 2019-07-31 2021-02-22 アイシン・エィ・ダブリュ株式会社 報告書作成支援システム、サーバ装置、及びコンピュータプログラム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020113907A (ja) * 2019-01-11 2020-07-27 日本テレビ放送網株式会社 変換装置、変換方法及びプログラム
JP2020119336A (ja) * 2019-01-24 2020-08-06 トヨタ自動車株式会社 情報処理装置、情報処理システム、プログラム、および情報処理方法
JP2021026274A (ja) * 2019-07-31 2021-02-22 アイシン・エィ・ダブリュ株式会社 報告書作成支援システム、サーバ装置、及びコンピュータプログラム

Also Published As

Publication number Publication date
JP2024062499A (ja) 2024-05-10

Similar Documents

Publication Publication Date Title
JP6571118B2 (ja) 音声認識処理のための方法、車載システム及び不揮発性記憶媒体
US9864745B2 (en) Universal language translator
US9053096B2 (en) Language translation based on speaker-related information
CN105955703B (zh) 依赖于状态的查询响应
CN103080927B (zh) 使用搜索结果的自动路由
JP6129134B2 (ja) 音声対話装置、音声対話システム、端末、音声対話方法およびコンピュータを音声対話装置として機能させるためのプログラム
CN110149805A (zh) 双向语音翻译系统、双向语音翻译方法和程序
JP2020521164A (ja) デバイス間ハンドオフ
CN117577099A (zh) 设备上的多用户认证的方法、系统和介质
US20130144619A1 (en) Enhanced voice conferencing
CN111919249A (zh) 词语的连续检测和相关的用户体验
CN101292282A (zh) 支持自然语言人机交互的移动系统和方法
WO2016129276A1 (ja) 情報提供方法、サーバ、情報端末装置、システム及び音声対話システム
JP2013088477A (ja) 音声認識システム
KR20150017662A (ko) 텍스트-음성 변환 방법, 장치 및 저장 매체
JP2022101663A (ja) ヒューマンコンピュータインタラクション方法、装置、電子機器、記憶媒体およびコンピュータプログラム
JPWO2018055898A1 (ja) 情報処理装置、及び情報処理方法
CN113257218A (zh) 语音合成方法、装置、电子设备和存储介质
US10002611B1 (en) Asynchronous audio messaging
JP6120708B2 (ja) 端末装置およびプログラム
WO2024090007A1 (ja) プログラム、方法、情報処理装置、システム
US9992536B2 (en) Information provision device, information provision method, and information provision system
TW202418855A (zh) 程式、方法、資訊處理裝置、系統
US20180300316A1 (en) System and method for performing message translations
US20220157316A1 (en) Real-time voice converter

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 23882222

Country of ref document: EP

Kind code of ref document: A1