WO2018061840A1 - 情報表示プログラム、データ送信プログラム、データ送信装置、データ送信方法、情報提供装置及び情報提供方法 - Google Patents

情報表示プログラム、データ送信プログラム、データ送信装置、データ送信方法、情報提供装置及び情報提供方法 Download PDF

Info

Publication number
WO2018061840A1
WO2018061840A1 PCT/JP2017/033572 JP2017033572W WO2018061840A1 WO 2018061840 A1 WO2018061840 A1 WO 2018061840A1 JP 2017033572 W JP2017033572 W JP 2017033572W WO 2018061840 A1 WO2018061840 A1 WO 2018061840A1
Authority
WO
WIPO (PCT)
Prior art keywords
data
information
information display
unit
collected
Prior art date
Application number
PCT/JP2017/033572
Other languages
English (en)
French (fr)
Inventor
昌治 板谷
敬彦 山縣
晋平 笹野
善成 石橋
Original Assignee
株式会社村田製作所
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社村田製作所 filed Critical 株式会社村田製作所
Priority to JP2018542406A priority Critical patent/JP6804049B2/ja
Publication of WO2018061840A1 publication Critical patent/WO2018061840A1/ja
Priority to US16/356,456 priority patent/US20190213646A1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/02Marketing; Price estimation or determination; Fundraising
    • G06Q30/0282Rating or review of business operators or products
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3605Destination input or retrieval
    • G01C21/3614Destination input or retrieval through interaction with a road map, e.g. selecting a POI icon on a road map
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3679Retrieval, searching and output of POI information, e.g. hotels, restaurants, shops, filling stations, parking facilities
    • G01C21/3682Retrieval, searching and output of POI information, e.g. hotels, restaurants, shops, filling stations, parking facilities output of POI information on a road map
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/01Social networking

Definitions

  • the present invention relates to an information display program, a data transmission program, a data transmission device, an information provision device, and an information provision method.
  • Patent Document 1 discloses a system that provides information according to a user's interests and preferences by complementarily using the user's internal state and the situation in which the user is placed.
  • SNS and word-of-mouth information may be difficult to use when a user searches for a facility or store to visit in a specific area. For example, it is possible to search for SNS messages tagged with the region, but even if a list of messages extracted by the search is displayed, it is possible to grasp where the facility or store looks good. It ’s difficult.
  • information on facilities and stores in the area can be referred to on the word-of-mouth site, but since the information on the word-of-mouth site has been accumulated in the past, the current situation cannot be grasped.
  • the present invention has been made in view of such circumstances, and an object thereof is to provide a user with information indicating the state of a facility or a store in a specific area.
  • An information display program relates to a map in which a map display unit that displays a map on a screen and comment information corresponding to a comment detected at a position in the map are associated with the position on a computer. And a speech information display unit that superimposes and displays.
  • the data transmission program includes, in a computer, a voice collection unit that collects voice, a speech detection unit that detects speech from the collected voice, speech data indicating the detected speech, And a transmitter that transmits collected data including position data indicating a position where the sound is collected to the server.
  • the data transmission device includes a voice collection unit that collects voice, a speech detection unit that detects speech from the collected voice, speech data indicating the detected speech, and voice collection And a transmission unit that transmits collected data including position data indicating the obtained position to the server.
  • the data transmission method includes a utterance data in which a computer detects a utterance from collected voice and indicates the detected utterance, and position data indicating a position at which the voice is collected. Send the collected data to the server.
  • an information providing apparatus receives collected data including a utterance data indicating a utterance detected from collected voice and a position data indicating a position where the voice is collected from the data transmission apparatus.
  • a transmission unit for providing the display data to the user terminal In order to superimpose and display the speech information corresponding to the detected speech on the screen of the user terminal on the screen of the user terminal based on the collected data and the receiving unit stored in the collected data storage unit A transmission unit for providing the display data to the user terminal.
  • the computer transmits collected data including utterance data indicating a utterance detected from the collected voice and position data indicating a position where the voice is collected.
  • the speech information corresponding to the detected speech is displayed on the map in association with the position Is provided to the user terminal.
  • FIG. 5 is a flowchart illustrating an example of processing in the information providing system 100. It is a flowchart which shows a dictionary database update process.
  • FIG. 1 is a diagram showing a configuration of an information providing system 100 according to an embodiment of the present invention.
  • the information providing system 100 includes a data transmitting device 110, an information providing device 120, and an information display device 130.
  • the data transmission device 110, the information providing device 120, and the information display device 130 are connected to be communicable via a network.
  • information is provided to the user of the information display device 130 based on data transmitted from the data transmitting device 110 to the information providing device 120.
  • FIG. 1 only one data transmission device 110 and one information display device 130 are shown, but the information providing system 100 includes a plurality of data transmission devices 110 and a plurality of information display devices 130. .
  • the data transmitting apparatus 110 is a computer that transmits data (collected data) collected at a place where the data transmitting apparatus 110 is placed to the information providing apparatus 120.
  • the data transmission device 110 may be a computer installed in a facility or store, or may be a computer (smart phone or tablet terminal) owned by a user who visits the facility or store.
  • the data transmission device 110 includes a processor, a memory, and a communication interface.
  • the data transmission device 110 can communicate with the information providing device 120 via, for example, a mobile phone communication network or the Internet.
  • the information providing device 120 is a computer (server) that provides information to the user of the information display device 130 based on data (collected data) received from the data transmitting device 110.
  • the information providing apparatus 120 includes a processor, a memory, and a communication interface.
  • the information providing apparatus 120 can communicate with the data transmission apparatus 110 and the information display apparatus 130 via, for example, the Internet.
  • the information display device 130 is a computer (user terminal) that displays information based on data (display data) provided from the information providing device 120.
  • the information display device 130 is, for example, a smartphone, a tablet terminal, a personal computer, or the like.
  • the information display device 130 includes a processor, a memory, and a communication interface.
  • the information display device 130 can communicate with the information providing device 120 via, for example, a mobile phone communication network or the Internet.
  • FIG. 2 is a diagram illustrating an example of functional blocks provided in the data transmission device 110.
  • the data transmission device 110 includes a voice collection unit 200, a speech detection unit 210, an excluded keyword storage unit 220, an atmosphere detection unit 240, a position data storage unit 250, an ID storage unit 260, a transmission unit 270, a dictionary database 280, and a dictionary database update.
  • An instruction creation unit 290 is provided.
  • Each unit illustrated in FIG. 2 can be realized, for example, by using a memory included in the data transmission device 110 or by executing a data transmission program stored in the memory by a processor.
  • the data transmission program executed by the data transmission device 110 is provided to the data transmission device 110 via, for example, a network or a storage medium.
  • the data transmission program is read from a computer-readable recording medium into the memory of the data transmission device 110 and executed by the processor of the data transmission device 110.
  • the sound collection unit 200 collects sound around the data transmission device 110 with a microphone or the like and outputs sound data.
  • the voice collection unit 200 can continue to collect voice while the data transmission device 110 is operating.
  • the sound collection unit 200 may be a built-in microphone of the transmission device 110 or an external microphone (an external wired microphone or a wireless microphone).
  • an external microphone an external wired microphone or a wireless microphone
  • a tablet terminal to which an external microphone is connected functions as the data transmission device 110.
  • the data transmission device 110 may include a plurality of voice collection units 200.
  • the data transmission device 110 may detect the relative positions of the plurality of sound collection units 200.
  • the speech detection unit 210 detects a speech of a speaker in the vicinity of the data transmission device 110 based on the voice data, and outputs speech data indicating the speech.
  • Arbitrary methods can be used for the speech detection by the speech detection unit 210.
  • the utterance detection unit 210 can detect utterances included in the collected speech by referring to the dictionary database 280 in which meaningful keywords (phrases or words) are registered.
  • the utterance detected by the utterance detection unit 210 may be a sentence or a word included in the sentence.
  • the speech detection unit 210 first analyzes voice data and converts the voice into text data. Then, the utterance detection unit 210 compares the utterance included in the text data with a keyword stored in the dictionary database 280 in advance.
  • the utterance detection unit 210 outputs the keyword as utterance data.
  • the speech detection unit 210 can continue to output speech data while the data transmission device 110 is operating.
  • the utterance detection unit 210 can include a buffer for temporarily storing the generated utterance data.
  • the excluded keyword storage unit 220 stores keywords (excluded keywords) to be excluded from the statements detected by the statement detection unit 210. Examples of the excluded keyword include a word related to slander and slander, a word that does not make much sense when grasping the situation around the data transmission device 110, and the like.
  • the excluded keyword registration unit 230 can register an excluded keyword stored in the excluded keyword storage unit 220 according to user input. Further, the exclusion keyword may be updated by data transmitted from the information providing apparatus 120, for example.
  • the atmosphere detection unit 240 detects the atmosphere around the data transmission device 110 based on the audio data, and outputs the atmosphere data indicating the atmosphere.
  • An arbitrary method can be used for the atmosphere detection by the atmosphere detection unit 240.
  • the atmosphere detection unit 240 can detect the atmosphere based on the sound volume, inflection, detection frequency, speech content, and the like.
  • the detected atmosphere may be indicated by a single axis such as the degree of excitement, or may be indicated by multiple axes such as a Russell emotion model or a pluch emotion model.
  • the atmosphere detection unit 240 can continue to detect the atmosphere while the data transmission device 110 is operating.
  • the atmosphere detection unit 240 can include a buffer for temporarily storing generated atmosphere data.
  • the atmosphere detection unit 240 may extract an index related to the degree of affirmation or denial of speech from the waveform of the audio data.
  • the atmosphere detection unit 240 can extract an index related to the degree of affirmation or denial of speech from the waveform of audio data using Empath (registered trademark).
  • Empath analyzes the physical characteristics of the waveform of the audio data and calculates determination values in 50 stages for each item of normality, anger, joy, sadness, and spirit.
  • the atmosphere detection unit 240 can extract an index related to the degree of affirmation or denial of a statement based on the result thus calculated.
  • a technique for calculating a determination value related to emotion or mood from the waveform of voice data is called a voice mood analysis technique.
  • the atmosphere detection unit 240 can detect the atmosphere from the index regarding the degree of affirmation or denial of the speech by associating the index regarding the degree of affirmation or denial of the speech with the atmosphere in advance.
  • the position data storage unit 250 stores position data indicating the position of the data transmission device 110 (the position where the voice is collected).
  • the position data can be any data that allows the information providing apparatus 120 to specify the position of the data transmitting apparatus 110.
  • the position data may be data (latitude / longitude) output from a GPS (Global Positioning System) receiver (not shown) included in the data transmission device 110.
  • the position data may be data indicating an ID of a facility or a store.
  • the ID storage unit 260 stores the SNS ID.
  • the SNS ID is the ID of the user in the SNS registered by the user.
  • an ID registered in the data transmission device 110 by a user visiting the facility or store may be used.
  • the transmission unit 270 transmits collection data including the utterance data indicating the detected utterance, the atmosphere data indicating the detected atmosphere, and the position data indicating the position where the sound is collected to the information providing apparatus 120. Further, when the ID of the SNS is stored in the ID storage unit 260, the collected data may include the ID. In addition, when the ID of the SNS is stored in the ID storage unit 260, the transmission unit 270 may perform data transmission for posting a comment to the SNS separately from transmission of the collected data to the information providing apparatus 120. Good. Further, the collected data may include time data indicating the time when the voice, speech or atmosphere is detected or the time when the collected data is generated. The transmission unit 270 can continue to transmit the collected data at a predetermined interval while the data transmission device 110 is operating, for example. Note that the transmitting unit 270 may stop transmitting the collected data when no audio is detected.
  • the dictionary database update instruction creation unit 290 creates an instruction (dictionary database update instruction) for updating the dictionary database 280.
  • the dictionary database update instruction is created at a predetermined opportunity.
  • the predetermined opportunity may be a time when the hit rate of the dictionary database 280 falls below a predetermined threshold value, or may be a predetermined constant interval.
  • the hit rate means the ratio of keywords that have been determined to be included in the voice collected by the voice collection unit 200 among all the keywords registered in the dictionary database 280.
  • the transmission unit 270 transmits the dictionary database update instruction created by the dictionary database update instruction creation unit 290 to the information providing apparatus 120.
  • FIG. 3 is a diagram illustrating an example of functional blocks provided in the information providing apparatus 120.
  • the information providing apparatus 120 includes a reception unit 300, a collected data storage unit 310, a transmission unit 320, a keyword database 330, an estimation unit 340, and a dictionary database creation unit 360.
  • Each unit illustrated in FIG. 3 can be realized, for example, by using a memory included in the information providing apparatus 120 or by executing a data providing program stored in the memory by a processor.
  • the information providing program executed by the information providing apparatus 120 is provided to the information providing apparatus 120 via a network or a storage medium, for example.
  • the information providing program is read from a computer-readable recording medium into the memory of the information providing apparatus 120 and executed by the processor of the information providing apparatus 120.
  • the information providing apparatus 120 may perform a process of estimating a topic from the stored keyword by receiving the keyword transmitted as the utterance data from the data transmitting apparatus 110 and accumulating the keyword. If the keyword is, for example, “steering wheel”, “brake”, “tire” or the like, it can be inferred that a topic related to “car” has been made. The inferred topic is provided to, for example, an advertising agency.
  • the information providing apparatus 120 also performs a process of updating the dictionary database 280 in response to a dictionary database update instruction from the data transmission apparatus 110.
  • the receiving unit 300 receives the collected data transmitted from the data transmitting device 110 and stores it in the collected data storage unit 310.
  • the collected data storage unit 310 stores collected data for a certain period necessary for providing information to the information display device 130, for example.
  • the receiving unit 300 receives the dictionary database update instruction transmitted by the data transmitting apparatus 110.
  • the transmission unit 320 provides the information display device 130 with display data for displaying information on the screen of the information display device 130.
  • the information displayed on the information display device 130 includes, for example, a map, speech information, and atmosphere information.
  • the display data may be data for displaying such information on the information display device 130, and the display data itself may or may not include such information.
  • the display data may include image data and character data of such information, or may include data (tag, script, etc.) for acquiring image data and character data.
  • the keyword database 330 stores keywords included in the collected data received through the receiving unit 300.
  • the estimation unit 350 estimates a keyword-related word stored in the keyword database 330.
  • a keyword-related word means a phrase frequently used simultaneously with the keyword, and such a phrase is also called a “co-occurrence word”.
  • Co-occurrence words do not necessarily mean synonyms.
  • the estimation unit 340 is, for example, a co-occurrence word search tool that applies artificial intelligence.
  • a co-occurrence word search tool for example, a tool that performs morphological analysis on the content of a web page at the top of a search result such as Google or Yahoo and presents words frequently appearing in the same document as co-occurrence words is known. ing.
  • Morphological analysis is a sequence of morphemes (minimum units that have meaning in a language) based on information such as grammar of the target language and parts of speech of words called dictionaries from text data in natural language without grammatical information. It means the work of disassembling into parts and discriminating the part of speech of each morpheme.
  • the dictionary database creation unit 350 updates the dictionary database 280 in response to the dictionary database update instruction received through the receiving unit 300.
  • the dictionary database creation unit 350 creates an updated dictionary database 280 based on the keywords stored in the keyword database 330 and the related words estimated by the estimation unit 340.
  • the updated dictionary database 280 registers voice keywords that have been extracted from the voice collected by the voice collection unit 200 and related words as keywords.
  • the speech keywords that have not been extracted from the speech collected by the speech collection unit 200 are deleted from the dictionary database 280 after the update. By repeating such update processing, the hit rate of the dictionary database 280 can be increased.
  • the transmission unit 320 transmits the updated dictionary database 280 to the data transmission device 110.
  • the data transmitting apparatus 110 that has received the updated dictionary database 280 replaces the dictionary database 280 before update with the dictionary database 280 after update.
  • FIG. 4 is a diagram illustrating an example of functional blocks provided in the information display device 130.
  • the information display device 130 includes a display data request unit 400, a map display unit 410, a speech information display unit 420, and an atmosphere information display unit 430. Each unit shown in FIG. 4 can be realized, for example, by using a memory included in the information display device 130 or by executing an information display program stored in the memory by a processor.
  • the information display program executed by the information display device 130 is provided to the information display device 130 via a network or a storage medium, for example.
  • the information display program executed by the information display device 130 may be preinstalled in the information display device 130, or may be received from the information providing device 120 or the like when the information display device 130 executes processing. It may be provided (for example, HTML data or a script).
  • the information display program is read from a computer-readable recording medium into the memory of the information display device 130 and executed by the processor of the information display device 130.
  • the display data request unit 400 requests the information providing apparatus 120 for an information display request for displaying information on the screen.
  • the information display request includes, for example, area data indicating the area to be displayed.
  • the area data includes, for example, position data (latitude / longitude) acquired from a GPS receiver, and name data such as an area and facility input by the user.
  • the map display unit 410 displays a map on the screen based on the display data transmitted from the information providing apparatus 120 in response to the information display request.
  • the map display unit 410 may acquire map data from the information providing apparatus 120 or may acquire map data from a computer different from the information providing apparatus 120.
  • the utterance information display unit 420 associates utterance information corresponding to the utterance detected at the position in the map with the position based on the display data transmitted from the information providing apparatus 120 in response to the information display request. Display superimposed on the map.
  • the utterance information includes, for example, text indicating at least a part of the utterance.
  • the speech information is not limited to text, and may be, for example, an icon image corresponding to the content of the speech.
  • the utterance information display unit 420 may display information related to the SNS (for example, an SNS icon image, an SNS ID of the speaker, and the like) together with the utterance information.
  • the atmosphere information display unit 430 associates the atmosphere information corresponding to the atmosphere detected at the position in the map with the position based on the display data transmitted from the information providing apparatus 120 in response to the information display request. Display superimposed on the map.
  • the atmosphere information includes, for example, an image having a color corresponding to the atmosphere.
  • the color corresponding to the atmosphere can be, for example, dark red as the degree of swell is high, and dark blue as the degree of swell is low.
  • a color representing the degree of each axis may be used.
  • map display unit 410 the speech information display unit 420, and the atmosphere information display unit 430 may not be provided individually.
  • FIG. 5 is a diagram illustrating an example of information displayed on the screen 500 of the information display device 130.
  • a map 510 is displayed on the screen 500.
  • the map 510 can arbitrarily change the area and scale according to a user operation on the information display device 130.
  • the map 510 In the initial state, for example, a map 510 of an area specified by position data acquired from a GPS receiver or name data input by a user is displayed.
  • the map 510 includes the location of the store 520.
  • speech information 530 and atmosphere information 540 corresponding to the speech detected at a position in the map 510 are superimposed and displayed.
  • message information 530a1, 530a2, 530a3 corresponding to the message detected at the store 520a and atmosphere information 540a corresponding to the atmosphere detected at the store 520a are displayed in association with the position of the store 520a. ing. Also, in correspondence with the position of the store 520b, speech information 530b1 and 530b2 corresponding to the speech detected in the store 520b and atmosphere information 540b corresponding to the atmosphere detected in the store 520b are displayed.
  • the speech information 530 is displayed on the screen 500 for a predetermined time (for example, several seconds), respectively, in the order in which the speech is detected. Therefore, in the store 520 where many remarks are made, the remark information 530 appears and disappears one after another.
  • the display time of the comment information 530 may be changed according to the detection frequency of the comments. For example, when the detection frequency of a statement is high, the display time of one piece of comment information 530 may be shortened.
  • the atmosphere information 540a of the store 520a is displayed in white, and the atmosphere information 540b of the store 520b is displayed in black. This indicates that the store 520a has a high degree of excitement and the store 520b has a low degree of excitement.
  • the size of the atmosphere information 540 is changed according to the frequency at which a statement is detected at the corresponding store 520.
  • the size of the remark information 530 may be changed according to the frequency at which a remark is detected at the corresponding store 520.
  • the speech information 530 is displayed as a balloon from the position of the store 520, but if the correspondence with the store 520 can be grasped, the display mode of the speech information 530 is Not limited.
  • the remark information 530 may be displayed so as to flow on the screen 500 starting from the position of the store 520.
  • the SNS icon image 550a is displayed together with the remark information 530a2.
  • the SNS icon image 550a indicates that the SNS ID of the utterer of the utterance indicated by the utterance information 530a2 is disclosed.
  • the SNS information of the speaker for example, attribute information and post information
  • FIG. 6 is a flowchart illustrating an example of processing in the information providing system 100.
  • the voice collection unit 200 of the data transmission apparatus 110 collects voice (S600). Then, the speech detection unit 210 of the data transmission device 110 detects a speech from the collected voice (S601). In addition, the atmosphere detection unit 240 of the data transmission device 110 detects the atmosphere from the collected voice (S602). Then, the transmission unit 270 of the data transmission device 110 provides collection data including utterance data indicating the detected utterance, atmosphere data indicating the detected atmosphere, and position data indicating the position where the sound is collected. The data is transmitted to the device 120 (S603).
  • the receiving unit 300 of the information providing device 120 receives the collected data transmitted from the data transmitting device 110 and stores it in the collected data storage unit 310 (S604).
  • the display data request unit 400 of the information display device 130 transmits an information display request to the information providing device 120 in response to a user operation (S605).
  • the transmission unit 320 of the information providing device 120 Upon receiving the information display request (S606), provides display data corresponding to the request to the information display device 130 based on the collected data stored in the collected data storage unit 310. (S607).
  • the display data request unit 400 of the information display device 130 receives the display data transmitted from the information providing device 120 in response to the information display request (S608). And the map display part 410 of the information display apparatus 130 displays a map based on display data (S609). Further, the utterance information display unit 420 of the information display device 130 displays the utterance information superimposed on the map based on the display data (S610). Further, the atmosphere information display unit 430 of the information display device 130 displays the atmosphere information superimposed on the map based on the display data (S611).
  • the above processing is repeatedly executed in the data transmitting apparatus 110, the information providing apparatus 120, and the information display apparatus 130.
  • the data transmitting apparatus 110 creates a dictionary database update instruction at a predetermined opportunity (S700), and transmits this to the information providing apparatus 120 (S701).
  • the information providing apparatus 120 Upon receiving the dictionary database update instruction (S702), the information providing apparatus 120 acquires a keyword from the keyword database 330 (S703), and estimates a keyword-related word (S704).
  • the information providing apparatus 120 creates an updated dictionary database 280 based on the keyword and its related word (S705), and transmits this to the data transmitting apparatus 110 (S706).
  • the data transmission apparatus 110 updates the dictionary database 280 by replacing the updated dictionary database 280 with the updated dictionary database 280 (S708).
  • the utterance information corresponding to the utterance detected at the position in the map is displayed in a superimposed manner on the map in association with the position. Accordingly, it is possible to grasp the situation of the facility or the store in real time based on the comment information indicating the speech at the facility or the store in the specific area.
  • the utterance information can include text indicating a part of the utterance.
  • a plurality of pieces of comment information can be displayed on the map in the order in which the statements are detected. Thereby, the transition of the remark can be grasped.
  • each of a plurality of comment information can be deleted after a predetermined time from being displayed on the map.
  • a large number of pieces of comment information can be displayed one after another in a limited display area.
  • the time for which the speech information is displayed on the map can be changed according to the frequency at which the speech is detected.
  • the speech information can be effectively displayed according to the frequency with which the speech is detected.
  • the size of the utterance information can be changed according to the frequency with which the utterance is detected. Thereby, for example, it is possible to intuitively grasp the degree of excitement in a facility or store.
  • the SNS information of the utterer of the utterance can be displayed. Therefore, it is possible to confirm who is making the remark that is worrisome, and to check what kind of posting the speaker has made on the SNS.
  • the atmosphere information corresponding to the atmosphere detected at the position in the map is displayed so as to be superimposed on the map in association with the position. This makes it possible to grasp the atmosphere of the facility or store in real time based on the atmosphere information indicating the atmosphere at the facility or store in a specific area.
  • the atmosphere information can include an image of a color corresponding to the atmosphere.
  • the atmosphere of a facility or a store can be grasped intuitively.
  • the size of the atmosphere information can be changed according to the frequency at which a statement is detected. Thereby, for example, it is possible to intuitively grasp the degree of excitement in a facility or store.
  • a specific keyword can be registered. Thereby, for example, a meaningless word in a specific facility or store can be excluded.
  • the SNS ID of the utterer of the utterance can be transmitted together with the collected data.
  • the SNS information can be confirmed together with the remark.
  • the dictionary database 280 is hit by updating the dictionary database 280 based on the keywords extracted from the speech collected by the speech collection unit 200 and the related words as matching with the keywords registered in the dictionary database 280.
  • the rate can be increased.
  • the dictionary database 280 can be optimized.
  • it is appropriately determined whether or not the product or service is actually popular based on the voice collected by the voice collection unit 200 (for example, voice actually spoken by the customer). be able to.
  • the voice collected by the voice collection unit 200 is actually collected at the place where the data transmission device 110 is placed, it is not based on the evaluation on the Internet, but based on the evaluation in the real society, You can determine whether the service is actually popular.
  • unnecessary keywords are deleted from the dictionary database 280, so the storage capacity of the dictionary database 280 may be small. As a result, the data transmission device 110 can be reduced in size and power consumption.
  • each embodiment described above is for facilitating the understanding of the present invention, and is not intended to limit the present invention.
  • the present invention can be changed / improved without departing from the spirit thereof, and the present invention includes equivalents thereof.
  • those obtained by appropriately modifying the design of each embodiment by those skilled in the art are also included in the scope of the present invention as long as they include the features of the present invention.
  • each element included in each embodiment and its arrangement, material, condition, shape, size, and the like are not limited to those illustrated, and can be changed as appropriate.
  • each element included in each embodiment can be combined as much as technically possible, and combinations thereof are included in the scope of the present invention as long as they include the features of the present invention.
  • Information provision system 110 Data transmission apparatus 120 Information provision apparatus 130 Information display apparatus 200 Voice collection part 210 Statement detection part 220 Exclusion keyword storage part 230 Atmosphere detection part 240 Position data storage part 250 ID storage part 260 Collected data transmission part 300 Reception part 310 Collected Data Storage Unit 320 Transmitting Unit 400 Display Data Request Unit 410 Map Display Unit 420 Speech Information Display Unit 430 Atmosphere Information Display Unit 500 Screen 510 Map 520 Store 530 Statement Information 540 Atmosphere Information 550 SNS Icon

Landscapes

  • Engineering & Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Strategic Management (AREA)
  • Theoretical Computer Science (AREA)
  • Marketing (AREA)
  • General Business, Economics & Management (AREA)
  • Economics (AREA)
  • Accounting & Taxation (AREA)
  • Finance (AREA)
  • Development Economics (AREA)
  • Automation & Control Theory (AREA)
  • Human Resources & Organizations (AREA)
  • Primary Health Care (AREA)
  • Tourism & Hospitality (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Game Theory and Decision Science (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Navigation (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

特定の地域における施設や店舗の状況を示す情報をユーザに提供する。 情報表示プログラムは、コンピュータに、画面上に地図を表示する地図表示部と、地図内の位置で検出された発言に応じた発言情報を、位置に対応づけて地図に重畳して表示する発言情報表示部と、を実現させる。

Description

情報表示プログラム、データ送信プログラム、データ送信装置、データ送信方法、情報提供装置及び情報提供方法
 本発明は、情報表示プログラム、データ送信プログラム、データ送信装置、情報提供装置及び情報提供方法に関する。
 ソーシャル・ネットワーキング・サービス(SNS)や口コミサイトの普及に伴い、自身の行動を決める際に、特定の施設や店舗に対する他人のメッセージや評価を参考にするユーザが増えてきている。例えば、ユーザは、SNSで肯定的なメッセージが投稿されている施設の訪問や、口コミサイトで高い評価がつけられている店舗の利用を検討することがある。また、特許文献1には、ユーザの内部状態とユーザが置かれている状況を相補的に利用することによって、ユーザの興味や嗜好にしたがった情報を提供するシステムが開示されている。
特開2012-256183号公報
 しかしながら、SNSや口コミサイトの情報は、ユーザが、ある特定の地域で今から訪問する施設や店舗を探す際には使いづらいことがある。例えば、その地域のタグが付けられたSNSのメッセージを検索することは可能であるが、検索で抽出されたメッセージの一覧が表示されても、どこが良さそうな施設や店舗であるかを把握することは難しい。また例えば、口コミサイトでその地域の施設や店舗の情報を参照することはできるが、口コミサイトの情報は、過去に蓄積されたものであるため、現時点の状況を把握することはできない。
 本発明はこのような事情に鑑みてなされたものであり、特定の地域における施設や店舗の状況を示す情報をユーザに提供することを目的とする。
 本発明の一側面に係る情報表示プログラムは、コンピュータに、画面上に地図を表示する地図表示部と、地図内の位置で検出された発言に応じた発言情報を、位置に対応づけて地図に重畳して表示する発言情報表示部と、を実現させる。
 また、本発明の一側面に係るデータ送信プログラムは、コンピュータに、音声を収集する音声収集部と、収集された音声から発言を検出する発言検出部と、検出された発言を示す発言データと、音声が収集された位置を示す位置データとを含む収集データをサーバに送信する送信部と、を実現させる。
 また、本発明の一側面に係るデータ送信装置は、音声を収集する音声収集部と、収集された音声から発言を検出する発言検出部と、検出された発言を示す発言データと、音声が収集された位置を示す位置データとを含む収集データをサーバに送信する送信部と、を備える。
 また、本発明の一側面に係るデータ送信方法は、コンピュータが、収集された音声から発言を検出し、検出された発言を示す発言データと、音声が収集された位置を示す位置データとを含む収集データをサーバに送信する。
 また、本発明の一側面に係る情報提供装置は、収集された音声から検出された発言を示す発言データと、音声が収集された位置を示す位置データとを含む収集データをデータ送信装置から受信して収集データ記憶部に格納する受信部と、収集データに基づいて、ユーザ端末の画面上に、検出された発言に応じた発言情報を、位置に対応づけて地図に重畳して表示させるための表示データをユーザ端末に提供する送信部と、を備える。
 また、本発明の一側面に係る情報提供方法は、コンピュータが、収集された音声から検出された発言を示す発言データと、音声が収集された位置を示す位置データとを含む収集データをデータ送信装置から受信して収集データ記憶部に格納し、収集データに基づいて、ユーザ端末の画面上に、検出された発言に応じた発言情報を、位置に対応づけて地図に重畳して表示させるための表示データをユーザ端末に提供する。
 本発明によれば、特定の地域における施設や店舗の状況を示す情報をユーザに提供することが可能となる。
本発明の一実施形態である情報提供システム100の構成を示す図である。 データ送信装置110が備える機能ブロックの一例を示す図である。 情報提供装置120が備える機能ブロックの一例を示す図である。 情報表示装置130が備える機能ブロックの一例を示す図である。 情報表示装置130の画面500上に表示される情報の一例を示す図である。 情報提供システム100における処理の一例を示すフローチャートである。 辞書データベース更新処理を示すフローチャートである。
 以下、図面を参照して本発明の一実施形態について説明する。図1は、本発明の一実施形態である情報提供システム100の構成を示す図である。情報提供システム100は、データ送信装置110、情報提供装置120及び情報表示装置130を備える。データ送信装置110、情報提供装置120及び情報表示装置130は、ネットワークを経由して通信可能に接続されている。情報提供システム100では、データ送信装置110から情報提供装置120に送信されるデータに基づいて、情報表示装置130のユーザに対して情報提供が行われる。なお、図1では、データ送信装置110及び情報表示装置130は、それぞれ1つしか図示されていないが、情報提供システム100は、複数のデータ送信装置110及び複数の情報表示装置130を備えている。
 データ送信装置110は、データ送信装置110が置かれている場所で収集したデータ(収集データ)を情報提供装置120に送信するコンピュータである。データ送信装置110は、施設や店舗に設置されたコンピュータであってもよいし、施設や店舗を訪問したユーザが所有するコンピュータ(スマートフォンやタブレット端末等)であってもよい。データ送信装置110は、プロセッサ、メモリ及び通信インタフェースを備える。データ送信装置110は、例えば、携帯電話通信網やインターネットを経由して、情報提供装置120と通信を行うことができる。
 情報提供装置120は、データ送信装置110から受信したデータ(収集データ)に基づいて、情報表示装置130のユーザに対して情報提供を行うコンピュータ(サーバ)である。情報提供装置120は、プロセッサ、メモリ及び通信インタフェースを備える。情報提供装置120は、例えば、インターネットを経由して、データ送信装置110及び情報表示装置130と通信を行うことができる。
 情報表示装置130は、情報提供装置120から提供されるデータ(表示データ)に基づいて、情報の表示を行うコンピュータ(ユーザ端末)である。情報表示装置130は、例えば、スマートフォンやタブレット端末、パーソナルコンピュータ等である。情報表示装置130は、プロセッサ、メモリ及び通信インタフェースを備える。情報表示装置130は、例えば、携帯電話通信網やインターネットを経由して、情報提供装置120と通信を行うことができる。
 図2は、データ送信装置110が備える機能ブロックの一例を示す図である。データ送信装置110は、音声収集部200、発言検出部210、除外キーワード記憶部220、雰囲気検出部240、位置データ記憶部250、ID記憶部260、送信部270、辞書データベース280、及び辞書データベース更新指示作成部290を備える。図2に示す各部は、例えば、データ送信装置110が備えるメモリを利用したり、メモリに記憶されたデータ送信プログラムをプロセッサが実行したりすることにより実現することができる。データ送信装置110で実行されるデータ送信プログラムは、例えば、ネットワークや記憶媒体経由でデータ送信装置110に提供される。データ送信プログラムは、コンピュータ読み取り可能な記録媒体からデータ送信装置110のメモリに読み込まれて、データ送信装置110のプロセッサにより実行される。
 音声収集部200は、データ送信装置110の周辺の音声をマイク等で収集し、音声データを出力する。音声収集部200は、データ送信装置110が稼働している間、音声を収集し続けることができる。音声収集部200は、送信装置110の内蔵マイクでもよく、或いは外付けマイク(外付け型の有線式マイク又は無線式のマイク)でもよい。例えば、外付けマイクが接続されたタブレット端末は、データ送信装置110として機能する。データ送信装置110は、複数の音声収集部200を備えてもよい。データ送信装置110は、複数の音声収集部200の相対位置を検出してもよい。
 発言検出部210は、音声データに基づいて、データ送信装置110の周辺にいる発言者の発言を検出し、当該発言を示す発言データを出力する。発言検出部210による発言の検出には、任意の手法を用いることができる。例えば、発言検出部210は、意味のあるキーワード(語句又は単語)が登録された辞書データベース280を参照することにより、収集された音声に含まれる発言を検出することができる。発言検出部210により検出される発言は、文章であってもよいし、文章に含まれる単語であってもよい。具体的には、発言検出部210は、まず、音声データを解析して、当該音声をテキストデータに変換する。そして、発言検出部210は、当該テキストデータに含まれる発言を、辞書データベース280に予め格納されたキーワードと比較する。そして、発言検出部210は、当該テキストデータに含まれる発言が、辞書データベース280に予め格納されたキーワードと一致した場合に、当該キーワードを発言データとして出力する。発言検出部210は、データ送信装置110が稼働している間、発言データを出力し続けることができる。なお、発言検出部210は、生成した発言データを一時的に格納しておくためのバッファを含むことができる。
 除外キーワード記憶部220は、発言検出部210により検出される発言から除外するキーワード(除外キーワード)を記憶する。除外キーワードには、例えば、誹謗・中傷に関する単語や、データ送信装置110の周辺の状況を把握する際にあまり意味のない単語等である。
 除外キーワード登録部230は、ユーザ入力に応じて、除外キーワード記憶部220に記憶される除外キーワードを登録することができる。また、除外キーワードは、例えば、情報提供装置120から送信されるデータによって更新されてもよい。
 雰囲気検出部240は、音声データに基づいて、データ送信装置110の周辺の雰囲気を検出し、当該雰囲気を示す雰囲気データを出力する。雰囲気検出部240による雰囲気の検出には、任意の手法を用いることができる。例えば、雰囲気検出部240は、音声の音量や抑揚、検出頻度、発言内容等に基づいて、雰囲気を検出することができる。検出される雰囲気は、例えば、盛り上がりの度合いのように一軸で示されるものであってもよいし、ラッセルの感情モデルやプルチックの感情モデル等の多軸で示されるものであってもよい。雰囲気検出部240は、データ送信装置110が稼働している間、雰囲気を検出し続けることができる。なお、雰囲気検出部240は、生成した雰囲気データを一時的に格納しておくためのバッファを含むことができる。
雰囲気検出部240は、音声データの波形から発言の肯定又は否定の度合いに関する指標を抽出してもよい。例えば、雰囲気検出部240は、Empath(登録商標)を用いて、音声データの波形から発言の肯定又は否定の度合いに関する指標を抽出することができる。Empathは、音声データの波形の物理的な特徴を解析し、平常、怒り、喜び、悲しみ及び元気度の各項目について50段階で判定値を算出する。雰囲気検出部240は、このように算出された結果に基づいて、発言の肯定又は否定の度合いに関する指標を抽出することができる。このように、音声データの波形から感情や気分に関する判定値を算出する技術は、音声気分解析技術と呼ばれる。音声気分解析技術を用いて判定される項目は、平常、怒り、喜び、悲しみ及び元気度に限られるものではなく、感情に関わるあらゆる項目を含み得る。発言の肯定又は否定の度合いに関する指標と雰囲気とを予め対応付けておくことにより、雰囲気検出部240は、発言の肯定又は否定の度合いに関する指標から雰囲気を検出することができる。
 位置データ記憶部250は、データ送信装置110の位置(音声が収集された位置)を示す位置データを記憶する。位置データは、情報提供装置120においてデータ送信装置110の位置を特定することが可能な任意のデータとすることができる。例えば、位置データは、データ送信装置110が備えるGPS(Global Positioning System)受信機(不図示)から出力されるデータ(緯度・経度)であってもよい。また例えば、位置データは、施設や店舗のIDを示すデータであってもよい。
 ID記憶部260は、SNSのIDを記憶する。例えば、データ送信装置110が、施設や店舗を訪問したユーザが所有するコンピュータ(スマートフォンやタブレット端末)である場合、SNSのIDは、当該ユーザが登録しているSNSにおける当該ユーザのIDである。また例えば、データ送信装置110が、施設や店舗に設置されたコンピュータである場合、施設や店舗を訪問したユーザが訪問時にデータ送信装置110に登録したIDであってもよい。
 送信部270は、検出された発言を示す発言データ、検出された雰囲気を示す雰囲気データ及び音声が収集された位置を示す位置データを含む収集データを情報提供装置120に送信する。また、ID記憶部260にSNSのIDが記憶されている場合、収集データには、当該IDが含まれてもよい。なお、ID記憶部260にSNSのIDが記憶されている場合、送信部270は、収集データの情報提供装置120への送信とは別に、発言をSNSに投稿するためのデータ送信を行ってもよい。また、収集データには、音声、発言又は雰囲気が検出された時刻あるいは収集データが生成された時刻を示す時刻データが含まれてもよい。送信部270は、データ送信装置110が稼働している間、例えば所定間隔で、収集データを送信し続けることができる。なお、送信部270は、音声が検出されていない場合は、収集データの送信を停止してもよい。
 辞書データベース更新指示作成部290は、辞書データベース280を更新するための指示(辞書データベース更新指示)を作成する。辞書データベース更新指示は、所定の契機で作成される。ここで、所定の契機は、辞書データベース280のヒット率が予め定められた閾値を下回った時点でもよく、或いは、予め定められた一定間隔でもよい。ヒット率とは、辞書データベース280に登録されている全てのキーワードのうち、音声収集部200によって収集された音声に含まれているものと判定されたことのあるキーワードの割合を意味する。送信部270は、辞書データベース更新指示作成部290によって作成された辞書データベース更新指示を情報提供装置120に送信する。
 図3は、情報提供装置120が備える機能ブロックの一例を示す図である。情報提供装置120は、受信部300、収集データ記憶部310、送信部320、キーワードデータベース330、推測部340、及び辞書データベース作成部360を備える。図3に示す各部は、例えば、情報提供装置120が備えるメモリを利用したり、メモリに記憶された情報提供プログラムをプロセッサが実行したりすることにより実現することができる。情報提供装置120で実行される情報提供プログラムは、例えば、ネットワークや記憶媒体経由で情報提供装置120に提供される。情報提供プログラムは、コンピュータ読み取り可能な記録媒体から情報提供装置120のメモリに読み込まれて、情報提供装置120のプロセッサにより実行される。
 情報提供装置120は、データ送信装置110から発言データとして送信されるキーワードを受信し、これを蓄積することにより、蓄積されたキーワードから話題を推測する処理を行ってもよい。キーワードが、例えば、「ハンドル」、「ブレーキ」、「タイヤ」などである場合、「車」に関する話題がなされているものと推測できる。推測された話題は、例えば、広告業者に提供される。また、情報提供装置120は、データ送信装置110からの辞書データベース更新指示に応答して、辞書データベース280を更新する処理をも行う。
 受信部300は、データ送信装置110から送信されてくる収集データを受信し、収集データ記憶部310に格納する。収集データ記憶部310には、例えば、情報表示装置130への情報提供に必要な一定期間の収集データが保存される。受信部300は、データ送信装置110が送信した辞書データベース更新指示を受信する。
 送信部320は、情報表示装置130の画面上に情報を表示するための表示データを情報表示装置130に提供する。情報表示装置130に表示される情報には、例えば、地図や発言情報、雰囲気情報が含まれる。表示データは、情報表示装置130にこのような情報を表示するためのデータであればよく、表示データそのものにこれらの情報が含まれていてもよいし、含まれていなくてもよい。例えば、表示データは、このような情報の画像データや文字データを含んでもよいし、画像データや文字データを取得するためのデータ(タグやスクリプト等)を含んでもよい。
 キーワードデータベース330は、受信部300を通じて受信された収集データに含まれるキーワードを格納する。推測部350は、受信部300を通じて受信された辞書データベース更新指示に応答して、キーワードデータベース330に格納されているキーワードの関連語を推測する。キーワードの関連語とは、キーワードと頻繁に同時に使われる語句を意味し、このような語句は、「共起語」とも呼ばれている。共起語は、同意語を必ずしも意味するものではない。推測部340は、例えば、人工知能を応用した共起語検索ツールである。このような共起語検索ツールとして、例えば、グーグルやヤフーなどの検索結果の上位となるウェブページのコンテンツで形態素解析を行い、同一文書に頻出する語句を共起語として提示するものが知られている。形態素解析とは、文法的な情報の注記のない自然言語のテキストデータから、対象言語の文法や、辞書と呼ばれる単語の品詞などの情報に基づき、形態素(言語で意味を持つ最小単位)の列に分解し、それぞれの形態素の品詞などを判別する作業を意味する。
 辞書データベース作成部350は、受信部300を通じて受信された辞書データベース更新指示に応答して、辞書データベース280を更新する。辞書データベース作成部350は、キーワードデータベース330に格納されているキーワードと、推測部340により推測された関連語とに基づいて、更新された辞書データベース280を作成する。更新された辞書データベース280は、音声収集部200によって収集された音声から抽出されたことのある音声キーワードとその関連語をキーワードとして登録している。更新前の辞書データベース280に登録されているキーワードのうち、音声収集部200によって収集された音声から抽出されたことのない音声キーワードは、更新後の辞書データベース280から削除される。このような更新処理を繰り返すことにより、辞書データベース280のヒット率を高めることができる。
 送信部320は、更新された辞書データベース280をデータ送信装置110に送信する。更新された辞書データベース280を受信したデータ送信装置110は、更新前の辞書データベース280を更新後の辞書データベース280に差し替える。
 図4は、情報表示装置130が備える機能ブロックの一例を示す図である。情報表示装置130は、表示データ要求部400、地図表示部410、発言情報表示部420及び雰囲気情報表示部430を備える。図4に示す各部は、例えば、情報表示装置130が備えるメモリを利用したり、メモリに記憶された情報表示プログラムをプロセッサが実行したりすることにより実現することができる。情報表示装置130で実行される情報表示プログラムは、例えば、ネットワークや記憶媒体経由で情報表示装置130に提供される。なお、情報表示装置130で実行される情報表示プログラムは、情報表示装置130にあらかじめインストールされているものであってもよいし、情報表示装置130での処理の実行時に、情報提供装置120等から提供されるもの(例えばHTMLデータやスクリプト等)であってもよい。情報表示プログラムは、コンピュータ読み取り可能な記録媒体から情報表示装置130のメモリに読み込まれて、情報表示装置130のプロセッサにより実行される。
 表示データ要求部400は、画面上に情報を表示するための情報表示要求を情報提供装置120に要求する。情報表示要求には、例えば、情報表示対象の地域を示す地域データが含まれる。地域データには、例えば、GPS受信機から取得された位置データ(緯度・経度)や、ユーザから入力された地域や施設等の名称データが含まれる。
 地図表示部410は、情報表示要求に応じて情報提供装置120から送信されてくる表示データに基づいて、画面上に地図を表示する。地図表示部410は、情報提供装置120から地図データを取得してもよいし、情報提供装置120とは別のコンピュータから地図データを取得してもよい。
 発言情報表示部420は、情報表示要求に応じて情報提供装置120から送信されてくる表示データに基づいて、地図内の位置で検出された発言に応じた発言情報を、当該位置に対応づけて地図に重畳して表示する。発言情報は、例えば、発言の少なくとも一部を示すテキストを含む。なお、発言情報は、テキストに限られず、例えば、発言内容に応じたアイコン画像等であってもよい。また、発言情報表示部420は、SNSに関する情報(例えば、SNSのアイコン画像や、発言者のSNSのID等)を発言情報とともに表示してもよい。
 雰囲気情報表示部430は、情報表示要求に応じて情報提供装置120から送信されてくる表示データに基づいて、地図内の位置で検出された雰囲気に応じた雰囲気情報を、当該位置に対応づけて地図に重畳して表示する。雰囲気情報は、例えば、雰囲気に応じた色の画像を含む。雰囲気に応じた色は、例えば、盛り上がりの度合いが高いほど濃い赤色とし、盛り上がりの度合いが低いほど濃い青色とすることができる。雰囲気が多軸で表される場合、各軸の度合いを表す色を用いてもよい。
 なお、地図表示部410、発言情報表示部420及び雰囲気情報表示部430は、個別に設けられていなくてもよい。
 図5は、情報表示装置130の画面500上に表示される情報の一例を示す図である。図5に示すように、画面500上には、地図510が表示されている。この地図510は、例えば、情報表示装置130におけるユーザ操作に応じて、地域や縮尺を任意に変更することができる。初期状態では、例えば、GPS受信機から取得された位置データや、ユーザから入力された名称データにより特定される地域の地図510が表示される。図5に示す例では、地図510には、店舗520の位置が含まれている。そして、地図510上には、地図510内の位置で検出された発言に応じた発言情報530及び雰囲気情報540が重畳して表示されている。
 具体的には、店舗520aの位置に対応づけて、店舗520aで検出された発言に応じた発言情報530a1,530a2,530a3と、店舗520aで検出された雰囲気に応じた雰囲気情報540aとが表示されている。また、店舗520bの位置に対応づけて、店舗520bで検出された発言に応じた発言情報530b1,530b2と、店舗520bで検出された雰囲気に応じた雰囲気情報540bとが表示されている。
 発言情報530は、例えば、発言が検出された順に、それぞれ所定時間(例えば数秒)、画面500上に表示される。したがって、多くの発言が行われている店舗520においては、発言情報530が次々に出現しては消えていく状態となる。なお、発言の検出頻度に応じて、発言情報530の表示時間が変更されてもよい。例えば、発言の検出頻度が高い場合は、1つの発言情報530の表示時間を短くしてもよい。
 なお、図5に示す例では、店舗520aの雰囲気情報540aは白色、店舗520bの雰囲気情報540bは黒色で表示されている。これは、店舗520aは盛り上がりの度合いが高く、店舗520bは盛り上がりの度合いが低いことを表している。また、図5に示す例では、雰囲気情報540の大きさは、対応する店舗520において発言が検出される頻度に応じて大きさが変更されている。発言情報530についても同様に、対応する店舗520において発言が検出される頻度に応じて大きさが変更されてもよい。
 また、図5に示す例では、発言情報530は、店舗520の位置からの吹き出しで表示されているが、店舗520との対応関係を把握可能であれば、発言情報530の表示態様はこれに限られない。例えば、発言情報530は、店舗520の位置を起点として画面500上を流れるように表示されてもよい。
 また、図5に示す例では、発言情報530a2とともに、SNSアイコン画像550aが表示されている。SNSアイコン画像550aは、発言情報530a2によって示される発言の発言者のSNSのIDが開示されていることを示している。ユーザが、SNSアイコン画像550aをクリック又はタップすると、当該発言者のSNSの情報(例えば、属性情報や投稿情報等)が表示されてもよい。
 図6は、情報提供システム100における処理の一例を示すフローチャートである。
 まず、データ送信装置110の音声収集部200は、音声の収集を行う(S600)。そして、データ送信装置110の発言検出部210は、収集された音声から発言を検出する(S601)。また、データ送信装置110の雰囲気検出部240は、収集された音声から雰囲気を検出する(S602)。そして、データ送信装置110の送信部270は、検出された発言を示す発言データと、検出された雰囲気を示す雰囲気データと、音声が収集された位置を示す位置データとを含む収集データを情報提供装置120に送信する(S603)。
 情報提供装置120の受信部300は、データ送信装置110から送信されてくる収集データを受信し、収集データ記憶部310に格納する(S604)。情報表示装置130の表示データ要求部400は、ユーザ操作に応じて、情報表示要求を情報提供装置120に送信する(S605)。情報提供装置120の送信部320は、情報表示要求を受信すると(S606)、収集データ記憶部310に格納されている収集データに基づいて、当該要求に応じた表示データを情報表示装置130に提供する(S607)。
 情報表示装置130の表示データ要求部400は、情報表示要求に応じて情報提供装置120から送信されてくる表示データを受信する(S608)。そして、情報表示装置130の地図表示部410は、表示データに基づいて地図を表示する(S609)。また、情報表示装置130の発言情報表示部420は、表示データに基づいて、発言情報を地図に重畳させて表示する(S610)。さらに、情報表示装置130の雰囲気情報表示部430は、表示データに基づいて、雰囲気情報を地図に重畳させて表示する(S611)。
 以上の処理が、データ送信装置110、情報提供装置120及び情報表示装置130において、繰り返し実行される。
 次に、図7を参照しながら、辞書データベース更新処理の流れについて説明する。
 データ送信装置110は、所定の契機で辞書データベース更新指示を作成し(S700)、これを情報提供装置120に送信する(S701)。情報提供装置120は、辞書データベース更新指示を受信すると(S702)、キーワードデータベース330からキーワードを取得し(S703)、キーワードの関連語を推測する(S704)。次に、情報提供装置120は、キーワードとその関連語に基づいて、更新された辞書データベース280を作成し(S705)、これをデータ送信装置110に送信する(S706)。データ送信装置110は、更新後の辞書データベース280を受信すると(S707)、更新前の辞書データベース280を更新後の辞書データベース280に差し替えることにより、辞書データベース280を更新する(S708)。
 以上、本発明の例示的な実施形態について説明した。本実施形態によれば、地図内の位置で検出された発言に応じた発言情報が、当該位置に対応づけて地図に重畳して表示される。これにより、特定の地域における施設や店舗での発言を示す発言情報に基づいて、施設や店舗の状況をリアルタイムに把握することが可能となる。
 また、本実施形態によれば、発言情報は、発言の一部を示すテキストを含むことができる。これにより、施設や店舗で発言されている具体的な内容を把握することができる。
 また、本実施形態によれば、複数の発言情報を、発言が検出された順に地図上に表示することができる。これにより、発言の推移を把握することができる。
 さらに、本実施形態によれば、複数の発言情報のそれぞれについて、地図上に表示してから所定時間後に消去することができる。これにより、限られた表示領域において、多数の発言情報を次々に表示させることができる。
 またさらに、本実施形態によれば、発言情報が地図上に表示される時間を、発言が検出される頻度に応じて変更することができる。これにより、例えば、発言が検出される頻度に応じて、発言情報を効果的に表示することができる。
 また、本実施形態によれば、発言が検出される頻度に応じて、発言情報の大きさを変更することができる。これにより、例えば、施設や店舗における盛り上がり度合いを直感的に把握することができる。
 また、本実施形態によれば、画面上で発言情報が選択されると、発言の発言者のSNSの情報を表示することができる。これにより、気になる発言を行っている発言者が誰であるかを確認したり、当該発言者がSNSでどのような投稿を行っているかを確認したりすることができる。
 また、本実施形態によれば、地図内の位置で検出された雰囲気に応じた雰囲気情報が、当該位置に対応づけて地図に重畳して表示される。これにより、特定の地域における施設や店舗での雰囲気を示す雰囲気情報に基づいて、施設や店舗の雰囲気をリアルタイムに把握することが可能となる。
 また、本実施形態によれば、雰囲気情報は、雰囲気に応じた色の画像を含むことができる。これにより、施設や店舗の雰囲気を直感的に把握することができる。
 また、本実施形態によれば、発言が検出される頻度に応じて、雰囲気情報の大きさを変更することができる。これにより、例えば、施設や店舗における盛り上がり度合いを直感的に把握することができる。
 また、本実施形態によれば、音声に含まれる特定のキーワードを発言として抽出しないようにすることができる。これにより、例えば、誹謗・中傷に関する発言や、あまり意味のない単語を除外することができる。
 さらに、本実施形態によれば、特定のキーワードを登録することができる。これにより、例えば、特定の施設や店舗において意味のない単語を除外することができる。
 また、本実施形態によれば、収集データとともに、発言の発言者のSNSのIDを送信することができる。これにより、例えば、ユーザ端末において、発言とともにSNSの情報を確認することができる。また、検出された発言をSNSに自動的に投稿することにより、SNSへの投稿の手間を軽減してもよい。
 辞書データベース280に登録されているキーワードに一致するものとして、音声収集部200が収集した音声から抽出されたキーワードとその関連語とに基づいて辞書データベース280を更新することにより、辞書データベース280のヒット率を高めることができる。これにより、辞書データベース280を最適化することができる。辞書データベース280を最適化することにより、音声収集部200が収集する音声(例えば、顧客が実際に発話した音声)に基づいて、商品又はサービスが実際に流行しているか否かを適切に判断することができる。また、音声収集部200が収集する音声は、データ送信装置110が置かれている場所で実際に収集された音声であるため、インターネット上の評価ではなく、現実社会における評価を基礎として、商品又はサービスが実際に流行しているか否かを判断できる。また、辞書データベース280の更新を繰り返すことにより、不要なキーワードは、辞書データベース280から削除されるため、辞書データベース280の記憶容量は少なくてもよい。これにより、データ送信装置110の小型化及び低消費電力化が可能となる。
 以上説明した各実施形態は、本発明の理解を容易にするためのものであり、本発明を限定して解釈するためのものではない。本発明は、その趣旨を逸脱することなく、変更/改良され得るととともに、本発明にはその等価物も含まれる。即ち、各実施形態に当業者が適宜設計変更を加えたものも、本発明の特徴を備えている限り、本発明の範囲に包含される。例えば、各実施形態が備える各要素およびその配置、材料、条件、形状、サイズなどは、例示したものに限定されるわけではなく適宜変更することができる。また、各実施形態が備える各要素は、技術的に可能な限りにおいて組み合わせることができ、これらを組み合わせたものも本発明の特徴を含む限り本発明の範囲に包含される。
 100 情報提供システム
 110 データ送信装置
 120 情報提供装置
 130 情報表示装置
 200 音声収集部
 210 発言検出部
 220 除外キーワード記憶部
 230 雰囲気検出部
 240 位置データ記憶部
 250 ID記憶部
 260 収集データ送信部
 300 受信部
 310 収集データ記憶部
 320 送信部
 400 表示データ要求部
 410 地図表示部
 420 発言情報表示部
 430 雰囲気情報表示部
 500 画面
 510 地図
 520 店舗
 530 発言情報
 540 雰囲気情報
 550 SNSアイコン

Claims (19)

  1.  コンピュータに、
     画面上に地図を表示する地図表示部と、
     前記地図内の位置で検出される複数の発言に応じた複数の発言情報を、発言が検出された順に、前記位置に対応づけて前記地図に重畳して表示する発言情報表示部と、
     を実現させるための情報表示プログラム。
  2.  請求項1に記載の情報表示プログラムであって、
     前記発言情報は、前記発言の少なくとも一部を示すテキストを含む、
     情報表示プログラム。
  3.  請求項1に記載の情報表示プログラムであって、
     前記発言情報表示部は、前記複数の発言情報のそれぞれについて、前記地図上に表示してから所定時間後に消去する、
     情報表示プログラム。
  4.  請求項3に記載の情報表示プログラムであって、
     前記発言情報表示部は、前記位置で発言が検出される頻度に応じて、前記所定時間を変更する、
     情報表示プログラム。
  5.  請求項1~4のいずれか一項に記載の情報表示プログラムであって、
     前記発言情報表示部は、前記位置で発言が検出される頻度に応じて、前記位置に対応づけて表示される前記発言情報の大きさを変更する、
     情報表示プログラム。
  6.  請求項1~5のいずれか一項に記載の情報表示プログラムであって、
     前記発言情報表示部は、前記画面上で前記発言情報が選択されると、前記発言の発言者のソーシャル・ネットワーキング・サービスの情報を表示する、
     情報表示プログラム。
  7.  請求項1~6のいずれか一項に記載の情報表示プログラムであって、
     前記コンピュータに、前記位置で検出された雰囲気に応じた雰囲気情報を、前記位置に対応づけて前記地図上に重畳して表示する雰囲気情報表示部をさらに実現させるための、
     情報表示プログラム。
  8.  請求項7に記載の情報表示プログラムであって、
     前記雰囲気情報は、前記雰囲気に応じた色の画像を含む、
     情報表示プログラム。
  9.  請求項7又は8に記載の情報表示プログラムであって、
     前記雰囲気情報表示部は、前記位置で発言が検出される頻度に応じて、前記位置に対応づけて表示される前記雰囲気情報の大きさを変更する、
     情報表示プログラム。
  10.  コンピュータに、
     音声を収集する音声収集部と、
     前記収集された音声から発言を検出する発言検出部と、
     前記検出された発言を示す発言データと、前記音声が収集された位置を示す位置データとを含む収集データをサーバに送信する送信部と、
     を実現させるためのデータ送信プログラム。
  11.  請求項10に記載のデータ送信プログラムであって、
     前記コンピュータに、前記収集された音声に基づいて雰囲気を検出する雰囲気検出部をさらに実現させ、
     前記送信部は、前記発言データと、前記検出された雰囲気を示す雰囲気データと、前記位置データとを含む前記収集データを前記サーバに送信する、
     データ送信プログラム。
  12.  請求項10又は11に記載のデータ送信プログラムであって、
     前記発言検出部は、前記音声に含まれる特定のキーワードを前記発言として抽出しない、
     データ送信プログラム。
  13.  請求項12に記載のデータ送信プログラムであって、
     前記コンピュータに、前記特定のキーワードを登録する除外キーワード登録部をさらに実現させる、
     データ送信プログラム。
  14.  請求項10~13のいずれか一項に記載のデータ送信プログラムであって、
     前記送信部は、前記収集データとともに、前記発言の発言者のソーシャル・ネットワーキング・サービスのIDを送信する、
     データ送信プログラム。
  15.  音声を収集する音声収集部と、
     前記収集された音声から発言を検出する発言検出部と、
     前記検出された発言を示す発言データと、前記音声が収集された位置を示す位置データとを含む収集データをサーバに送信する送信部と、
     を備えるデータ送信装置。
  16.  コンピュータが、
     収集された音声から発言を検出し、
     前記検出された発言を示す発言データと、前記音声が収集された位置を示す位置データとを含む収集データをサーバに送信する、
     をデータ送信方法。
  17.  収集された音声から検出された発言を示す発言データと、前記音声が収集された位置を示す位置データとを含む収集データをデータ送信装置から受信して収集データ記憶部に格納する受信部と、
     前記収集データに基づいて、ユーザ端末の画面上に、前記検出された発言に応じた発言情報を、前記位置に対応づけて地図に重畳して表示させるための表示データを前記ユーザ端末に提供する送信部と、
     を備える情報提供装置。
  18.  コンピュータが、
     収集された音声から検出された発言を示す発言データと、前記音声が収集された位置を示す位置データとを含む収集データをデータ送信装置から受信して収集データ記憶部に格納し、
     前記収集データに基づいて、ユーザ端末の画面上に、前記検出された発言に応じた発言情報を、前記位置に対応づけて地図に重畳して表示させるための表示データを前記ユーザ端末に提供する、
     を備える情報提供方法。
  19.  請求項17に記載の情報提供装置であって、
     前記データ送信装置は、前記発言データが、前記データ送信装置が備える辞書データベースに登録されている何れかのキーワードに一致する場合に、前記キーワードを前記発言データとして前記情報提供装置に送信し、
     前記受信部は、前記辞書データベースの更新指示を前記データ送信装置から受信し、
     前記情報提供装置は、
     前記データ送信装置から送信される前記キーワードを格納するキーワードデータベースと、
     前記更新指示に応答して、前記キーワードデータベースに格納されているキーワードの関連語を推測する推測部と、
     前記キーワードデータベースに格納されているキーワードと、前記推測された関連語とに基づいて、更新後の辞書データベースを作成する辞書データベース作成部と、を備え、
     前記送信部は、前記更新後の辞書データベースを前記データ送信装置に送信する、情報提供装置。
PCT/JP2017/033572 2016-09-29 2017-09-15 情報表示プログラム、データ送信プログラム、データ送信装置、データ送信方法、情報提供装置及び情報提供方法 WO2018061840A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2018542406A JP6804049B2 (ja) 2016-09-29 2017-09-15 情報表示プログラム、データ送信プログラム、データ送信装置、データ送信方法、情報提供装置及び情報提供方法
US16/356,456 US20190213646A1 (en) 2016-09-29 2019-03-18 Information display program, data transmission program, data-transmitting apparatus, method for transmitting data, information-providing apparatus, and method for providing information

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2016190884 2016-09-29
JP2016-190884 2016-09-29

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US16/356,456 Continuation US20190213646A1 (en) 2016-09-29 2019-03-18 Information display program, data transmission program, data-transmitting apparatus, method for transmitting data, information-providing apparatus, and method for providing information

Publications (1)

Publication Number Publication Date
WO2018061840A1 true WO2018061840A1 (ja) 2018-04-05

Family

ID=61760323

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2017/033572 WO2018061840A1 (ja) 2016-09-29 2017-09-15 情報表示プログラム、データ送信プログラム、データ送信装置、データ送信方法、情報提供装置及び情報提供方法

Country Status (3)

Country Link
US (1) US20190213646A1 (ja)
JP (1) JP6804049B2 (ja)
WO (1) WO2018061840A1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020034463A (ja) * 2018-08-30 2020-03-05 Zホールディングス株式会社 評価装置、評価方法及び評価プログラム
JP2021522910A (ja) * 2018-09-21 2021-09-02 テンセント・テクノロジー・(シェンジェン)・カンパニー・リミテッド 仮想オブジェクトの情報表示方法並びにその、アプリケーション・プログラム、装置、端末及びサーバ
JP7089084B1 (ja) 2021-03-18 2022-06-21 ヤフー株式会社 コンテンツ提供装置、コンテンツ提供方法、およびプログラム

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008116477A (ja) * 2008-01-28 2008-05-22 Fujitsu Ten Ltd 情報提供システム、端末装置および中継装置
JP2012112853A (ja) * 2010-11-26 2012-06-14 Fujitsu Ten Ltd 情報処理装置、車載用ナビゲーション装置、及び、情報処理方法
JP2015169702A (ja) * 2014-03-05 2015-09-28 ソフトバンク株式会社 感情判断装置および感情判断方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008116477A (ja) * 2008-01-28 2008-05-22 Fujitsu Ten Ltd 情報提供システム、端末装置および中継装置
JP2012112853A (ja) * 2010-11-26 2012-06-14 Fujitsu Ten Ltd 情報処理装置、車載用ナビゲーション装置、及び、情報処理方法
JP2015169702A (ja) * 2014-03-05 2015-09-28 ソフトバンク株式会社 感情判断装置および感情判断方法

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020034463A (ja) * 2018-08-30 2020-03-05 Zホールディングス株式会社 評価装置、評価方法及び評価プログラム
JP2021522910A (ja) * 2018-09-21 2021-09-02 テンセント・テクノロジー・(シェンジェン)・カンパニー・リミテッド 仮想オブジェクトの情報表示方法並びにその、アプリケーション・プログラム、装置、端末及びサーバ
JP7145976B2 (ja) 2018-09-21 2022-10-03 テンセント・テクノロジー・(シェンジェン)・カンパニー・リミテッド 仮想オブジェクトの情報表示方法並びにその、アプリケーション・プログラム、装置、端末及びサーバ
JP7089084B1 (ja) 2021-03-18 2022-06-21 ヤフー株式会社 コンテンツ提供装置、コンテンツ提供方法、およびプログラム
JP2022144206A (ja) * 2021-03-18 2022-10-03 ヤフー株式会社 コンテンツ提供装置、コンテンツ提供方法、およびプログラム

Also Published As

Publication number Publication date
JP6804049B2 (ja) 2020-12-23
US20190213646A1 (en) 2019-07-11
JPWO2018061840A1 (ja) 2019-08-29

Similar Documents

Publication Publication Date Title
US11620333B2 (en) Apparatus, server, and method for providing conversation topic
KR101722687B1 (ko) 객체간 또는 객체와 유저간에 정보 제공 방법, 그 방법을 수행할 수 있는 유저 디바이스, 및 저장 매체
KR101577607B1 (ko) 상황 및 의도인지 기반의 언어 표현 장치 및 그 방법
US9703859B2 (en) Keyword search queries on online social networks
CN102782751B (zh) 社会网络中的数字媒体语音标签
CN109522419B (zh) 会话信息补全方法及装置
WO2019037195A1 (zh) 用户兴趣识别方法、装置及计算机可读存储介质
JP5894335B2 (ja) 入力方法においてシソーラスを推奨するためのシステム、装置、および方法。
CN107958042B (zh) 一种目标专题的推送方法及移动终端
US11216499B2 (en) Information retrieval apparatus, information retrieval system, and information retrieval method
CA2935335A1 (en) Client-side search templates for online social networks
JP4950508B2 (ja) 施設情報管理システム、施設情報管理装置、施設情報管理方法および施設情報管理プログラム
KR20150086441A (ko) 콘텐츠 및 상관 거리에 기반하는 사람 연결
WO2018061840A1 (ja) 情報表示プログラム、データ送信プログラム、データ送信装置、データ送信方法、情報提供装置及び情報提供方法
KR20190019465A (ko) 대응 메시지 추천 시스템
WO2016203805A1 (ja) 情報処理装置、情報処理システム、情報処理方法及びプログラム
JPWO2015102082A1 (ja) ユーザのデータ入力に応じて情報提供を行うための端末装置、プログラム、およびサーバ装置
US9910909B2 (en) Method and apparatus for extracting journey of life attributes of a user from user interactions
WO2018061839A1 (ja) 送信装置、送信方法及び送信プログラム
EP3671699A1 (en) Electronic apparatus and controlling method thereof
CN112017740A (zh) 一种基于知识图谱的疾病推理方法、装置、设备及储存介质
CN111553163A (zh) 文本相关度的确定方法、装置、存储介质及电子设备
CN112329462A (zh) 一种数据排序方法、装置、电子设备及存储介质
JP6855021B2 (ja) 広告システム及び広告方法
US20230134103A1 (en) Information processing apparatus and information processing method

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 17855796

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2018542406

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 17855796

Country of ref document: EP

Kind code of ref document: A1