WO2016104672A1 - 情報配信システム、放音装置、携帯端末装置、プログラム、および情報処理方法 - Google Patents

情報配信システム、放音装置、携帯端末装置、プログラム、および情報処理方法 Download PDF

Info

Publication number
WO2016104672A1
WO2016104672A1 PCT/JP2015/086168 JP2015086168W WO2016104672A1 WO 2016104672 A1 WO2016104672 A1 WO 2016104672A1 JP 2015086168 W JP2015086168 W JP 2015086168W WO 2016104672 A1 WO2016104672 A1 WO 2016104672A1
Authority
WO
WIPO (PCT)
Prior art keywords
identification information
information
sound
acoustic
content
Prior art date
Application number
PCT/JP2015/086168
Other languages
English (en)
French (fr)
Inventor
藤田博之
須山明彦
Original Assignee
ヤマハ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ヤマハ株式会社 filed Critical ヤマハ株式会社
Publication of WO2016104672A1 publication Critical patent/WO2016104672A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M11/00Telephonic communication systems specially adapted for combination with other electrical systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R3/00Circuits for transducers, loudspeakers or microphones

Definitions

  • Some embodiments of the present invention relate to an information distribution system that provides various types of information using sound, and a sound emitting device, a portable terminal device, and a program used in the information distribution system.
  • Patent Document 1 and Patent Document 2 As an information distribution system that provides information together with sound, systems that emit sound by superimposing identification information on the sound of commercial television broadcasts have been proposed (see, for example, Patent Document 1 and Patent Document 2).
  • a user demodulates identification information from voice collected using a smartphone, and acquires address information corresponding to the identification information from a server. And in the system of patent document 1 and patent document 2, it accesses the content server applicable to this address information, and displays the various information relevant to the said commercial on the screen of a smart phone.
  • the system described above can provide only the same information uniformly to the TV viewer at the same time.
  • different information cannot be provided to a plurality of viewers having different viewing positions with respect to a speaker.
  • One of the objects of some embodiments of the present invention is to distribute information that is different for each of a plurality of areas using sound, thereby improving the convenience of information distribution using sound. And providing a sound emitting device, a portable terminal device, and a program used in the information distribution system.
  • An information distribution system includes a sound emitting device, a priority order storage unit, and a mobile terminal device.
  • the sound emitting device includes a speaker that emits different acousticized identification information in a plurality of areas at least partially overlapping each other.
  • the priority storage unit stores priorities of a plurality of identification information.
  • the mobile terminal device includes a sound collection unit that collects the sound emitted by the sound emitting device, a demodulation unit that separates and demodulates the identification information from the collected sound, and identification information with a high priority among the demodulated identification information.
  • a selection unit for selection and a reproduction processing unit for reproducing the content corresponding to the selected identification information are provided.
  • a directional speaker may be used as the speaker.
  • the sound emitting device may include a directivity control unit that controls the directivity or volume of each acousticized identification information toward a plurality of areas (so that the corresponding identification information reaches each area).
  • the sound emitting device includes a modulation unit that sonicates the plurality of pieces of identification information so as to be included in different frequency bands, and the priority order storage unit has a priority order for each frequency band.
  • the set priority information may be stored.
  • an information communication network and a server that is connected to the information communication network and calculates content information based on the identification information may be further provided.
  • the reproduction processing unit may transmit the selected identification information to the server, acquire content information corresponding to the identification information, and reproduce the content based on the acquired content information.
  • the priority information storage unit may be included in the mobile terminal device.
  • the mobile terminal device has an area movement content information storage unit that stores area movement content information corresponding to its own area movement, and its own area based on a change in demodulated identification information.
  • An area movement reproduction processing unit that identifies movement and reproduces content based on area movement content information corresponding to the identified area movement.
  • the sound emitting device includes a directional speaker and a directional control unit.
  • the directional speaker has, for example, a plurality of speaker units, and the directivity of the audio signal is controlled by adjusting the supply timing of the audio signal to each speaker unit.
  • the directivity control unit controls the directivity or volume of the plurality of identification information to supply to the directional speaker toward a plurality of areas at least partially overlapping (so that the corresponding identification information reaches each area). .
  • a program causes a computer to collect sound that includes sound that includes a plurality of identification information that has been acousticized, and to separate and demodulate the plurality of identification information from the collected sound.
  • the demodulating means functions as a selecting means for selecting identification information having a high priority among the demodulated identification information, and a reproduction processing means for reproducing the content corresponding to the selected identification information.
  • the information distribution system can reproduce content according to the area where the user is currently located. Thereby, the information delivery system which concerns on some embodiment of this invention can improve the convenience of the information delivery using an acoustic.
  • the figure explaining the structure of the information delivery system which is embodiment of this invention The figure which shows the example of the priority order table of a smart phone The figure which shows the example of the superimposition system of acoustic ID The figure which shows the example of the contents table of the server The figure which shows the example of application to new product explanation of information distribution system Block diagram showing a configuration example of a monitor Block diagram showing a configuration example of a smartphone The flowchart which shows acquisition operation
  • FIG. 1 is a diagram illustrating the configuration of the information distribution system.
  • the monitor 1 including the sound emitting device of the present invention emits an acoustic ID that is the acousticized identification information (ID code), and the smartphone 2 that is the portable terminal device of the present invention is described above.
  • ID code acousticized identification information
  • the smartphone 2 that is the portable terminal device of the present invention is described above.
  • This is a system that acquires and reproduces content information corresponding to an ID code of this acoustic ID from a specific Internet site (URL) using the acoustic ID acquired (demodulated) from the sound.
  • different acoustic IDs are emitted to a plurality of areas A to C, each of which overlaps a part of the range, and the user 6 (smart phone 2) can obtain the areas A to C of the current position. Acquires the sound ID being emitted. If the current position belongs to a plurality of areas, a plurality of acoustic IDs corresponding to those areas are acquired.
  • this information distribution system 100 provides more useful information to a user when playing a video and audio related to the explanation (advertisement) of a new product toward a visitor (user 6) on a large monitor 1 at an exhibition or the like. 6 or used to guide the user 6 who is viewing from a distance to the front of the monitor 1.
  • the information distribution system 100 includes a monitor 1 and a server 4.
  • the monitor 1 displays the moving image received from the content reproduction device 110 such as a moving image and emits sound.
  • the monitor 1 has a display device 10 and a sound emitting device 11.
  • the display device 10 is, for example, a liquid crystal display device, and displays a moving image (video signal) received from the playback device 110 described above.
  • the sound emitting device 11 emits sound corresponding to the moving image received from the above-described reproducing device 110 from the directional speaker 13 (see FIG. 6).
  • the sound emitting device 11 emits an acoustic ID obtained by modulating (sounding) each of the plurality of ID codes into an acoustic signal together with the sound of the moving image.
  • three acoustic IDs 5 (5A to 5C) (see FIG. 3) are emitted.
  • the sound emitting device 11 performs sound volume control and directivity control of the sound ID 5 so that each of the sound IDs 5A to 5C reaches the corresponding areas A to C. Details will be described later.
  • the sound ID 5 emitted can be acquired using the smartphone 2 possessed by the user 6 in each of the areas A to C.
  • Areas A to C are configured to partially overlap as shown in FIG.
  • the sound ID 5A is emitted toward the area A.
  • the sound ID 5B is emitted toward the area B.
  • the sound ID 5C is emitted toward the area C.
  • area A covers the front of the monitor 1 at a short distance.
  • Area B covers the front of the monitor 1 from a short distance to a medium distance.
  • Area C covers the front and slightly side from the short distance to the middle distance of the monitor 1. Therefore, area A overlaps with and includes areas B and C.
  • Area B overlaps with and is included in area C. Therefore, in area A, acoustic ID 5A is acquired, but acoustic IDs 5B and 5C corresponding to areas B and C are also acquired.
  • acoustic ID 5C corresponding to area C is acquired in addition to acoustic ID 5B.
  • acoustic ID 5C is acquired in the area not overlapped with the areas A and B of the area C.
  • FIG. 1 shows an example in which one area is completely included in another area, areas may be set so as to partially overlap each other.
  • the number of areas and acoustic IDs is not limited to three.
  • Priority is set for the three acoustic IDs.
  • the smartphone 2 acquires a plurality of acoustic IDs 5, one acoustic ID 5 having a higher priority is selected.
  • the smartphone 2 stores a priority table 20 in which priority is associated with the ID codes (0001, 0002, and 0003, respectively) of the acoustic IDs 5A to 5C. Therefore, for example, in the area A, when the acoustic IDs 5A to 5C are acquired by the smartphone 2, the acoustic ID 5A having a higher priority is selected.
  • the sound emitting device 11 controls the volume and directivity of the acoustic IDs 5A to 5C as described above.
  • the acoustic ID 5C corresponding to the area C far from the directional speaker 13 is modulated so that the volume is larger than the acoustic ID 5A corresponding to the area A near the distance from the directional speaker 13.
  • the directivity control is realized by controlling the timing of sound emission (output) from each speaker constituting the directional speaker 13. For example, when the sound emitting device 11 emits the sound ID 5C, the sound emission device 11 delays the timing of sound emission from the speaker at the end of the directional speaker 13 from the timing of sound emission from the central speaker.
  • the sound is emitted so as to spread along the shape of.
  • the directivity control of the directional speaker 13 may be performed by using a technique described in Japanese Patent Application Laid-Open No. 2006-25153 filed by the present applicant.
  • the sound signal from the playback device 110 is subjected to directivity control separately from the sound ID 5 and emitted from the directional speaker 13.
  • the frequency is shifted to the high frequency band of the sound reproduced by the directional speaker 13, as shown in FIG.
  • the upper limit frequency of audio used for moving image reproduction is about 16 kHz.
  • the frequency is shifted so that the acoustic IDs 5A, B, and C are included in each of the three bands obtained by dividing the 17 to 20 kHz band into three.
  • the acoustic ID application program 200 is a program that separates and demodulates the acoustic ID 5 from the collected sound, transmits the acoustic ID 5 (ID code) to the server 4 and receives the corresponding content information.
  • the acoustic ID application program 200 reproduces the content information received from the server 4.
  • the content information is, for example, text data.
  • the smartphone 2 receives the text data, the smartphone 2 reproduces (displays) the text data on the display screen.
  • the content information is not limited to text data, and may be a URL or image information of a content server different from the server 4.
  • the server 4 stores the content table 40 in which the ID codes (0001, 0002, 0003, respectively) of the acoustic IDs 5A to 5C as shown in FIG. 4 are associated with the content information, and the received ID code (sound ID 5) is stored in the received ID code (acoustic ID 5). Corresponding content information is read from the content table 40 and returned to the smartphone 2.
  • content information of text data corresponding to the ID codes of the acoustic IDs 5A to 5C is registered.
  • a message for guiding an exhibition visitor (user 6) to the front of the monitor 1 is also registered as content information.
  • a moving image for explaining a new product when a moving image for explaining a new product is reproduced, a moving image as shown in FIG. 5 is displayed on the display device 10 of the monitor 1, and the sound for explaining the new product on which the acoustic ID 5 is superimposed from the directional speaker 13. Sound is emitted.
  • a wording 60 that prompts activation of the acoustic ID application program (sound ID application) 200 as shown in FIG. 5 is also displayed.
  • the explanation sound 61 on which the acoustic ID 5 is superimposed is emitted from the directional speaker 13.
  • the user 6 operates the smartphone 2 as necessary to start the acoustic ID application program 200. Note that when the acoustic ID application program 200 is already activated or when the acoustic ID application program 200 is automatically activated, the operation of the user 6 is not necessary.
  • the smartphone 2 in which the acoustic ID application program 200 is activated (the acoustic ID processing unit 22 is configured) picks up the emitted acoustic ID 5 and demodulates it into an ID code to the server 4 described above. Start accessing.
  • the smartphone 2 collects the sound ID 5C. Then, the smartphone 2 displays the content information received from the server 4 on the screen, “If you come close to the front of the screen, we will tell you the best deals.” When the user 6 moves to the area A according to the displayed message and picks up the sound ID 5 again, the smartphone 2 acquires the sound IDs 5A to 5C. Then, the smartphone 2 receives from the server 4 the content information of the high-priority acoustic ID 5A “There is an audible notice. Refer to the URL for details (http://www.XXXX.co.jp/)”. Display on the screen.
  • the web browser 26 When the user 6 performs a selection operation on the URL included in the displayed content information, the web browser 26 (see FIG. 7) is activated, and the content of the selected URL is displayed. For example, an image of a purchase coupon for a new product in the description displayed on the monitor 1 is displayed.
  • the smartphone 2 may automatically access the URL acquired from the server 4.
  • a plurality of acousticized identification information is emitted so that different identification information (acoustic ID 5) reaches each of the plurality of areas A to C, and the mobile terminal device (smart phone 2) has a high priority.
  • the information distribution system 100 can improve the convenience of information distribution using sound.
  • the information distribution system 100 can provide additional information to the user 6 by guiding the user 6 to the predetermined area (area 1) as described above.
  • the information distribution system 100 can provide detailed product information, cost estimate information, and the like by the user 6 from a person in charge of negotiations for a new product waiting in the vicinity of the monitor 1.
  • FIG. 6 is a block diagram illustrating a configuration example of the monitor 1.
  • the monitor 1 has a display device 10 and a sound emitting device 11.
  • the display device 10 is connected to the content reproduction device 110 and receives and displays a video signal of a moving image reproduced by the reproduction device 110.
  • the sound emitting device 11 is connected to the content reproducing device 110, receives an audio signal of sound reproduced in synchronization with the moving image reproduced by the reproducing device 110, and emits sound from the directional speaker 13.
  • the sound emitting device 11 emits sound by superimposing the sound ID 5 on the sound.
  • the sound emitting device 11 has an audio player 12 and a directional speaker 13.
  • the audio player 12 includes a control unit 15, encoders 16A to 16C, a directivity control unit 17, a network communication unit 18, and a storage unit 19.
  • the control unit 15 includes a CPU, a memory, and the like, and controls the operation of the entire apparatus. For example, the control unit 15 reads out the ID codes of the acoustic IDs 5A to 5C stored in the storage unit 19 and transmits them to the corresponding encoders 16A to 16C. In addition, the control unit 15 receives an instruction from the server 4 via the network communication unit 18 and updates the ID code of the acoustic ID 5 stored in the storage unit 19.
  • the network communication unit 18 includes a communication circuit and the like, and controls communication (packet communication) with the server 4 via the information communication network 3.
  • the storage unit 19 is, for example, a hard disk device, and stores an ID code and the like.
  • Encoders (modulation units) 16A to 16C are configured by a DSP or the like, and the ID code received from the control unit 15 is sonicated (spread modulated) to the acoustic ID 5 and transmitted to the directivity control unit 17.
  • Each of the encoders 16A to 16C receives one ID code and modulates it to acoustic IDs 5A to 5C included in the frequency band shown in FIG. Specifically, the encoders (modulators) 16A to 16C multiply the information signals of the ID codes of the acoustic IDs 5A to 5C by PN codes (spread codes) 8A to 8C, and then use the carriers 9A to 9C. To modulate.
  • the encoders (modulators) 16A to 16C modulate the sound IDs 5A to 5C so that the sound volumes have predetermined volumes that reach the areas A to C.
  • the acoustic ID 5A is modulated with a volume of 1 / 2K (dB)
  • the acoustic ID 5B and the acoustic ID 5C are modulated with a volume of K (dB) (K is a numerical value).
  • K is a numerical value.
  • the directivity control unit 17 includes a DSP and controls the directivity of the acoustic signal. Specifically, the directivity control unit 17 controls the timing of outputting the acoustic signal to each speaker constituting the directional speaker 13 so as to output the acoustic signal toward a predetermined focal point. In this embodiment, the directivity is controlled for each of the acoustic signals from the playback device 110, the acoustic ID 5A, the acoustic ID 5B, and the acoustic ID 5C. The acoustic signal from the reproduction device 110 is controlled to diffuse from the directional speaker 13, for example.
  • the sound signals of the sound IDs 5A to 5C are controlled so as to be emitted in the direction along the shapes of the areas 5A to 5C as described above. More specifically, the acoustic signals of the acoustic ID 5A and the acoustic ID 5B are controlled so as to travel straight from the directional speaker 13, and the acoustic signal of the acoustic ID 5C is controlled to diffuse from the directional speaker 13.
  • the acoustic signal output from the directivity control unit 17 is input to each speaker constituting the directional speaker 13 via a D / A converter and an amplifier (not shown).
  • the directional speaker 13 is composed of, for example, a plurality of speakers arranged in a row.
  • the sound emission of the sound ID 5 is always performed during the reproduction of the moving image by the reproduction device 110, but the sound emission period may be arbitrarily set.
  • FIG. 7 is a block diagram illustrating a configuration example of the smartphone 2.
  • FIG. 7 shows only functions related to the present invention.
  • the smartphone 2 includes a microphone 21, an acoustic ID processing unit 22, a network communication unit 25, a web browser 26, an operation unit 27, and a storage unit 28.
  • the acoustic ID processing unit 22 is realized by cooperation of the acoustic ID application program 200 and a control unit (computer), and includes an ID demodulation unit 23, a selection unit 201, and a reproduction processing unit 24.
  • the microphone (sound collecting unit) 21 collects sound emitted from the speaker of the monitor 1.
  • the ID demodulator 23 is a processing unit that demodulates the ID code by passing the audio signal obtained by collecting the sound through a matched filter that uses the spreading code used for spreading modulation as a coefficient. This demodulation process is also described in detail in the pamphlet of International Publication No. 2010/016589.
  • the reproduction processing unit 24 communicates with the server 4 via the network communication unit 25 and transmits the ID code (acoustic ID 5) demodulated by the ID demodulation unit 23 to acquire content information.
  • the reproduction processing unit 24 reproduces content based on the acquired content information.
  • the network communication unit 25 includes a communication circuit and the like, and controls communication with the server 4 and the like via the information communication network 3.
  • the selection unit 201 selects one ID code based on the priority table 20 when there are a plurality of demodulated ID codes.
  • the reproduction processing unit 24 transmits the ID code selected by the selection unit 201 to the server 4.
  • the web browser 26 displays a web page by accessing the URL included in the content information acquired by the reproduction processing unit 24 according to the operation of the user 6.
  • the operation unit 27 is a touch panel, for example, and detects an operation of the user 6 such as permission of communication with the information communication network 3.
  • the storage unit 28 is, for example, a hard disk device, and stores the acoustic ID application program 200, the priority order table 20, and the like.
  • FIG. 8 is a flowchart showing an operation of acquiring the acoustic ID 5 of the smartphone 2 (acoustic ID processing unit 22).
  • the acoustic ID processing unit 22 stands by in step S1 while the acoustic ID is not detected (NO in step S1).
  • the acoustic ID processing unit 22 detects the acoustic ID (YES in step S1), it demodulates this into an ID code (step S2), and determines whether a plurality of ID codes are demodulated (step S3).
  • the acoustic processing unit 22 reads the priority table 20, selects an ID code with a high priority (step S4), and selects the selected ID code. It transmits to the server 4 (step S5). If a plurality of ID codes are not demodulated (NO in step S3), the acoustic processing unit 22 transmits the demodulated ID codes to the server 4 (step S5).
  • the server 4 reads out the content information corresponding to the received ID code and returns it to the smartphone 2.
  • the smartphone 2 receives the content information in step S6, the acoustic ID processing unit 22 reproduces (displays) the content information (step S7).
  • the acoustic ID processing unit 22 starts a web browser program (step S9), and uses the URL described above. It passes to the web browser 26 (step S10).
  • the acoustic ID processing unit 22 accesses the content server specified by the URL and displays a web page (step S11). Thereby, the user 6 can display the coupon for purchase of a new product on a screen as mentioned above.
  • the priority can be specified by various methods.
  • the priority order may be set to a frequency band.
  • the acoustic ID 5 included in the frequency band having a high priority can be set to the acoustic ID 5 having a high priority.
  • the storage unit 28 stores a table in which priorities are associated with frequency bands.
  • the sound emitting device 11 may modulate the priority information and emit the sound together with the sound ID 5.
  • the smartphone 2 does not have to determine the priority order.
  • the server 4 may determine the priority order.
  • the acoustic ID processing unit 22 transmits all of the acquired ID codes of the plurality of acoustic IDs 5 to the server 4. Then, the server 4 selects an ID code having a higher priority from the received ID codes, and returns content information corresponding to the selected ID code.
  • the above shows an example in which content information corresponding to a high priority acoustic ID 5 (ID code) is reproduced when a plurality of acoustic IDs 5 are acquired by the smartphone 2.
  • ID code a high priority acoustic ID 5
  • the smartphone 2 reads the corresponding area movement content information from the area movement content table 45 shown in FIG. 9 according to the change from the type of the acoustic ID 5 acquired last time to the type of the acoustic ID 5 acquired this time, and displays it on the display screen. Display (play).
  • the reproduction of the content corresponding to the movement is executed by the acoustic ID processing unit 22 (reproduction processing unit 24) realized by starting the acoustic ID application program 200, for example.
  • the area movement content table 45 is stored in the storage unit 28 of the smartphone 2.
  • area moving content information (text data) is registered in association with the previous acquisition ID and the current acquisition ID.
  • the previous acquisition ID indicates the type of the acoustic ID 5 acquired last time (a certain time before).
  • the current acquisition ID indicates the type of the sound ID 5 acquired in the current sound ID acquisition process.
  • the movement determination of the user 6 may be a method of determining area movement based on a change in the type of the acquired acoustic ID.
  • the number of acquired acoustic IDs 5 and the acquired acoustic IDs may be determined.
  • a method of determining area movement based on a change in frequency band may be used.
  • the smartphone 2 when the smartphone 2 has acquired the previous acoustic ID 5A (0001) (three acoustic IDs 5 have been acquired), and has acquired the acoustic ID 5B (0002) without acquiring the current acoustic ID 5A (0001) (acoustic ID 5 2), the smartphone 2 refers to the area movement content table 45, “In the next session (30 minutes later), we will tell you another profitable information, so please visit again.
  • the content information “Waiting for you” is displayed on the display screen of the smartphone 2.
  • the acoustic ID 5A (0001) is not acquired and the acoustic ID 5B (0002) is continuously acquired, so that it is determined that the user has moved from the area A to the area B, and the monitor 1 is being viewed. It is assumed that the user 6 is going to move to another place. Therefore, in this example, the probability that the user 6 will visit again is improved by additionally providing useful information as described above.
  • the information distribution system 100 can detect the movement of the user 6 and additionally provide the user 6 with information according to the movement state, thereby further improving the convenience of information distribution using sound. Can be made.
  • FIG. 10 is a flowchart showing the acquisition operation and the movement detection operation of the acoustic ID 5 of the smartphone 2 (acoustic ID processing unit 22). Note that the processing of the acquisition operation from step S1 to S11 is almost the same as the processing shown in FIG. 8, and only the movement detection operation after step S12 will be mainly described.
  • the acoustic ID processing unit 22 determines whether or not there is a predetermined movement for displaying the content information when there is no URL selection operation by the user 6 in step S8 (step S12). As described above, the sound ID processing unit 22 compares the sound ID 5 demodulated (acquired) and the sound ID 5 acquired last time in step S2 with the previous acquisition ID and current acquisition ID in the area moving content table 45 and matches the combinations. Determine if there is. When there is a matching combination (YES in step S12), the acoustic ID processing unit 22 acquires the corresponding area movement content information from the area movement content table 45 (step S13) and reproduces (displays) it on the screen of the smartphone 2. (Step S14).
  • the acoustic ID processing unit 22 stores (updates) the acoustic ID 5 acquired in step S2 in the storage unit 28 as the acoustic ID 5 acquired previously (step S15). Also, if there is no matching combination, that is, if the area is not moved or moved in a direction other than the planned direction (NO in step S12), the acoustic ID processing unit 22 does not reproduce the message and does not reproduce the message in step S15. Migrate to
  • the sound ID 5 is emitted using the directional speaker 13.
  • a general speaker unit is provided for each area, and the sound ID and the sound signal of the playback device 110 are emitted, respectively. It is also possible.
  • one speaker unit 151 is used and the sound IDs 5D to 5F are used. The sound may be emitted at a volume corresponding to the areas D to F.
  • the above description of the embodiment is an example in all respects and should be considered as not restrictive.
  • the scope of the present invention is shown not by the above embodiments but by the claims.
  • the scope of the present invention is intended to include the meaning equivalent to the scope of the claims and all modifications within the scope of the claims.
  • the sound emitting device may be a radio receiver.
  • the sound emitting device may use a speaker such as digital signage installed in a facility such as a retail store or a shopping mall.
  • the facilities are not limited to commercial facilities such as stores, but can be applied to various facilities such as public facilities, private facilities, apartment houses, office facilities and the like.
  • facilities such as public facilities, private facilities, apartment houses, office facilities and the like.
  • BGM calling voice or music
  • the acoustic ID processing unit 22 of the smartphone 2 in the above-described embodiment is a functional unit realized by the cooperation of the control unit and the acoustic ID application program 200.
  • the acoustic ID application program 200 is a computer-readable recording medium. Can be provided in a recorded state.
  • a computer-readable storage medium a magnetic recording medium (magnetic tape, magnetic disk (HDD, FD), etc.), an optical recording medium (optical disk (CD, DVD), etc.), a magneto-optical recording medium, a semiconductor memory, etc. are applied. It is possible. Further, the above program can be downloaded via an information communication network such as the Internet.
  • the smart phone 2 is illustrated as a portable terminal device, it is not limited to the smart phone 2.
  • the content reproduction of the smartphone 2 in the above-described embodiment is performed by receiving content information corresponding to the ID code from the server 4, but is not particularly limited thereto.
  • the smartphone 2 may store the content table 40 in the storage unit 28. In this case, access from the smartphone 2 to the server 4 becomes unnecessary.

Landscapes

  • Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Telephonic Communication Services (AREA)
  • Circuit For Audible Band Transducer (AREA)
  • Telephone Function (AREA)

Abstract

 情報配信システムは、少なくとも一部が重複する複数のエリアに、それぞれ異なる音響化された識別情報を放音するスピーカを備えた放音装置と、複数の識別情報の優先順位を記憶する優先順位記憶部と、放音装置が放音した音声を収音する収音部、収音した音声から識別情報を分離および復調する復調部、復調された識別情報のうち優先順位の高い識別情報を選択する選択部、および、選択された識別情報に対応するコンテンツを再生する再生処理部を備えた携帯端末装置とを有する。

Description

情報配信システム、放音装置、携帯端末装置、プログラム、および情報処理方法
 この発明のいくつかの実施形態は、音響を用いて各種の情報を提供する情報配信システム、および、この情報配信システムに用いられる放音装置、携帯端末装置、プログラムに関する。
 音声とともに情報を提供する情報配信システムとしては、テレビ放送のコマーシャルの音声に識別情報を重畳して放音するシステムが提案されている(たとえば、特許文献1および特許文献2参照)。特許文献1および特許文献2に記載のシステムでは、ユーザが、スマートフォンを使用して収音した音声から識別情報を復調し、この識別情報に対応するアドレス情報をサーバから取得する。そして、特許文献1および特許文献2のシステムでは、このアドレス情報に該当するコンテンツサーバにアクセスして上記コマーシャルに関連する各種情報をスマートフォンの画面に表示させる。
特開2012-155706号公報 米国特許出願公開第2013/279300号明細書
 しかしながら、上述したシステムでは、テレビの視聴者に対して同じ時刻に一律に同じ情報しか提供できない。たとえば、上述したシステムでは、スピーカに対する視聴位置が異なる複数の視聴者に対して異なる情報を提供することができない。
 この発明のいくつかの実施形態の目的の1つは、音響を用いて複数のエリアごとに異なる情報を配信することで、音響を用いた情報配信の利便性を向上させることのできる情報配信システム、および、この情報配信システムに用いられる放音装置、携帯端末装置、プログラムを提供することにある。
 この発明のいくつかの実施形態に係る情報配信システムは、放音装置、優先順位記憶部、および、携帯端末装置を有する。放音装置は、少なくとも一部が重複する複数のエリアに、それぞれ異なる音響化された識別情報を放音するスピーカを備える。優先順位記憶部は、複数の識別情報の優先順位を記憶する。携帯端末装置は、放音装置が放音した音声を収音する収音部、収音した音声から識別情報を分離および復調する復調部、復調された識別情報のうち優先順位の高い識別情報を選択する選択部、および、選択された識別情報に対応するコンテンツを再生する再生処理部を備える。
 上記実施形態に係る情報配信システムにおいて、スピーカとして指向性スピーカを用いてもよい。放音装置は、複数のエリアに向けて(それぞれ対応する識別情報が到達するように)、各音響化された識別情報の指向性または音量を制御する指向性制御部を備えてもよい。
 上記実施形態に係る情報配信システムにおいて、放音装置が、複数の識別情報をそれぞれ異なる周波数帯域に含まれるように音響化する変調部を備え、優先順位記憶部が、周波数帯域ごとに優先順が設定された優先順位情報を記憶していてもよい。
 上記実施形態に係る情報配信システムにおいて、情報通信ネットワークと、情報通信ネットワークに接続され、識別情報に基づくコンテンツ情報を割り出すサーバと、をさらに設けてもよい。この場合、再生処理部は、選択された識別情報を前記サーバに送信して該識別情報に対応するコンテンツ情報を取得し、取得したコンテンツ情報に基づいてコンテンツの再生を行えばよい。
 上記実施形態に係る情報配信システムにおいて、優先情報記憶部が携帯端末装置に含まれていてもよい。
 上記実施形態に係る情報配信システムにおいて、携帯端末装置は、自身のエリア移動に応じたエリア移動コンテンツ情報を記憶するエリア移動コンテンツ情報記憶部と、復調された識別情報の変化に基づいて自身のエリア移動を特定し、特定したエリア移動に対応するエリア移動コンテンツ情報に基づいてコンテンツを再生するエリア移動再生処理部と、を備えてもよい。
 この発明のいくつかの実施形態に係る放音装置は、指向性スピーカと、指向性制御部とを備えている。指向性スピーカは、例えば、複数のスピーカユニットを有し、各スピーカユニットに対する音声信号の供給タイミングを調整することで該音声信号の指向性が制御される。指向性制御部は、少なくとも一部が重複する複数のエリアに向けて(それぞれ対応する識別情報が到達するように)、複数の識別情報の指向性または音量を制御して指向性スピーカに供給する。
 この発明のいくつかの実施形態に係るプログラムは、コンピュータを、音響化された複数の識別情報を含む音声を収音する収音手段、収音した音声から複数の識別情報をそれぞれ分離および復調する復調手段、復調された複数の識別情報のうち優先順位の高い識別情報を選択する選択手段、および、選択された識別情報に対応するコンテンツを再生する再生処理手段として機能させることを特徴とする。
 この発明のいくつかの実施形態に係る情報配信システムは、ユーザが現在いるエリアに応じたコンテンツを再生させることが可能となる。これにより、この発明のいくつかの実施形態に係る情報配信システムは、音響を用いた情報配信の利便性を向上させることができる。
この発明の実施形態である情報配信システムの構成を説明する図 スマートフォンの優先順位テーブルの例を示す図 音響IDの重畳方式の例を示す図 サーバのコンテンツテーブルの例を示す図 情報配信システムの新製品説明への適用例を示す図 モニタの構成例を示すブロック図 スマートフォンの構成例を示すブロック図 スマートフォン(音響ID処理部)の音響IDの取得動作を示すフローチャート スマートフォンのエリア移動コンテンツテーブルの例を示す図 スマートフォン(音響ID処理部)の音響IDの取得動作および移動検知動作を示すフローチャート この発明の別の実施形態である情報配信システムの構成を説明する図
 図面を参照してこの発明の実施形態である情報配信システムについて説明する。図1は、情報配信システムの構成を説明する図である。
 この情報配信システム100は、本発明の放音装置を含むモニタ1が、音響化された識別情報(IDコード)である音響IDを放音し、本発明の携帯端末装置であるスマートフォン2が上記音声から取得(復調)した音響IDを用いて特定のインターネットサイト(URL)からこの音響IDのIDコードに対応するコンテンツ情報を獲得して再生するシステムである。また、この情報配信システム100では、それぞれ範囲の一部が重複する複数のエリアA~Cに対してそれぞれ異なる音響IDが放音され、ユーザ6(スマートフォン2)は、現在位置のエリアA~Cに放音されている音響IDを取得する。現在位置が複数のエリアに属している場合は、それらのエリアに対応する複数の音響IDを取得する。
 この情報配信システム100は、たとえば、展示会などで大型のモニタ1に新商品の説明(広告)に関する動画及び音声を来場者(ユーザ6)に向けて再生する場合に、より有用な情報をユーザ6に配信したり、遠くから視聴しているユーザ6をモニタ1正面に誘導したりするのに使用される。
 情報配信システム100は、モニタ1およびサーバ4を有している。モニタ1は、動画などのコンテンツの再生装置110から受信した動画を表示するとともに音声を放音する。モニタ1は、表示装置10および放音装置11を有している。表示装置10は、たとえば液晶表示装置であり、上述した再生装置110から受信した動画(映像信号)を表示する。放音装置11は、上述した再生装置110から受信した動画に対応する音声を指向性スピーカ13(図6参照)から放音する。
 また、放音装置11は、複数のIDコードのそれぞれを音響信号に変調した(音響化した)音響IDを、動画の音声と一緒に放音する。この実施形態では、3つの音響ID5(5A~5C)(図3参照)が放音される。また、放音装置11は、音響ID5A~5Cのそれぞれが対応するエリアA~Cに到達するように音響ID5の音量制御および指向性制御を行う。詳細は後述する。放音された音響ID5は、各エリアA~Cでユーザ6が所持するスマートフォン2を用いて取得することができる。
 エリアA~Cは、図1に示すように一部が重複するように構成されている。音響ID5Aは、エリアAに向けて放音される。音響ID5Bは、エリアBに向けて放音される。音響ID5Cは、エリアCに向けて放音される。ここで、エリアAは、モニタ1の近距離の正面をカバーする。エリアBは、モニタ1の近距離から中距離の正面をカバーする。エリアCは、モニタ1の近距離から中距離の正面およびやや側方をカバーする。したがって、エリアAは、エリアB,Cと重複し包含されている。また、エリアBは、エリアCと重複し包含されている。したがって、エリアAでは、音響ID5Aが取得されるが、さらにエリアB,Cに対応する音響ID5B,5Cも取得される。エリアBでは、音響ID5Bに加え、エリアCに対応する音響ID5Cが取得される。また、エリアCのエリアA,Bに重複されていない領域では、音響ID5Cのみ取得される。なお、図1では、一つのエリアがもう一つのエリアに完全に包含される例を示したが、相互に一部のみ重なりあうようエリアが設定されてもよい。また、エリアおよび音響IDの数は3に限定されない。
 3つの音響IDには優先順位が設定されている。スマートフォン2が複数の音響ID5を取得した場合、優先順位の高い1の音響ID5が選択される。スマートフォン2には、図2に示すように、音響ID5A~5CのIDコード(それぞれ0001,0002,0003)に優先順位を対応付けた優先順位テーブル20が記憶されている。したがって、たとえば、エリアAにおいて、スマートフォン2によって音響ID5A~5Cが取得された場合は、優先順位の高い音響ID5Aが選択される。
 各音響ID5A~5Cを、各エリアA~Cに到達させるには、放音装置11は、上述したように音響ID5A~5Cの音量および指向性を制御する。たとえば、指向性スピーカ13から距離の遠いエリアCに対応する音響ID5Cは、指向性スピーカ13からの距離の近いエリアAに対応する音響ID5Aよりも音量が大きくなるように変調される。指向性の制御は、指向性スピーカ13を構成する各スピーカから放音(出力)するタイミングを制御することで実現される。たとえば、放音装置11は、音響ID5Cを放音する場合、指向性スピーカ13を構成する端部のスピーカから放音するタイミングを、中央のスピーカから放音するタイミングよりも遅らせることで、エリアCの形状に沿って拡散するように放音される。なお、指向性スピーカ13の指向性制御は、例えば本出願人の特開2006-25153号公報に記載されている手法を用いればよい。また、再生装置110からの音響信号は、音響ID5とは別に指向性制御されて指向性スピーカ13から放音される。
 各音響ID5A~5Cは、IDコード(情報信号)から変調される際、図3に示すように、指向性スピーカ13で再生される帯域の音声のうち高音域の周波数帯域に周波数シフトされる。図3に示すように動画の再生などに使用される音声の上限周波数は16kHz程度である。この実施形態では、17~20kHzの帯域を3つに分けた3バンドのそれぞれに音響ID5A,B,Cが含まれるように周波数シフトされる。
 スマートフォン2が、上のような音響ID5を取得するためには、インストールされている音響IDアプリケーションプログラム200を起動する必要がある。音響IDアプリケーションプログラム200は、収音した音声から音響ID5を分離・復調し、この音響ID5(IDコード)をサーバ4に送信して対応するコンテンツ情報を受信するプログラムである。また、音響IDアプリケーションプログラム200は、サーバ4から受信したコンテンツ情報を再生する。コンテンツ情報は、たとえば、テキストデータである。スマートフォン2は、テキストデータを受信すると、表示画面にテキストデータを再生する(表示する)。なお、コンテンツ情報はテキストデータに限定されるものではなく、サーバ4とは別のコンテンツサーバのURLや画像情報などであってもよい。
 サーバ4は、図4に示すような音響ID5A~5CのIDコード(それぞれ0001,0002,0003)とコンテンツ情報とが対応付けられたコンテンツテーブル40を記憶し、受信したIDコード(音響ID5)に対応するコンテンツ情報をコンテンツテーブル40から読み出してスマートフォン2に返信する。この実施形態のコンテンツテーブル40では、各音響ID5A~5CのIDコードに対応するテキストデータのコンテンツ情報が登録されている。この実施形態のコンテンツテーブル40には、展示会の来場者(ユーザ6)をモニタ1の正面にまで誘導するためのメッセージもコンテンツ情報として登録されている。
 たとえば、新製品説明の動画が再生されると、図5に示すような動画がモニタ1の表示装置10に表示されるとともに、指向性スピーカ13から音響ID5が重畳された新製品説明の音声が放音される。動画中には、図5に示すような音響IDアプリケーションプログラム(音響IDアプリ)200の起動を促す文言60も表示される。そして、この文言60の表示に並行して、指向性スピーカ13から音響ID5が重畳された説明音声61が放音される。
 ユーザ6は、必要に応じてスマートフォン2を操作して音響IDアプリケーションプログラム200を起動する。なお、既に音響IDアプリケーションプログラム200が起動している場合、または音響IDアプリケーションプログラム200が自動的に起動する場合にはユーザ6の操作は不要である。音響IDアプリケーションプログラム200が起動された(音響ID処理部22が構成された)スマートフォン2は、放音された音響ID5を収音し、これをIDコードに復調して上に説明したサーバ4へのアクセスを開始する。
 ユーザ6が、図1に示すようなエリアA,Bに重複していないエリアCの領域にいる場合、スマートフォン2は音響ID5Cを収音する。そして、スマートフォン2は、サーバ4から受信したコンテンツ情報「画面正面でお近くまで来て頂くと、お得な情報をお教えします。」を画面に表示する。そして、ユーザ6が、表示されたメッセージにしたがってエリアAに移動し、音響ID5を再度収音した場合、スマートフォン2は音響ID5A~5Cを取得する。そして、スマートフォン2は、優先度の高い音響ID5Aのコンテンツ情報「耳寄りなお知らせがあります。詳細はURLを参照ください(http://www.XXXX.co.jp/)。」をサーバ4から受信して画面に表示する。
 ユーザ6が、表示されているコンテンツ情報に含まれるURLを選択操作することで、ウェブブラウザ26(図7参照)が起動して、選択されたURLのコンテンツが表示される。たとえば、モニタ1に表示している説明中の新製品の購入クーポンの画像が表示される。また、スマートフォン2が、サーバ4から取得したURLに自動的にアクセスしてもよい。
 このように、複数のエリアA~Cにそれぞれ異なる識別情報(音響ID5)が到達するように、音響化された複数の識別情報が放音され、携帯端末装置(スマートフォン2)において優先順位の高い識別情報に対応するコンテンツが再生されることによって、ユーザ6が現在いるエリアA~Cに応じたコンテンツを再生させることが可能となる。これによって、情報配信システム100は、音響を用いた情報配信の利便性を向上させることができる。
 また、情報配信システム100は、上述したようにユーザ6を所定エリア(エリア1)に誘導することで、さらに追加的な情報をユーザ6に提供することができる。たとえば、情報配信システム100は、モニタ1の付近で待機している新商品の商談担当者から、ユーザ6により詳細な商品情報、費用見積情報などを提供することができる。
 図6は、モニタ1の構成例を示すブロック図である。モニタ1は、表示装置10および放音装置11を有している。表示装置10は、コンテンツの再生装置110に接続され、再生装置110によって再生された動画の映像信号を受信・表示する。放音装置11は、コンテンツの再生装置110に接続され、再生装置110によって再生された動画に同期して再生される音声のオーディオ信号を受信し、指向性スピーカ13から放音する。また、放音装置11は、上記音声に音響ID5を重畳して放音する。
 放音装置11は、音声再生機12及び指向性スピーカ13を有している。音声再生機12は、制御部15、エンコーダ16A~16C、指向性制御部17、ネットワーク通信部18、及び記憶部19を有している。制御部15は、CPU、およびメモリ等から構成され、装置全体の動作を制御する。たとえば、制御部15は、記憶部19に記憶されている音響ID5A~5CのIDコードを読み出して、対応するエンコーダ16A~16Cに送信する。また、制御部15は、ネットワーク通信部18を介してサーバ4からの指示を受信して、記憶部19に記憶されている音響ID5のIDコードを更新する。ネットワーク通信部18は、通信回路等から構成され、情報通信ネットワーク3を介してサーバ4との通信(パケット通信)を制御する。記憶部19は、たとえばハードディスク装置であり、IDコードなどを記憶する。
 エンコーダ(変調部)16A~16Cは、DSP等から構成され、制御部15から受信したIDコードを音響ID5に音響化し(拡散変調し)、指向性制御部17に送信する。エンコーダ16A~16Cは、それぞれ1のIDコードを受信し、図5に示す周波数帯域に含まれる音響ID5A~5Cに変調する。具体的には、エンコーダ(変調部)16A~16Cは、音響ID5A~5Cの各IDコードの情報信号に、PNコード(拡散符号)8A~8Cを乗積し、その後にキャリア9A~9Cを用いて変調する。その際、エンコーダ(変調部)16A~16Cは、各音響ID5A~5CがエリアA~Cに到達する所定の音量となるように変調する。例えば、音響ID5Aは、1/2K(dB)の音量で変調され、音響ID5B及び音響ID5Cは、K(dB)(Kは数値)の音量で変調される。なお、拡散変調の処理については、国際公開第2010/016589号パンフレットに詳細に説明されている。
 指向性制御部17は、DSPなどから構成され、音響信号の指向性を制御する。具体的には、指向性制御部17は、音響信号を所定の焦点に向けて出力するべく指向性スピーカ13を構成する各スピーカに出力するタイミングを制御する。この実施形態では、再生装置110からの音響信号、音響ID5A、音響ID5B、および音響ID5Cの音響信号のそれぞれについて指向性が制御される。再生装置110からの音響信号は、たとえば、指向性スピーカ13から拡散するように制御される。音響ID5A~5Cの音響信号は、上述したようにエリア5A~5Cの形状に沿った方向に放音されるように制御される。より具体的には、音響ID5Aおよび音響ID5Bの音響信号は、指向性スピーカ13から直進するように制御され、音響ID5Cの音響信号は、指向性スピーカ13から拡散するように制御される。
 指向性制御部17から出力された音響信号は、図示しないD/Aコンバータ及びアンプ等を介して指向性スピーカ13を構成する各スピーカに入力される。指向性スピーカ13は、たとえば列状に配置された複数のスピーカから構成されている。なお、この実施形態では、音響ID5の放音は、再生装置110による動画の再生中は常に行われるが、放音期間は、任意に設定してもよい。
 図7は、スマートフォン2の構成例を示すブロック図である。なお、図7では、本願発明に関係する機能のみを示す。
 スマートフォン2は、マイクロフォン21、音響ID処理部22、ネットワーク通信部25、ウェブブラウザ26、操作部27、及び記憶部28を備えている。音響ID処理部22は、音響IDアプリケーションプログラム200および制御部(コンピュータ)の協働によって実現され、ID復調部23、選択部201および再生処理部24を備えている。マイクロフォン(集音部)21は、モニタ1のスピーカから放音された音響を収音する。ID復調部23は、収音して得られた音声信号を、拡散変調に用いられた拡散符号を係数とする整合フィルタに通すことによってIDコードを復調する処理部である。この復調処理についても、国際公開第2010/016589号パンフレットに詳細に説明されている。
 再生処理部24は、ネットワーク通信部25を介してサーバ4と通信し、ID復調部23が復調したIDコード(音響ID5)を送信してコンテンツ情報を取得する。また、再生処理部24は、取得したコンテンツ情報に基づいてコンテンツを再生する。ネットワーク通信部25は、通信回路等から構成され、情報通信ネットワーク3を介してサーバ4等との通信を制御する。選択部201は、復調されたIDコードが複数ある場合、優先順位テーブル20に基づいて1のIDコードを選択する。再生処理部24は、選択部201で選択されたIDコードをサーバ4に送信する。
 ウェブブラウザ26は、ユーザ6の操作に従って、再生処理部24が取得したコンテンツ情報に含まれるURLにアクセスしてウェブページを表示する。操作部27はたとえばタッチパネルであり、情報通信ネットワーク3との通信の許可などのユーザ6の操作を検出する。記憶部28は、たとえばハードディスク装置であり、音響IDアプリケーションプログラム200及び優先順位テーブル20などを記憶する。
 図8は、スマートフォン2(音響ID処理部22)の音響ID5の取得動作を示すフローチャートである。音響ID処理部22は、音響IDを検出しない間(ステップS1でNO)は、ステップS1で待機している。音響ID処理部22は、音響IDを検出すると(ステップS1でYES)、これをIDコードに復調し(ステップS2)、複数のIDコードが復調されたかを判断する(ステップS3)。複数のIDコードが復調された場合(ステップS3でYES)、音響処理部22は、優先順位テーブル20を読み出して、優先順位の高いIDコードを選択し(ステップS4)、選択されたIDコードをサーバ4に送信する(ステップS5)。また、複数のIDコードが復調されていない場合(ステップS3でNO)、音響処理部22は、復調されたIDコードをサーバ4に送信する(ステップS5)。
 サーバ4は受信したIDコードに対応するコンテンツ情報を読み出し、これをスマートフォン2に返信する。スマートフォン2がこのコンテンツ情報をステップS6で受信すると、音響ID処理部22は、コンテンツ情報を再生(表示)する(ステップS7)。さらに、再生されたコンテンツ情報に対してユーザ6によるURLの選択操作があった場合(ステップS8でYES)、音響ID処理部22は、ウェブブラウザプログラムを起動して(ステップS9)、上記URLをウェブブラウザ26に渡す(ステップS10)。また、音響ID処理部22は、上記URLで指定されるコンテンツサーバにアクセスしてウェブページを表示させる(ステップS11)。これにより、ユーザ6は、上述したように新製品の購入のためのクーポンを画面に表示させることができる。
 なお、上述した実施形態では、優先順位テーブル20に基づいて優先順位の高い音響ID5(IDコード)が選択される例を示したが、種々の方法によって優先順位を特定することが可能である。
 たとえば、優先順位の設定は、周波数帯域に設定する構成でもよい。これにより、優先順位の高い周波数帯域に含まれる音響ID5を優先順位の高い音響ID5とすることができる。この場合、記憶部28は、周波数帯域に優先順位を対応付けたテーブルを記憶する。あるいは、放音装置11は、優先順位情報も変調して音響ID5とともに放音するようにしてもよい。
 また、スマートフォン2が優先順位を判断しなくてもよい。たとえば、サーバ4が優先順位を判断すればよい。この場合、音響ID処理部22は、取得した複数の音響ID5のIDコードの全てをサーバ4に送信する。そして、サーバ4は、受信したIDコードのうちから優先順位の高いIDコードを選択し、選択したIDコードに対応するコンテンツ情報を返信する。
 以上は、スマートフォン2で複数の音響ID5が取得された場合に、優先順位の高い音響ID5(IDコード)に対応するコンテンツ情報が再生される例を示した。一方、スマートフォン2によって取得される音響ID5の種類の変化からユーザ6(スマートフォン2)の移動を検知することも可能であり、スマートフォン2が、ユーザ6の移動に応じたコンテンツ情報を再生することも可能である。
 たとえば、スマートフォン2は、前回取得した音響ID5の種類から今回取得した音響ID5の種類への変化に応じて、図9に示すエリア移動コンテンツテーブル45から対応するエリア移動コンテンツ情報を読み出し、表示画面に表示する(再生する)。上記移動に応じたコンテンツの再生は、たとえば音響IDアプリケーションプログラム200を起動して実現される音響ID処理部22(再生処理部24)によって実行される。
 エリア移動コンテンツテーブル45は、スマートフォン2の記憶部28に記憶されている。エリア移動コンテンツテーブル45には、エリア移動コンテンツ情報(テキストデータ)が前回取得IDおよび今回取得IDに対応付けられて登録されている。前回取得IDは、前回(一定時間前に)取得した音響ID5の種類を示す。今回取得IDは、今回の音響ID取得処理で取得した音響ID5の種類を示す。音響ID5A(0001)が取得されている場合は、ユーザ6がエリアAにいると判断され、音響ID5B(0002)が取得されており、音響ID5A(0001)が取得されていない場合は、ユーザ6がエリアBにいると判断される。また、音響ID5C(0003)のみが取得されている場合はユーザ6エリアCにいると判断される。さらに、どの音響ID5も取得されていない場合は、エリア外であると判断される。
 なお、ユーザ6の移動判定は、取得される音響ID5の変化に基づいて行うのであれば、その手法に制限はない。上述したように、ユーザ6の移動判定は、取得された音響IDの種類の変化に基づいてエリア移動を判定する手法であってもよく、取得される音響ID5の数や取得される音響IDの周波数帯域の変化に基いてエリア移動を判定する手法であってもよい。また、これらの手法を組み合わせてエリア移動を判定してもよい。
 たとえば、スマートフォン2が前回音響ID5A(0001)を取得しており(音響ID5が3つ取得されている)、今回音響ID5A(0001)を取得せず音響ID5B(0002)を取得した場合(音響ID5が2つ取得されている)、スマートフォン2は、エリア移動コンテンツテーブル45を参照して「次のセッション(30分後)では、また別のお得情報をお伝えしますので、再度のご来訪をお待ちしております。」のコンテンツ情報をスマートフォン2の表示画面に表示する。この例では、音響ID5A(0001)が取得されなくなり、且つ、音響ID5B(0002)が取得されつづけていることで、エリアAからエリアBに移動したことが判定され、モニタ1を視聴していたユーザ6が、他の場所へ移動しようとしているものと推測される。そのため、この例では、上述したような有用な情報を追加的に与えることでユーザ6が再度来訪する確率を向上させる。
 このように、情報配信システム100は、ユーザ6の移動を検知して、移動状況に応じた情報をユーザ6に追加的に提供することもでき、音響を用いた情報配信の利便性をより向上させることができる。
 図10は、スマートフォン2(音響ID処理部22)の音響ID5の取得動作および移動検知動作を示すフローチャートである。なお、ステップS1~S11までの取得動作の処理は、図8に示す処理とほぼ同様であり、主としてステップS12以降の移動検知動作についてのみ説明する。
 音響ID処理部22は、ステップS8においてユーザ6によるURLの選択操作がなかった場合、コンテンツ情報を表示するべき所定の移動があったかを判断する(ステップS12)。音響ID処理部22は、上述したように今回ステップS2で復調(取得)した音響ID5および前回取得した音響ID5を、エリア移動コンテンツテーブル45の前回取得IDおよび今回取得IDと比較し、合致する組み合わせがあるかを判断する。音響ID処理部22は、合致する組み合わせがあった場合(ステップS12でYES)、対応するエリア移動コンテンツ情報をエリア移動コンテンツテーブル45から取得し(ステップS13)、スマートフォン2の画面に再生(表示)する(ステップS14)。
 そして、音響ID処理部22は、ステップS2で取得した音響ID5を、前回取得した音響ID5として記憶部28に記憶(更新)する(ステップS15)。また、音響ID処理部22は、合致する組み合わせがない場合、すなわち、エリアを移動していない場合または予定した方向以外に移動した場合(ステップS12でNO)、メッセージの再生をせずにステップS15に移行する。
 また、上述の実施形態では、音響ID5を指向性スピーカ13を用いて放音しているが、一般的なスピーカユニットをエリア別に設けて、それぞれ音響IDおよび再生装置110の音響信号を放音することも可能である。また、図11に示すような一部が重複する直線状に形成されたエリアD~Fに音響ID5D~5Fを放音する場合であれば、1つのスピーカユニット151を用い、音響ID5D~5FをエリアD~Fに応じた音量で放音すればよい。
 以上の実施形態の説明は、すべての点で例示であって、制限的なものではないと考えられるべきである。本発明の範囲は、上述の実施形態ではなく、特許請求の範囲によって示される。さらに、本発明の範囲には、特許請求の範囲と均等の意味および特許請求の範囲内でのすべての変更が含まれることが意図される。たとえば、以上の実施形態では、展示会のモニタの放音装置に本発明の情報配信システムを使用した例を示したが、本発明は、展示会のモニタの放音装置に限定されない。たとえば、放音装置がラジオ受信機であってもよい。また、放音装置が、小売店舗、ショッピングモール等の施設に設置されたデジタルサイネージなどのスピーカを利用したものであってもよい。
 施設としては、店舗等の商業施設に限らず、公共施設、民間施設、集合住宅、事務所施設等の各種施設に適用が可能である。たとえば、小売店舗の店頭(店舗近傍)または店内に設置されたスピーカから放音される呼び込み音声や音楽(BGM)に音響IDを重畳し、店舗近傍を通り掛かる顧客や店舗に入店した顧客に、情報を配信するサービスに適用することが可能である。
 上述した実施形態におけるスマートフォン2の音響ID処理部22は、制御部と音響IDアプリケーションプログラム200との協働によって実現される機能部であり、この音響IDアプリケーションプログラム200は、コンピュータ読み取り可能な記録媒体に記録した状態で提供し得るものである。コンピュータ読み取り可能な記憶媒体としては、磁気記録媒体(磁気テープ、磁気ディスク(HDD、FD)など)、光記録媒体(光ディスク(CD、DVD)など)、光磁気記録媒体、半導体メモリなどを適用することが可能である。また、上記のプログラムは、インターネットのような情報通信ネットワーク経由でダウンロードさせることも可能である。また、本実施形態では、携帯端末装置としてスマートフォン2を例示しているが、スマートフォン2に限定されない。
 また、上述した実施形態におけるスマートフォン2のコンテンツ再生は、IDコードに対応するコンテンツ情報をサーバ4から受信して行っているが、特にこれに限定されない。たとえば、スマートフォン2が、コンテンツテーブル40を記憶部28に記憶するようにしてもよい。この場合、スマートフォン2からサーバ4へのアクセスは不要となる。
 1 モニタ
 2 スマートフォン(携帯端末装置)
 3 情報通信ネットワーク
 4 サーバ
 5(5A~5C) 音響ID
 6 ユーザ
 11 放音装置
 12 音声再生機
 13 指向性スピーカ
 20 優先順位テーブル
 45 エリア移動コンテンツテーブル

Claims (10)

  1.  少なくとも一部が重複する複数のエリアに、それぞれ異なる音響化された識別情報を放音するスピーカを備えた放音装置と、
     前記複数の識別情報の優先順位を記憶する記憶部と、
     前記放音装置が放音した音声を収音する収音部、収音した音声から前記識別情報を分離および復調する復調部、復調された識別情報のうち優先順位の高い識別情報を選択する選択部、および、選択された識別情報に対応するコンテンツを再生する再生処理部を備えた携帯端末装置と、
     を有する情報配信システム。
  2.  前記スピーカは、指向性スピーカであり、
     前記放音装置は、前記複数のエリアに向けて、前記音響化された識別情報の指向性または音量を制御する指向性制御部を備えた請求項1に記載の情報配信システム。
  3.  前記放音装置は、前記複数の識別情報を、それぞれ異なる周波数帯域の信号に音響化する変調部を備え、
     前記記憶部は、周波数帯域ごとに優先順位が設定された優先順位情報を記憶する請求項2に記載の情報配信システム。
  4. 情報通信ネットワークに接続され、前記識別情報に基づくコンテンツ情報を割り出すサーバと、をさらに有し、
     前記再生処理部は、選択された識別情報を前記サーバに送信して該識別情報に対応するコンテンツ情報を取得し、取得したコンテンツ情報に基づいてコンテンツの再生を行う請求項1乃至請求項3のいずれかに記載の情報配信システム。
  5.  前記記憶部は、前記携帯端末装置に含まれる請求項1乃至請求項4のいずれかに記載の情報配信システム。
  6.  前記記憶部は、自身のエリア移動に応じたエリア移動コンテンツ情報を記憶し、
     前記再生処理部は、復調された識別情報の変化に基づいて自身のエリア移動を特定し、特定したエリア移動に対応する前記エリア移動コンテンツ情報に基づいてコンテンツを再生する請求項1乃至請求項5のいずれかに記載の情報配信システム。
  7.  指向性スピーカと、
     音響化された複数の識別情報が入力され、少なくとも一部が重複する複数のエリアに向けて前記複数の識別情報の指向性または音量を制御して前記指向性スピーカに供給する指向性制御部と、
     を備えた放音装置。
  8.  音響化された複数の識別情報を含む音声を収音する収音部と、
     収音した音声から前記複数の識別情報をそれぞれ分離および復調する復調部と、
     復調された複数の識別情報のうち優先順位の高い識別情報を選択する選択部と、
     選択された識別情報に対応するコンテンツを再生する再生処理部と、
     を備えた携帯端末装置。
  9.  コンピュータを、
     音響化された複数の識別情報を含む音声を収音する収音手段、
     収音した音声から前記複数の識別情報をそれぞれ分離および復調する復調手段、
     復調された複数の識別情報のうち優先順位の高い識別情報を選択する選択手段、および、
     選択された識別情報に対応するコンテンツを再生する再生処理手段、
     として機能させるプログラム。
  10.  音響化された複数の識別情報を含む音声を収音し、
     収音した音声から前記複数の識別情報をそれぞれ分離および復調し、
     復調された複数の識別情報のうち優先順位の高い識別情報を選択し、
     選択された識別情報に対応するコンテンツを再生する、
     情報処理方法。
PCT/JP2015/086168 2014-12-26 2015-12-25 情報配信システム、放音装置、携帯端末装置、プログラム、および情報処理方法 WO2016104672A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2014265050A JP6471497B2 (ja) 2014-12-26 2014-12-26 携帯端末装置およびプログラム
JP2014-265050 2014-12-26

Publications (1)

Publication Number Publication Date
WO2016104672A1 true WO2016104672A1 (ja) 2016-06-30

Family

ID=56150685

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2015/086168 WO2016104672A1 (ja) 2014-12-26 2015-12-25 情報配信システム、放音装置、携帯端末装置、プログラム、および情報処理方法

Country Status (2)

Country Link
JP (1) JP6471497B2 (ja)
WO (1) WO2016104672A1 (ja)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6805819B2 (ja) * 2016-12-28 2020-12-23 日本電気株式会社 端末装置、情報提供システム、端末装置の処理方法、及びプログラム
WO2019107591A1 (ko) * 2017-11-29 2019-06-06 주식회사 사운들리 컴퓨팅 디바이스에서의 애플리케이션의 음파 수신 및 처리 방법
WO2019131149A1 (ja) * 2017-12-27 2019-07-04 パナソニックIpマネジメント株式会社 情報伝達装置、情報受信装置、情報管理サーバ、情報伝達方法、情報受信方法、及び情報管理方法
JP7259435B2 (ja) * 2019-03-18 2023-04-18 株式会社リコー 端末装置、情報処理システム、及び情報処理方法
CN110602312B (zh) * 2019-08-21 2021-05-11 华为技术有限公司 通话方法、电子设备及计算机可读存储介质

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008097362A (ja) * 2006-10-12 2008-04-24 Dainippon Printing Co Ltd 展示物ガイドシステム及び方法
JP2009205485A (ja) * 2008-02-28 2009-09-10 Fujitsu Fsas Inc 乗降車通知方法及び乗降車通知システム
JP2013106278A (ja) * 2011-11-15 2013-05-30 Intec Inc 情報提供システム、音響信号出力装置、コンピュータ用プログラム、携帯機器用プログラム、データ伝送方法及び情報取得方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008097362A (ja) * 2006-10-12 2008-04-24 Dainippon Printing Co Ltd 展示物ガイドシステム及び方法
JP2009205485A (ja) * 2008-02-28 2009-09-10 Fujitsu Fsas Inc 乗降車通知方法及び乗降車通知システム
JP2013106278A (ja) * 2011-11-15 2013-05-30 Intec Inc 情報提供システム、音響信号出力装置、コンピュータ用プログラム、携帯機器用プログラム、データ伝送方法及び情報取得方法

Also Published As

Publication number Publication date
JP2016127344A (ja) 2016-07-11
JP6471497B2 (ja) 2019-02-20

Similar Documents

Publication Publication Date Title
JP5949068B2 (ja) 情報提供システム、識別情報解決サーバおよび携帯端末装置
WO2016104672A1 (ja) 情報配信システム、放音装置、携帯端末装置、プログラム、および情報処理方法
US9721465B2 (en) Information-providing system, portable terminal device, server, and program
US20130301392A1 (en) Methods and apparatuses for communication of audio tokens
US20110214143A1 (en) Mobile device application
CN106464953A (zh) 双声道音频系统和方法
CN106462918A (zh) 用于发送播放列表的方法和系统
JP6454741B2 (ja) 低電力関連コンテンツ提供システム、方法、及びプログラムを記録したコンピューターで読むことができる記録媒体
TW201132122A (en) System and method in a television for providing user-selection of objects in a television program
JP2012155706A (ja) 情報提供システム、携帯端末装置、識別情報解決サーバおよびプログラム
CN107785037B (zh) 使用音频时间码同步媒体内容的方法、系统和介质
KR20120002148A (ko) 자동으로 컨텐츠를 추천하는 모바일 시스템, 컨텐츠 추천 시스템 및 컨텐츠 추천 방법
JP3834579B1 (ja) 情報提供システム
CN102129636A (zh) 用于提供基于识别的广告给观众的系统和方法
JP2014187490A (ja) 放送受信装置及び端末装置
JP6065362B2 (ja) 情報提供システム
KR20120021315A (ko) 자동으로 컨텐츠를 추천하는 모바일 시스템, 컨텐츠 추천 시스템 및 컨텐츠 추천 방법
JP3976779B1 (ja) 音楽データに文字データを埋め込んだ複合音響信号を再生する文字データ再生装置
JP2016212585A (ja) 情報配信システム、携帯端末装置およびプログラム
JP2019036973A (ja) 放音装置および情報配信システム
CN108289245A (zh) 自动媒体信息播放方法
JP2018182585A (ja) 超音波を用いた情報発出システム
JP7167448B2 (ja) プログラムおよび端末装置
JP2016173670A (ja) 情報出力装置、情報出力方法、およびプログラム
JP5731890B2 (ja) 情報提示装置、情報提示方法、および情報提示プログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 15873240

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 15873240

Country of ref document: EP

Kind code of ref document: A1