WO2022064589A1 - Information processing device, sound image forming system, control method, and control program - Google Patents

Information processing device, sound image forming system, control method, and control program Download PDF

Info

Publication number
WO2022064589A1
WO2022064589A1 PCT/JP2020/035987 JP2020035987W WO2022064589A1 WO 2022064589 A1 WO2022064589 A1 WO 2022064589A1 JP 2020035987 W JP2020035987 W JP 2020035987W WO 2022064589 A1 WO2022064589 A1 WO 2022064589A1
Authority
WO
WIPO (PCT)
Prior art keywords
sound
file
information processing
parametric
image
Prior art date
Application number
PCT/JP2020/035987
Other languages
French (fr)
Japanese (ja)
Inventor
純 正田
耕佑 細谷
勝 木村
Original Assignee
三菱電機株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 三菱電機株式会社 filed Critical 三菱電機株式会社
Priority to PCT/JP2020/035987 priority Critical patent/WO2022064589A1/en
Priority to JP2022546679A priority patent/JP7146152B2/en
Publication of WO2022064589A1 publication Critical patent/WO2022064589A1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R3/00Circuits for transducers, loudspeakers or microphones

Definitions

  • the present disclosure relates to an information processing device, a sound image forming system, a control method, and a control program.
  • Patent Document 1 discloses a technique relating to the formation of a sound image.
  • a plurality of sound source devices are arranged along the taxiway.
  • a plurality of sound source devices form a sound image.
  • the sound source device of the above technology is a general speaker. Therefore, in the above technique, a sound image is formed by a plurality of general speakers. However, there are places where a sound image cannot be formed with a general plurality of speakers.
  • the purpose of the present disclosure is to form a sound image everywhere by using a plurality of fixed parametric speakers.
  • the information processing device controls a plurality of parametric speakers.
  • the information processing apparatus acquires the situation information indicating the situation, acquires the sound file corresponding to the situation information, acquires the first sound image position information indicating the first position, and the first position. It also has a control unit that controls the plurality of parametric speakers so as to form a sound image based on the sound indicated by the sound file.
  • a sound image can be formed everywhere by using a plurality of fixed parametric speakers.
  • FIG. It is a figure which shows the example of the sound image formation system of Embodiment 1.
  • FIG. It is a figure which shows the functional block which the information processing apparatus of Embodiment 1 has.
  • FIG. It is a flowchart which shows the example of the process which the information processing apparatus of Embodiment 1 performs.
  • FIG. It is a figure which shows the specific example in the case of forming a sound image on the movement path of Embodiment 1.
  • FIG. It is a figure which shows the functional block which the information processing apparatus of Embodiment 2 has.
  • FIG. 1 is a diagram showing an example of the sound image forming system of the first embodiment.
  • the sound image forming system includes an information processing device 100 and a plurality of parametric speakers.
  • the sound image forming system may further include a DA (Digital Analog) converter, a modulator, and an amplifier.
  • DA Digital Analog
  • the information processing device 100 may be called a guidance device.
  • the information processing device 100 is a device that executes a control method.
  • the information processing apparatus 100 is a PC (Personal Computer).
  • the information processing device 100 includes a processor 101, a volatile storage device 102, and a non-volatile storage device 103.
  • the processor 101 controls the entire information processing device 100.
  • the processor 101 is a CPU (Central Processing Unit), an FPGA (Field Programmable Gate Array), or the like.
  • the processor 101 may be a multiprocessor.
  • the information processing apparatus 100 may have a processing circuit instead of the processor 101.
  • the processing circuit may be a single circuit or a composite circuit.
  • the volatile storage device 102 is the main storage device of the information processing device 100.
  • the volatile storage device 102 is a RAM (Random Access Memory).
  • the non-volatile storage device 103 is an auxiliary storage device of the information processing device 100.
  • the non-volatile storage device 103 is an HDD (Hard Disk Drive) or an SSD (Solid State Drive).
  • FIG. 1 shows two parametric speakers.
  • the number of parametric speakers is not limited to two. In the following description, the number of parametric speakers is two.
  • the two parametric speakers are parametric speakers 200 and 201.
  • the information processing apparatus 100 is connected to the parametric speaker 200 via the DA conversion unit 300, the modulation unit 400, and the amplifier 500.
  • the information processing apparatus 100 controls the parametric speaker 200 via the DA conversion unit 300, the modulation unit 400, and the amplifier 500.
  • the information processing device 100 is connected to the parametric speaker 201 via the DA conversion unit 301, the modulation unit 401, and the amplifier 501.
  • the information processing apparatus 100 controls the parametric speaker 201 via the DA conversion unit 301, the modulation unit 401, and the amplifier 501.
  • the DA conversion units 300 and 301 may be called a DA conversion circuit.
  • the modulation units 400 and 401 may be referred to as a modulation circuit.
  • the DA conversion units 300, 301 and the modulation units 400, 401 may exist inside the information processing apparatus 100.
  • the DA conversion units 300 and 301 convert digital signals into analog signals.
  • the modulation units 400 and 401 modulate the analog signal.
  • the modulation includes amplitude modulation (AM: amplitude modulation), DSB (Double Side Band) modulation, SSB (Single Side Band) modulation, and the like.
  • Amplifiers 500 and 501 amplify the signal.
  • FIG. 2 is a diagram showing a functional block included in the information processing apparatus of the first embodiment.
  • DA conversion units 300, 301, modulation units 400, 401, and amplifiers 500, 501 are omitted.
  • the information processing device 100 has a storage unit 110, an acquisition unit 120, and a control unit 130.
  • the storage unit 110 may be realized as a storage area secured in the volatile storage device 102 or the non-volatile storage device 103.
  • a part or all of the acquisition unit 120 and the control unit 130 may be realized by a processing circuit. Further, a part or all of the acquisition unit 120 and the control unit 130 may be realized as a module of a program executed by the processor 101.
  • the program executed by the processor 101 is also referred to as a control program.
  • the control program is recorded on a recording medium.
  • the storage unit 110 may store a sound file.
  • the sound file is sound data in a format such as mp3.
  • the storage unit 110 stores the relationship table.
  • the relational table is specifically illustrated.
  • FIG. 3 is a diagram showing an example of the relationship table of the first embodiment.
  • the relationship table 111 is stored in the storage unit 110.
  • the relationship table 111 has status information and sound items. The status information will be described later. Further, how to use the relation table 111 will be described later.
  • the storage unit 110 may store the sound image position information.
  • the sound image position information is information indicating the position where the sound image is formed. Further, the position indicated by the sound image position information may be represented by Cartesian coordinates or polar coordinates. Here, the sound image is also referred to as a virtual sound source.
  • the acquisition unit 120 acquires status information. For example, the acquisition unit 120 acquires status information from a system that communicates with the information processing device 100. Further, for example, the acquisition unit 120 acquires the status information by an input operation by the administrator.
  • the situation information is information indicating the situation. For example, status information indicates normal or urgent.
  • the acquisition unit 120 acquires the sound file corresponding to the status information. Specifically, the acquisition unit 120 identifies the sound according to the situation indicated by the situation information based on the relation table 111. For example, when the situation information indicates an urgent situation, the acquisition unit 120 identifies the buzzer sound. The acquisition unit 120 acquires the sound file of the specified sound. For example, the acquisition unit 120 acquires a buzzer sound file.
  • a method of acquiring a sound file will be described.
  • the acquisition unit 120 acquires the sound file from the storage unit 110.
  • the acquisition unit 120 acquires a sound file from an external device that can be connected to the information processing device 100.
  • the external device is a cloud server.
  • the acquisition unit 120 acquires the sound image position information. For example, the acquisition unit 120 acquires sound image position information from the storage unit 110. Further, for example, the acquisition unit 120 acquires sound image position information from the external device.
  • the control unit 130 controls the parametric speakers 200 and 201 so as to form a sound image based on the sound indicated by the sound file at the position indicated by the sound image position information.
  • the control unit 130 may cause the parametric speakers 200 and 201 to form a sound image by using amplitude panning. Further, the control unit 130 may form a sound image on the parametric speakers 200, 201 by using transoral or delay control using an HRTF (Head-Related Transfer Function).
  • HRTF Head-Related Transfer Function
  • the acquisition unit 120 acquires a plurality of sound image position information.
  • Each of the plurality of sound image position information indicates a different position.
  • the control unit 130 controls the parametric speakers 200 and 201 so as to form a sound image at a position indicated by a plurality of sound image position information. As a result, the information processing apparatus 100 can move the sound image.
  • FIG. 4 is a flowchart showing an example of processing executed by the information processing apparatus of the first embodiment.
  • the acquisition unit 120 acquires status information.
  • the acquisition unit 120 acquires a sound file according to the situation information.
  • the acquisition unit 120 acquires sound image position information.
  • the sound image position information may be referred to as the first sound image position information.
  • the position indicated by the sound image position information may be referred to as a first position.
  • the control unit 130 determines the control content for forming the sound image at the position indicated by the sound image position information. For example, when a sound image is formed in the vicinity of the parametric speaker 200, the control content controls the parametric speakers 200, 201 so that the ratio of the volume of the parametric speaker 200 to the volume of the parametric speaker 201 is “9: 1”. Show that you do. Further, for example, when a sound image is formed in the center of the parametric speaker 200 and the parametric speaker 201, the control content is such that the ratio of the volume of the parametric speaker 200 to the volume of the parametric speaker 201 is “5: 5”. Indicates that the parametric speakers 200 and 201 are controlled. The volume may be considered as sound pressure. Further, for example, the control content indicates that the parametric speaker 200 and the parametric speaker 201 simultaneously output ultrasonic waves. Further, the control content includes outputting the sound of the sound file.
  • Step S15 The control unit 130 generates a drive signal based on the control content.
  • Step S16 The control unit 130 transmits a drive signal.
  • the parametric speakers 200 and 201 output ultrasonic waves in which the sound indicated by the sound file is modulated based on the drive signal.
  • the sound image is formed at the position indicated by the sound image position information. For example, the sound image is formed on the floor or wall.
  • Step S17 The control unit 130 determines whether or not to end the process. For example, when the information processing apparatus 100 receives the end instruction transmitted by the system communicating with the information processing apparatus 100, the control unit 130 determines that the processing is terminated. When the process ends, the process ends. If the process is not completed, the process proceeds to step S13. By repeating steps S13 to 16, the user feels that the sound image moves.
  • the information processing device 100 may control the parametric speakers 200 and 201 so that the sound image moves in a straight line. Further, the information processing apparatus 100 may control the parametric speakers 200 and 201 so that the sound image moves in a zigzag manner.
  • FIG. 5 is a diagram showing a specific example of the movement of the sound image according to the first embodiment.
  • the parametric speakers 200 and 201 are arranged on the movement path. For example, when the sound image position information indicates the position of the parametric speaker 200, the information processing apparatus 100 controls the parametric speakers 200 and 201 so as to form a sound image at the position of the parametric speaker 200.
  • the parametric speakers 200 and 201 form a sound image 600 under the control of the information processing apparatus 100.
  • the information processing apparatus 100 controls the parametric speakers 200, 201 so as to form a sound image at the adjacent position. ..
  • the parametric speakers 200 and 201 form a sound image 601 under the control of the information processing apparatus 100.
  • the parametric speakers 200 and 201 output ultrasonic waves with a modulated buzzer sound in an emergency situation (for example, a fire).
  • a sound image is formed by outputting the ultrasonic wave.
  • the user U1 feels that the buzzer sound is output from the sound image.
  • the sound image moves as the parametric speakers 200 and 201 repeat the formation of the sound image.
  • the user U1 is guided in the direction in which the sound image moves. As a result, the user U1 can reach the emergency exit.
  • a general plurality of speakers can form a sound image.
  • a general plurality of speakers cannot form a sound image at a place other than on a line segment connecting the speakers or within a polygon.
  • the general plurality of speakers cannot form a sound image on the floor or wall under the speaker.
  • the information processing apparatus 100 can form a sound image between the points where the directivity of the parametric speakers 200 and 201 hits the wall or the floor. Specifically, the information processing apparatus 100 can form a sound image on the floor or wall under the parametric speaker 200 by controlling the parametric speakers 200 and 201.
  • the information processing apparatus 100 can form a sound image between the parametric speaker 200 and the parametric speaker 201 by controlling the parametric speakers 200 and 201. Therefore, the information processing apparatus 100 can form a sound image at any place by using a plurality of fixed parametric speakers.
  • the parametric speakers 200 and 201 form a sound image without moving. Since the parametric speakers 200 and 201 do not move, the parametric speakers 200 and 201 do not vibrate. Further, since the parametric speakers 200 and 201 do not move, the parametric speakers 200 and 201 do not have to have a movable portion. The manufacturing cost of the parametric speakers 200 and 201 having no moving portion can be kept low.
  • the parametric speaker 200 and the parametric speaker 201 can form a sound image on the moving path.
  • a specific example is shown.
  • FIG. 6 is a diagram showing a specific example in the case of forming a sound image on the movement path of the first embodiment.
  • FIG. 6 shows that the parametric speaker 200 and the parametric speaker 201 are not arranged on the movement path. That is, the parametric speaker 200 and the parametric speaker 201 are not arranged linearly.
  • FIG. 6 shows sound images 700 and 701.
  • Parametric speakers have sharp directivity. Therefore, even when the parametric speaker 200 and the parametric speaker 201 are not arranged on the moving path, the parametric speaker 200 and the parametric speaker 201 form a sound image on the moving path by directing the directivity on the moving path. be able to.
  • the information processing apparatus 100 outputs ultrasonic waves based on sounds according to the situation to the parametric speaker 200 and the parametric speaker 201 so that the sound is output from the sound image. You can feel it.
  • the information processing apparatus 100 may guide visually impaired people, crowds, animals, and the like by controlling the parametric speakers 200 and 201.
  • Embodiment 2 Next, the second embodiment will be described. In the second embodiment, the matters different from the first embodiment will be mainly described. Then, in the second embodiment, the description of the matters common to the first embodiment will be omitted. In the description of the second embodiment, FIGS. 1 to 6 are referred to.
  • FIG. 7 is a diagram showing a functional block included in the information processing apparatus of the second embodiment.
  • the configuration of FIG. 7, which is the same as the configuration shown in FIG. 2, has the same reference numerals as those shown in FIG.
  • the information processing apparatus 100a has a generation unit 140a.
  • a part or all of the generation unit 140a may be realized by a processing circuit. Further, a part or all of the generation unit 140a may be realized as a module of a program executed by the processor 101.
  • the generation unit 140a specifies the frequency band to be changed from the frequency bands of the sound indicated by the sound file.
  • the frequency band is also referred to as a bandwidth.
  • the generation unit 140a generates a new sound file by executing a process of increasing the amplitude of the specified frequency band or a process of decreasing the amplitude of the specified frequency band.
  • the control unit 130 controls the parametric speakers 200 and 201 so as to form a sound image based on the sound indicated by the new sound file at the position indicated by the sound image position information.
  • FIG. 8 is a flowchart showing an example of processing executed by the information processing apparatus of the second embodiment.
  • the process of FIG. 8 differs from the process of FIG. 4 in that step S13a is executed and step S14 is changed to step S14a. Therefore, in FIG. 8, steps S13a and 14a will be described. The description of the processes other than steps S13a and 14a will be omitted.
  • Step S13a The generation unit 140a specifies the frequency band to be changed from the frequency bands of the sound indicated by the sound file acquired in step S12. Specifically, the generation unit 140a identifies the frequency band to be changed from the frequency band of the sound based on the position indicated by the sound image position information. For example, the generation unit 140a selects the frequency band to be changed from the frequency band of the sound based on the information indicating the correspondence between the position indicated by the sound image position information and the frequency band to be changed and the sound image position information. Identify.
  • the generation unit 140a executes a process of increasing the amplitude of the specified frequency band or a process of decreasing the amplitude of the specified frequency band.
  • the generation unit 140a generates a new sound file by executing the process.
  • the generation unit 140a generates a new sound file based on the sound file acquired in step S12.
  • the sound indicated by the sound file acquired in step S12 is a buzzer sound
  • a part of the buzzer sound is emphasized in the new sound file.
  • generating a new sound file may be expressed as rewriting the sound file acquired in step S12.
  • Step S14a The control unit 130 determines the control content for forming the sound image at the position indicated by the sound image position information. Further, the control content includes outputting the sound of the sound file generated in step S13a. As a result, for example, the parametric speakers 200 and 201 output a partially emphasized sound.
  • the parametric speakers 200 and 201 output ultrasonic waves based on the sound indicated by the newly generated sound file, so that the sound can be easily focused on the position indicated by the sound image position information. .. That is, the parametric speakers 200 and 201 can easily form a sound image at the position indicated by the sound image position information.
  • Embodiment 3 Next, the third embodiment will be described.
  • the matters different from the first embodiment will be mainly described.
  • the description of the matters common to the first embodiment will be omitted.
  • FIGS. 1 to 6 are referred to.
  • FIG. 9 is a diagram showing a functional block included in the information processing apparatus of the third embodiment.
  • the configuration of FIG. 9, which is the same as the configuration shown in FIG. 2, has the same reference numerals as those shown in FIG.
  • the information processing apparatus 100b has a generation unit 140b.
  • a part or all of the generation unit 140b may be realized by a processing circuit. Further, a part or all of the generation unit 140b may be realized as a module of a program executed by the processor 101.
  • the generation unit 140b obtains a sound file in which the rising portion of the sound is emphasized as the position indicated by the sound image position information is closer to the center position between the parametric speaker 200 and the parametric speaker 201. Generate a new one based on the file.
  • the parametric speaker 200 may be referred to as a first parametric speaker.
  • the parametric speaker 201 may be referred to as a second parametric speaker.
  • the control unit 130 controls the parametric speakers 200 and 201 so as to form a sound image based on the sound indicated by the newly generated sound file at the position indicated by the sound image position information.
  • FIG. 10 is a flowchart showing an example of processing executed by the information processing apparatus according to the third embodiment.
  • the process of FIG. 10 differs from the process of FIG. 4 in that step S13b is executed and step S14 is changed to step S14b. Therefore, in FIG. 10, steps S13b and 14b will be described. The description of the processes other than steps S13b and 14b will be omitted.
  • Step S13b In the generation unit 140b, the closer the position indicated by the sound image position information acquired in step S13 is to the center position between the parametric speaker 200 and the parametric speaker 201, the closer the sound file acquired in step S12 is. A new sound file is generated in which the rising part of the indicated sound is emphasized.
  • the generation process will be described with reference to a specific example.
  • the generation unit 140b acquires position information indicating the center position from the storage unit 110.
  • the generation unit 140b compares the center position indicated by the position information with the position indicated by the sound image position information. Based on the comparison result, the generation unit 140b determines how much the rising portion of the sound indicated by the sound file acquired in step S12 is emphasized.
  • the generation unit 140b determines that the rising portion of the sound indicated by the sound file is emphasized most.
  • the generation unit 140b generates a new sound file based on the sound file acquired in step S12 and the content of the determination. As a method of emphasizing the sound, the sound is emphasized by increasing the amplitude.
  • generating a new sound file may be expressed as rewriting the sound file acquired in step S12.
  • Step S14b The control unit 130 determines the control content for forming the sound image at the position indicated by the sound image position information. Further, the control content includes outputting the sound of the sound file generated in step S13b.
  • the information processing apparatus 100 outputs a sound image in which the rising portion is emphasized as the position indicated by the sound image position information is closer to the center between the parametric speaker 200 and the parametric speaker 201. , 201. This makes the sound clearer. Further, by moving the sound image, the user feels that the sound is continuously moving. According to the third embodiment, the user can clearly hear the continuous sound.
  • Embodiment 4 Next, the fourth embodiment will be described.
  • the matters different from the first embodiment will be mainly described.
  • the description of the matters common to the first embodiment will be omitted.
  • FIGS. 1 to 6 are referred to.
  • FIG. 11 is a diagram showing a functional block included in the information processing apparatus of the fourth embodiment.
  • the configuration of FIG. 11, which is the same as the configuration shown in FIG. 2, has the same reference numerals as those shown in FIG.
  • the information processing apparatus 100c has a generation unit 140c.
  • a part or all of the generation unit 140c may be realized by a processing circuit. Further, a part or all of the generation unit 140c may be realized as a module of a program executed by the processor 101.
  • the generation unit 140c newly generates a sound file in which reverberation is generated based on the sound file acquired by the acquisition unit 120.
  • the control unit 130 controls the parametric speakers 200 and 201 so as to form a sound image based on the sound indicated by the newly generated sound file at the position indicated by the sound image position information.
  • FIG. 12 is a flowchart showing an example of processing executed by the information processing apparatus of the fourth embodiment.
  • the process of FIG. 12 differs from the process of FIG. 4 in that step S13c is executed and step S14 is changed to step S14c. Therefore, in FIG. 12, steps S13c and 14c will be described. The description of the processes other than steps S13c and 14c will be omitted.
  • Step S13c The generation unit 140b newly generates a sound file in which reverberation is generated based on the sound file acquired in step S12. Specifically, the generation unit 140b newly generates a sound file in which reverberation is generated by using the sound file acquired in step S12 and the technique of the Reverb effect. Note that the sound file newly generated may be expressed as the sound file acquired in step S12 being rewritten.
  • Step S14c The control unit 130 determines the control content for forming the sound image at the position indicated by the sound image position information. Further, the control content includes outputting the sound of the sound file generated in step S13c.
  • step S14c steps S15 and 16 are executed. If No in step S17, step S13 and step S13c are executed.
  • the generation unit 140b newly generates a sound file in which a reverberation stronger than the reverberation based on the sound indicated by the previously generated sound file is generated.
  • step S13c the generation unit 140b newly generates a sound file in which a stronger reverberation than the previous reverberation is generated.
  • the generation unit 140b By controlling the parametric speakers 200 and 201 based on the generated sound file, the farther the sound image is, the longer the reverberation becomes. Therefore, the user can feel the movement of the sound image more emphasized.
  • Embodiment 5 Next, the fifth embodiment will be described. In the fifth embodiment, the matters different from the first embodiment will be mainly described. Then, in the fifth embodiment, the description of the matters common to the first embodiment will be omitted. In the description of the fifth embodiment, FIGS. 1 to 6 are referred to.
  • FIG. 13 is a diagram showing a functional block included in the information processing apparatus of the fifth embodiment.
  • the configuration of FIG. 13, which is the same as the configuration shown in FIG. 2, has the same reference numerals as those shown in FIG.
  • the information processing device 100d is connected to the display device 800.
  • the display device 800 is a projector.
  • the information processing device 100d controls the display device 800.
  • the information processing apparatus 100d has an acquisition unit 120d and a control unit 130d.
  • the acquisition unit 120d acquires an image file corresponding to the status information.
  • the acquisition unit 120d specifies the name of the image according to the situation indicated by the situation information based on the information indicating the correspondence between the situation information and the name of the image.
  • the acquisition unit 120d acquires an image file with the name of the specified image.
  • a method of acquiring an image file will be described.
  • the acquisition unit 120 acquires an image file from the storage unit 110.
  • the acquisition unit 120 acquires an image file from an external device that can be connected to the information processing device 100.
  • the control unit 130d controls the display device 800 so that the image indicated by the image file is displayed at the position indicated by the sound image position information.
  • FIG. 14 is a flowchart showing an example of processing executed by the information processing apparatus according to the fifth embodiment.
  • the process of FIG. 14 differs from the process of FIG. 4 in that step S16d is executed and step S12 is changed to step S12d. Therefore, in FIG. 14, steps S12d and 16d will be described. The description of the processes other than steps S12d and 16d will be omitted. It is assumed that the process executed by the acquisition unit 120 in steps S11 to 16 is executed by the acquisition unit 120d. It is assumed that the process executed by the control unit 130 in steps S11 to 16 is executed by the control unit 130d.
  • Step S12d The acquisition unit 120d acquires a sound file according to the situation information and an image file according to the situation information.
  • Step S16d The control unit 130d instructs the display device 800 to display the image so that the image indicated by the image file is displayed at the position indicated by the sound image position information. As a result, the sound image is formed and the image is displayed at the position indicated by the sound image position information.
  • FIG. 15 is a diagram showing a specific example of the image shown by the image file of the fifth embodiment.
  • the image file 112 may be stored in the storage unit 110.
  • the image shown by the image file 112 indicates the guiding direction.
  • the acquisition unit 120d acquires the image file 112.
  • the control unit 130d instructs the projector to display the image so that the image indicated by the image file 112 is displayed at the position indicated by the sound image position information.
  • the projector displays the image of the image file 112.
  • the projector displays the image of the image file 112 on the floor.
  • the information processing apparatus 100d can provide visual information and auditory information to the user.
  • Embodiment 6 Next, the sixth embodiment will be described. In the sixth embodiment, the matters different from the first embodiment will be mainly described. Then, in the sixth embodiment, the description of the matters common to the first embodiment will be omitted. In the description of the sixth embodiment, FIGS. 1 to 6 are referred to.
  • the case where the modulation unit exists outside has been described.
  • the number of modulators is the same as the number of parametric speakers.
  • the modulation unit is expensive. Therefore, providing a modulation unit according to the number of parametric speakers increases the cost of the sound image forming system. Therefore, in the sixth embodiment, a case where the cost of the sound image forming system is suppressed will be described.
  • FIG. 16 is a diagram showing a functional block included in the information processing apparatus of the sixth embodiment.
  • the configuration of FIG. 16, which is the same as the configuration shown in FIG. 2, has the same reference numerals as those shown in FIG.
  • the information processing apparatus 100e has a generation unit 140e.
  • a part or all of the generation unit 140e may be realized by a processing circuit. Further, a part or all of the generation unit 140e may be realized as a module of a program executed by the processor 101.
  • the generation unit 140e generates a new sound file by modulating the waveform of the sound indicated by the sound file acquired by the acquisition unit 120.
  • the control unit 130 controls the parametric speakers 200 and 201 so as to form a sound image based on the sound indicated by the new sound file at the position indicated by the sound image position information.
  • FIG. 17 is a flowchart showing an example of processing executed by the information processing apparatus of the sixth embodiment.
  • the process of FIG. 17 differs from the process of FIG. 4 in that step S12e is executed and step S14 is changed to step S14e. Therefore, in FIG. 17, steps S12e and 14e will be described. The description of the processes other than steps S12e and 14e will be omitted.
  • Step S12e The generation unit 140e generates a new sound file by modulating the sound waveform indicated by the sound file acquired in step S12. Specifically, the generation unit 140e performs amplitude modulation, DSB modulation, SSB modulation and the like on the sound waveform indicated by the sound file acquired in step S12. In this way, the generation unit 140e generates a new sound file by modulation. It should be noted that generating a new sound file may be expressed as rewriting the sound file acquired in step S12.
  • Step S14e The control unit 130 determines the control content for forming the sound image at the position indicated by the sound image position information. Further, the control content includes outputting the sound of the sound file generated in step S12e.
  • the information processing apparatus 100e can suppress the cost of the sound image forming system.
  • 100, 100a, 100b, 100c, 100d, 100e Information processing device 101 processor, 102 volatile storage device, 103 non-volatile storage device, 110 storage unit, 111 relation table, 112 image file, 120, 120d acquisition unit, 130, 130d control unit, 140a, 140b, 140c, 140e generation unit, 200,201 parametric speaker, 300,301 DA conversion unit, 400,401 modulation unit, 500,501 amplifier, 600,601,700,701 sound image, 800 display device. , U1 user.

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Acoustics & Sound (AREA)
  • Signal Processing (AREA)
  • Circuit For Audible Band Transducer (AREA)

Abstract

In the present invention, an information processing device (100) controls parametric speakers (200, 201). The information processing device (100) has an acquisition unit (120) and a control unit (130). The acquisition unit (120) acquires status information that indicates a status, acquires a sound file that corresponds to the status information, and acquires first sound-image position information that indicates a first position. The control unit (130) controls the parametric speakers (200, 201) so as to form a sound image at the first position that is based on the sound indicated by the sound file.

Description

情報処理装置、音像形成システム、制御方法、及び制御プログラムInformation processing equipment, sound image formation system, control method, and control program
 本開示は、情報処理装置、音像形成システム、制御方法、及び制御プログラムに関する。 The present disclosure relates to an information processing device, a sound image forming system, a control method, and a control program.
 従来、光又は音を用いて、人に方向を伝える誘導システムが提案されている。音を用いて人を誘導する場合、音像を用いる手法が知られている。例えば、音像は、複数の音源装置により、複数の音源装置の存在しない場所に形成される。人は、音像が形成された場所から音が聞こえるように感じる。そして、人は、音に従って誘導される。また、例えば、特許文献1では、音像の形成に関する技術が開示されている。特許文献1では、誘導路に沿って、複数の音源装置が配置される。複数の音源装置は、音像を形成する。 Conventionally, a guidance system that conveys a direction to a person using light or sound has been proposed. When guiding a person using sound, a method using a sound image is known. For example, a sound image is formed by a plurality of sound source devices in a place where the plurality of sound source devices do not exist. The person feels that the sound can be heard from the place where the sound image is formed. And the person is guided according to the sound. Further, for example, Patent Document 1 discloses a technique relating to the formation of a sound image. In Patent Document 1, a plurality of sound source devices are arranged along the taxiway. A plurality of sound source devices form a sound image.
特開2000-285378号公報Japanese Unexamined Patent Publication No. 2000-285378
 上記の技術の音源装置は、一般的なスピーカである。よって、上記の技術では、一般的な複数のスピーカによって、音像が形成される。しかし、一般的な複数のスピーカでは、音像を形成することができない場所がある。 The sound source device of the above technology is a general speaker. Therefore, in the above technique, a sound image is formed by a plurality of general speakers. However, there are places where a sound image cannot be formed with a general plurality of speakers.
 本開示の目的は、固定された複数のパラメトリックスピーカを用いて、あらゆる場所に音像を形成することである。 The purpose of the present disclosure is to form a sound image everywhere by using a plurality of fixed parametric speakers.
 本開示の一態様に係る情報処理装置が提供される。情報処理装置は、複数のパラメトリックスピーカを制御する。情報処理装置は、状況を示す状況情報を取得し、前記状況情報に応じた音ファイルを取得し、第1の位置を示す第1の音像位置情報を取得する取得部と、前記第1の位置に、前記音ファイルが示す音に基づく音像を形成するように、前記複数のパラメトリックスピーカを制御する制御部と、を有する。 An information processing device according to one aspect of the present disclosure is provided. The information processing device controls a plurality of parametric speakers. The information processing apparatus acquires the situation information indicating the situation, acquires the sound file corresponding to the situation information, acquires the first sound image position information indicating the first position, and the first position. It also has a control unit that controls the plurality of parametric speakers so as to form a sound image based on the sound indicated by the sound file.
 本開示によれば、固定された複数のパラメトリックスピーカを用いて、あらゆる場所に音像を形成することができる。 According to the present disclosure, a sound image can be formed everywhere by using a plurality of fixed parametric speakers.
実施の形態1の音像形成システムの例を示す図である。It is a figure which shows the example of the sound image formation system of Embodiment 1. FIG. 実施の形態1の情報処理装置が有する機能ブロックを示す図である。It is a figure which shows the functional block which the information processing apparatus of Embodiment 1 has. 実施の形態1の関係テーブルの例を示す図である。It is a figure which shows the example of the relational table of Embodiment 1. FIG. 実施の形態1の情報処理装置が実行する処理の例を示すフローチャートである。It is a flowchart which shows the example of the process which the information processing apparatus of Embodiment 1 performs. 実施の形態1の音像の移動の具体例を示す図である。It is a figure which shows the specific example of the movement of the sound image of Embodiment 1. FIG. 実施の形態1の移動経路上に音像を形成する場合の具体例を示す図である。It is a figure which shows the specific example in the case of forming a sound image on the movement path of Embodiment 1. FIG. 実施の形態2の情報処理装置が有する機能ブロックを示す図である。It is a figure which shows the functional block which the information processing apparatus of Embodiment 2 has. 実施の形態2の情報処理装置が実行する処理の例を示すフローチャートである。It is a flowchart which shows the example of the process which the information processing apparatus of Embodiment 2 performs. 実施の形態3の情報処理装置が有する機能ブロックを示す図である。It is a figure which shows the functional block which the information processing apparatus of Embodiment 3 has. 実施の形態3の情報処理装置が実行する処理の例を示すフローチャートである。It is a flowchart which shows the example of the process which the information processing apparatus of Embodiment 3 executes. 実施の形態4の情報処理装置が有する機能ブロックを示す図である。It is a figure which shows the functional block which the information processing apparatus of Embodiment 4 has. 実施の形態4の情報処理装置が実行する処理の例を示すフローチャートである。It is a flowchart which shows the example of the process which the information processing apparatus of Embodiment 4 executes. 実施の形態5の情報処理装置が有する機能ブロックを示す図である。It is a figure which shows the functional block which the information processing apparatus of Embodiment 5 has. 実施の形態5の情報処理装置が実行する処理の例を示すフローチャートである。It is a flowchart which shows the example of the process which the information processing apparatus of Embodiment 5 executes. 実施の形態5の画像ファイルが示す画像の具体例を示す図である。It is a figure which shows the specific example of the image which the image file of Embodiment 5 shows. 実施の形態6の情報処理装置が有する機能ブロックを示す図である。It is a figure which shows the functional block which the information processing apparatus of Embodiment 6 has. 実施の形態6の情報処理装置が実行する処理の例を示すフローチャートである。It is a flowchart which shows the example of the process which the information processing apparatus of Embodiment 6 executes.
 以下、図面を参照しながら実施の形態を説明する。以下の実施の形態は、例にすぎず、本開示の範囲内で種々の変更が可能である。 Hereinafter, embodiments will be described with reference to the drawings. The following embodiments are merely examples, and various modifications can be made within the scope of the present disclosure.
実施の形態1.
 図1は、実施の形態1の音像形成システムの例を示す図である。音像形成システムは、情報処理装置100と複数のパラメトリックスピーカとを含む。音像形成システムは、さらに、DA(Digital Analog)変換部、変調部、及びアンプを含んでもよい。
Embodiment 1.
FIG. 1 is a diagram showing an example of the sound image forming system of the first embodiment. The sound image forming system includes an information processing device 100 and a plurality of parametric speakers. The sound image forming system may further include a DA (Digital Analog) converter, a modulator, and an amplifier.
 情報処理装置100は、誘導装置と呼んでもよい。情報処理装置100は、制御方法を実行する装置である。例えば、情報処理装置100は、PC(Personal Computer)である。情報処理装置100は、プロセッサ101、揮発性記憶装置102、及び不揮発性記憶装置103を有する。 The information processing device 100 may be called a guidance device. The information processing device 100 is a device that executes a control method. For example, the information processing apparatus 100 is a PC (Personal Computer). The information processing device 100 includes a processor 101, a volatile storage device 102, and a non-volatile storage device 103.
 プロセッサ101は、情報処理装置100全体を制御する。例えば、プロセッサ101は、CPU(Central Processing Unit)、FPGA(Field Programmable Gate Array)などである。プロセッサ101は、マルチプロセッサでもよい。情報処理装置100は、プロセッサ101に変えて、処理回路を有してもよい。処理回路は、単一回路又は複合回路でもよい。 The processor 101 controls the entire information processing device 100. For example, the processor 101 is a CPU (Central Processing Unit), an FPGA (Field Programmable Gate Array), or the like. The processor 101 may be a multiprocessor. The information processing apparatus 100 may have a processing circuit instead of the processor 101. The processing circuit may be a single circuit or a composite circuit.
 揮発性記憶装置102は、情報処理装置100の主記憶装置である。例えば、揮発性記憶装置102は、RAM(Random Access Memory)である。不揮発性記憶装置103は、情報処理装置100の補助記憶装置である。例えば、不揮発性記憶装置103は、HDD(Hard Disk Drive)、又はSSD(Solid State Drive)である。 The volatile storage device 102 is the main storage device of the information processing device 100. For example, the volatile storage device 102 is a RAM (Random Access Memory). The non-volatile storage device 103 is an auxiliary storage device of the information processing device 100. For example, the non-volatile storage device 103 is an HDD (Hard Disk Drive) or an SSD (Solid State Drive).
 図1は、2つのパラメトリックスピーカを示している。パラメトリックスピーカの数は、2つに限らない。以下の説明では、パラメトリックスピーカの数は、2つとする。2つのパラメトリックスピーカは、パラメトリックスピーカ200,201である。 FIG. 1 shows two parametric speakers. The number of parametric speakers is not limited to two. In the following description, the number of parametric speakers is two. The two parametric speakers are parametric speakers 200 and 201.
 情報処理装置100は、DA変換部300、変調部400、及びアンプ500を介して、パラメトリックスピーカ200と接続する。情報処理装置100は、DA変換部300、変調部400、及びアンプ500を介して、パラメトリックスピーカ200を制御する。
 情報処理装置100は、DA変換部301、変調部401、及びアンプ501を介して、パラメトリックスピーカ201と接続する。情報処理装置100は、DA変換部301、変調部401、及びアンプ501を介して、パラメトリックスピーカ201を制御する。
The information processing apparatus 100 is connected to the parametric speaker 200 via the DA conversion unit 300, the modulation unit 400, and the amplifier 500. The information processing apparatus 100 controls the parametric speaker 200 via the DA conversion unit 300, the modulation unit 400, and the amplifier 500.
The information processing device 100 is connected to the parametric speaker 201 via the DA conversion unit 301, the modulation unit 401, and the amplifier 501. The information processing apparatus 100 controls the parametric speaker 201 via the DA conversion unit 301, the modulation unit 401, and the amplifier 501.
 DA変換部300,301は、DA変換回路と呼んでもよい。変調部400,401は、変調回路と呼んでもよい。
 DA変換部300,301と変調部400,401は、情報処理装置100の内部に存在してもよい。
The DA conversion units 300 and 301 may be called a DA conversion circuit. The modulation units 400 and 401 may be referred to as a modulation circuit.
The DA conversion units 300, 301 and the modulation units 400, 401 may exist inside the information processing apparatus 100.
 DA変換部300,301は、デジタル信号をアナログ信号に変換する。変調部400,401は、アナログ信号を変調する。例えば、変調は、振幅変調(AM:amplitude modulation)、DSB(Double Side Band)変調、SSB(Single Side Band)変調などである。アンプ500,501は、信号を増幅する。 The DA conversion units 300 and 301 convert digital signals into analog signals. The modulation units 400 and 401 modulate the analog signal. For example, the modulation includes amplitude modulation (AM: amplitude modulation), DSB (Double Side Band) modulation, SSB (Single Side Band) modulation, and the like. Amplifiers 500 and 501 amplify the signal.
 次に、情報処理装置100が有する機能を説明する。
 図2は、実施の形態1の情報処理装置が有する機能ブロックを示す図である。なお、図2では、DA変換部300,301、変調部400,401、及びアンプ500,501が省略されている。
 情報処理装置100は、記憶部110、取得部120、及び制御部130を有する。
Next, the functions of the information processing apparatus 100 will be described.
FIG. 2 is a diagram showing a functional block included in the information processing apparatus of the first embodiment. In FIG. 2, DA conversion units 300, 301, modulation units 400, 401, and amplifiers 500, 501 are omitted.
The information processing device 100 has a storage unit 110, an acquisition unit 120, and a control unit 130.
 記憶部110は、揮発性記憶装置102又は不揮発性記憶装置103に確保した記憶領域として実現してもよい。
 取得部120及び制御部130の一部又は全部は、処理回路によって実現してもよい。また、取得部120及び制御部130の一部又は全部は、プロセッサ101が実行するプログラムのモジュールとして実現してもよい。例えば、プロセッサ101が実行するプログラムは、制御プログラムとも言う。例えば、制御プログラムは、記録媒体に記録されている。
The storage unit 110 may be realized as a storage area secured in the volatile storage device 102 or the non-volatile storage device 103.
A part or all of the acquisition unit 120 and the control unit 130 may be realized by a processing circuit. Further, a part or all of the acquisition unit 120 and the control unit 130 may be realized as a module of a program executed by the processor 101. For example, the program executed by the processor 101 is also referred to as a control program. For example, the control program is recorded on a recording medium.
 記憶部110は、音ファイルを記憶してもよい。なお、音ファイルは、mp3などの形式の音データである。記憶部110は、関係テーブルを記憶する。ここで、関係テーブルを具体的に例示する。 The storage unit 110 may store a sound file. The sound file is sound data in a format such as mp3. The storage unit 110 stores the relationship table. Here, the relational table is specifically illustrated.
 図3は、実施の形態1の関係テーブルの例を示す図である。関係テーブル111は、記憶部110に格納される。関係テーブル111は、状況情報と音の項目を有する。状況情報については、後で説明する。また、関係テーブル111の使用方法については、後で説明する。 FIG. 3 is a diagram showing an example of the relationship table of the first embodiment. The relationship table 111 is stored in the storage unit 110. The relationship table 111 has status information and sound items. The status information will be described later. Further, how to use the relation table 111 will be described later.
 記憶部110は、音像位置情報を記憶してもよい。音像位置情報は、音像を形成する位置を示す情報である。また、音像位置情報が示す位置は、直交座標又は極座標で表されてもよい。ここで、音像は、仮想音源とも言う。 The storage unit 110 may store the sound image position information. The sound image position information is information indicating the position where the sound image is formed. Further, the position indicated by the sound image position information may be represented by Cartesian coordinates or polar coordinates. Here, the sound image is also referred to as a virtual sound source.
 取得部120は、状況情報を取得する。例えば、取得部120は、情報処理装置100と通信するシステムから状況情報を取得する。また、例えば、取得部120は、管理者による入力操作により、状況情報を取得する。
 ここで、状況情報とは、状況を示す情報である。例えば、状況情報は、通常又は緊急であることを示す。
The acquisition unit 120 acquires status information. For example, the acquisition unit 120 acquires status information from a system that communicates with the information processing device 100. Further, for example, the acquisition unit 120 acquires the status information by an input operation by the administrator.
Here, the situation information is information indicating the situation. For example, status information indicates normal or urgent.
 取得部120は、状況情報が取得された場合、状況情報に応じた音ファイルを取得する。詳細には、取得部120は、関係テーブル111に基づいて、状況情報が示す状況に応じた音を特定する。例えば、状況情報が緊急の状況であることを示している場合、取得部120は、ブザー音を特定する。取得部120は、特定された音の音ファイルを取得する。例えば、取得部120は、ブザー音の音ファイルを取得する。ここで、音ファイルの取得方法を説明する。例えば、取得部120は、音ファイルを記憶部110から取得する。また、例えば、取得部120は、情報処理装置100に接続可能な外部装置から音ファイルを取得する。なお、例えば、外部装置は、クラウドサーバである。 When the status information is acquired, the acquisition unit 120 acquires the sound file corresponding to the status information. Specifically, the acquisition unit 120 identifies the sound according to the situation indicated by the situation information based on the relation table 111. For example, when the situation information indicates an urgent situation, the acquisition unit 120 identifies the buzzer sound. The acquisition unit 120 acquires the sound file of the specified sound. For example, the acquisition unit 120 acquires a buzzer sound file. Here, a method of acquiring a sound file will be described. For example, the acquisition unit 120 acquires the sound file from the storage unit 110. Further, for example, the acquisition unit 120 acquires a sound file from an external device that can be connected to the information processing device 100. For example, the external device is a cloud server.
 取得部120は、音像位置情報を取得する。例えば、取得部120は、音像位置情報を記憶部110から取得する。また、例えば、取得部120は、音像位置情報を当該外部装置から取得する。 The acquisition unit 120 acquires the sound image position information. For example, the acquisition unit 120 acquires sound image position information from the storage unit 110. Further, for example, the acquisition unit 120 acquires sound image position information from the external device.
 制御部130は、音像位置情報が示す位置に、音ファイルが示す音に基づく音像を形成するように、パラメトリックスピーカ200,201を制御する。なお、音像を形成する方法として、制御部130は、振幅パンニングを用いて、パラメトリックスピーカ200,201に音像を形成させてもよい。また、制御部130は、HRTF(Head‐Related Transfer Function)を利用したトランスオーラル又は遅延制御を用いて、パラメトリックスピーカ200,201に音像を形成させてもよい。音像を形成する方法は、これら以外の方法でもよい。 The control unit 130 controls the parametric speakers 200 and 201 so as to form a sound image based on the sound indicated by the sound file at the position indicated by the sound image position information. As a method of forming a sound image, the control unit 130 may cause the parametric speakers 200 and 201 to form a sound image by using amplitude panning. Further, the control unit 130 may form a sound image on the parametric speakers 200, 201 by using transoral or delay control using an HRTF (Head-Related Transfer Function). The method for forming the sound image may be a method other than these.
 また、取得部120は、複数の音像位置情報を取得する。複数の音像位置情報のそれぞれは、異なる位置を示す。制御部130は、複数の音像位置情報が示す位置に、音像を形成するように、パラメトリックスピーカ200,201を制御する。これにより、情報処理装置100は、音像を移動させることができる。 Further, the acquisition unit 120 acquires a plurality of sound image position information. Each of the plurality of sound image position information indicates a different position. The control unit 130 controls the parametric speakers 200 and 201 so as to form a sound image at a position indicated by a plurality of sound image position information. As a result, the information processing apparatus 100 can move the sound image.
 次に、情報処理装置100が実行する処理を、フローチャートを用いて説明する。
 図4は、実施の形態1の情報処理装置が実行する処理の例を示すフローチャートである。
 (ステップS11)取得部120は、状況情報を取得する。
 (ステップS12)取得部120は、状況情報に応じた音ファイルを取得する。
 (ステップS13)取得部120は、音像位置情報を取得する。なお、当該音像位置情報は、第1の音像位置情報と呼んでもよい。当該音像位置情報が示す位置は、第1の位置と呼んでもよい。
Next, the process executed by the information processing apparatus 100 will be described with reference to the flowchart.
FIG. 4 is a flowchart showing an example of processing executed by the information processing apparatus of the first embodiment.
(Step S11) The acquisition unit 120 acquires status information.
(Step S12) The acquisition unit 120 acquires a sound file according to the situation information.
(Step S13) The acquisition unit 120 acquires sound image position information. The sound image position information may be referred to as the first sound image position information. The position indicated by the sound image position information may be referred to as a first position.
 (ステップS14)制御部130は、音像位置情報が示す位置に音像を形成するための制御内容を決定する。例えば、パラメトリックスピーカ200の付近に音像を形成する場合、制御内容は、パラメトリックスピーカ200の音量とパラメトリックスピーカ201の音量との比が“9:1”になるように、パラメトリックスピーカ200,201を制御することを示す。また、例えば、パラメトリックスピーカ200とパラメトリックスピーカ201との中央に音像を形成する場合、制御内容は、パラメトリックスピーカ200の音量とパラメトリックスピーカ201の音量との比が“5:5”になるように、パラメトリックスピーカ200,201を制御することを示す。なお、音量は、音圧と考えてもよい。また、例えば、制御内容は、パラメトリックスピーカ200とパラメトリックスピーカ201とに、同時に超音波を出力させることを示す。
 また、制御内容には、音ファイルの音を出力させることが含まれる。
(Step S14) The control unit 130 determines the control content for forming the sound image at the position indicated by the sound image position information. For example, when a sound image is formed in the vicinity of the parametric speaker 200, the control content controls the parametric speakers 200, 201 so that the ratio of the volume of the parametric speaker 200 to the volume of the parametric speaker 201 is “9: 1”. Show that you do. Further, for example, when a sound image is formed in the center of the parametric speaker 200 and the parametric speaker 201, the control content is such that the ratio of the volume of the parametric speaker 200 to the volume of the parametric speaker 201 is “5: 5”. Indicates that the parametric speakers 200 and 201 are controlled. The volume may be considered as sound pressure. Further, for example, the control content indicates that the parametric speaker 200 and the parametric speaker 201 simultaneously output ultrasonic waves.
Further, the control content includes outputting the sound of the sound file.
 (ステップS15)制御部130は、制御内容に基づいて、駆動信号を生成する。
 (ステップS16)制御部130は、駆動信号を送信する。
 パラメトリックスピーカ200,201は、駆動信号に基づいて、音ファイルが示す音が変調された超音波を出力する。これにより、音像位置情報が示す位置に音像が形成される。例えば、音像は、床又は壁に形成される。
(Step S15) The control unit 130 generates a drive signal based on the control content.
(Step S16) The control unit 130 transmits a drive signal.
The parametric speakers 200 and 201 output ultrasonic waves in which the sound indicated by the sound file is modulated based on the drive signal. As a result, the sound image is formed at the position indicated by the sound image position information. For example, the sound image is formed on the floor or wall.
 (ステップS17)制御部130は、処理を終了するか否かを判定する。例えば、情報処理装置100と通信するシステムが送信した終了指示を情報処理装置100が受信した場合、制御部130は、処理を終了すると判定する。
 処理を終了する場合、処理は、終了する。処理を終了しない場合、処理は、ステップS13に進む。ステップS13~16が繰り返されることで、ユーザは、音像が移動するように感じる。
(Step S17) The control unit 130 determines whether or not to end the process. For example, when the information processing apparatus 100 receives the end instruction transmitted by the system communicating with the information processing apparatus 100, the control unit 130 determines that the processing is terminated.
When the process ends, the process ends. If the process is not completed, the process proceeds to step S13. By repeating steps S13 to 16, the user feels that the sound image moves.
 情報処理装置100は、音像が直線に移動するように、パラメトリックスピーカ200,201を制御してもよい。また、情報処理装置100は、音像がジグザクに移動するように、パラメトリックスピーカ200,201を制御してもよい。 The information processing device 100 may control the parametric speakers 200 and 201 so that the sound image moves in a straight line. Further, the information processing apparatus 100 may control the parametric speakers 200 and 201 so that the sound image moves in a zigzag manner.
 次に、音像の移動の具体例を示す。
 図5は、実施の形態1の音像の移動の具体例を示す図である。パラメトリックスピーカ200,201は、移動経路上に配置されている。
 例えば、音像位置情報が、パラメトリックスピーカ200の位置を示している場合、情報処理装置100は、パラメトリックスピーカ200の位置に音像を形成するように、パラメトリックスピーカ200,201を制御する。パラメトリックスピーカ200,201は、情報処理装置100の制御により、音像600を形成する。
Next, a specific example of the movement of the sound image will be shown.
FIG. 5 is a diagram showing a specific example of the movement of the sound image according to the first embodiment. The parametric speakers 200 and 201 are arranged on the movement path.
For example, when the sound image position information indicates the position of the parametric speaker 200, the information processing apparatus 100 controls the parametric speakers 200 and 201 so as to form a sound image at the position of the parametric speaker 200. The parametric speakers 200 and 201 form a sound image 600 under the control of the information processing apparatus 100.
 また、例えば、音像位置情報が、パラメトリックスピーカ200の位置の隣の位置を示している場合、情報処理装置100は、当該隣の位置に音像を形成するように、パラメトリックスピーカ200,201を制御する。パラメトリックスピーカ200,201は、情報処理装置100の制御により、音像601を形成する。 Further, for example, when the sound image position information indicates a position next to the position of the parametric speaker 200, the information processing apparatus 100 controls the parametric speakers 200, 201 so as to form a sound image at the adjacent position. .. The parametric speakers 200 and 201 form a sound image 601 under the control of the information processing apparatus 100.
 例えば、パラメトリックスピーカ200,201は、緊急な状況(例えば、火事)で、ブザー音が変調された超音波を出力する。当該超音波が出力されることで、音像が形成される。そして、ユーザU1は、音像からブザー音が出力されていると感じる。パラメトリックスピーカ200,201が音像の形成を繰り返すことで、音像が移動する。音像が移動する方向には、非常口がある。ユーザU1は、音像が移動する方向に誘導される。これにより、ユーザU1は、非常口にたどり着くことができる。 For example, the parametric speakers 200 and 201 output ultrasonic waves with a modulated buzzer sound in an emergency situation (for example, a fire). A sound image is formed by outputting the ultrasonic wave. Then, the user U1 feels that the buzzer sound is output from the sound image. The sound image moves as the parametric speakers 200 and 201 repeat the formation of the sound image. There is an emergency exit in the direction in which the sound image moves. The user U1 is guided in the direction in which the sound image moves. As a result, the user U1 can reach the emergency exit.
 ところで、一般的な複数のスピーカは、音像を形成することができる。しかし、一般的な複数のスピーカは、スピーカ間を結ぶ線分上、又は多角形内以外の場所に音像を形成することが出来ない。例えば、一般的な複数のスピーカが天井に設置されている場合、一般的な複数のスピーカは、スピーカの下の床又は壁に音像を形成することが出来ない。 By the way, a general plurality of speakers can form a sound image. However, a general plurality of speakers cannot form a sound image at a place other than on a line segment connecting the speakers or within a polygon. For example, when a plurality of general speakers are installed on the ceiling, the general plurality of speakers cannot form a sound image on the floor or wall under the speaker.
 情報処理装置100は、パラメトリックスピーカ200,201を制御することで、パラメトリックスピーカ200、201の指向性が壁又は床にぶつかる点の間に音像を形成することができる。具体的には、情報処理装置100は、パラメトリックスピーカ200,201を制御することで、パラメトリックスピーカ200の下の床又は壁に音像を形成することができる。 By controlling the parametric speakers 200 and 201, the information processing apparatus 100 can form a sound image between the points where the directivity of the parametric speakers 200 and 201 hits the wall or the floor. Specifically, the information processing apparatus 100 can form a sound image on the floor or wall under the parametric speaker 200 by controlling the parametric speakers 200 and 201.
 また、情報処理装置100は、パラメトリックスピーカ200,201を制御することで、パラメトリックスピーカ200とパラメトリックスピーカ201との間に音像を形成することができる。
 よって、情報処理装置100は、固定された複数のパラメトリックスピーカを用いて、あらゆる場所に音像を形成することができる。
Further, the information processing apparatus 100 can form a sound image between the parametric speaker 200 and the parametric speaker 201 by controlling the parametric speakers 200 and 201.
Therefore, the information processing apparatus 100 can form a sound image at any place by using a plurality of fixed parametric speakers.
 なお、様々な場所に音像を形成するために、1台のパラメトリックスピーカを機械的に動かす方法が考えられる。しかし、当該方法では、パラメトリックスピーカに可動部を設ける必要がある。そのため、可動部を有するパラメトリックスピーカの製造コストは、高くなる。また、パラメトリックスピーカは、振動に弱い。そのため、パラメトリックスピーカが動くことは、望ましいと言えない。 In order to form sound images in various places, a method of mechanically moving one parametric speaker can be considered. However, in this method, it is necessary to provide a movable part in the parametric speaker. Therefore, the manufacturing cost of the parametric speaker having a movable part is high. Moreover, the parametric speaker is vulnerable to vibration. Therefore, it is not desirable for the parametric speaker to move.
 一方、パラメトリックスピーカ200,201は、動かずに音像を形成する。パラメトリックスピーカ200,201が動かないため、パラメトリックスピーカ200,201が振動することがない。また、パラメトリックスピーカ200,201が動かないため、パラメトリックスピーカ200,201は、可動部を有していなくてもよい。可動部を有していないパラメトリックスピーカ200,201の製造コストは、低く抑えることができる。 On the other hand, the parametric speakers 200 and 201 form a sound image without moving. Since the parametric speakers 200 and 201 do not move, the parametric speakers 200 and 201 do not vibrate. Further, since the parametric speakers 200 and 201 do not move, the parametric speakers 200 and 201 do not have to have a movable portion. The manufacturing cost of the parametric speakers 200 and 201 having no moving portion can be kept low.
 さらに、パラメトリックスピーカ200とパラメトリックスピーカ201とが移動経路上に配置されていない場合でも、パラメトリックスピーカ200とパラメトリックスピーカ201は、移動経路上に音像を形成することができる。具体的に例を示す。 Further, even when the parametric speaker 200 and the parametric speaker 201 are not arranged on the moving path, the parametric speaker 200 and the parametric speaker 201 can form a sound image on the moving path. A specific example is shown.
 図6は、実施の形態1の移動経路上に音像を形成する場合の具体例を示す図である。図6は、パラメトリックスピーカ200とパラメトリックスピーカ201とが移動経路上に配置されていないことを示している。すなわち、パラメトリックスピーカ200とパラメトリックスピーカ201とは、直線的に配置されていない。図6は、音像700,701を示している。 FIG. 6 is a diagram showing a specific example in the case of forming a sound image on the movement path of the first embodiment. FIG. 6 shows that the parametric speaker 200 and the parametric speaker 201 are not arranged on the movement path. That is, the parametric speaker 200 and the parametric speaker 201 are not arranged linearly. FIG. 6 shows sound images 700 and 701.
 パラメトリックスピーカは、指向性が鋭い。そのため、パラメトリックスピーカ200とパラメトリックスピーカ201とが移動経路上に配置されていない場合でも、パラメトリックスピーカ200とパラメトリックスピーカ201は、指向性を移動経路上に向けることで、移動経路上に音像を形成することができる。 Parametric speakers have sharp directivity. Therefore, even when the parametric speaker 200 and the parametric speaker 201 are not arranged on the moving path, the parametric speaker 200 and the parametric speaker 201 form a sound image on the moving path by directing the directivity on the moving path. be able to.
 また、実施の形態1によれば、情報処理装置100は、状況に応じた音に基づく超音波をパラメトリックスピーカ200とパラメトリックスピーカ201に出力させることで、音像から当該音が出力しているように感じさせることができる。 Further, according to the first embodiment, the information processing apparatus 100 outputs ultrasonic waves based on sounds according to the situation to the parametric speaker 200 and the parametric speaker 201 so that the sound is output from the sound image. You can feel it.
 上記では、ユーザU1を誘導する場合を例示した。情報処理装置100は、パラメトリックスピーカ200,201を制御することで、視覚障害者、群衆、動物などを誘導してもよい。 In the above, the case of inducing the user U1 was illustrated. The information processing apparatus 100 may guide visually impaired people, crowds, animals, and the like by controlling the parametric speakers 200 and 201.
実施の形態2.
 次に、実施の形態2を説明する。実施の形態2では、実施の形態1と相違する事項を主に説明する。そして、実施の形態2では、実施の形態1と共通する事項の説明を省略する。実施の形態2の説明では、図1~6を参照する。
Embodiment 2.
Next, the second embodiment will be described. In the second embodiment, the matters different from the first embodiment will be mainly described. Then, in the second embodiment, the description of the matters common to the first embodiment will be omitted. In the description of the second embodiment, FIGS. 1 to 6 are referred to.
 図7は、実施の形態2の情報処理装置が有する機能ブロックを示す図である。図2に示される構成と同じ図7の構成は、図2に示される符号と同じ符号を付している。情報処理装置100aは、生成部140aを有する。
 生成部140aの一部又は全部は、処理回路によって実現してもよい。また、生成部140aの一部又は全部は、プロセッサ101が実行するプログラムのモジュールとして実現してもよい。
FIG. 7 is a diagram showing a functional block included in the information processing apparatus of the second embodiment. The configuration of FIG. 7, which is the same as the configuration shown in FIG. 2, has the same reference numerals as those shown in FIG. The information processing apparatus 100a has a generation unit 140a.
A part or all of the generation unit 140a may be realized by a processing circuit. Further, a part or all of the generation unit 140a may be realized as a module of a program executed by the processor 101.
 生成部140aは、音ファイルが示す音の周波数帯域の中から変更対象の周波数帯域を特定する。なお、周波数帯域は、帯域幅とも言う。生成部140aは、特定された周波数帯域の振幅を大きくする処理又は特定された周波数帯域の振幅を小さくする処理を実行することにより、新たな音ファイルを生成する。
 制御部130は、音像位置情報が示す位置に、新たな音ファイルが示す音に基づく音像を形成するように、パラメトリックスピーカ200,201を制御する。
The generation unit 140a specifies the frequency band to be changed from the frequency bands of the sound indicated by the sound file. The frequency band is also referred to as a bandwidth. The generation unit 140a generates a new sound file by executing a process of increasing the amplitude of the specified frequency band or a process of decreasing the amplitude of the specified frequency band.
The control unit 130 controls the parametric speakers 200 and 201 so as to form a sound image based on the sound indicated by the new sound file at the position indicated by the sound image position information.
 次に、情報処理装置100aが実行する処理を、フローチャートを用いて説明する。
 図8は、実施の形態2の情報処理装置が実行する処理の例を示すフローチャートである。図8の処理では、ステップS13aが実行され、ステップS14がステップS14aに変更される点が図4の処理と異なる。そのため、図8では、ステップS13a,14aを説明する。そして、ステップS13a,14a以外の処理の説明は、省略する。
Next, the process executed by the information processing apparatus 100a will be described with reference to the flowchart.
FIG. 8 is a flowchart showing an example of processing executed by the information processing apparatus of the second embodiment. The process of FIG. 8 differs from the process of FIG. 4 in that step S13a is executed and step S14 is changed to step S14a. Therefore, in FIG. 8, steps S13a and 14a will be described. The description of the processes other than steps S13a and 14a will be omitted.
 (ステップS13a)生成部140aは、ステップS12で取得された音ファイルが示す音の周波数帯域の中から変更対象の周波数帯域を特定する。詳細には、生成部140aは、音像位置情報が示す位置に基づいて、当該音の周波数帯域の中から変更対象の周波数帯域を特定する。例えば、生成部140aは、音像位置情報が示す位置と変更対象の周波数帯域との対応関係を示す情報と、音像位置情報とに基づいて、当該音の周波数帯域の中から変更対象の周波数帯域を特定する。 (Step S13a) The generation unit 140a specifies the frequency band to be changed from the frequency bands of the sound indicated by the sound file acquired in step S12. Specifically, the generation unit 140a identifies the frequency band to be changed from the frequency band of the sound based on the position indicated by the sound image position information. For example, the generation unit 140a selects the frequency band to be changed from the frequency band of the sound based on the information indicating the correspondence between the position indicated by the sound image position information and the frequency band to be changed and the sound image position information. Identify.
 生成部140aは、特定された周波数帯域の振幅を大きくする処理又は特定された周波数帯域の振幅を小さくする処理を実行する。生成部140aは、処理を実行することにより、新たな音ファイルを生成する。言い換えれば、生成部140aは、ステップS12で取得された音ファイルに基づいて、新たな音ファイルを生成する。これにより、例えば、ステップS12で取得された音ファイルが示す音がブザー音である場合、新たな音ファイルでは、ブザー音の一部が強調される。
 なお、新たな音ファイルを生成するは、ステップS12で取得された音ファイルが書き換わると表現してもよい。
The generation unit 140a executes a process of increasing the amplitude of the specified frequency band or a process of decreasing the amplitude of the specified frequency band. The generation unit 140a generates a new sound file by executing the process. In other words, the generation unit 140a generates a new sound file based on the sound file acquired in step S12. As a result, for example, when the sound indicated by the sound file acquired in step S12 is a buzzer sound, a part of the buzzer sound is emphasized in the new sound file.
It should be noted that generating a new sound file may be expressed as rewriting the sound file acquired in step S12.
 (ステップS14a)制御部130は、音像位置情報が示す位置に音像を形成するための制御内容を決定する。また、制御内容には、ステップS13aで生成された音ファイルの音を出力させることが含まれる。
 これにより、例えば、パラメトリックスピーカ200,201は、一部が強調された音を出力する。
(Step S14a) The control unit 130 determines the control content for forming the sound image at the position indicated by the sound image position information. Further, the control content includes outputting the sound of the sound file generated in step S13a.
As a result, for example, the parametric speakers 200 and 201 output a partially emphasized sound.
 実施の形態2によれば、パラメトリックスピーカ200,201が、新たに生成された音ファイルが示す音に基づく超音波を出力することで、当該音が、音像位置情報が示す位置にフォーカスされやすくなる。すなわち、パラメトリックスピーカ200,201は、容易に、音像位置情報が示す位置に音像を形成できる。 According to the second embodiment, the parametric speakers 200 and 201 output ultrasonic waves based on the sound indicated by the newly generated sound file, so that the sound can be easily focused on the position indicated by the sound image position information. .. That is, the parametric speakers 200 and 201 can easily form a sound image at the position indicated by the sound image position information.
実施の形態3.
 次に、実施の形態3を説明する。実施の形態3では、実施の形態1と相違する事項を主に説明する。そして、実施の形態3では、実施の形態1と共通する事項の説明を省略する。実施の形態3の説明では、図1~6を参照する。
Embodiment 3.
Next, the third embodiment will be described. In the third embodiment, the matters different from the first embodiment will be mainly described. Then, in the third embodiment, the description of the matters common to the first embodiment will be omitted. In the description of the third embodiment, FIGS. 1 to 6 are referred to.
 図9は、実施の形態3の情報処理装置が有する機能ブロックを示す図である。図2に示される構成と同じ図9の構成は、図2に示される符号と同じ符号を付している。情報処理装置100bは、生成部140bを有する。
 生成部140bの一部又は全部は、処理回路によって実現してもよい。また、生成部140bの一部又は全部は、プロセッサ101が実行するプログラムのモジュールとして実現してもよい。
FIG. 9 is a diagram showing a functional block included in the information processing apparatus of the third embodiment. The configuration of FIG. 9, which is the same as the configuration shown in FIG. 2, has the same reference numerals as those shown in FIG. The information processing apparatus 100b has a generation unit 140b.
A part or all of the generation unit 140b may be realized by a processing circuit. Further, a part or all of the generation unit 140b may be realized as a module of a program executed by the processor 101.
 生成部140bは、音像位置情報が示す位置が、パラメトリックスピーカ200とパラメトリックスピーカ201との間の真ん中の位置に近いほど、音の立ち上がり部分が強調される音ファイルを、取得部120が取得した音ファイルに基づいて新たに生成する。ここで、パラメトリックスピーカ200は、第1のパラメトリックスピーカと呼んでもよい。パラメトリックスピーカ201は、第2のパラメトリックスピーカと呼んでもよい。
 制御部130は、音像位置情報が示す位置に、新たに生成された音ファイルが示す音に基づく音像を形成するように、パラメトリックスピーカ200,201を制御する。
The generation unit 140b obtains a sound file in which the rising portion of the sound is emphasized as the position indicated by the sound image position information is closer to the center position between the parametric speaker 200 and the parametric speaker 201. Generate a new one based on the file. Here, the parametric speaker 200 may be referred to as a first parametric speaker. The parametric speaker 201 may be referred to as a second parametric speaker.
The control unit 130 controls the parametric speakers 200 and 201 so as to form a sound image based on the sound indicated by the newly generated sound file at the position indicated by the sound image position information.
 次に、情報処理装置100bが実行する処理を、フローチャートを用いて説明する。
 図10は、実施の形態3の情報処理装置が実行する処理の例を示すフローチャートである。図10の処理では、ステップS13bが実行され、ステップS14がステップS14bに変更される点が図4の処理と異なる。そのため、図10では、ステップS13b,14bを説明する。そして、ステップS13b,14b以外の処理の説明は、省略する。
Next, the process executed by the information processing apparatus 100b will be described with reference to the flowchart.
FIG. 10 is a flowchart showing an example of processing executed by the information processing apparatus according to the third embodiment. The process of FIG. 10 differs from the process of FIG. 4 in that step S13b is executed and step S14 is changed to step S14b. Therefore, in FIG. 10, steps S13b and 14b will be described. The description of the processes other than steps S13b and 14b will be omitted.
 (ステップS13b)生成部140bは、ステップS13で取得された音像位置情報が示す位置が、パラメトリックスピーカ200とパラメトリックスピーカ201との間の真ん中の位置に近いほど、ステップS12で取得された音ファイルが示す音の立ち上がり部分が強調される音ファイルを、新たに生成する。具体例を用いて、生成処理を説明する。生成部140bは、当該真ん中の位置を示す位置情報を記憶部110から取得する。生成部140bは、当該位置情報が示す真ん中の位置と音像位置情報が示す位置とを比較する。生成部140bは、比較結果に基づいて、ステップS12で取得された音ファイルが示す音の立ち上がり部分をどのくらい強調するかを決定する。また、音像位置情報が示す位置が真ん中の位置である場合、生成部140bは、音ファイルが示す音の立ち上がり部分を一番強調することを決定する。生成部140bは、ステップS12で取得された音ファイルと、決定の内容とに基づいて、新たな音ファイルを生成する。なお、音を強調する方法として、振幅を大きくすることで、音が強調される。 (Step S13b) In the generation unit 140b, the closer the position indicated by the sound image position information acquired in step S13 is to the center position between the parametric speaker 200 and the parametric speaker 201, the closer the sound file acquired in step S12 is. A new sound file is generated in which the rising part of the indicated sound is emphasized. The generation process will be described with reference to a specific example. The generation unit 140b acquires position information indicating the center position from the storage unit 110. The generation unit 140b compares the center position indicated by the position information with the position indicated by the sound image position information. Based on the comparison result, the generation unit 140b determines how much the rising portion of the sound indicated by the sound file acquired in step S12 is emphasized. Further, when the position indicated by the sound image position information is the center position, the generation unit 140b determines that the rising portion of the sound indicated by the sound file is emphasized most. The generation unit 140b generates a new sound file based on the sound file acquired in step S12 and the content of the determination. As a method of emphasizing the sound, the sound is emphasized by increasing the amplitude.
 このように、音の立ち上がり部分を強調した音ファイルが、生成される。
 なお、新たな音ファイルを生成するは、ステップS12で取得された音ファイルが書き換わると表現してもよい。
In this way, a sound file that emphasizes the rising part of the sound is generated.
It should be noted that generating a new sound file may be expressed as rewriting the sound file acquired in step S12.
 (ステップS14b)制御部130は、音像位置情報が示す位置に音像を形成するための制御内容を決定する。また、制御内容には、ステップS13bで生成された音ファイルの音を出力させることが含まれる。 (Step S14b) The control unit 130 determines the control content for forming the sound image at the position indicated by the sound image position information. Further, the control content includes outputting the sound of the sound file generated in step S13b.
 ステップS13,13b,14b,15,16が繰り返されることで、パラメトリックスピーカ200,201は、音像位置情報が示す位置が、パラメトリックスピーカ200とパラメトリックスピーカ201との間の真ん中の位置に近いほど、立ち上がり部分が強調される音を出力するような音像を形成することができる。 By repeating steps S13, 13b, 14b, 15, 16 so that the position indicated by the sound image position information is closer to the center position between the parametric speaker 200 and the parametric speaker 201, the parametric speaker 200, 201 rises. It is possible to form a sound image that outputs a sound in which a portion is emphasized.
 ここで、音源と音源との間の真ん中に近い位置ほど、音がハッキリしない場合がある。そこで、情報処理装置100は、音像位置情報が示す位置が、パラメトリックスピーカ200とパラメトリックスピーカ201との間の真ん中に近い位置ほど、立ち上がり部分が強調される音を出力するような音像をパラメトリックスピーカ200,201に形成させる。これにより、音がハッキリする。また、音像が移動することで、ユーザは、連続して音が移動しているように感じる。実施の形態3によれば、ユーザは、連続する音をハッキリと聞くことができる。 Here, the closer to the center between the sound sources, the less clear the sound may be. Therefore, the information processing apparatus 100 outputs a sound image in which the rising portion is emphasized as the position indicated by the sound image position information is closer to the center between the parametric speaker 200 and the parametric speaker 201. , 201. This makes the sound clearer. Further, by moving the sound image, the user feels that the sound is continuously moving. According to the third embodiment, the user can clearly hear the continuous sound.
実施の形態4.
 次に、実施の形態4を説明する。実施の形態4では、実施の形態1と相違する事項を主に説明する。そして、実施の形態4では、実施の形態1と共通する事項の説明を省略する。実施の形態4の説明では、図1~6を参照する。
Embodiment 4.
Next, the fourth embodiment will be described. In the fourth embodiment, the matters different from the first embodiment will be mainly described. Then, in the fourth embodiment, the description of the matters common to the first embodiment will be omitted. In the description of the fourth embodiment, FIGS. 1 to 6 are referred to.
 図11は、実施の形態4の情報処理装置が有する機能ブロックを示す図である。図2に示される構成と同じ図11の構成は、図2に示される符号と同じ符号を付している。情報処理装置100cは、生成部140cを有する。
 生成部140cの一部又は全部は、処理回路によって実現してもよい。また、生成部140cの一部又は全部は、プロセッサ101が実行するプログラムのモジュールとして実現してもよい。
FIG. 11 is a diagram showing a functional block included in the information processing apparatus of the fourth embodiment. The configuration of FIG. 11, which is the same as the configuration shown in FIG. 2, has the same reference numerals as those shown in FIG. The information processing apparatus 100c has a generation unit 140c.
A part or all of the generation unit 140c may be realized by a processing circuit. Further, a part or all of the generation unit 140c may be realized as a module of a program executed by the processor 101.
 生成部140cは、取得部120が取得した音ファイルに基づいて、残響が発生する音ファイルを新たに生成する。
 制御部130は、音像位置情報が示す位置に、新たに生成された音ファイルが示す音に基づく音像を形成するように、パラメトリックスピーカ200,201を制御する。
The generation unit 140c newly generates a sound file in which reverberation is generated based on the sound file acquired by the acquisition unit 120.
The control unit 130 controls the parametric speakers 200 and 201 so as to form a sound image based on the sound indicated by the newly generated sound file at the position indicated by the sound image position information.
 図12は、実施の形態4の情報処理装置が実行する処理の例を示すフローチャートである。図12の処理では、ステップS13cが実行され、ステップS14がステップS14cに変更される点が図4の処理と異なる。そのため、図12では、ステップS13c,14cを説明する。そして、ステップS13c,14c以外の処理の説明は、省略する。 FIG. 12 is a flowchart showing an example of processing executed by the information processing apparatus of the fourth embodiment. The process of FIG. 12 differs from the process of FIG. 4 in that step S13c is executed and step S14 is changed to step S14c. Therefore, in FIG. 12, steps S13c and 14c will be described. The description of the processes other than steps S13c and 14c will be omitted.
 (ステップS13c)生成部140bは、ステップS12で取得された音ファイルに基づいて、残響が発生する音ファイルを新たに生成する。具体的には、生成部140bは、ステップS12で取得された音ファイルと、Reverbエフェクトの技術とを用いて、残響が発生する音ファイルを新たに生成する。
 なお、音ファイルを新たに生成するは、ステップS12で取得された音ファイルが書き換わると表現してもよい。
(Step S13c) The generation unit 140b newly generates a sound file in which reverberation is generated based on the sound file acquired in step S12. Specifically, the generation unit 140b newly generates a sound file in which reverberation is generated by using the sound file acquired in step S12 and the technique of the Reverb effect.
Note that the sound file newly generated may be expressed as the sound file acquired in step S12 being rewritten.
 (ステップS14c)制御部130は、音像位置情報が示す位置に音像を形成するための制御内容を決定する。また、制御内容には、ステップS13cで生成された音ファイルの音を出力させることが含まれる。 (Step S14c) The control unit 130 determines the control content for forming the sound image at the position indicated by the sound image position information. Further, the control content includes outputting the sound of the sound file generated in step S13c.
 ステップS14cの後、ステップS15,16が実行される。ステップS17でNoの場合、ステップS13と,ステップS13cとが実行される。当該ステップS13cでは、生成部140bは、前回生成された音ファイルが示す音に基づく残響よりも強い残響が発生する音ファイルを新たに生成する。 After step S14c, steps S15 and 16 are executed. If No in step S17, step S13 and step S13c are executed. In the step S13c, the generation unit 140b newly generates a sound file in which a reverberation stronger than the reverberation based on the sound indicated by the previously generated sound file is generated.
 そして、生成部140bは、ステップS13cを実行する度に、前回の残響よりも強い残響が発生する音ファイルを新たに生成する。生成された音ファイルに基づいて、パラメトリックスピーカ200,201が制御されることで、音像が遠ざかるほど、残響が長くなる。そのため、ユーザは、より強調された音像の移動を感じることが出来る。 Then, each time the generation unit 140b executes step S13c, the generation unit 140b newly generates a sound file in which a stronger reverberation than the previous reverberation is generated. By controlling the parametric speakers 200 and 201 based on the generated sound file, the farther the sound image is, the longer the reverberation becomes. Therefore, the user can feel the movement of the sound image more emphasized.
実施の形態5.
 次に、実施の形態5を説明する。実施の形態5では、実施の形態1と相違する事項を主に説明する。そして、実施の形態5では、実施の形態1と共通する事項の説明を省略する。実施の形態5の説明では、図1~6を参照する。
Embodiment 5.
Next, the fifth embodiment will be described. In the fifth embodiment, the matters different from the first embodiment will be mainly described. Then, in the fifth embodiment, the description of the matters common to the first embodiment will be omitted. In the description of the fifth embodiment, FIGS. 1 to 6 are referred to.
 図13は、実施の形態5の情報処理装置が有する機能ブロックを示す図である。図2に示される構成と同じ図13の構成は、図2に示される符号と同じ符号を付している。情報処理装置100dは、表示装置800と接続する。例えば、表示装置800は、プロジェクタである。情報処理装置100dは、表示装置800を制御する。 FIG. 13 is a diagram showing a functional block included in the information processing apparatus of the fifth embodiment. The configuration of FIG. 13, which is the same as the configuration shown in FIG. 2, has the same reference numerals as those shown in FIG. The information processing device 100d is connected to the display device 800. For example, the display device 800 is a projector. The information processing device 100d controls the display device 800.
 情報処理装置100dは、取得部120dと制御部130dを有する。
 取得部120dは、状況情報が取得された場合、状況情報に応じた画像ファイルを取得する。例えば、取得部120dは、状況情報と画像の名称との対応関係を示す情報に基づいて、状況情報が示す状況に応じた画像の名称を特定する。取得部120dは、特定された画像の名称の画像ファイルを取得する。ここで、画像ファイルの取得方法を説明する。例えば、取得部120は、画像ファイルを記憶部110から取得する。また、例えば、取得部120は、情報処理装置100に接続可能な外部装置から画像ファイルを取得する。
 制御部130dは、音像位置情報が示す位置に、画像ファイルが示す画像を表示するように表示装置800を制御する。
The information processing apparatus 100d has an acquisition unit 120d and a control unit 130d.
When the status information is acquired, the acquisition unit 120d acquires an image file corresponding to the status information. For example, the acquisition unit 120d specifies the name of the image according to the situation indicated by the situation information based on the information indicating the correspondence between the situation information and the name of the image. The acquisition unit 120d acquires an image file with the name of the specified image. Here, a method of acquiring an image file will be described. For example, the acquisition unit 120 acquires an image file from the storage unit 110. Further, for example, the acquisition unit 120 acquires an image file from an external device that can be connected to the information processing device 100.
The control unit 130d controls the display device 800 so that the image indicated by the image file is displayed at the position indicated by the sound image position information.
 図14は、実施の形態5の情報処理装置が実行する処理の例を示すフローチャートである。図14の処理では、ステップS16dが実行され、ステップS12がステップS12dに変更される点が図4の処理と異なる。そのため、図14では、ステップS12d,16dを説明する。そして、ステップS12d,16d以外の処理の説明は、省略する。なお、ステップS11~16の中で取得部120が実行する処理は、取得部120dに実行されるものとする。ステップS11~16の中で制御部130が実行する処理は、制御部130dに実行されるものとする。 FIG. 14 is a flowchart showing an example of processing executed by the information processing apparatus according to the fifth embodiment. The process of FIG. 14 differs from the process of FIG. 4 in that step S16d is executed and step S12 is changed to step S12d. Therefore, in FIG. 14, steps S12d and 16d will be described. The description of the processes other than steps S12d and 16d will be omitted. It is assumed that the process executed by the acquisition unit 120 in steps S11 to 16 is executed by the acquisition unit 120d. It is assumed that the process executed by the control unit 130 in steps S11 to 16 is executed by the control unit 130d.
 (ステップS12d)取得部120dは、状況情報に応じた音ファイルと、状況情報に応じた画像ファイルとを取得する。
 (ステップS16d)制御部130dは、音像位置情報が示す位置に、画像ファイルが示す画像を表示するように、当該画像の表示を表示装置800に指示する。
 これにより、音像位置情報が示す位置に、音像が形成され、かつ画像が表示される。
(Step S12d) The acquisition unit 120d acquires a sound file according to the situation information and an image file according to the situation information.
(Step S16d) The control unit 130d instructs the display device 800 to display the image so that the image indicated by the image file is displayed at the position indicated by the sound image position information.
As a result, the sound image is formed and the image is displayed at the position indicated by the sound image position information.
 次に、画像ファイルが示す画像の具体例を示す。
 図15は、実施の形態5の画像ファイルが示す画像の具体例を示す図である。画像ファイル112は、記憶部110に格納されてもよい。画像ファイル112が示す画像は、誘導方向を示している。
Next, a specific example of the image shown by the image file will be shown.
FIG. 15 is a diagram showing a specific example of the image shown by the image file of the fifth embodiment. The image file 112 may be stored in the storage unit 110. The image shown by the image file 112 indicates the guiding direction.
 例えば、状況情報が緊急を示している場合、取得部120dは、画像ファイル112を取得する。制御部130dは、音像位置情報が示す位置に、画像ファイル112が示す画像を表示するように、当該画像の表示をプロジェクタに指示する。これにより、プロジェクタは、画像ファイル112の画像を表示する。例えば、プロジェクタは、画像ファイル112の画像を床に表示する。ユーザは、床に表示された画像を視認することで、どちらに移動するかを認識できる。よって、ユーザは、音像によって誘導されるだけでなく、画像の内容によって誘導される。このように、情報処理装置100dは、ユーザの視覚と聴覚を介して、ユーザを誘導することができる。 For example, when the situation information indicates urgent, the acquisition unit 120d acquires the image file 112. The control unit 130d instructs the projector to display the image so that the image indicated by the image file 112 is displayed at the position indicated by the sound image position information. As a result, the projector displays the image of the image file 112. For example, the projector displays the image of the image file 112 on the floor. By visually recognizing the image displayed on the floor, the user can recognize which way to move. Therefore, the user is not only guided by the sound image, but also by the content of the image. In this way, the information processing apparatus 100d can guide the user through the visual and auditory senses of the user.
 実施の形態5によれば、情報処理装置100dは、視覚情報と聴覚情報とを、ユーザに提供することができる。 According to the fifth embodiment, the information processing apparatus 100d can provide visual information and auditory information to the user.
実施の形態6.
 次に、実施の形態6を説明する。実施の形態6では、実施の形態1と相違する事項を主に説明する。そして、実施の形態6では、実施の形態1と共通する事項の説明を省略する。実施の形態6の説明では、図1~6を参照する。
Embodiment 6.
Next, the sixth embodiment will be described. In the sixth embodiment, the matters different from the first embodiment will be mainly described. Then, in the sixth embodiment, the description of the matters common to the first embodiment will be omitted. In the description of the sixth embodiment, FIGS. 1 to 6 are referred to.
 実施の形態1~5では、変調部が外部に存在する場合を説明した。変調部の数は、パラメトリックスピーカの数と同じである。ここで、変調部は、高価である。そのため、パラメトリックスピーカの数に合わせて、変調部を設けることは、音像形成システムのコストが高くなる。そこで、実施の形態6では、音像形成システムのコストを抑制する場合を説明する。 In the first to fifth embodiments, the case where the modulation unit exists outside has been described. The number of modulators is the same as the number of parametric speakers. Here, the modulation unit is expensive. Therefore, providing a modulation unit according to the number of parametric speakers increases the cost of the sound image forming system. Therefore, in the sixth embodiment, a case where the cost of the sound image forming system is suppressed will be described.
 図16は、実施の形態6の情報処理装置が有する機能ブロックを示す図である。図2に示される構成と同じ図16の構成は、図2に示される符号と同じ符号を付している。情報処理装置100eは、生成部140eを有する。
 生成部140eの一部又は全部は、処理回路によって実現してもよい。また、生成部140eの一部又は全部は、プロセッサ101が実行するプログラムのモジュールとして実現してもよい。
FIG. 16 is a diagram showing a functional block included in the information processing apparatus of the sixth embodiment. The configuration of FIG. 16, which is the same as the configuration shown in FIG. 2, has the same reference numerals as those shown in FIG. The information processing apparatus 100e has a generation unit 140e.
A part or all of the generation unit 140e may be realized by a processing circuit. Further, a part or all of the generation unit 140e may be realized as a module of a program executed by the processor 101.
 生成部140eは、取得部120が取得した音ファイルが示す音の波形を変調することで、新たな音ファイルを生成する。
 制御部130は、音像位置情報が示す位置に、新たな音ファイルが示す音に基づく音像を形成するように、パラメトリックスピーカ200,201を制御する。
The generation unit 140e generates a new sound file by modulating the waveform of the sound indicated by the sound file acquired by the acquisition unit 120.
The control unit 130 controls the parametric speakers 200 and 201 so as to form a sound image based on the sound indicated by the new sound file at the position indicated by the sound image position information.
 図17は、実施の形態6の情報処理装置が実行する処理の例を示すフローチャートである。図17の処理では、ステップS12eが実行され、ステップS14がステップS14eに変更される点が図4の処理と異なる。そのため、図17では、ステップS12e,14eを説明する。そして、ステップS12e,14e以外の処理の説明は、省略する。 FIG. 17 is a flowchart showing an example of processing executed by the information processing apparatus of the sixth embodiment. The process of FIG. 17 differs from the process of FIG. 4 in that step S12e is executed and step S14 is changed to step S14e. Therefore, in FIG. 17, steps S12e and 14e will be described. The description of the processes other than steps S12e and 14e will be omitted.
 (ステップS12e)生成部140eは、ステップS12で取得された音ファイルが示す音の波形を変調することで、新たな音ファイルを生成する。詳細には、生成部140eは、ステップS12で取得された音ファイルが示す音の波形に対して、振幅変調、DSB変調、SSB変調などを行う。このように、生成部140eは、変調により、新たな音ファイルを生成する。
 なお、新たな音ファイルを生成するは、ステップS12で取得された音ファイルが書き換わると表現してもよい。
(Step S12e) The generation unit 140e generates a new sound file by modulating the sound waveform indicated by the sound file acquired in step S12. Specifically, the generation unit 140e performs amplitude modulation, DSB modulation, SSB modulation and the like on the sound waveform indicated by the sound file acquired in step S12. In this way, the generation unit 140e generates a new sound file by modulation.
It should be noted that generating a new sound file may be expressed as rewriting the sound file acquired in step S12.
 (ステップS14e)制御部130は、音像位置情報が示す位置に音像を形成するための制御内容を決定する。また、制御内容には、ステップS12eで生成された音ファイルの音を出力させることが含まれる。 (Step S14e) The control unit 130 determines the control content for forming the sound image at the position indicated by the sound image position information. Further, the control content includes outputting the sound of the sound file generated in step S12e.
 このように、情報処理装置100eの内部で変調を行うことにより、情報処理装置100eの外部に変調部が、存在しなくてもよい。よって、実施の形態6によれば、情報処理装置100eは、音像形成システムのコストを抑制できる。 By performing modulation inside the information processing device 100e in this way, the modulation unit does not have to exist outside the information processing device 100e. Therefore, according to the sixth embodiment, the information processing apparatus 100e can suppress the cost of the sound image forming system.
 以上に説明した各実施の形態における特徴は、互いに適宜組み合わせることができる。 The features in each of the embodiments described above can be appropriately combined with each other.
 100,100a,100b,100c,100d,100e 情報処理装置、 101 プロセッサ、 102 揮発性記憶装置、 103 不揮発性記憶装置、 110 記憶部、 111 関係テーブル、 112 画像ファイル、 120,120d 取得部、 130,130d 制御部、 140a,140b,140c,140e 生成部、 200,201 パラメトリックスピーカ、 300,301 DA変換部、 400,401 変調部、 500,501 アンプ、 600,601,700,701 音像、 800 表示装置、 U1 ユーザ。 100, 100a, 100b, 100c, 100d, 100e Information processing device, 101 processor, 102 volatile storage device, 103 non-volatile storage device, 110 storage unit, 111 relation table, 112 image file, 120, 120d acquisition unit, 130, 130d control unit, 140a, 140b, 140c, 140e generation unit, 200,201 parametric speaker, 300,301 DA conversion unit, 400,401 modulation unit, 500,501 amplifier, 600,601,700,701 sound image, 800 display device. , U1 user.

Claims (10)

  1.  複数のパラメトリックスピーカを制御する情報処理装置であって、
     状況を示す状況情報を取得し、前記状況情報に応じた音ファイルを取得し、第1の位置を示す第1の音像位置情報を取得する取得部と、
     前記第1の位置に、前記音ファイルが示す音に基づく音像を形成するように、前記複数のパラメトリックスピーカを制御する制御部と、
     を有する情報処理装置。
    An information processing device that controls multiple parametric speakers.
    An acquisition unit that acquires situation information indicating a situation, acquires a sound file corresponding to the situation information, and acquires a first sound image position information indicating a first position, and an acquisition unit.
    A control unit that controls the plurality of parametric speakers so as to form a sound image based on the sound indicated by the sound file at the first position.
    Information processing device with.
  2.  前記音ファイルが示す音の周波数帯域の中から変更対象の周波数帯域を特定し、特定された周波数帯域の振幅を大きくする処理又は特定された周波数帯域の振幅を小さくする処理を実行することにより、新たな音ファイルを生成する生成部をさらに有し、
     前記制御部は、前記第1の位置に、前記新たな音ファイルが示す音に基づく音像を形成するように、前記複数のパラメトリックスピーカを制御する、
     請求項1に記載の情報処理装置。
    By specifying the frequency band to be changed from the frequency bands of the sound indicated by the sound file and executing a process of increasing the amplitude of the specified frequency band or a process of reducing the amplitude of the specified frequency band. It also has a generator to generate a new sound file,
    The control unit controls the plurality of parametric speakers so as to form a sound image based on the sound indicated by the new sound file at the first position.
    The information processing apparatus according to claim 1.
  3.  生成部をさらに有し、
     前記複数のパラメトリックスピーカは、第1のパラメトリックスピーカと第2のパラメトリックスピーカであり、
     前記生成部は、前記第1の位置が、前記第1のパラメトリックスピーカと前記第2のパラメトリックスピーカとの間の真ん中の位置に近いほど、前記音ファイルが示す音の立ち上がり部分が強調される音ファイルを、前記音ファイルに基づいて新たに生成し、
     前記制御部は、前記第1の位置に、新たに生成された音ファイルが示す音に基づく音像を形成するように、前記第1のパラメトリックスピーカと前記第2のパラメトリックスピーカとを制御する、
     請求項1に記載の情報処理装置。
    It also has a generator
    The plurality of parametric speakers are a first parametric speaker and a second parametric speaker.
    In the generation unit, the closer the first position is to the middle position between the first parametric speaker and the second parametric speaker, the more the rising portion of the sound indicated by the sound file is emphasized. A new file is generated based on the sound file,
    The control unit controls the first parametric speaker and the second parametric speaker so as to form a sound image based on the sound indicated by the newly generated sound file at the first position.
    The information processing apparatus according to claim 1.
  4.  前記音ファイルに基づいて、残響が発生する音ファイルを新たに生成する生成部をさらに有し、
     前記生成部は、新たに音ファイルを生成する場合、前回生成された音ファイルが示す音に基づく残響よりも強い残響が発生する音ファイルを新たに生成し、
     前記制御部は、前記第1の位置に、新たに生成された音ファイルが示す音に基づく音像を形成するように、前記複数のパラメトリックスピーカを制御する、
     請求項1に記載の情報処理装置。
    It further has a generator that newly generates a sound file that generates reverberation based on the sound file.
    When a new sound file is generated, the generation unit newly generates a sound file in which a stronger reverberation than the reverberation based on the sound indicated by the previously generated sound file is generated.
    The control unit controls the plurality of parametric speakers so as to form a sound image based on the sound indicated by the newly generated sound file at the first position.
    The information processing apparatus according to claim 1.
  5.  前記情報処理装置は、表示装置を制御し、
     前記取得部は、前記状況情報に応じた画像ファイルを取得し、
     前記制御部は、前記第1の位置に、前記音ファイルが示す音に基づく音像を形成するように、前記複数のパラメトリックスピーカを制御し、前記第1の位置に、前記画像ファイルが示す画像を表示するように前記表示装置を制御する、
     請求項1に記載の情報処理装置。
    The information processing device controls the display device and
    The acquisition unit acquires an image file corresponding to the situation information, and obtains the image file.
    The control unit controls the plurality of parametric speakers so as to form a sound image based on the sound indicated by the sound file at the first position, and displays the image indicated by the image file at the first position. Control the display device to display,
    The information processing apparatus according to claim 1.
  6.  前記音ファイルが示す音の波形を変調することで、新たな音ファイルを生成する生成部をさらに有し、
     前記制御部は、前記第1の位置に、前記新たな音ファイルが示す音に基づく音像を形成するように、前記複数のパラメトリックスピーカを制御する、
     請求項1に記載の情報処理装置。
    It further has a generation unit that generates a new sound file by modulating the waveform of the sound indicated by the sound file.
    The control unit controls the plurality of parametric speakers so as to form a sound image based on the sound indicated by the new sound file at the first position.
    The information processing apparatus according to claim 1.
  7.  前記取得部は、前記第1の音像位置情報を含み、それぞれ異なる位置を示す複数の音像位置情報を取得し、
     前記制御部は、前記複数の音像位置情報が示す位置に音像を形成するように、前記複数のパラメトリックスピーカを制御する、
     請求項1から6のいずれか1項に記載の情報処理装置。
    The acquisition unit acquires a plurality of sound image position information indicating different positions, including the first sound image position information.
    The control unit controls the plurality of parametric speakers so as to form a sound image at a position indicated by the plurality of sound image position information.
    The information processing apparatus according to any one of claims 1 to 6.
  8.  複数のパラメトリックスピーカと、
     前記複数のパラメトリックスピーカを制御する情報処理装置と、
     を含み、
     前記情報処理装置は、
     状況を示す状況情報を取得し、前記状況情報に応じた音ファイルを取得し、第1の位置を示す第1の音像位置情報を取得する取得部と、
     前記第1の位置に、前記音ファイルが示す音に基づく音像を形成するように、前記複数のパラメトリックスピーカを制御する制御部と、
     を有する、
     音像形成システム。
    With multiple parametric speakers
    An information processing device that controls the plurality of parametric speakers, and
    Including
    The information processing device is
    An acquisition unit that acquires situation information indicating a situation, acquires a sound file corresponding to the situation information, and acquires a first sound image position information indicating a first position, and an acquisition unit.
    A control unit that controls the plurality of parametric speakers so as to form a sound image based on the sound indicated by the sound file at the first position.
    Have,
    Sound image formation system.
  9.  複数のパラメトリックスピーカを制御する情報処理装置が、
     状況を示す状況情報を取得し、前記状況情報に応じた音ファイルを取得し、第1の位置を示す第1の音像位置情報を取得し、
     前記第1の位置に、前記音ファイルが示す音に基づく音像を形成するように、前記複数のパラメトリックスピーカを制御する、
     制御方法。
    An information processing device that controls multiple parametric speakers
    The situation information indicating the situation is acquired, the sound file corresponding to the situation information is acquired, and the first sound image position information indicating the first position is acquired.
    The plurality of parametric speakers are controlled so as to form a sound image based on the sound indicated by the sound file at the first position.
    Control method.
  10.  複数のパラメトリックスピーカを制御する情報処理装置に、
     状況を示す状況情報を取得し、前記状況情報に応じた音ファイルを取得し、第1の位置を示す第1の音像位置情報を取得し、
     前記第1の位置に、前記音ファイルが示す音に基づく音像を形成するように、前記複数のパラメトリックスピーカを制御する、
     処理を実行させる制御プログラム。
    For information processing devices that control multiple parametric speakers
    The situation information indicating the situation is acquired, the sound file corresponding to the situation information is acquired, and the first sound image position information indicating the first position is acquired.
    The plurality of parametric speakers are controlled so as to form a sound image based on the sound indicated by the sound file at the first position.
    A control program that executes processing.
PCT/JP2020/035987 2020-09-24 2020-09-24 Information processing device, sound image forming system, control method, and control program WO2022064589A1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
PCT/JP2020/035987 WO2022064589A1 (en) 2020-09-24 2020-09-24 Information processing device, sound image forming system, control method, and control program
JP2022546679A JP7146152B2 (en) 2020-09-24 2020-09-24 Information processing device, sound image forming system, control method, and control program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2020/035987 WO2022064589A1 (en) 2020-09-24 2020-09-24 Information processing device, sound image forming system, control method, and control program

Publications (1)

Publication Number Publication Date
WO2022064589A1 true WO2022064589A1 (en) 2022-03-31

Family

ID=80845607

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2020/035987 WO2022064589A1 (en) 2020-09-24 2020-09-24 Information processing device, sound image forming system, control method, and control program

Country Status (2)

Country Link
JP (1) JP7146152B2 (en)
WO (1) WO2022064589A1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115499738A (en) * 2022-09-21 2022-12-20 电子科技大学 Programmable parametric array speaker with safety device

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006352571A (en) * 2005-06-16 2006-12-28 Nippon Telegr & Teleph Corp <Ntt> Sound-reproducing system
JP2012226695A (en) * 2011-04-22 2012-11-15 Saga Univ Guidance instruction apparatus, guidance instruction method and program therefor
JP2017224165A (en) * 2016-06-15 2017-12-21 矢崎総業株式会社 Vehicular direction presentation device
JP2018196060A (en) * 2017-05-19 2018-12-06 シャープ株式会社 Information processing device, information processing system, information processing method, and program

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006352571A (en) * 2005-06-16 2006-12-28 Nippon Telegr & Teleph Corp <Ntt> Sound-reproducing system
JP2012226695A (en) * 2011-04-22 2012-11-15 Saga Univ Guidance instruction apparatus, guidance instruction method and program therefor
JP2017224165A (en) * 2016-06-15 2017-12-21 矢崎総業株式会社 Vehicular direction presentation device
JP2018196060A (en) * 2017-05-19 2018-12-06 シャープ株式会社 Information processing device, information processing system, information processing method, and program

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115499738A (en) * 2022-09-21 2022-12-20 电子科技大学 Programmable parametric array speaker with safety device

Also Published As

Publication number Publication date
JP7146152B2 (en) 2022-10-03
JPWO2022064589A1 (en) 2022-03-31

Similar Documents

Publication Publication Date Title
US11503421B2 (en) Systems and methods for processing audio signals based on user device parameters
JP6968376B2 (en) Stereo virtual bus extension
US9967693B1 (en) Advanced binaural sound imaging
US11026021B2 (en) Hybrid speaker and converter
KR101673232B1 (en) Apparatus and method for producing vertical direction virtual channel
EP2109328A1 (en) Apparatus for processing an audio signal
Ziemer et al. Psychoacoustical signal processing for three-dimensional sonification
WO2022064589A1 (en) Information processing device, sound image forming system, control method, and control program
CN111654806B (en) Audio playing method and device, storage medium and electronic equipment
US20170069305A1 (en) Method and apparatus for audio processing
CN111462784A (en) Method, apparatus, and computer storage medium for determining audio with binaural beats
Fohl The wave field synthesis lab at the HAW Hamburg
JP2005159446A (en) Directional acoustic system
JP2018036527A (en) Voice processor, voice processing method and program
JP2021065872A (en) Vibration control device, vibration control program and vibration control method
US20190152061A1 (en) Motion control method and device, and robot with enhanced motion control
US20220101829A1 (en) Neural network speech recognition system
JP2018159759A (en) Voice processor, voice processing method and program
JP6670259B2 (en) Sound reproduction device
JP6330098B1 (en) Audio controller, program, ultrasonic speaker, sound source device
JP2022506653A (en) Audio-only interference training for screening and treatment of cognitive impairment
JP2016092562A (en) Audio processing device and method, and program
JP7319608B2 (en) Vibration Sensory Apparatus, Method, Vibration Sensory Apparatus Program, and Computer-Readable Recording Medium for Vibration Sensory Apparatus Program
JP6995907B2 (en) Speech processing equipment, audio processing methods and programs
Lin et al. A localized sound field reconstruction system by use of ultrasonic wave

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20955183

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2022546679

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 20955183

Country of ref document: EP

Kind code of ref document: A1