WO2019230236A1 - Binaural sound processing apparatus, information processing apparatus, and program - Google Patents

Binaural sound processing apparatus, information processing apparatus, and program Download PDF

Info

Publication number
WO2019230236A1
WO2019230236A1 PCT/JP2019/016469 JP2019016469W WO2019230236A1 WO 2019230236 A1 WO2019230236 A1 WO 2019230236A1 JP 2019016469 W JP2019016469 W JP 2019016469W WO 2019230236 A1 WO2019230236 A1 WO 2019230236A1
Authority
WO
WIPO (PCT)
Prior art keywords
binaural sound
user
information
sound source
application
Prior art date
Application number
PCT/JP2019/016469
Other languages
French (fr)
Japanese (ja)
Inventor
龍太 岡崎
直輝 齋藤
岡本 直樹
尚美 北村
Original Assignee
株式会社 資生堂
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社 資生堂 filed Critical 株式会社 資生堂
Priority to JP2020521784A priority Critical patent/JP7195314B2/en
Publication of WO2019230236A1 publication Critical patent/WO2019230236A1/en

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10KSOUND-PRODUCING DEVICES; METHODS OR DEVICES FOR PROTECTING AGAINST, OR FOR DAMPING, NOISE OR OTHER ACOUSTIC WAVES IN GENERAL; ACOUSTICS NOT OTHERWISE PROVIDED FOR
    • G10K15/00Acoustics not otherwise provided for
    • G10K15/04Sound-producing devices
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S7/00Indicating arrangements; Control arrangements, e.g. balance control

Definitions

  • the present invention relates to a binaural sound processing device, an information processing device, and a program.
  • an applied object for example, cosmetics
  • consumers of cosmetics select cosmetics in consideration of not only the cosmetic effect obtained by using the cosmetics but also the tactile sensation (for example, the touch) when using the cosmetics.
  • cosmetic sellers promote the sale of cosmetics by appealing to consumers both of beauty effects and tactile sensations.
  • Japanese Patent Application Laid-Open No. 2003-186762 discloses a recipe for cosmetics according to a parameter input by a consumer in order to input a parameter related to the touch to support selection of the cosmetic in consideration of the touch. The technique which presents is disclosed.
  • An object of the present invention is to allow a consumer to experience the feel of a coating before using the coating.
  • One embodiment of the present invention provides: Means for storing the application identification information for identifying each of the plurality of applications and the binaural sound source information in which the sound when each application is applied to the skin is binaurally recorded; Means for determining application identification information for identifying at least one application from a plurality of applications; Means for selecting binaural sound source information associated with the determined application identification information; Means for outputting the selected binaural sound source information; It is a binaural sound processing device.
  • FIG. 10 is a flowchart of information processing according to a second modification. It is explanatory drawing of the outline
  • FIG. 10 is a flowchart of information processing according to Modification 5;
  • FIG. 1 is a schematic diagram illustrating a configuration of a voice processing system according to the present embodiment.
  • FIG. 2 is a block diagram showing a configuration of the voice processing system of FIG.
  • the sound processing system 1 includes a binaural sound processing device 10, a sound output device 20, and a server 30.
  • the binaural sound processing device 10 and the audio output device 20 are connected by wired communication or wireless communication.
  • the binaural sound processing apparatus 10 and the server 30 are connected via a network (for example, the Internet or an intranet) NW.
  • NW a network
  • the user U can listen to the sound (for example, binaural sound) processed by the binaural sound processing device 10 via the sound output device 20.
  • the binaural sound processing device 10 is configured to generate a binaural sound signal.
  • the binaural sound processing device 10 is an example of an information processing device that transmits a request to the server 30.
  • the binaural sound processing device 10 is, for example, a smartphone, a tablet terminal, or a personal computer.
  • the audio output device 20 is configured to output a binaural sound corresponding to the audio signal transmitted from the binaural sound processing device 10.
  • the audio output device 20 is, for example, a headphone or an earphone.
  • the server 30 is an example of an information processing apparatus that provides the binaural sound processing apparatus 10 with a response corresponding to the request transmitted from the binaural sound processing apparatus 10.
  • the server 30 is, for example, a web server.
  • the binaural sound processing device 10 includes a storage device 11, a processor 12, an input / output interface 13, and a communication interface 14.
  • the storage device 11 is configured to store a program and data.
  • the storage device 11 is, for example, a combination of a ROM (Read Only Memory), a RAM (Random Access Memory), and a storage (for example, a flash memory or a hard disk).
  • the programs include, for example, the following programs.
  • An OS (Operating System) program An application program for executing information processing (for example, an application for binaural sound processing)
  • the data includes, for example, the following data.
  • -Database referenced in information processing-Data obtained by executing information processing that is, information processing execution result
  • the processor 12 is configured to realize the function of the binaural sound processing device 10 by starting a program stored in the storage device 11.
  • the processor 12 is an example of a computer.
  • the input / output interface 13 is configured to acquire a user instruction from an input device connected to the binaural sound processing apparatus 10 and to output information to an output device connected to the binaural sound processing apparatus 10.
  • the input device is, for example, a keyboard, a pointing device, a touch panel, or a combination thereof.
  • the output device is, for example, a display.
  • the communication interface 14 is configured to control communication between the binaural sound processing device 10 and the server 30.
  • the server 30 includes a storage device 31, a processor 32, an input / output interface 33, and a communication interface 34.
  • the storage device 31 is configured to store programs and data.
  • the storage device 31 is, for example, a combination of ROM, RAM, and storage (for example, flash memory or hard disk).
  • the programs include, for example, the following programs.
  • -OS program-Application program that executes information processing
  • the data includes, for example, the following data. ⁇ Database referenced in information processing ⁇ Results of information processing
  • the processor 32 is configured to realize the function of the server 30 by starting a program stored in the storage device 31.
  • the processor 32 is an example of a computer.
  • the input / output interface 33 is configured to acquire a user instruction from an input device connected to the server 30 and output information to an output device connected to the server 30.
  • the input device is, for example, a keyboard, a pointing device, a touch panel, or a combination thereof.
  • the output device is, for example, a display.
  • the communication interface 34 is configured to control communication between the server 30 and the binaural sound processing device 10.
  • FIG. 3 is an explanatory diagram of the outline of the present embodiment.
  • the binaural sound processing apparatus 10 stores binaural sound source information.
  • Binaural sound source information is associated with an applied material that can be applied to the human body.
  • the applied product is, for example, a cosmetic that can be applied to the skin.
  • the cosmetics include makeup cosmetics, skin care cosmetics, hair care cosmetics, and the like.
  • As for the form of cosmetics, solid, liquid, spray form etc. are mentioned, for example.
  • the binaural sound processing device 10 outputs binaural sound source information associated with the designated application to the audio output device 20.
  • the audio output device 20 outputs the binaural sound recorded in the binaural sound source information output from the binaural sound processing device 10.
  • Such a binaural sound of the coating can stimulate the sense of hearing and the tactile sensation that accompanies the hearing, thereby allowing the user U to experience the tactile sensation when using the coating.
  • by letting the user U hear the binaural sound of the desired application it is possible to present a tactile sensation when using the desired application.
  • FIG. 4 is a diagram showing a data structure of the applied product information database according to the present embodiment.
  • the applied material information database of FIG. 4 stores applied material information related to the applied material.
  • the application information database includes an “application ID” field, an “application name” field, a “recommended attribute” field, a “binaural sound source” field, and a “content” field. Each field is associated with each other.
  • an application ID for identifying the application (an example of “application identification information”) is stored.
  • the application ID is a main key of a record in the application information database (hereinafter referred to as “application information record”).
  • the “recommended attribute” field information related to user attributes for which the use of the applied product is recommended (hereinafter referred to as “recommended attribute information”) is stored.
  • the “recommended attribute” field includes a “gender” field, an “age” field, and a “skin condition” field.
  • skin state information on the skin state where the use of the applied product is recommended is stored.
  • binaural sound source file (an example of “binaural sound source information”) in which a vibration sound when applying a coating is recorded is stored.
  • a content file of content related to the applied material is stored.
  • the content includes, for example, at least one of the following. ⁇ Video content ⁇ Still image content ⁇ CG (Computer Graphics) content ⁇ Audio content
  • FIG. 5 is a flowchart of information processing according to this embodiment.
  • FIG. 6 is a diagram illustrating an example of a screen displayed in the information processing of FIG.
  • the binaural sound processing device 10 performs designation of application (S100). Specifically, the processor 12 displays the screen P100 (FIG. 6) on the display.
  • the screen P100 includes operation objects B100a to B100b.
  • the operation objects B100a to B100b are objects that receive a user instruction for designating a coating material.
  • An application ID is assigned to the operation objects B100a to B100b.
  • the processor 12 specifies the application ID assigned to the operation object B100a. Thereby, designation
  • the binaural sound processing apparatus 10 executes binaural sound source selection (S101). Specifically, the processor 12 refers to the application information database (FIG. 4), and obtains information on the “binaural sound source” field (that is, a binaural sound source file) associated with the application ID specified in step S100. read out.
  • the processor 12 refers to the application information database (FIG. 4), and obtains information on the “binaural sound source” field (that is, a binaural sound source file) associated with the application ID specified in step S100. read out.
  • the binaural sound processing apparatus 10 executes binaural sound reproduction (S102). Specifically, the processor 12 generates the binaural sound signal recorded in the binaural sound source file by opening the binaural sound source file read in step S101. The processor 12 transmits the generated audio signal to the audio output device 20. The audio output device 20 outputs a binaural sound based on the audio signal transmitted from the processor 12.
  • the user U can experience a tactile sensation when using a desired application by listening to the binaural sound output by the audio output device 20.
  • the modified example 1 is an example in which a binaural sound corresponding to a combination of a coating material and a user attribute of the user U is output.
  • FIG. 7 is an explanatory diagram of an outline of the first modification.
  • binaural sound source information is stored.
  • the binaural sound source information is associated with a combination of an application and a user attribute (for example, an application recommended to be used from the user attribute of the user U).
  • the binaural sound processing apparatus 10 outputs binaural sound source information associated with the combination of the designated application and the user attribute of the user U to the audio output device 20.
  • the audio output device 20 outputs the binaural sound recorded in the binaural sound source information output from the binaural sound processing device 10.
  • a coating material recommended for the user U is applied. A feeling of touch can be presented.
  • FIG. 8 is a diagram illustrating a data structure of the user information database according to the first modification.
  • the user information database in FIG. 8 includes a “user ID” field, a “user name” field, a “user attribute” field, and an “behavior history” field. Each field is associated with each other.
  • a user ID for identifying the user U (an example of “user identification information”) is stored.
  • the user ID is a primary key of a record in the user information database (hereinafter referred to as “user information record”).
  • the “user attribute” field user attribute information regarding the attribute of the user U is stored.
  • the “user attribute” field includes a “gender” field, an “age” field, and a “skin condition” field.
  • skin state information regarding the skin state of the user U is stored.
  • the “skin state” field is stored in the user information database by at least one of the following methods.
  • the processor 12 stores the skin condition information input by the user U in the “skin condition” field.
  • the processor 12 stores the skin condition information transmitted from the device (for example, a smartphone) capable of acquiring the skin condition information via the communication interface 14 in the “skin condition” field.
  • the processor 12 stores the skin condition information transmitted from the wearable device worn by the user U in the “skin condition” field.
  • the “behavior history” field behavior history information related to the history of the behavior of the user U is stored.
  • the “behavior history” field includes a “browsing history” field and a “purchase history” field.
  • browsing history information related to the browsing history of the website for example, the URL (Uniform Resource Locator) of the website browsed by the user U.
  • purchase history information related to the purchase history of the product for example, information on the application ID of the application purchased by the user U and information on the purchase date.
  • FIG. 9 is a flowchart of information processing according to the first modification.
  • FIG. 10 is a diagram illustrating an example of a screen displayed in the information processing of FIG.
  • the binaural sound processing device 10 executes acquisition of user information (S110). Specifically, the processor 12 displays the screen P110 (FIG. 10) on the display.
  • the screen P110 includes an operation object B110 and a field object F110.
  • the field object F110 is an object that accepts input of user information.
  • the operation object B110 is an object that receives a user instruction for confirming user information input to the field object F110.
  • the processor 12 refers to the user information database (FIG. 8) and sets the user ID input to the field object F110. Identifies the associated user information record.
  • step S110 the binaural sound processing device 10 executes binaural sound source selection (S111).
  • the processor 12 refers to the “recommended attribute” field of the application information database (FIG. 4), and includes user attribute information (for example, gender, The application information record corresponding to age and information on skin condition) is specified.
  • the processor 12 reads the information in the “binaural sound source” field (that is, the binaural sound source file) of the application information record.
  • the storage device 11 stores an action history of the user U and a correlation model of the applied product that the user U likes.
  • the input of the correlation model is the action history of the user U.
  • the output of the correlation model is application information.
  • the processor 12 inputs the information of the “behavior history” field (for example, at least one information of the “browsing history” field and the “purchase history” field) included in the user information record specified in step S111 into the correlation model.
  • Application information for example, application ID
  • the processor 12 reads the information of the “binaural sound source” field (that is, the binaural sound source file) associated with the predicted application ID by referring to the application information database (FIG. 4).
  • step S111 the binaural sound processing apparatus 10 performs binaural sound reproduction (S102), as in FIG.
  • the user U can experience the tactile sensation when using the recommended application in consideration of his / her attributes by listening to the binaural sound output by the audio output device 20. Can do.
  • Modification 2 Modification 2 will be described.
  • the modified example 2 is an example in which a binaural sound optimized according to the movement of the user U is output.
  • FIG. 11 is an explanatory diagram of an outline of the second modification.
  • the binaural sound processing device 10 corrects the binaural sound according to the movement of the user U.
  • the audio output device 20 outputs the binaural sound corrected by the binaural sound processing device 10.
  • FIG. 12 is a flowchart of information processing according to the second modification.
  • the binaural sound processing apparatus 10 executes steps S100 to S101 as in FIG.
  • the binaural sound processing device 10 executes motion information acquisition (S120). Specifically, the binaural sound processing device 10 is connected to a motion sensor (not shown) configured to detect a user's movement.
  • the motion sensor includes, for example, at least one of the following.
  • An image sensor that detects an image of the user U
  • An acceleration sensor that detects an acceleration of a part of the user U's body (for example, a hand)
  • a gyro that detects an angular acceleration of a part of the user U's body (for example, the hand)
  • Sensor ⁇ A geomagnetic sensor that detects geomagnetism
  • the processor 12 calculates the movement of the user U based on information detected by the motion sensor (for example, at least one of an image, acceleration, gyro, and geomagnetism).
  • the binaural sound processing apparatus 10 performs binaural sound correction (S121). Specifically, the storage device 11 stores correction parameters for each movement of the user U. The processor 12 corrects the sound characteristics of the binaural sound using the correction parameter corresponding to the motion calculated in step S120.
  • the voice characteristic includes, for example, at least one of the following. ⁇ Frequency (playback speed as an example) -Sound pressure-Time difference between left and right binaural sounds (as an example, phase difference)
  • step S121 the binaural sound processing device 10 executes step S102 as in FIG.
  • the binaural sound processing device 10 corrects the binaural sound according to the movement of the user U. Thereby, it is possible to cause the user U to interactively and actively experience the tactile sensation when using the application according to the movement while listening to the binaural sound. Further, the user U can listen to the binaural sound optimized according to his / her movement. Thereby, even if the user U moves while listening to the binaural sound, the tactile sensation when using the coating can be correctly transmitted to the user U. More specifically, by correcting the frequency according to the speed at which the user U strokes his / her skin, an interactive tactile sensation according to the motion of stroking the skin can be presented.
  • the third modification is an example in which a binaural sound optimized according to the environment of the user U is output.
  • FIG. 13 is an explanatory diagram of an outline of the third modification.
  • the binaural sound processing device 10 responds to the environment information related to the environment of the user U (that is, the binaural sound reproduction environment). Correct the binaural sound.
  • the audio output device 20 outputs the binaural sound corrected by the binaural sound processing device 10.
  • FIG. 14 is a flowchart of information processing according to the third modification.
  • the binaural sound processing apparatus 10 executes steps S100 to S101 as in FIG.
  • the binaural sound processing apparatus 10 executes acquisition of environment information (S130). Specifically, the binaural sound processing device 10 is connected to an environment sensor (not shown) configured to detect environment information regarding the environment in which the user U exists.
  • the sensor includes, for example, at least one of the following. ⁇ Temperature sensor that detects temperature ⁇ Humidity sensor that detects humidity ⁇ Sensor that detects the UV level to which user U is exposed
  • the processor 12 acquires environmental information detected by the environmental sensor via the input / output interface 13.
  • the binaural sound processing apparatus 10 performs binaural sound correction (S131). Specifically, the storage device 11 stores correction parameters for each environment information. The processor 12 corrects the sound characteristics of the binaural sound using the correction parameter corresponding to the environmental information acquired in step S130.
  • the voice characteristic includes, for example, at least one of the following. ⁇ Frequency (playback speed as an example) -Sound pressure-Time difference between left and right binaural sounds (as an example, phase difference)
  • step S131 the binaural sound processing device 10 executes step S102 as in FIG.
  • the binaural sound processing device 10 corrects the binaural sound according to the environment where the user U exists (that is, the binaural sound reproduction environment). As a result, the user U can experience a tactile sensation according to the environment.
  • Modification 4 Modification 4 will be described. Modification 4 is an example in which a binaural sound is output in accordance with the content related to the applied material.
  • FIG. 15 is an explanatory diagram of an outline of the fourth modification.
  • an applied material ID As shown in FIG. 4, in the applied material information database, an applied material ID, a binaural sound source file, and a content file are stored in association with each other.
  • the binaural sound processing device 10 opens a binaural sound source file associated with the content file corresponding to the selected content.
  • an audio signal corresponding to the binaural sound source file is generated.
  • the audio output device 20 outputs a binaural sound based on the audio signal generated by the binaural sound processing device 10.
  • FIG. 16 is a flowchart of information processing according to the fourth modification.
  • FIG. 17 is a diagram illustrating an example of a screen displayed in the information processing of FIG.
  • the binaural sound processing device 10 executes content specification reception (S130). Specifically, the processor 12 displays the screen P130 (FIG. 17) on the display.
  • the screen P130 includes an operation object B130 and a field object F130.
  • the field object F130 is an object that receives a user instruction for designating the file name of the content file.
  • the operation object B130 is an object that receives a user instruction for confirming the file name specified in the field object F130.
  • the processor 12 acquires the file name specified in the field object F130.
  • the binaural sound processing apparatus 10 performs binaural sound source selection (S131). Specifically, the processor 12 reads the binaural sound source file associated with the content file corresponding to the file name acquired in step S130 with reference to the applied material information database (FIG. 4).
  • the binaural sound processing apparatus 10 performs playback of content and binaural sound (S132). Specifically, the processor 12 displays the screen P131 (FIG. 16) on the display by opening the content file corresponding to the file name acquired in step S130.
  • the screen P131 includes a display object A131.
  • content corresponding to the content file for example, a promotional video of the applied material
  • the processor 12 generates an audio signal of a binaural sound recorded in the binaural sound source file read in step S131 so as to be synchronized with the content reproduced by the display object A131.
  • the processor 12 transmits the generated audio signal to the audio output device 20.
  • the audio output device 20 outputs a binaural sound based on the audio signal transmitted from the processor 12.
  • the binaural sound processing device 10 presents a binaural sound in synchronization with the content designated by the user U. Thereby, it is possible to let the user U experience the tactile sensation when using the coated material introduced by the content while presenting the desired content.
  • the binaural sound processing apparatus 10 when the binaural sound processing apparatus 10 receives the designation of the CG content in step S130, the binaural sound processing apparatus 10 changes the CG content in accordance with the user instruction in step S132, and changes the CG content to the changed CG content. A corresponding binaural sound may be reproduced.
  • the user U instructs the binaural sound processing device 10 to at least one of the following: User instructions can be given.
  • An instruction for designating a coating application method for example, thin coating or thick coating).
  • the processor 12 responds to a user instruction.
  • the CG content displayed on the display is changed, and the binaural sound source information is also changed according to the changed CG content.
  • the binaural sound processing apparatus 10 presents CG content and binaural sound according to the user instruction.
  • indication while experiencing CG content the user U can be made to experience interactively and actively the tactile sense when using a coating material.
  • the fifth modification is an example in which the binaural sound is corrected in accordance with the change with time of the components of the coating material during the reproduction of the binaural sound.
  • FIG. 18 is an explanatory diagram of an outline of the fifth modification.
  • the binaural sound processing device 10 corrects the binaural sound according to the lapse of time while listening to the binaural sound output from the audio output device 20.
  • the audio output device 20 outputs the binaural sound corrected by the binaural sound processing device 10.
  • FIG. 19 is a flowchart of information processing according to the fifth modification.
  • the binaural sound processing apparatus 10 executes steps S100 to S101 as in FIG.
  • the binaural sound processing apparatus 10 performs binaural sound correction (S140). Specifically, the storage device 11 stores correction parameters corresponding to tactile sensations that change over time for each application ID.
  • the processor 12 identifies the correction parameter associated with the application ID identified in Step S100.
  • the processor 12 corrects the sound characteristics of the binaural sound using the specified correction parameter based on the reproduction time of the binaural sound.
  • the voice characteristic includes, for example, at least one of the following. ⁇ Frequency (playback speed as an example) -Sound pressure-Time difference between left and right binaural sounds (as an example, phase difference)
  • step S131 the binaural sound processing device 10 executes step S102 as in FIG.
  • the binaural sound processing device 10 corrects the binaural sound according to the reproduction time. Thereby, the user U can experience the time change of the tactile sensation when using the coating.
  • the first aspect of this embodiment is Application identification information (for example, application ID) for identifying each of the plurality of applications, binaural sound source information (for example, binaural sound source file) in which the sound when each application is applied to the skin is binaurally recorded, Means (for example, storage device 11) for storing Means for determining application identification information for identifying at least one application from among a plurality of applications (for example, the processor 12 that executes the process of step S100); Means for selecting binaural sound source information associated with the determined application identification information (for example, the processor 12 that executes the process of step S101); Means for outputting the selected binaural sound source information (for example, the processor 12 that executes the process of step S102); This is a binaural sound processing apparatus 10.
  • application ID for identifying each of the plurality of applications
  • binaural sound source information for example, binaural sound source file
  • Means for example, storage device 11 for storing Means for determining application identification information for identifying at least one application from among
  • the binaural sound processing device 10 presents the user U with a binaural sound corresponding to the coated material.
  • the user U for example, consumer of a coating material
  • the user U can be made to experience the tactile sensation of a coating material.
  • the second aspect of this embodiment is The means for determining determines the application identification information in accordance with an instruction from the operator.
  • This is a binaural sound processing apparatus 10.
  • the binaural sound processing device 10 presents the user U with a binaural sound corresponding to a desired application.
  • the user U for example, consumer of a coating material
  • the user U can be made to experience the touch feeling of a desired coating material.
  • Means for associating and storing binaural sound source information and user attribute information related to user attributes Means for acquiring user attribute information (for example, the processor 12 that executes the process of step S110) on the user attribute;
  • the means for selecting selects the binaural sound source information associated with the determined application identification information and the acquired user attribute information. This is a binaural sound processing apparatus 10.
  • the binaural sound processing device 10 presents the user U with a binaural sound corresponding to the user attribute of the user U.
  • the user U for example, the consumer of a coating material
  • the user U can be made to experience the tactile sensation of the coating material suitable for the user U.
  • the fourth aspect of this embodiment is Means for predicting a coated material recommended for use by the user (for example, the processor 12 that executes the process of step S111);
  • the means for determining the application object identification information is the binaural sound processing apparatus 10 that acquires the application object identification information of the determined application object.
  • the binaural sound processing device 10 presents the user U with the binaural sound of the application recommended for use by the user U.
  • the user U for example, the consumer of a coating material
  • the user U can be made to experience the touch feeling of the coating material recommended to use with respect to the user U.
  • the fifth aspect of this embodiment is The means for determining the applied material determines the applied material based on the user's skin condition. This is a binaural sound processing apparatus 10.
  • the binaural sound processing device 10 presents the user U with a binaural sound of an application recommended for use based on the skin state of the user U.
  • the tactile sensation of the application according to the skin condition of the user U can be experienced by the user U (for example, a consumer of the application).
  • the sixth aspect of this embodiment is Based on the user's behavior history, it is provided with means for predicting an application recommended for use by the user (for example, the processor 12 that executes the process of step S111), The means for selecting selects binaural sound source information associated with the application identification information of the predicted application. This is a binaural sound processing apparatus 10.
  • the binaural sound processing device 10 presents the user U with the binaural sound of the application recommended for use based on the user U's action history. Thereby, the tactile sensation of the application according to the tendency of the user U's behavior can be experienced by the user U (for example, the consumer of the application).
  • the seventh aspect of this embodiment is The action history is at least one of a browsing history of the website accessed by the user and a purchase history of the application purchased by the user.
  • This is a binaural sound processing apparatus 10.
  • the binaural sound processing apparatus 10 uses the binaural of the application recommended for use based on at least one of the browsing history of the user U's website and the purchase history of the application purchased by the user. Present a sound.
  • the user U for example, the consumer of a coating material
  • the user U can be made to experience the tactile sensation of the coating material according to at least one of the user's U behavior tendency and the purchasing tendency.
  • the eighth aspect of this embodiment is Means (for example, a processor 12 that executes the process of step S120) for acquiring movement information related to the movement of the user who uses the application; Means for correcting the selected binaural sound source information according to the acquired motion information (for example, the processor 12 that executes the process of step S121); The output means outputs the corrected binaural sound source information.
  • This is a binaural sound processing apparatus 10.
  • the binaural sound processing device 10 corrects the binaural sound according to the movement of the user U while listening to the binaural sound. Thereby, it is possible to cause the user U to interactively and actively experience the tactile sensation when using the application. Moreover, even if the user U moves while listening to the binaural sound, the tactile sensation when using the coating can be correctly transmitted to the user U.
  • the ninth aspect of this embodiment is The means for acquiring motion information acquires motion information from at least one of an image sensor, an acceleration sensor, a gyro sensor, and a geomagnetic sensor.
  • This is a binaural sound processing apparatus 10.
  • the tactile sensation when using the application can be correctly transmitted to the user U according to the motion information specified from at least one of the image, acceleration, angular acceleration, and geomagnetism.
  • the tenth aspect of this embodiment is Means for acquiring environment information relating to the user's environment (for example, the processor 12 that executes the process of step S130); Means for correcting the selected binaural sound source information according to the acquired environment information (for example, the processor 12 that executes the process of step S131); The output means outputs the corrected binaural sound source information.
  • This is a binaural sound processing apparatus 10.
  • the binaural sound processing device 10 corrects the binaural sound according to the environment where the user U exists (that is, the binaural sound reproduction environment). Thereby, the user U can experience a tactile sensation according to the environment.
  • the eleventh aspect of this embodiment is Means for associating and storing the moving image content relating to the applied material and the binaural sound source information;
  • the means for selecting selects binaural sound source information associated with the video content to be played, Correct binaural sound source information according to the playback time of the video content.
  • This is a binaural sound processing apparatus 10.
  • the binaural sound processing device 10 presents a binaural sound in synchronization with the content designated by the user U. Thereby, it is possible to let the user U experience the tactile sensation when using the coated material introduced by the content while presenting the desired content.
  • the twelfth aspect of this embodiment is Means for associating and storing the CG content relating to the coating and the binaural sound source information;
  • the means for selecting selects binaural sound source information associated with the reproduced CG content, Binaural sound source information is changed in accordance with an operator instruction received during playback of CG content.
  • This is a binaural sound processing apparatus 10.
  • the tactile sensation when using the application is interactively and actively performed. It can be experienced.
  • the thirteenth aspect of this embodiment is A means for predicting a temporal change in composition of the coating identified by the determined coating identification information with reference to a prediction model for predicting a temporal change in composition when each coating is applied to the human body , Means for time-converting the selected binaural sound source information based on the predicted time change; The means for outputting outputs time-converted binaural sound source information.
  • This is a binaural sound processing apparatus 10.
  • the binaural sound processing device 10 corrects the binaural sound according to the reproduction time. Thereby, the user U can experience the time change of the tactile sensation when using the coating.
  • the fourteenth aspect of this embodiment is This is a program for causing a computer (for example, the processor 12) to realize any one of the above means.
  • the storage device 11 may be connected to the binaural sound processing device 10 via the network NW.
  • the storage device 31 may be connected to the server 30 via the network NW.
  • the binaural sound processing device 10 and the audio output device 20 may be integrally configured. In this case, the binaural sound processing device 10 and the audio output device 20 are connected by an electric circuit instead of wired communication or wireless communication.
  • the server 30 may execute at least a part of the steps executed by the binaural sound processing device 10.
  • the binaural sound processing device 10 transmits an information processing request to the server 30.
  • the server 30 performs information processing according to the request transmitted from the binaural sound processing device 10 and transmits a response including the result of the information processing to the binaural sound processing device 10.
  • the binaural sound processing device 10 transmits an audio signal to the audio output device 20 based on the information processing result included in the response transmitted from the server 30.
  • At least one of the databases stored in the storage device 11 may be stored in the storage device 31.
  • Audio processing system 10 Binaural sound processing device 11: Storage device 12: Processor 13: Input / output interface 14: Communication interface 20: Audio output device 30: Server 31: Storage device 32: Processor 33: Input / output interface 34: Communication interface

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Acoustics & Sound (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Stereophonic System (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

A binaural sound processing apparatus is provided with: a storage device in which application identification information for identifying each of a plurality of applications and binaural sound source information in which a sound when each application is applied to the skin is binaurally recorded are stored in association with each other; a means for determining application identification information that identifies at least one application from among the plurality of applications; a means for selecting the binaural sound source information associated with the determined application identification information; and a means for outputting the selected binaural sound source information.

Description

バイノーラル音処理装置、情報処理装置、及び、プログラムBinaural sound processing device, information processing device, and program
 本発明は、バイノーラル音処理装置、情報処理装置、及び、プログラムに関する。 The present invention relates to a binaural sound processing device, an information processing device, and a program.
 一般に、人体に塗布される塗布物(例えば、化粧料)が被塗布者に与える触感には個人差がある。
 例えば、化粧料の消費者は、化粧料を使用することによって得られる美容効果だけでなく、化粧料を使用したときの触感(例えば、肌触り)を考慮して、化粧料を選定する。
 一方、化粧料の販売者は、美容効果及び触感の両方を消費者に訴求することにより、化粧料の販売を促進する。
In general, there are individual differences in the tactile sensation that an applied object (for example, cosmetics) applied to a human body gives to an applied person.
For example, consumers of cosmetics select cosmetics in consideration of not only the cosmetic effect obtained by using the cosmetics but also the tactile sensation (for example, the touch) when using the cosmetics.
On the other hand, cosmetic sellers promote the sale of cosmetics by appealing to consumers both of beauty effects and tactile sensations.
 特開2003-186962号公報には、触感を考慮した化粧料の選定を支援するために、触感に関するパラメータを消費者に入力させ、且つ、消費者によって入力されたパラメータに応じた化粧料のレシピを提示する技術が開示されている。 Japanese Patent Application Laid-Open No. 2003-186762 discloses a recipe for cosmetics according to a parameter input by a consumer in order to input a parameter related to the touch to support selection of the cosmetic in consideration of the touch. The technique which presents is disclosed.
 しかし、特開2003-186962号公報の技術では、消費者に触感を体験させることができない。そのため、提示されたレシピに対応する化粧料を実際に使用したときに消費者が感じる触感は、パラメータを入力したときに消費者が想像した触感とは異なる可能性がある。
 特に、近年急速に普及しているオンラインショッピングでは、消費者は、化粧料の触感を体験することができない
However, the technique disclosed in Japanese Patent Application Laid-Open No. 2003-18662 cannot allow a consumer to experience tactile sensation. Therefore, the tactile sensation that the consumer feels when actually using the cosmetics corresponding to the presented recipe may be different from the tactile sensation that the consumer imagined when inputting the parameters.
In particular, in online shopping, which has been rapidly spreading in recent years, consumers cannot experience the touch of cosmetics.
 つまり、従来、塗布物を使用する前に、塗布物の触感を消費者が体験することはできない。 That is, conventionally, the consumer cannot experience the feel of the coating before using the coating.
 本発明の目的は、塗布物を使用する前に、塗布物の触感を消費者に体験させることである。 An object of the present invention is to allow a consumer to experience the feel of a coating before using the coating.
 本発明の一態様は、
 複数の塗布物のそれぞれを識別する塗布物識別情報と、各塗布物を肌に塗布したときの音がバイノーラル録音されたバイノーラル音源情報と、を関連付けて記憶する手段を備え、
 複数の塗布物の中から少なくとも1つの塗布物を識別する塗布物識別情報を決定する手段を備え、
 前記決定された塗布物識別情報に関連付けられたバイノーラル音源情報を選択する手段を備え、
 前記選択されたバイノーラル音源情報を出力する手段を備える、
バイノーラル音処理装置である。
One embodiment of the present invention provides:
Means for storing the application identification information for identifying each of the plurality of applications and the binaural sound source information in which the sound when each application is applied to the skin is binaurally recorded;
Means for determining application identification information for identifying at least one application from a plurality of applications;
Means for selecting binaural sound source information associated with the determined application identification information;
Means for outputting the selected binaural sound source information;
It is a binaural sound processing device.
 本発明によれば、塗布物を使用する前に、塗布物の触感を消費者に体験させることができる。 According to the present invention, it is possible to allow the consumer to experience the feel of the coating before using the coating.
本実施形態の音声処理システムの構成を示す概略図である。It is the schematic which shows the structure of the speech processing system of this embodiment. 図1の音声処理システムの構成を示すブロック図である。It is a block diagram which shows the structure of the speech processing system of FIG. 本実施形態の概要の説明図である。It is explanatory drawing of the outline | summary of this embodiment. 本実施形態の塗布物情報データベースのデータ構造を示す図である。It is a figure which shows the data structure of the applied material information database of this embodiment. 本実施形態の情報処理のフローチャートである。It is a flowchart of the information processing of this embodiment. 図5の情報処理において表示される画面例を示す図である。It is a figure which shows the example of a screen displayed in the information processing of FIG. 変形例1の概要の説明図である。10 is an explanatory diagram of an outline of Modification 1. FIG. 変形例1のユーザ情報データベースのデータ構造を示す図である。It is a figure which shows the data structure of the user information database of the modification 1. 変形例1の情報処理のフローチャートである。10 is a flowchart of information processing according to Modification 1; 図9の情報処理において表示される画面例を示す図である。It is a figure which shows the example of a screen displayed in the information processing of FIG. 変形例2の概要の説明図である。It is explanatory drawing of the outline | summary of the modification 2. FIG. 変形例2の情報処理のフローチャートである。10 is a flowchart of information processing according to a second modification. 変形例3の概要の説明図である。It is explanatory drawing of the outline | summary of the modification 3. 変形例3の情報処理のフローチャートである。10 is a flowchart of information processing according to Modification 3; 変形例4の概要の説明図である。It is explanatory drawing of the outline | summary of the modification 4. 変形例4の情報処理のフローチャートである。10 is a flowchart of information processing according to Modification 4; 図16の情報処理において表示される画面例を示す図である。It is a figure which shows the example of a screen displayed in the information processing of FIG. 変形例5の概要の説明図である。10 is an explanatory diagram of an outline of modification example 5. FIG. 変形例5の情報処理のフローチャートである。10 is a flowchart of information processing according to Modification 5;
 以下、本発明の一実施形態について、図面に基づいて詳細に説明する。なお、実施形態を説明するための図面において、同一の構成要素には原則として同一の符号を付し、その繰り返しの説明は省略する。 Hereinafter, an embodiment of the present invention will be described in detail based on the drawings. Note that in the drawings for describing the embodiments, the same components are denoted by the same reference symbols in principle, and the repetitive description thereof will be omitted.
(1)音声処理システムの構成
 音声処理システムの構成について説明する。図1は、本実施形態の音声処理システムの構成を示す概略図である。図2は、図1の音声処理システムの構成を示すブロック図である。
(1) Configuration of Voice Processing System The configuration of the voice processing system will be described. FIG. 1 is a schematic diagram illustrating a configuration of a voice processing system according to the present embodiment. FIG. 2 is a block diagram showing a configuration of the voice processing system of FIG.
 図1及び図2に示すように、音声処理システム1は、バイノーラル音処理装置10と、音声出力装置20と、サーバ30と、を備える。
 バイノーラル音処理装置10及び音声出力装置20は、有線通信又は無線通信によって接続される。バイノーラル音処理装置10及びサーバ30は、ネットワーク(例えば、インターネット又はイントラネット)NWを介して接続される。
 ユーザUは、音声出力装置20を介して、バイノーラル音処理装置10によって処理された音声(例えば、バイノーラル音)を聴くことができる。
As shown in FIGS. 1 and 2, the sound processing system 1 includes a binaural sound processing device 10, a sound output device 20, and a server 30.
The binaural sound processing device 10 and the audio output device 20 are connected by wired communication or wireless communication. The binaural sound processing apparatus 10 and the server 30 are connected via a network (for example, the Internet or an intranet) NW.
The user U can listen to the sound (for example, binaural sound) processed by the binaural sound processing device 10 via the sound output device 20.
 バイノーラル音処理装置10は、バイノーラル音の音声信号を生成するように構成される。
 また、バイノーラル音処理装置10は、サーバ30にリクエストを送信する情報処理装置の一例である。バイノーラル音処理装置10は、例えば、スマートフォン、タブレット端末、又は、パーソナルコンピュータである。
The binaural sound processing device 10 is configured to generate a binaural sound signal.
The binaural sound processing device 10 is an example of an information processing device that transmits a request to the server 30. The binaural sound processing device 10 is, for example, a smartphone, a tablet terminal, or a personal computer.
 音声出力装置20は、バイノーラル音処理装置10から送信された音声信号に対応するバイノーラル音を出力するように構成される。音声出力装置20は、例えば、ヘッドフォン、又は、イヤフォンである。 The audio output device 20 is configured to output a binaural sound corresponding to the audio signal transmitted from the binaural sound processing device 10. The audio output device 20 is, for example, a headphone or an earphone.
 サーバ30は、バイノーラル音処理装置10から送信されたリクエストに応じたレスポンスをバイノーラル音処理装置10に提供する情報処理装置の一例である。サーバ30は、例えば、ウェブサーバである。 The server 30 is an example of an information processing apparatus that provides the binaural sound processing apparatus 10 with a response corresponding to the request transmitted from the binaural sound processing apparatus 10. The server 30 is, for example, a web server.
(1-1)バイノーラル音処理装置の構成
 図2を参照して、バイノーラル音処理装置10の構成について説明する。
(1-1) Configuration of Binaural Sound Processing Device The configuration of the binaural sound processing device 10 will be described with reference to FIG.
 図2に示すように、バイノーラル音処理装置10は、記憶装置11と、プロセッサ12と、入出力インタフェース13と、通信インタフェース14とを備える。 As shown in FIG. 2, the binaural sound processing device 10 includes a storage device 11, a processor 12, an input / output interface 13, and a communication interface 14.
 記憶装置11は、プログラム及びデータを記憶するように構成される。記憶装置11は、例えば、ROM(Read Only Memory)、RAM(Random Access Memory)、及び、ストレージ(例えば、フラッシュメモリ又はハードディスク)の組合せである。 The storage device 11 is configured to store a program and data. The storage device 11 is, for example, a combination of a ROM (Read Only Memory), a RAM (Random Access Memory), and a storage (for example, a flash memory or a hard disk).
 プログラムは、例えば、以下のプログラムを含む。
 ・OS(Operating System)のプログラム
 ・情報処理を実行するアプリケーション(例えば、バイノーラル音の処理のためのアプリケーション)のプログラム
The programs include, for example, the following programs.
An OS (Operating System) program An application program for executing information processing (for example, an application for binaural sound processing)
 データは、例えば、以下のデータを含む。
 ・情報処理において参照されるデータベース
 ・情報処理を実行することによって得られるデータ(つまり、情報処理の実行結果)
The data includes, for example, the following data.
-Database referenced in information processing-Data obtained by executing information processing (that is, information processing execution result)
 プロセッサ12は、記憶装置11に記憶されたプログラムを起動することによって、バイノーラル音処理装置10の機能を実現するように構成される。プロセッサ12は、コンピュータの一例である。 The processor 12 is configured to realize the function of the binaural sound processing device 10 by starting a program stored in the storage device 11. The processor 12 is an example of a computer.
 入出力インタフェース13は、バイノーラル音処理装置10に接続される入力デバイスからユーザの指示を取得し、かつ、バイノーラル音処理装置10に接続される出力デバイスに情報を出力するように構成される。
 入力デバイスは、例えば、キーボード、ポインティングデバイス、タッチパネル、又は、それらの組合せである。
 出力デバイスは、例えば、ディスプレイである。
The input / output interface 13 is configured to acquire a user instruction from an input device connected to the binaural sound processing apparatus 10 and to output information to an output device connected to the binaural sound processing apparatus 10.
The input device is, for example, a keyboard, a pointing device, a touch panel, or a combination thereof.
The output device is, for example, a display.
 通信インタフェース14は、バイノーラル音処理装置10とサーバ30との間の通信を制御するように構成される。 The communication interface 14 is configured to control communication between the binaural sound processing device 10 and the server 30.
(1-2)サーバの構成
 図2を参照して、サーバ30の構成について説明する。
(1-2) Server Configuration The configuration of the server 30 will be described with reference to FIG.
 図2に示すように、サーバ30は、記憶装置31と、プロセッサ32と、入出力インタフェース33と、通信インタフェース34とを備える。 As shown in FIG. 2, the server 30 includes a storage device 31, a processor 32, an input / output interface 33, and a communication interface 34.
 記憶装置31は、プログラム及びデータを記憶するように構成される。記憶装置31は、例えば、ROM、RAM、及び、ストレージ(例えば、フラッシュメモリ又はハードディスク)の組合せである。 The storage device 31 is configured to store programs and data. The storage device 31 is, for example, a combination of ROM, RAM, and storage (for example, flash memory or hard disk).
 プログラムは、例えば、以下のプログラムを含む。
 ・OSのプログラム
 ・情報処理を実行するアプリケーションのプログラム
The programs include, for example, the following programs.
-OS program-Application program that executes information processing
 データは、例えば、以下のデータを含む。
 ・情報処理において参照されるデータベース
 ・情報処理の実行結果
The data includes, for example, the following data.
・ Database referenced in information processing ・ Results of information processing
 プロセッサ32は、記憶装置31に記憶されたプログラムを起動することによって、サーバ30の機能を実現するように構成される。プロセッサ32は、コンピュータの一例である。 The processor 32 is configured to realize the function of the server 30 by starting a program stored in the storage device 31. The processor 32 is an example of a computer.
 入出力インタフェース33は、サーバ30に接続される入力デバイスからユーザの指示を取得し、かつ、サーバ30に接続される出力デバイスに情報を出力するように構成される。
 入力デバイスは、例えば、キーボード、ポインティングデバイス、タッチパネル、又は、それらの組合せである。
 出力デバイスは、例えば、ディスプレイである。
The input / output interface 33 is configured to acquire a user instruction from an input device connected to the server 30 and output information to an output device connected to the server 30.
The input device is, for example, a keyboard, a pointing device, a touch panel, or a combination thereof.
The output device is, for example, a display.
 通信インタフェース34は、サーバ30とバイノーラル音処理装置10との間の通信を制御するように構成される。 The communication interface 34 is configured to control communication between the server 30 and the binaural sound processing device 10.
(2)実施形態の概要
 本実施形態の概要について説明する。図3は、本実施形態の概要の説明図である。
(2) Overview of Embodiment An overview of this embodiment will be described. FIG. 3 is an explanatory diagram of the outline of the present embodiment.
 バイノーラル音処理装置10には、バイノーラル音源情報が記憶されている。バイノーラル音源情報は、人体に塗布可能な塗布物に関連付けられている。塗布物とは、例えば、肌に塗布可能な化粧料である。化粧料としては、例えば、メーキャップ用化粧料、スキンケア用化粧料、ヘアケア用化粧料などが挙げられる。化粧料の形態は、例えば、固体、液体、スプレー状などが挙げられる。
 バイノーラル音源情報には、各塗布物を人体に塗布したときに鼓膜に伝わる振動によって再現されるバイノーラル音が記録されている。
 ユーザUが所望の塗布物を指定すると、バイノーラル音処理装置10は、指定された塗布物に関連付けられたバイノーラル音源情報を音声出力装置20に出力する。
 音声出力装置20は、バイノーラル音処理装置10から出力されたバイノーラル音源情報に記録されたバイノーラル音を出力する。
The binaural sound processing apparatus 10 stores binaural sound source information. Binaural sound source information is associated with an applied material that can be applied to the human body. The applied product is, for example, a cosmetic that can be applied to the skin. Examples of the cosmetics include makeup cosmetics, skin care cosmetics, hair care cosmetics, and the like. As for the form of cosmetics, solid, liquid, spray form etc. are mentioned, for example.
In the binaural sound source information, a binaural sound that is reproduced by vibration transmitted to the eardrum when each application is applied to the human body is recorded.
When the user U designates a desired application, the binaural sound processing device 10 outputs binaural sound source information associated with the designated application to the audio output device 20.
The audio output device 20 outputs the binaural sound recorded in the binaural sound source information output from the binaural sound processing device 10.
 このような塗布物のバイノーラル音は、聴覚と、聴覚に付随して生じる触覚と、を刺激することにより、ユーザUに対して、塗布物を使用したときの触感を体験させることができる。本実施形態では、ユーザUに所望の塗布物のバイノーラル音を聴かせることにより、所望の塗布物を使用したときの触感を提示することができる。 Such a binaural sound of the coating can stimulate the sense of hearing and the tactile sensation that accompanies the hearing, thereby allowing the user U to experience the tactile sensation when using the coating. In the present embodiment, by letting the user U hear the binaural sound of the desired application, it is possible to present a tactile sensation when using the desired application.
(3)データベース
 本実施形態のデータベースについて説明する。以下のデータベースは、記憶装置11に記憶される。
(3) Database The database of this embodiment will be described. The following databases are stored in the storage device 11.
(3-1)塗布物情報データベース
 本実施形態の塗布物情報データベースについて説明する。図4は、本実施形態の塗布物情報データベースのデータ構造を示す図である。
(3-1) Applied Product Information Database The applied product information database of this embodiment will be described. FIG. 4 is a diagram showing a data structure of the applied product information database according to the present embodiment.
 図4の塗布物情報データベースには、塗布物に関する塗布物情報が格納される。
 塗布物情報データベースは、「塗布物ID」フィールドと、「塗布物名」フィールドと、「推奨属性」フィールドと、「バイノーラル音源」フィールドと、「コンテンツ」フィールドと、を含む。各フィールドは、互いに関連付けられている。
The applied material information database of FIG. 4 stores applied material information related to the applied material.
The application information database includes an “application ID” field, an “application name” field, a “recommended attribute” field, a “binaural sound source” field, and a “content” field. Each field is associated with each other.
 「塗布物ID」フィールドには、塗布物を識別する塗布物ID(「塗布物識別情報」の一例)が格納される。塗布物IDは、塗布物情報データベースのレコード(以下「塗布物情報レコード」という)の主キーである。 In the “application ID” field, an application ID for identifying the application (an example of “application identification information”) is stored. The application ID is a main key of a record in the application information database (hereinafter referred to as “application information record”).
 「塗布物名」フィールドには、塗布物の名称に関する情報(例えば、テキスト)が格納される。 In the “application name” field, information (for example, text) relating to the name of the application is stored.
 「推奨属性」フィールドには、塗布物の使用が推奨されるユーザ属性に関する情報(以下「推奨属性情報」という)が格納される。「推奨属性」フィールドは、「性別」フィールドと、「年齢」フィールドと、「肌状態」フィールドと、を含む。 In the “recommended attribute” field, information related to user attributes for which the use of the applied product is recommended (hereinafter referred to as “recommended attribute information”) is stored. The “recommended attribute” field includes a “gender” field, an “age” field, and a “skin condition” field.
 「性別」フィールドには、塗布物の使用が推奨される性別に関する情報が格納される。 In the “Gender” field, information on the gender recommended to use the coating is stored.
 「年齢」フィールドには、塗布物の使用が推奨される年齢に関する情報が格納される。 In the “age” field, information on the age at which the use of the applied product is recommended is stored.
 「肌状態」フィールドには、塗布物の使用が推奨される肌状態に関する情報が格納される。 In the “skin state” field, information on the skin state where the use of the applied product is recommended is stored.
 「バイノーラル音源」フィールドには、塗布物を塗布したときの振動音が記録されたバイノーラル音源ファイル(「バイノーラル音源情報」の一例)が格納される。 In the “binaural sound source” field, a binaural sound source file (an example of “binaural sound source information”) in which a vibration sound when applying a coating is recorded is stored.
 「コンテンツ」フィールドには、塗布物に関するコンテンツのコンテンツファイルが格納される。コンテンツは、例えば、以下の少なくとも1つを含む。
 ・動画コンテンツ
 ・静止画コンテンツ
 ・CG(Computer Graphics)コンテンツ
 ・音声コンテンツ
In the “content” field, a content file of content related to the applied material is stored. The content includes, for example, at least one of the following.
・ Video content ・ Still image content ・ CG (Computer Graphics) content ・ Audio content
(4)情報処理
 本実施形態の情報処理について説明する。図5は、本実施形態の情報処理のフローチャートである。図6は、図5の情報処理において表示される画面例を示す図である。
(4) Information processing The information processing of this embodiment is demonstrated. FIG. 5 is a flowchart of information processing according to this embodiment. FIG. 6 is a diagram illustrating an example of a screen displayed in the information processing of FIG.
 図5に示すように、バイノーラル音処理装置10は、塗布物の指定の受付(S100)を実行する。
 具体的には、プロセッサ12は、画面P100(図6)をディスプレイに表示する。
As shown in FIG. 5, the binaural sound processing device 10 performs designation of application (S100).
Specifically, the processor 12 displays the screen P100 (FIG. 6) on the display.
 画面P100は、操作オブジェクトB100a~B100bを含む。
 操作オブジェクトB100a~B100bは、塗布物を指定するためのユーザ指示を受け付けるオブジェクトである。操作オブジェクトB100a~B100bには、塗布物IDが割り当てられている。
The screen P100 includes operation objects B100a to B100b.
The operation objects B100a to B100b are objects that receive a user instruction for designating a coating material. An application ID is assigned to the operation objects B100a to B100b.
 例えば、ユーザUが操作オブジェクトB100aを操作すると、プロセッサ12は、操作オブジェクトB100aに割り当てられた塗布物IDを特定する。これにより、塗布物の指定が受け付けられる。 For example, when the user U operates the operation object B100a, the processor 12 specifies the application ID assigned to the operation object B100a. Thereby, designation | designated of a coating material is received.
 ステップS100の後、バイノーラル音処理装置10は、バイノーラル音源の選択(S101)を実行する。
 具体的には、プロセッサ12は、塗布物情報データベース(図4)を参照して、ステップS100で特定された塗布物IDに関連付けられた「バイノーラル音源」フィールドの情報(つまり、バイノーラル音源ファイル)を読み出す。
After step S100, the binaural sound processing apparatus 10 executes binaural sound source selection (S101).
Specifically, the processor 12 refers to the application information database (FIG. 4), and obtains information on the “binaural sound source” field (that is, a binaural sound source file) associated with the application ID specified in step S100. read out.
 ステップS101の後、バイノーラル音処理装置10は、バイノーラル音の再生(S102)を実行する。
 具体的には、プロセッサ12は、ステップS101で読み出したバイノーラル音源ファイルを開くことにより、バイノーラル音源ファイルに記録されたバイノーラル音の音声信号を生成する。
 プロセッサ12は、生成した音声信号を音声出力装置20に送信する。
 音声出力装置20は、プロセッサ12から送信された音声信号に基づいて、バイノーラル音を出力する。
After step S101, the binaural sound processing apparatus 10 executes binaural sound reproduction (S102).
Specifically, the processor 12 generates the binaural sound signal recorded in the binaural sound source file by opening the binaural sound source file read in step S101.
The processor 12 transmits the generated audio signal to the audio output device 20.
The audio output device 20 outputs a binaural sound based on the audio signal transmitted from the processor 12.
 本実施形態によれば、ユーザUは、音声出力装置20によって出力されるバイノーラル音を聴くことにより、所望の塗布物を使用したときの触感を体験することができる。 According to the present embodiment, the user U can experience a tactile sensation when using a desired application by listening to the binaural sound output by the audio output device 20.
(5)変形例
 本実施形態の変形例について説明する。
(5) Modification A modification of the present embodiment will be described.
(5-1)変形例1
 変形例1について説明する。変形例1は、塗布物、及び、ユーザUのユーザ属性の組合せに応じたバイノーラル音を出力する例である。
(5-1) Modification 1
Modification 1 will be described. The modified example 1 is an example in which a binaural sound corresponding to a combination of a coating material and a user attribute of the user U is output.
(5-1-1)変形例1の概要
 変形例1の概要について説明する。図7は、変形例1の概要の説明図である。
(5-1-1) Overview of Modification 1 An overview of Modification 1 will be described. FIG. 7 is an explanatory diagram of an outline of the first modification.
 図7のバイノーラル音処理装置10には、バイノーラル音源情報が記憶されている。バイノーラル音源情報は、塗布物及びユーザ属性の組合せ(例えば、ユーザUのユーザ属性から使用が推奨される塗布物)に関連付けられている。
 ユーザUが所望の塗布物を指定すると、バイノーラル音処理装置10は、指定された塗布物及びユーザUのユーザ属性の組合せに関連付けられたバイノーラル音源情報を音声出力装置20に出力する。
 音声出力装置20は、バイノーラル音処理装置10から出力されたバイノーラル音源情報に記録されたバイノーラル音を出力する。
In the binaural sound processing apparatus 10 of FIG. 7, binaural sound source information is stored. The binaural sound source information is associated with a combination of an application and a user attribute (for example, an application recommended to be used from the user attribute of the user U).
When the user U designates a desired application, the binaural sound processing apparatus 10 outputs binaural sound source information associated with the combination of the designated application and the user attribute of the user U to the audio output device 20.
The audio output device 20 outputs the binaural sound recorded in the binaural sound source information output from the binaural sound processing device 10.
 変形例1では、ユーザUの所望の塗布物のうち、ユーザUのユーザ属性が関連付けられた塗布物のバイノーラル音を聴かせることにより、ユーザUにとって使用が推奨される塗布物を塗布したときに感じる触感を提示することができる。 In the first modification, among the desired coating materials of the user U, by applying a binaural sound of the coating material to which the user attribute of the user U is associated, a coating material recommended for the user U is applied. A feeling of touch can be presented.
(5-1-2)データベース
 変形例1のデータベースについて説明する。
(5-1-2) Database A database according to Modification 1 will be described.
(5-1-2-1)ユーザ情報データベース
 変形例1のユーザ情報データベースについて説明する。図8は、変形例1のユーザ情報データベースのデータ構造を示す図である。
(5-1-2-1) User Information Database A user information database according to the first modification will be described. FIG. 8 is a diagram illustrating a data structure of the user information database according to the first modification.
 図8のユーザ情報データベースは、「ユーザID」フィールドと、「ユーザ名」フィールドと、「ユーザ属性」フィールドと、「行動履歴」フィールドと、を含む。
 各フィールドは、互いに関連付けられている。
The user information database in FIG. 8 includes a “user ID” field, a “user name” field, a “user attribute” field, and an “behavior history” field.
Each field is associated with each other.
 「ユーザID」フィールドには、ユーザUを識別するユーザID(「ユーザ識別情報」の一例)が格納される。ユーザIDは、ユーザ情報データベースのレコード(以下「ユーザ情報レコード」という)の主キーである。 In the “user ID” field, a user ID for identifying the user U (an example of “user identification information”) is stored. The user ID is a primary key of a record in the user information database (hereinafter referred to as “user information record”).
 「ユーザ名」フィールドには、ユーザUのユーザ名に関する情報(例えば、テキスト)が格納される。 In the “user name” field, information (for example, text) related to the user name of the user U is stored.
 「ユーザ属性」フィールドには、ユーザUの属性に関するユーザ属性情報が格納される。「ユーザ属性」フィールドは、「性別」フィールドと、「年齢」フィールドと、「肌状態」フィールドと、を含む。 In the “user attribute” field, user attribute information regarding the attribute of the user U is stored. The “user attribute” field includes a “gender” field, an “age” field, and a “skin condition” field.
 「性別」フィールドには、ユーザUの性別に関する情報が格納される。 In the “gender” field, information on the gender of the user U is stored.
 「年齢」フィールドには、ユーザUの年齢に関する情報が格納される。 In the “age” field, information about the age of the user U is stored.
 「肌状態」フィールドには、ユーザUの肌状態に関する肌状態情報が格納される。「肌状態」フィールドには、以下の少なくとも1つの方法によりユーザ情報データベースに格納される。
 ・プロセッサ12は、ユーザUによって入力された肌状態情報を「肌状態」フィールドに格納する。
 ・プロセッサ12は、通信インタフェース14を介して、肌状態情報を取得可能なデバイス(例えば、スマートフォン)から送信された肌状態情報を「肌状態」フィールドに格納する。
 ・プロセッサ12は、ユーザUが装着したウェアラブルデバイスから送信された肌状態情報を「肌状態」フィールドに格納する。
In the “skin state” field, skin state information regarding the skin state of the user U is stored. The “skin state” field is stored in the user information database by at least one of the following methods.
The processor 12 stores the skin condition information input by the user U in the “skin condition” field.
The processor 12 stores the skin condition information transmitted from the device (for example, a smartphone) capable of acquiring the skin condition information via the communication interface 14 in the “skin condition” field.
The processor 12 stores the skin condition information transmitted from the wearable device worn by the user U in the “skin condition” field.
 「行動履歴」フィールドには、ユーザUの行動の履歴に関する行動履歴情報が格納される。「行動履歴」フィールドは、「閲覧履歴」フィールドと、「購入履歴」フィールドと、を含む。 In the “behavior history” field, behavior history information related to the history of the behavior of the user U is stored. The “behavior history” field includes a “browsing history” field and a “purchase history” field.
 「閲覧履歴」フィールドには、ウェブサイトの閲覧履歴に関する閲覧履歴情報(一例として、ユーザUが閲覧したウェブサイトのURL(Uniform Resource Locator))が格納される。 In the “browsing history” field, browsing history information related to the browsing history of the website (for example, the URL (Uniform Resource Locator) of the website browsed by the user U) is stored.
 「購入履歴」フィールドには、商品の購入履歴に関する購入履歴情報(一例として、ユーザUが購入した塗布物の塗布物ID、及び、購入日に関する情報)が格納される。 In the “purchase history” field, purchase history information related to the purchase history of the product (for example, information on the application ID of the application purchased by the user U and information on the purchase date) is stored.
(5-1-3)情報処理
 変形例1の情報処理について説明する。図9は、変形例1の情報処理のフローチャートである。図10は、図9の情報処理において表示される画面例を示す図である。
(5-1-3) Information Processing Information processing according to the first modification will be described. FIG. 9 is a flowchart of information processing according to the first modification. FIG. 10 is a diagram illustrating an example of a screen displayed in the information processing of FIG.
 図9に示すように、バイノーラル音処理装置10は、ユーザ情報の取得(S110)を実行する。
 具体的には、プロセッサ12は、画面P110(図10)をディスプレイに表示する。
As shown in FIG. 9, the binaural sound processing device 10 executes acquisition of user information (S110).
Specifically, the processor 12 displays the screen P110 (FIG. 10) on the display.
 画面P110は、操作オブジェクトB110と、フィールドオブジェクトF110と、を含む。
 フィールドオブジェクトF110は、ユーザ情報の入力を受け付けるオブジェクトである。
 操作オブジェクトB110は、フィールドオブジェクトF110に入力されたユーザ情報を確定させるためのユーザ指示を受け付けるオブジェクトである。
The screen P110 includes an operation object B110 and a field object F110.
The field object F110 is an object that accepts input of user information.
The operation object B110 is an object that receives a user instruction for confirming user information input to the field object F110.
 例えば、ユーザUがフィールドオブジェクトF110にユーザIDを入力し、且つ、操作オブジェクトB110を操作すると、プロセッサ12は、ユーザ情報データベース(図8)を参照して、フィールドオブジェクトF110に入力されたユーザIDに関連付けられたユーザ情報レコードを特定する。 For example, when the user U inputs the user ID to the field object F110 and operates the operation object B110, the processor 12 refers to the user information database (FIG. 8) and sets the user ID input to the field object F110. Identifies the associated user information record.
 ステップS110の後、バイノーラル音処理装置10は、バイノーラル音源の選択(S111)を実行する。 After step S110, the binaural sound processing device 10 executes binaural sound source selection (S111).
 ステップS111の第1例では、プロセッサ12は、塗布物情報データベース(図4)の「推奨属性」フィールドを参照して、ステップS111で特定したユーザ情報レコードに含まれるユーザ属性情報(例えば、性別、年齢、及び、肌状態に関する情報)に対応する塗布物情報レコードを特定する。
 プロセッサ12は、塗布物情報レコードの「バイノーラル音源」フィールドの情報(つまり、バイノーラル音源ファイル)を読み出す。
In the first example of step S111, the processor 12 refers to the “recommended attribute” field of the application information database (FIG. 4), and includes user attribute information (for example, gender, The application information record corresponding to age and information on skin condition) is specified.
The processor 12 reads the information in the “binaural sound source” field (that is, the binaural sound source file) of the application information record.
 ステップS111の第2例では、記憶装置11には、ユーザUの行動履歴、及び、ユーザUが嗜好する塗布物の相関モデルが記憶されている。相関モデルの入力は、ユーザUの行動履歴である。相関モデルの出力は、塗布物情報である。
 プロセッサ12は、ステップS111で特定したユーザ情報レコードに含まれる「行動履歴」フィールドの情報(例えば、「閲覧履歴」フィールド及び「購入履歴」フィールドの少なくとも1つの情報)を相関モデルに入力することにより、ユーザUに対して使用が推奨される塗布物に関する塗布物情報(例えば、塗布物ID)を予測する。
 プロセッサ12は、塗布物情報データベース(図4)を参照して、予測した塗布物IDに関連付けられた「バイノーラル音源」フィールドの情報(つまり、バイノーラル音源ファイル)を読み出す。
In the second example of step S111, the storage device 11 stores an action history of the user U and a correlation model of the applied product that the user U likes. The input of the correlation model is the action history of the user U. The output of the correlation model is application information.
The processor 12 inputs the information of the “behavior history” field (for example, at least one information of the “browsing history” field and the “purchase history” field) included in the user information record specified in step S111 into the correlation model. Application information (for example, application ID) relating to an application recommended for use by the user U is predicted.
The processor 12 reads the information of the “binaural sound source” field (that is, the binaural sound source file) associated with the predicted application ID by referring to the application information database (FIG. 4).
 ステップS111の後、バイノーラル音処理装置10は、図5と同様に、バイノーラル音の再生(S102)を実行する。 After step S111, the binaural sound processing apparatus 10 performs binaural sound reproduction (S102), as in FIG.
 変形例1によれば、ユーザUは、音声出力装置20によって出力されるバイノーラル音を聴くことにより、自身の属性を考慮して使用が推奨される塗布物を使用したときの触感を体験することができる。 According to the first modification, the user U can experience the tactile sensation when using the recommended application in consideration of his / her attributes by listening to the binaural sound output by the audio output device 20. Can do.
(5-2)変形例2
 変形例2について説明する。変形例2は、ユーザUの動きに応じて最適化されたバイノーラル音を出力する例である。
(5-2) Modification 2
Modification 2 will be described. The modified example 2 is an example in which a binaural sound optimized according to the movement of the user U is output.
(5-2-1)変形例2の概要
 変形例2の概要について説明する。図11は、変形例2の概要の説明図である。
(5-2-1) Overview of Modification 2 An overview of Modification 2 will be described. FIG. 11 is an explanatory diagram of an outline of the second modification.
 図11に示すように、音声出力装置20から出力されるバイノーラル音を聴いている間に、ユーザUが動くと、バイノーラル音処理装置10は、ユーザUの動きに応じてバイノーラル音を補正する。
 音声出力装置20は、バイノーラル音処理装置10によって補正されたバイノーラル音を出力する。
As illustrated in FIG. 11, when the user U moves while listening to the binaural sound output from the audio output device 20, the binaural sound processing device 10 corrects the binaural sound according to the movement of the user U.
The audio output device 20 outputs the binaural sound corrected by the binaural sound processing device 10.
(5-2-2)情報処理
 変形例2の情報処理について説明する。図12は、変形例2の情報処理のフローチャートである。
(5-2-2) Information Processing Information processing according to the second modification will be described. FIG. 12 is a flowchart of information processing according to the second modification.
 図12に示すように、バイノーラル音処理装置10は、図9と同様に、ステップS100~S101を実行する。 As shown in FIG. 12, the binaural sound processing apparatus 10 executes steps S100 to S101 as in FIG.
 ステップS101の後、バイノーラル音処理装置10は、動き情報の取得(S120)を実行する。
 具体的には、バイノーラル音処理装置10は、ユーザの動きを検出するように構成されたモーションセンサ(不図示)に接続される。モーションセンサは、例えば、以下の少なくとも1つを含む。
 ・ユーザUの画像を検出するイメージセンサ
 ・ユーザUの体の一部(例えば、手)の加速度を検出する加速度センサ
 ・ユーザUの体の一部(例えば、手)の角加速度を検出するジャイロセンサ
 ・地磁気を検出する地磁気センサ
After step S101, the binaural sound processing device 10 executes motion information acquisition (S120).
Specifically, the binaural sound processing device 10 is connected to a motion sensor (not shown) configured to detect a user's movement. The motion sensor includes, for example, at least one of the following.
An image sensor that detects an image of the user U An acceleration sensor that detects an acceleration of a part of the user U's body (for example, a hand) A gyro that detects an angular acceleration of a part of the user U's body (for example, the hand) Sensor ・ A geomagnetic sensor that detects geomagnetism
 プロセッサ12は、モーションセンサによって検出された情報(例えば、画像、加速度、ジャイロ、及び、地磁気の少なくとも1つ)に基づいて、ユーザUの動きを計算する。 The processor 12 calculates the movement of the user U based on information detected by the motion sensor (for example, at least one of an image, acceleration, gyro, and geomagnetism).
 ステップS120の後、バイノーラル音処理装置10は、バイノーラル音の補正(S121)を実行する。
 具体的には、記憶装置11には、ユーザUの動き毎の補正パラメータが格納されている。
 プロセッサ12は、ステップS120で計算した動きに対応する補正パラメータを用いて、バイノーラル音の音声特性を補正する。音声特性は、例えば、以下の少なくとも1つを含む。
 ・周波数(一例として、再生速度)
 ・音圧
 ・左右のバイノーラル音の時間差(一例として、位相差)
After step S120, the binaural sound processing apparatus 10 performs binaural sound correction (S121).
Specifically, the storage device 11 stores correction parameters for each movement of the user U.
The processor 12 corrects the sound characteristics of the binaural sound using the correction parameter corresponding to the motion calculated in step S120. The voice characteristic includes, for example, at least one of the following.
・ Frequency (playback speed as an example)
-Sound pressure-Time difference between left and right binaural sounds (as an example, phase difference)
 ステップS121の後、バイノーラル音処理装置10は、図9と同様に、ステップS102を実行する。 After step S121, the binaural sound processing device 10 executes step S102 as in FIG.
 変形例2によれば、バイノーラル音処理装置10は、ユーザUの動きに応じてバイノーラル音を補正する。これにより、ユーザUに対して、バイノーラル音を聴いている間の動きに応じて、塗布物を使用するときの触感をインタラクティブ且つ能動的に体験させることができる。
 また、ユーザUは、自身の動きに応じて最適化されたバイノーラル音を聴くことができる。これにより、バイノーラル音を聴いている間にユーザUが動いたとしても、塗布物を使用するときの触感をユーザUに正しく伝達することができる。
 より具体的には、ユーザUが自分の肌を撫でる速度に応じて周波数を補正することにより、肌を撫でる動作に応じたインタラクティブな触感を提示することができる。
 ユーザUが自分の肌を撫でる位置及び方向に応じて左右のバイノーラル音の時間差を補正することにより、肌を撫でる位置及び方向に応じたインタラクティブな触感を提示することができる。
 ユーザUが自分の肌を撫でる強さに応じて音圧を補正することにより、肌を撫でる強さに応じたインタラクティブな触感を提示することができる。
 ユーザUが自分の肌を撫でる際に生じる実際の音の逆位相の音をバイノーラル音に重畳することにより、実際の音が打ち消されるので、触感のみに対応するバイノーラル音を提示することができる。
According to the second modification, the binaural sound processing device 10 corrects the binaural sound according to the movement of the user U. Thereby, it is possible to cause the user U to interactively and actively experience the tactile sensation when using the application according to the movement while listening to the binaural sound.
Further, the user U can listen to the binaural sound optimized according to his / her movement. Thereby, even if the user U moves while listening to the binaural sound, the tactile sensation when using the coating can be correctly transmitted to the user U.
More specifically, by correcting the frequency according to the speed at which the user U strokes his / her skin, an interactive tactile sensation according to the motion of stroking the skin can be presented.
By correcting the time difference between the left and right binaural sounds according to the position and direction in which the user U strokes his / her skin, an interactive tactile sensation according to the position and direction in which the user U strokes can be presented.
By correcting the sound pressure according to the strength with which the user U strokes his / her skin, an interactive tactile sensation according to the strength with which the user U strokes can be presented.
Since the actual sound is canceled by superimposing the opposite phase sound of the actual sound generated when the user U strokes his skin on the binaural sound, the binaural sound corresponding only to the tactile sensation can be presented.
(5-3)変形例3
 変形例3について説明する。変形例3は、ユーザUの環境に応じて最適化されたバイノーラル音を出力する例である。
(5-3) Modification 3
Modification 3 will be described. The third modification is an example in which a binaural sound optimized according to the environment of the user U is output.
(5-3-1)変形例3の概要
 変形例3の概要について説明する。図13は、変形例3の概要の説明図である。
(5-3-1) Overview of Modification 3 An overview of Modification 3 will be described. FIG. 13 is an explanatory diagram of an outline of the third modification.
 図13に示すように、音声出力装置20から出力されるバイノーラル音を聴いている間に、ユーザUの環境(つまり、バイノーラル音の再生環境)に関する環境情報に応じて、バイノーラル音処理装置10は、バイノーラル音を補正する。
 音声出力装置20は、バイノーラル音処理装置10によって補正されたバイノーラル音を出力する。
As shown in FIG. 13, while listening to the binaural sound output from the audio output device 20, the binaural sound processing device 10 responds to the environment information related to the environment of the user U (that is, the binaural sound reproduction environment). Correct the binaural sound.
The audio output device 20 outputs the binaural sound corrected by the binaural sound processing device 10.
(5-3-2)情報処理
 変形例3の情報処理について説明する。図14は、変形例3の情報処理のフローチャートである。
(5-3-2) Information Processing Information processing according to the third modification will be described. FIG. 14 is a flowchart of information processing according to the third modification.
 図14に示すように、バイノーラル音処理装置10は、図9と同様に、ステップS100~S101を実行する。 As shown in FIG. 14, the binaural sound processing apparatus 10 executes steps S100 to S101 as in FIG.
 ステップS101の後、バイノーラル音処理装置10は、環境情報の取得(S130)を実行する。
 具体的には、バイノーラル音処理装置10は、ユーザUが存在する環境に関する環境情報を検出するように構成された環境センサ(不図示)に接続される。センサは、例えば、以下の少なくとも1つを含む。
 ・温度を検出する温度センサ
 ・湿度を検出する湿度センサ
 ・ユーザUが曝露する紫外線レベルを検出するセンサ
After step S101, the binaural sound processing apparatus 10 executes acquisition of environment information (S130).
Specifically, the binaural sound processing device 10 is connected to an environment sensor (not shown) configured to detect environment information regarding the environment in which the user U exists. The sensor includes, for example, at least one of the following.
・ Temperature sensor that detects temperature ・ Humidity sensor that detects humidity ・ Sensor that detects the UV level to which user U is exposed
 プロセッサ12は、入出力インタフェース13を介して、環境センサによって検出された環境情報を取得する。 The processor 12 acquires environmental information detected by the environmental sensor via the input / output interface 13.
 ステップS130の後、バイノーラル音処理装置10は、バイノーラル音の補正(S131)を実行する。
 具体的には、記憶装置11には、環境情報毎の補正パラメータが格納されている。
 プロセッサ12は、ステップS130で取得した環境情報に対応する補正パラメータを用いて、バイノーラル音の音声特性を補正する。音声特性は、例えば、以下の少なくとも1つを含む。
 ・周波数(一例として、再生速度)
 ・音圧
 ・左右のバイノーラル音の時間差(一例として、位相差)
After step S130, the binaural sound processing apparatus 10 performs binaural sound correction (S131).
Specifically, the storage device 11 stores correction parameters for each environment information.
The processor 12 corrects the sound characteristics of the binaural sound using the correction parameter corresponding to the environmental information acquired in step S130. The voice characteristic includes, for example, at least one of the following.
・ Frequency (playback speed as an example)
-Sound pressure-Time difference between left and right binaural sounds (as an example, phase difference)
 ステップS131の後、バイノーラル音処理装置10は、図9と同様に、ステップS102を実行する。 After step S131, the binaural sound processing device 10 executes step S102 as in FIG.
 変形例3によれば、バイノーラル音処理装置10は、ユーザUが存在する環境(つまり、バイノーラル音の再生環境)に応じてバイノーラル音を補正する。これより、ユーザUに対して、環境に応じた触感を体験させることができる。 According to the third modification, the binaural sound processing device 10 corrects the binaural sound according to the environment where the user U exists (that is, the binaural sound reproduction environment). As a result, the user U can experience a tactile sensation according to the environment.
(5-4)変形例4
 変形例4について説明する。変形例4は、塗布物に関するコンテンツに合わせてバイノーラル音を出力する例である。
(5-4) Modification 4
Modification 4 will be described. Modification 4 is an example in which a binaural sound is output in accordance with the content related to the applied material.
(5-4-1)変形例4の概要
 変形例4の概要について説明する。図15は、変形例4の概要の説明図である。
(5-4-1) Overview of Modification 4 An overview of Modification 4 will be described. FIG. 15 is an explanatory diagram of an outline of the fourth modification.
 図4に示すように、塗布物情報データベースには、塗布物IDと、バイノーラル音源ファイルと、コンテンツファイルと、が関連付けて記憶されている。
 図15に示すように、バイノーラル音処理装置10は、コンテンツ(例えば、ユーザUが指定した画像コンテンツ)が選択されると、選択されたコンテンツに対応するコンテンツファイルに関連付けられたバイノーラル音源ファイルを開くことにより、当該バイノーラル音源ファイルに対応する音声信号を生成する。
 音声出力装置20は、バイノーラル音処理装置10によって生成された音声信号に基づいて、バイノーラル音を出力する。
As shown in FIG. 4, in the applied material information database, an applied material ID, a binaural sound source file, and a content file are stored in association with each other.
As illustrated in FIG. 15, when content (for example, image content specified by the user U) is selected, the binaural sound processing device 10 opens a binaural sound source file associated with the content file corresponding to the selected content. Thus, an audio signal corresponding to the binaural sound source file is generated.
The audio output device 20 outputs a binaural sound based on the audio signal generated by the binaural sound processing device 10.
(5-4-2)情報処理
 変形例4の情報処理について説明する。図16は、変形例4の情報処理のフローチャートである。図17は、図16の情報処理において表示される画面例を示す図である。
(5-4-2) Information Processing Information processing according to the fourth modification will be described. FIG. 16 is a flowchart of information processing according to the fourth modification. FIG. 17 is a diagram illustrating an example of a screen displayed in the information processing of FIG.
 図16に示すように、バイノーラル音処理装置10は、コンテンツの指定の受付(S130)を実行する。
 具体的には、プロセッサ12は、画面P130(図17)をディスプレイに表示する。
As shown in FIG. 16, the binaural sound processing device 10 executes content specification reception (S130).
Specifically, the processor 12 displays the screen P130 (FIG. 17) on the display.
 画面P130は、操作オブジェクトB130と、フィールドオブジェクトF130と、を含む。
 フィールドオブジェクトF130は、コンテンツファイルのファイル名を指定するためのユーザ指示を受け付けるオブジェクトである。
 操作オブジェクトB130は、フィールドオブジェクトF130に指定されたファイル名を確定させるためのユーザ指示を受け付けるオブジェクトである。
The screen P130 includes an operation object B130 and a field object F130.
The field object F130 is an object that receives a user instruction for designating the file name of the content file.
The operation object B130 is an object that receives a user instruction for confirming the file name specified in the field object F130.
 ユーザUがフィールドオブジェクトF130に任意のファイル名を指定し、且つ、操作オブジェクトB130を操作すると、プロセッサ12は、フィールドオブジェクトF130に指定されたファイル名を取得する。 When the user U specifies an arbitrary file name in the field object F130 and operates the operation object B130, the processor 12 acquires the file name specified in the field object F130.
 ステップS130の後、バイノーラル音処理装置10は、バイノーラル音源の選択(S131)を実行する。
 具体的には、プロセッサ12は、塗布物情報データベース(図4)を参照して、ステップS130で取得したファイル名に対応するコンテンツファイルに関連付けられたバイノーラル音源ファイルを読み出す。
After step S130, the binaural sound processing apparatus 10 performs binaural sound source selection (S131).
Specifically, the processor 12 reads the binaural sound source file associated with the content file corresponding to the file name acquired in step S130 with reference to the applied material information database (FIG. 4).
 ステップS131の後、バイノーラル音処理装置10は、コンテンツ及びバイノーラル音の再生(S132)を実行する。
 具体的には、プロセッサ12は、ステップS130で取得したファイル名に対応するコンテンツファイルを開くことにより、画面P131(図16)をディスプレイに表示する。
After step S131, the binaural sound processing apparatus 10 performs playback of content and binaural sound (S132).
Specifically, the processor 12 displays the screen P131 (FIG. 16) on the display by opening the content file corresponding to the file name acquired in step S130.
 画面P131は、表示オブジェクトA131を含む。
 表示オブジェクトA131には、当該コンテンツファイルに対応するコンテンツ(例えば、塗布物のプロモーション動画)が再生される。
The screen P131 includes a display object A131.
On the display object A131, content corresponding to the content file (for example, a promotional video of the applied material) is reproduced.
 プロセッサ12は、表示オブジェクトA131で再生されたコンテンツと同期するように、ステップS131で読み出したバイノーラル音源ファイルに記録されたバイノーラル音の音声信号を生成する。
 プロセッサ12は、生成した音声信号を音声出力装置20に送信する。
 音声出力装置20は、プロセッサ12から送信された音声信号に基づいて、バイノーラル音を出力する。
The processor 12 generates an audio signal of a binaural sound recorded in the binaural sound source file read in step S131 so as to be synchronized with the content reproduced by the display object A131.
The processor 12 transmits the generated audio signal to the audio output device 20.
The audio output device 20 outputs a binaural sound based on the audio signal transmitted from the processor 12.
 変形例4によれば、バイノーラル音処理装置10は、ユーザUによって指定されたコンテンツと同期して、バイノーラル音を提示する。これにより、ユーザUに対して、所望のコンテンツを提示しながら、当該コンテンツで紹介される塗布物を使用したときの触感を体験させることができる。 According to the fourth modification, the binaural sound processing device 10 presents a binaural sound in synchronization with the content designated by the user U. Thereby, it is possible to let the user U experience the tactile sensation when using the coated material introduced by the content while presenting the desired content.
 なお、変形例4では、バイノーラル音処理装置10は、ステップS130において、CGコンテンツの指定を受け付けた場合、ステップS132において、ユーザ指示に応じてCGコンテンツを変化させ、且つ、変化後のCGコンテンツに応じたバイノーラル音を再生してもよい。 In the fourth modification, when the binaural sound processing apparatus 10 receives the designation of the CG content in step S130, the binaural sound processing apparatus 10 changes the CG content in accordance with the user instruction in step S132, and changes the CG content to the changed CG content. A corresponding binaural sound may be reproduced.
 一例として、メーキャップのプロフェッショナルがユーザUの顔の画像に対して塗布物を塗布するというシナリオのCGコンテンツが指定された場合、ユーザUは、バイノーラル音処理装置10に対して、以下の少なくとも1つのユーザ指示を与えることができる。
 ・塗布物を塗布すべき部位(全部又は一部)を指定するための指示
 ・塗布物の塗布方法(例えば、薄塗り又は厚塗り)を指定するための指示
 プロセッサ12は、ユーザ指示に応じて、ディスプレイに表示したCGコンテンツを変化させ、且つ、変化後のCGコンテンツに応じてバイノーラル音源情報も変化させる。
As an example, when a CG content in a scenario in which a makeup professional applies a coating to an image of the user U's face is specified, the user U instructs the binaural sound processing device 10 to at least one of the following: User instructions can be given.
An instruction for designating a part (all or a part) to be coated with an application. An instruction for designating a coating application method (for example, thin coating or thick coating). The processor 12 responds to a user instruction. The CG content displayed on the display is changed, and the binaural sound source information is also changed according to the changed CG content.
 この場合、バイノーラル音処理装置10は、ユーザ指示に応じたCGコンテンツ及びバイノーラル音を提示する。これにより、ユーザUに対して、CGコンテンツを体験している間のユーザ指示に応じて、塗布物を使用するときの触感をインタラクティブ且つ能動的に体験させることができる。 In this case, the binaural sound processing apparatus 10 presents CG content and binaural sound according to the user instruction. Thereby, according to the user instruction | indication while experiencing CG content, the user U can be made to experience interactively and actively the tactile sense when using a coating material.
(5-5)変形例5
 変形例5について説明する。変形例5は、バイノーラル音の再生中に、塗布物の成分の経時的変化に合わせてバイノーラル音を補正する例である。
(5-5) Modification 5
Modification 5 will be described. The fifth modification is an example in which the binaural sound is corrected in accordance with the change with time of the components of the coating material during the reproduction of the binaural sound.
(5-5-1)変形例5の概要
 変形例5の概要について説明する。図18は、変形例5の概要の説明図である。
(5-5-1) Overview of Modification 5 An overview of Modification 5 will be described. FIG. 18 is an explanatory diagram of an outline of the fifth modification.
 図18に示すように、音声出力装置20から出力されるバイノーラル音を聴いている時間の経過に応じて、バイノーラル音処理装置10は、バイノーラル音を補正する。
 音声出力装置20は、バイノーラル音処理装置10によって補正されたバイノーラル音を出力する。
As shown in FIG. 18, the binaural sound processing device 10 corrects the binaural sound according to the lapse of time while listening to the binaural sound output from the audio output device 20.
The audio output device 20 outputs the binaural sound corrected by the binaural sound processing device 10.
(5-5-2)情報処理
 変形例5の情報処理について説明する。図19は、変形例5の情報処理のフローチャートである。
(5-5-2) Information Processing Information processing according to Modification 5 will be described. FIG. 19 is a flowchart of information processing according to the fifth modification.
 図19に示すように、バイノーラル音処理装置10は、図9と同様に、ステップS100~S101を実行する。 As shown in FIG. 19, the binaural sound processing apparatus 10 executes steps S100 to S101 as in FIG.
 ステップS101の後、バイノーラル音処理装置10は、バイノーラル音の補正(S140)を実行する。
 具体的には、記憶装置11には、塗布物ID毎に、時間の経過と共に変化する触感に対応する補正パラメータが格納されている。
 プロセッサ12は、ステップS100で特定された塗布物IDに関連付けられた補正パラメータを特定する。
 プロセッサ12は、バイノーラル音の再生時間に基づいて、特定した補正パラメータを用いて、バイノーラル音の音声特性を補正する。音声特性は、例えば、以下の少なくとも1つを含む。
 ・周波数(一例として、再生速度)
 ・音圧
 ・左右のバイノーラル音の時間差(一例として、位相差)
After step S101, the binaural sound processing apparatus 10 performs binaural sound correction (S140).
Specifically, the storage device 11 stores correction parameters corresponding to tactile sensations that change over time for each application ID.
The processor 12 identifies the correction parameter associated with the application ID identified in Step S100.
The processor 12 corrects the sound characteristics of the binaural sound using the specified correction parameter based on the reproduction time of the binaural sound. The voice characteristic includes, for example, at least one of the following.
・ Frequency (playback speed as an example)
-Sound pressure-Time difference between left and right binaural sounds (as an example, phase difference)
 ステップS131の後、バイノーラル音処理装置10は、図9と同様に、ステップS102を実行する。 After step S131, the binaural sound processing device 10 executes step S102 as in FIG.
 変形例5によれば、バイノーラル音処理装置10は、再生時間に応じてバイノーラル音を補正する。これにより、ユーザUに対して、塗布物を使用するときの触感の時間変化を体験させることができる。 According to the modified example 5, the binaural sound processing device 10 corrects the binaural sound according to the reproduction time. Thereby, the user U can experience the time change of the tactile sensation when using the coating.
(6)本実施形態の小括
 本実施形態について小括する。
(6) Summary of this embodiment This embodiment is summarized.
 本実施形態の第1態様は、
 複数の塗布物のそれぞれを識別する塗布物識別情報(例えば、塗布物ID)と、各塗布物を肌に塗布したときの音がバイノーラル録音されたバイノーラル音源情報(例えば、バイノーラル音源ファイル)と、を関連付けて記憶する手段(例えば、記憶装置11)を備え、
 複数の塗布物の中から少なくとも1つの塗布物を識別する塗布物識別情報を決定する手段(例えば、ステップS100の処理を実行するプロセッサ12)を備え、
 決定された塗布物識別情報に関連付けられたバイノーラル音源情報を選択する手段(例えば、ステップS101の処理を実行するプロセッサ12)を備え、
 選択されたバイノーラル音源情報を出力する手段(例えば、ステップS102の処理を実行するプロセッサ12)を備える、
バイノーラル音処理装置10である。
The first aspect of this embodiment is
Application identification information (for example, application ID) for identifying each of the plurality of applications, binaural sound source information (for example, binaural sound source file) in which the sound when each application is applied to the skin is binaurally recorded, Means (for example, storage device 11) for storing
Means for determining application identification information for identifying at least one application from among a plurality of applications (for example, the processor 12 that executes the process of step S100);
Means for selecting binaural sound source information associated with the determined application identification information (for example, the processor 12 that executes the process of step S101);
Means for outputting the selected binaural sound source information (for example, the processor 12 that executes the process of step S102);
This is a binaural sound processing apparatus 10.
 第1態様によれば、バイノーラル音処理装置10は、塗布物に対応するバイノーラル音をユーザUに提示する。これにより、塗布物を使用する前に、塗布物の触感をユーザU(例えば、塗布物の消費者)に体験させることができる。 According to the first aspect, the binaural sound processing device 10 presents the user U with a binaural sound corresponding to the coated material. Thereby, before using a coating material, the user U (for example, consumer of a coating material) can be made to experience the tactile sensation of a coating material.
 本実施形態の第2態様は、
 決定する手段は、操作者の指示に応じて、塗布物識別情報を決定する、
バイノーラル音処理装置10である。
The second aspect of this embodiment is
The means for determining determines the application identification information in accordance with an instruction from the operator.
This is a binaural sound processing apparatus 10.
 第2態様によれば、バイノーラル音処理装置10は、所望の塗布物に対応するバイノーラル音をユーザUに提示する。これにより、塗布物を使用する前に、所望の塗布物の触感をユーザU(例えば、塗布物の消費者)に体験させることができる。 According to the second aspect, the binaural sound processing device 10 presents the user U with a binaural sound corresponding to a desired application. Thereby, before using a coating material, the user U (for example, consumer of a coating material) can be made to experience the touch feeling of a desired coating material.
 バイノーラル音源情報と、ユーザの属性に関するユーザ属性情報と、を関連付けて記憶する手段を備え、
 ユーザの属性に関するユーザ属性情報(例えば、ステップS110の処理を実行するプロセッサ12)を取得する手段を備え、
 選択する手段は、決定された塗布物識別情報、及び、取得されたユーザ属性情報に関連付けられたバイノーラル音源情報を選択する、
バイノーラル音処理装置10である。
Means for associating and storing binaural sound source information and user attribute information related to user attributes;
Means for acquiring user attribute information (for example, the processor 12 that executes the process of step S110) on the user attribute;
The means for selecting selects the binaural sound source information associated with the determined application identification information and the acquired user attribute information.
This is a binaural sound processing apparatus 10.
 第3態様によれば、バイノーラル音処理装置10は、ユーザUのユーザ属性に応じたバイノーラル音をユーザUに提示する。これにより、ユーザUに適した塗布物の触感をユーザU(例えば、塗布物の消費者)に体験させることができる。 According to the third aspect, the binaural sound processing device 10 presents the user U with a binaural sound corresponding to the user attribute of the user U. Thereby, the user U (for example, the consumer of a coating material) can be made to experience the tactile sensation of the coating material suitable for the user U.
 本実施形態の第4態様は、
 ユーザに対して使用が推奨される塗布物を予測する手段(例えば、ステップS111の処理を実行するプロセッサ12)を備え、
 塗布物識別情報を決定する手段は、決定された塗布物の塗布物識別情報を取得する、バイノーラル音処理装置10である。
The fourth aspect of this embodiment is
Means for predicting a coated material recommended for use by the user (for example, the processor 12 that executes the process of step S111);
The means for determining the application object identification information is the binaural sound processing apparatus 10 that acquires the application object identification information of the determined application object.
 第4態様によれば、バイノーラル音処理装置10は、ユーザUに対して使用が推奨される塗布物のバイノーラル音をユーザUに提示する。これにより、ユーザUに対して使用が推奨される塗布物の触感をユーザU(例えば、塗布物の消費者)に体験させることができる。 According to the fourth aspect, the binaural sound processing device 10 presents the user U with the binaural sound of the application recommended for use by the user U. Thereby, the user U (for example, the consumer of a coating material) can be made to experience the touch feeling of the coating material recommended to use with respect to the user U.
 本実施形態の第5態様は、
 塗布物を決定する手段は、ユーザの肌の状態に基づいて、塗布物を決定する、
バイノーラル音処理装置10である。
The fifth aspect of this embodiment is
The means for determining the applied material determines the applied material based on the user's skin condition.
This is a binaural sound processing apparatus 10.
 第5態様によれば、バイノーラル音処理装置10は、ユーザUの肌状態に基づいて使用が推奨される塗布物のバイノーラル音をユーザUに提示する。これにより、ユーザUの肌状態に応じた塗布物の触感をユーザU(例えば、塗布物の消費者)に体験させることができる。 According to the fifth aspect, the binaural sound processing device 10 presents the user U with a binaural sound of an application recommended for use based on the skin state of the user U. Thereby, the tactile sensation of the application according to the skin condition of the user U can be experienced by the user U (for example, a consumer of the application).
 本実施形態の第6態様は、
 ユーザの行動履歴に基づいて、ユーザに対して使用が推奨される塗布物を予測する手段(例えば、ステップS111の処理を実行するプロセッサ12)を備え、
 選択する手段は、予測された塗布物の塗布物識別情報に関連付けられたバイノーラル音源情報を選択する、
バイノーラル音処理装置10である。
The sixth aspect of this embodiment is
Based on the user's behavior history, it is provided with means for predicting an application recommended for use by the user (for example, the processor 12 that executes the process of step S111),
The means for selecting selects binaural sound source information associated with the application identification information of the predicted application.
This is a binaural sound processing apparatus 10.
 第6態様によれば、バイノーラル音処理装置10は、ユーザUの行動履歴に基づいて使用が推奨される塗布物のバイノーラル音をユーザUに提示する。これにより、ユーザUの行動の傾向に応じた塗布物の触感をユーザU(例えば、塗布物の消費者)に体験させることができる。 According to the sixth aspect, the binaural sound processing device 10 presents the user U with the binaural sound of the application recommended for use based on the user U's action history. Thereby, the tactile sensation of the application according to the tendency of the user U's behavior can be experienced by the user U (for example, the consumer of the application).
 本実施形態の第7態様は、
 行動履歴は、ユーザがアクセスしたウェブサイトの閲覧履歴、及び、ユーザが購入した塗布物の購入履歴の少なくとも1つである、
バイノーラル音処理装置10である。
The seventh aspect of this embodiment is
The action history is at least one of a browsing history of the website accessed by the user and a purchase history of the application purchased by the user.
This is a binaural sound processing apparatus 10.
 第7態様によれば、バイノーラル音処理装置10は、ユーザUのウェブサイトの閲覧履歴、及び、ユーザが購入した塗布物の購入履歴の少なくとも1つに基づいて使用が推奨される塗布物のバイノーラル音を提示する。これにより、ユーザUの行動の傾向及び購買の傾向の少なくとも1つに応じた塗布物の触感をユーザU(例えば、塗布物の消費者)に体験させることができる。 According to the seventh aspect, the binaural sound processing apparatus 10 uses the binaural of the application recommended for use based on at least one of the browsing history of the user U's website and the purchase history of the application purchased by the user. Present a sound. Thereby, the user U (for example, the consumer of a coating material) can be made to experience the tactile sensation of the coating material according to at least one of the user's U behavior tendency and the purchasing tendency.
 本実施形態の第8態様は、
 塗布物を使用するユーザの動きに関する動き情報を取得する手段(例えば、ステップS120の処理を実行するプロセッサ12)を備え、
 取得された動き情報に応じて、選択されたバイノーラル音源情報を補正する手段(例えば、ステップS121の処理を実行するプロセッサ12)を備え、
 出力する手段は、補正されたバイノーラル音源情報を出力する、
バイノーラル音処理装置10である。
The eighth aspect of this embodiment is
Means (for example, a processor 12 that executes the process of step S120) for acquiring movement information related to the movement of the user who uses the application;
Means for correcting the selected binaural sound source information according to the acquired motion information (for example, the processor 12 that executes the process of step S121);
The output means outputs the corrected binaural sound source information.
This is a binaural sound processing apparatus 10.
 第8態様によれば、バイノーラル音処理装置10は、バイノーラル音を聴いている間のユーザUの動きに応じてバイノーラル音を補正する。これにより、ユーザUに対して、塗布物を使用するときの触感をインタラクティブ且つ能動的に体験させることができる。
 また、バイノーラル音を聴いている間にユーザUが動いたとしても、塗布物を使用するときの触感をユーザUに正しく伝達することができる。
According to the eighth aspect, the binaural sound processing device 10 corrects the binaural sound according to the movement of the user U while listening to the binaural sound. Thereby, it is possible to cause the user U to interactively and actively experience the tactile sensation when using the application.
Moreover, even if the user U moves while listening to the binaural sound, the tactile sensation when using the coating can be correctly transmitted to the user U.
 本実施形態の第9態様は、
 動き情報を取得する手段は、イメージセンサ、加速度センサ、ジャイロセンサ、及び、地磁気センサの少なくとも1つから、動き情報を取得する、
バイノーラル音処理装置10である。
The ninth aspect of this embodiment is
The means for acquiring motion information acquires motion information from at least one of an image sensor, an acceleration sensor, a gyro sensor, and a geomagnetic sensor.
This is a binaural sound processing apparatus 10.
 第9態様によれば、画像、加速度、角加速度、及び、地磁気の少なくとも1つから特定される動き情報に応じて、塗布物を使用するときの触感をユーザUに正しく伝達することができる。 According to the ninth aspect, the tactile sensation when using the application can be correctly transmitted to the user U according to the motion information specified from at least one of the image, acceleration, angular acceleration, and geomagnetism.
 本実施形態の第10態様は、
 ユーザの環境に関する環境情報を取得する手段(例えば、ステップS130の処理を実行するプロセッサ12)を備え、
 取得された環境情報に応じて、選択されたバイノーラル音源情報を補正する手段(例えば、ステップS131の処理を実行するプロセッサ12)を備え、
 出力する手段は、補正されたバイノーラル音源情報を出力する、
バイノーラル音処理装置10である。
The tenth aspect of this embodiment is
Means for acquiring environment information relating to the user's environment (for example, the processor 12 that executes the process of step S130);
Means for correcting the selected binaural sound source information according to the acquired environment information (for example, the processor 12 that executes the process of step S131);
The output means outputs the corrected binaural sound source information.
This is a binaural sound processing apparatus 10.
 第10態様によれば、バイノーラル音処理装置10は、ユーザUが存在する環境(つまり、バイノーラル音の再生環境)に応じて、バイノーラル音を補正する。これにより、ユーザUに対して、環境に応じた触感を体験させることができる。 According to the tenth aspect, the binaural sound processing device 10 corrects the binaural sound according to the environment where the user U exists (that is, the binaural sound reproduction environment). Thereby, the user U can experience a tactile sensation according to the environment.
 本実施形態の第11態様は、
 塗布物に関する動画コンテンツと、バイノーラル音源情報と、を関連付けて記憶する手段を備え、
 選択する手段は、再生される動画コンテンツに関連付けられたバイノーラル音源情報を選択し、
 動画コンテンツの再生時間に応じて、バイノーラル音源情報を補正する、
バイノーラル音処理装置10である。
The eleventh aspect of this embodiment is
Means for associating and storing the moving image content relating to the applied material and the binaural sound source information;
The means for selecting selects binaural sound source information associated with the video content to be played,
Correct binaural sound source information according to the playback time of the video content.
This is a binaural sound processing apparatus 10.
 第11態様によれば、バイノーラル音処理装置10は、ユーザUによって指定されたコンテンツと同期してバイノーラル音を提示する。これにより、ユーザUに対して、所望のコンテンツを提示しながら、当該コンテンツで紹介される塗布物を使用したときの触感を体験させることができる。 According to the eleventh aspect, the binaural sound processing device 10 presents a binaural sound in synchronization with the content designated by the user U. Thereby, it is possible to let the user U experience the tactile sensation when using the coated material introduced by the content while presenting the desired content.
 本実施形態の第12態様は、
 塗布物に関するCGコンテンツと、バイノーラル音源情報と、を関連付けて記憶する手段を備え、
 選択する手段は、再生されるCGコンテンツに関連付けられたバイノーラル音源情報を選択し、
 CGコンテンツの再生中に受け付けられた操作者の指示に応じて、バイノーラル音源情報を変化させる、
バイノーラル音処理装置10である。
The twelfth aspect of this embodiment is
Means for associating and storing the CG content relating to the coating and the binaural sound source information;
The means for selecting selects binaural sound source information associated with the reproduced CG content,
Binaural sound source information is changed in accordance with an operator instruction received during playback of CG content.
This is a binaural sound processing apparatus 10.
 第12態様によれば、ユーザUに対して、CGコンテンツを体験している間に与えられた指示(例えば、ユーザ指示)に応じて、塗布物を使用するときの触感をインタラクティブ且つ能動的に体験させることができる。 According to the twelfth aspect, in response to an instruction (for example, a user instruction) given to the user U while experiencing the CG content, the tactile sensation when using the application is interactively and actively performed. It can be experienced.
 本実施形態の第13態様は、
 各塗布物を人体に塗布したときの組成の時間変化を予測するための予測モデルを参照して、決定された塗布物識別情報によって識別される塗布物の組成の時間変化を予測する手段を備え、
 予測された時間変化に基づいて、選択されたバイノーラル音源情報を時間変換する手段を備え、
 出力する手段は、時間変換されたバイノーラル音源情報を出力する、
バイノーラル音処理装置10である。
The thirteenth aspect of this embodiment is
A means for predicting a temporal change in composition of the coating identified by the determined coating identification information with reference to a prediction model for predicting a temporal change in composition when each coating is applied to the human body ,
Means for time-converting the selected binaural sound source information based on the predicted time change;
The means for outputting outputs time-converted binaural sound source information.
This is a binaural sound processing apparatus 10.
 第13態様によれば、バイノーラル音処理装置10は、再生時間に応じてバイノーラル音を補正する。これにより、ユーザUに対して、塗布物を使用するときの触感の時間変化を体験させることができる。 According to the thirteenth aspect, the binaural sound processing device 10 corrects the binaural sound according to the reproduction time. Thereby, the user U can experience the time change of the tactile sensation when using the coating.
 本実施形態の第14態様は、
 コンピュータ(例えば、プロセッサ12)に、上記の何れかの各手段を実現させるためのプログラムである。
The fourteenth aspect of this embodiment is
This is a program for causing a computer (for example, the processor 12) to realize any one of the above means.
(7)その他の変形例 (7) Other variations
 記憶装置11は、ネットワークNWを介して、バイノーラル音処理装置10と接続されてもよい。記憶装置31は、ネットワークNWを介して、サーバ30と接続されてもよい。 The storage device 11 may be connected to the binaural sound processing device 10 via the network NW. The storage device 31 may be connected to the server 30 via the network NW.
 バイノーラル音処理装置10及び音声出力装置20は、一体に構成されてもよい。この場合、バイノーラル音処理装置10及び音声出力装置20は、有線通信又は無線通信ではなく、電気回路によって接続される。 The binaural sound processing device 10 and the audio output device 20 may be integrally configured. In this case, the binaural sound processing device 10 and the audio output device 20 are connected by an electric circuit instead of wired communication or wireless communication.
 バイノーラル音処理装置10が実行するステップの少なくとも一部は、サーバ30が実行してもよい。この場合、バイノーラル音処理装置10は、サーバ30に対して、情報処理のリクエストを送信する。
 サーバ30は、バイノーラル音処理装置10から送信されたリクエストに応じた情報処理を実行し、かつ、当該情報処理の結果を含むレスポンスをバイノーラル音処理装置10に送信する。
 バイノーラル音処理装置10は、サーバ30から送信されたレスポンスに含まれる情報処理の結果に基づいて、音声出力装置20に音声信号を送信する。
The server 30 may execute at least a part of the steps executed by the binaural sound processing device 10. In this case, the binaural sound processing device 10 transmits an information processing request to the server 30.
The server 30 performs information processing according to the request transmitted from the binaural sound processing device 10 and transmits a response including the result of the information processing to the binaural sound processing device 10.
The binaural sound processing device 10 transmits an audio signal to the audio output device 20 based on the information processing result included in the response transmitted from the server 30.
 記憶装置11に記憶されるデータベースの少なくとも1つは、記憶装置31に記憶されてもよい。 At least one of the databases stored in the storage device 11 may be stored in the storage device 31.
 以上、本発明の実施形態について詳細に説明したが、本発明の範囲は上記の実施形態に限定されない。また、上記の実施形態は、本発明の主旨を逸脱しない範囲において、種々の改良や変更が可能である。また、上記の実施形態及び変形例は、組合せ可能である。 As mentioned above, although embodiment of this invention was described in detail, the scope of the present invention is not limited to said embodiment. The above-described embodiment can be variously improved and changed without departing from the gist of the present invention. Moreover, said embodiment and modification can be combined.
1     :音声処理システム
10    :バイノーラル音処理装置
11    :記憶装置
12    :プロセッサ
13    :入出力インタフェース
14    :通信インタフェース
20    :音声出力装置
30    :サーバ
31    :記憶装置
32    :プロセッサ
33    :入出力インタフェース
34    :通信インタフェース
1: Audio processing system 10: Binaural sound processing device 11: Storage device 12: Processor 13: Input / output interface 14: Communication interface 20: Audio output device 30: Server 31: Storage device 32: Processor 33: Input / output interface 34: Communication interface

Claims (14)

  1.  複数の塗布物のそれぞれを識別する塗布物識別情報と、各塗布物を肌に塗布したときの音がバイノーラル録音されたバイノーラル音源情報と、を関連付けて記憶する手段を備え、
     複数の塗布物の中から少なくとも1つの塗布物を識別する塗布物識別情報を決定する手段を備え、
     前記決定された塗布物識別情報に関連付けられたバイノーラル音源情報を選択する手段を備え、
     前記選択されたバイノーラル音源情報を出力する手段を備える、
    バイノーラル音処理装置。
    Means for storing the application identification information for identifying each of the plurality of applications and the binaural sound source information in which the sound when each application is applied to the skin is binaurally recorded;
    Means for determining application identification information for identifying at least one application from a plurality of applications;
    Means for selecting binaural sound source information associated with the determined application identification information;
    Means for outputting the selected binaural sound source information;
    Binaural sound processing device.
  2.  前記決定する手段は、操作者の指示に応じて、前記塗布物識別情報を決定する、
    請求項1に
    記載のバイノーラル音処理装置。
    The means for determining determines the application identification information in accordance with an instruction from an operator.
    The binaural sound processing apparatus according to claim 1.
  3.  前記バイノーラル音源情報と、ユーザの属性に関するユーザ属性情報と、を関連付けて記憶する手段を備え、
     ユーザの属性に関するユーザ属性情報を取得する手段を備え、
     前記選択する手段は、前記決定された塗布物識別情報、及び、前記取得されたユーザ属性情報に関連付けられたバイノーラル音源情報を選択する、
    請求項1に記載のバイノーラル音処理装置。
    Means for associating and storing the binaural sound source information and user attribute information relating to user attributes;
    Means for obtaining user attribute information relating to user attributes;
    The selecting means selects the determined applied object identification information and binaural sound source information associated with the acquired user attribute information.
    The binaural sound processing apparatus according to claim 1.
  4.  前記ユーザに対して使用が推奨される塗布物を決定する手段を備え、
     前記塗布物識別情報を決定する手段は、前記決定された塗布物の塗布物識別情報を取得する、
    請求項3に記載のバイノーラル音処理装置。
    Means for determining an application recommended for use by the user;
    The means for determining the application object identification information obtains the application object identification information of the determined application object,
    The binaural sound processing apparatus according to claim 3.
  5.  前記塗布物を決定する手段は、前記ユーザの肌の状態に基づいて、前記塗布物を決定する、
    請求項4に記載のバイノーラル音処理装置。
    The means for determining the applied material determines the applied material based on the skin condition of the user.
    The binaural sound processing device according to claim 4.
  6.  ユーザの行動履歴に基づいて、前記ユーザに対して使用が推奨される塗布物を予測する手段を備え、
     前記選択する手段は、前記予測された塗布物の塗布物識別情報に関連付けられたバイノーラル音源情報を選択する、
    請求項1~5の何れかに記載のバイノーラル音処理装置。
    Based on the user's behavior history, comprising means for predicting the application recommended for use by the user,
    The means for selecting selects binaural sound source information associated with the application identification information of the predicted application.
    The binaural sound processing device according to any one of claims 1 to 5.
  7.  前記行動履歴は、前記ユーザがアクセスしたウェブサイトの閲覧履歴、及び、前記ユーザが購入した塗布物の購入履歴の少なくとも1つである、
    請求項6に記載のバイノーラル音処理装置。
    The behavior history is at least one of a browsing history of a website accessed by the user and a purchase history of a coating purchased by the user.
    The binaural sound processing device according to claim 6.
  8.  塗布物を使用するユーザの動きに関する動き情報を取得する手段を備え、
     前記取得された動き情報に応じて、前記選択されたバイノーラル音源情報を補正する手段を備え、
     前記出力する手段は、前記補正されたバイノーラル音源情報を出力する、
    請求項1~7の何れかに記載のバイノーラル音処理装置。
    Means for obtaining movement information relating to the movement of the user using the application;
    Means for correcting the selected binaural sound source information according to the acquired motion information;
    The means for outputting outputs the corrected binaural sound source information.
    The binaural sound processing device according to any one of claims 1 to 7.
  9.  前記動き情報を取得する手段は、イメージセンサ、加速度センサ、ジャイロセンサ、及び、地磁気センサの少なくとも1つから、前記動き情報を取得する、
    請求項8に記載のバイノーラル音処理装置。
    The means for acquiring the movement information acquires the movement information from at least one of an image sensor, an acceleration sensor, a gyro sensor, and a geomagnetic sensor.
    The binaural sound processing apparatus according to claim 8.
  10.  ユーザの環境に関する環境情報を取得する手段を備え、
     前記取得された環境情報に応じて、前記選択されたバイノーラル音源情報を補正する手段を備え、
     前記出力する手段は、前記補正されたバイノーラル音源情報を出力する、
    請求項1~9の何れかに記載のバイノーラル音処理装置。
    Means for obtaining environmental information about the user's environment;
    Means for correcting the selected binaural sound source information according to the acquired environment information;
    The means for outputting outputs the corrected binaural sound source information.
    The binaural sound processing device according to any one of claims 1 to 9.
  11.  前記塗布物に関する動画コンテンツと、前記バイノーラル音源情報と、を関連付けて記憶する手段を備え、
     前記選択する手段は、再生される動画コンテンツに関連付けられたバイノーラル音源情報を選択し、
     前記動画コンテンツの再生時間に応じて、前記バイノーラル音源情報を補正する、
    請求項1~10の何れかに記載にバイノーラル音処理装置。
    Means for associating and storing the moving image content relating to the applied material and the binaural sound source information;
    The means for selecting selects binaural sound source information associated with the video content to be played back,
    Correcting the binaural sound source information according to the playback time of the video content;
    The binaural sound processing device according to any one of claims 1 to 10.
  12.  前記塗布物に関するCG(Computer Graphics)コンテンツと、前記バイノーラル音源情報と、を関連付けて記憶する手段を備え、
     前記選択する手段は、再生されるCGコンテンツに関連付けられたバイノーラル音源情報を選択し、
     前記CGコンテンツの再生中に受け付けられた操作者の指示に応じて、前記バイノーラル音源情報を変化させる、
    請求項1~11の何れかに記載にバイノーラル音処理装置。
    Means for associating and storing CG (Computer Graphics) content related to the coating material and the binaural sound source information;
    The means for selecting selects binaural sound source information associated with the CG content to be reproduced,
    Changing the binaural sound source information in response to an operator instruction received during playback of the CG content;
    The binaural sound processing device according to any one of claims 1 to 11.
  13.  各塗布物を人体に塗布したときの組成の時間変化を予測するための予測モデルを参照して、前記決定された塗布物識別情報によって識別される塗布物の組成の時間変化を予測する手段を備え、
     前記予測された時間変化に基づいて、前記選択されたバイノーラル音源情報を時間変換する手段を備え、
     前記出力する手段は、前記時間変換されたバイノーラル音源情報を出力する、
    請求項1~12の何れかに記載のバイノーラル音処理装置。
    Means for predicting a temporal change in the composition of the coating product identified by the determined coating product identification information with reference to a prediction model for predicting a temporal change in the composition when each coating material is applied to the human body. Prepared,
    Means for time-converting the selected binaural sound source information based on the predicted temporal change;
    The outputting means outputs the time-converted binaural sound source information;
    The binaural sound processing device according to any one of claims 1 to 12.
  14.  コンピュータに、請求項1~13の何れかに記載の各手段を実現させるためのプログラム。


     
    A program for causing a computer to realize each means according to any one of claims 1 to 13.


PCT/JP2019/016469 2018-05-28 2019-04-17 Binaural sound processing apparatus, information processing apparatus, and program WO2019230236A1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020521784A JP7195314B2 (en) 2018-05-28 2019-04-17 Binaural sound processing device, information processing device, and program

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2018-101358 2018-05-28
JP2018101358 2018-05-28

Publications (1)

Publication Number Publication Date
WO2019230236A1 true WO2019230236A1 (en) 2019-12-05

Family

ID=68697562

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2019/016469 WO2019230236A1 (en) 2018-05-28 2019-04-17 Binaural sound processing apparatus, information processing apparatus, and program

Country Status (3)

Country Link
JP (1) JP7195314B2 (en)
TW (1) TW202005417A (en)
WO (1) WO2019230236A1 (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005070721A (en) * 2003-08-27 2005-03-17 Akihiko Shigeta Toilet set with sound output function
JP2016100877A (en) * 2014-11-26 2016-05-30 日本放送協会 Three-dimensional acoustic reproduction device and program

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005070721A (en) * 2003-08-27 2005-03-17 Akihiko Shigeta Toilet set with sound output function
JP2016100877A (en) * 2014-11-26 2016-05-30 日本放送協会 Three-dimensional acoustic reproduction device and program

Also Published As

Publication number Publication date
TW202005417A (en) 2020-01-16
JP7195314B2 (en) 2022-12-23
JPWO2019230236A1 (en) 2021-06-10

Similar Documents

Publication Publication Date Title
US10613636B2 (en) Haptic playback adjustment system
KR20170015122A (en) Crowd-based haptics
US20110164787A1 (en) Method and system for applying cosmetic and/or accessorial enhancements to digital images
US8430750B2 (en) Video gaming device with image identification
CN106445157B (en) Method and device for adjusting picture display direction
US20230273685A1 (en) Method and Arrangement for Handling Haptic Feedback
US20090146948A1 (en) Apparatus for Providing Sensing Information
JP7470040B2 (en) Information processing device, program, and information processing method
WO2019230236A1 (en) Binaural sound processing apparatus, information processing apparatus, and program
JP6725123B1 (en) Method, program, and information processing apparatus for displaying time-varying flavors as time-varying visual elements
CN113228085A (en) Information processing device and program
JP2019105932A (en) Information processing device, information processing method, and information processing program
JP7423555B2 (en) Information processing equipment and programs
WO2019208152A1 (en) Information processing device and program
JP6135463B2 (en) Simulation system, simulation method, program, and recording medium
BALTEZAREVIĆ DIGITAL SENSORY MARKETING: APPEALING TO CONSUMERS’SENSES THROUGH DIGITAL TECHNOLOGIES
JPWO2020116069A1 (en) Information processing equipment and programs
KR102405227B1 (en) Online-offline fusion service providing method and service providing apparatus
WO2022054208A1 (en) Product suggestion method, product purchasing method, and product suggestion device
JP7302945B2 (en) Information processing device, information processing method and information processing program
JP7216084B2 (en) Information processing device, program, and sensing device
Yumurtacı A theoretical framework for the evaluation of virtual reality technologies prior to use: A biological evolutionary approach based on a modified media naturalness theory
Yan et al. The Effects of Primary Output Design of True Wireless Earbuds on the Wearing Comfort
CN117221807A (en) Audio processing method and device
CN116820236A (en) Immersive gallery interaction method, medium and interaction system

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19811054

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2020521784

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 19811054

Country of ref document: EP

Kind code of ref document: A1