WO2020138257A1 - 情報処理装置、情報処理方法及び情報処理プログラム - Google Patents

情報処理装置、情報処理方法及び情報処理プログラム Download PDF

Info

Publication number
WO2020138257A1
WO2020138257A1 PCT/JP2019/051058 JP2019051058W WO2020138257A1 WO 2020138257 A1 WO2020138257 A1 WO 2020138257A1 JP 2019051058 W JP2019051058 W JP 2019051058W WO 2020138257 A1 WO2020138257 A1 WO 2020138257A1
Authority
WO
WIPO (PCT)
Prior art keywords
transfer function
related transfer
user
head
information processing
Prior art date
Application number
PCT/JP2019/051058
Other languages
English (en)
French (fr)
Inventor
洋 玉置
Original Assignee
ソニー株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニー株式会社 filed Critical ソニー株式会社
Priority to CN201980084879.3A priority Critical patent/CN113228711A/zh
Priority to KR1020217016853A priority patent/KR20210106992A/ko
Priority to JP2020562388A priority patent/JPWO2020138257A1/ja
Priority to US17/416,631 priority patent/US11956621B2/en
Priority to EP19904561.8A priority patent/EP3905725A4/en
Publication of WO2020138257A1 publication Critical patent/WO2020138257A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S1/00Two-channel systems
    • H04S1/002Non-adaptive circuits, e.g. manually adjustable or static, for enhancing the sound image or the spatial distribution
    • H04S1/005For headphones
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S7/00Indicating arrangements; Control arrangements, e.g. balance control
    • H04S7/30Control circuits for electronic adaptation of the sound field
    • H04S7/302Electronic adaptation of stereophonic sound system to listener position or orientation
    • H04S7/303Tracking of listener position or orientation
    • H04S7/304For headphones
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/10Protocols in which an application is distributed across nodes in the network
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S1/00Two-channel systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S7/00Indicating arrangements; Control arrangements, e.g. balance control
    • H04S7/30Control circuits for electronic adaptation of the sound field
    • H04S7/301Automatic calibration of stereophonic sound system, e.g. with test microphone
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S7/00Indicating arrangements; Control arrangements, e.g. balance control
    • H04S7/30Control circuits for electronic adaptation of the sound field
    • H04S7/308Electronic adaptation dependent on speaker or headphone connection
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/34Network arrangements or protocols for supporting network services or applications involving the movement of software or configuration parameters 
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2420/00Techniques used stereophonic systems covered by H04S but not provided for in its groups
    • H04S2420/01Enhancing the perception of the sound image or of the spatial distribution using head related transfer functions [HRTF's] or equivalents thereof, e.g. interaural time difference [ITD] or interaural level difference [ILD]

Definitions

  • the present disclosure relates to an information processing device, an information processing method, and an information processing program. Specifically, it relates to the use of head related transfer functions.
  • a technology is used that stereoscopically reproduces the sound image in headphones, etc., by using the head-related transfer function that mathematically expresses how the sound reaches the ear from the sound source.
  • a three-dimensional digital model of the head (hereinafter referred to as a “3D model”) is generated based on an image of the user's auricle, and the head-related transfer function of the user is calculated from the generated 3D model.
  • the technology is known.
  • the head related transfer function calculated individually for each user can be used for information processing, so that the localization of the sound image can be enhanced.
  • the present disclosure proposes an information processing device, an information processing method, and an information processing program that can appropriately use the head related transfer function.
  • Embodiment 1-1 Example of Configuration of Information Processing System and Information Processing According to Embodiment 1-2.
  • Configuration of information processing apparatus according to embodiment 1-3 Information processing procedure according to the embodiment 2.
  • Modification 2-1 Aspect of information processing system 2-2.
  • Mode of sound source reproduction 2-3 Use of parameters 2-4.
  • Other Embodiments 4. Effect of information processing apparatus according to the present disclosure Hardware configuration
  • FIG. 1 is a diagram showing an information processing system 1 according to an embodiment of the present disclosure.
  • the information processing according to the embodiment of the present disclosure is realized by the information processing system 1 illustrated in FIG. 1.
  • the information processing system 1 includes a user terminal 10, headphones 50, a cloud server 100, and a service server 200.
  • the devices included in the information processing system 1 communicate with each other using a wired or wireless network (not shown). Note that the number of each device that configures the information processing system 1 is not limited to the illustrated one.
  • the headphone 50 is an example of an audio device used by a user.
  • the headphones 50 have a communication function such as Bluetooth (registered trademark) and establish wireless communication with the user terminal 10. Then, the headphones 50 output the sound or the like transmitted from the user terminal 10 according to the operation of the user.
  • the service server 200 is a server device that provides the user terminal 10 with a sound source such as music.
  • the service server 200 provides a streaming sound source or the like to the user terminal 10 via the network according to the control of the music reproduction application or the like installed in the user terminal 10.
  • the user terminal 10 executes information processing using the HRTF.
  • the HRTF expresses, as a transfer function, a change in sound caused by a peripheral object including the shape of the human auricle (auricle) or the head.
  • the measurement data for obtaining the HRTF is acquired by measuring a sound signal for measurement using a microphone or a dummy head microphone that a person wears in the auricle.
  • the cloud server 100 acquires an image including the shape of the user's ear captured by the user terminal 10, and calculates the user's individual HRTF based on the acquired image. Then, the cloud server 100 transmits the calculated HRTF to the user terminal 10. As a result, the user terminal 10 can reproduce the sound in which the 3D sound is reproduced by using the user's individual HRTF, or can reproduce the moving image with a sense of reality.
  • the user terminal 10 includes various applications such as an application having a function of transmitting and managing the HRTF (hereinafter, simply referred to as “app”), an application for playing music, an application for playing video, and the like. Run the app developed by.
  • HRTF data may not be exchanged between the HRTF management application and the music playback application, for example, due to restrictions of the OS (Operating System).
  • the HRTF can be calculated regardless of the acoustic device (headphone 50 or the like) actually used by the user, but in order to exert a more effective acoustic effect, an output value matched with the impedance of the device, It is desirable to use it together with variables (parameters) such as delay time based on the shape of the output part of the device.
  • variables such as delay time based on the shape of the output part of the device.
  • the HRTF may be used in an unintended usage mode by the cloud server 100 or the application that manages the HRTF.
  • the user terminal 10 solves the above problem by the information processing of the present disclosure described below.
  • an outline of information processing according to the present disclosure will be described along the flow with reference to FIGS. 1 and 2.
  • the user terminal 10 has already installed the first application 20 and the second application 30.
  • the first application 20 is, for example, an application provided by a company that manages the cloud server 100.
  • the first application 20 has a function of capturing an image including the user's ear, transmitting the captured image to the cloud server 100, and managing the HRTF transmitted from the cloud server 100.
  • the first application 20 captures an image including the user's ear and acquires the image including the ear according to the user's operation (step S1). Subsequently, the first application 20 transmits the image including the ear to the cloud server 100 (step S2). It should be noted that the first application 20 performs, as preprocessing for transmitting the image to the cloud server 100, a process of detecting an image of the user's ear included in the image, and cutting out the range of the detected image of the ear from the image. May be.
  • the cloud server 100 acquires the image transmitted from the user terminal 10. Then, the cloud server 100 calculates the user's HRTF from the image (step S3).
  • Various methods may be adopted as a method for the cloud server 100 to calculate the HRTF.
  • the cloud server 100 may calculate the HRTF using a model learned to output the HRTF corresponding to the ear when a two-dimensional image including the image of the ear is input.
  • the cloud server 100 may generate a 3D model of the user's head from a two-dimensional image including the image of the ear and calculate the HRTF from the generated 3D model.
  • the HRTF calculated according to the individual user may be referred to as a personalized HRTF (personal HRTF), and may be distinguished from a general HRTF.
  • the cloud server 100 transmits the generated personalized BRIR to the user terminal 10 (step S4).
  • the first application 20 acquires the personalized BRIR (step S5). In this way, the user can acquire his/her personalized BRIR by photographing his/her profile and transmitting the image to the cloud server 100. Then, the first application 20 stores the received personalized BRIR in the storage area 21 (step S6).
  • the first application 20 acquires the personalized BRIR stored in the storage area 21 in response to the operation of activating the first application 20 from the user (step S11). Further, the first application 20 recognizes the device connected to the user terminal 10. In the example of FIG. 2, the first application 20 recognizes the headphones 50 that have established communication with the user terminal 10 through a wireless connection such as Bluetooth.
  • the first application 20 acquires information about the headphones 50 that are the connected devices (step S12). For example, the first application 20 acquires an identifier that identifies a device.
  • the identifier is, for example, when the device has a Bluetooth function, a character string for identifying the device such as a BT device name, a unique character string for identifying each device, or the like. Further, the identifier may be a model name of a device uniquely given by the manufacturer.
  • the first application 20 may also acquire information such as whether or not the connected device has a communication function. For example, if the device does not have a communication function such as Bluetooth, the device may not be able to transmit information such as an identifier. In this case, the first application 20 acquires information indicating that the device connected to the user terminal 10 cannot recognize the device. Such information is distinguished by, for example, whether the device type is Active (has a communication function) or Passive (has no communication function). That is, the first application 20 acquires information indicating whether the connected device is Active or Passive. In the example of FIG. 2, since the headphones 50 have a communication function, the first application 20 acquires information that the headphones 50 that are the connected devices are “Active”.
  • the first application 20 associates the personalized BRIR with the identifier of the headphones 50, which is a device used by the user.
  • the association means for example, that the device currently connected to the user terminal 10 is the headphones 50, and therefore the second application 30 to be described later provides control information for controlling reproduction by devices other than the headphones 50. Granting, etc. More specifically, the association is control information for controlling a variable for optimizing a certain device (hereinafter, referred to as “device optimization parameter”) so as not to be used by another device by mistake. Is to give.
  • the first application 20 transmits (uploads) information about the personalized BRIR and the headphones 50 to the cloud server 100 (step S13). This process is performed in order to enable the personalized BRIR to be passed through the cloud server 100 because the data cannot be directly passed from the first application 20 to the second application 30.
  • the cloud server 100 acquires information about the personalized BRIR and the headphones 50. Then, the cloud server 100 specifies the device optimization parameter of the headphone 50 among the information held, based on the identifier of the headphone 50.
  • the cloud server 100 issues a one-time URL that is an acquisition address for the device optimization parameter of the headphones 50.
  • the first application 20 acquires the acquisition address of the personalized BRIR transmitted from the cloud server 100 and the acquisition address of the device optimization parameter of the headphones 50 (step S16).
  • the first application 20 may associate the personalized BRIR with the identifier of the headphones 50 at the timing of step S16.
  • the second application 30 is an application for playing a sound source or a moving image.
  • the second application 30 is provided to the user by the same company as the company that manages the service server 200 that provides the streaming sound source.
  • the second application 30 has a processing unit called a data control unit 31 and a player 34, and the data control unit 31 is provided as a shared library by the business operator who provides the first application 20. It may be one. That is, the business operator managing the service server 200 may provide only the function corresponding to the player 34 in the second application 30.
  • the data control unit 31 stores the acquired personalized BRIR and device optimization parameters of the headphones 50 in the storage area 32 (step S19).
  • the data control unit 31 updates the configuration file (Config File) 33 in which the settings for the reproduction of the second application 30 are held. Specifically, the data control unit 31 writes in the setting file 33 that the acquired personalized BRIR and the device optimization parameter are used (validated) in the reproduction process.
  • the data control unit 31 acquires the acquired personalized BRIR. Write so that the device optimization parameters are not activated.
  • the data control unit 31 compares the identifier (BT device name or the like) passed from the first application 20 with the identifier of the headphone 50 that is currently connected and compares the personalized BRIR used for reproducing the sound source or Determine equipment optimization parameters. Then, the data control unit 31 updates the setting file 33 according to the determined content (step S21).
  • the identifier BT device name or the like
  • the data control unit 31 updates the setting file 33 according to the determined content (step S21).
  • the data control unit 31 uses the personalized BRIR and the device optimization parameter provided from the cloud server 100 when the actually used device (headphone 50) is changed. Restrict. That is, the data control unit 31 includes the step of determining the device identifier in the second application 30 which is actually played back, so that the device optimization parameters of different devices are applied when the music is played back. It is possible to prevent inappropriate reproduction from being performed.
  • the second application 30 executes the function of the player 34 when the user desires to play music.
  • the player 34 is a processing unit that reproduces music or a moving image based on a sound source such as a music file and the information set in the setting file 33.
  • the player 34 reads the setting file 33 and recognizes that the personalized BRIR is used for reproduction and the device optimization parameter of the headphones 50 is used (step S22).
  • the player 34 acquires the personalized BRIR and the device optimization parameter from the storage area 32 based on the information set in the setting file 33 (step S23).
  • the player 34 accesses the service server 200 that provides a streaming sound source, etc., and acquires the sound source (step S24).
  • the player 34 plays the sound source while convolving the personalized BRIR and the device optimization parameter with the sound source.
  • the player 34 can perform reproduction using a transfer function matched to the shape of the user's individual ear and parameters optimized for the reproduction environment such as the headphones 50.
  • the user terminal 10 provides not only the personalized BRIR but also the identifier of the device connected in the environment where the personalized BRIR is used. In this way, the user terminal 10 optimizes the environment of the user by providing the reproduction environment (the second application 30 or the like) with information such as what device the user is using to use the personalized BRIR. The replay can be performed.
  • the user terminal 10 acquires the personalized BRIR corresponding to the user and the identifier associated with the personalized BRIR, and the identifier associated with the personalized BRIR and the identifier for identifying the device used by the user. Is determined. Then, the user terminal 10 sets to activate the personalized BRIR when the identifier associated with the personalized BRIR and the identifier for identifying the device used by the user match.
  • the user terminal 10 identifies the currently connected device in the environment where the personalized BRIR is about to be used, and thus the personalized BRIR and the device optimization parameter provided from the cloud server 100. To determine whether to use. As a result, the user terminal 10 can prevent inappropriate use of the personalized BRIR during reproduction or erroneous application of different device optimization parameters. As a result, the user terminal 10 can perform reproduction optimized for the user's environment.
  • FIG. 3 is a diagram illustrating a configuration example of the user terminal 10 according to the embodiment of the present disclosure.
  • the user terminal 10 includes a communication unit 11, an input unit 12, a display unit 13, a detection unit 14, a storage unit 15, and a control unit 16.
  • the communication unit 11 is realized by, for example, a NIC (Network Interface Card) or the like.
  • the communication unit 11 is connected to a network N (Internet or the like) by wire or wirelessly, and transmits/receives information to/from the cloud server 100, the service server 200, the headphones 50, or the like via the network N.
  • a network N Internet or the like
  • the input unit 12 is an input device that receives various operations from the user.
  • the input unit 12 is realized by an operation key or the like included in the user terminal 10.
  • the display unit 13 is a display device for displaying various information.
  • the display unit 13 is realized by a liquid crystal display or the like. When a touch panel is used for the user terminal 10, a part of the input unit 12 and the display unit 13 are integrated.
  • the detection unit 14 is a general term for various sensors, and detects various information regarding the user terminal 10. Specifically, the detection unit 14 detects a user's operation on the user terminal 10, position information of the user terminal 10, information about a device connected to the user terminal 10, an environment of the user terminal 10, and the like. To do.
  • the detection unit 14 has, as an example of a sensor, a lens for taking an image and an image sensor. That is, the detection unit 14 exerts a function as a camera, for example, when the user activates an application that operates the photographing function.
  • the storage unit 15 is realized by, for example, a semiconductor memory device such as a RAM (Random Access Memory) or a flash memory (Flash Memory), or a storage device such as a hard disk or an optical disk.
  • the storage unit 15 stores various data used for information processing.
  • the storage unit 15 includes a data table such as a BRIR table 151 and a parameter table 152.
  • the BRIR table 151 corresponds to the storage area 21 shown in FIG. 2, for example.
  • the parameter table 152 corresponds to the storage area 32 shown in FIG. 2, for example.
  • the BRIR table 121 stores information about the personalized BRIR generated by the cloud server 100.
  • FIG. 4 shows an example of the BRIR table 151 according to the embodiment of the present disclosure.
  • FIG. 4 is a diagram showing an example of the BRIR table 151 according to the embodiment.
  • the BRIR table 151 has items such as “personalized BRIR data” and “generation date and time”.
  • “Generation date and time” indicates the date and time when the personalized BRIR data was generated.
  • the user terminal 10 may retain only the latest personalized BRIR in the BRIR table 151, or may retain the plurality of personalized BRIRs in the BRIR table 151. May be.
  • the parameter table 122 stores information about parameters used when reproducing a sound source or a moving image.
  • FIG. 5 shows an example of the parameter table 152 according to the embodiment of the present disclosure.
  • FIG. 5 is a diagram showing an example of the parameter table 152 according to the embodiment.
  • the parameter table 152 has items such as “setting ID”, “personalized BRIR data”, “device optimization parameter”, and “acquisition date and time”.
  • “Setting ID” indicates identification information that identifies the setting indicating that the personalized BRIR and the device optimization parameter are associated with each other.
  • “Personalized BRIR data” corresponds to the same items shown in FIG.
  • the “device optimization parameter” indicates the data of the device optimization parameter acquired from the cloud server 100. In FIG. 5, the device optimization parameter is conceptually described as “C01”, but in reality, a specific numerical value or the like indicating the device optimization parameter is stored in the item.
  • “Acquisition date and time” indicates the date and time when the personalized BRIR and the device optimization parameter are acquired from the cloud server 100.
  • the user terminal 10 may hold only the latest personalized BRIR and the device optimization parameter in the parameter table 152, or may store a plurality of the latest personalized BRIR and the device optimization parameter.
  • the personalized BRIR and device optimization parameters may be held in the BRIR table 151.
  • the control unit 16 is a program (for example, an information processing program according to the present disclosure) stored in the user terminal 10 by, for example, a CPU (Central Processing Unit), MPU (Micro Processing Unit), GPU (Graphics Processing Unit), or the like. Is implemented by using RAM (Random Access Memory) as a work area.
  • the control unit 16 is a controller, and may be realized by an integrated circuit such as an ASIC (Application Specific Integrated Circuit) or an FPGA (Field Programmable Gate Array).
  • the control unit 16 has a first application control unit 161 and a second application control unit 165, and realizes or executes the functions and actions of information processing described below.
  • the first application control unit 161 includes a generation unit 162, an execution unit 163, and a provision unit 164.
  • the second application control unit 165 includes an acquisition unit 166, a determination unit 167, a setting unit 168, and a reproduction unit 169.
  • the acquisition unit 166, the determination unit 167, and the setting unit 168 correspond to the data control unit 31 illustrated in FIG.
  • the reproducing unit 169 corresponds to the player 34 shown in FIG.
  • the internal configuration of the control unit 16 is not limited to the configuration shown in FIG. 3 and may be another configuration as long as it is a configuration for performing information processing described later.
  • the generation unit 162 controls processing related to generation of the HRTF and the personalized BRIR. Specifically, the generation unit 162 controls processing related to shooting of a side face including the user's ear. Further, the generation unit 162 controls a process of transmitting an image obtained by photographing to the cloud server 100 and a process of acquiring the personalized BRIR generated by the cloud server 100.
  • the generation unit 162 appropriately stores the image obtained by shooting and the acquired personalized BRIR in the storage unit 15.
  • the generation unit 162 does not transmit the image captured by the user terminal 10 to the cloud server 100, but acquires an image captured by an external camera or the like and transmits the acquired image to the cloud server 100. May be.
  • the generation unit 162 does not send the image to the cloud server 100, and the personalized HRTF or the personalized HRTF. Only the process of acquiring the functionalized BRIR may be controlled. That is, the process in which the generation unit 162 acquires the personalized HRTF and the personalized BRIR is not limited to a specific method.
  • the execution unit 163 associates the personalized HRTF or personalized BRIR corresponding to the user with the identifier for identifying the device used by the user.
  • the execution unit 163 acquires the personalized BRIR stored in the BRIR table 151 when the user activates the first application.
  • the execution unit 163 also acquires, from the headphones 50, an identifier that identifies the headphones 50 that are connected when the first application is activated. Then, the execution unit 163 associates the personalized BRIR with the identifier of the headphones 50, and uploads the personalized BRIR to the cloud server 100 together with the associated information.
  • the execution unit 163 acquires the personalized BRIR issued by the cloud server 100 and the one-time URL for acquiring the headphones 50. Note that the execution unit 163 may associate the personalized BRIR with the identifier of the headphones 50 at the time of acquiring the one-time URL for acquisition.
  • the providing unit 164 provides the personalized BRIR and the identifier associated with the personalized BRIR to the provision destination to which the personalized BRIR corresponding to the user is provided.
  • the provision destination is, for example, an application (a second application in the embodiment) different from the first application installed in the user terminal 10.
  • the providing destination is not limited to the second application, and may be another external device (for example, another information processing terminal capable of mutually communicating with the user terminal 10) or the like.
  • the providing unit 164 provides the personalized BRIR to the provision destination by transmitting the one-time URL for the provision destination to acquire the personalized BRIR to the provision destination.
  • the providing unit 164 provides the personalized BRIR to the providing destination via the one-time URL.
  • the providing unit 164 can provide the personalized BRIR even to the second application that cannot be directly delivered due to, for example, the restrictions of the OS.
  • the providing unit 164 may provide a variable (device optimization parameter) according to the device used with the personalized BRIR, together with the identifier, to the providing destination.
  • the providing unit 164 provides the device optimization parameter to the provider by transmitting the one-time URL for the provider to acquire the device optimization parameter to the provider. That is, the providing unit 164 provides the device optimization parameter to the providing destination via the one-time URL, similarly to the personalized BRIR. As a result, the providing unit 164 can provide the device optimization parameter even to the second application that cannot be directly passed due to, for example, the restrictions of the OS.
  • the providing unit 164 may provide the device optimization parameter to the providing destination when the communication among the user terminal 10, the information processing device, and the headphones 50 is established. That is, the providing unit 164 does not provide the device optimization parameter to the second application when the communication with the headphones 50 is disconnected, for example, at the timing of providing the device optimization parameter to the second application. May be. As a result, the providing unit 164 can prevent a discrepancy between the device that the user intends to use and the passed optimization parameter.
  • the acquisition unit 166 acquires the personalized BRIR corresponding to the user and the identifier associated with the personalized BRIR.
  • the acquisition unit 166 acquires the personalized BRIR from the cloud server 100 via the one-time URL provided by the provision unit 164. Specifically, the acquisition unit 166 acquires the personalized BRIR by accessing the access destination indicated by the one-time URL and making a request to acquire the personalized BRIR to the cloud server 100.
  • the acquisition unit 166 may acquire the device optimization parameter according to the device when used with the personalized BRIR together with the device identifier.
  • the acquisition unit 166 acquires the device optimization parameter from the cloud server 100 via the one-time URL provided by the provision unit 164. Specifically, the acquisition unit 166 acquires the device optimization parameter by accessing the access destination indicated by the one-time URL and requesting the cloud server 100 to acquire the device optimization parameter.
  • the acquisition unit 166 appropriately stores the acquired information in the storage unit 15.
  • the acquisition unit 166 stores the acquired personalized BRIR and device optimization parameter in the parameter table 152 in association with each other.
  • the determination unit 167 determines whether the identifier associated with the personalized BRIR matches the identifier for identifying the device used by the user.
  • the determination unit 167 provides the identifier such as the BT device name provided by the providing unit 164 and associated with the personalized BRIR, and the identifier such as the BT device name of the device currently used by the user. Is determined.
  • the determination unit 167 determines that the device with which communication with the user terminal 10 is established is the device used by the user. For example, the determination unit 167 identifies the device with which the communication with the user terminal 10 is established by detecting the device connected to the user terminal 10 by using the function (library or the like) of the OS. You can
  • the determination unit 167 identifies the device used by the user and the identifier associated with the personalized BRIR when the device currently used by the user cannot be detected or when the device identifier cannot be acquired. It may be determined that and do not match. For example, when the device currently used by the user is Passive and the device does not have the function of transmitting the identifier, the determination unit 167 determines that the identifier associated with the personalized BRIR and the identifier of the device are It is determined that they do not match.
  • the setting unit 168 sets that the personalized BRIR acquired from the cloud server 100 can be used when the identifier associated with the personalized BRIR and the identifier for identifying the device used by the user match.
  • the reproduction unit 169 described below can perform reproduction using the personalized BRIR stored in the parameter table 152.
  • the setting unit 168 sets not to activate the personalized BRIR or the device optimization parameter when the identifier associated with the personalized BRIR does not match the identifier for identifying the device used by the user. May be.
  • the setting unit 168 may impair the user experience, such as the optimum sound source reproduction not being performed due to the personalized BRIR or the device optimization parameter being mistakenly used in an environment where the reproduction situation is unknown. Etc. can be prevented.
  • the setting unit 168 may be set so that neither the personalized BRIR nor the device optimization parameter is validated, or the personalized BRIR may be validated and the device optimization parameter may not be validated. ..
  • the setting unit 168 When the setting unit 168 is set not to enable the personalized BRIR, the setting unit 168 writes in the setting file such that the average BRIR averaged by a plurality of users is used instead of the personalized BRIR in reproducing the sound source.
  • the setting unit 168 sets not to use the device optimization parameter but to use a standard parameter commonly applied to all devices in reproducing the sound source. Write to file
  • the playback unit 169 plays a sound source or a moving image.
  • the reproduction unit 169 reads the setting file and specifies the BRIR and parameters used for reproduction. Then, the reproducing unit 169 acquires the personalized BRIR and the device optimization parameter written in the setting file from the parameter table 152 and reproduces them.
  • the reproducing unit 169 accesses the service server 200, acquires streaming data, and reproduces the acquired streaming data.
  • the reproducing unit 169 may reproduce not only the streaming data but also the sound source and the moving image stored in the storage unit 15.
  • FIG. 6 is a flowchart (1) showing a procedure of information processing according to the embodiment.
  • the user terminal 10 acquires the user's ear image through the photographing process and the like (step S101). Subsequently, the user terminal 10 transmits the ear image to the cloud server 100 (step S102).
  • the user terminal 10 acquires the personalized BRIR generated based on the ear image (step S103). Then, the user terminal 10 stores the acquired personalized BRIR in the storage unit 15 (BRIR table 151) (step S104).
  • the user terminal 10 does not have to associate the device identifier with the personalized BRIR.
  • the case where the device optimization parameter acquisition address has not been acquired means, for example, that the device is Passive and the identifier cannot be acquired in step S202, or the cloud server 100 holds the device optimization parameter. For example, when there is no such item.
  • the user terminal 10 provides the information such as the acquisition address acquired from the cloud server 100 to the second application (step S207).
  • FIG. 8 is a flowchart (3) showing the procedure of information processing according to the embodiment.
  • the information processing apparatus determines the match between the device associated at the time of acquiring the head-related transfer function and the device that is actually connected, and based on the result, Set the activation of the head related transfer function. Accordingly, the information processing device can prevent the head related transfer function from being applied to an inappropriate device during reproduction.
  • the acquisition unit acquires the head related transfer function via the one-time URL for acquiring the head related transfer function.
  • the information processing apparatus can acquire the head related transfer function even when there is a constraint such as the OS.
  • the ROM 1300 stores a boot program such as a BIOS (Basic Input Output System) executed by the CPU 1100 when the computer 1000 starts up, a program dependent on the hardware of the computer 1000, and the like.
  • BIOS Basic Input Output System
  • the HDD 1400 is a computer-readable recording medium that non-temporarily records a program executed by the CPU 1100, data used by the program, and the like. Specifically, the HDD 1400 is a recording medium that records an information processing program according to the present disclosure, which is an example of the program data 1450.
  • the communication interface 1500 is an interface for connecting the computer 1000 to an external network 1550 (for example, the Internet).
  • the CPU 1100 receives data from another device or transmits the data generated by the CPU 1100 to another device via the communication interface 1500.
  • the input/output interface 1600 is an interface for connecting the input/output device 1650 and the computer 1000.
  • the CPU 1100 receives data from an input device such as a keyboard or a mouse via the input/output interface 1600.
  • the CPU 1100 also transmits data to an output device such as a display, a speaker, a printer, etc. via the input/output interface 1600.
  • the input/output interface 1600 may function as a media interface for reading a program or the like recorded in a predetermined recording medium (medium).
  • a head-related transfer function corresponding to the user and an execution unit that executes association between an identifier that identifies a device used by the user, Information processing including a head-related transfer function and a providing unit that provides the head-related transfer function and the identifier associated with the head-related transfer function to a destination to which the head-related transfer function corresponding to the user is provided.
  • the providing unit is The one-time URL (One-Time URL) for the provision destination to acquire the head related transfer function is transmitted to the provision destination, thereby providing the head related transfer function to the provision destination.
  • the providing unit is The information processing apparatus according to (1) or (2), which provides the provision destination with a variable according to the device when used together with the head related transfer function together with the identifier.
  • the providing unit is The information processing device according to (3), wherein the provision destination provides the variable to the provision destination by transmitting a one-time URL for acquiring the variable (One-Time URL) to the provision destination.
  • the providing unit is The information processing device according to (3) or (4), wherein the variable is provided to the provision destination when communication between the information processing device and the device is established.
  • the setting unit When the identifier associated with the head related transfer function does not match the identifier for identifying the device used by the user, the head related transfer function or the variable is set not to be activated (10) The information processing apparatus according to any one of to (12).
  • (14) Computer Acquiring a head related transfer function corresponding to the user and an identifier associated with the related head related transfer function, Determining a match between an identifier associated with the head related transfer function and an identifier for identifying a device used by the user, An information processing method, wherein when the identifier associated with the head related transfer function and the identifier for identifying the device used by the user match, the head related transfer function is set to be valid.
  • An acquisition unit that acquires a head-related transfer function corresponding to the user and an identifier associated with the head-related transfer function, An identifier associated with the head related transfer function, and a determination unit that determines a match between an identifier for identifying a device used by the user, An identifier associated with the head related transfer function and a setting unit for setting the head related transfer function to be activated when the identifier for identifying the device used by the user matches.
  • Information processing program that acquires a head-related transfer function corresponding to the user and an identifier associated with the head-related transfer function, An identifier associated with the head related transfer function, and a determination unit that determines a match between an identifier for identifying a device used by the user, An identifier associated with the head related transfer function and a setting unit for setting the head related transfer function to be activated when the identifier for identifying the device used by the user matches.

Landscapes

  • Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Information Transfer Between Computers (AREA)
  • Stereophonic System (AREA)

Abstract

本開示に係る情報処理装置は、ユーザに対応した頭部伝達関数と、当該ユーザが利用する機器を識別する識別子との対応付けを実行する実行部と、ユーザに対応した頭部伝達関数が提供される提供先に対して、当該頭部伝達関数と、当該頭部伝達関数に対応付けられた識別子とを提供する提供部とを備える。

Description

情報処理装置、情報処理方法及び情報処理プログラム
 本開示は、情報処理装置、情報処理方法及び情報処理プログラムに関する。詳しくは、頭部伝達関数の利用に関する。
 音源から耳への音の届き方を数学的に表す頭部伝達関数を用いることで、ヘッドホン等における音像を立体的に再現する技術が利用されている。
 頭部伝達関数は個人差が大きいことから、その利用時には、個人ごとに生成された頭部伝達関数を用いることが望ましい。例えば、ユーザの耳介を撮影した画像に基づいて頭部の三次元デジタルモデル(以下、「3Dモデル」と表記する)を生成し、生成した3Dモデルから当該ユーザの頭部伝達関数を算出する技術が知られている。
米国特許第9544706号明細書
 従来技術によれば、各々のユーザに合わせて個別に算出された頭部伝達関数を情報処理に用いることができるため、音像の定位感を高めることができる。
 しかしながら、上記の従来技術では、ユーザごとに算出された頭部伝達関数を適切に利用することができるとは限らない。例えば、ユーザは、単独のアプリケーション(音楽再生アプリ等)に限らず、スマートフォンにインストールされた複数のアプリケーションに対して自身の頭部伝達関数を適用させる等、頭部伝達関数の柔軟な利用を所望する場合がある。また、頭部伝達関数は、実際に使用される状況やユーザが使用する音響機器等に応じて調整が施された方が、より臨場感を高めたり正確な定位感を与えたりすることができる。しかし、従来技術は、ユーザごとの頭部伝達関数を算出するに過ぎず、ユーザが頭部伝達関数を柔軟に利用したり、状況に合わせて頭部伝達関数の利用態様を変えたりする等の処理を行うものではない。
 そこで、本開示では、頭部伝達関数を適切に利用することができる情報処理装置、情報処理方法及び情報処理プログラムを提案する。
 上記の課題を解決するために、本開示に係る一形態の情報処理装置は、ユーザに対応した頭部伝達関数と、当該ユーザが利用する機器を識別する識別子との対応付けを実行する実行部と、前記ユーザに対応した頭部伝達関数が提供される提供先に対して、当該頭部伝達関数と、当該頭部伝達関数に対応付けられた前記識別子とを提供する提供部とを備える。
 また、上記の課題を解決するために、本開示に係る一形態の情報処理装置は、ユーザに対応した頭部伝達関数と、当該頭部伝達関数に対応付けられた識別子とを取得する取得部と、前記頭部伝達関数に対応付けられた識別子と、前記ユーザが利用する機器を識別する識別子との一致を判定する判定部と、前記頭部伝達関数に対応付けられた識別子と、前記ユーザが利用する機器を識別する識別子とが一致する場合に、当該頭部伝達関数を有効化するよう設定する設定部とを備える。
本開示の実施形態に係る情報処理システムを示す図である。 実施形態に係る情報処理の全体の流れを示した概念図である。 実施形態に係るユーザ端末の構成例を示す図である。 実施形態に係るBRIRテーブルの一例を示す図である。 実施形態に係るパラメータテーブルの一例を示す図である。 実施形態に係る情報処理の手順を示すフローチャート(1)である。 実施形態に係る情報処理の手順を示すフローチャート(2)である。 実施形態に係る情報処理の手順を示すフローチャート(3)である。 実施形態に係る情報処理の手順を示すフローチャート(4)である。 変形例に係る頭部伝達関数の利用態様を示す概念図である。 情報処理装置の機能を実現するコンピュータの一例を示すハードウェア構成図である。
 以下に、本開示の実施形態について図面に基づいて詳細に説明する。なお、以下の各実施形態において、同一の部位には同一の符号を付することにより重複する説明を省略する。
 以下に示す項目順序に従って本開示を説明する。
  1.実施形態
   1-1.実施形態に係る情報処理システムの構成と情報処理の一例
   1-2.実施形態に係る情報処理装置の構成
   1-3.実施形態に係る情報処理の手順
  2.変形例
   2-1.情報処理システムの態様
   2-2.音源の再生の態様
   2-3.パラメータの利用
   2-4.機器の態様
  3.その他の実施形態
  4.本開示に係る情報処理装置の効果
  5.ハードウェア構成
(1.実施形態)
[1-1.実施形態に係る情報処理システムの構成と情報処理の一例]
 まず、図1及び図2を用いて、本開示に係る情報処理システム1の構成、及び、情報処理システム1によって実行される情報処理の概要を説明する。図1は、本開示の実施形態に係る情報処理システム1を示す図である。本開示の実施形態に係る情報処理は、図1に示す情報処理システム1によって実現される。図1に示すように、情報処理システム1は、ユーザ端末10と、ヘッドホン50と、クラウドサーバ100と、サービスサーバ200とを含む。情報処理システム1に含まれる各装置は、図示しない有線又は無線ネットワークを用いて相互に通信を行う。なお、情報処理システム1を構成する各装置の台数は、図示したものに限られない。
 ユーザ端末10は、本開示に係る情報処理装置の一例であり、頭部伝達関数(以下、HRTF(Head-Related Transfer Function)と表記する場合がある)を利用した情報処理を実行する情報処理端末である。ユーザ端末10は、例えば、撮影機能を有したスマートフォン等によって実現される。
 ヘッドホン50は、ユーザが利用する音響機器の一例である。例えば、ヘッドホン50はBluetooth(登録商標)等の通信機能を有し、ユーザ端末10との無線通信を確立する。そして、ヘッドホン50は、ユーザの操作に従いユーザ端末10から送信された音声等を出力する。
 クラウドサーバ100は、各ユーザに対応するHRTF(頭部伝達関数)を算出し、算出したHRTFをユーザ端末10に提供する。クラウドサーバ100は、ネットワークを介して、ユーザの耳を撮影した画像をユーザ端末10から取得し、取得した画像に基づいて当該ユーザのHRTFを算出する。
 サービスサーバ200は、ユーザ端末10に音楽等の音源を提供するサーバ装置である。例えば、サービスサーバ200は、ユーザ端末10にインストールされた音楽再生アプリ等の制御に従い、ネットワークを介して、ストリーミング音源等をユーザ端末10に提供する。
 上記のように、ユーザ端末10は、HRTFを利用した情報処理を実行する。HRTFは、人間の耳介(耳殻)や頭部の形状等を含む周辺物によって生じる音の変化を伝達関数として表現するものである。一般に、HRTFを求めるための測定データは、人間が耳介内に装着したマイクロホンやダミーヘッドマイクロホン等を用いて測定用の音響信号を測定することにより取得される。
 例えば3D音響等の技術で利用されるHRTFは、ダミーヘッドマイクロホン等で取得された測定データや、多数の人間から取得された測定データの平均値等を用いて算出されることが多い。しかしながら、HRTFは個人差が大きいことから、より効果的な音響演出効果を実現するためには、ユーザ自身のHRTFを用いることが望ましい。すなわち、一般的なHRTFをユーザ自身のHRTFに置き換えることで、より臨場感のある音響体感をユーザに提供することができる。
 ユーザ個人のHRTFを算出する手法の一例として、ユーザの耳の形状を撮影した画像からユーザのHRTFを算出する手法がある。例えば、クラウドサーバ100は、ユーザ端末10によって撮影されたユーザの耳の形状を含む画像を取得し、取得した画像に基づいてユーザ個人のHRTFを算出する。そして、クラウドサーバ100は、算出したHRTFをユーザ端末10に送信する。これにより、ユーザ端末10は、ユーザ個人のHRTFを用いて3D音響が再現された音を再生したり、臨場感のある動画再生を行ったりすることができる。
 しかしながら、上記の手法の実現には、いくつかの課題が存在する。例えば、ユーザ端末10は、HRTFを送信したり管理したりする機能を有するアプリケーション(以下、単に「アプリ」と表記する)や、音楽再生用のアプリや動画再生用のアプリ等、様々な事業者が開発したアプリを動作させる。この場合、例えばOS(Operating System)の制約等により、HRTFを管理するアプリと音楽再生用アプリ等との間で、HRTFデータをやりとりできない場合がある。
 また、HRTFデータをやりとりできたとしても、その運用が適切に行われない可能性もある。例えば、HRTFは、ユーザが実際に使用する音響機器(ヘッドホン50等)によらず算出可能であるが、より効果の高い音響効果を発揮するためには、機器のインピーダンスに合わせた出力値や、機器の出力部の形状等に基づく遅延時間等の変数(パラメータ)と合わせて利用されることが望ましい。しかしながら、ユーザが音楽再生用アプリ等を利用するときに、クラウドサーバ100やHRTFを管理するアプリがその利用を制御することはOSの制約上難しい。このため、クラウドサーバ100やHRTFを管理するアプリが意図しない使用態様でHRTFが利用されるおそれがある。
 上記のように、HRTFに関して、複数のアプリをまたいで柔軟にHRTFを利用したり、ユーザの環境や機器の状況に合わせて適切にHRTFを利用させたりする点において、種々の課題が存在する。実施形態に係るユーザ端末10は、以下に説明する本開示の情報処理により、上記の課題を解決する。以下、本開示に係る情報処理の概要について、図1及び図2を用いて流れに沿って説明する。
 図1に示すように、ユーザ端末10は、第1アプリ20及び第2アプリ30をインストール済みである。第1アプリ20は、例えば、クラウドサーバ100を管理する事業者から提供されるアプリである。第1アプリ20は、ユーザの耳を含む画像を撮影したり、撮影した画像をクラウドサーバ100に送信したり、クラウドサーバ100から送信されたHRTFを管理したりする機能を有する。
 実施形態に係る情報処理において、まず、第1アプリ20は、ユーザの操作に従い、ユーザの耳を含む画像を撮影し、耳を含む画像を取得する(ステップS1)。続けて、第1アプリ20は、耳を含む画像をクラウドサーバ100に送信する(ステップS2)。なお、第1アプリ20は、クラウドサーバ100に画像を送信するための前処理として、画像に含まれるユーザの耳の映像を検出し、検出した耳の映像の範囲を画像から切り抜く処理等を行ってもよい。
 クラウドサーバ100は、ユーザ端末10から送信された画像を取得する。そして、クラウドサーバ100は、画像からユーザのHRTFを算出する(ステップS3)。クラウドサーバ100がHRTFを算出する手法には、種々の手法が採用されてもよい。例えば、クラウドサーバ100は、耳の映像を含む2次元の画像が入力された場合に、耳に対応するHRTFを出力するよう学習されたモデルを用いて、HRTFを算出してもよい。あるいは、クラウドサーバ100は、耳の映像を含む2次元の画像からユーザ頭部の3Dモデルを生成し、生成した3DモデルからHRTFを算出してもよい。以下の説明では、ユーザ個人に応じて算出されたHRTFを個人化HRTF(personal HRTF)と表記し、一般的なHRTFと区別する場合がある。
 なお、クラウドサーバ100は、算出した個人化HRTFにRIR(空間インパルス応答(Room Impulse Response))を畳み込んで、BRIR(両耳空間インパルス応答(Binaural Room Impulse Response))を生成してもよい。以下の説明では、ユーザ個人に応じて生成されたBRIRを個人化BRIR(personal BRIR)と表記し、一般的なBRIRと区別する場合がある。また、ユーザ端末10における音楽の再生時等に利用されるデータは、実際にはHRTFではなくBRIRである場合もあるが、以下の説明では、両者を相互に読み替えてもよいものとする。例えば、「生成したBRIRを送信する」といった記載は、算出したHRTFを送信する状況も含む。また、「BRIRを利用して再生する」といった記載は、HRTFを利用して再生する状況も含むものとする。
 その後、クラウドサーバ100は、生成した個人化BRIRをユーザ端末10に送信する(ステップS4)。第1アプリ20は、個人化BRIRを取得する(ステップS5)。このように、ユーザは、自身の横顔を撮影してクラウドサーバ100に画像を送信することにより、自身の個人化BRIRを取得することができる。そして、第1アプリ20は、受信した個人化BRIRを記憶領域21に格納する(ステップS6)。
 次に、図2を用いて、ユーザ端末10が個人化BRIRを使用して音楽等の再生を行う場合の処理の流れについて説明する。図2は、実施形態に係る情報処理の全体の流れを示した概念図である。
 第1アプリ20は、ユーザから第1アプリ20を起動させる操作を契機として、記憶領域21に格納された個人化BRIRを取得する(ステップS11)。また、第1アプリ20は、ユーザ端末10に接続された機器を認識する。図2の例では、第1アプリ20は、Bluetooth等の無線接続によりユーザ端末10との間で通信が確立している、ヘッドホン50を認識する。
 この場合、第1アプリ20は、接続された機器であるヘッドホン50に関する情報を取得する(ステップS12)。例えば、第1アプリ20は、機器を識別する識別子を取得する。識別子は、例えば機器がBluetooth機能を有する場合、BTデバイス名のような、当該機器を識別するための文字列や、個々の機器を識別する固有の文字列等である。また、識別子は、メーカーが独自に付与した機器のモデル名等であってもよい。
 また、第1アプリ20は、接続された機器が通信機能を有する否かといった情報を取得してもよい。例えば、機器がBluetooth等の通信機能を有さない場合、機器は、識別子等の情報を送信できない場合がある。この場合、第1アプリ20は、ユーザ端末10に接続された機器が認識できない態様であることを示す情報を取得する。このような情報は、例えば、機器のタイプがActive(通信機能を有する)か、Passive(通信機能を有さない)か、といった情報で区別される。すなわち、第1アプリ20は、接続された機器がActiveかPassiveか、といった情報を取得する。図2の例では、ヘッドホン50は通信機能を有するため、第1アプリ20は、接続された機器であるヘッドホン50が「Active」であるという情報を取得する。
 続いて、第1アプリ20は、個人化BRIRとユーザが利用する機器であるヘッドホン50の識別子とを対応付ける。対応付けとは、例えば、現時点でユーザ端末10に接続されている機器はヘッドホン50であることから、後述する第2アプリ30が、ヘッドホン50以外の機器での再生を制御するための制御情報を付与すること等である。より具体的には、対応付けとは、ある機器の最適化のための変数(以下、「機器最適化パラメータ」と表記する)が、他の機器に誤って使用されないよう制御するための制御情報を付与することである。
 その後、第1アプリ20は、個人化BRIRやヘッドホン50に関する情報をクラウドサーバ100に送信(アップロード)する(ステップS13)。この処理は、第1アプリ20から第2アプリ30に直接データを渡すことができないことから、クラウドサーバ100を介して個人化BRIRの受け渡しを可能にするために行うものである。
 クラウドサーバ100は、個人化BRIRとヘッドホン50に関する情報を取得する。そして、クラウドサーバ100は、ヘッドホン50の識別子に基づいて、保持する情報のうち、ヘッドホン50の機器最適化パラメータを特定する。
 さらに、クラウドサーバ100は、個人化BRIRを第1アプリが取得可能にするため、個人化BRIRの取得用アドレスを発行する(ステップS14)。例えば、取得用アドレスとは、クラウドサーバ100にアクセスして個人化BRIRを取得するためのワンタイムURL(One-Time Uniform Resource Locator)である。このように、クラウドサーバ100は、取得用アドレスを介して個人化BRIRの受け渡しを行う。これにより、OS等の制約により、第1アプリ20から再生用アプリ(図2の例では第2アプリ30)に個人化BRIRの受け渡しができない状況であっても、ユーザ端末10は、第2アプリ30に個人化BRIRを渡すことができる。
 また、クラウドサーバ100は、ヘッドホン50の機器最適化パラメータについても、取得用アドレスであるワンタイムURLを発行する。
 そして、クラウドサーバ100は、発行した個人化BRIRの取得用アドレスと、ヘッドホン50の機器最適化パラメータの取得用アドレスとを第1アプリ20に送信する(ステップS15)。
 第1アプリ20は、クラウドサーバ100から送信された個人化BRIRの取得用アドレスと、ヘッドホン50の機器最適化パラメータの取得用アドレスとを取得する(ステップS16)。なお、第1アプリ20は、ステップS16のタイミングで、個人化BRIRとヘッドホン50の識別子との対応付けを行ってもよい。
 その後、例えばユーザの操作により第2アプリ30が起動されたことを契機として、第1アプリ20は、取得した情報を第2アプリ30に提供する(ステップS17)。具体的には、第1アプリ20は、個人化BRIRの取得用アドレス、ヘッドホン50の機器最適化パラメータの取得用アドレス、ヘッドホン50の識別子、ヘッドホン50のモデル名や機器のタイプ等の情報を第2アプリ30に提供する。
 第2アプリ30は、音源や動画の再生等を行うためのアプリである。例えば、第2アプリ30は、ストリーミング音源の提供を行うサービスサーバ200を管理する事業者と同じ事業者等からユーザに提供される。なお、後述するように、第2アプリ30には、データ制御部31とプレイヤー34という処理部を有し、データ制御部31は共有ライブラリとして、第1アプリ20を提供する事業者から提供されるものであってもよい。すなわち、サービスサーバ200を管理する事業者は、第2アプリ30におけるプレイヤー34に該当する機能のみを提供してもよい。
 第2アプリ30のデータ制御部31は、例えば、第1アプリ20やクラウドサーバ100とのデータのやりとりを行うための実行ファイルを含むライブラリ(Library)であり、SAL(Server Access Library)等と称される場合がある。
 データ制御部31は、第1アプリ20から提供された個人化BRIRの取得用アドレスを介して、クラウドサーバ100から個人化BRIRを取得する(ステップS18)。また、データ制御部31は、第1アプリ20から提供された機器最適化パラメータの取得用アドレスを介して、クラウドサーバ100からヘッドホン50の機器最適化パラメータを取得する。
 データ制御部31は、取得した個人化BRIR、及び、ヘッドホン50の機器最適化パラメータを記憶領域32に格納する(ステップS19)。
 続いて、データ制御部31は、ユーザ端末10に接続されている機器を認識する。具体的には、データ制御部31は、ユーザ端末10との通信が確立しているヘッドホン50を認識する(ステップS20)。
 そして、データ制御部31は、第1アプリ20によって個人化BRIRに対応付けられた機器の識別子と、現時点でユーザが利用しようとする機器を識別する識別子との一致を判定する。具体的には、データ制御部31は、ステップS12において第1アプリ20がHRTFに対応付けた機器の識別子と、ステップS20の時点で接続されている機器の識別子との一致を判定する。図2の例では、機器の識別子はともにヘッドホン50を示すものであるため、データ制御部31は、両者が一致したと判定する。
 この場合、データ制御部31は、第2アプリ30の再生における設定が保持される設定ファイル(Config File)33を更新する。具体的には、データ制御部31は、取得した個人化BRIR、及び、機器最適化パラメータを再生処理で利用する(有効化する)ことを設定ファイル33に書き込む。
 一方、データ制御部31は、第1アプリ20によって個人化BRIRに対応付けられた機器の識別子と、現時点でユーザが利用しようとする機器を識別する識別子とが一致しない場合、取得した個人化BRIRや機器最適化パラメータを有効化しないよう書き込む。
 すなわち、データ制御部31は、第1アプリ20から渡された識別子(BTデバイス名等)と、現時点で接続中のヘッドホン50の識別子とを比較して、音源の再生に利用する個人化BRIRや機器最適化パラメータを決定する。そして、データ制御部31は、決定した内容に従って、設定ファイル33を更新する(ステップS21)。
 このように、データ制御部31は、クラウドサーバ100から提供された個人化BRIRや機器最適化パラメータであっても、実際に使用される機器(ヘッドホン50)が変更されている場合、その利用を制限する。すなわち、データ制御部31は、実際に再生を行う第2アプリ30において機器の識別子を判定する段階を含むことにより、音楽が再生される際に、異なる機器の機器最適化パラメータが適用されることによって適切でない再生が行われることを防止できる。
 その後、第2アプリ30は、ユーザが音楽の再生を所望した場合、プレイヤー34の機能を実行する。プレイヤー34は、音楽ファイル等の音源と、設定ファイル33に設定された情報とに基づいて、音楽や動画の再生を行う処理部である。
 プレイヤー34は、設定ファイル33を読み込み、再生に個人化BRIRを利用することや、ヘッドホン50の機器最適化パラメータを利用することを認識する(ステップS22)。
 続けて、プレイヤー34は、設定ファイル33に設定された情報に基づき、記憶領域32から、個人化BRIRや機器最適化パラメータを取得する(ステップS23)。
 さらに、プレイヤー34は、ストリーミング音源等を提供するサービスサーバ200にアクセスし、音源を取得する(ステップS24)。
 そして、プレイヤー34は、音源に個人化BRIRや機器最適化パラメータを畳み込みながら、音源の再生を行う。これにより、プレイヤー34は、ユーザ個人の耳の形状に合わせた伝達関数、及び、ヘッドホン50等の再生環境に最適化されたパラメータを利用した再生を行うことができる。
 上記のように、本開示に係る情報処理装置の一例であるユーザ端末10は、ユーザに対応した個人化BRIR(もしくは個人化HRTF)と、当該ユーザが利用する機器を識別する識別子との対応付けを実行する。そして、ユーザ端末10は、ユーザに対応した個人化BRIRが提供される提供先である第2アプリ30に対して、個人化BRIRと、個人化BRIRに対応付けられた識別子とを提供する。
 すなわち、ユーザ端末10は、個人化BRIRのみならず、個人化BRIRが利用される環境下において接続される機器の識別子を提供する。このように、ユーザ端末10は、ユーザがどのような機器を用いて個人化BRIRを利用しようとしているかといった情報も再生環境(第2アプリ30等)に提供することで、ユーザの環境に最適化した再生を行わせることができる。
 また、ユーザ端末10は、ユーザに対応した個人化BRIRと、個人化BRIRに対応付けられた識別子とを取得し、個人化BRIRに対応付けられた識別子と、ユーザが利用する機器を識別する識別子との一致を判定する。そして、ユーザ端末10は、個人化BRIRに対応付けられた識別子と、ユーザが利用する機器を識別する識別子とが一致する場合に、個人化BRIRを有効化するよう設定する。
 このように、ユーザ端末10は、個人化BRIRが利用されようとする環境下において、現時点で接続されている機器を識別することで、クラウドサーバ100から提供された個人化BRIRや機器最適化パラメータを利用すべきか否かを判定する。これにより、ユーザ端末10は、再生時において、適切でない個人化BRIRの利用が行われたり、誤って異なる機器最適化パラメータが適用されたりすることを防止できる。結果として、ユーザ端末10は、ユーザの環境に最適化した再生を行わせることができる。
 以上、本開示に係る情報処理の全体の流れの概要を説明した。図3以下では、ユーザ端末10の構成を説明するとともに、種々の処理の詳細を順に説明する。
[1-2.実施形態に係る情報処理装置の構成]
 図3を用いて、本開示に係る情報処理装置の一例であるユーザ端末10の構成について説明する。図3は、本開示の実施形態に係るユーザ端末10の構成例を示す図である。図3に示すように、ユーザ端末10は、通信部11と、入力部12と、表示部13と、検知部14と、記憶部15と、制御部16とを有する。
 通信部11は、例えば、NIC(Network Interface Card)等によって実現される。通信部11は、ネットワークN(インターネット等)と有線又は無線で接続され、ネットワークNを介して、クラウドサーバ100やサービスサーバ200、ヘッドホン50等との間で情報の送受信を行う。
 入力部12は、ユーザから各種操作を受け付ける入力装置である。例えば、入力部12は、ユーザ端末10に備えられた操作キー等によって実現される。表示部13は、各種情報を表示するための表示装置である。例えば、表示部13は、液晶ディスプレイ等によって実現される。なお、ユーザ端末10にタッチパネルが採用される場合には、入力部12の一部と表示部13とは一体化される。
 検知部14は、各種センサの総称であり、ユーザ端末10に関する各種情報を検知する。具体的には、検知部14は、ユーザ端末10に対するユーザの操作や、ユーザ端末10の所在する位置情報や、ユーザ端末10と接続されている機器に関する情報や、ユーザ端末10における環境等を検知する。
 また、検知部14は、センサの一例として、撮影を行うためのレンズおよびイメージセンサを有する。すなわち、検知部14は、例えばユーザが撮影機能を動作させるアプリを起動させた場合、カメラとしての機能を発揮する。
 記憶部15は、例えば、RAM(Random Access Memory)、フラッシュメモリ(Flash Memory)等の半導体メモリ素子、または、ハードディスク、光ディスク等の記憶装置によって実現される。記憶部15は、情報処理に用いる各種データを記憶する。
 図3に示すように、記憶部15は、BRIRテーブル151や、パラメータテーブル152といったデータテーブルを含む。BRIRテーブル151は、例えば図2に示した記憶領域21に対応する。パラメータテーブル152は、例えば図2に示した記憶領域32に対応する。
 BRIRテーブル121は、クラウドサーバ100によって生成された個人化BRIRに関する情報を記憶する。図4に、本開示の実施形態に係るBRIRテーブル151の一例を示す。図4は、実施形態に係るBRIRテーブル151の一例を示す図である。図4に示した例では、BRIRテーブル151は、「個人化BRIRデータ」、「生成日時」といった項目を有する。
 「個人化BRIRデータ」は、クラウドサーバ100によって生成された個人化BRIRのデータを示す。図4では、個人化BRIRデータを「A01」のように概念的に記載しているが、実際には、当該項目には、個人化BRIRを示す具体的な数値等が記憶される。
 「生成日時」は、個人化BRIRデータが生成された日時を示す。ユーザ端末10は、複数回にわたり個人化BRIRを取得した場合には、最新の個人化BRIRのみをBRIRテーブル151に保持しておいてもよいし、複数の個人化BRIRをBRIRテーブル151に保持してもよい。
 次に、パラメータテーブル122について説明する。パラメータテーブル122は、音源や動画の再生時に利用されるパラメータに関する情報を記憶する。図5に、本開示の実施形態に係るパラメータテーブル152の一例を示す。図5は、実施形態に係るパラメータテーブル152の一例を示す図である。図5に示した例では、パラメータテーブル152は、「設定ID」、「個人化BRIRデータ」、「機器最適化パラメータ」、「取得日時」といった項目を有する。
 「設定ID」は、個人化BRIRと機器最適化パラメータとが対応付けられたことを示す設定を識別する識別情報を示す。「個人化BRIRデータ」は、図4に示した同一の項目に対応する。「機器最適化パラメータ」は、クラウドサーバ100から取得した機器最適化パラメータのデータを示す。図5では、機器最適化パラメータを「C01」のように概念的に記載しているが、実際には、当該項目には、機器最適化パラメータを示す具体的な数値等が記憶される。
 「取得日時」は、個人化BRIR及び機器最適化パラメータをクラウドサーバ100から取得した日時を示す。ユーザ端末10は、複数回にわたり個人化BRIR及び機器最適化パラメータを取得した場合には、最新の個人化BRIR及び機器最適化パラメータのみをパラメータテーブル152に保持しておいてもよいし、複数の個人化BRIR及び機器最適化パラメータをBRIRテーブル151に保持してもよい。
 図3に戻って説明を続ける。制御部16は、例えば、CPU(Central Processing Unit)やMPU(Micro Processing Unit)、GPU(Graphics Processing Unit)等によって、ユーザ端末10内部に記憶されたプログラム(例えば、本開示に係る情報処理プログラム)がRAM(Random Access Memory)等を作業領域として実行されることにより実現される。また、制御部16は、コントローラ(controller)であり、例えば、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等の集積回路により実現されてもよい。
 図3に示すように、制御部16は、第1アプリ制御部161と、第2アプリ制御部165とを有し、以下に説明する情報処理の機能や作用を実現または実行する。第1アプリ制御部161は、生成部162と、実行部163と、提供部164とを含む。第2アプリ制御部165は、取得部166と、判定部167と、設定部168と、再生部169とを含む。例えば、取得部166と、判定部167と、設定部168とは、図2に示したデータ制御部31に対応する。また、再生部169は、図2に示したプレイヤー34に対応する。なお、制御部16の内部構成は、図3に示した構成に限られず、後述する情報処理を行う構成であれば他の構成であってもよい。
 生成部162は、HRTF及び個人化BRIRの生成に関する処理を制御する。具体的には、生成部162は、ユーザの耳を含む横顔の撮影に関する処理を制御する。また、生成部162は、撮影により得られた画像をクラウドサーバ100に送信する処理や、クラウドサーバ100によって生成された個人化BRIRを取得する処理を制御する。
 生成部162は、撮影により得られた画像や、取得した個人化BRIRを記憶部15に適宜格納する。なお、生成部162は、ユーザ端末10によって撮影された画像をクラウドサーバ100に送信するのではなく、例えば外部のカメラ等によって撮影された画像を取得し、取得した画像をクラウドサーバ100に送信してもよい。
 なお、生成部162は、既にユーザ用に生成された個人化HRTFや個人化BRIRがクラウドサーバ100に保持されている場合には、画像をクラウドサーバ100に送信せずに、個人化HRTFや個人化BRIRを取得する処理のみを制御してもよい。すなわち、生成部162が個人化HRTFや個人化BRIRを取得する処理は、特定の手法に限定されない。
 実行部163は、ユーザに対応した個人化HRTFもしくは個人化BRIRと、ユーザが利用する機器を識別する識別子との対応付けを実行する。
 例えば、実行部163は、ユーザが第1アプリを起動させたことを契機として、BRIRテーブル151に格納されている個人化BRIRを取得する。また、実行部163は、第1アプリが起動された時点で接続されているヘッドホン50を識別する識別子をヘッドホン50から取得する。そして、実行部163は、個人化BRIRとヘッドホン50の識別子との対応付けを行い、対応付けした情報とともに、クラウドサーバ100に個人化BRIRをアップロードする。
 その後、実行部163は、クラウドサーバ100によって発行された個人化BRIR及びヘッドホン50の取得用のワンタイムURLを取得する。なお、実行部163は、取得用のワンタイムURLを取得した時点で、個人化BRIRとヘッドホン50の識別子との対応付けを行ってもよい。
 提供部164は、ユーザに対応した個人化BRIRが提供される提供先に対して、個人化BRIRと、個人化BRIRに対応付けられた識別子とを提供する。提供先とは、例えば、ユーザ端末10内にインストールされた、第1アプリとは異なるアプリ(実施形態では第2アプリ)である。なお、提供先は、第2アプリに限らず、他の外部機器(例えば、ユーザ端末10と相互に通信可能な他の情報処理端末)等であってもよい。
 提供部164は、提供先が個人化BRIRを取得するためのワンタイムURLを提供先に送信することにより、個人化BRIRを提供先に提供する。言い換えれば、提供部164は、ワンタイムURLを介して、個人化BRIRを提供先に提供する。これにより、提供部164は、例えばOSの制約等によって直接の受け渡しができない第2アプリに対しても、個人化BRIRを提供することができる。
 また、提供部164は、識別子とともに、個人化BRIRとともに利用される際の機器に応じた変数(機器最適化パラメータ)を提供先に提供してもよい。
 提供部164は、提供先が機器最適化パラメータを取得するためのワンタイムURLを提供先に送信することにより、機器最適化パラメータを提供先に提供する。すなわち、提供部164は、個人化BRIRと同様、ワンタイムURLを介して機器最適化パラメータを提供先に提供する。これにより、提供部164は、例えばOSの制約等によって直接の受け渡しができない第2アプリに対しても、機器最適化パラメータを提供することができる。
 なお、提供部164は、ユーザ端末10と情報処理装置とヘッドホン50との通信が確立されている場合に、機器最適化パラメータを提供先に提供するようにしてもよい。すなわち、提供部164は、例えば第2アプリに機器最適化パラメータを提供しようとするタイミングにおいて、ヘッドホン50との通信が切断されている場合には、機器最適化パラメータを第2アプリに提供しなくてもよい。これにより、提供部164は、ユーザが利用しようとする機器と、渡した最適化パラメータとに齟齬が生じることを防止することができる。
 取得部166は、ユーザに対応した個人化BRIRと、個人化BRIRに対応付けられた識別子とを取得する。
 例えば、取得部166は、提供部164から提供されたワンタイムURLを介して、個人化BRIRをクラウドサーバ100から取得する。具体的には、取得部166は、ワンタイムURLにより示されたアクセス先にアクセスし、個人化BRIRの取得要求をクラウドサーバ100に対して行うことにより、個人化BRIRを取得する。
 また、取得部166は、機器の識別子とともに、個人化BRIRとともに利用される際の機器に応じた機器最適化パラメータを取得してもよい。
 例えば、取得部166は、提供部164から提供されたワンタイムURLを介して、機器最適化パラメータをクラウドサーバ100から取得する。具体的には、取得部166は、ワンタイムURLにより示されたアクセス先にアクセスし、機器最適化パラメータの取得要求をクラウドサーバ100に対して行うことにより、機器最適化パラメータを取得する。
 取得部166は、取得した情報を適宜記憶部15に格納する。例えば、取得部166は、取得した個人化BRIR及び機器最適化パラメータを対応付けて、パラメータテーブル152に格納する。
 判定部167は、個人化BRIRに対応付けられた識別子と、ユーザが利用する機器を識別する識別子との一致を判定する。
 具体的には、判定部167は、提供部164から提供された、個人化BRIRに対応付けられたBTデバイス名等の識別子と、ユーザが現時点で利用している機器のBTデバイス名等の識別子との一致を判定する。
 なお、判定部167は、ユーザ端末10との通信が確立している機器をユーザが利用する機器と判定する。例えば、判定部167は、OSの機能(ライブラリ等)を利用して、ユーザ端末10と接続されている機器を検出することにより、ユーザ端末10との通信が確立している機器を特定することができる。
 なお、判定部167は、ユーザが現時点で利用している機器を検出できない場合や、機器の識別子を取得できない場合、個人化BRIRに対応付けられた識別子と、ユーザが利用する機器を識別する識別子とが一致しないと判定してもよい。例えば、判定部167は、ユーザが現時点で利用する機器がPassiveであり、識別子を送信する機能を有しない機器である場合等には、個人化BRIRに対応付けられた識別子と機器の識別子とが一致しないと判定する。
 設定部168は、個人化BRIRに対応付けられた識別子と、ユーザが利用する機器を識別する識別子とが一致する場合に、個人化BRIRを有効化するよう設定する。なお、ユーザが利用する機器とは、音源を再生するタイミングなど、個人化BRIRを利用しようとするタイミングにおいて、ユーザ端末10との通信が確立している機器等をいう。
 例えば、設定部168は、個人化BRIRに対応付けられた識別子と、ユーザが利用する機器を識別する識別子とが一致した場合、クラウドサーバ100から取得した個人化BRIRが利用可能である旨を設定ファイルに書き込む。これにより、後述する再生部169は、パラメータテーブル152に格納された個人化BRIRを利用した再生を行うことができる。
 なお、設定部168は、個人化BRIRに対応付けられた識別子と、ユーザが利用する機器を識別する識別子とが一致しない場合には、個人化BRIR又は機器最適化パラメータを有効化しないよう設定してもよい。
 これにより、設定部168は、再生状況が不明な環境において、個人化BRIRや機器最適化パラメータが誤って用いられることによって最適な音源再生が行われないなど、ユーザ体験を損ねる事態が発生すること等を防止できる。
 なお、設定部168は、個人化BRIRと機器最適化パラメータのいずれも有効化しないよう設定してもよいし、個人化BRIRは有効化し、機器最適化パラメータを有効化しないよう設定してもよい。設定部168は、個人化BRIRを有効化しないよう設定した場合、音源の再生において、個人化BRIRではなく、複数のユーザに平均化された平均BRIRを用いるよう設定ファイルに書き込む。また、設定部168は、機器最適化パラメータを有効化しないよう設定した場合、音源の再生において、機器最適化パラメータではなく、全ての機器に共通して適用される標準的なパラメータを用いるよう設定ファイルに書き込む。
 再生部169は、音源や動画を再生する。再生部169は、再生に際して、設定ファイルを読み込み、再生に用いるBRIRやパラメータを特定する。そして、再生部169は、設定ファイルに書き込まれた個人化BRIRや機器最適化パラメータをパラメータテーブル152から取得し、再生を行う。
 例えば、再生部169は、サービスサーバ200にアクセスし、ストリーミングデータを取得し、取得したストリーミングデータを再生する。なお、再生部169は、ストリーミングデータに限らず、記憶部15に記憶された音源や動画を再生してもよい。
[1-3.実施形態に係る情報処理の手順]
 次に、図6乃至図9を用いて、第1の実施形態に係る情報処理の手順について説明する。図6では、ユーザ端末10が個人化BRIRを取得するまでの処理の手順について説明する。図6は、実施形態に係る情報処理の手順を示すフローチャート(1)である。
 図6に示すように、ユーザ端末10は、撮影処理等を介して、ユーザの耳画像を取得する(ステップS101)。続けて、ユーザ端末10は、耳画像をクラウドサーバ100に送信する(ステップS102)。
 その後、ユーザ端末10は、耳画像に基づき生成された個人化BRIRを取得する(ステップS103)。そして、ユーザ端末10は、取得した個人化BRIRを記憶部15(BRIRテーブル151)に格納する(ステップS104)。
 次に、図7を用いて、ユーザ端末10が個人化BRIRを第2アプリに提供する処理の手順について説明する。図7は、実施形態に係る情報処理の手順を示すフローチャート(2)である。
 図7に示すように、ユーザ端末10は、第1アプリの起動を検出したか否かを判定する(ステップS201)。第1アプリの起動を検出しない場合(ステップS201;No)、ユーザ端末10は、起動を検出するまで待機する。
 一方、第1アプリの起動を検出した場合(ステップS201;Yes)、ユーザ端末10は、ユーザ端末10と接続されている機器の情報(例えば、ヘッドホン50の識別子等)を取得する(ステップS202)。
 その後、ユーザ端末10は、BRIRテーブル151に格納している個人化BRIRをクラウドサーバ100に送信する(ステップS203)。続けて、ユーザ端末10は、クラウドサーバ100によって発行された、個人化BRIRの取得用アドレスを取得する(ステップS204)。
 また、ユーザ端末10は、機器最適化パラメータの取得用アドレスを取得したか否かを判定する(ステップS205)。機器最適化パラメータの取得用アドレスを取得した場合(ステップS205;Yes)、ユーザ端末10は、機器の識別子と個人化BRIRとを対応付ける(ステップS206)。
 一方、機器最適化パラメータの取得用アドレスを取得していない場合(ステップS205;No)、ユーザ端末10は、機器の識別子と個人化BRIRとの対応付けを行わなくてもよい。機器最適化パラメータの取得用アドレスを取得していない場合とは、例えば、機器がPassiveであり、ステップS202で識別子を取得できなかった場合や、クラウドサーバ100が機器の最適化パラメータを保持していなかった場合等である。
 そして、ユーザ端末10は、クラウドサーバ100から取得した取得用アドレス等の情報を第2アプリに提供する(ステップS207)。
 次に、図8を用いて、ユーザ端末10が個人化BRIRを設定する処理の手順について説明する。図8は、実施形態に係る情報処理の手順を示すフローチャート(3)である。
 図8に示すように、ユーザ端末10は、第2アプリの起動を検出したか否かを判定する(ステップS301)。第2アプリの起動を検出しない場合(ステップS301;No)、ユーザ端末10は、起動を検出するまで待機する。
 一方、第2アプリの起動を検出した場合(ステップS301;Yes)、ユーザ端末10は、第1アプリから提供された情報を取得する(ステップS302)。
 その後、ユーザ端末10は、提供された取得用アドレスを利用して、クラウドサーバ100から個人化BRIRを取得する(ステップS303)。続けて、ユーザ端末10は、取得した個人化BRIRを記憶部15(パラメータテーブル152)に格納する(ステップS304)。
 また、ユーザ端末10は、第1アプリから、機器最適化パラメータの取得用アドレスを取得したか否かを判定する(ステップS305)。機器最適化パラメータの取得用アドレスを取得している場合(ステップS305;Yes)、ユーザ端末10は、取得用アドレスを利用して、クラウドサーバ100から機器最適化パラメータを取得する(ステップS306)。ユーザ端末10は、取得した機器最適化パラメータを記憶部15(パラメータテーブル152)に、個人化BRIRと対応付けて格納する(ステップS307)。
 さらに、ユーザ端末10は、現時点で接続されている機器の情報を取得する(ステップS308)。そして、ユーザ端末10は、ステップS308で取得した機器の識別子が、個人化BRIRに対応付けられた識別子と一致するか否かを判定する(ステップS309)。
 ステップS308で取得した機器の識別子が、個人化BRIRに対応付けられた識別子と一致する場合(ステップS309;Yes)、ユーザ端末10は、設定ファイルに個人化BRIRと機器最適化パラメータを使用する旨を登録する。言い換えれば、ユーザ端末10は、個人化BRIRと機器最適化パラメータとを有効化する(ステップS310)。
 一方、ユーザ端末10は、機器最適化パラメータの取得用アドレスを第1アプリから取得しない場合(ステップS305;No)や、ステップS308で取得した機器の識別子が、個人化BRIRに対応付けられた識別子と一致しない場合(ステップS309;No)、ユーザ端末10は、設定ファイルに個人化BRIRと機器最適化パラメータを使用しない旨を登録する。言い換えれば、ユーザ端末10は、個人化BRIRと機器最適化パラメータとを有効化しないよう設定する(ステップS311)。
 なお、ユーザ端末10は、ステップS311において、個人化BRIRと機器最適化パラメータとのいずれをも有効化しないよう設定するのではなく、機器最適化パラメータのみを有効化しないよう設定してもよい。例えば、ユーザ端末10は、機器がPassiveである場合等には、個人化BRIRのみをユーザに利用させてもよい。
 次に、図9を用いて、ユーザ端末10が個人化BRIRを利用して再生を行う処理の手順について説明する。図9は、実施形態に係る情報処理の手順を示すフローチャート(4)である。
 ユーザ端末10は、第2アプリのうちプレイヤーの起動を検出したか否かを判定する(ステップS401)。なお、プレイヤーの起動とは、例えば、第2アプリにおいてユーザが音源を再生する旨の操作を行ったこと等と読み替えてもよい。
 プレイヤーの起動を検出しない場合(ステップS401;No)、ユーザ端末10は、起動を検出するまで待機する。一方、プレイヤーの起動を検出した場合(ステップS401;Yes)、ユーザ端末10は、設定ファイルを読み込む(ステップS402)。
 続けて、ユーザ端末10は、サービスサーバ200から音源を取得する(ステップS403)。そして、ユーザ端末10は、設定ファイルに基づいて、例えば個人化BRIRや機器最適化パラメータ等を音源に畳み込みながら、音源を再生する(ステップS404)。
 音源の再生中、ユーザ端末10は、接続している機器が変更されたか否かを判定する(ステップS405)。接続している機器が変更された場合(ステップS405;Yes)、すなわち、ユーザが利用しているヘッドホンが変更された場合や、通信が切断された場合には、設定ファイルを変更する(ステップS406)。例えば、ユーザ端末10は、個人化BRIRや機器最適化パラメータの有効化を解除し、これらの情報が再生に利用できないよう設定ファイルを変更する。
 その後、ユーザ端末10は、再生の停止がユーザから要求されたか否かを判定する(ステップS407)。再生の停止がユーザから要求されない場合(ステップS407;No)、ユーザ端末10は、再生を継続するため、サービスサーバ200から音源を取得する処理を継続する。
 一方、再生の停止がユーザから要求された場合(ステップS407;Yes)、ユーザ端末10は、音源の再生を停止する(ステップS408)。
(2.変形例)
 上述した情報処理システム1は、上記実施形態以外にも種々の異なる形態にて実施されてよい。そこで、以下では、実施形態の変形例について説明する。
[2-1.情報処理システムの態様]
 実施形態では、個人化BRIRや機器最適化パラメータの取得用アドレスとしてワンタイムURLを例に挙げたが、この例に限られず、第2アプリがクラウドサーバ100からデータを取得可能な手法であれば、いずれの手法を用いてもよい。また、クラウドサーバ100は、ワンタイムURLを介して個人化BRIRをユーザ端末10に提供したのち、提供した個人化BRIRを削除してもよいし、一定期間保持していてもよい。
 実施形態では、クラウドサーバ100が個人化BRIRを生成する例を示した。しかし、個人化BRIRは、クラウドサーバ100ではなく、ユーザ端末10が生成してもよい。この場合、クラウドサーバ100は、ユーザ端末10からアップロードされた個人化BRIRを保持し、要求があった場合に、取得用アドレスを発行する処理のみを行えばよい。
 実施形態では、クラウドサーバ100は、クラウドネットワーク上に設置されることを前提としているが、この例に限られず、ユーザ端末10と通信可能であれば、クラウドサーバ100はLAN(Local Area Network)等のネットワーク上に設置されてもよい。
 クラウドサーバ100は、個人化BRIRを生成する際に、ユーザの識別情報を取得し、識別情報と個人化BRIRとを対応付けて、個人化BRIRを保持するようにしてもよい。この場合、クラウドサーバ100は、起動のたびに第1アプリから個人化BRIRのアップロードを受けなくても、第2アプリに個人化BRIRを提供することができる。
 実施形態では、クラウドサーバ100を1つのサーバとして記載したが、クラウドサーバ100は、複数台のサーバ装置から構成されてもよい。例えば、クラウドサーバ100は、個人化BRIRを生成する生成サーバと、個人化BRIRの取得用アドレスを発行したり、個人化BRIRを提供したりする提供サーバとに分割されてもよい。
 実施形態では、ユーザ端末10内に第1アプリと第2アプリとがインストールされる例を示したが、第1アプリと第2アプリは、別の装置にインストールされるアプリであってもよい。例えば、ユーザ端末10は、第1アプリの機能のみを保持し、別の装置であるスマートスピーカー等にインストールされた第2アプリを制御することにより、音源の再生等を行ってもよい。
[2-2.音源の再生の態様]
 クラウドサーバ100は、ユーザの個人化BRIRや機器最適化パラメータを保持しない場合、複数のユーザの平均的なBRIRや、特定の機器に依存しない標準的なパラメータをユーザ端末10に送信してもよい。
 この点について、図10を用いて説明する。図10は、変形例に係る頭部伝達関数の利用態様を示す概念図である。
 図10に示すように、第2アプリにおいて音源が再生される場合には、例えばパターン1とパターン2との態様が考えられる。パターン1は、機器を認識できない場合等、個人化BRIRや機器最適化パラメータが利用できない場合を示す。具体的には、パターン1は、ストリーミングデータと、サービスアプリ(再生用アプリ)と、ライブラリと、平均化BRIR及び標準パラメータの組み合わせ70によって運用される。一方、パターン2は、機器が認識可能であり、機器に対応したパラメータが存在する場合を示す。具体的には、パターン2は、ストリーミングデータと、サービスアプリと、ライブラリと、個人化BRIR及び機器最適化パラメータの組み合わせ80によって運用される。
[2-3.パラメータの利用]
 ユーザ端末10は、機器最適化パラメータを再生のたびに取得するのではなく、予め複数の機器にそれぞれ対応した機器最適化パラメータを取得していてもよい。この場合、ユーザ端末10は、接続された機器の識別子に基づいて、当該機器の最適化パラメータを特定し、特定したパラメータを利用して再生等を行うことができる。また、ユーザ端末10は、例えば所有する機器パラメータのリストをユーザに提示し、ユーザにパラメータを選択させてもよい。これにより、例えばPassiveのヘッドホンしか所有していないユーザであっても、自身の個人化BRIRと、機器最適化パラメータとを利用した再生を行わせることができる。
 なお、実施形態では、ユーザ端末10(第2アプリ)が、例えばPassiveのヘッドホン等については機器最適化パラメータを取得しない例を示した。しかし、ユーザ端末10は、Passiveのヘッドホン等の通信機能を有しない機器についても、機器最適化パラメータを取得してもよい。この場合、ユーザは、第1アプリにおいて機器の名称等を手動で選択する。なお、機器の名称等のリストは、クラウドサーバ100からユーザ端末10に提供される。そして、ユーザ端末10は、ユーザによって選択された機器の機器最適化パラメータに対応した取得用アドレスをクラウドサーバ100から取得する。
 そして、ユーザ端末10は、取得した取得用アドレスを第2アプリに提供する。これにより、第2アプリは、Passiveのヘッドホン等に関する機器最適化パラメータの取得用アドレスを取得することができる。この場合、図8で示したステップS305は「Yes」への分岐となるため、ユーザは、Passiveのヘッドホンであっても、個人化BRIRや機器最適化パラメータを利用した音楽再生を享受することができる。なお、ユーザ端末10は、ユーザの状況に合わせて、個人化BRIRと機器最適化パラメータを利用した音楽再生のみならず、個人化BRIRのみを利用した(機器最適化パラメータでなく、標準的なパラメータ)音楽再生や、平均化BRIRのみを利用した音楽再生等、種々の関数や変数を組み合わせた音楽再生を適宜実行してもよい。
 クラウドサーバ100は、個人化HRTFから個人化BRIRを生成する際には、例えばユーザが所在する位置や状況に応じて、異なるRIR(例えば、ユーザの室内環境にあったRIR等)を畳み込むようにしてもよい。これにより、クラウドサーバ100は、よりユーザの状況に合わせた個人化BRIRをユーザに提供することができる。この場合、クラウドサーバ100が個人化BRIRを生成するのではなく、複数のRIRを取得したユーザ端末10自身が、環境に合わせてRIRを特定し、個人化HRTFとの畳み込みを行ってもよい。
[2-4.機器の態様]
 実施形態では、ヘッドホン50は、Bluetoothを利用してユーザ端末10とせ接続する例を示した。しかし、ヘッドホン50等の機器は、Bluetoothに限らず、種々の通信規格で接続を行ってもよい。
(3.その他の実施形態)
 上述した各実施形態に係る処理は、上記各実施形態以外にも種々の異なる形態にて実施されてよい。
 また、上記各実施形態において説明した各処理のうち、自動的に行われるものとして説明した処理の全部または一部を手動的に行うこともでき、あるいは、手動的に行われるものとして説明した処理の全部または一部を公知の方法で自動的に行うこともできる。この他、上記文書中や図面中で示した処理手順、具体的名称、各種のデータやパラメータを含む情報については、特記する場合を除いて任意に変更することができる。例えば、各図に示した各種情報は、図示した情報に限られない。
 また、図示した各装置の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散・統合の具体的形態は図示のものに限られず、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。
 また、上述してきた各実施形態及び変形例は、処理内容を矛盾させない範囲で適宜組み合わせることが可能である。
 また、本明細書に記載された効果はあくまで例示であって限定されるものでは無く、他の効果があってもよい。
(4.本開示に係る情報処理装置の効果)
 上述してきたように、本開示に係る情報処理装置(実施形態ではユーザ端末10)は、実行部(実施形態では実行部163)と、提供部(実施形態では提供部164)とを備える。実行部は、ユーザに対応した頭部伝達関数(実施形態では個人化HRTFや個人化BRIR)と、ユーザが利用する機器を識別する識別子との対応付けを実行する。提供部は、ユーザに対応した頭部伝達関数が提供される提供先に対して、頭部伝達関数と、頭部伝達関数に対応付けられた識別子とを提供する。
 このように、本開示に係る情報処理装置は、頭部伝達関数が利用されようとする環境下において、現時点で接続されている機器を識別する。これにより、情報処理装置は、再生時において、適切でない機器が接続されていること等を認識できるので、適切に頭部伝達関数を利用することができる。
 また、提供部は、提供先が頭部伝達関数を取得するためのワンタイムURL(One-Time URL)を提供先に送信することにより、頭部伝達関数を提供先に提供する。これにより、情報処理装置は、OS等の制約がある提供先に対しても、頭部伝達関数を提供することができる。
 また、提供部は、識別子とともに、頭部伝達関数とともに利用される際の機器に応じた変数を提供先に提供する。これにより、情報処理装置は、機器に応じた最適な再生を行うことができる。
 また、提供部は、提供先が変数を取得するためのワンタイムURLを提供先に送信することにより、変数を提供先に提供する。これにより、情報処理装置は、OS等の制約がある提供先に対しても、機器最適化パラメータ等の変数を提供することができる。
 また、提供部は、情報処理装置と機器との通信が確立されている場合に、変数を提供先に提供する。これにより、情報処理装置は、音楽が再生される際に、取得した変数に適しない機器に変数が適用されることを防止できるので、適切でない再生が行われることを防止できる。
 また、本開示に係る情報処理装置は、取得部(実施形態では取得部166)と、判定部(実施形態では判定部167)と、設定部(実施形態では設定部168)とを備える。取得部は、ユーザに対応した頭部伝達関数と、頭部伝達関数に対応付けられた識別子とを取得する。判定部は、頭部伝達関数に対応付けられた識別子と、ユーザが利用する機器を識別する識別子との一致を判定する。設定部は、頭部伝達関数に対応付けられた識別子と、ユーザが利用する機器を識別する識別子とが一致する場合に、頭部伝達関数を有効化するよう設定する。
 このように、本開示に係る情報処理装置は、頭部伝達関数を取得した時点で対応付けられている機器と、実際に接続されている機器との一致を判定し、その結果に基づいて、頭部伝達関数の有効化を設定する。これにより、情報処理装置は、再生時において、適切でない機器に頭部伝達関数が適用されることを防止できる。
 また、取得部は、頭部伝達関数を取得するためのワンタイムURLを介して、頭部伝達関数を取得する。これにより、情報処理装置は、OS等の制約がある場合にも、頭部伝達関数を取得することができる。
 また、取得部は、識別子とともに、頭部伝達関数とともに利用される際の機器に応じた変数を取得する。これにより、情報処理装置は、機器に応じた最適な再生を行うことができる。
 また、取得部は、変数を取得するためのワンタイムURLを介して、変数を取得する。これにより、情報処理装置は、OS等の制約がある場合にも、変数を取得することができる。
 また、判定部は、情報処理装置との通信が確立している機器をユーザが利用する機器と判定する。設定部は、頭部伝達関数に対応付けられた識別子と、ユーザが利用する機器を識別する識別子とが一致する場合に、変数を有効化するよう設定する。これにより、情報処理装置は、再生時において、取得した頭部伝達関数に対応付けられた機器とは異なる機器が接続されているか否かを判定できるので、適切でない機器に変数が適用されることを防止できる。
 また、設定部は、頭部伝達関数に対応付けられた識別子と、ユーザが利用する機器を識別する識別子とが一致しない場合には、頭部伝達関数又は変数を有効化しないよう設定する。これにより、情報処理装置は、機器に適さない変数等が利用されることを防止できる。
(5.ハードウェア構成)
 上述してきた各実施形態に係るユーザ端末10やヘッドホン50やクラウドサーバ100やサービスサーバ200等の情報機器は、例えば図11に示すような構成のコンピュータ1000によって実現される。以下、実施形態に係るユーザ端末10を例に挙げて説明する。図11は、ユーザ端末10の機能を実現するコンピュータ1000の一例を示すハードウェア構成図である。コンピュータ1000は、CPU1100、RAM1200、ROM(Read Only Memory)1300、HDD(Hard Disk Drive)1400、通信インターフェイス1500、及び入出力インターフェイス1600を有する。コンピュータ1000の各部は、バス1050によって接続される。
 CPU1100は、ROM1300又はHDD1400に格納されたプログラムに基づいて動作し、各部の制御を行う。例えば、CPU1100は、ROM1300又はHDD1400に格納されたプログラムをRAM1200に展開し、各種プログラムに対応した処理を実行する。
 ROM1300は、コンピュータ1000の起動時にCPU1100によって実行されるBIOS(Basic Input Output System)等のブートプログラムや、コンピュータ1000のハードウェアに依存するプログラム等を格納する。
 HDD1400は、CPU1100によって実行されるプログラム、及び、かかるプログラムによって使用されるデータ等を非一時的に記録する、コンピュータが読み取り可能な記録媒体である。具体的には、HDD1400は、プログラムデータ1450の一例である本開示に係る情報処理プログラムを記録する記録媒体である。
 通信インターフェイス1500は、コンピュータ1000が外部ネットワーク1550(例えばインターネット)と接続するためのインターフェイスである。例えば、CPU1100は、通信インターフェイス1500を介して、他の機器からデータを受信したり、CPU1100が生成したデータを他の機器へ送信したりする。
 入出力インターフェイス1600は、入出力デバイス1650とコンピュータ1000とを接続するためのインターフェイスである。例えば、CPU1100は、入出力インターフェイス1600を介して、キーボードやマウス等の入力デバイスからデータを受信する。また、CPU1100は、入出力インターフェイス1600を介して、ディスプレイやスピーカーやプリンタ等の出力デバイスにデータを送信する。また、入出力インターフェイス1600は、所定の記録媒体(メディア)に記録されたプログラム等を読み取るメディアインターフェイスとして機能してもよい。メディアとは、例えばDVD(Digital Versatile Disc)、PD(Phase change rewritable Disk)等の光学記録媒体、MO(Magneto-Optical disk)等の光磁気記録媒体、テープ媒体、磁気記録媒体、または半導体メモリ等である。
 例えば、コンピュータ1000が実施形態に係るユーザ端末10として機能する場合、コンピュータ1000のCPU1100は、RAM1200上にロードされた情報処理プログラムを実行することにより、制御部16等の機能を実現する。また、HDD1400には、本開示に係る情報処理プログラムや、記憶部15内のデータが格納される。なお、CPU1100は、プログラムデータ1450をHDD1400から読み取って実行するが、他の例として、外部ネットワーク1550を介して、他の装置からこれらのプログラムを取得してもよい。
 なお、本技術は以下のような構成も取ることができる。
(1)
 ユーザに対応した頭部伝達関数と、当該ユーザが利用する機器を識別する識別子との対応付けを実行する実行部と、
 前記ユーザに対応した頭部伝達関数が提供される提供先に対して、当該頭部伝達関数と、当該頭部伝達関数に対応付けられた前記識別子とを提供する提供部と
 を備えた情報処理装置。
(2)
 前記提供部は、
 前記提供先が前記頭部伝達関数を取得するためのワンタイムURL(One-Time URL)を当該提供先に送信することにより、当該頭部伝達関数を当該提供先に提供する
 前記(1)に記載の情報処理装置。
(3)
 前記提供部は、
 前記識別子とともに、前記頭部伝達関数とともに利用される際の前記機器に応じた変数を前記提供先に提供する
 前記(1)又は(2)に記載の情報処理装置。
(4)
 前記提供部は、
 前記提供先が前記変数を取得するためのワンタイムURL(One-Time URL)を当該提供先に送信することにより、当該変数を当該提供先に提供する
 前記(3)に記載の情報処理装置。
(5)
 前記提供部は、
 前記情報処理装置と前記機器との通信が確立されている場合に、前記変数を前記提供先に提供する
 前記(3)又は(4)に記載の情報処理装置。
(6)
 コンピュータが、
 ユーザに対応した頭部伝達関数と、当該ユーザが利用する機器を識別する識別子との対応付けを実行し、
 前記ユーザに対応した頭部伝達関数が提供される提供先に対して、当該頭部伝達関数と、当該頭部伝達関数に対応付けられた前記識別子とを提供する
 情報処理方法。
(7)
 コンピュータを、
 ユーザに対応した頭部伝達関数と、当該ユーザが利用する機器を識別する識別子との対応付けを実行する実行部と、
 前記ユーザに対応した頭部伝達関数が提供される提供先に対して、当該頭部伝達関数と、当該頭部伝達関数に対応付けられた前記識別子とを提供する提供部と
 として機能させるための情報処理プログラム。
(8)
 ユーザに対応した頭部伝達関数と、当該頭部伝達関数に対応付けられた識別子とを取得する取得部と、
 前記頭部伝達関数に対応付けられた識別子と、前記ユーザが利用する機器を識別する識別子との一致を判定する判定部と、
 前記頭部伝達関数に対応付けられた識別子と、前記ユーザが利用する機器を識別する識別子とが一致する場合に、当該頭部伝達関数を有効化するよう設定する設定部と
 を備えた情報処理装置。
(9)
 前記取得部は、
 前記頭部伝達関数を取得するためのワンタイムURL(One-Time URL)を介して、当該頭部伝達関数を取得する
 前記(8)に記載の情報処理装置。
(10)
 前記取得部は、
 前記識別子とともに、前記頭部伝達関数とともに利用される際の前記機器に応じた変数を取得する
 前記(8)又は(9)に記載の情報処理装置。
(11)
 前記取得部は、
 前記変数を取得するためのワンタイムURL(One-Time URL)を介して、当該変数を取得する
 前記(10)に記載の情報処理装置。
(12)
 前記判定部は、
 前記情報処理装置との通信が確立している機器を前記ユーザが利用する機器と判定し、
 前記設定部は、
 前記頭部伝達関数に対応付けられた識別子と、前記ユーザが利用する機器を識別する識別子とが一致する場合に、前記変数を有効化するよう設定する
 前記(10)又は(11)に記載の情報処理装置。
(13)
 前記設定部は、
 前記頭部伝達関数に対応付けられた識別子と、前記ユーザが利用する機器を識別する識別子とが一致しない場合には、前記頭部伝達関数又は前記変数を有効化しないよう設定する
 前記(10)~(12)のいずれかに記載の情報処理装置。
(14)
 コンピュータが、
 ユーザに対応した頭部伝達関数と、当該頭部伝達関数に対応付けられた識別子とを取得し、
 前記頭部伝達関数に対応付けられた識別子と、前記ユーザが利用する機器を識別する識別子との一致を判定し、
 前記頭部伝達関数に対応付けられた識別子と、前記ユーザが利用する機器を識別する識別子とが一致する場合に、当該頭部伝達関数を有効化するよう設定する
 情報処理方法。
(15)
 コンピュータを、
 ユーザに対応した頭部伝達関数と、当該頭部伝達関数に対応付けられた識別子とを取得する取得部と、
 前記頭部伝達関数に対応付けられた識別子と、前記ユーザが利用する機器を識別する識別子との一致を判定する判定部と、
 前記頭部伝達関数に対応付けられた識別子と、前記ユーザが利用する機器を識別する識別子とが一致する場合に、当該頭部伝達関数を有効化するよう設定する設定部と
 として機能させるための情報処理プログラム。
 1 情報処理システム
 10 ユーザ端末
 11 通信部
 12 入力部
 13 表示部
 14 検知部
 15 記憶部
 151 BRIRテーブル
 152 パラメータテーブル
 16 制御部
 161 第1アプリ制御部
 162 生成部
 163 実行部
 164 提供部
 165 第2アプリ制御部
 166 取得部
 167 判定部
 168 設定部
 169 再生部
 50 ヘッドホン
 100 クラウドサーバ
 200 サービスサーバ

Claims (15)

  1.  ユーザに対応した頭部伝達関数と、当該ユーザが利用する機器を識別する識別子との対応付けを実行する実行部と、
     前記ユーザに対応した頭部伝達関数が提供される提供先に対して、当該頭部伝達関数と、当該頭部伝達関数に対応付けられた前記識別子とを提供する提供部と
     を備えた情報処理装置。
  2.  前記提供部は、
     前記提供先が前記頭部伝達関数を取得するためのワンタイムURL(One-Time URL)を当該提供先に送信することにより、当該頭部伝達関数を当該提供先に提供する
     請求項1に記載の情報処理装置。
  3.  前記提供部は、
     前記識別子とともに、前記頭部伝達関数とともに利用される際の前記機器に応じた変数を前記提供先に提供する
     請求項1に記載の情報処理装置。
  4.  前記提供部は、
     前記提供先が前記変数を取得するためのワンタイムURL(One-Time URL)を当該提供先に送信することにより、当該変数を当該提供先に提供する
     請求項3に記載の情報処理装置。
  5.  前記提供部は、
     前記情報処理装置と前記機器との通信が確立されている場合に、前記変数を前記提供先に提供する
     請求項3に記載の情報処理装置。
  6.  コンピュータが、
     ユーザに対応した頭部伝達関数と、当該ユーザが利用する機器を識別する識別子との対応付けを実行し、
     前記ユーザに対応した頭部伝達関数が提供される提供先に対して、当該頭部伝達関数と、当該頭部伝達関数に対応付けられた前記識別子とを提供する
     情報処理方法。
  7.  コンピュータを、
     ユーザに対応した頭部伝達関数と、当該ユーザが利用する機器を識別する識別子との対応付けを実行する実行部と、
     前記ユーザに対応した頭部伝達関数が提供される提供先に対して、当該頭部伝達関数と、当該頭部伝達関数に対応付けられた前記識別子とを提供する提供部と
     として機能させるための情報処理プログラム。
  8.  ユーザに対応した頭部伝達関数と、当該頭部伝達関数に対応付けられた識別子とを取得する取得部と、
     前記頭部伝達関数に対応付けられた識別子と、前記ユーザが利用する機器を識別する識別子との一致を判定する判定部と、
     前記頭部伝達関数に対応付けられた識別子と、前記ユーザが利用する機器を識別する識別子とが一致する場合に、当該頭部伝達関数を有効化するよう設定する設定部と
     を備えた情報処理装置。
  9.  前記取得部は、
     前記頭部伝達関数を取得するためのワンタイムURL(One-Time URL)を介して、当該頭部伝達関数を取得する
     請求項8に記載の情報処理装置。
  10.  前記取得部は、
     前記識別子とともに、前記頭部伝達関数とともに利用される際の前記機器に応じた変数を取得する
     請求項8に記載の情報処理装置。
  11.  前記取得部は、
     前記変数を取得するためのワンタイムURL(One-Time URL)を介して、当該変数を取得する
     請求項10に記載の情報処理装置。
  12.  前記判定部は、
     前記情報処理装置との通信が確立している機器を前記ユーザが利用する機器と判定し、
     前記設定部は、
     前記頭部伝達関数に対応付けられた識別子と、前記ユーザが利用する機器を識別する識別子とが一致する場合に、前記変数を有効化するよう設定する
     請求項10に記載の情報処理装置。
  13.  前記設定部は、
     前記頭部伝達関数に対応付けられた識別子と、前記ユーザが利用する機器を識別する識別子とが一致しない場合には、前記頭部伝達関数又は前記変数を有効化しないよう設定する
     請求項10に記載の情報処理装置。
  14.  コンピュータが、
     ユーザに対応した頭部伝達関数と、当該頭部伝達関数に対応付けられた識別子とを取得し、
     前記頭部伝達関数に対応付けられた識別子と、前記ユーザが利用する機器を識別する識別子との一致を判定し、
     前記頭部伝達関数に対応付けられた識別子と、前記ユーザが利用する機器を識別する識別子とが一致する場合に、当該頭部伝達関数を有効化するよう設定する
     情報処理方法。
  15.  コンピュータを、
     ユーザに対応した頭部伝達関数と、当該頭部伝達関数に対応付けられた識別子とを取得する取得部と、
     前記頭部伝達関数に対応付けられた識別子と、前記ユーザが利用する機器を識別する識別子との一致を判定する判定部と、
     前記頭部伝達関数に対応付けられた識別子と、前記ユーザが利用する機器を識別する識別子とが一致する場合に、当該頭部伝達関数を有効化するよう設定する設定部
     として機能させるための情報処理プログラム。
PCT/JP2019/051058 2018-12-28 2019-12-26 情報処理装置、情報処理方法及び情報処理プログラム WO2020138257A1 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
CN201980084879.3A CN113228711A (zh) 2018-12-28 2019-12-26 信息处理装置、信息处理方法和信息处理程序
KR1020217016853A KR20210106992A (ko) 2018-12-28 2019-12-26 정보 처리 장치, 정보 처리 방법 및 정보 처리 프로그램
JP2020562388A JPWO2020138257A1 (ja) 2018-12-28 2019-12-26 情報処理装置、情報処理方法及び情報処理プログラム
US17/416,631 US11956621B2 (en) 2018-12-28 2019-12-26 Information processing apparatus, information processing method, and information processing program
EP19904561.8A EP3905725A4 (en) 2018-12-28 2019-12-26 INFORMATION PROCESSING DEVICE, INFORMATION PROCESSING METHOD AND INFORMATION PROCESSING PROGRAM

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2018-246622 2018-12-28
JP2018246622 2018-12-28

Publications (1)

Publication Number Publication Date
WO2020138257A1 true WO2020138257A1 (ja) 2020-07-02

Family

ID=71128751

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2019/051058 WO2020138257A1 (ja) 2018-12-28 2019-12-26 情報処理装置、情報処理方法及び情報処理プログラム

Country Status (7)

Country Link
US (1) US11956621B2 (ja)
EP (1) EP3905725A4 (ja)
JP (1) JPWO2020138257A1 (ja)
KR (1) KR20210106992A (ja)
CN (1) CN113228711A (ja)
TW (1) TW202041053A (ja)
WO (1) WO2020138257A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022113638A1 (ja) * 2020-11-25 2022-06-02 ソニーグループ株式会社 情報処理装置、情報処理方法
WO2023176191A1 (ja) * 2022-03-16 2023-09-21 ソニーグループ株式会社 プログラム、制御装置、補聴器、通信デバイス、補聴器システムおよび制御方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003153398A (ja) * 2001-11-09 2003-05-23 Nippon Hoso Kyokai <Nhk> ヘッドホンによる前後方向への音像定位装置およびその方法
JP2010118978A (ja) * 2008-11-14 2010-05-27 Victor Co Of Japan Ltd 音像定位制御装置および音像定位制御方法
US9544706B1 (en) 2015-03-23 2017-01-10 Amazon Technologies, Inc. Customized head-related transfer functions

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006500818A (ja) 2002-09-23 2006-01-05 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 音再生システム、プログラム、及びデータ担体
GB2438988B (en) * 2004-07-09 2009-07-15 Tricerion Ltd A method of secure data communication
US9009057B2 (en) 2006-02-21 2015-04-14 Koninklijke Philips N.V. Audio encoding and decoding to generate binaural virtual spatial signals
US9112863B2 (en) 2009-12-14 2015-08-18 International Business Machines Corporation Method, program product and server for controlling a resource access to an electronic resource stored within a protected data environment
WO2012093352A1 (en) * 2011-01-05 2012-07-12 Koninklijke Philips Electronics N.V. An audio system and method of operation therefor
WO2012164346A1 (en) 2011-05-27 2012-12-06 Sony Ericsson Mobile Communications Ab Head-related transfer function (hrtf) selection or adaptation based on head size
SG11201404602RA (en) * 2012-02-29 2014-09-26 Razer Asia Pacific Pte Ltd Headset device and a device profile management system and method thereof
JP6050625B2 (ja) 2012-06-28 2016-12-21 サターン ライセンシング エルエルシーSaturn Licensing LLC 情報処理装置及び情報処理方法、コンピューター・プログラム、並びに情報通信システム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003153398A (ja) * 2001-11-09 2003-05-23 Nippon Hoso Kyokai <Nhk> ヘッドホンによる前後方向への音像定位装置およびその方法
JP2010118978A (ja) * 2008-11-14 2010-05-27 Victor Co Of Japan Ltd 音像定位制御装置および音像定位制御方法
US9544706B1 (en) 2015-03-23 2017-01-10 Amazon Technologies, Inc. Customized head-related transfer functions

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP3905725A4

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022113638A1 (ja) * 2020-11-25 2022-06-02 ソニーグループ株式会社 情報処理装置、情報処理方法
WO2023176191A1 (ja) * 2022-03-16 2023-09-21 ソニーグループ株式会社 プログラム、制御装置、補聴器、通信デバイス、補聴器システムおよび制御方法

Also Published As

Publication number Publication date
KR20210106992A (ko) 2021-08-31
EP3905725A1 (en) 2021-11-03
US11956621B2 (en) 2024-04-09
CN113228711A (zh) 2021-08-06
TW202041053A (zh) 2020-11-01
JPWO2020138257A1 (ja) 2021-11-04
EP3905725A4 (en) 2022-03-16
US20220060841A1 (en) 2022-02-24

Similar Documents

Publication Publication Date Title
JP7110301B2 (ja) オーディオ処理アルゴリズム及びデータベース
US11785413B2 (en) Media content playback based on an identified geolocation of a target venue
US11075609B2 (en) Transforming audio content for subjective fidelity
JP4643987B2 (ja) スマートスピーカ
TWI640917B (zh) 頭戴式耳機裝置與裝置設定檔管理系統及方法
US10003905B1 (en) Personalized end user head-related transfer function (HRTV) finite impulse response (FIR) filter
JP2015513832A (ja) オーディオ再生システム及び方法
WO2020138257A1 (ja) 情報処理装置、情報処理方法及び情報処理プログラム
US11683654B2 (en) Audio content format selection
KR20050044881A (ko) 격자형 스피커 시스템 및 그 시스템에서의 음향 처리 방법
EP3350790B1 (en) System and method for determining proximity of a controller to a media rendering device
US11113092B2 (en) Global HRTF repository
TW201817248A (zh) 聲音播放方法、系統及其非暫態電腦可讀取紀錄媒體
US11736889B2 (en) Personalized and integrated virtual studio
WO2023015083A1 (en) Combined hrtf for spatial audio plus hearing aid support and other enhancements
Costerton A systematic review of the most appropriate methods of achieving spatially enhanced audio for headphone use

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19904561

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2020562388

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2019904561

Country of ref document: EP

Effective date: 20210728