ES2888916T3 - Un método para generar una función de transferencia relacionada con la cabeza adaptada/personalizada - Google Patents

Un método para generar una función de transferencia relacionada con la cabeza adaptada/personalizada Download PDF

Info

Publication number
ES2888916T3
ES2888916T3 ES16882200T ES16882200T ES2888916T3 ES 2888916 T3 ES2888916 T3 ES 2888916T3 ES 16882200 T ES16882200 T ES 16882200T ES 16882200 T ES16882200 T ES 16882200T ES 2888916 T3 ES2888916 T3 ES 2888916T3
Authority
ES
Spain
Prior art keywords
ear
image
individual
hrtf
control points
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
ES16882200T
Other languages
English (en)
Inventor
Teck Chee Lee
Christopher Tjiongan
Desmond Hii
Geith Mark Benjamin Leslie
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Creative Technology Ltd
Original Assignee
Creative Technology Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Creative Technology Ltd filed Critical Creative Technology Ltd
Application granted granted Critical
Publication of ES2888916T3 publication Critical patent/ES2888916T3/es
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/755Deformable models or variational models, e.g. snakes or active contours
    • G06V10/7553Deformable models or variational models, e.g. snakes or active contours based on shape, e.g. active shape models [ASM]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/149Segmentation; Edge detection involving deformable models, e.g. active contour models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • G06V10/17Image acquisition using hand-held instruments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/752Contour matching
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S7/00Indicating arrangements; Control arrangements, e.g. balance control
    • H04S7/30Control circuits for electronic adaptation of the sound field
    • H04S7/302Electronic adaptation of stereophonic sound system to listener position or orientation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20112Image segmentation details
    • G06T2207/20124Active shape model [ASM]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2420/00Techniques used stereophonic systems covered by H04S but not provided for in its groups
    • H04S2420/01Enhancing the perception of the sound image or of the spatial distribution using head related transfer functions [HRTF's] or equivalents thereof, e.g. interaural time difference [ITD] or interaural level difference [ILD]

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Software Systems (AREA)
  • Multimedia (AREA)
  • Databases & Information Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Computing Systems (AREA)
  • Artificial Intelligence (AREA)
  • Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Human Computer Interaction (AREA)
  • Quality & Reliability (AREA)
  • Acoustics & Sound (AREA)
  • Signal Processing (AREA)
  • Telephone Function (AREA)
  • Studio Devices (AREA)
  • Image Processing (AREA)
  • User Interface Of Digital Computer (AREA)
  • Stereophonic System (AREA)

Abstract

Un método (100) para generar una Función de Transferencia Relacionada con la Cabeza (HRTF) personalizada, comprendiendo el método: capturar una imagen (102) de al menos una oreja de un individuo usando un dispositivo de captura de imágenes comprendido en un dispositivo de procesamiento portátil, en donde el dispositivo de procesamiento portátil está configurado para presentar visualmente la imagen en tiempo real en una pantalla de visualización; determinar un factor de escala en relación con la imagen capturada (104); aplicar un modelo de forma activa (106) a la imagen capturada para obtener un modelo de forma activa conformado a una forma de al menos una oreja del individuo por deformación basándose en puntos de control (200a/200b/200c/200d/200e), en donde los puntos de control se solapan en tiempo real en la pantalla de visualización del dispositivo de procesamiento portátil; generar una indicación para un usuario cuando los puntos de control del modelo de forma activa se ajustan a la imagen de al menos una oreja del individuo de acuerdo con una medida de calidad; extraer propiedades geométricas basadas en imagen de la al menos una oreja del individuo a partir de los puntos de control del modelo de forma activa conformados a dicha forma de la al menos una oreja del individuo; y seleccionar (108), basándose en las propiedades geométricas basadas en la imagen de la oreja y el factor de escala, un conjunto de datos de HRTF personalizado para la al menos una oreja de dicho individuo a partir de una pluralidad de conjuntos de datos de HRTF contenidos en una base de datos de HRTF.

Description

DESCRIPCIÓN
Un método para generar una función de transferencia relacionada con la cabeza adaptada/personalizada Campo de la invención
La presente divulgación se refiere en general a un método para generar una Función de Transferencia Relacionada con la Cabeza (HRTF) adaptada/personalizada basándose en una imagen capturada.
Antecedentes
La representación de audio espacial en 3D interactiva precisa requiere funciones de transferencia relacionadas con la cabeza (HRTF) personalizadas.
De manera tradicional, para obtener tales HRTF personalizadas, se requiere que un usuario se siente, sin moverse, durante aproximadamente media hora en una cámara anecoica con señales de audio que se emiten desde diferentes ubicaciones dentro de la cámara. Se coloca un micrófono en la oreja del usuario para capturar señales de audio según de perciben de manera audible por el usuario. También hay necesidad de considerar factores tales como las respuestas de la cámara, la fuente o fuentes de la señal de audio y del micrófono. Tales respuestas pueden considerarse respuestas falsas y puede haber una necesidad de eliminar tales respuestas falsas para obtener una Respuesta de Impulso Relacionada con la Cabeza (HRIR) que pueden convertirse posteriormente a una HRTF. Han surgido técnicas de la técnica anterior para simplificar el enfoque anterior. Específicamente, se desea eliminar la necesidad de una cámara anecoica y tratar problemas tales como las respuestas falsas anteriormente mencionadas. Una técnica de la técnica anterior de este tipo es "P-HRTF: Efficient Personalized HRTF Computation for High-Fidelity Spatial Sound, Meshram et al. Proc. of iMa R 2014 (http://gamma.cs.unc.edu/HRTF/)". Esta técnica de la técnica anterior reconstruye un modelo de la oreja detallado a partir de múltiples fotos y realiza simulación acústica para obtener HRTF. Se requeriría un conjunto de fotos capturadas de manera densa (más de 20 fotos a un intervalo de 15 grados recomendado, usando una SLR Canon60D 8MP) y potencia informática significativa.
Otra técnica de la técnica anterior de este tipo es "Selection of Head-Related Transfer Function through Ear Contour Matching for Personalized Binaural Rendering. POLITECNICO DI MILANO. Master of Science in Computer Engineering. Dalena Marco. Academic Year 2012/2013". Esta técnica de la técnica anterior contempla que, en lugar de modelar físicamente la oreja y la acústica, puede ser posible realizar una coincidencia basada en imagen usando una base de datos existente. La base de datos existente puede incluir una colección de imágenes (por ejemplo, fotos) asociadas con la o las correspondientes HRTF. Dada una imagen, puede usarse la transformada de Hough generalizada para hallar la mejor coincidencia (con relación a la colección de imágenes en la base de datos existente) para la imagen dada para obtener una correspondiente HRTF.
Sin embargo, es apreciable que los enfoques/técnicas anteriormente analizadas requerirían muchos recursos en términos de potencia informática. Además, los enfoques/técnicas anteriormente analizados pueden no facilitar la creación de la o las HRTF personalizadas de una manera fácil de usar y/o eficaz.
Zotkin D N et al "HRTF personalization using anthropometric measurements", APPLICATIONS OF SIGNAL PROCESSING TO AUDIO AND ACOUSTICS, 2003 IEEE WO RKSHOP ON. NEW PALTZ, NY, ESTADOS UNIDOS 19-22 de octubre de 2003, PISCATAWAY, NJ, ESTADOS UNIDOS, IEEE, describe una estrategia para personalización de HRTF.
M. Dalena ET AL, "Selection of Head-Related Transfer Function through Ear Contour Matching for Personalized Binaural Rendering", POLITECNICO DI MILANO y el documento US2013169779 también proporcionan divulgaciones en el campo de la selección de HRTF.
Por lo tanto, es deseable proporcionar una solución para tratar los problemas anteriores.
Sumario de la invención
De acuerdo con un aspecto de la presente invención, se proporciona un método para generar una Función de Transferencia Relacionada con la Cabeza (HRTF) personalizada, como se indica por la reivindicación 1. Además, se define un dispositivo y sistema de procesamiento portátil configurados para implementar tal método en las reivindicaciones 9 y 12.
Se exponen los aspectos y realizaciones preferidas y adicionales en las reivindicaciones dependientes.
Breve descripción de los dibujos
Se describen en lo sucesivo realizaciones de la divulgación con referencia a los siguientes dibujos, en los que:
La Figura 1 muestra un método para crear/generar una Función de Transferencia Relacionada con la Cabeza (HRTF) personalizada/adaptada desde una imagen capturada usando un dispositivo portátil tal como un teléfono inteligente que tiene una cámara, de acuerdo con una realización de la divulgación;
La Figura 2a muestra un modelo de forma activa que tiene una pluralidad de puntos de control que pueden entrenarse usando una pluralidad de muestras, de acuerdo con una realización de la divulgación;
La Figura 2b muestra que la pluralidad de muestras de la Figura 2a puede incluir una primera muestra y una segunda muestra, de acuerdo con una realización de la divulgación; y
La Figura 2c muestra los puntos de control de la Figura 2a que están conformados a la forma de una oreja del usuario, de acuerdo con una realización de la divulgación.
Descripción detallada
La presente divulgación se refiere a un método 100 (como se mostrará en detalle adicional con referencia a la Figura 1) para crear/generar una Función de Transferencia Relacionada con la Cabeza (HRTF) personalizada/adaptada desde una imagen capturada usando un dispositivo portátil tal como un teléfono inteligente que tiene una cámara. La presente divulgación contempla que la técnica de la técnica anterior con respecto a la transformada de Hough es la más sencilla en comparación con la técnica de la técnica anterior que se refiere a la reconstrucción de un modelo de oreja detallado a partir de múltiples fotos y al enfoque tradicional que implica el uso de una cámara anecoica. La presente divulgación contempla adicionalmente la necesidad de simplificar adicionalmente la técnica de la técnica anterior con respecto a la transformada de Hough para facilitar al menos la creación/generación de la o las HRTF personalizadas de una manera fácil de usar y/o eficaz.
Haciendo referencia a la Figura 1 se muestra un método 100 para crear/generar una HRTF personalizada/adaptada de acuerdo con una realización de la divulgación. Específicamente, una HRTF personalizada/adaptada puede crearse/generarse desde una imagen capturada usando un dispositivo portátil.
El método 100 incluye una etapa de captura de imagen 102, una etapa de determinación de referencia 104, una etapa de análisis 106 y una etapa de personalización 108.
En la etapa de captura de imagen 102, se captura al menos una imagen de una oreja usando un dispositivo portátil que tiene un dispositivo de captura de imágenes. Por ejemplo, el dispositivo portátil puede corresponder a un teléfono inteligente que tiene una cámara.
En la etapa de determinación de referencia 104, se determina un factor de escala en relación con la imagen capturada. Preferentemente, se determina el factor de escala sin tener que basarse en medición manual. El factor de escala puede usarse como una base para el auto-escalamiento como se analizará más tarde en detalle adicional.
En una realización, puede determinarse el factor de escala basándose en la separación del ojo (es decir, la distancia interpupilar). En otra realización, puede determinarse el factor de escala basándose en la longitud del trago promedio. En otra realización más, puede determinarse el factor de escala basándose en el punto de enfoque del dispositivo de captura de imágenes. En una realización adicional más, puede determinarse el factor de escala basándose en un objeto de referencia (por ejemplo, una tarjeta de visita o una lata) y/o una cámara de profundidad con una longitud focal conocida.
Con respecto a la determinación del factor de escala basándose en la separación del ojo, un usuario puede capturar dos imágenes. Una imagen puede ser una fotografía que toma el usuario de sí mismo/a (por ejemplo, un autorretrato tomado con el dispositivo portátil a aproximadamente la mitad de un brazo de distancia) donde pueden detectarse los ojos del usuario. Otra imagen puede ser una fotografía de una oreja del usuario tomada, por ejemplo, haciendo que el usuario gire su cabeza después de que se ha capturado la primera imagen. Específicamente, después de que el usuario ha tomado un autorretrato (es decir, la primera imagen) de sí mismo/a donde pueden detectarse los ojos del usuario, el usuario puede girar su cabeza para capturar una imagen de su oreja (es decir, la segunda imagen que puede corresponder a la imagen anteriormente mencionada de una oreja capturada en la etapa de captura de imagen 102) con el dispositivo portátil se mantiene que en su lugar para ambas imágenes (es decir, se retiene la posición del dispositivo portátil cuando se tomó el autorretrato para capturar la segunda imagen). Como alternativa, también es posible hacer un barrido del dispositivo portátil en un arco (es decir, desde los ojos hasta la oreja o desde la oreja hasta los ojos), mientras se mantiene la distancia entre el dispositivo portátil y la cabeza del usuario sustancialmente constante durante el barrido, para capturar ambas imágenes de los ojos y la oreja. Por ejemplo, un usuario puede sostener el dispositivo portátil con el brazo extendido mientras toma un autorretrato (es decir, la primera imagen) de sí mismo/a donde pueden detectarse los ojos del usuario y después de que se toma el autorretrato, el usuario puede hacer un barrido, mientras mantiene el dispositivo portátil a la misma distancia del brazo (cuando se capturó la primera imagen), hasta el lado de su cabeza para capturar una imagen de su oreja (es decir, la segunda imagen). Se contempla que la separación física del ojo sea normalmente de aproximadamente 6,5 cm para adultos (de manera apreciable, la separación del ojo para los niños puede diferir). Por lo tanto, puede derivarse un factor de escala. Por ejemplo, para la primera imagen, la separación, en cuanto a la imagen, entre los dos ojos puede ser de 50 píxeles. Por lo tanto, 50 píxeles, en cuanto a la imagen, pueden corresponder a 6,5 cm en separación física (es decir, 50 píxeles pueden corresponder, por ejemplo, a 6,5 cm en términos de dimensión/medición física). Usar una dimensión de imagen a proporción de dimensión física de 50 píxeles: 6,5 cm (es decir, basándose en la primera imagen), puede ser posible traducir la imagen de la oreja (es decir, la segunda imagen) a dimensiones físicas.
Con respecto a la determinación del factor de escala basándose en la longitud del trago promedio, se contempla que la longitud del trago sea relativamente consistente a través de diferentes orejas. Por lo tanto, puede usarse la longitud del trago como una referencia de manera análoga para el análisis anterior en relación con la separación de ojos (es decir, la traducción de la imagen de una oreja a dimensiones físicas basándose en la longitud del trago conocida/convencional).
Con respecto a la determinación del factor de escala basándose en el punto focal del dispositivo de captura de imágenes, se contempla que el dispositivo de captura de imágenes (por ejemplo, una cámara) pueda tener una característica de autofoco. Por consiguiente, el dispositivo de captura de imágenes puede enfocar automáticamente la oreja del usuario cuando el usuario usa el dispositivo de captura de imágenes para capturar una imagen de su oreja. El autofoco está basado en la distancia de la lente al objeto (es decir, la oreja del usuario). La presente divulgación contempla que conocer la distancia de la lente a la oreja y la longitud focal (es decir, el campo de visión de la lente) es suficiente para determinar el factor de escala.
En la etapa de análisis 106, se detectan las características de la oreja y las propiedades geométricas, basándose en la imagen de la oreja, usando un Modelo de Forma Activa (ASM). ASM (desarrollado por Tim Cootes y Chris Taylor en 1995) es comúnmente conocido que corresponde a un modelo de distribución de la forma de un objeto (por ejemplo, la forma de una oreja) que se deforma de manera iterativa para ajustarse a un ejemplo del objeto en una nueva imagen (por ejemplo, la imagen capturada de una oreja del usuario) y la forma está restringida por un modelo de distribución de puntos (PDM). En este sentido, pueden extraerse/determinarse las propiedades geométricas basadas en la imagen (por ejemplo, en términos de pixeles) tales como la longitud de la concha, la longitud del trago, anchura y/o altura de la oreja a partir de puntos de control que pueden deformarse de acuerdo con el PDM. Por consiguiente, los puntos de control pueden adaptarse a la forma de la oreja basándose en la imagen capturada (es decir, la imagen de la oreja) en la etapa de captura de imagen 102. Los puntos de control se analizarán más adelante en detalle adicional con referencia a la Figura 2.
En la etapa de personalización 108, se deriva/determina una HRTF personalizada basándose en propiedades geométricas basadas en imagen (por ejemplo, en términos de píxeles) de la oreja del usuario según se determina la etapa de análisis 106 y el factor de cambio de escala según se determina en la etapa de determinación de referencia 104. Esto se analizará más adelante en detalle adicional con referencia a un escenario ilustrativo).
La presente divulgación contempla que las dimensiones físicas de una oreja del usuario pueden derivarse basándose en propiedades geométricas basadas en imagen (por ejemplo, en términos de píxeles) y el factor de cambio de escala. Tales dimensiones físicas pueden ser la base para derivar/determinar una HRTF personalizada.
La Figura 2a muestra un modelo de forma activa 200 que tiene una pluralidad de puntos de control analizados anteriormente con referencia a la Figura 1. Por ejemplo, el modelo de forma activa 200 puede incluir un primer punto de control 200a, un segundo punto de control 200b, un tercer punto de control 200c, un cuarto punto de control 200d y un quinto punto de control 200e. Como se muestra, el modelo de forma activa 200 puede corresponder a la forma de una oreja. Específicamente, la pluralidad de puntos de control puede estar dispuesta para corresponder a la forma de una oreja. El modelo de forma activa 200 puede derivarse basándose en entrenamiento usando una pluralidad de muestras. Las muestras pueden corresponder a una pluralidad de imágenes de oreja (es decir, más de una imagen de una oreja). Preferentemente, las muestras se obtienen de diferentes sujetos (es decir, de diferentes personas). Por ejemplo, el modelo de forma activa 200 puede entrenarse a partir de 20 diferentes sujetos (es decir, 20 diferentes orejas). En un escenario ilustrativo, el modelo de forma activa 200 puede derivarse situando los puntos de control, en una manera consistente, en cada una de las muestras.
Específicamente, haciendo referencia a la Figura 2b, la pluralidad de muestras según se ha mencionado en la Figura 2a puede incluir una primera muestra 201a y una segunda muestra 201b. Cada uno de los puntos de control puede situarse de manera consistente en respectivas ubicaciones diferentes de una oreja. Por ejemplo, uno de los puntos de control (por ejemplo, la etiqueta 16) puede situarse de manera consistente en una ubicación (por ejemplo, el lóbulo de la oreja) de una oreja mostrada en cada una de las muestras 201a/201b. De manera apreciable, haciendo eso para cada punto de control, puede obtenerse un promedio, basándose en el mismo punto de control (por ejemplo, la etiqueta 16) que está situado en la ubicación sustancialmente idéntica (por ejemplo, el lóbulo de la oreja) de una oreja a través de las muestras. Por lo tanto, a partir del entrenamiento usando una pluralidad de muestras, puede derivarse una forma promedio de una oreja. En este sentido, el modelo de forma activa 200 puede ser similar a una plantilla genérica que representa una oreja promedio (es decir, basándose en el entrenamiento usando la pluralidad de muestras) y su PDM subyacente. Una plantilla genérica de este tipo puede ser una base para la deformación iterativa para una nueva imagen (es decir, una nueva imagen de una oreja según se captura en la etapa de captura de imagen 102). Adicionalmente, se deriva al mismo tiempo el PDM subyacente cuando se entrena el modelo de forma activa 200. Específicamente, los límites de la deformación iterativa de la distribución de los puntos de control (es decir, la desviación de la posición de los puntos de control según el modelo de forma activa 200) basándose en una nueva imagen (es decir, una nueva imagen de una oreja según se captura durante la etapa de captura de imagen 102), como se analizará en detalle adicional con referencia a la Figura 2c, pueden estar restringidos por el PDM según se entrena usando la pluralidad de muestras.
De acuerdo con una realización de la divulgación, el dispositivo portátil incluye una pantalla (no mostrada) y los puntos de control del modelo de forma activa 200 pueden presentarse mediante una interfaz de usuario de gráficos (GUI) presentada visualmente en la pantalla. Como se muestra, el modelo de forma activa 200 incluye una pluralidad de puntos de control 200a/200b/200c/200d/200e.
La Figura 2c muestra el modelo de forma activa 200 de la Figura 2a adaptado a la forma de una oreja del usuario (es decir, la imagen anteriormente mencionada de una oreja según se captura durante la etapa de captura de imagen 102) de acuerdo con una realización de la divulgación.
Los puntos de control pueden corresponder a la nueva imagen anteriormente mencionada analizada en la Figura 2a. En una aplicación ilustrativa, el modelo de forma activa 200 derivado (es decir, basándose en el entrenamiento usando una pluralidad de muestras como se ha analizado anteriormente) se presenta visualmente en la pantalla de un dispositivo portátil y a medida que un usuario que usa el dispositivo portátil sitúa el dispositivo portátil para capturar una imagen de su oreja (es decir, nueva imagen), al menos una porción de la pantalla presenta visualmente una imagen en tiempo real 202 de la oreja del usuario.
De manera apreciable, la imagen en tiempo real 202 puede cambiar de acuerdo con cómo el usuario sitúa el dispositivo portátil. Como tal, el modelo de forma activa 200 puede deformarse de manera iterativa en consecuencia. Es decir, los puntos de control (por ejemplo, del primer al quinto puntos de control 200a/200b/200c/200d/200e) pueden cambiar de manera iterativa para adaptar la imagen de la oreja del usuario según se presenta visualmente en la pantalla. Como tal, los puntos de control pueden percibirse de manera visual, por ejemplo, para desviarse en la posición de modo que los puntos de control se superpongan sustancialmente a la imagen de la oreja del usuario. Específicamente, como se muestra en la Figura 2b, el modelo de forma activa 200 debe solapar sustancialmente la imagen de la oreja del usuario. Más específicamente, los puntos de control del modelo de forma activa 200 como se muestra en la Figura 2a pueden adaptarse a la forma de la oreja del usuario. Por lo tanto, las posiciones de los puntos de control 200a/200b/200c/200d/200e del modelo de forma activa 200 pueden cambiarse de manera iterativa de una manera para perfilar la forma de la oreja del usuario (es decir, como se muestra por la imagen en tiempo real 202 de la oreja del usuario).
Preferentemente, puede proporcionarse una indicación de estabilidad (por ejemplo, en forma de una realimentación de audio tal como un "pitido") para indicar si una imagen actualmente visualizada en la pantalla es adecuada para su captura. Por ejemplo, puede proporcionarse una indicación de estabilidad cuando los puntos de control del modelo de forma activa 200 dejan de cambiar en posición (es decir, dejan de moverse). Es decir, el modelo de forma activa 200 puede considerarse que está sustancialmente adaptado a la forma de la oreja del usuario (es decir, según la imagen en tiempo real 202 de la oreja del usuario). De manera apreciable, de esta manera, se proporciona alguna forma de medida de "bondad". Adicionalmente, de esta manera, también es posible realizar una detección en tiempo real de la oreja del usuario a medida que el usuario sitúa el dispositivo portátil en preparación para la captura de imagen en la etapa de captura de imagen 102.
Además, la presente divulgación contempla que es deseable mejorar el rendimiento de detección de la oreja para evitar cualquier captura de imagen "falsa" en la que se captura una imagen que se parece a la oreja del usuario (es decir, que no es realmente una imagen de la oreja del usuario).
Por lo tanto, de acuerdo con una realización de la divulgación, pueden proporcionarse señales de realimentación adicionales (es decir, además de la indicación anteriormente mencionada de estabilidad) para indicar si el dispositivo portátil se ha situado de manera apropiada. En un ejemplo, pueden proporcionarse señales de realimentación de sensores de movimiento tales como un giroscopio/acelerómetro y/o sensores magnéticos llevados por el dispositivo portátil para indicar si el dispositivo portátil está situado de manera apropiada.
Como alternativa, puede usarse la distancia de enfoque asociada con el dispositivo de captura de imágenes llevado por el dispositivo portátil como un parámetro en relación con mejorar el rendimiento de detección de la oreja. Específicamente, puede usarse la distancia de enfoque asociada con el dispositivo de captura de imágenes llevado por el dispositivo portátil para determinar la distancia de un objeto de interés al dispositivo de captura. La presente divulgación contempla que, en la práctica, la distancia entre la oreja (es decir, un objeto de interés) y la captura puede ser bastante cercana (por ejemplo, aproximadamente 10 cm de distancia), por lo que únicamente es necesario considerar la presencia de una oreja en la imagen o imágenes capturadas (por ejemplo, flujo de vídeo de cámara) cuando la distancia de enfoque es a aproximadamente 10 cm (por ejemplo, únicamente necesita considerarse la distancia de enfoque de 2 a 20 cm). Por lo tanto, cuando el enfoque del dispositivo de captura de imágenes es, por ejemplo, 1,2 metros en un ejemplo, puede asumirse con seguridad que el objeto de interés en el flujo de vídeo de la cámara capturado por el dispositivo de captura de imágenes en ese caso no corresponde a una imagen de la oreja apropiada.
Lo anterior se pondrá en contexto basándose en un escenario ilustrativo de acuerdo con una realización de la divulgación en lo sucesivo.
En un escenario ilustrativo, un dispositivo portátil tal como un teléfono inteligente con una cámara que puede usarse para que un usuario capture una imagen de su oreja y una pantalla que puede presentar visualmente una GUI que presenta un ASM relacionado con una oreja. El usuario puede usar el dispositivo portátil para capturar un autorretrato para el análisis anterior para obtener un factor de cambio de escala. El factor de cambio de escala puede usarse como una base para auto-escalar la imagen capturada de una oreja.
De acuerdo con una realización de la divulgación, el dispositivo portátil puede incluir software que puede presentar la GUI en la pantalla y adaptar los puntos de control del modelo de forma activa 200 a la imagen de la oreja del usuario para que se capture. Específicamente, el dispositivo portátil puede incluir un procesador que puede configurarse para deformar el modelo de forma activa 200 de modo que los puntos de control se adaptan a la forma de la oreja del usuario por la imagen de la oreja del usuario para que se capture. Tras recibir una indicación de estabilidad, preferentemente, el usuario puede continuar para capturar una imagen de su oreja (es decir, en la etapa de captura de imagen 102). Como alternativa, puede capturarse una imagen de la oreja del usuario automáticamente tras la recepción de una indicación de estabilidad (por ejemplo, operativamente como una Exploración de Código de Respuesta Rápida o Escáner de Código de Barras). Por lo tanto, puede capturarse una imagen de la oreja del usuario (preferentemente con el modelo de forma activa 200 que se superpone a la imagen de la oreja del usuario como se muestra en la Figura 2b). Basándose en la imagen capturada de la oreja del usuario, se extraen/determinan propiedades geométricas y/o características basadas en la imagen de la oreja del usuario (por ejemplo, en términos de píxeles) en la etapa de análisis 106. Además, basándose en el factor de cambio de escala, que se determina durante la etapa de determinación de referencia 104, puede realizarse auto-escalado de la imagen capturada de la oreja del usuario para determinar las geometrías y/o características físicas de la oreja del usuario (por ejemplo, pueden convertirse/traducirse propiedades geométricas y/o características en términos de píxeles a dimensiones físicas en términos de centímetros).
Basándose en las geometrías y/o características físicas determinadas de la oreja del usuario (que puede realizarse, por ejemplo, por el procesador en, por ejemplo, la etapa de análisis 106), puede realizarse una búsqueda, que puede realizarse en la etapa de personalización 108, en una base de datos de HRTF (por ejemplo, una base de datos en línea que tiene una colección/biblioteca de HRTF) para hallar una HRTF que coincide/coincide de manera más estrecha con tales geometrías y/o características físicas. De esta manera, puede crearse/generase una HRTF personalizada. De manera apreciable, si se desea hallar una HRTF para cada oreja de un usuario (por ejemplo, ambas de las orejas izquierda y derecha del usuario), puede aplicarse en consecuencia el método anteriormente analizado 100 de la Figura 1. Se contempla que la HRTf hallada (por ejemplo, basándose en la búsqueda anteriormente analizada realizada en una base de datos de HRTF) para cada oreja puede ser la misma o diferente.
Como alternativa, puede crearse/generarse una HRTF personalizada, en la etapa de personalización 108, interrumpiendo una HRTF existente (por ejemplo, una HRTF disponible en una base de datos de HRTF). La interrupción en una HRTF existente puede hacerse en una manera de interpolación entre más de una Respuesta de Impulso Relacionada con la Cabeza (HRIR).
Específicamente, basándose en las geometrías y/o características físicas determinadas de la oreja del usuario, puede realizarse una búsqueda en una base de datos (por ejemplo, una base de datos en línea que tiene una colección/librería de HRIR) para hallar más de una HRIR (es decir, HRIR-A y HRIR-B) que coinciden más estrechamente con tales geometrías y/o características físicas. Puede realizarse un proceso de desvanecimiento cruzado de las HRIR halladas para generar una HRIR interpolada (es decir, "HRIR-interpolada"). Puede realizarse un proceso adicional de la transformación de Fourier para derivar la HRTF. De manera apreciable, puede crearse/generarse una HRTF personalizada basándose en la HRIR interpolada. En relación con el desvanecimiento cruzado, los coeficientes de desvanecimiento para cada HRIR hallada pueden ser inversamente proporcionales a la distancia (por ejemplo, distancia euclidiana o de Mahalanobis). Por ejemplo:
HRIR-A = [a1, a2, a3, ... a25];
HRIR-B = [b1, b2, b3, ... b25];
HRIR-interpolada = [a1*c b1*(1-c), ... ], donde "c" representa la distancia anteriormente mencionada y varía de 0 a 1.
Por lo tanto, es posible obtener una HRTF personalizada/adaptada simplemente en forma de la captura de un usuario de una imagen de su oreja usando, por ejemplo, un teléfono inteligente. Es apreciable que, la presente divulgación facilita la creación/generación de la o las HRTF personalizadas de una manera fácil para el usuario y/o eficaz. Además, también puede crearse/generarse una HRTF personalizada/adaptada en tiempo real.
De la manera anterior, se describen diversas realizaciones de la divulgación para abordar al menos una de las desventajas anteriores. El alcance de protección no está limitado a formas o disposiciones específicas de partes como se ha descrito anteriormente y será evidente para un experto en la materia en vista de esta divulgación que pueden realizarse numerosos cambios y/o modificaciones a las realizaciones anteriormente descritas, definiéndose únicamente el alcance de protección por las reivindicaciones adjuntas.
Por ejemplo, distinto a interpolar HRIR, la presente divulgación contempla que es posible interpolar también modelos de la oreja para hacer coincidir características/geometrías de la oreja usando métodos de transformación en 3D (por ejemplo "Cross-Parameterization and Compatible Remeshing de 3D Models" por Kraevoy V., Sheffer A., ACM Transactions on Graphics (TOG) - Proceedings of ACM SIGGRAPH 2004) y realizar simulación acústica para derivar una nueva HRIR. La nueva HRIR puede transformarse por Fourier para derivar la HRTF).
En otro ejemplo, la presente divulgación contempla la posibilidad de capturar la dimensión de la cabeza del usuario para mejorar adicionalmente la calidad de HRTF. Capturar la dimensión de la cabeza puede ser posible puesto que, de acuerdo con una realización de la divulgación, pueden estar disponibles tanto las imágenes frontal como lateral (es decir, en relación con el "autorretrato o autorretratos" anteriormente analizados). Como alternativa, puede usarse un detector de la cabeza (incluso uno basado en ASM, pero con el modelo de la cabeza en su lugar) para capturar la dimensión de la cabeza.

Claims (12)

REIVINDICACIONES
1. Un método (100) para generar una Función de Transferencia Relacionada con la Cabeza (HRTF) personalizada, comprendiendo el método:
capturar una imagen (102) de al menos una oreja de un individuo usando un dispositivo de captura de imágenes comprendido en un dispositivo de procesamiento portátil, en donde el dispositivo de procesamiento portátil está configurado para presentar visualmente la imagen en tiempo real en una pantalla de visualización; determinar un factor de escala en relación con la imagen capturada (104);
aplicar un modelo de forma activa (106) a la imagen capturada para obtener un modelo de forma activa conformado a una forma de al menos una oreja del individuo por deformación basándose en puntos de control (200a/200b/200c/200d/200e), en donde los puntos de control se solapan en tiempo real en la pantalla de visualización del dispositivo de procesamiento portátil;
generar una indicación para un usuario cuando los puntos de control del modelo de forma activa se ajustan a la imagen de al menos una oreja del individuo de acuerdo con una medida de calidad;
extraer propiedades geométricas basadas en imagen de la al menos una oreja del individuo a partir de los puntos de control del modelo de forma activa conformados a dicha forma de la al menos una oreja del individuo; y seleccionar (108), basándose en las propiedades geométricas basadas en la imagen de la oreja y el factor de escala, un conjunto de datos de HRTF personalizado para la al menos una oreja de dicho individuo a partir de una pluralidad de conjuntos de datos de HRTF contenidos en una base de datos de HRTF.
2. El método de acuerdo con la reivindicación 1, en donde se determina el factor de escala usando al menos uno de: un objeto de referencia convencionalmente dimensionado en la imagen; distancia de una lente del dispositivo de captura de imágenes portátil a la oreja del individuo y una longitud focal del dispositivo de captura de imágenes portátil; o promediando la longitud del trago.
3. El método de acuerdo con la reivindicación 1, en donde capturar la imagen incluye una etapa de detección que comprende una determinación de la presencia de la oreja del individuo.
4. El método de acuerdo con la reivindicación 1, en donde el modelo de forma activa se entrenó previamente en al menos una pluralidad de imágenes de la oreja de los individuos.
5. El método de acuerdo con la reivindicación 1, en donde el modelo de forma activa se procesa iterativamente por deformación para hacer coincidir la imagen de la oreja según se visualiza en la pantalla.
6. El método de acuerdo con la reivindicación 1, en donde se selecciona el conjunto de datos de HRTF personalizado de la pluralidad de conjuntos de datos de HRTF basándose en hacer coincidir de la manera más estrecha las propiedades geométricas, basadas en la imagen extraídas, con las correspondientes propiedades geométricas basadas en la imagen de cada uno de los conjuntos de datos de HRTF en la pluralidad.
7. El método de acuerdo con la reivindicación 1, en donde la base de datos de HRTF contiene una colección de respuestas de impulso relacionadas con la cabeza (HRIR), y la selección del conjunto de datos de HRTF personalizado comprende seleccionar más de una HRIR e interpolar entre dicha más de una HRIR para determinar el conjunto de datos de HRTF personalizado.
8. El método de acuerdo con cualquier reivindicación anterior, en donde el dispositivo de captura de imágenes es la cámara de un teléfono inteligente.
9. Un dispositivo de procesamiento portátil para generar las HRTF personalizadas, que comprende:
un dispositivo de captura de imágenes configurado para:
obtener una imagen (102) de al menos una oreja de un individuo, comprendiendo adicionalmente el dispositivo de procesamiento portátil una pantalla de visualización configurada para presentar visualmente la imagen en tiempo real a un usuario;
el dispositivo de procesamiento portátil configurado para determinar un factor de escala en relación con la imagen capturada y aplicar un modelo de forma activa (106) a la imagen capturada para obtener un modelo de forma activa conformado a una forma de la al menos una oreja del individuo mediante deformación basándose en puntos de control (200a/200b/200c/200d/200e), en donde los puntos de control se solapan en tiempo real en la pantalla de visualización del dispositivo de captura de imágenes;
el dispositivo de procesamiento portátil configurado adicionalmente para:
generar una indicación para un usuario cuando los puntos de control del modelo de forma activa se ajustan a la imagen de al menos una oreja del individuo de acuerdo con una medida de calidad;
extraer propiedades geométricas basadas en imagen de la al menos una oreja del individuo a partir de los puntos de control del modelo de forma activa conformados a dicha forma de la al menos una oreja del individuo; y
seleccionar (108), basándose en las propiedades geométricas basadas en la imagen extraídas de la oreja y el factor de escala, un conjunto de datos de HRTF personalizado para la al menos una oreja de dicho individuo a partir de una pluralidad de conjuntos de datos de HRTF contenidos en una base de datos de HRTF.
10. El dispositivo de procesamiento portátil de acuerdo con la reivindicación 9, configurado para determinar el factor de escala usando al menos uno de: un objeto de referencia convencionalmente dimensionado en la imagen; distancia de una lente del dispositivo de captura de imágenes a la oreja del individuo y una longitud focal del dispositivo de captura de imágenes; o promediando la longitud del trago.
11. El dispositivo de procesamiento portátil de acuerdo con la reivindicación 9, en donde la base de datos de HRTF contiene una colección de respuestas de impulso relacionadas con la cabeza (HRIR), y la selección del conjunto de datos de HRTF personalizado comprende seleccionar más de una HRIR e interpolar entre dichas más de una HRIR para determinar el conjunto de datos de HRTF personalizado.
12. Un sistema para generar HRTF personalizadas, que comprende:
el dispositivo de procesamiento portátil de cualquiera de las reivindicaciones 9 a 11; y
una memoria accesible por el dispositivo de procesamiento portátil y que incluye la base de datos de HRTF.
ES16882200T 2015-12-31 2016-12-28 Un método para generar una función de transferencia relacionada con la cabeza adaptada/personalizada Active ES2888916T3 (es)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
SG10201510822YA SG10201510822YA (en) 2015-12-31 2015-12-31 A method for generating a customized/personalized head related transfer function
PCT/SG2016/050621 WO2017116308A1 (en) 2015-12-31 2016-12-28 A method for generating a customized/personalized head related transfer function

Publications (1)

Publication Number Publication Date
ES2888916T3 true ES2888916T3 (es) 2022-01-10

Family

ID=59225763

Family Applications (1)

Application Number Title Priority Date Filing Date
ES16882200T Active ES2888916T3 (es) 2015-12-31 2016-12-28 Un método para generar una función de transferencia relacionada con la cabeza adaptada/personalizada

Country Status (11)

Country Link
US (4) US20180373957A1 (es)
EP (1) EP3398353B1 (es)
JP (1) JP6636642B2 (es)
KR (1) KR20180100180A (es)
CN (1) CN108476358B (es)
DK (1) DK3398353T3 (es)
ES (1) ES2888916T3 (es)
HK (1) HK1255064A1 (es)
PL (1) PL3398353T3 (es)
SG (1) SG10201510822YA (es)
WO (1) WO2017116308A1 (es)

Families Citing this family (35)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
SG10201510822YA (en) 2015-12-31 2017-07-28 Creative Tech Ltd A method for generating a customized/personalized head related transfer function
US10805757B2 (en) 2015-12-31 2020-10-13 Creative Technology Ltd Method for generating a customized/personalized head related transfer function
SG10201800147XA (en) 2018-01-05 2019-08-27 Creative Tech Ltd A system and a processing method for customizing audio experience
FI20165211A (fi) 2016-03-15 2017-09-16 Ownsurround Ltd Järjestely HRTF-suodattimien valmistamiseksi
JP2019536395A (ja) * 2016-11-13 2019-12-12 エンボディーヴィーアール、インコーポレイテッド 耳介の画像を撮像し、耳介の画像を用いて人間の聴覚の解剖学的構造の特徴を示すためのシステムおよび方法
US10390171B2 (en) 2018-01-07 2019-08-20 Creative Technology Ltd Method for generating customized spatial audio with head tracking
US10652686B2 (en) * 2018-02-06 2020-05-12 Sony Interactive Entertainment Inc. Method of improving localization of surround sound
EP3544321A1 (en) 2018-03-19 2019-09-25 Österreichische Akademie der Wissenschaften Method for determining listener-specific head-related transfer functions
FI20185300A1 (fi) 2018-03-29 2019-09-30 Ownsurround Ltd Järjestely päähän liittyvien siirtofunktiosuodattimien muodostamiseksi
US10917735B2 (en) * 2018-05-11 2021-02-09 Facebook Technologies, Llc Head-related transfer function personalization using simulation
CN116528141A (zh) 2018-07-25 2023-08-01 杜比实验室特许公司 经由光学捕获的个性化hrtfs
US11026039B2 (en) 2018-08-13 2021-06-01 Ownsurround Oy Arrangement for distributing head related transfer function filters
US11315277B1 (en) 2018-09-27 2022-04-26 Apple Inc. Device to determine user-specific HRTF based on combined geometric data
US10856097B2 (en) 2018-09-27 2020-12-01 Sony Corporation Generating personalized end user head-related transfer function (HRTV) using panoramic images of ear
CN116801179A (zh) * 2018-10-10 2023-09-22 索尼集团公司 信息处理装置、信息处理方法和计算机可访问介质
US11503423B2 (en) 2018-10-25 2022-11-15 Creative Technology Ltd Systems and methods for modifying room characteristics for spatial audio rendering over headphones
US11418903B2 (en) 2018-12-07 2022-08-16 Creative Technology Ltd Spatial repositioning of multiple audio streams
US10966046B2 (en) * 2018-12-07 2021-03-30 Creative Technology Ltd Spatial repositioning of multiple audio streams
CN113228615B (zh) * 2018-12-28 2023-11-07 索尼集团公司 信息处理装置、信息处理方法和计算机可读记录介质
WO2020153027A1 (ja) * 2019-01-24 2020-07-30 ソニー株式会社 オーディオシステム、オーディオ再生装置、サーバー装置、オーディオ再生方法及びオーディオ再生プログラム
US11113092B2 (en) 2019-02-08 2021-09-07 Sony Corporation Global HRTF repository
US11221820B2 (en) 2019-03-20 2022-01-11 Creative Technology Ltd System and method for processing audio between multiple audio spaces
US11451907B2 (en) 2019-05-29 2022-09-20 Sony Corporation Techniques combining plural head-related transfer function (HRTF) spheres to place audio objects
AU2020203290B2 (en) * 2019-06-10 2022-03-03 Genelec Oy System and method for generating head-related transfer function
US11347832B2 (en) 2019-06-13 2022-05-31 Sony Corporation Head related transfer function (HRTF) as biometric authentication
WO2021024747A1 (ja) * 2019-08-02 2021-02-11 ソニー株式会社 音響出力装置、及びこれを用いた音響出力システム
CN114303366A (zh) * 2019-09-06 2022-04-08 索尼集团公司 信息处理设备、信息处理方法和信息处理程序
US11146908B2 (en) 2019-10-24 2021-10-12 Sony Corporation Generating personalized end user head-related transfer function (HRTF) from generic HRTF
US11070930B2 (en) 2019-11-12 2021-07-20 Sony Corporation Generating personalized end user room-related transfer function (RRTF)
USD935485S1 (en) * 2020-06-18 2021-11-09 Apple Inc. Display screen or portion thereof with graphical user interface
USD960920S1 (en) * 2020-06-19 2022-08-16 Apple Inc. Display screen or portion thereof with graphical user interface
US20230222687A1 (en) * 2020-08-14 2023-07-13 VisiSonics Corporation Systems and methods for head related transfer function personalization
CN112328676A (zh) * 2020-11-27 2021-02-05 江汉大学 一种估计个性化头相关传输函数的方法及相关设备
CN113849767B (zh) * 2021-09-27 2022-08-16 中国科学院声学研究所 基于生理参数和人工头数据的个性化hrtf生成方法和系统
CN115412808B (zh) * 2022-09-05 2024-04-02 天津大学 基于个性化头相关传递函数的虚拟听觉重放方法及系统

Family Cites Families (39)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2843262B2 (ja) * 1994-09-16 1999-01-06 株式会社エイ・ティ・アール通信システム研究所 表情再現装置
US5748758A (en) 1996-01-25 1998-05-05 Menasco, Jr.; Lawrence C. Acoustic audio transducer with aerogel diaphragm
US6996244B1 (en) * 1998-08-06 2006-02-07 Vulcan Patents Llc Estimation of head-related transfer functions for spatial sound representative
US20030007648A1 (en) 2001-04-27 2003-01-09 Christopher Currell Virtual audio system and techniques
GB0419346D0 (en) 2004-09-01 2004-09-29 Smyth Stephen M F Method and apparatus for improved headphone virtualisation
CN101175343B (zh) * 2004-12-24 2010-04-21 松下电器产业株式会社 声像定位装置
US7756281B2 (en) 2006-05-20 2010-07-13 Personics Holdings Inc. Method of modifying audio content
US7555354B2 (en) 2006-10-20 2009-06-30 Creative Technology Ltd Method and apparatus for spatial reformatting of multi-channel audio content
US8078188B2 (en) 2007-01-16 2011-12-13 Qualcomm Incorporated User selectable audio mixing
CN101447053A (zh) * 2007-11-26 2009-06-03 谢亦玲 计算机眼镜佩戴装置
CN101847268B (zh) * 2010-04-29 2015-03-04 北京中星微电子有限公司 一种基于人脸图像的卡通人脸图形生成方法和装置
EP2405670B1 (en) 2010-07-08 2012-09-12 Harman Becker Automotive Systems GmbH Vehicle audio system with headrest incorporated loudspeakers
US20120183161A1 (en) * 2010-09-03 2012-07-19 Sony Ericsson Mobile Communications Ab Determining individualized head-related transfer functions
US9030545B2 (en) * 2011-12-30 2015-05-12 GNR Resound A/S Systems and methods for determining head related transfer functions
JP2013157747A (ja) * 2012-01-27 2013-08-15 Denso Corp 音場制御装置及びプログラム
US20150073262A1 (en) * 2012-04-02 2015-03-12 Phonak Ag Method for estimating the shape of an individual ear
US9826328B2 (en) 2012-08-31 2017-11-21 Dolby Laboratories Licensing Corporation System for rendering and playback of object based audio in various listening environments
CN104010265A (zh) 2013-02-22 2014-08-27 杜比实验室特许公司 音频空间渲染设备及方法
EP2869599B1 (en) 2013-11-05 2020-10-21 Oticon A/s A binaural hearing assistance system comprising a database of head related transfer functions
DE102014214143B4 (de) 2014-03-14 2015-12-31 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Vorrichtung und Verfahren zum Verarbeiten eines Signals im Frequenzbereich
US9900722B2 (en) 2014-04-29 2018-02-20 Microsoft Technology Licensing, Llc HRTF personalization based on anthropometric features
US9226090B1 (en) 2014-06-23 2015-12-29 Glen A. Norris Sound localization for an electronic call
CN107113524B (zh) * 2014-12-04 2020-01-03 高迪音频实验室公司 反映个人特性的双耳音频信号处理方法和设备
KR101627652B1 (ko) 2015-01-30 2016-06-07 가우디오디오랩 주식회사 바이노럴 렌더링을 위한 오디오 신호 처리 장치 및 방법
US9544706B1 (en) * 2015-03-23 2017-01-10 Amazon Technologies, Inc. Customized head-related transfer functions
JP6754619B2 (ja) * 2015-06-24 2020-09-16 三星電子株式会社Samsung Electronics Co.,Ltd. 顔認識方法及び装置
WO2017028961A1 (en) * 2015-08-14 2017-02-23 Thomson Licensing 3d reconstruction of a human ear from a point cloud
FR3040807B1 (fr) 2015-09-07 2022-10-14 3D Sound Labs Procede et systeme d'elaboration d'une fonction de transfert relative a la tete adaptee a un individu
JP6803916B2 (ja) 2015-10-26 2020-12-23 フラウンホーファー−ゲゼルシャフト・ツール・フェルデルング・デル・アンゲヴァンテン・フォルシュング・アインゲトラーゲネル・フェライン エレベーション・レンダリングを実現するフィルタリング済みオーディオ信号を生成する装置および方法
SG10201800147XA (en) 2018-01-05 2019-08-27 Creative Tech Ltd A system and a processing method for customizing audio experience
SG10201510822YA (en) 2015-12-31 2017-07-28 Creative Tech Ltd A method for generating a customized/personalized head related transfer function
US10805757B2 (en) * 2015-12-31 2020-10-13 Creative Technology Ltd Method for generating a customized/personalized head related transfer function
KR102642275B1 (ko) 2016-02-02 2024-02-28 디티에스, 인코포레이티드 증강 현실 헤드폰 환경 렌더링
FR3051951B1 (fr) 2016-05-27 2018-06-15 Mimi Hearing Technologies GmbH Procede d'elaboration d'un modele deformable en trois dimensions d'un element, et systeme associe
US9584946B1 (en) 2016-06-10 2017-02-28 Philip Scott Lyren Audio diarization system that segments audio input
US10327090B2 (en) 2016-09-13 2019-06-18 Lg Electronics Inc. Distance rendering method for audio signal and apparatus for outputting audio signal using same
US10187740B2 (en) 2016-09-23 2019-01-22 Apple Inc. Producing headphone driver signals in a digital audio signal processing binaural rendering environment
US10390171B2 (en) 2018-01-07 2019-08-20 Creative Technology Ltd Method for generating customized spatial audio with head tracking
US11503423B2 (en) 2018-10-25 2022-11-15 Creative Technology Ltd Systems and methods for modifying room characteristics for spatial audio rendering over headphones

Also Published As

Publication number Publication date
US11468663B2 (en) 2022-10-11
WO2017116308A1 (en) 2017-07-06
KR20180100180A (ko) 2018-09-07
US20200250466A1 (en) 2020-08-06
EP3398353B1 (en) 2021-08-18
HK1255064A1 (zh) 2019-08-02
US11804027B2 (en) 2023-10-31
CN108476358B (zh) 2021-12-28
PL3398353T3 (pl) 2021-12-06
SG10201510822YA (en) 2017-07-28
EP3398353A4 (en) 2019-07-03
EP3398353A1 (en) 2018-11-07
US20230050354A1 (en) 2023-02-16
JP2019506050A (ja) 2019-02-28
US20230386174A1 (en) 2023-11-30
US20180373957A1 (en) 2018-12-27
CN108476358A (zh) 2018-08-31
JP6636642B2 (ja) 2020-01-29
DK3398353T3 (da) 2021-11-01

Similar Documents

Publication Publication Date Title
ES2888916T3 (es) Un método para generar una función de transferencia relacionada con la cabeza adaptada/personalizada
US11601775B2 (en) Method for generating a customized/personalized head related transfer function
JP7442494B2 (ja) 光学式捕捉によるパーソナライズされたhrtf
US9495008B2 (en) Detecting a primary user of a device
US6996244B1 (en) Estimation of head-related transfer functions for spatial sound representative
CN108885690A (zh) 用于产生头相关传递函数滤波器的布置
CN106663338A (zh) 信息处理装置、信息处理方法和程序
JP2008535116A (ja) 3次元レンダリング用の方法及び装置
TW201337815A (zh) 電子試衣方法和電子試衣裝置
JP6642989B2 (ja) 制御装置、制御方法及びプログラム
JPWO2020075622A1 (ja) 情報処理装置、情報処理方法及び情報処理プログラム
CN115100276B (zh) 处理虚拟现实设备的画面图像的方法、装置及电子设备
US20160191903A1 (en) Three-dimensional image generation method and apparatus
JP2009104426A (ja) インタラクティブ看板システム
CN110991336A (zh) 一种基于感官替代的辅助感知方法和系统
US20200051325A1 (en) Method for producing a 3d scatter plot representing a 3d ear of an individual, and associated system
CN115077525A (zh) 基于辅助视觉眼镜的导航方法以及装置
CN111886882A (zh) 用于确定特定于收听者的头部相关传递函数的方法
Telcean Structure from Motion Methods for 3D Modeling of the Ear Canal
WO2002063568A1 (fr) Procede et systeme de creation de mouvements virtuels et coordonnes par enchainement de points de vue