ES2658043T3 - Redireccionamiento de una señal de imágenes tridimensionales - Google Patents

Redireccionamiento de una señal de imágenes tridimensionales Download PDF

Info

Publication number
ES2658043T3
ES2658043T3 ES14778062.1T ES14778062T ES2658043T3 ES 2658043 T3 ES2658043 T3 ES 2658043T3 ES 14778062 T ES14778062 T ES 14778062T ES 2658043 T3 ES2658043 T3 ES 2658043T3
Authority
ES
Spain
Prior art keywords
disparity
dimensional
mapping
data
range
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
ES14778062.1T
Other languages
English (en)
Inventor
Wilhelmus Hendrikus Alfonsus BRULS
Wiebe De Haan
Bart Kroon
Patrick Luc Els VANDEWALLE
Gopi Lakshminarayanan
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Koninklijke Philips NV
Dolby Laboratories Licensing Corp
Original Assignee
Koninklijke Philips NV
Dolby Laboratories Licensing Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Koninklijke Philips NV, Dolby Laboratories Licensing Corp filed Critical Koninklijke Philips NV
Application granted granted Critical
Publication of ES2658043T3 publication Critical patent/ES2658043T3/es
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/302Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/128Adjusting depth or disparity
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/398Synchronisation thereof; Control thereof

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Control Of Indicators Other Than Cathode Ray Tubes (AREA)

Abstract

Método para redireccionar datos de señales de vídeo tridimensionales para uso en un dispositivo (60) de despliegue tridimensional objetivo, comprendiendo el método: -recibir (401) la señal de vídeo tridimensional, comprendiendo la señal de vídeo tridimensional: -datos de vídeo tridimensionales adecuados para guiar un dispositivo de despliegue de observación múltiple, -datos de mapeo de disparidad de referencia, siendo indicativo los datos de mapeo de disparidad de referencia del mapeo de disparidad para los datos de vídeo tridimensionales para un dispositivo de despliegue tridimensional de referencia; -derivar (402) un mapeo de disparidad objetivo con base en el mapeo de disparidad de referencia y características del dispositivo de despliegue tridimensional de referencia y características correspondientes del dispositivo (60) de despliegue tridimensional objetivo -redireccionar (403) los datos de vídeo tridimensional utilizando los datos de mapeo de disparidad objetivo en unos datos de vídeo tridimensional objetivo en el que, con la condición de que el dispositivo (60) de despliegue tridimensional objetivo tenga un rango de disparidad mayor para dichos elementos salientes de despliegue que el dispositivo de despliegue tridimensional de referencia, la derivación (402) del mapeo de disparidad objetivo comprende una adición sopesada de los datos de mapeo de disparidad de referencia y un mapeo de disparidad lineal dentro del rango de disparidad más grande; y las características del dispositivo de despliegue tridimensional de referencia comprendan una: -curva de borrosidad-disparidad, -curva de nitidez-disparidad, -rango de borrosidad-disparidad, -rango de nitidez-disparidad, -un rango de capacidad de salida-disparidad, -datos de nitidez-disparidad indicativos de un rango de disparidad adecuado para desplegar imágenes tridimensionales con nitidez por encima de una métrica de nitidez predeterminada, y/o -datos de borrosidad-disparidad indicativos de un rango de disparidad adecuado para desplegar imágenes tridimensionales con borrosidad por debajo de una medición de borrosidad predeterminada.

Description

imagen1
imagen2
imagen3
imagen4
imagen5
imagen6
5
15
25
35
45
55
65
En el presente ejemplo la relación entre el rango de capacidad de salida del dispositivo de despliegue 3D objetivo y el dispositivo de despliegue 3D de referencia es un factor 2.
La Figura 3 ilustra cómo un mapeo de disparidad como se provee para el dispositivo de despliegue 3D de referencia puede ser potenciado utilizando la presente invención. La línea negra delgada en la Figura 3 representa el mapeo de disparidad de referencia tal como se recibe en combinación con datos de vídeo tridimensional en una señal de imagen tridimensional. Como puede verse a partir de la gráfica el mapeo de referencia es más bien plano; esto es, el rango completo de disparidad de entrada es mapeado sobre un rango de salida más bien estrecho. La figura también muestra una línea punteada delgada correspondiente a la curva de identidad.
Es una presunción de los inventores que cuando se remapea preferiblemente la linealidad del mapa de referencia debe conservarse tanto como sea posible. Sin embargo, si hay espacio disponible la curva debería ser acercada al mapeo ideal; esto es, hacia la curva de identidad.
Una manera particularmente ventajosa de hacer esto es derivar un factor de mejora basado en los rangos de disparidad de capacidad de salida de los dispositivos de despliegue de referencia y objetivo y utilizar este factor de mejora para llevar a cabo una adición sopesada del mapeo de disparidad de referencia y una aproximación lineal del mapeo de disparidad de referencia. Este factor de mejora se denomina como alfa.
alfa = Sobj/Sref
Para valores de alfa mayores de 1 se potencia preferiblemente el mapeo de disparidad de referencia como sigue:
beta = 1/alfa
objetivo_disparidad_mapeo(x) =
((1-beta)·referencia_disparidad_mapeo (x)) +
(beta· lineal_aproximación_referencia_disparidad_mapeo(X))
y en donde
referencia_disparidad_mapeo(x) corresponde al mapeo de disparidad de referencia para x y lineal_aproximación_ref_disparidad(x) corresponde al mapeo de disparidad lineal a través de los puntos (DMín, referencia_disparidad_mapeo (dmin)) y (dmax, referencia _disparidad_mapeo (DMax)).
La ventaja de esta manera de trabajar es que las disparidades de despliegue permanecen distribuidas simétricamente (verticalmente) para todo el rango de disparidad del contenido de entrada. Esto es importante porque la relación de borrosidad es simétrica para disparidades de despliegue positivas y negativas.
Para valores de alfa que son menores de uno, la mezcla debe manejarse de tal manera que la variación alrededor de la aproximación lineal subescalada lineal_aproximación_ref_disparidad(x) debería permanecer simétrica.
Alternativamente, la mezcla puede llevarse a cabo con una curva de disparidad de despliegue cero, en otras palabras el mapeo de disparidad objetivo es adaptado en dirección vertical, escalando mediante la utilización de alfa.
De manera notable son posibles mejoras adicionales derivando una curva suave; por ejemplo, el dispositivo objetivo podría derivar una curva continua suave a partir del mapeo de disparidad resultante aplicando curvas de Hermite cúbicas utilizando una diferencia de tres puntos para puntos internos y una diferencia de un lado en los puntos extremos y conservando la motonicidad aplicando el método de Fritch-Carlson.
Adicionalmente se nota que la detección de capacidad de salida en vídeo ha recibido atención considerable y se conoce un amplio rango de mecanismos de detección de capacidad de salida eficientes. En busca de la completitud se provee una referencia a "Salient Object Detection: A Benchmark, by Ali Borji et al", la cual ha sido descargada de http://ilab.usc.edu/-borji/papers/paperBorji.pdf comprendiendo este documento una comparación de 35 modelos de detección de capacidad de salida, del estado del arte.
La Figura 4 muestra un diagrama de flujo simplificado de un método para redireccionar datos de señales de vídeo tridimensionales para uso en un dispositivo de despliegue tridimensional objetivo. El método comprende una etapa 401 en la cual se recibe la señal de vídeo tridimensional, comprendiendo la señal de vídeo tridimensional: datos de vídeo tridimensionales adecuados para guiar un dispositivo de despliegue de visión múltiple y datos de mapeo de disparidad de referencia. Los datos de mapeo de disparidad de referencia son indicativos de un mapeo de disparidad para los datos de vídeo tridimensionales para un dispositivo de despliegue tridimensional de referencia. El método comprende adicionalmente la etapa 402 de derivar un mapeo de disparidad objetivo basado en el mapeo de
imagen7
características 102 del dispositivo de despliegue tridimensional de referencia en caso de que se use el generador para generar contenido para un tipo particular de dispositivos de despliegue. Alternativamente estas características 102' pueden originarse a partir de una fuente externa.
5 El sistema 110 comprende adicionalmente un primer generador 140 dispuesto para generar datos 104 de mapeo de disparidad de referencia, siendo indicativos los datos 104 de mapeo de disparidad de referencia del mapeo de disparidad para los datos 105 de vídeo tridimensionales para un dispositivo de despliegue tridimensional de referencia. El primer generador 140 está dispuesto para recibir las características 103 según sean transmitidas por la unidad 130 de adquisición así como los datos 105 de vídeo tridimensional según sean recibidos por el receptor 120.
10 El sistema 110 comprende adicionalmente un segundo generador 150 dispuesto para generar la señal 74 de vídeo tridimensional, en el que la generación de la señal 74 de vídeo tridimensional comprende combinar los datos 105 de vídeo tridimensional y los datos 104 de mapeo de disparidad de referencia tal como son recibidos desde el primer generador.
15
Codificación de metadatos para señales de imágenes de vídeo
Cuando se genera una señal de imágenes de vídeo, es posible codificar información adicional en los así llamados mensajes SEI. Los mensajes SEI pueden ser agregados por ejemplo a AVC basados en secuencias de vídeo
20 (ISO/IEC 14496-10:2012 -tecnología de información -codificación de objetos audiovisuales -parte 2 10: Codificación de Vídeo Avanzada) o HEVC (ISO/IEC 23008-2:201x/FDIS -tecnología de información – codificación de alta eficiencia y entrega de medios 13 en ambientes heterogéneos -parte 2: alta codificación de vídeo de alta eficiencia). Tales metadatos pueden ser utilizados para proveer datos adicionales para redireccionar la señal de imágenes de vídeo. También puede disponerse la transmisión de elementos de metadatos a través de enlaces de
25 interconexión de dispositivos (tales como en HDMI).
Preferiblemente los metadatos están comprendidos en mensajes SEI no registrados del usuario. Más preferiblemente estos mensajes SEI están incluidos en corrientes elementales que contienen la profundidad o la información de disparidad que se provee junto con los datos de vídeo tridimensionales.
30 Dependiendo de la manera de transporte la profundidad puede ser transmitida en una corriente elemental sencilla con disparidad de vídeo y profundidad o alternativamente como una corriente elemental de disparidad/profundidad separada dependiendo de la forma preferida de transporte.
35 A continuación se provee un ejemplo de la sintaxis de un contenedor de mensajes de metadatos SEI.
Tabla 1, sintaxis de contenedor de mensajes de metadatos SEI.
usuario_datos_no registrado(TamañoCarga) {
C Descriptor
uuid_xxxx
5 u(128)
metadatos_tipo
5 u(8)
TamañoMetadatos = TamañoCarga -17
imagen8 imagen9
si(metadatos_tipo = = 0)
imagen10 imagen11
profundidad_procesamiento_información(TamañoMetadatos)
imagen12 imagen13
más si(metadatos_tipo = = 1)
imagen14 imagen15
observación_conversión_asistir_información(TamañoMetadatos)
imagen16 imagen17
más
imagen18 imagen19
para(i = 0; i < TamañoMetadatos; i++)
imagen20 imagen21
imagen22
Para estos despliegues la degradación de resolución horizontal como función de la disparidad puede ser caracterizada por un parámetro alfa sencillo. Se requiere que los valores alfa de los despliegues sean determinados por el fabricante de acuerdo con un método estandarizado.
5 El valor alfa del despliegue de referencia que fue utilizado para determinar la curva está incluido con los metadatos. El dispositivo de despliegue objetivo aplica la curva y escalas a los valores de salida en una forma lineal, dependiendo de la relación entre el alfa del despliegue de referencia y el despliegue objetivo. Como resultado la degradación de nitidez sobre el dispositivo objetivo recuerda más o menos la del dispositivo de referencia.
10 Puesto que el escalado de disparidad es lineal, cualquier curva aplicada a las disparidades originales por el autor del contenido, que es cualquier mapeado aplicado en el estudio que representa el propósito artístico, no es afectada.
Un ejemplo de la sintaxis de la codificación de una curva de borrosidad se provee en tabla 2 a continuación.
15 Tabla 2, sintaxis de información de procesamiento de profundidad
profundidad_procesamiento_información(TamañoMetadatos) {
C Descriptor
···
imagen23 imagen24
profundidad_codificación_formato
5 u(4)
···
imagen25 imagen26
profundidad_fuente_tipo
5 u(4)
···
imagen27 imagen28
profundidad_representación
5 u(4)
···
imagen29 imagen30
d_min
5 i(12)
d_max
5 i(12)
···
imagen31 imagen32
remapeo_tipo
5 u(4)
núm_curva_nodos
5 u(4)
para(j = 0; j < num_curva_nodos; j++) {
imagen33 imagen34
i = i + 3
imagen35 imagen36
disparidad_dentro[j]
5 i(12)
curva_fuera[j]
5 i(12)
}
imagen37 imagen38
imagen39
5
10
15
20
25
30
35
40
45
50
El dispositivo objetivo debería derivar una curva continua suave desde los nodos aplicando las curvas Hermite cúbicas utilizando una diferencia de tres puntos para puntos internos y una diferencia de un lado en los puntos extremos y preservar la monotonocidad aplicando el método de Fritch-Carlson.
Aunque la presente invención ha sido descrita con referencia a una señal de imágenes tridimensionales, en las que la entrada de profundidad y/o disparidad fue provista explícitamente, se anota que la presente invención puede ser utilizada también para redireccionar la estereoscopía de contenido de visión múltiple en la ausencia de datos de profundidad o disparidad, con la condición de que haya disponibilidad de mapeo de disparidad de referencia y características de la referencia y dispositivo de despliegue 3D objetivo.
En el caso de que se carezca de datos de profundidad o disparidad, los datos de profundidad o disparidad pueden ser estimados con base en el contenido estéreo y/o de visión múltiple y una o más observaciones nuevas teniendo en cuenta la disparidad remapeada que puede ser obtenida utilizando técnicas de generación basadas en imágenes, bien conocidas.
En resumen la presente invención puede ser utilizada para mapear datos de profundidad y/o disparidad sobre datos de disparidad de salida o despliegue de manera ventajosa. La presente invención es particularmente útil para dispositivos de despliegue autoestereoscópicos de visión múltiple como los que típicamente tienen un rango de disparidad más limitado que pueda ser utilizado.
La invención puede ser implementada de cualquier manera adecuada incluyendo hardware, software, firmware o cualquier combinación de éstos. La invención puede ser implementada opcionalmente al menos de forma parcial como un software de ordenador que corre sobre uno o más procesadores de datos y/o procesadores de señales digitales. Los elementos y componentes de una realización de la invención pueden ser implementados física, funcional e informáticamente en cualquier forma adecuada. En efecto la funcionalidad puede ser implementada en una unidad sencilla, en una pluralidad de unidades o como parte de otras unidades funcionales. Como tal, la invención puede ser implementada en una unidad individual o puede ser distribuida física y funcionalmente entre unidades, circuitos y procesadores diferentes.
Aunque la presente invención ha sido descrita en relación con algunas realizaciones, no está prevista para ser limitada a la forma específica establecida aquí. Por el contrario, el alcance de la presente invención está limitado solamente por las reivindicaciones acompañantes. Adicionalmente, aunque puede parecer que una característica esté descrita en relación con realizaciones particulares, una persona experimentada en la técnica reconocerá que diversas características de las realizaciones descritas pueden ser combinadas de acuerdo con la invención. En las reivindicaciones, el término “que comprende” no excluye la presencia de otros elementos o etapas.
Adicionalmente, aunque se listen individualmente, puede implementarse una pluralidad de medios, elementos, circuitos o etapas de método mediante un circuito, unidad o procesador individual. Adicionalmente, aunque pueden incluirse características individuales en diferentes reivindicaciones, pueden ser posiblemente combinadas de manera ventajosa, y la inclusión en diferentes reivindicaciones no implica que una combinación de características no sea factible y/o ventajosa. También la inclusión de una característica en una categoría de reivindicaciones no implica una limitación de esta categoría sino más bien indica que la característica es igualmente aplicable a otras categorías de reivindicaciones según sea apropiado. Además, el orden de características en las reivindicaciones no implica ningún orden específico en el cual las características deban ser trabajadas y en particular el orden de etapas individuales en una reivindicación de método no implica que las etapas deban ejecutarse en este orden. Por el contrario, las etapas pueden ejecutarse en cualquier orden adecuado. Además, referencias singulares no excluyen una pluralidad. Así referencias a "un", "una", "primero", "segundo", etc., no excluye una pluralidad. Los signos de referencia en las reivindicaciones se proveen únicamente como un ejemplo de clarificación no se debería ser considerado como limitante del alcance de las reivindicaciones de manera alguna.

Claims (1)

  1. imagen1
    imagen2
    imagen3
ES14778062.1T 2013-04-05 2014-04-04 Redireccionamiento de una señal de imágenes tridimensionales Active ES2658043T3 (es)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
EP13162505 2013-04-05
EP13162505 2013-04-05
PCT/US2014/032955 WO2014165744A1 (en) 2013-04-05 2014-04-04 Re-targeting a three-dimensional image signal

Publications (1)

Publication Number Publication Date
ES2658043T3 true ES2658043T3 (es) 2018-03-08

Family

ID=48044688

Family Applications (1)

Application Number Title Priority Date Filing Date
ES14778062.1T Active ES2658043T3 (es) 2013-04-05 2014-04-04 Redireccionamiento de una señal de imágenes tridimensionales

Country Status (11)

Country Link
US (1) US20160029012A1 (es)
EP (1) EP2982107B1 (es)
JP (1) JP2016521488A (es)
CN (1) CN105230011B (es)
BR (1) BR112015025077A2 (es)
ES (1) ES2658043T3 (es)
MX (1) MX355960B (es)
PL (1) PL2982107T3 (es)
RU (1) RU2015147002A (es)
WO (1) WO2014165744A1 (es)
ZA (1) ZA201508150B (es)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105376553B (zh) * 2015-11-24 2017-03-08 宁波大学 一种三维视频重定位方法
CN106447702B (zh) * 2016-08-31 2019-05-31 天津大学 一种立体图像匹配图计算方法
EP3416381A1 (en) * 2017-06-12 2018-12-19 Thomson Licensing Method and apparatus for providing information to a user observing a multi view content
US20200314411A1 (en) * 2019-03-29 2020-10-01 Alibaba Group Holding Limited Synchronizing an illumination sequence of illumination sources with image capture in rolling shutter mode

Family Cites Families (37)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3480946A (en) * 1966-03-31 1969-11-25 Litton Precision Prod Inc Successive approximation rotary angle to digital converter
US4397317A (en) * 1980-04-17 1983-08-09 Villa Real Antony Euclid C Electronic blood pressure and pulse rate calculator with optional temperature indicator, timer and memory
JPH08106660A (ja) * 1994-10-05 1996-04-23 Canon Inc 光磁気記録媒体及び該媒体を用いた情報再生方法
US6635030B1 (en) * 1999-04-09 2003-10-21 B.H.B. Llc Contrast injector for injecting a contrast medium to generate prolonged uniform vascular enhancement
US6055985A (en) * 1999-04-09 2000-05-02 B.H.B., L.C. Methods for injecting a contrast medium to generate prolonged uniform vascular enhancement
US6504141B1 (en) * 2000-09-29 2003-01-07 Rockwell Science Center, Llc Adaptive amplifier circuit with enhanced dynamic range
US6873359B1 (en) * 2000-09-29 2005-03-29 Rockwell Science Center, Llc. Self-adjusting, adaptive, minimal noise input amplifier circuit
US6911995B2 (en) * 2001-08-17 2005-06-28 Mitsubishi Electric Research Labs, Inc. Computer vision depth segmentation using virtual surface
US7097311B2 (en) * 2003-04-19 2006-08-29 University Of Kentucky Research Foundation Super-resolution overlay in multi-projector displays
US20040223640A1 (en) * 2003-05-09 2004-11-11 Bovyrin Alexander V. Stereo matching using segmentation of image columns
US8094927B2 (en) * 2004-02-27 2012-01-10 Eastman Kodak Company Stereoscopic display system with flexible rendering of disparity map according to the stereoscopic fusing capability of the observer
JP4341564B2 (ja) * 2005-02-25 2009-10-07 株式会社豊田中央研究所 対象物判定装置
JP4605715B2 (ja) * 2006-06-14 2011-01-05 Kddi株式会社 多視点画像圧縮符号化方法、装置及びプログラム
WO2008079301A2 (en) * 2006-12-21 2008-07-03 Massachusetts Institute Of Technology Methods and apparatus for 3d surface imaging using active wave-front sampling
US8593506B2 (en) * 2007-03-15 2013-11-26 Yissum Research Development Company Of The Hebrew University Of Jerusalem Method and system for forming a panoramic image of a scene having minimal aspect distortion
KR20100102153A (ko) * 2007-12-14 2010-09-20 코닌클리케 필립스 일렉트로닉스 엔.브이. 비디오 재생을 위한 3d 모드 선택 메커니즘
MY155378A (en) * 2008-07-24 2015-10-15 Koninkl Philips Electronics Nv Versatile 3-d picture format
JP2010078883A (ja) * 2008-09-25 2010-04-08 Toshiba Corp 立体映像表示装置及び立体映像表示方法
JP5575778B2 (ja) * 2008-10-10 2014-08-20 コーニンクレッカ フィリップス エヌ ヴェ 信号に含まれる視差情報を処理する方法
EP2197217A1 (en) * 2008-12-15 2010-06-16 Koninklijke Philips Electronics N.V. Image based 3D video format
DE102009012441B4 (de) * 2009-03-12 2010-12-09 Deutsches Zentrum für Luft- und Raumfahrt e.V. Verfahren zur Reduktion des Speicherbedarfs bei der Bestimmung von Disparitätswerten für mindestens zwei stereoskopisch aufgenommene Bilder
WO2011013030A1 (en) * 2009-07-27 2011-02-03 Koninklijke Philips Electronics N.V. Combining 3d video and auxiliary data
US20120206453A1 (en) * 2009-09-16 2012-08-16 Koninklijke Philips Electronics N.V. 3d screen size compensation
US9445072B2 (en) * 2009-11-11 2016-09-13 Disney Enterprises, Inc. Synthesizing views based on image domain warping
US8711204B2 (en) * 2009-11-11 2014-04-29 Disney Enterprises, Inc. Stereoscopic editing for video production, post-production and display adaptation
WO2011081646A1 (en) * 2009-12-15 2011-07-07 Thomson Licensing Stereo-image quality and disparity/depth indications
US8760498B2 (en) * 2011-03-14 2014-06-24 Sony Corporation Disparity data transport in standard caption service
US8730301B2 (en) * 2010-03-12 2014-05-20 Sony Corporation Service linkage to caption disparity data transport
US9035939B2 (en) * 2010-10-04 2015-05-19 Qualcomm Incorporated 3D video control system to adjust 3D video rendering based on user preferences
US8149268B1 (en) * 2010-11-05 2012-04-03 The United States Of America As Represented By The Secretary Of The Army System and method for determining three-dimensional information from two-dimensional images
JP5242667B2 (ja) * 2010-12-22 2013-07-24 株式会社東芝 マップ変換方法、マップ変換装置及びマップ変換プログラム
US20120200670A1 (en) * 2011-02-04 2012-08-09 Nokia Corporation Method and apparatus for a disparity limit indicator
CN103636200A (zh) * 2011-06-20 2014-03-12 松下电器产业株式会社 多视点图像生成装置、多视点图像生成方法
US10491915B2 (en) * 2011-07-05 2019-11-26 Texas Instruments Incorporated Method, system and computer program product for encoding disparities between views of a stereoscopic image
CN102256152B (zh) * 2011-07-15 2014-06-04 深圳超多维光电子有限公司 一种立体图像处理设备及方法
US20130050187A1 (en) * 2011-08-31 2013-02-28 Zoltan KORCSOK Method and Apparatus for Generating Multiple Image Views for a Multiview Autosteroscopic Display Device
US8982187B2 (en) * 2011-09-19 2015-03-17 Himax Technologies Limited System and method of rendering stereoscopic images

Also Published As

Publication number Publication date
CN105230011A (zh) 2016-01-06
EP2982107B1 (en) 2017-11-22
EP2982107A4 (en) 2016-04-13
MX2015013890A (es) 2016-08-11
RU2015147002A3 (es) 2018-03-19
CN105230011B (zh) 2018-05-22
MX355960B (es) 2018-05-07
ZA201508150B (en) 2017-08-30
EP2982107A1 (en) 2016-02-10
RU2015147002A (ru) 2017-05-12
BR112015025077A2 (pt) 2017-07-18
PL2982107T3 (pl) 2018-06-29
JP2016521488A (ja) 2016-07-21
WO2014165744A1 (en) 2014-10-09
US20160029012A1 (en) 2016-01-28

Similar Documents

Publication Publication Date Title
ES2658043T3 (es) Redireccionamiento de una señal de imágenes tridimensionales
ES2966479T3 (es) Un codificador, un decodificador y métodos correspondientes para la intrapredicción
ES2842109T3 (es) Predicción residual avanzada basada en bloques para la codificación de vídeo 3D
US9171373B2 (en) System of image stereo matching
US20110298898A1 (en) Three dimensional image generating system and method accomodating multi-view imaging
WO2020001565A1 (zh) 点云编解码方法和编解码器
ES2745282T3 (es) Extensión del patrón de minicuñas para la intracodificación de profundidad
JP5665135B2 (ja) 画像表示装置、画像生成装置、画像表示方法、画像生成方法、及びプログラム
BR112016006574B1 (pt) Predição de vetor de movimento temporal com base em unidade de subpredição (pu) em hevc e projeto de sub-pu em 3d-hevc
KR20130055002A (ko) 줌 카메라 이미지 블렌딩 기술
BR112016006607B1 (pt) Método e dispositivo para processamento de dados de vídeo, e memória legível por computador
BR112012024955B1 (pt) Método, aparelho e mídia legível por processador para mapas de disparidade 3d
RU2640357C2 (ru) Способ кодирования сигнала видеоданных для использования с мультивидовым стереоскопическим устройством отображения
BR112020027043A2 (pt) Método e decodificador para interpredição
BR112021003741A2 (pt) codificador, decodificador e métodos correspondentes usando uma codificação de paleta
US11818323B2 (en) Image generation system, method for generating a virtual viewpoint image, and storage medium
ES2874073T3 (es) Flujo de transporte para el transporte de extensiones de codificación de vídeo
BR112021005557A2 (pt) método de codificação de dados tridimensionais, método de decodificação de dados tridimensionais, dispositivo de codificação de dados tridimensionais e dispositivo de decodificação de dados tridimensionais
GB2534061A (en) Multi-view high dynamic range imaging
EA201190195A1 (ru) Система и формат для кодирования данных и трехмерного рендеринга
US20150016517A1 (en) Encoding device and encoding method, and decoding device and decoding method
MX2015015343A (es) Obtencion de imagenes de medios tonos multiples y proyeccion de modulacion dual/ proyeccion laser de modulacion dual.
BR112021003946A2 (pt) codificador de vídeo, decodificador de vídeo e métodos correspondentes
BR112020024331A2 (pt) decodificador, e métodos correspondentes que são usados para processo de transformada
KR20190059829A (ko) 입체 스마트 디바이스용 입체 앱 콘텐츠 제작 방법 및 장치