ES2658043T3 - Redireccionamiento de una señal de imágenes tridimensionales - Google Patents
Redireccionamiento de una señal de imágenes tridimensionales Download PDFInfo
- Publication number
- ES2658043T3 ES2658043T3 ES14778062.1T ES14778062T ES2658043T3 ES 2658043 T3 ES2658043 T3 ES 2658043T3 ES 14778062 T ES14778062 T ES 14778062T ES 2658043 T3 ES2658043 T3 ES 2658043T3
- Authority
- ES
- Spain
- Prior art keywords
- disparity
- dimensional
- mapping
- data
- range
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/302—Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/128—Adjusting depth or disparity
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/398—Synchronisation thereof; Control thereof
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
- Control Of Indicators Other Than Cathode Ray Tubes (AREA)
Abstract
Método para redireccionar datos de señales de vídeo tridimensionales para uso en un dispositivo (60) de despliegue tridimensional objetivo, comprendiendo el método: -recibir (401) la señal de vídeo tridimensional, comprendiendo la señal de vídeo tridimensional: -datos de vídeo tridimensionales adecuados para guiar un dispositivo de despliegue de observación múltiple, -datos de mapeo de disparidad de referencia, siendo indicativo los datos de mapeo de disparidad de referencia del mapeo de disparidad para los datos de vídeo tridimensionales para un dispositivo de despliegue tridimensional de referencia; -derivar (402) un mapeo de disparidad objetivo con base en el mapeo de disparidad de referencia y características del dispositivo de despliegue tridimensional de referencia y características correspondientes del dispositivo (60) de despliegue tridimensional objetivo -redireccionar (403) los datos de vídeo tridimensional utilizando los datos de mapeo de disparidad objetivo en unos datos de vídeo tridimensional objetivo en el que, con la condición de que el dispositivo (60) de despliegue tridimensional objetivo tenga un rango de disparidad mayor para dichos elementos salientes de despliegue que el dispositivo de despliegue tridimensional de referencia, la derivación (402) del mapeo de disparidad objetivo comprende una adición sopesada de los datos de mapeo de disparidad de referencia y un mapeo de disparidad lineal dentro del rango de disparidad más grande; y las características del dispositivo de despliegue tridimensional de referencia comprendan una: -curva de borrosidad-disparidad, -curva de nitidez-disparidad, -rango de borrosidad-disparidad, -rango de nitidez-disparidad, -un rango de capacidad de salida-disparidad, -datos de nitidez-disparidad indicativos de un rango de disparidad adecuado para desplegar imágenes tridimensionales con nitidez por encima de una métrica de nitidez predeterminada, y/o -datos de borrosidad-disparidad indicativos de un rango de disparidad adecuado para desplegar imágenes tridimensionales con borrosidad por debajo de una medición de borrosidad predeterminada.
Description
5
15
25
35
45
55
65
En el presente ejemplo la relación entre el rango de capacidad de salida del dispositivo de despliegue 3D objetivo y el dispositivo de despliegue 3D de referencia es un factor 2.
La Figura 3 ilustra cómo un mapeo de disparidad como se provee para el dispositivo de despliegue 3D de referencia puede ser potenciado utilizando la presente invención. La línea negra delgada en la Figura 3 representa el mapeo de disparidad de referencia tal como se recibe en combinación con datos de vídeo tridimensional en una señal de imagen tridimensional. Como puede verse a partir de la gráfica el mapeo de referencia es más bien plano; esto es, el rango completo de disparidad de entrada es mapeado sobre un rango de salida más bien estrecho. La figura también muestra una línea punteada delgada correspondiente a la curva de identidad.
Es una presunción de los inventores que cuando se remapea preferiblemente la linealidad del mapa de referencia debe conservarse tanto como sea posible. Sin embargo, si hay espacio disponible la curva debería ser acercada al mapeo ideal; esto es, hacia la curva de identidad.
Una manera particularmente ventajosa de hacer esto es derivar un factor de mejora basado en los rangos de disparidad de capacidad de salida de los dispositivos de despliegue de referencia y objetivo y utilizar este factor de mejora para llevar a cabo una adición sopesada del mapeo de disparidad de referencia y una aproximación lineal del mapeo de disparidad de referencia. Este factor de mejora se denomina como alfa.
alfa = Sobj/Sref
Para valores de alfa mayores de 1 se potencia preferiblemente el mapeo de disparidad de referencia como sigue:
beta = 1/alfa
objetivo_disparidad_mapeo(x) =
((1-beta)·referencia_disparidad_mapeo (x)) +
(beta· lineal_aproximación_referencia_disparidad_mapeo(X))
y en donde
referencia_disparidad_mapeo(x) corresponde al mapeo de disparidad de referencia para x y lineal_aproximación_ref_disparidad(x) corresponde al mapeo de disparidad lineal a través de los puntos (DMín, referencia_disparidad_mapeo (dmin)) y (dmax, referencia _disparidad_mapeo (DMax)).
La ventaja de esta manera de trabajar es que las disparidades de despliegue permanecen distribuidas simétricamente (verticalmente) para todo el rango de disparidad del contenido de entrada. Esto es importante porque la relación de borrosidad es simétrica para disparidades de despliegue positivas y negativas.
Para valores de alfa que son menores de uno, la mezcla debe manejarse de tal manera que la variación alrededor de la aproximación lineal subescalada lineal_aproximación_ref_disparidad(x) debería permanecer simétrica.
Alternativamente, la mezcla puede llevarse a cabo con una curva de disparidad de despliegue cero, en otras palabras el mapeo de disparidad objetivo es adaptado en dirección vertical, escalando mediante la utilización de alfa.
De manera notable son posibles mejoras adicionales derivando una curva suave; por ejemplo, el dispositivo objetivo podría derivar una curva continua suave a partir del mapeo de disparidad resultante aplicando curvas de Hermite cúbicas utilizando una diferencia de tres puntos para puntos internos y una diferencia de un lado en los puntos extremos y conservando la motonicidad aplicando el método de Fritch-Carlson.
Adicionalmente se nota que la detección de capacidad de salida en vídeo ha recibido atención considerable y se conoce un amplio rango de mecanismos de detección de capacidad de salida eficientes. En busca de la completitud se provee una referencia a "Salient Object Detection: A Benchmark, by Ali Borji et al", la cual ha sido descargada de http://ilab.usc.edu/-borji/papers/paperBorji.pdf comprendiendo este documento una comparación de 35 modelos de detección de capacidad de salida, del estado del arte.
La Figura 4 muestra un diagrama de flujo simplificado de un método para redireccionar datos de señales de vídeo tridimensionales para uso en un dispositivo de despliegue tridimensional objetivo. El método comprende una etapa 401 en la cual se recibe la señal de vídeo tridimensional, comprendiendo la señal de vídeo tridimensional: datos de vídeo tridimensionales adecuados para guiar un dispositivo de despliegue de visión múltiple y datos de mapeo de disparidad de referencia. Los datos de mapeo de disparidad de referencia son indicativos de un mapeo de disparidad para los datos de vídeo tridimensionales para un dispositivo de despliegue tridimensional de referencia. El método comprende adicionalmente la etapa 402 de derivar un mapeo de disparidad objetivo basado en el mapeo de
características 102 del dispositivo de despliegue tridimensional de referencia en caso de que se use el generador para generar contenido para un tipo particular de dispositivos de despliegue. Alternativamente estas características 102' pueden originarse a partir de una fuente externa.
5 El sistema 110 comprende adicionalmente un primer generador 140 dispuesto para generar datos 104 de mapeo de disparidad de referencia, siendo indicativos los datos 104 de mapeo de disparidad de referencia del mapeo de disparidad para los datos 105 de vídeo tridimensionales para un dispositivo de despliegue tridimensional de referencia. El primer generador 140 está dispuesto para recibir las características 103 según sean transmitidas por la unidad 130 de adquisición así como los datos 105 de vídeo tridimensional según sean recibidos por el receptor 120.
10 El sistema 110 comprende adicionalmente un segundo generador 150 dispuesto para generar la señal 74 de vídeo tridimensional, en el que la generación de la señal 74 de vídeo tridimensional comprende combinar los datos 105 de vídeo tridimensional y los datos 104 de mapeo de disparidad de referencia tal como son recibidos desde el primer generador.
15
Codificación de metadatos para señales de imágenes de vídeo
Cuando se genera una señal de imágenes de vídeo, es posible codificar información adicional en los así llamados mensajes SEI. Los mensajes SEI pueden ser agregados por ejemplo a AVC basados en secuencias de vídeo
20 (ISO/IEC 14496-10:2012 -tecnología de información -codificación de objetos audiovisuales -parte 2 10: Codificación de Vídeo Avanzada) o HEVC (ISO/IEC 23008-2:201x/FDIS -tecnología de información – codificación de alta eficiencia y entrega de medios 13 en ambientes heterogéneos -parte 2: alta codificación de vídeo de alta eficiencia). Tales metadatos pueden ser utilizados para proveer datos adicionales para redireccionar la señal de imágenes de vídeo. También puede disponerse la transmisión de elementos de metadatos a través de enlaces de
25 interconexión de dispositivos (tales como en HDMI).
Preferiblemente los metadatos están comprendidos en mensajes SEI no registrados del usuario. Más preferiblemente estos mensajes SEI están incluidos en corrientes elementales que contienen la profundidad o la información de disparidad que se provee junto con los datos de vídeo tridimensionales.
30 Dependiendo de la manera de transporte la profundidad puede ser transmitida en una corriente elemental sencilla con disparidad de vídeo y profundidad o alternativamente como una corriente elemental de disparidad/profundidad separada dependiendo de la forma preferida de transporte.
35 A continuación se provee un ejemplo de la sintaxis de un contenedor de mensajes de metadatos SEI.
Tabla 1, sintaxis de contenedor de mensajes de metadatos SEI.
- usuario_datos_no registrado(TamañoCarga) {
- C Descriptor
- uuid_xxxx
- 5 u(128)
- metadatos_tipo
- 5 u(8)
- TamañoMetadatos = TamañoCarga -17
-
imagen8 imagen9
- si(metadatos_tipo = = 0)
-
imagen10 imagen11
- profundidad_procesamiento_información(TamañoMetadatos)
-
imagen12 imagen13
- más si(metadatos_tipo = = 1)
-
imagen14 imagen15
- observación_conversión_asistir_información(TamañoMetadatos)
-
imagen16 imagen17
- más
-
imagen18 imagen19
- para(i = 0; i < TamañoMetadatos; i++)
-
imagen20 imagen21
Para estos despliegues la degradación de resolución horizontal como función de la disparidad puede ser caracterizada por un parámetro alfa sencillo. Se requiere que los valores alfa de los despliegues sean determinados por el fabricante de acuerdo con un método estandarizado.
5 El valor alfa del despliegue de referencia que fue utilizado para determinar la curva está incluido con los metadatos. El dispositivo de despliegue objetivo aplica la curva y escalas a los valores de salida en una forma lineal, dependiendo de la relación entre el alfa del despliegue de referencia y el despliegue objetivo. Como resultado la degradación de nitidez sobre el dispositivo objetivo recuerda más o menos la del dispositivo de referencia.
10 Puesto que el escalado de disparidad es lineal, cualquier curva aplicada a las disparidades originales por el autor del contenido, que es cualquier mapeado aplicado en el estudio que representa el propósito artístico, no es afectada.
Un ejemplo de la sintaxis de la codificación de una curva de borrosidad se provee en tabla 2 a continuación.
15 Tabla 2, sintaxis de información de procesamiento de profundidad
- profundidad_procesamiento_información(TamañoMetadatos) {
- C Descriptor
- ···
-
imagen23 imagen24
- profundidad_codificación_formato
- 5 u(4)
- ···
-
imagen25 imagen26
- profundidad_fuente_tipo
- 5 u(4)
- ···
-
imagen27 imagen28
- profundidad_representación
- 5 u(4)
- ···
-
imagen29 imagen30
- d_min
- 5 i(12)
- d_max
- 5 i(12)
- ···
-
imagen31 imagen32
- remapeo_tipo
- 5 u(4)
- núm_curva_nodos
- 5 u(4)
- para(j = 0; j < num_curva_nodos; j++) {
-
imagen33 imagen34
- i = i + 3
-
imagen35 imagen36
- disparidad_dentro[j]
- 5 i(12)
- curva_fuera[j]
- 5 i(12)
- }
-
imagen37 imagen38
5
10
15
20
25
30
35
40
45
50
El dispositivo objetivo debería derivar una curva continua suave desde los nodos aplicando las curvas Hermite cúbicas utilizando una diferencia de tres puntos para puntos internos y una diferencia de un lado en los puntos extremos y preservar la monotonocidad aplicando el método de Fritch-Carlson.
Aunque la presente invención ha sido descrita con referencia a una señal de imágenes tridimensionales, en las que la entrada de profundidad y/o disparidad fue provista explícitamente, se anota que la presente invención puede ser utilizada también para redireccionar la estereoscopía de contenido de visión múltiple en la ausencia de datos de profundidad o disparidad, con la condición de que haya disponibilidad de mapeo de disparidad de referencia y características de la referencia y dispositivo de despliegue 3D objetivo.
En el caso de que se carezca de datos de profundidad o disparidad, los datos de profundidad o disparidad pueden ser estimados con base en el contenido estéreo y/o de visión múltiple y una o más observaciones nuevas teniendo en cuenta la disparidad remapeada que puede ser obtenida utilizando técnicas de generación basadas en imágenes, bien conocidas.
En resumen la presente invención puede ser utilizada para mapear datos de profundidad y/o disparidad sobre datos de disparidad de salida o despliegue de manera ventajosa. La presente invención es particularmente útil para dispositivos de despliegue autoestereoscópicos de visión múltiple como los que típicamente tienen un rango de disparidad más limitado que pueda ser utilizado.
La invención puede ser implementada de cualquier manera adecuada incluyendo hardware, software, firmware o cualquier combinación de éstos. La invención puede ser implementada opcionalmente al menos de forma parcial como un software de ordenador que corre sobre uno o más procesadores de datos y/o procesadores de señales digitales. Los elementos y componentes de una realización de la invención pueden ser implementados física, funcional e informáticamente en cualquier forma adecuada. En efecto la funcionalidad puede ser implementada en una unidad sencilla, en una pluralidad de unidades o como parte de otras unidades funcionales. Como tal, la invención puede ser implementada en una unidad individual o puede ser distribuida física y funcionalmente entre unidades, circuitos y procesadores diferentes.
Aunque la presente invención ha sido descrita en relación con algunas realizaciones, no está prevista para ser limitada a la forma específica establecida aquí. Por el contrario, el alcance de la presente invención está limitado solamente por las reivindicaciones acompañantes. Adicionalmente, aunque puede parecer que una característica esté descrita en relación con realizaciones particulares, una persona experimentada en la técnica reconocerá que diversas características de las realizaciones descritas pueden ser combinadas de acuerdo con la invención. En las reivindicaciones, el término “que comprende” no excluye la presencia de otros elementos o etapas.
Adicionalmente, aunque se listen individualmente, puede implementarse una pluralidad de medios, elementos, circuitos o etapas de método mediante un circuito, unidad o procesador individual. Adicionalmente, aunque pueden incluirse características individuales en diferentes reivindicaciones, pueden ser posiblemente combinadas de manera ventajosa, y la inclusión en diferentes reivindicaciones no implica que una combinación de características no sea factible y/o ventajosa. También la inclusión de una característica en una categoría de reivindicaciones no implica una limitación de esta categoría sino más bien indica que la característica es igualmente aplicable a otras categorías de reivindicaciones según sea apropiado. Además, el orden de características en las reivindicaciones no implica ningún orden específico en el cual las características deban ser trabajadas y en particular el orden de etapas individuales en una reivindicación de método no implica que las etapas deban ejecutarse en este orden. Por el contrario, las etapas pueden ejecutarse en cualquier orden adecuado. Además, referencias singulares no excluyen una pluralidad. Así referencias a "un", "una", "primero", "segundo", etc., no excluye una pluralidad. Los signos de referencia en las reivindicaciones se proveen únicamente como un ejemplo de clarificación no se debería ser considerado como limitante del alcance de las reivindicaciones de manera alguna.
Claims (1)
-
imagen1 imagen2 imagen3
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
EP13162505 | 2013-04-05 | ||
EP13162505 | 2013-04-05 | ||
PCT/US2014/032955 WO2014165744A1 (en) | 2013-04-05 | 2014-04-04 | Re-targeting a three-dimensional image signal |
Publications (1)
Publication Number | Publication Date |
---|---|
ES2658043T3 true ES2658043T3 (es) | 2018-03-08 |
Family
ID=48044688
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
ES14778062.1T Active ES2658043T3 (es) | 2013-04-05 | 2014-04-04 | Redireccionamiento de una señal de imágenes tridimensionales |
Country Status (11)
Country | Link |
---|---|
US (1) | US20160029012A1 (es) |
EP (1) | EP2982107B1 (es) |
JP (1) | JP2016521488A (es) |
CN (1) | CN105230011B (es) |
BR (1) | BR112015025077A2 (es) |
ES (1) | ES2658043T3 (es) |
MX (1) | MX355960B (es) |
PL (1) | PL2982107T3 (es) |
RU (1) | RU2015147002A (es) |
WO (1) | WO2014165744A1 (es) |
ZA (1) | ZA201508150B (es) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105376553B (zh) * | 2015-11-24 | 2017-03-08 | 宁波大学 | 一种三维视频重定位方法 |
CN106447702B (zh) * | 2016-08-31 | 2019-05-31 | 天津大学 | 一种立体图像匹配图计算方法 |
EP3416381A1 (en) * | 2017-06-12 | 2018-12-19 | Thomson Licensing | Method and apparatus for providing information to a user observing a multi view content |
US20200314411A1 (en) * | 2019-03-29 | 2020-10-01 | Alibaba Group Holding Limited | Synchronizing an illumination sequence of illumination sources with image capture in rolling shutter mode |
Family Cites Families (37)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US3480946A (en) * | 1966-03-31 | 1969-11-25 | Litton Precision Prod Inc | Successive approximation rotary angle to digital converter |
US4397317A (en) * | 1980-04-17 | 1983-08-09 | Villa Real Antony Euclid C | Electronic blood pressure and pulse rate calculator with optional temperature indicator, timer and memory |
JPH08106660A (ja) * | 1994-10-05 | 1996-04-23 | Canon Inc | 光磁気記録媒体及び該媒体を用いた情報再生方法 |
US6635030B1 (en) * | 1999-04-09 | 2003-10-21 | B.H.B. Llc | Contrast injector for injecting a contrast medium to generate prolonged uniform vascular enhancement |
US6055985A (en) * | 1999-04-09 | 2000-05-02 | B.H.B., L.C. | Methods for injecting a contrast medium to generate prolonged uniform vascular enhancement |
US6504141B1 (en) * | 2000-09-29 | 2003-01-07 | Rockwell Science Center, Llc | Adaptive amplifier circuit with enhanced dynamic range |
US6873359B1 (en) * | 2000-09-29 | 2005-03-29 | Rockwell Science Center, Llc. | Self-adjusting, adaptive, minimal noise input amplifier circuit |
US6911995B2 (en) * | 2001-08-17 | 2005-06-28 | Mitsubishi Electric Research Labs, Inc. | Computer vision depth segmentation using virtual surface |
US7097311B2 (en) * | 2003-04-19 | 2006-08-29 | University Of Kentucky Research Foundation | Super-resolution overlay in multi-projector displays |
US20040223640A1 (en) * | 2003-05-09 | 2004-11-11 | Bovyrin Alexander V. | Stereo matching using segmentation of image columns |
US8094927B2 (en) * | 2004-02-27 | 2012-01-10 | Eastman Kodak Company | Stereoscopic display system with flexible rendering of disparity map according to the stereoscopic fusing capability of the observer |
JP4341564B2 (ja) * | 2005-02-25 | 2009-10-07 | 株式会社豊田中央研究所 | 対象物判定装置 |
JP4605715B2 (ja) * | 2006-06-14 | 2011-01-05 | Kddi株式会社 | 多視点画像圧縮符号化方法、装置及びプログラム |
WO2008079301A2 (en) * | 2006-12-21 | 2008-07-03 | Massachusetts Institute Of Technology | Methods and apparatus for 3d surface imaging using active wave-front sampling |
US8593506B2 (en) * | 2007-03-15 | 2013-11-26 | Yissum Research Development Company Of The Hebrew University Of Jerusalem | Method and system for forming a panoramic image of a scene having minimal aspect distortion |
KR20100102153A (ko) * | 2007-12-14 | 2010-09-20 | 코닌클리케 필립스 일렉트로닉스 엔.브이. | 비디오 재생을 위한 3d 모드 선택 메커니즘 |
MY155378A (en) * | 2008-07-24 | 2015-10-15 | Koninkl Philips Electronics Nv | Versatile 3-d picture format |
JP2010078883A (ja) * | 2008-09-25 | 2010-04-08 | Toshiba Corp | 立体映像表示装置及び立体映像表示方法 |
JP5575778B2 (ja) * | 2008-10-10 | 2014-08-20 | コーニンクレッカ フィリップス エヌ ヴェ | 信号に含まれる視差情報を処理する方法 |
EP2197217A1 (en) * | 2008-12-15 | 2010-06-16 | Koninklijke Philips Electronics N.V. | Image based 3D video format |
DE102009012441B4 (de) * | 2009-03-12 | 2010-12-09 | Deutsches Zentrum für Luft- und Raumfahrt e.V. | Verfahren zur Reduktion des Speicherbedarfs bei der Bestimmung von Disparitätswerten für mindestens zwei stereoskopisch aufgenommene Bilder |
WO2011013030A1 (en) * | 2009-07-27 | 2011-02-03 | Koninklijke Philips Electronics N.V. | Combining 3d video and auxiliary data |
US20120206453A1 (en) * | 2009-09-16 | 2012-08-16 | Koninklijke Philips Electronics N.V. | 3d screen size compensation |
US9445072B2 (en) * | 2009-11-11 | 2016-09-13 | Disney Enterprises, Inc. | Synthesizing views based on image domain warping |
US8711204B2 (en) * | 2009-11-11 | 2014-04-29 | Disney Enterprises, Inc. | Stereoscopic editing for video production, post-production and display adaptation |
WO2011081646A1 (en) * | 2009-12-15 | 2011-07-07 | Thomson Licensing | Stereo-image quality and disparity/depth indications |
US8760498B2 (en) * | 2011-03-14 | 2014-06-24 | Sony Corporation | Disparity data transport in standard caption service |
US8730301B2 (en) * | 2010-03-12 | 2014-05-20 | Sony Corporation | Service linkage to caption disparity data transport |
US9035939B2 (en) * | 2010-10-04 | 2015-05-19 | Qualcomm Incorporated | 3D video control system to adjust 3D video rendering based on user preferences |
US8149268B1 (en) * | 2010-11-05 | 2012-04-03 | The United States Of America As Represented By The Secretary Of The Army | System and method for determining three-dimensional information from two-dimensional images |
JP5242667B2 (ja) * | 2010-12-22 | 2013-07-24 | 株式会社東芝 | マップ変換方法、マップ変換装置及びマップ変換プログラム |
US20120200670A1 (en) * | 2011-02-04 | 2012-08-09 | Nokia Corporation | Method and apparatus for a disparity limit indicator |
CN103636200A (zh) * | 2011-06-20 | 2014-03-12 | 松下电器产业株式会社 | 多视点图像生成装置、多视点图像生成方法 |
US10491915B2 (en) * | 2011-07-05 | 2019-11-26 | Texas Instruments Incorporated | Method, system and computer program product for encoding disparities between views of a stereoscopic image |
CN102256152B (zh) * | 2011-07-15 | 2014-06-04 | 深圳超多维光电子有限公司 | 一种立体图像处理设备及方法 |
US20130050187A1 (en) * | 2011-08-31 | 2013-02-28 | Zoltan KORCSOK | Method and Apparatus for Generating Multiple Image Views for a Multiview Autosteroscopic Display Device |
US8982187B2 (en) * | 2011-09-19 | 2015-03-17 | Himax Technologies Limited | System and method of rendering stereoscopic images |
-
2014
- 2014-04-04 WO PCT/US2014/032955 patent/WO2014165744A1/en active Application Filing
- 2014-04-04 ES ES14778062.1T patent/ES2658043T3/es active Active
- 2014-04-04 US US14/782,334 patent/US20160029012A1/en not_active Abandoned
- 2014-04-04 MX MX2015013890A patent/MX355960B/es active IP Right Grant
- 2014-04-04 PL PL14778062T patent/PL2982107T3/pl unknown
- 2014-04-04 EP EP14778062.1A patent/EP2982107B1/en not_active Not-in-force
- 2014-04-04 BR BR112015025077A patent/BR112015025077A2/pt not_active IP Right Cessation
- 2014-04-04 JP JP2016506639A patent/JP2016521488A/ja not_active Ceased
- 2014-04-04 RU RU2015147002A patent/RU2015147002A/ru not_active Application Discontinuation
- 2014-04-04 CN CN201480019549.3A patent/CN105230011B/zh not_active Expired - Fee Related
-
2015
- 2015-11-04 ZA ZA2015/08150A patent/ZA201508150B/en unknown
Also Published As
Publication number | Publication date |
---|---|
CN105230011A (zh) | 2016-01-06 |
EP2982107B1 (en) | 2017-11-22 |
EP2982107A4 (en) | 2016-04-13 |
MX2015013890A (es) | 2016-08-11 |
RU2015147002A3 (es) | 2018-03-19 |
CN105230011B (zh) | 2018-05-22 |
MX355960B (es) | 2018-05-07 |
ZA201508150B (en) | 2017-08-30 |
EP2982107A1 (en) | 2016-02-10 |
RU2015147002A (ru) | 2017-05-12 |
BR112015025077A2 (pt) | 2017-07-18 |
PL2982107T3 (pl) | 2018-06-29 |
JP2016521488A (ja) | 2016-07-21 |
WO2014165744A1 (en) | 2014-10-09 |
US20160029012A1 (en) | 2016-01-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
ES2658043T3 (es) | Redireccionamiento de una señal de imágenes tridimensionales | |
ES2966479T3 (es) | Un codificador, un decodificador y métodos correspondientes para la intrapredicción | |
ES2842109T3 (es) | Predicción residual avanzada basada en bloques para la codificación de vídeo 3D | |
US9171373B2 (en) | System of image stereo matching | |
US20110298898A1 (en) | Three dimensional image generating system and method accomodating multi-view imaging | |
WO2020001565A1 (zh) | 点云编解码方法和编解码器 | |
ES2745282T3 (es) | Extensión del patrón de minicuñas para la intracodificación de profundidad | |
JP5665135B2 (ja) | 画像表示装置、画像生成装置、画像表示方法、画像生成方法、及びプログラム | |
BR112016006574B1 (pt) | Predição de vetor de movimento temporal com base em unidade de subpredição (pu) em hevc e projeto de sub-pu em 3d-hevc | |
KR20130055002A (ko) | 줌 카메라 이미지 블렌딩 기술 | |
BR112016006607B1 (pt) | Método e dispositivo para processamento de dados de vídeo, e memória legível por computador | |
BR112012024955B1 (pt) | Método, aparelho e mídia legível por processador para mapas de disparidade 3d | |
RU2640357C2 (ru) | Способ кодирования сигнала видеоданных для использования с мультивидовым стереоскопическим устройством отображения | |
BR112020027043A2 (pt) | Método e decodificador para interpredição | |
BR112021003741A2 (pt) | codificador, decodificador e métodos correspondentes usando uma codificação de paleta | |
US11818323B2 (en) | Image generation system, method for generating a virtual viewpoint image, and storage medium | |
ES2874073T3 (es) | Flujo de transporte para el transporte de extensiones de codificación de vídeo | |
BR112021005557A2 (pt) | método de codificação de dados tridimensionais, método de decodificação de dados tridimensionais, dispositivo de codificação de dados tridimensionais e dispositivo de decodificação de dados tridimensionais | |
GB2534061A (en) | Multi-view high dynamic range imaging | |
EA201190195A1 (ru) | Система и формат для кодирования данных и трехмерного рендеринга | |
US20150016517A1 (en) | Encoding device and encoding method, and decoding device and decoding method | |
MX2015015343A (es) | Obtencion de imagenes de medios tonos multiples y proyeccion de modulacion dual/ proyeccion laser de modulacion dual. | |
BR112021003946A2 (pt) | codificador de vídeo, decodificador de vídeo e métodos correspondentes | |
BR112020024331A2 (pt) | decodificador, e métodos correspondentes que são usados para processo de transformada | |
KR20190059829A (ko) | 입체 스마트 디바이스용 입체 앱 콘텐츠 제작 방법 및 장치 |