ES2967621T3 - Sistema de plataforma de fotones de imagen multidimensional digital y métodos de uso - Google Patents
Sistema de plataforma de fotones de imagen multidimensional digital y métodos de uso Download PDFInfo
- Publication number
- ES2967621T3 ES2967621T3 ES16705287T ES16705287T ES2967621T3 ES 2967621 T3 ES2967621 T3 ES 2967621T3 ES 16705287 T ES16705287 T ES 16705287T ES 16705287 T ES16705287 T ES 16705287T ES 2967621 T3 ES2967621 T3 ES 2967621T3
- Authority
- ES
- Spain
- Prior art keywords
- image
- digital
- instruction
- multidimensional
- parallax
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 69
- 238000003384 imaging method Methods 0.000 title abstract description 26
- 239000000463 material Substances 0.000 claims description 38
- 238000004891 communication Methods 0.000 claims description 15
- 238000003860 storage Methods 0.000 claims description 14
- 238000007639 printing Methods 0.000 claims description 13
- 230000003993 interaction Effects 0.000 claims 1
- 230000000007 visual effect Effects 0.000 abstract description 9
- 238000013459 approach Methods 0.000 abstract description 5
- 230000004304 visual acuity Effects 0.000 abstract description 4
- 230000009897 systematic effect Effects 0.000 abstract description 2
- 230000004888 barrier function Effects 0.000 description 22
- 238000010586 diagram Methods 0.000 description 20
- 230000000694 effects Effects 0.000 description 20
- 239000013256 coordination polymer Substances 0.000 description 17
- 238000004422 calculation algorithm Methods 0.000 description 14
- 238000004519 manufacturing process Methods 0.000 description 14
- 238000012545 processing Methods 0.000 description 14
- 230000008569 process Effects 0.000 description 13
- 238000013461 design Methods 0.000 description 11
- 230000003287 optical effect Effects 0.000 description 11
- 230000006870 function Effects 0.000 description 10
- 238000004364 calculation method Methods 0.000 description 8
- 238000004590 computer program Methods 0.000 description 7
- 230000007246 mechanism Effects 0.000 description 7
- 230000008859 change Effects 0.000 description 6
- 238000012360 testing method Methods 0.000 description 6
- 238000011960 computer-aided design Methods 0.000 description 5
- 238000005457 optimization Methods 0.000 description 5
- 241001465754 Metazoa Species 0.000 description 4
- 239000004033 plastic Substances 0.000 description 4
- 229920003023 plastic Polymers 0.000 description 4
- 230000009466 transformation Effects 0.000 description 4
- 230000000712 assembly Effects 0.000 description 3
- 238000000429 assembly Methods 0.000 description 3
- 230000008901 benefit Effects 0.000 description 3
- 238000010017 direct printing Methods 0.000 description 3
- 239000000203 mixture Substances 0.000 description 3
- 238000002591 computed tomography Methods 0.000 description 2
- 230000001419 dependent effect Effects 0.000 description 2
- 238000002059 diagnostic imaging Methods 0.000 description 2
- 238000006073 displacement reaction Methods 0.000 description 2
- 230000009977 dual effect Effects 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 230000006872 improvement Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000010422 painting Methods 0.000 description 2
- 229910052709 silver Inorganic materials 0.000 description 2
- 239000004332 silver Substances 0.000 description 2
- -1 silver halide Chemical class 0.000 description 2
- 239000000758 substrate Substances 0.000 description 2
- 238000002604 ultrasonography Methods 0.000 description 2
- 206010019233 Headaches Diseases 0.000 description 1
- 206010028813 Nausea Diseases 0.000 description 1
- 230000009471 action Effects 0.000 description 1
- 230000006978 adaptation Effects 0.000 description 1
- 238000000701 chemical imaging Methods 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 230000001066 destructive effect Effects 0.000 description 1
- 238000009792 diffusion process Methods 0.000 description 1
- 239000012769 display material Substances 0.000 description 1
- 238000007647 flexography Methods 0.000 description 1
- 239000011888 foil Substances 0.000 description 1
- 231100000869 headache Toxicity 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 238000001459 lithography Methods 0.000 description 1
- 238000002595 magnetic resonance imaging Methods 0.000 description 1
- 230000008693 nausea Effects 0.000 description 1
- 238000012634 optical imaging Methods 0.000 description 1
- 238000004806 packaging method and process Methods 0.000 description 1
- 239000003973 paint Substances 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 238000009877 rendering Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000012552 review Methods 0.000 description 1
- 238000013515 script Methods 0.000 description 1
- 238000000926 separation method Methods 0.000 description 1
- 238000004513 sizing Methods 0.000 description 1
- 238000012549 training Methods 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/194—Transmission of image signals
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/122—Improving the 3D impression of stereoscopic images by modifying image signal contents, e.g. by filtering or adding monoscopic depth cues
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B41—PRINTING; LINING MACHINES; TYPEWRITERS; STAMPS
- B41M—PRINTING, DUPLICATING, MARKING, OR COPYING PROCESSES; COLOUR PRINTING
- B41M3/00—Printing processes to produce particular kinds of printed work, e.g. patterns
- B41M3/06—Veined printings; Fluorescent printings; Stereoscopic images; Imitated patterns, e.g. tissues, textiles
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/144—Processing image signals for flicker reduction
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/204—Image signal generators using stereoscopic image cameras
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/204—Image signal generators using stereoscopic image cameras
- H04N13/207—Image signal generators using stereoscopic image cameras using a single 2D image sensor
- H04N13/221—Image signal generators using stereoscopic image cameras using a single 2D image sensor using the relative movement between cameras and objects
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/261—Image signal generators with monoscopic-to-stereoscopic image conversion
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/302—Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays
- H04N13/31—Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays using parallax barriers
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B33—ADDITIVE MANUFACTURING TECHNOLOGY
- B33Y—ADDITIVE MANUFACTURING, i.e. MANUFACTURING OF THREE-DIMENSIONAL [3-D] OBJECTS BY ADDITIVE DEPOSITION, ADDITIVE AGGLOMERATION OR ADDITIVE LAYERING, e.g. BY 3-D PRINTING, STEREOLITHOGRAPHY OR SELECTIVE LASER SINTERING
- B33Y50/00—Data acquisition or data processing for additive manufacturing
- B33Y50/02—Data acquisition or data processing for additive manufacturing for controlling or regulating additive manufacturing processes
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N2013/0074—Stereoscopic image analysis
- H04N2013/0081—Depth or disparity estimation from stereoscopic image signals
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Textile Engineering (AREA)
- Vascular Medicine (AREA)
- Processing Or Creating Images (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
Abstract
Un enfoque sistemático para producir imágenes de fotones multidimensionales en una plataforma informática que tiene aplicaciones para ingresar imágenes de diversas fuentes y aplicaciones para coordinar y ajustar numerosas variables que determinan la calidad de la imagen, como el tamaño de las imágenes importadas. , el tamaño de la imagen de salida, el poder de resolución de la pantalla de visualización y el ancho de los elementos de resolución, los puntos por pulgada del dispositivo de salida (o píxeles por pulgada), el objeto más cercano deseado, el objeto más lejano deseado y la determinación del central o el "tema clave", las reglas de interfase, el número de cuadros o capas, el paralaje mínimo y el paralaje máximo y, por lo tanto, proporcionan una imagen digital multidimensional sin imágenes saltadas o características borrosas u otras distorsiones visuales por crear imágenes de salida de alta calidad, tanto en forma de copia impresa como de imagen visualizada en un dispositivo de visualización adecuado. El sistema basado en una plataforma de imágenes digitales multidimensionales controla la posición y la trayectoria de la luz desde el objeto original hasta el sistema visual humano. (Traducción automática con Google Translate, sin valor legal)
Description
DESCRIPCIÓN
Sistema de plataforma de fotones de imagen multidimensional digital y métodos de uso
Referencia cruzada a solicitudes relacionadas
Esta solicitud reivindica el beneficio de la solicitud de patente estadounidense Ser. No. 14/609,772, presentada el 30 de enero de 2015, titulada “DigitalMulti-Dimensional lmage Photon Platform System and Methods of Use”.
Campo técnico
La divulgación se refiere en general a la transformación de imágenes y, más específicamente, a la transformación y procesamiento de imágenes para producir consistentemente imágenes tridimensionales y otras multidimensionales de alta calidad.
Antecedentes
Las imágenes tridimensionales analógicas tradicionales hasta la era de los ordenadores se producían utilizando cámaras de lentes múltiples. Los negativos resultantes se imprimieron en fotoemulsiones. El resultado se vio y se guardó o se escaneó y digitalizó para imprimirlo en una pantalla lenticular. Estas imágenes se produjeron imprimiendo fotogramas separados de la misma imagen detrás de cada lente. Los fotogramas individuales fueron compensados por un operador que ajustaba de forma independiente las profundidades de campo en relación con un objeto central en un fotograma central.
Técnicas de fotografía analógica
Las técnicas para tomar fotografía analógica y los métodos de composición de imágenes estereoscópicas empleando una lente lenticular y controlando la profundidad de campo se establecen en la patente estadounidense 3,960,563 titulada Methods and Apparatus for Taking and Composing Stereoscopic Pictures, la patente estadounidense 4,086,585 titulada System and Camera for Controlling Depth of Field in Three-dimensional Photography, patente estadounidense 4,124,291 titulada Control of Depth of Field in Three Dimensional Photography, patente estadounidense 3,895,867 titulada Three Dimensional Pictures and Method of Composing ThemThree Dimensional Pictures and Method of Composing Them, y patente estadounidense 4,059,354 titulada Stereoscopic Photograph Composition Apparatus.
Material microóptico (M.O.M.)
Se establecen mejoras en métodos, procesos y aparatos para fabricar y formar láminas, láminas y sustratos recubiertos lenticulares de plástico lenticular en la patente estadounidense 5,362,351 titulada Method of Making Lenticular Plastics and Products Therefrom, y en la patente estadounidense 6,060,003 titulada Method and Apparatus for Making Lenticular Plastic. Se reconoce que el material de lente de marca Micro Optical Material (M.O.M.) es preferido para la aplicación de los métodos divulgados en el presente documento.
Impresión 3D
Las mejoras en métodos, procesos y aparatos para imprimir sobre hojas lenticulares se exponen en la patente estadounidense 6,709,080, titulada Method and Apparatus for Direct Printing on a Lenticular Foil, y en la patente estadounidense 8,136,938, titulada System and Method for Printing on Lenticular Sheets.
Las patentes enumeradas anteriormente se refieren al proceso analógico (impresión directa de haluro de plata o tinta sobre plástico) para fabricar un sustrato para reproducir o imprimir una imagen analógica en una hoja o lámina lenticular. Durante la etapa de interfaz, según estas patentes, un operador podría seleccionar un fotograma clave dentro de la imagen. Luego, los múltiples fotogramas se escanearon/expusieron en el medio lenticular (con revestimiento de haluro de plata). Al escanear/exponer a través de la pantalla lenticular, el material lenticular eliminó una serie de errores de imagen debidos a la fabricación. Además, la imagen escaneada tendría un aspecto excepcional, ya que se compensaron los errores porque la trayectoria de entrada y salida de la luz se tuvo en cuenta en el material lenticular.
Con la llegada de ordenadores con velocidades de procesamiento más altas, una gran cantidad de RAM y almacenamiento proporciona una plataforma de hardware para la generación de imágenes digitales multidimensionales que pueden imprimirse o verse directamente en una pantalla diseñada para aceptar la imagen digital multidimensional adecuada. Las imágenes digitales multidimensionales se pueden ver utilizando pantallas de barrera o conjuntos de lentes, como material microóptico (MOM).
Sistema de imagen
Los métodos anteriores para generar digitalmente imágenes para su visualización a través de medios lenticulares se establecen en la patente estadounidense 6,760,021 titulada Multi-dimensional lmage System far Digital lmage Input and Output, la patente estadounidense 7,019,865 titulada Method for Scaling and lnterlacing Multidimensional and Motion lmages, y la patente estadounidense 7,639,838 titulada Multi-dimensional Images System for Digital lmage Input and Output.
Sin embargo, la visualización de las imágenes multidimensionales digitales resultantes en los métodos enumerados anteriormente puede presentar problemas debido a la alineación de la imagen con las pantallas de barrera o los conjuntos de lentes. La desalineación produce imágenes saltadas, desenfocadas o características borrosas al visualizar imágenes digitales multidimensionales. La visualización de estas imágenes puede provocar dolores de cabeza y náuseas.
Una desventaja de este enfoque es que el diseño de imágenes lenticulares está limitado porque depende de un “artista” lenticular para componer mediante prueba y error visual. Este proceso implica experimentación para encontrar la mejor combinación de parámetros para hacer que una imagen lenticular parezca adecuada al sistema visual humano. Sin embargo, este proceso tradicional representa sólo algunos de los parámetros posibles. Los ajustes utilizados actualmente son, en el mejor de los casos, manuales. El paralaje es juzgado por el sistema visual humano seleccionando valores en función de lo que parece correcto. El uso de calibraciones manuales y artísticas limita la precisión y reduce el efecto tridimensional y/o de movimiento de la imagen lenticular.
Además, otra desventaja de este enfoque es que se producen imágenes dobles y normalmente son causadas por una exageración del efecto tridimensional desde los ángulos de visión o por un número insuficiente de fotogramas. Una mala composición puede provocar duplicaciones, pequeños saltos, una imagen borrosa o que el primer plano y el fondo estén borrosos o sombreados, especialmente en objetos en relieve o en profundidad.
Otra desventaja más de este enfoque es que se producen imágenes fantasma debido a un mal tratamiento de las imágenes de origen, y también debido a transiciones en las que la demanda de un efecto va más allá de los límites y posibilidades técnicas del sistema. Esto hace que las imágenes permanezcan visibles cuando deberían desaparecer.
Algunas de las patentes enumeradas anteriormente se refieren a un sistema de interfaz digital. Durante la etapa de interfaz, según estas patentes, un operador podría elegir el objeto clave como un fotograma pero no como un punto y, además, no se calcula el paralaje. Aquí la etapa de interfaz fue realizada por el ordenador; sin embargo, los errores del material lenticular y los procesos de fabricación no se compensaron durante la etapa de interfaz. El documento WO 02/11070 A1 divulga convertir una imagen bidimensional en una imagen tridimensional generando imágenes lineales correspondientes a los ángulos de visión e interfaz en un archivo formado por líneas fusionadas. Este divulga un sistema multidimensional que contiene material de interfaz y microóptico en el que se crean mapas de profundidad de la imagen. Debido a la intervención manual requerida por parte del usuario, el número de capas de la imagen se mantiene en un valor pequeño; de lo contrario, se vuelve una tarea imposible para el usuario manejar las imágenes.
El documento WO 2009/032088 A1 divulga un sistema que presenta datos visuales detectados remotamente, por ejemplo. Las imágenes multiespectrales tienen una impresora que recibe e imprime una sola imagen configurada para permitir al espectador ver individualmente cada conjunto de información procesada obtenida de forma remota.
Por lo tanto, es fácilmente evidente que existe una necesidad insatisfecha reconocible de un sistema de plataforma de imágenes de fotones multidimensional digital y métodos de uso. Este método y sistema realizan las funciones apropiadas para componer imágenes digitales multidimensionales que están nítidamente enfocadas y libres de imágenes saltantes o características borrosas. Este método y sistema unifica variables desde la producción precisa del material microóptico, el dispositivo de salida, hasta la regla de interfaz alrededor de un punto objeto clave dentro de un paralaje calculado (mínimo y máximo) y el control del paralaje relativo al material microóptico u otras pantallas de visualización. La atención cuidadosa a estas variables es básica para la producción de imágenes de salida de alta calidad, tanto en forma de copia impresa como de imagen multidimensional visualizada en un(os) dispositivo(s) de visualización apropiado(s).
Breve resumen
Descrito brevemente, en una realización de ejemplo, el presente sistema y método supera las desventajas mencionadas anteriormente y satisface la necesidad reconocida de un sistema de plataforma de imágenes de fotones multidimensional digital y métodos de uso, que incluyen, en general, un enfoque sistemático para la creación de imágenes multidimensionales basada en una plataforma informática que tiene aplicaciones para introducir imágenes de diversas fuentes y aplicaciones para coordinar y ajustar numerosas variables que determinan la calidad de la imagen multidimensional, tal como el tamaño de las imágenes importadas y el tamaño de la imagen de salida, el poder de resolución de la pantalla de visualización y el ancho de los elementos de resolución, los puntos por pulgada del dispositivo de salida (o píxeles por pulgada), el objeto más cercano deseado (punto más cercano), el objeto más lejano deseado (punto más lejano) y la determinación del tema central o “punto objeto clave”, las reglas de interfaz, el número de fotogramas y el cálculo del paralaje (el paralaje mínimo y el paralaje máximo) y, por lo tanto, proporcionan una imagen digital multidimensional nítidamente enfocada sin imágenes saltadas o características borrosas mediante la creación de imágenes de salida de alta calidad, ya sea en forma de copia impresa o como una imagen visualizada en un dispositivo de visualización adecuado. La invención se define por las reivindicaciones independientes. Las reivindicaciones dependientes definen realizaciones ventajosas.
Breve descripción de los dibujos
El presente sistema de plataforma de imágenes de fotones multidimensional digital y los métodos de uso se comprenderán mejor leyendo la descripción detallada de las realizaciones ejemplares con referencia a las figuras de los dibujos adjuntos, en las que números de referencia similares denotan una estructura similar y se refieren a elementos similares en todas partes, y en el que:
La FIGURA 1 es un diagrama de bloques de un sistema informático de la presente divulgación;
La FIGURA 2 es un diagrama de bloques de un sistema de comunicaciones implementado por el sistema informático de la FIGURA 1;
La FIGURA3 es un diagrama de bloques de una realización ejemplar de la plataforma de imágenes multidimensionales digitales;
La FIGURA 4 es un diagrama de flujo ampliado de una realización ejemplar de la plataforma de imágenes digitales multidimensionales mostrada en la FIGURA 3;
La FIGURA 5 es un diagrama de bloques de una realización ejemplar de la plataforma de imágenes digitales multidimensionales mostrada en la FIGURA 3 con una o más aplicaciones de imágenes de entrada;
La FIGURA 6.1 es un diagrama de una realización ejemplar de procesamiento de interfaz de píxeles de fotogramas de una imagen;
La FIGURA 6.2 es un diagrama de una realización ejemplar de alineación del punto objeto clave de una imagen e ilustra cómo se mide el paralaje;
La FIGURA 6.3 es un diagrama de una realización ejemplar del punto objeto clave desplazado de una imagen e ilustra cómo se mide el paralaje total;
La FIGURA 7A es un diagrama de una realización ejemplar de una interfaz de usuario para calcular parámetros tales como número de fotograma y paralaje mínimo y máximo para visualizar con una pantalla lenticular u obtener una copia impresa en una pantalla lenticular;
La FIGURA 7B es un diagrama de una realización ejemplar de una interfaz de usuario para calcular parámetros para una pantalla de barrera;
La FIGURA 8 es un diagrama de flujo de un método para generar una imagen multidimensional a partir de imágenes digitales 2D;
La FIGURA 9 es un diagrama de una realización ejemplar de un dispositivo de captura digital y de escena;
La FIGURA 10 es un diagrama de una realización ejemplar de una imagen digital 2D de la escena capturada por el dispositivo de captura;
La FIGURA 11 es un diagrama de una realización ejemplar de fotogramas, vista izquierda y vista derecha, de la imagen digital 2D; y
La FIGURA 12 es un diagrama de una realización ejemplar de fotogramas, vista izquierda y vista derecha, de la imagen digital 2D con objeto clave alineado.
Cabe señalar que los dibujos presentados están destinados únicamente a fines ilustrativos y que, por lo tanto, no se desea ni se pretende limitar la divulgación a alguno o todos los detalles exactos de la construcción que se muestran, excepto en la medida en que puedan ser considerados esenciales para la invención reivindicada.
Descripción detallada
Al describir las realizaciones ejemplares de la presente divulgación, como se ilustra en las FIGURAS 1-12, se emplea terminología específica en aras de la claridad. Sin embargo, la presente divulgación no pretende limitarse a la terminología específica así seleccionada, y debe entenderse que cada elemento específico incluye todos los equivalentes técnicos que operan de manera similar para lograr funciones similares. Sin embargo, la invención reivindicada puede realizarse de muchas formas diferentes y no debe considerarse limitada a las realizaciones establecidas en el presente documento. Los ejemplos establecidos en el presente documento son ejemplos no limitantes y son meramente ejemplos pero no limitado a posibles ejemplos.
Para comprender la presente divulgación es necesario definir ciertas variables. El campo de objeto es la imagen completa que se está componiendo. El “punto objeto clave” se define como el punto donde converge la escena, es decir, el punto en la profundidad de campo que siempre permanece enfocada y no tiene diferencial de paralaje. El punto de primer plano y el de fondo son el punto más cercano y el punto más alejado del espectador, respectivamente. La profundidad de campo es la profundidad o distancia creada dentro del campo del objeto (distancia representada desde el primer plano hasta el fondo). El eje principal es la línea perpendicular a la escena que pasa por el punto objeto clave. El paralaje es el desplazamiento del punto objeto clave del objeto respecto del eje principal. En la composición digital el desplazamiento siempre se mantiene como un número entero de píxeles desde el eje principal.
Como apreciará un experto en la técnica, la presente divulgación puede realizarse como un método, sistema de procesamiento de datos o producto de programa informático. En consecuencia, la presente divulgación puede tomar la forma de una realización enteramente de hardware, una realización enteramente de software o una realización que combine aspectos de software y hardware. Además, la presente descripción puede tomar la forma de un producto de programa informático en un medio de almacenamiento legible por ordenador que tiene medios de código de programa legibles por ordenador incorporados en el medio. Se puede utilizar cualquier medio legible por ordenador adecuado, incluidos discos duros, ROM, RAM, CD-ROM, dispositivos de almacenamiento eléctricos, ópticos, magnéticos y similares.
La presente divulgación se describe a continuación con referencia a ilustraciones de diagramas de flujo de métodos, aparatos (sistemas) y productos de programas informáticos de acuerdo con realizaciones de la presente divulgación. Se entenderá que cada bloque o etapa de las ilustraciones del diagrama de flujo, y combinaciones de bloques o etapas en las ilustraciones del diagrama de flujo, pueden implementarse mediante instrucciones u operaciones de programas informáticos. Estas instrucciones u operaciones de programas informáticos pueden cargarse en un ordenador de uso general, un ordenador de propósito especial u otro aparato de procesamiento de datos programable para producir una máquina, de modo que las instrucciones u operaciones que se ejecutan en el ordenador u otro aparato de procesamiento de datos programable crean medios para implementar las funciones especificadas en el bloque o bloques/etapa o etapas del diagrama de flujo.
Estas instrucciones u operaciones de programas de ordenador también pueden almacenarse en una memoria utilizable por ordenador que puede hacer que un ordenador u otro aparato de procesamiento de datos programable funcione de una manera particular, de modo que las instrucciones u operaciones almacenadas en la memoria utilizable por ordenador produzcan un artículo de fabricación, incluidos los medios de instrucción que implementan la función especificada en el bloque o bloques/etapa o etapas del diagrama de flujo. Las instrucciones u operaciones del programa de ordenador también pueden cargarse en un ordenador u otro aparato de procesamiento de datos programable (procesador) para provocar que se realicen una serie de etapas operativas en el ordenador u otro aparato programable (procesador) para producir un proceso implementado por ordenador de tal manera que las instrucciones u operaciones que se ejecutan en el ordenador u otro aparato programable (procesador) proporcionan etapas para implementar las funciones especificadas en el bloque o bloques/etapa o etapas del diagrama de flujo.
De acuerdo con lo anterior, los bloques o etapas de las ilustraciones del diagrama de flujo soportan combinaciones de medios para realizar las funciones especificadas, combinaciones de etapas para realizar las funciones especificadas y medios de instrucción de programa para realizar las funciones especificadas. También debe entenderse que cada bloque o etapa de las ilustraciones del diagrama de flujo, y combinaciones de bloques o etapas en las ilustraciones del diagrama de flujo, pueden implementarse mediante sistemas informáticos basados en hardware de propósito especial, que realizan las funciones o etapas especificadas, o combinaciones de hardware de propósito especial e instrucciones u operaciones de ordenador.
La programación informática para implementar la presente divulgación puede escribirse en diversos lenguajes de programación, lenguajes de bases de datos y similares. Sin embargo, se entiende que se pueden utilizar otros lenguajes de programación fuente u orientados a objetos, y otros lenguajes de programación convencionales sin apartarse del espíritu y la intención de la presente divulgación.
Haciendo referencia ahora a la FIGURA 1, se ilustra un diagrama de bloques de un sistema informático 10 que proporciona un entorno adecuado para implementar realizaciones de la presente divulgación. La arquitectura de ordenador mostrada en la FIGURA 1 está dividida en dos partes: la placa base 100 y los dispositivos de entrada y salida (I/O) 200. La placa base 100 incluye preferiblemente subsistemas o procesadores para ejecutar instrucciones tales como una unidad central de procesamiento (CPU) 102, un dispositivo de memoria, tal como una memoria de acceso aleatorio (RAM) 104, controlador de entrada/salida (I/O) 108, y un dispositivo de memoria tal como memoria de sólo lectura (ROM) 106, también conocida como firmware, que están interconectados por el bus 110. Un sistema básico de entrada y salida (BIOS) que contiene las rutinas básicas que ayudan a transferir información entre elementos dentro de los subsistemas del ordenador, se almacena preferiblemente en la ROM 106, o se dispone operativamente en la RAM 104. El sistema informático 10 incluye además preferiblemente dispositivos de I/O 202, tales como el dispositivo de almacenamiento principal 214 para almacenar el sistema operativo 204 e instrucciones o programa(s) de aplicación 206, y pantalla 208 para salida visual, y otros dispositivos de I/O 212 según corresponda. El dispositivo de almacenamiento principal 214 está conectado preferiblemente a la CPU 102 a través de un controlador de almacenamiento principal (representado como 108) conectado al bus 110. El adaptador de red 210 permite que el sistema informático envíe y reciba datos a través de dispositivos de comunicación o cualquier otro adaptador de red capaz de transmitir y recibir datos a través de un enlace de comunicaciones que es una vía de datos cableada, óptica o inalámbrica. Se reconoce en el presente documento que la unidad central de procesamiento (CPU) 102 realiza instrucciones, operaciones o comandos almacenados en la ROM 106 o la RAM 104.
Muchos otros dispositivos o subsistemas u otros dispositivos de I/O 212 pueden conectarse de manera similar, incluyendo, pero no limitado a, dispositivos tales como micrófono, parlantes, unidad flash, reproductor de CD-ROM, reproductor de DVD, impresora, dispositivo de almacenamiento principal 214, tal como disco duro y/o módem, cada uno conectado a través de un adaptador de I/O. Además, aunque se prefiere, no es necesario que todos los dispositivos mostrados en la FIGURA 1 para estar presente para practicar la presente divulgación, como se analiza a continuación. Además, los dispositivos y subsistemas pueden interconectarse en configuraciones diferentes a la mostrada en la FIGURA 1, o puede estar basado en conjuntos ópticos o de puertas, o alguna combinación de estos elementos que sea capaz de responder y ejecutar instrucciones u operaciones. El funcionamiento de un sistema informático como el que se muestra en la FIGURA 1 es fácilmente conocido en la técnica y no se analiza con más detalle en esta solicitud, para no complicar demasiado la presente discusión.
Haciendo referencia ahora a la FIGURA2, se ilustra un diagrama que representa un sistema de comunicación ejemplar 201 en el que se pueden implementar conceptos consistentes con la presente divulgación. Ejemplos de cada elemento dentro del sistema de comunicación 201 de la FIGURA 2 se describen ampliamente con respecto a la FIGURA 1. En particular, el sistema de servidor 260 y el sistema de usuario 220 tienen atributos similares al sistema informático 10 de la FIGURA 1 e ilustran una posible implementación del sistema informático 10. El sistema de comunicación 201 incluye preferiblemente uno o más sistemas de usuario 220, 222, 224, uno o más sistemas de servidor 260 y una red 250, que podría ser, por ejemplo, Internet, una red pública, red privada o nube. Cada uno de los sistemas de usuario 220-224 incluye preferiblemente un medio legible por ordenador, tal como una memoria de acceso aleatorio, acoplado a un procesador. El procesador, CPU 102, ejecuta instrucciones de programa u operaciones almacenadas en la memoria. El sistema de comunicación 201 normalmente incluye uno o más sistemas de usuario 220. Por ejemplo, el sistema de usuario 220 puede incluir uno o más ordenadores de propósito general (por ejemplo, ordenadores personales), uno o más ordenadores de propósito especial (por ejemplo, dispositivos programados específicamente para comunicarse entre sí otro y/o el sistema servidor 260), una estación de trabajo, un servidor, un dispositivo, un asistente digital o un teléfono celular o buscapersonas “ inteligente”, una cámara digital, un componente, otro equipo, o alguna combinación de estos elementos que sea capaz de responder y ejecutar instrucciones u operaciones.
De manera similar al sistema de usuario 220, el sistema de servidor 260 incluye preferiblemente un medio legible por ordenador, tal como una memoria de acceso aleatorio, acoplado a un procesador. El procesador ejecuta instrucciones del programa almacenadas en la memoria. El sistema de servidor 260 también puede incluir varios dispositivos externos o internos adicionales, tales como, sin limitación, un ratón, un CD-ROM, un teclado, una pantalla, un dispositivo de almacenamiento y otros atributos similares al sistema informático 10 de la FIGURA 1. El sistema de servidor 260 puede incluir adicionalmente un elemento de almacenamiento secundario, tal como una base de datos 270 para el almacenamiento de datos e información. El sistema de servidor 260, aunque se representa como un único sistema informático, puede implementarse como una red de procesadores informáticos. La memoria en el sistema de servidor 260 contiene una o más etapas, programas, algoritmos o aplicaciones ejecutables 206 (mostrados en la FIGURA 1). Por ejemplo, el sistema de servidor 260 puede incluir un servidor web, un servidor de información, un servidor de aplicaciones, uno o más ordenadores de propósito general (por ejemplo, ordenadores personales), uno o más ordenadores de propósito especial (por ejemplo, dispositivos específicamente programados para comunicarse entre sí), una estación de trabajo u otro equipo, o alguna combinación de estos elementos que sea capaz de responder y ejecutar instrucciones u operaciones.
El sistema de comunicaciones 201 es capaz de entregar e intercambiar datos entre el sistema de usuario 220 y un sistema de servidor 260 a través del enlace de comunicaciones 240 y/o la red 250. A través del sistema de usuario 220, los usuarios pueden comunicarse preferiblemente a través de la red 250 entre sí con los sistemas de usuario 220, 222, 224, y con otros sistemas y dispositivos, tales como el sistema de servidor 260, para transmitir, almacenar, imprimir y/o ver electrónicamente imágenes maestras digitales multidimensionales 303 (ver FIGURA 3). El enlace de comunicaciones 240 normalmente incluye la red 250 que realiza una comunicación directa o indirecta entre el sistema de usuario 220 y el sistema de servidor 260, independientemente de la separación física. Los ejemplos de una red 250 incluyen Internet, nube, redes cableadas e inalámbricas analógicas o digitales, radio, televisión, cable, satélite y/o cualquier otro mecanismo de entrega para transportar y/o transmitir datos u otra información, tal como para transmitir electrónicamente, almacenar, imprimir y/o ver imágenes maestras digitales multidimensionales 303. El enlace de comunicaciones 240 puede incluir, por ejemplo, un sistema de comunicación alámbrico, inalámbrico, por cable, óptico o por satélite u otra vía.
Se contempla en el presente documento que la RAM 104, el dispositivo de almacenamiento principal 214 y la base de datos 270 pueden denominarse en el presente documento dispositivo(s) de almacenamiento o dispositivo(s) de memoria.
Haciendo referencia ahora a la FIGURA 3, a modo de ejemplo, y sin limitación, se ilustra un diagrama de bloques de una realización ejemplar de la plataforma de imágenes multidimensionales digitales 300. Preferiblemente, la plataforma de imágenes multidimensionales digitales 300 incluye una plataforma de fotones multidimensionales 307 configurada como algoritmo, software o aplicaciones 206 operativas y/o ejecutar instrucciones u operaciones en el sistema informático 10, el sistema de usuario 220 y/o el sistema de servidor 260 (mostrado en las FIGURAS 1 y 2). Preferiblemente, la plataforma de fotones multidimensional 307 está configurada para recibir: (1) una imagen fuente digital bidimensional, es decir, imágenes digitales 2D, escenas o vídeos digitales 2d , tales como escenas S, a través de la aplicación de adquisición de imágenes 301 (que convierte una escena digital bidimensional S en imágenes de origen digital, como archivos JPEG, GIF, TIF de una escena digital bidimensional S, (2) parámetros de material microóptico (MOM) 302, (3) parámetros de impresora 304 y/o (4) visualizar los parámetros de la pantalla 305 u otros parámetros de imagen de entrada, y utiliza algoritmos, software o aplicaciones de optimización 206 para reconfigurar, editar y/o reconstruir imágenes digitales 2D o escenas S en imágenes maestras digitales multidimensionales 303. Preferiblemente, comenzando en 2D las imágenes o escenas S digitales se introducen en el sistema informático 10, el sistema de usuario 220 y/o el sistema de servidor 260 (mostrado en las FIGURAS 1 y 2) a través de la aplicación de adquisición de imágenes 301. Se contempla en el presente documento que las escenas S pueden incluir una pluralidad de objetos visibles, objetos o puntos en ellos, tal como primer plano, punto más cercano, fondo, punto más lejano y punto objeto clave. Además, la aplicación de adquisición de imágenes 301 puede incluir diferentes aplicaciones para diferentes campos, industrias y/o fuentes de imágenes como se muestra en la FIGURA 5. Preferiblemente, la plataforma de imágenes multidimensional digital 300 utiliza aplicaciones 206 que operan y/o ejecutan instrucciones u operaciones en el sistema informático 10, el sistema de usuario 220 y/o el sistema de servidor 260 (mostrado en las FIGURAS 1 y 2) para controlar el punto objeto clave y los parámetros de profundidad de campo de una imagen digital 2D o escenas S ingresadas a través de la aplicación de adquisición de imágenes 301 y tienen en cuenta, diseñan y/o controlan la interrelación de la(s) imagen(es) maestra(s) digital(es) multidimensional(es) 303 con el dispositivo de salida seleccionado, tal como la pantalla 208, (por ejemplo, pantalla de visualización 305, ya sea implementada en un teléfono inteligente, PDA, monitor, TV, tableta u otro dispositivo de visualización que tenga visualización habilitada en estéreo, mediante barra de paralaje, pantalla de barra, superposiciones, guías de ondas u otra tecnología de visualización, capaz de proyectar información en un formato de píxeles) o impresora 304 (por ejemplo, impresora de consumo, quiosco de tienda, impresora especial u otro dispositivo de copia impresa) para imprimir imágenes maestras digitales multidimensionales 303 en, por ejemplo, material de visualización lenticular u otro material físico. La plataforma de imágenes multidimensionales digitales 300 puede transmitir imágenes maestras digitales multidimensionales 303 a través del enlace de comunicaciones 240 y la red 250 a otro(s) sistema(s) informático(s) 10, sistema(s) de usuario 220 y/o sistema(s) de servidor 260 (mostrados en las FIGURAS 1 y 2), pantalla de visualización 305, y/o impresora 304.
También se contempla en el presente documento que la pantalla de visualización 305 puede incluirtecnología tal como pantalla de barrera, superposiciones (GRilli3D en www.grilli3d.com), superposiciones de película y guías de ondas u otros dispositivos de visualización para permitir la visualización de imágenes maestras digitales multidimensionales 303.
Haciendo referencia ahora a la FIGURA 4, a modo de ejemplo, y sin limitación, se ilustra un diagrama de flujo de una realización ejemplar de la plataforma de imágenes multidimensional digital 300. Preferiblemente, la plataforma de fotones multidimensional 307 está configurada para recibir, recopilar y utilizar una colección de parámetros de imagen finales 402 (formato de perfil utilizado para transformar la imagen digital y los datos de color creados en un dispositivo en la imagen digital y los valores de color de un dispositivo de salida de destino). Las entradas pueden incluir: (1) aplicación de adquisición de imágenes 301, que puede incluir datos de píxeles (elemento direccionable más pequeño o resolución en un dispositivo de captura de imágenes digitales, pantalla de visualización o dispositivo de impresión en papel), tipo de imagen (imagen terminada), imagen generada por ordenador, combinaciones de los mismos y similares; (2) parámetros de imagen digital, incluidos los parámetros de salida 405, que pueden incluir DPI de salida (puntos/pulgada - una medida de impresión espacial o densidad o nitidez de puntos de vídeo, en particular el número de puntos individuales que se pueden colocar en una línea dentro de la extensión de 1 pulgada (25.4 m)), tamaño de píxel (tamaño de cada píxel individual); (3) perfil de color (un conjunto de datos y parámetros que caracteriza un dispositivo de entrada o salida de color según un estándar) conocido como parámetros de imagen digital); (4) perfil de salida (un conjunto de datos y parámetros que caracteriza un dispositivo de salida); (5) tipo de efecto 403 (que puede incluir efectos de fotografía y video para imágenes digitales y diseño multidimensional, efectos digitales, tales como tridimensionales (3D), animación (girar), transformación, acercamiento y combinaciones de efectos de los mismos y similares conocidos por un experto en la técnica); y (6) parámetros lenticulares 302 (parámetros de control y uniformidad del material de impresión si las impresiones impresas son el destino de la(s) imagen(es) maestra(s) digital(es) multidimensional(es) 303.
Además, los parámetros de imagen digital, tales como los parámetros de imagen final 402 recopilados de la aplicación de adquisición de imágenes 301, los parámetros de salida 405, el tipo de efecto 403 y/o los parámetros de material microóptico (MOM) 302 son factores importantes para la calidad de la imagen terminada para gestionar la nitidez, la resolución, la profundidad y la apariencia de los colores para el espectador humano. Los parámetros de salida se obtienen de; (1) pantalla de visualización 305 (inicialmente configurada para visualización de imágenes multidimensionales digitales existentes, (2) pantalla de visualización de material micro óptico (MOM), (3) pantalla de visualización estándar con una superposición de imágenes digitales multidimensionales, (4) salidas de la impresora 304 (impresiones impresas utilizando una impresora especial que imprime en MOM), o (5) parámetros de impresoras de artes gráficas. El control y la uniformidad del material de impresión es importante ya que los parámetros del material deben ser consistentes para la calidad de la(s) imagen(es) maestra(s) digital(es) multidimensionales impresas 303. Estos factores en su totalidad deben usarse y controlarse para obtener resultados óptimos del sistema/método.
Como se señaló anteriormente, la plataforma de fotones multidimensional 307 está configurada preferiblemente para recibir imágenes 2D o escenas S digitales a través de la aplicación de adquisición de imágenes 301 y procesar las imágenes 2D o escenas S digitales en función de los parámetros de la imagen final 402 y formato de salida deseado, tal como pantalla de visualización 305 y/o impresora 304, para producir imágenes ópticas multidimensionales digitales de alta calidad, tales como imágenes maestras digitales multidimensionales 303. Imágenes maestras digitales multidimensionales 303 puede transmitirse a la pantalla de visualización 305 y visualizarse o verse en la misma y/o transmitirse a la impresora 304 para la producción de impresiones impresas. Además, la(s) imagen(es) maestra(s) digital(es) multidimensional(es) 303 pueden transmitirse al sistema informático 10, al sistema de usuario 220 y/o al sistema de servidor 260 (mostrado en las FIGURAS 1 y 2) a través de la red 250.
Como se muestra ilustrativamente en la FIGURA4 el algoritmo de optimización, software o aplicaciones 206 se utilizan en la plataforma de fotones multidimensional 307 para reconfigurar, editar y/o reconstruir imágenes o escena S en imágenes maestras digitales multidimensionales 303. Preferiblemente, el algoritmo de optimización, software o aplicaciones 206 pueden incluir programa de aplicación de manipulación de imágenes 307.1. Preferiblemente, el programa de aplicación de manipulación de imágenes 307.1 de la aplicación de adquisición de imágenes 301 puede convertir escenas S en una imagen digital izquierda 1101 y una imagen digital derecha 1102 (como se muestra en la FIGURA 11) o recuperar la imagen digital izquierda 1101 y la imagen digital derecha 1102 o imagen 2D 1000 de la aplicación de adquisición de imágenes 301.
Como se muestra ilustrativamente en la FIGURA 4 y como se describe más completamente a continuación con referencia a las FIGURAS 5, 7Ay 7B, el algoritmo de optimización, el software o las aplicaciones 206 utilizadas en la plataforma de fotones multidimensional 307 incluyen preferentemente la manipulación de imágenes 307.1 para calcular una profundidad de campo basada en paralaje, un método más definido que utiliza geometría de lente; (de la lente utilizada para capturar una escena digital S) y los parámetros de imagen digital establecidos en el presente documento para eliminar muchos de los errores anteriores de la técnica anterior. En ese sentido, la manipulación de imágenes 307.1 calcula el paralaje mínimo (Pmín.) 702, el paralaje máximo (Pmáx.) 706 y el número de fotograma 704.
Aún más, la manipulación de imágenes 307.1 puede seleccionar el punto CP más cercano en la escena S - las características prominentes de primer plano de la escena S. Se contempla en el presente documento que el punto CP más cercano puede ser un objeto, persona, lugar, cosa, animal, texto, gráfico u otras marcas y similares, y combinaciones de las mismas. Además, el punto más cercano CP puede incluir uno o más puntos CP más cercanos en la escena S. La selección se logra preferiblemente identificando o haciendo clic en el objeto del punto más cercano en la escena S mostrado a través del sistema informático 10, el sistema de usuario 220 y/o el sistema de servidor 260. Además, la manipulación de imágenes 307.1 puede seleccionar el punto FP más lejano en la escena S - la característica de fondo prominente de la escena S. Se contempla en el presente documento que el punto FP más lejano puede ser un objeto, persona, lugar, cosa, animal, texto, gráfico u otra marca y similares y combinaciones de los mismos. Además, el punto más lejano FP puede incluir un punto más lejano en la escena S. La selección se logra preferiblemente identificar o hacer clic en el objeto del punto más lejano en la escena S mostrado a través del sistema informático 10, el sistema de usuario 220 y/o el sistema de servidor 260. (Como se muestra en la FIGURA 10).
Las aplicaciones 206 también pueden incluir diseño y manipulación multidimensional 307.2, tal como tridimensional (3D), animación (girar), transformación, acercamiento y combinaciones de efectos de los mismos y similares conocidos por un experto en la técnica, interfaz 307.3 (descrito más adelante en relación con la FIGURA 6.1), geometría de imágenes final 307.4 (que preferiblemente permite el control, por ejemplo, de la dimensión y el tamaño de la(s) imagen(es) maestra(s) digital(es) multidimensional(es) 303), y otros programas de aplicación para reconfigurar, editar y/o reconstruir imágenes o escena S en imágenes maestras digitales multidimensionales 303. Además, los programas de aplicación 307 preferiblemente permiten el control de, por ejemplo, las siguientes variables: recuento de capas/fotogramas, diseño visual, profundidad de campo, paralaje frontal, paralaje posterior para reconfigurar, editar y/o reconstruir imágenes o escena S en imágenes maestras digitales multidimensionales 303.
Haciendo referencia nuevamente a la FIGURA4, y a las FIGURAS 6.1 y 6.2, el diseño y manipulación multidimensional 307.2 pueden incluir efectos digitales, tales como tridimensionales (3D), animación (girar), transformación, acercamiento y combinaciones de efectos de los mismos y similares conocidos por un experto en la técnica. Preferiblemente, el efecto tridimensional (3D) implica colocar en capas múltiples elementos de una imagen en planos o capas de imagen de primer plano, medio y fondo, como se muestra en los fotogramas 600 de la FIGURA 6.2, para proporcionar percepción de profundidad como se ve en una imagen de material microóptico (MOM) o imágenes maestras digitales multidimensionales 303. Estos elementos o capas 600 luego se desplazan entre sí para producir el paralaje apropiado o deseado para imágenes maestra(s) digital(es) multidimensionales 303 a través del mecanismo deslizante 1201 del programa de aplicación de manipulación y diseño multidimensional mostrado esquemáticamente en las FIGURAS 6.2 y 12. Preferiblemente, la animación (girar) utiliza fotogramas, tales como los fotogramas 601-603 de la FIGURA 6.1, en la secuencia de la acción dispuesta por orden de ocurrencia. Esta secuencia puede ser corta, con sólo dos fotogramas, por ejemplo, o secuencias más largas de movimiento y cambios determinados por el número de fotogramas utilizados, número de fotograma 704. Preferiblemente, el efecto de transformación implica el cambio o transformación gradual de una imagen en otra imagen usando Técnicas de animación por ordenador. Esto se logra mejor con formas u objetos similares y es posible que se requiera software adicional para crear efectos de transformación con éxito. Preferiblemente, el efecto de acercamiento es una variación del proceso de animación que implica aumentar gradualmente el tamaño de una única imagen para lograr un efecto de acercamiento. Esto da la impresión de que la imagen se acerca al espectador.
La plataforma de fotones multidimensional 307 incluye además una o más aplicaciones 206 para controlar el mecanismo deslizante 1201 mostrado en las FIGURAS 6.2 y 12 para controlar el paralaje de las capas 600 entre sí mientras se mantiene un punto, el punto objeto clave 609, enfocado en la escena S. El mecanismo deslizante 1201 preferiblemente permite a un operador de la plataforma de fotones multidimensional 307 ajustar una capa 600 con respecto a otra capa 600 y ajustar las capas 600 con respecto al punto objeto clave 609. Aún más, las configuraciones de primer plano y fondo para límites máximos se alejan o se relacionan con punto objeto clave 609. Por lo tanto, el ajuste de las capas 600, por ejemplo, la capa 602, la capa 603 y/o la capa 604 mediante el mecanismo deslizante 1201 o el movimiento del punto objeto clave 609 establece el punto objeto clave 609 enfocado en la(s) imagen(es) maestra(s) digital(es) multidimensional(s) 303.
En el ejemplo de la FIGURA 6.2, cada capa 600 incluye el elemento de imagen principal de imágenes de archivo de entrada o escena S de la aplicación de adquisición de imágenes 301, de modo que el punto objeto clave 609 esté desplazado del eje principal mediante un valor de paralaje calculado. La línea de paralaje 607 representa el desplazamiento lineal de los puntos objeto clave 609.1 - 609.5 desde el eje principal. Preferiblemente, el delta 611 entre el eje principal y la línea de paralaje 607 y la línea central o perpendicular 612 representa una cantidad lineal del valor de paralaje Pmáx. 706 o el valor de paralaje óptimo 708, cuyos valores se describen a continuación en relación con las FIGURAS 7Ay 7B.
Se reconoce en el presente documento que el punto objeto clave 609.3 en el fotograma 3 603 está colocado preferiblemente cerca del punto medio 610 del mapa de profundidad o el punto medio 610 entre el fotograma 1601 al fotograma 5605 y, más específicamente, que el punto objeto clave 609.3 puede ajustarse hasta o aproximadamente más o menos quince por ciento (+/-15 % de ajuste) próximo al punto medio 610 para una producción óptima de imágenes maestras digitales multidimensionales 303. Además, el punto objeto clave KS se coloca preferiblemente cerca del punto medio 610 del mapa de profundidad o del punto medio 610 entre el punto más cercano CP y el punto más lejano FP y, más específicamente, el punto objeto clave KS puede ajustarse aproximadamente más o menos quince por ciento (+/-15 % de ajuste) cerca del punto medio 610 para una producción óptima de imagen(es) maestra(s) digital(es) multidimensional(es) 303.
Se reconoce además en el presente documento que el punto objeto clave 609.3 en el fotograma 3603 puede ser asignado por el procesador a un valor de escala de grises de un número o número de escala de grises intermedio o medio dentro de un rango de escala de grises (0-255 para un procesador de 8 bits), por ejemplo un número medio entre 0-255, tal como 127 en un sistema de 8 bits.
Un experto en la técnica sabe que se pueden utilizar diferentes algoritmos, software o aplicaciones de optimización 206, tales como la plataforma de fotones multidimensional 307, para crear imágenes maestras digitales multidimensionales 303 o técnicas y parámetros como se divulga en, por ejemplo, Microsoft Research titulado A Review of Image-based Rendering Techniques, Orasee Corporation Software User Guide y Training and Support Entitled Professional 3D and Motion Imaging Design.
Haciendo referencia ahora a la FIGURA 5, a modo de ejemplo, y sin limitación, se ilustra un diagrama de bloques de una realización ejemplar de la plataforma de fotones multidimensional 307 que incluye además una o más aplicaciones 206, tales como aplicaciones de adquisición de imágenes 301. Aplicación(es) de adquisición de imágen(es) 301 está configurado preferentemente para recibir imágenes o vídeos o escenas S desde un teléfono inteligente, PDA, tableta, cámara u ordenador personal, tal como un dispositivo de captura digital DCD y formatea o configura escenas S para entrada en la plataforma de fotones multidimensional 307. Por ejemplo, y sin limitación, una o más aplicaciones de adquisición de imágenes 301 pueden incluir aplicaciones de adquisición de imágenes para imágenes de cámaras, dispositivos electrónicos o cubiertas de teléfonos, sistemas de mapas 3D (por ejemplo, Google, Microsoft), carteles en puntos de venta, imágenes médicas, envases en 3D, copias impresas de realidad virtual, sistemas CAD, tarjetas de felicitación para consumidores en 3D, etiquetas, rótulos, tarjetas de identificación (ID) y similares, software, Photoshop, cinema4D y similares, Vídeo 3D y combinaciones de los mismos. Se contempla en el presente documento que la aplicación de adquisición de imágenes 301 puede preparar, formatear, convertir o configurar imágenes o escenas 2D o vídeos para la interfaz con la plataforma de fotones multidimensionales 307. Se reconoce en el presente documento que las imágenes digitales de origen o vídeos, tales como escena(s) S, pueden capturarse e introducirse a través de la aplicación de adquisición de imágenes 301 en la plataforma de fotones multidimensional 307 desde una variedad de dispositivos de captura digital DCD, tales como cámaras digitales (lente doble y lente única que capturan múltiples tomas), dispositivos de captura de vídeo, sistemas de conversión de dos dimensiones (2D) a tres dimensiones (3d ), imágenes médicas (tubo de rayos catódicos (CRT), ultrasonido, imágenes por resonancia magnética (MRI), tomografía computarizada (CT)), imágenes generadas por ordenador (diseño asistido por ordenador) (CAD), imágenes de estudio 3D, realidad virtual, cine de cuarta dimensión (4D), imágenes satelitales (imágenes ópticas, imágenes multiespectrales (ultrasonidos, radar, infrarrojos)) y similares.
Se reconoce en el presente documento que la aplicación de adquisición de imágenes 301 se puede utilizar para convertir o reformatear escenas S a un formato de imagen estándar, tal como archivos JPEG, GIF y TIF, y, además, se puede utilizar para convertir o reformatear escenas S en pares de imágenes estéreo, como la imagen digital izquierda y la imagen digital derecha de la escena S (como se muestra en la FIGURA 11) o recuperar escena(s) S de imagen digital izquierda e imagen digital derecha.
Preferiblemente, la plataforma de fotones multidimensional 307 incluye además una o más aplicaciones 206, tales como manipulación de imágenes 307.1, diseño y manipulación multidimensionales 307.2, interfaz 307.3 y geometría de imagen final 307.4, que pueden ser programas, scripts, aplicaciones, firmware o similares. (Ver FIGURA 5) con referencia ahora a la FIGURA 6.1, a modo de ejemplo, y sin limitación, se ilustra un diagrama de una realización ejemplar de dos o más imágenes, vistas, fotogramas o capas 600 creadas por una plataforma de fotones multidimensional 307 de imagen(es) o escena(s) S o vídeos recibidos de la(s) aplicación(es) de adquisición de imágenes 301. Preferiblemente, la manipulación de imágenes 307.1 reconfigura imágenes o escenas S o vídeos recibidos de la aplicación de adquisición de imágenes 301, genera una o más imágenes, vistas, fotogramas o capas 600 de la escena S, tal como el fotograma 601, el fotograma 602 y el fotograma 603, etc., a partir de imágenes o escenas S o vídeos a través de la aplicación de adquisición de imágenes 301. Por ejemplo, la manipulación de imágenes 307.1 puede permitir a un usuario crear un par de imágenes estéreo izquierda y derecha, tal como el fotograma 601 y el fotograma 602, seleccionando, identificando o haciendo clic en los puntos de los objetos clave KS en la escena S, el punto más cercano CP en la escena S - la característica destacada de primer plano de la escena S, y el punto más lejano FP en la escena S - la característica de fondo prominente de la escena S, como se divulga adicionalmente en la FIGURA 10. Además, la manipulación de imágenes 307.1 preferiblemente permite a un usuario crear un mapa de profundidad aplicable a partir de las capas 600.
Un experto en la técnica sabe que se pueden usar diferentes algoritmos, tales como el algoritmo de desplazamiento de píxeles, para crear mapas de profundidad de capas 600 o técnicas y parámetros como se divulga en, por ejemplo, IEEE Computer Society Anisotropic Diffusion of Surface Normals for Feature Preserving Surface Reconstruction.
Haciendo referencia nuevamente a la FIGURA 5 diseño y manipulación multidimensional 307.2 preferiblemente permite a un usuario crear un mapa de profundidad aplicable de capas 600, como pares estéreo de una sola imagen, pintando un mapa de profundidad usando un pincel digital y una paleta de colores grises de, por ejemplo, 0-255 tonos de gris. Un mapa de profundidad es preferiblemente una imagen maestra digital multidimensional realista 303 derivada de capas 600 basándose en la asignación de una escala de grises volumétrica de un número mínimo o bajo o inicial, tal como 0 para blanco (siendo el objeto más cercano en una escena o capas 600), y asignar un número alto, máximo o final, tal como 255 (8 bits) para negro (siendo el objeto más alejado de una escena o capas 600), y 253 o su rango equivalente de tonos de gris entre el más cercano y el objeto más lejano en una escena o capas 600. El punto más cercano o más próximo en la escena es el más claro (blanco) y el más lejano es el más oscuro (negro) con diferentes niveles de gris en el medio (escala de grises).
Haciendo referencia nuevamente a la FIGURA 5, la interfaz 307.3 preferiblemente descompone las imágenes de los pares estéreo o la escena y recrea la imagen con segmentos sintonizados con la salida final (vista en la pantalla de visualización 305 y/o impresa en la impresora 304). Haciendo referencia ahora a la FIGURA 6.1, a modo de ejemplo, y sin limitación, se ilustra un diagrama de una realización ejemplar de la plataforma de fotones multidimensional 307 para la interfaz 307.3. En la realización, la interfaz 307.3 incluye dos o más imágenes, vistas o capas 600 (el número de fotograma total 704, siendo el valor de 3 en esta figura) de la escena S, en este caso, fotograma 601-fotograma 3 603. La interfaz 307.3 es preferiblemente un proceso para crear una imagen maestra, tal como una imagen maestra multidimensional 303, e implica combinar varias secciones o segmentos diferentes de la capa 600 de una escena 2D S para formar una imagen maestra multidimensional 3D o en movimiento 303. El proceso de interfaz 307.3 preferiblemente toma secciones, tiras, filas o columnas de píxeles, tales como columnas 606 de la misma sección de cada capa 600 de la escena S, tales como el fotograma 601, el fotograma 602 y el fotograma 603, y los reconfigura o dispone en serie uno al lado del otro, tal como en la serie repetida 608, y repite esta configuración para todas las capas 600 para generar una imagen maestra multidimensional 303. Preferiblemente, el número de columnas 606 está determinado por la frecuencia del material microóptico (MOM) de lente por pulgada - lente utilizada para capturar una escena digital dividida por la resolución de impresión deseada en puntos por pulgada - de la impresora 304 o píxeles por pulgada - de la pantalla de visualización 305. Por ejemplo, si la lente es una lente de 100 LPI y la impresora 304 es de 300 DPI, entonces se imprime a 300 DPI/Lente 100 LPI = 3 columnas 606 en series repetidas 608 para formar una imagen maestra multidimensional 303. En el caso de pantallas de barrera (pantalla de visualización 305), el recuento de pantalla de barrera reemplazaría la lente por pulgada LPI y la densidad de píxeles del dispositivo de salida reemplazaría la DPI. Así, para una pantalla de barrera con 91 líneas por pulgada y un dispositivo de salida con una densidad de píxeles de 182, el cálculo derivaría un número de 2 columnas 606 en series repetidas 608 para formar una imagen maestra multidimensional 303. Es conocido por un experto en la técnica que se pueden usar diferentes algoritmos, tales como algoritmo de entrelazado, para crear o generar una imagen maestra multidimensional 303. La imagen maestra multidimensional 303 se puede ver bajo la lente apropiada o seleccionada, ya sea lenticular 302, impresora receptora 304 y/o pantalla de visualización 305, para “reproducir” el efecto lenticular grabado (imágenes 3D o imágenes en movimiento).
El proceso de interfaz 307.3 anterior no es selectivo y toma todos y cada uno de los píxeles de una escena a través de este proceso de creación de bandas y puede ser destructivo para la imagen dando como resultado una distorsión de píxeles en áreas de la imagen maestra multidimensional 303 que no cambian de un píxel a otro de un fotograma 601, fotograma 602 y fotograma 603. Por lo tanto, la plataforma de fotones multidimensional 307 incluye además preferiblemente una o más aplicaciones 206, tales como un algoritmo de entrelazado personalizado de interfaz 307.3 que permite la interfaz selectiva de píxeles de los píxeles de cada fotograma (interfaz selectiva), tal como secciones selectivamente en interfaz del fotograma 601 - fotograma 603 para determinar cuáles, si los hay, píxeles o sección(es) de fotogramas, fotograma 601 - fotograma 603 requieren procesamiento de interfaz a través del interfaz 307.3. Por ejemplo, al intercalar selectivamente sólo aquellos píxeles que cambian de un fotograma a otro, tales como el fotograma 1601, el fotograma 2602 y el fotograma 3603, el algoritmo de interfaz personalizado de la interfaz 307.3 se configura preferiblemente para reducir la distorsión de píxeles en la(s) sección(es) de fotograma 601- fotograma 603 que no cambian de fotograma a fotograma o que un usuario no desea cambiar de fotograma a fotograma. Preferiblemente, la no aplicación del algoritmo de interfaz de interfaz 307.3 a áreas o secciones del fotograma 601 al fotograma 603, tales como objeto clave, paralaje cero, secciones de animaciones no móviles, texto no móvil, logotipos, etc. y/o gráficos, da como resultado secciones claras y nítidas sin movimiento de sección. Esto da como resultado imágenes maestras digitales multidimensionales 303 de mayor calidad y reduce el tiempo de procesamiento del sistema informático 10, el sistema de usuario 220 y/o el sistema de servidor 260 (mostrados en las FIGURAS 1 y 2) para generar imagen(es) maestra(s) digital(es) multidimensional(es) 303.
Haciendo referencia nuevamente a la FIGURA 5, la geometría de la imagen final 307.4 configura o ajusta preferiblemente la imagen maestra multidimensional 303 para que corresponda con el dispositivo de salida terminado, tal como la pantalla de visualización 305 o la impresora 304. Además, la imagen maestra multidimensional 303 puede transmitirse al sistema informático 10, al sistema de usuario 220 y/o sistema de servidor 260 (mostrado en las FIGURAS 1 y 2) a través de la red 250. Además, la geometría de imagen final 307.4 se puede utilizar para configurar la imagen maestra multidimensional 303 en un formato que sea apropiado para ver en una pantalla de visualización 305 o RIPPED (Procesador de Imagen Rasterizada) para imprimir una imagen maestra multidimensional 303 en una máquina de impresión comercial tal como flexografía, litografía o impresión directa, impresora 304.
Haciendo referencia ahora a las FIGURAS 7Ay 7B, a modo de ejemplo, y sin limitación, hay hojas de cálculo ilustradas para calcular parámetros de imágenes digitales, tales como paralaje mínimo (Pmín.) 702, paralaje máximo (Pmáx.) 706 y número de fotograma 704 en función de la resolución de imágenes de entrada digital y la geometría de la lente Ls, respectivamente. En el caso de visualizar la pantalla 305, si la pantalla es una pantalla lenticular entonces no se encuentran cambios; sin embargo, para pantallas no lenticulares, la Ls se reemplaza con el tipo de dispositivo DT, respectivamente.
El número máximo de fotogramas a utilizar en un proyecto de material microóptico se calcula mediante la siguiente fórmula:
R/L = F; (1.1)
Donde R es la resolución de salida (Salida DPI Max) de la impresora 304 y L es LPI (lente propuesta por pulgada de la pantalla lenticular de visualización) que da como resultado F o el número máximo de capas 600 o vistas de imágenes maestras digitales multidimensionales 303 (como se muestra en la FIGURA 6.2). Esta fórmula se aplica a imágenes de material microóptico en movimiento, así como a imágenes 3D o estereoscópicas generadas por la plataforma de fotones multidimensional 307 desde la aplicación de adquisición de imágenes 301. En el ejemplo de la FIGURA 7A, el número máximo de fotogramas es 24 según un valor R de 2400 DPI y un valor L de 100 LPI.
El número de fotogramas, tal como el fotograma número 704, para uso en un proyecto de pantalla de visualización de barrera, tal como la pantalla de visualización 305, se calcula mediante la siguiente fórmula:
PD/B = F; (1.2)
Donde PD es la resolución de densidad de píxeles de la pantalla de visualización 305 y B es BPI (lente de barrera propuesta por pulgada de la pantalla lenticular de visualización), lo que da como resultado F o el número óptimo de capas 600 o vistas de imágenes maestras digitales multidimensionales 303 (como se muestra en la FIGURA6.2). Esta fórmula se aplica a imágenes 3D o estereoscópicas generadas por la plataforma de fotones multidimensional 307 desde la aplicación de adquisición de imágenes 301. En el ejemplo de la FIGURA 7B, el número de fotograma 704 es 2 basándose en un valor de PD de 188 y un valor de B de 94 BPI. Se reconoce en el presente documento que dos fotogramas son típicos para imágenes de pares estéreo en los formatos de archivo .jps y .mpo, pero no representan una limitación en el número de imágenes. Por ejemplo, otra realización podría abarcar una pantalla de barrera dinámica de ajuste de ángulo en tiempo real que podría mostrar una pluralidad de imágenes más allá del simple estéreo de dos fotogramas.
El valor de paralaje mínimo utilizable (Pmín.) 702 para aplicaciones de materiales microópticos se calcula preferiblemente mediante la siguiente fórmula:
F/D = Pmín; (2.1)
Donde F es el número de fotogramas utilizados durante el entrelazado (interfaz 307.3 como se describe en la FIGURA 5) y D es la resolución DPI (puntos por pulgada) de las imágenes del archivo de entrada digital o escena S de la aplicación de adquisición de imágenes 301, lo que da como resultado Pmín. o el paralaje mínimo entre capas adyacentes 600 (como se muestra en la FIGURA 6.2). Esta fórmula elimina los movimientos fraccionarios de píxeles que causan distorsión digital durante la generación de paralaje. Se contempla en el presente documento que Pmín. se basa preferiblemente en el movimiento de píxeles más pequeño posible. En el ejemplo de la FIGURA 7a , Pmín.
702 es 0.040 pulgadas, basado en un número de fotograma 704 de 12 y una resolución de archivo de entrada digital D de 300 DPI.
El valor de paralaje mínimo utilizable (Pmín.) 702 para una pantalla no lenticular se calcula preferiblemente mediante la siguiente fórmula:
F/R = Pmín; (2.2)
Donde F es el número de fotogramas utilizados durante el entrelazado (interfaceador 3D 506 como se describe en la FIGURA 5) y R (resolución) es la resolución de las imágenes del archivo de entrada digital o escena S de la aplicación de adquisición de imágenes 301, lo que da como resultado Pmín. o el paralaje mínimo entre capas adyacentes 600 (como se muestra en la FIGURA 6.2). Esta fórmula elimina los movimientos fraccionarios de píxeles que causan distorsión digital durante la generación de paralaje. Se contempla en el presente documento que Pmín. se basa preferiblemente en el movimiento de píxel más pequeño posible de 1 píxel. En el ejemplo de la FIGURA 7B, Pmín.
702 es 0.007 pulgadas, (0.1778 mm) basado en un número de fotogramas 704 de 2 y una resolución de archivo de densidad de píxeles R de 300.
Se reconoce en el presente documento que la optimización del número de fotogramas 704 o las vistas permite que la plataforma de fotones multidimensional 307 aproveche al máximo las capacidades de la impresora 304/pantalla de visualización 305. Usar la resolución de salida máxima para la impresora 304/pantalla de visualización 305 no es óptimo ya que solo 1 píxel de información estará disponible para cada fotograma o tira de material microóptico/datos de pantalla de barrera, tales como tiras o columnas 606, como se muestra en la FIGURA 6.1. Además, la plataforma de fotones multidimensional 307 está configurada preferiblemente para permitir la calibración de material microóptico/pantalla de barrera (ajustes de paso, cambios de resolución, cambio de tamaño) y requiere calcular valores de píxel por fotograma de 2 o superiores.
El número óptimo de fotogramas está determinado por la siguiente fórmula para aplicaciones de materiales microópticos:
(R/M)/L = Fopt; (3.1)
Donde R es la resolución de salida (Salida DPI máx.) del dispositivo de impresión, M es una variable de 2 a 4 que representa las resoluciones de salida múltiples pares de la impresora obtenidas a partir del cálculo de píxeles por fotograma, y L es LPI (lente propuesta por pulgada), lo que da como resultado Fopt o el número optimizado de capas 600 o vistas. En una impresora Epson, por ejemplo, la variable M puede ser 2, dando incluso resoluciones de salida de 360, 720, 1440 y 2880 DPI. Otro ejemplo es una impresora Canon, donde se utiliza una variable 2 (multiplicador M) y se proporcionan incluso múltiples resoluciones de salida de 300, 600, 1200 y 2400 DPI. La variable M se calcula determinando los valores de DPI de píxel por fotograma. Preferiblemente, la resolución de salida real durante la impresión se establece al máximo aunque se calcule usando una resolución más baja, incluso múltiplo M. La utilización de valores más altos de píxeles por fotograma reduce la distorsión de calibración del material microóptico. Se reconoce además en el presente documento que dos píxeles por fotograma es preferiblemente el mínimo para lograr imágenes de alto nivel. Se reconoce además en el presente documento que ningún movimiento fraccionario de píxeles ayuda a reducir o eliminar la distorsión digital en la(s) imágen(es) maestra(s) digital(es) multidimensional(es) 303. En el ejemplo de la FIGURA 7A, la resolución máxima de salida de la impresora R es 2400 y la lente de pantalla propuesta por pulgada es 100 LPI. Suponiendo un valor de 2 para el multiplicador M, el número óptimo Fopt es 12.
El número máximo de fotogramas está determinado por la siguiente fórmula para pantallas de visualización no lenticulares:
PD/B = F; (3.2)
Donde PD es la densidad de píxeles de resolución de salida de la pantalla de visualización 305, y B es (paso de barrera propuesto), lo que da como resultado F o el número optimizado de capas 600 o vistas. Se reconoce en el presente documento que ningún movimiento fraccionario de píxeles ayuda a reducir o eliminar la distorsión digital en la(s) imágen(es) maestra(s) digital(es) multidimensional(es) 303. En el ejemplo de la FIGURA7B, la resolución máxima de salida de la pantalla de visualización PD es 188 y el paso de pantalla de barrera propuesta es 94 BP, lo que da el número óptimo Fopt como 2.
El valor de paralaje máximo utilizable (Pmáx.) 706 se calcula preferiblemente mediante la siguiente fórmula para aplicaciones de materiales microópticos:
W x F = Pmáx.; (4.1)
Donde W es el ancho de una sola lente Ls (ancho del material microóptico, lente por pulgada) en pulgadas y F es el número de fotogramas utilizados, lo que da como resultado Pmáx. 706 o el valor de paralaje óptimo 708 (0.12). Preferiblemente, Pmáx. 706 optimiza las características ópticas de la lente lenticular Ls. Se reconoce en el presente documento que se pueden usar valores superiores a este máximo pero pueden exceder el poder de resolución de la lente Ls. Se contempla en el presente documento que Pmáx. 706 se base preferiblemente en el ancho lenticular para un control óptimo del paralaje en imágenes maestras digitales multidimensionales 303. En el ejemplo de la FIGURA 7A, Pmáx. es 0.12 para una W de 0.0101 pulgadas (0.25654 mm) (L=100) y un F de 12.
El valor de paralaje máximo utilizable (Pmáx.) 706 se calcula preferiblemente mediante la siguiente fórmula para pantallas de visualización no lenticulares:
WB x F = Pmáx.; (4.2)
Donde WB es el ancho de paso de la barrera de un tipo de pantalla DT (Pantalla de barrera), en pulgadas y F es el número de fotogramas utilizados, lo que da como resultado Pmáx. 706 o el valor de paralaje óptimo 708 (0.02). El valor de Pmáx. 706 se puede ajustar al valor de paralaje óptimo 708. Preferiblemente, Pmáx. 706 optimiza las características ópticas de la pantalla de barrera tipo DT Se reconoce aquí que se pueden usar valores superiores a este máximo pero pueden exceder el poder de resolución del tipo de pantalla Dt Se contempla en el presente documento que Pmáx. 706 se base preferiblemente en el ancho de paso de barrera para un control óptimo del paralaje en imágenes maestras digitales multidimensionales 303. En el ejemplo de la FIGURA 7B, Pmáx. es 0.02 para un WB de 0.0106 pulgadas (0.26924 mm) y un F de 2.
Los valores de paralaje intermedios Pint. 710 entre Pmín y Pmáx. se calculan mediante la siguiente fórmula:
Pmín. x K = Pint.; (5)
(Donde K es un número entero que representa un movimiento de píxel completo, y la misma ecuación es válida para aplicaciones de pantalla de visualización y material microóptico (MOM) en las FIGURAS 7Ay 7B)
La FIGURA 7A
0.04*1=0.04; Pmín.
0.04*2=0.08 Pint.
0.04*3=0.12; Pmáx.
La FIGURA 7B
0.007*1=0.007; Pmín.
0.007*2=0.0013; Pint.
0.007*3=0.020; Pmáx.
Donde Pint. 710, los valores de paralaje intermedio 710 entre Pmín. y Pmáx., no exceden el Pmáx. 706 y K es un número variable basado en el número de múltiplos pares entre Pmín. 702 y Pmáx. 706. (Los valores de paralaje intermedio 710 son múltiplos pares de los mínimo de paralaje, Pmín. 702. Pmín. 702 se multiplica por 1, 2, 3, 4, etc. hasta alcanzar el valor de Pmáx. 706). Se contempla en el presente documento que los valores de paralaje intermedio 710 se basan preferiblemente en múltiplos enteros pares de Pmín. 702 para un control óptimo del paralaje de la(s) imágen(es) maestra(s) digital(es) multidimensional(es) 303.
Los valores más allá de Pmáx. 706 se calculan utilizando el mismo método que Pint. 710, es decir, Pmáx.* 2, Pmáx.*3, etc. Estos valores representan puntos de paralaje que favorecen el centro de cada pico de lente y se pueden utilizar como súperparalaje Pmáx.+ 711.
Algunas ilustraciones se pueden calibrar para Pmáx.+, preferiblemente fondo o paralaje lejano, dimensionando los elementos artísticos para que coincidan con el valor de paralaje y mencionando el elemento artístico con el mismo espacio, es decir, un valor de Pmáx.+ como 0.40. Por lo tanto, el espaciado del patrón de elementos artísticos sería de 0.40 pulgadas (10.16 mm).
La gama completa de paralaje utilizable para los elementos/capas de primer plano y de fondo en relación con el punto objeto clave 609 o el elemento/capa clave para un proyecto 3d dado se calcula simplemente reflejando los valores positivos obtenidos de las FIGURAS 7Ay 7B y asignando negativos a los valores traseros y cero al objeto clave. FIGURA 7A
-0.24; Pmáx.+
-0.12 Pmáx. Paralaje de fondo negativo
-0.08 Pint.
-0.04 Pmín.
0.0 Asunto clave
0.04 Pmín.
0.08 Pint.
0.12 Pmáx. Paralaje positivo en primer plano
0.12; Pmáx.+
Una técnica típica es utilizar la mitad del valor de paralaje trasero más alto para el valor de paralaje delantero más alto, como se muestra arriba.
Además, se reconoce en el presente documento que el cálculo de Pmín. 702 y/o Pmáx. 706 en relación con el dispositivo de salida, tal como DPI de impresora y lente de material micro óptico (lenticular) por pulgada para la impresora 304 o la pantalla de visualización 305 con parámetros equivalentes, tales como barrera de pantalla, paso de pantalla y densidad de píxeles, e integración de esta información en el proceso de creación de imágenes de la plataforma de fotones multidimensional 307 mejora la producción de imágenes maestras digitales multidimensionales 303 de alta calidad. Estas fórmulas básicas de cálculo de paralaje establecen los valores de paralaje mínimo Pmín.
702 y de paralaje máximo Pmáx. 706 que pueden usarse en cualquier proyecto de imágenes estereoscópicas que empleará entrada de imagen digital y salida de impresión dependiente de la resolución. Se reconoce en el presente documento que estos parámetros también establecen valores de píxeles por fotograma y crean una guía general para seleccionar combinaciones de impresora 304, lente de material microóptico o pantalla de visualización 305, pantalla de barrera y combinaciones de archivos digitales que tienen una compatibilidad y un propósito común. En las pruebas que utilizan estos valores base, cada imagen de prueba estereoscópica que utiliza la plataforma de fotones multidimensional 307 ha tenido un excelente efecto 3D y prácticamente ninguna distorsión o borrosidad asociada con los métodos anteriores. Se reconoce además en el presente documento que la utilización de la plataforma de fotones multidimensional 307 optimiza las capacidades de entrada/salida con un determinado material de lente Ls o tipo de pantalla DT
El cálculo optimizado del paralaje para imágenes estereoscópicas 3D mediante el uso de la plataforma de fotones multidimensionales 307 elimina defectos de diseño que incluyen imágenes fantasma e imágenes dobles. También elimina el fondo borroso y los objetos de primer plano que se ven al aplicar valores de paralaje excesivos.
El ajuste de paralaje Pa está determinado por la siguiente fórmula para aplicaciones de materiales microópticos:
Pa= Rs/F. (6)
Donde Rs para imágenes impresas es el ajuste de cambio de tamaño y F es el número de fotogramas utilizados. Rs se determina a partir de una calibración del dispositivo de salida al material microóptico. Se genera una prueba de tono en el dispositivo de impresión final y se utiliza para determinar el ajuste necesario para que la obra de arte coincida con el material. La prueba de paso es una serie de líneas negras calculadas con diferentes valores conocidos. Un ejemplo es una prueba de paso para 100 lentes por pulgada donde los valores calculados están entre 99.95 y 100.05 en intervalos de 0.01. La salida se adapta al material microóptico y se determina un valor de cuánto debe expandirse o contraerse la pieza de trabajo real para que coincida con la matriz microóptica. Rs está determinada por:
Rs = (Ancho del arte original) - Ancho de cambio de tamaño (7)
El ancho de cambio de tamaño RW se calcula en un cálculo de cambio de tamaño utilizando el valor determinado en la prueba de paso. Este valor representa la cantidad que se reduce o expande la obra de arte original para que las columnas de píxeles en interfaz queden directamente detrás de la lente del material microóptico. En el ejemplo de la FIGURA 7A, el ancho de la obra de arte original AW es 4.599, el ancho de cambio de tamaño RW es 4.46, Rs es 0.139 y F es 12, dando un valor de Pa de 0.012. El ajuste de paralaje de /- 0.012 que restablece el paralaje máximo Pmáx.
706 (de 0.12 a 0.132), compensa la distorsión del cambio de tamaño del paso para la(s) imágen(es) maestra(s) digital(es) multidimensional(es) 303.
No es necesario ningún ajuste de cambio de tamaño para las aplicaciones de pantalla de barrera, ya que la obra de arte original se adapta al dispositivo de visualización. Por lo tanto, la Ecuación 6 no se aplica.
El paralaje óptimo está determinado por el tipo de dispositivo (recuento de líneas de pantalla y distancia de la imagen a la pantalla), la distancia de visualización, la densidad de píxeles y el tamaño de la imagen. Actualmente se utilizan tablas de consulta para determinar el paralaje óptimo. Las tablas se basan en el dispositivo y el tamaño de la imagen y en los resultados experimentales en los que las FIGURAS 7A y 7B representan ejemplos de dichas tablas. Las variables en la FIGURA 7A (R, L, F, D y Ls) se cambiarían adecuadamente para la mezcla de dispositivos y método de visualización para determinar el recuento de fotogramas y el paralaje necesarios para efectos visuales 3D óptimos.
La utilización de la plataforma de fotones multidimensional 307 para integrar el paralaje mínimo calculado (Pmín.) 702, el paralaje máximo (Pmáx.) 706, el punto objeto clave 609 y el número de fotograma 704 basándose en la resolución de imágenes de entrada digital y la geometría de la lente Ls, respectivamente, da como resultado el punto objeto clave enfocadas 609 en imágenes maestras digitales multidimensionales 303 prácticamente sin distorsión ni borrosidad. Además, el paso Pt, el cambio de tamaño Rs y el número de fotograma F se pueden utilizar para calcular el ajuste de paralaje Pa cuando sea necesario para los resultados impresos. Los cálculos de la pantalla de barrera dependen de tablas de consulta integradas en la plataforma en la que las FIGURAS 7Ay 7B representan ejemplos de dichas tablas.
Si bien el punto objeto clave 609 puede estar en el punto medio aproximado y el paralaje como se muestra en la FIGURA 6.2 muestra una aplicación lineal del paralaje; sin embargo, el punto objeto clave 609 puede estar descentrado, como se muestra en los fotogramas 600 de la FIGURA 6.3 y el paralaje aplicado de forma no lineal. La aplicación no lineal se define como la aplicación de paralaje desde el frente (punto objeto clave 609 al primer plano o al punto CP más cercano en la escena S) o en la parte posterior (punto objeto clave 609 al punto de fondo o al punto más lejano FP en la escena S) con el paralaje residual aplicado en la región opuesta. En este caso la línea de paralaje no será una línea recta sino una línea dual.
En el ejemplo de la FIGURA 6.3, cada capa 600 incluye el elemento de imagen principal de las imágenes del archivo de entrada o la escena S de la aplicación de adquisición de imágenes 301, de manera que los puntos objeto clave del objeto 609.6 a 609.10 pueden estar descentrados y el paralaje aplicado de manera no lineal. Preferiblemente, el resumen del delta 611.1 y 611.2 entre el eje principal 612 y la línea de paralaje 607.1 representa una cantidad lineal de paralaje total.
Haciendo referencia ahora a las FIGURAS 8-12, se ilustra a modo de ejemplo, y sin limitación, un diagrama de flujo 800 de un método para capturar una imagen o escena 2D S, generar fotogramas, reconfigurar, procesar, visualizar, almacenar e imprimir imagen(es) maestra(s) digital(es) multidimensional(es) 303. En el bloque o etapa 801, las imágenes de la escena S o el par estéreo se capturan o se introducen a través del sistema informático 10 y/o el sistema de usuario 220 y se introducen a través de la aplicación de adquisición de imágenes 301 en el sistema informático 10, el sistema de usuario 220 y/o el sistema servidor 260 (mostrado en las FIGURAS 1 y 2). La FIGURA 9 ilustra a modo de ejemplo, y sin limitación, un diagrama de un dispositivo de captura digital DCD que captura la escena S, que incluye objetos a diferentes profundidades, tales como el arbusto B en primer plano, el árbol T en segundo plano y la persona P entre el arbusto B y el árbol T El dispositivo de captura digital DCD puede incluir uno o más dispositivos de captura digital DCD para capturar diferentes perspectivas o ángulos de la misma escena S. Se contempla en el presente documento que la escena S también puede generarse por ordenador.
Alternativamente, en el bloque o etapa 801.1, las imágenes de la escena S pueden obtenerse de la aplicación/software de diseño gráfico 206, tal como Photoshop, Cinema 4D, 3D Studio Max, Diseño asistido por ordenador (CAD), Free Cinema, Video System, cualquiera de la aplicación de adquisición de imágenes 301 expuesta en la FIGURA 5 o cualquier otro sistema de captura de imágenes aplicable.
En la FIGURA 10, se ilustra a modo de ejemplo, y sin limitación, un ejemplo representativo de una o más imágenes 2D 1000 de la escena S capturadas por el dispositivo de captura digital<d>C<d>. En el bloque o etapa 802 de la FIGURA 8, la imagen 2D 1000 de la escena S se convierte en una imagen digital izquierda 1101 y una imagen digital derecha 1102 de la escena S (como se muestra en la FIGURA 11). Si el dispositivo de captura digital DCD captura múltiples perspectivas o ángulos de la escena S, la imagen digital izquierda 1101 y la imagen digital derecha 1102 de la imagen 2D 1000 pueden recuperarse del dispositivo de captura digital DCD.
Alternativamente, en el bloque o etapa 802.2, la imagen 2D 1000 de la escena S se convierte en capas de profundidad que tienen una capa de primer plano, tal como el punto más cercano CP, el punto objeto clave KS y un fondo, tal como el punto más lejano FP
En el bloque o etapa 803, se seleccionan las características destacadas, el plano objeto clave o el punto objeto clave KS de la escena S (por ejemplo, la persona P).
Se contempla en el presente documento que el punto objeto clave KS puede ubicarse en un objeto, persona, lugar, cosa, animal, texto, gráfico u otra marca y similares, y combinaciones de los mismos. Además, el objeto clave KS puede incluir uno o más objetos del objeto clave dentro de la escena S; en este caso se utiliza un fotograma de objeto clave en lugar de un punto objeto clave. La selección se logra preferiblemente identificando o haciendo clic en los puntos de los objetos clave KS en la escena S mostrada a través del sistema informático 10, el sistema de usuario 220 y/o el sistema de servidor 260.
En el bloque o etapa 804, se seleccionan una(s) característica(s) destacada(s) de primer plano y una(s) característica(s) destacada(s) de fondo de la escena S como el punto más cercano CP y el punto más lejano FP, respectivamente. Se contempla en el presente documento que el punto más cercano CP y el punto más lejano FP pueden ser un objeto, persona, lugar, cosa, animal, texto, gráfico u otra marca y similares, y combinaciones de los mismos. Además, el punto más cercano CP y el punto más lejano FP pueden incluir uno o más puntos más cercanos y puntos más lejanos dentro de la escena S. La selección se logra preferiblemente identificando o haciendo clic en el objeto del punto más cercano (por ejemplo, el arbusto B) y del punto más lejano (por ejemplo, el árbol T) en la escena S mostrada a través del sistema informático 10, el sistema de usuario 220 y/o el sistema de servidor 260. Además, dentro del módulo de manipulación de imágenes 307.1 existe un módulo para definir el punto más cercano y más lejano con supervisión mínima del usuario u operador.
En el bloque o etapa 804.5, ingresar y/o calcular el paralaje mínimo Pmín. 702, el paralaje máximo Pmáx. 706, el número de fotograma 704, F opt, Pint y Pmáx.+, como se establece en la FIGURA 7A y 7B.
Haciendo referencia nuevamente a la FIGURA6.2, el punto objeto clave KS se coloca preferentemente cerca del punto medio 610 del mapa de profundidad o del punto medio 610 entre el punto más cercano CP (fotograma 601) y el punto más lejano FP (fotograma 605). Más específicamente, el punto objeto clave KS puede ajustarse hasta o aproximadamente más o menos quince por ciento (+/-15 % de ajuste) próximo al punto medio 610 para una producción óptima de imágenes maestras digitales multidimensionales 303.
Se reconoce además en el presente documento que el procesador puede asignar al punto objeto clave KS un valor de escala de grises de un número medio o un valor de escala de grises intermedio o un número dentro de un rango de escala de grises (0-255 para un procesador de 8 bits), por ejemplo un número medio entre 0-255 para un procesador de 8 bits, tal como 127, al punto más cercano CP se le puede asignar un valor de escala de grises de un número inicial, por ejemplo un número inicial entre 0-255 para un procesador de 8 bits, tal como 0, y al punto más lejano a FP se le puede asignar un valor de escala de grises de un número final, por ejemplo, un número final entre 0 y 255 para un procesador de 8 bits, tal como 255.
Otra realización ejemplar de la plataforma de fotones multidimensional 307 comprende el uso de un mapa en escala de grises interpolado para generar paralaje volumétrico usando valores asignados a los diferentes puntos (punto más cercano CP, punto objeto clave KS y punto más lejano FP) en la escena S. Además, la plataforma de fotones multidimensional 307 habilita el paralaje volumétrico dentro de la escena S.
Se reconoce además en el presente documento que la plataforma de fotones multidimensional 307 interpola puntos intermedios basándose en los puntos asignados (punto más cercano, punto objeto clave y punto más lejano), y la plataforma de fotones multidimensional 307 asigna valores a esos puntos intermedios y presenta la suma a un mapa de profundidad con escala de grises.
Haciendo referencia nuevamente a la FIGURA 12, se ilustra a modo de ejemplo, y no de limitación, un ejemplo representativo de alinear el punto objeto clave KS en la imagen digital izquierda 1101 y la imagen digital derecha 1102 a través del mecanismo deslizante 1201 utilizando una o más aplicaciones 206 dentro de la plataforma de fotones multidimensional 307. Además, el mecanismo deslizante 1201 se puede utilizar para ajustar el punto objeto clave KS hasta o aproximadamente más o menos quince por ciento (+/- 15 % de ajuste) desde el punto medio 610 para una producción óptima de imagen(es) maestra(s) digital(es) multidimensional(es) 303.
En el bloque o etapa 805, preferiblemente se crea o genera un mapa de profundidad de la escena S a través de una o más aplicaciones 206. Por ejemplo, como se estableció anteriormente en relación con la FIGURA 5, el diseño y manipulación multidimensional 307.2 crea preferiblemente un mapa de profundidad aplicable de la imagen digital izquierda 1101 y la imagen digital derecha 1102 de la imagen 2D 1000 de la escena S, tal como pares estéreo. El mapa de profundidad se basa preferiblemente en 0 para el blanco (siendo el punto CP más cercano en la escena S) y 255 para el negro (siendo el punto FP más lejano en la escena S) y 253 tonos de gris entre el punto CP más cercano y el punto FP más lejano en la escena S. Como alternativa, el diseño y la manipulación multidimensionales 307.2 pueden crear preferiblemente un mapa de profundidad controlado por el operador que se producirá pintando una imagen en escala de grises.
En el bloque o etapa 806, parámetros de imagen digital que incluyen parámetros del dispositivo de salida para imágenes maestras digitales multidimensionales 303, tales como ancho y alto de imágenes maestras digitales multidimensionales 303, parámetros de imagen óptica, parámetros 302, parámetros de impresora 304, y/o los parámetros de la pantalla de visualización 305, el objeto clave y los parámetros de profundidad de campo (punto más cercano CP y punto más lejano FP, parámetros de imagen final 402, parámetros de salida 405, tipo de efecto 403 y parámetros similares se ingresan preferiblemente en el diagrama de flujo 800.
En el bloque o etapa 807, las capas 600 de la escena S como se ilustra en las FIGURAS 6.1 y 6.2, el número de trama total 704 se crea o genera como se establece en relación con las FIGURAS 7A y 7B, basándose en el número de fotograma 704, se determina preferiblemente un paralaje mínimo (Pmín.) 702 y un paralaje máximo (Pmáx.) 706.
En el bloque o etapa 808, la interfaz o interfaz selectiva de columnas de píxeles de capas 600, como se muestra en la FIGURA 6.1 o FIGURA 5, respectivamente, se realiza preferiblemente para crear o generar imágenes maestras digitales multidimensionales 303 y las imágenes maestras digitales multidimensionales 303 se ven preferiblemente en bloque o etapa 809 en la pantalla de visualización 305.
En el bloque o etapa 810, la(s) imágen(es) maestra(s) digital(es) multidimensional(es) 303 se almacena(n) preferiblemente en el sistema informático 10, el sistema de usuario 220 y/o el sistema de servidor 260 (mostrado en las FIGURAS 1 y 2). En los bloques o etapas 812/22, se transmiten imágenes maestras digitales multidimensionales 303 entre el sistema informático 10, el sistema de usuario 220 y/o el sistema servidor 260 (mostrado en las FIGURAS 1 y 2). En el bloque o etapa 813/14/23, se pueden imprimir imágenes maestras digitales multidimensionales 303 ya sea a través de una impresora 304 doméstica, comercial, de inyección de tinta o estilo quiosco.
Se contempla en el presente documento que el sistema informático 10 puede ejecutar cualquiera de los etapas en la FIGURA 8.
La descripción y los dibujos anteriores comprenden realizaciones ilustrativas de la presente divulgación. Habiendo descrito así realizaciones ejemplares, los expertos en la técnica deberían observar que las divulgaciones contenidas en este documento son sólo ejemplares, y que existen otras alternativas; se podrán realizar adaptaciones y modificaciones dentro del alcance de la presente divulgación. Simplemente listar o enumerar las etapas de un método en un orden determinado no constituye ninguna limitación en el orden de las etapas de ese método. Muchas modificaciones y otras realizaciones de la divulgación le vendrán a la mente a un experto habitual en la técnica a la que pertenece esta divulgación aprovechando las enseñanzas presentadas en las descripciones anteriores y los dibujos asociados. Aunque en este documento se pueden emplear términos específicos, se utilizan únicamente en un sentido genérico y descriptivo y no con fines limitativos.
De acuerdo con lo anterior, la presente divulgación no se limita a las realizaciones específicas ilustradas en el presente documento, sino que está limitada únicamente por las siguientes reivindicaciones.
Claims (15)
1. Un método para convertir una imagen fuente digital bidimensional en una imagen digital multidimensional para ser vista como una imagen impresa a través de una lente o vista en un dispositivo de visualización, el método utiliza un procesador de ordenador para ejecutar una instrucción, el procesador de ordenador tiene valores de escala de grises predefinidos dentro de un rango de escala de grises, dicho método comprende las etapas de:
introducir una imagen fuente digital bidimensional en dicho procesador de ordenador;
dicha instrucción comprende las etapas de:
convertir dicha imagen fuente digital bidimensional en una imagen digital izquierda y una imagen digital derecha; visualizar dicha imagen digital izquierda e imagen digital derecha en una pantalla de visualización;
seleccionar un punto objeto clave en dicha imagen digital izquierda mostrada y dicha imagen digital derecha mostrada y asignar un valor de escala de grises intermedio;
seleccionar un punto más cercano en dicha imagen digital izquierda mostrada y dicha imagen digital derecha mostrada y asignar a dicho punto más cercano un valor de escala de grises de un número inicial;
seleccionar un punto más lejano en dicha imagen digital izquierda mostrada y dicha imagen digital derecha mostrada y asignar a dicho punto más lejano un valor de escala de grises de un número final;
introducir un paralaje mínimo, un paralaje intermedio, y un paralaje máximo basándose en al menos un parámetro de imagen de entrada;
calcular un número de capa del número de capas de imágenes que se generarán entre dicho punto más cercano seleccionado y dicho punto más lejano seleccionado en base a la resolución de imágenes de entrada digital y la geometría de la lente de visualización o dispositivo de visualización;
generar una pluralidad de capas de imagen, iguales en número al número de capa calculado, entre dicho punto más cercano y dicho punto más lejano, dichas capas de imagen configuradas entre dicho paralaje mínimo y dicho paralaje máximo; y
poner en interfaz columnas de píxeles de dicha pluralidad de capas de imágenes para generar una imagen maestra digital multidimensional alineada con dicho punto objeto clave y dentro de un rango de paralaje calculado.
2. Un sistema informático para generar una imagen digital multidimensional a partir de una imagen fuente digital bidimensional, la imagen multidimensional se verá como una imagen impresa a través de una lente o se verá en un dispositivo de visualización, el sistema informático comprende:
un dispositivo de memoria para almacenar una instrucción;
un procesador en comunicación con dicha memoria y configurado para ejecutar dicha instrucción, el procesador de ordenador tiene valores de escala de grises predefinidos dentro de un rango de escala de grises,:
dicho procesador recibe la imagen fuente digital bidimensional;
dicho procesador convierte dicha imagen fuente digital en una imagen digital izquierda y una imagen digital derecha; dicho procesador muestra dicha imagen digital izquierda y dicha imagen digital derecha en una pantalla de visualización;
dicho procesador ejecuta una instrucción para seleccionar un punto objeto clave en dicha imagen digital izquierda mostrada y dicha imagen digital derecha mostrada;
dicho procesador ejecuta una instrucción para seleccionar un punto más cercano en dicha imagen digital izquierda mostrada y dicha imagen digital derecha mostrada y asigna a dicho punto más cercano un valor de escala de grises de un número inicial;
dicho procesador ejecuta una instrucción para seleccionar un punto más lejano en dicha imagen digital izquierda mostrada y dicha imagen digital derecha mostrada y asigna a dicho punto más lejano dicho valor de escala de grises de un número final;
dicho procesador asigna un valor de escala de grises intermedio a dicho punto objeto clave;
dicho procesador ejecuta una instrucción para introducir un paralaje mínimo y un paralaje máximo basándose en al menos un parámetro de imagen de entrada;
dicho procesador ejecuta una instrucción para calcular un número de capa del número de capas de imágenes que se generarán entre dicho punto más cercano seleccionado y dicho punto más lejano seleccionado en base a la resolución de imágenes de entrada digital y la geometría de la lente de visualización o dispositivo de visualización;
dicho procesador ejecuta una instrucción para generar una pluralidad de capas de imágenes, igual en número al número de capas calculado, entre dicho punto más cercano y dicho punto más lejano, dichas capas de imágenes configuradas entre dicho paralaje mínimo y dicho paralaje máximo; y
dicho procesador ejecuta una instrucción para poner en interfaz columnas de píxeles de dicha pluralidad de capas de imagen para generar una imagen maestra digital multidimensional alineada con dicho punto objeto clave y dentro de un rango de paralaje calculado.
3. El método de la reivindicación 1 o el sistema informático de la reivindicación 2, en el que dicho procesador ejecuta una instrucción para introducir un par estéreo para dicha imagen maestra multidimensional y/o en el que dicho procesador ejecuta una instrucción para crear un mapa de profundidad a partir de dicha imagen digital izquierda y dicha imagen digital derecha.
4. El método o sistema informático de la reivindicación 3, en el que dicho procesador ejecuta una instrucción para determinar dicho punto más cercano y punto más lejano con una interacción mínima del operador y/o en el que dicho procesador ejecuta una instrucción para asignar un valor de escala de grises a dicho punto objeto clave equivalente a un valor de punto medio de un rango de escala de grises.
5. El método o sistema informático de la reivindicación 4, en el que dicho procesador ejecuta una instrucción para recibir uno o más parámetros de imagen digital para dicha imagen maestra digital multidimensional.
6. El método o sistema informático de la reivindicación 4, en el que dicho procesador ejecuta una instrucción para calcular dicho número de capa para dicha imagen maestra digital multidimensional basándose en dichos parámetros de imagen digital.
7. El método o sistema informático de la reivindicación 5, en el que dicho procesador ejecuta una instrucción para calcular dicho paralaje mínimo para dicha imagen maestra digital multidimensional basándose en dichos parámetros de imagen digital.
8. El método o sistema informático de cualquiera de las reivindicaciones 5-7, en el que dicho procesador ejecuta una instrucción para calcular dicho paralaje máximo para dicha imagen maestra digital multidimensional basándose en dichos parámetros de imagen digital.
9. El método o sistema informático de cualquier reivindicación 1-8, en el que dicho procesador ejecuta una instrucción para generar una vista de dicha imagen maestra digital multidimensional en una pantalla de visualización y/o en el que dicho procesador ejecuta una instrucción para generar un paralaje volumétrico usando dicho punto más cercano, dicho punto objeto clave y dicho punto más lejano y/o en el que dicho procesador ejecuta una instrucción para transmitir dicha imagen maestra digital multidimensional a través de una red y/o en el que dicho procesador ejecuta una instrucción para almacenar dicha imagen maestra digital multidimensional en un dispositivo de almacenamiento y/o en el que dicho procesador ejecuta una instrucción para imprimir dicha imagen maestra digital multidimensional en un material microóptico a través de una impresora y/o en el que dicho procesador ejecuta una instrucción para utilizar una aplicación de adquisición de imágenes para formatear una escena digital bidimensional para dicha imagen fuente digital y/o en el que dicha aplicación de adquisición de imágenes convierte dicha imagen fuente digital bidimensional en dicha imagen digital izquierda y dicha imagen digital derecha.
10. El método o sistema informático de cualquier reivindicación 1-9, en el que dicho procesador ejecuta una instrucción para hacer interfaz selectiva de un píxel en dichas columnas de píxeles de dicha pluralidad de capas de imágenes y/o en el que dicho procesador ejecuta una instrucción para posicionar dicho punto objeto clave en dicha imagen digital izquierda y dicha imagen digital derecha próxima a un punto medio entre dicho punto más cercano y dicho punto más lejano.
11. El método o sistema informático de cualquier reivindicación 4-10, en el que dicho procesador ejecuta una instrucción para ajustar dicho punto objeto clave en dicha imagen digital izquierda y dicha imagen digital derecha hasta un ajuste del quince por ciento desde dicho punto medio.
12. El método o sistema informático de cualquier reivindicación 7-11, en el que dicho procesador ejecuta una instrucción para calcular un ajuste de paralaje y restablecer dicho paralaje máximo basándose en dicho ajuste de paralaje
13. El método o sistema informático de cualquier reivindicación 1-12, en el que dicho procesador ejecuta una instrucción para asignar un valor cero a dicho punto objeto clave, asignar un valor positivo a dicho paralaje mínimo, dicho paralaje intermedio, dicho paralaje máximo para un primer plano de dichas capas, y asignar un valor negativo a dicho paralaje mínimo, dicho paralaje intermedio, dicho paralaje máximo para un fondo de dichas capas.
14. El método de cualquier reivindicación 1 o 3-8, que comprende además la etapa de aplicar un valor de paralaje a dicha imagen maestra digital multidimensional de una manera no lineal.
15. El método de la reivindicación 5 o 7 u 8, que comprende además la etapa de calcular un superparalaje para dicha imagen maestra digital multidimensional basándose en dichos parámetros de imagen digital.
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US14/609,772 US9992473B2 (en) | 2015-01-30 | 2015-01-30 | Digital multi-dimensional image photon platform system and methods of use |
PCT/IB2016/000070 WO2016120719A1 (en) | 2015-01-30 | 2016-01-29 | Digital multi-dimensional image photon platform system and methods of use |
Publications (1)
Publication Number | Publication Date |
---|---|
ES2967621T3 true ES2967621T3 (es) | 2024-05-03 |
Family
ID=55398335
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
ES16705287T Active ES2967621T3 (es) | 2015-01-30 | 2016-01-29 | Sistema de plataforma de fotones de imagen multidimensional digital y métodos de uso |
Country Status (4)
Country | Link |
---|---|
US (1) | US9992473B2 (es) |
EP (1) | EP3251346B8 (es) |
ES (1) | ES2967621T3 (es) |
WO (1) | WO2016120719A1 (es) |
Families Citing this family (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9992473B2 (en) | 2015-01-30 | 2018-06-05 | Jerry Nims | Digital multi-dimensional image photon platform system and methods of use |
US10033990B2 (en) | 2015-01-30 | 2018-07-24 | Jerry Nims | Digital multi-dimensional image photon platform system and methods of use |
US10311620B1 (en) * | 2015-07-29 | 2019-06-04 | Mike Schmitt | System and method for creating multi-sided digital images |
US10713501B2 (en) * | 2015-08-13 | 2020-07-14 | Ford Global Technologies, Llc | Focus system to enhance vehicle vision performance |
WO2017040784A1 (en) * | 2015-09-01 | 2017-03-09 | Jerry Nims | Digital multi-dimensional image photon platform system and methods of use |
EP3562649B1 (en) * | 2016-12-29 | 2020-09-23 | 3D Systems, Inc. | Sensor that simulates resin optical properties |
US10773510B2 (en) * | 2017-02-06 | 2020-09-15 | 3D Systems, Inc. | Scalable and fast three dimensional printing system |
CN107116787B (zh) * | 2017-06-16 | 2019-04-02 | 浙江大学 | 一种三维打印平台的调平系统及其测距装置与调平方法 |
US10919218B2 (en) | 2017-11-08 | 2021-02-16 | General Electric Company | Interlace calibration and methods of use thereof |
US20210297647A1 (en) * | 2020-01-09 | 2021-09-23 | Jerry Nims | 2d image capture system, transmission & display of 3d digital image |
US20210321077A1 (en) * | 2020-01-09 | 2021-10-14 | JUC Holdings Limited | 2d digital image capture system and simulating 3d digital image sequence |
US12106501B2 (en) | 2020-01-09 | 2024-10-01 | JUC Holdings Limited | Subsurface imaging and display of 3D digital image and 3D image sequence |
US11917119B2 (en) | 2020-01-09 | 2024-02-27 | Jerry Nims | 2D image capture system and display of 3D digital image |
US12108015B2 (en) | 2020-01-09 | 2024-10-01 | JUC Holdings Limited | 2D digital image capture system, frame speed, and simulating 3D digital image sequence |
US20210392314A1 (en) * | 2020-01-09 | 2021-12-16 | JUC Holdings Limited | Vehicle terrain capture system and display of 3d digital image and 3d sequence |
US12126896B2 (en) | 2021-05-28 | 2024-10-22 | Jerry Nims | 2D digital image capture system and simulating 3D digital image and sequence |
WO2022261111A1 (en) * | 2021-06-07 | 2022-12-15 | Jerry Nims | 2d digital image capture system and simulating 3d digital image and sequence |
Family Cites Families (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US3895867A (en) | 1971-08-12 | 1975-07-22 | Dimensional Dev Corp | Three dimensional pictures and method of composing them |
US3960563A (en) | 1973-09-20 | 1976-06-01 | Dimensional Development Corporation | Methods and apparatus for taking and composing stereoscopic pictures |
US4059354A (en) | 1976-10-12 | 1977-11-22 | Dimensional Development Corporation | Stereoscopic photograph composition apparatus |
US4124291A (en) | 1976-12-03 | 1978-11-07 | Dimensional Development Corp. | Control of depth of field in three dimensional photography |
US4086585A (en) | 1976-12-27 | 1978-04-25 | Dimensional Development Corporation | System and camera for controlling depth of field in three-dimensional photography |
WO1993013929A1 (en) | 1992-01-15 | 1993-07-22 | Karszes William M | Method of making lenticular plastics and products therefrom |
WO1996009154A1 (en) | 1994-09-23 | 1996-03-28 | Karszes William M | Method of making lenticular plastics |
US5796373A (en) | 1996-10-10 | 1998-08-18 | Artificial Parallax Electronics Corp. | Computerized stereoscopic image system and method of using two-dimensional image for providing a view having visual depth |
US6760021B1 (en) | 2000-07-13 | 2004-07-06 | Orasee Corp. | Multi-dimensional image system for digital image input and output |
KR20030029649A (ko) | 2000-08-04 | 2003-04-14 | 다이나믹 디지탈 텝스 리서치 피티와이 엘티디 | 화상 변환 및 부호화 기술 |
AU2002228939A1 (en) | 2000-12-08 | 2002-06-18 | Orasee Corp. | Method and apparatus for direct printing on a lenticular foil |
US20020121336A1 (en) * | 2000-12-22 | 2002-09-05 | Karszes William M. | System and method for multidimensional imagery |
WO2002063560A2 (en) | 2001-02-06 | 2002-08-15 | Orasee Corp. | Method for scaling and interlacing multidimensional and motion images |
US7639838B2 (en) | 2002-08-30 | 2009-12-29 | Jerry C Nims | Multi-dimensional images system for digital image input and output |
ITTO20070620A1 (it) | 2007-08-31 | 2009-03-01 | Giancarlo Capaccio | Sistema e metodo per presentare dati visuali rilevati a distanza in immagini multi-spettrali, di fusione, ed a tre dimensioni spaziali. |
US8471898B2 (en) * | 2008-02-05 | 2013-06-25 | Disney Enterprises, Inc. | Medial axis decomposition of 2D objects to synthesize binocular depth |
US8136938B2 (en) | 2009-05-19 | 2012-03-20 | William Karszes | System and method for printing on lenticular sheets |
KR101780813B1 (ko) | 2010-10-19 | 2017-09-21 | 엘지디스플레이 주식회사 | 2d-3d 영상 변환 방법 및 이를 이용한 입체 영상 표시장치 |
JP5002047B2 (ja) * | 2010-11-05 | 2012-08-15 | シャープ株式会社 | 立体画像データ再生装置 |
US9992473B2 (en) | 2015-01-30 | 2018-06-05 | Jerry Nims | Digital multi-dimensional image photon platform system and methods of use |
-
2015
- 2015-01-30 US US14/609,772 patent/US9992473B2/en active Active
-
2016
- 2016-01-29 WO PCT/IB2016/000070 patent/WO2016120719A1/en active Application Filing
- 2016-01-29 EP EP16705287.7A patent/EP3251346B8/en active Active
- 2016-01-29 ES ES16705287T patent/ES2967621T3/es active Active
Also Published As
Publication number | Publication date |
---|---|
EP3251346B8 (en) | 2024-02-14 |
WO2016120719A1 (en) | 2016-08-04 |
US9992473B2 (en) | 2018-06-05 |
EP3251346B1 (en) | 2023-12-27 |
EP3251346A1 (en) | 2017-12-06 |
US20160227184A1 (en) | 2016-08-04 |
EP3251346C0 (en) | 2023-12-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
ES2967621T3 (es) | Sistema de plataforma de fotones de imagen multidimensional digital y métodos de uso | |
US10178247B2 (en) | Digital multi-dimensional image photon platform system and methods of use | |
JP4440066B2 (ja) | 立体画像生成プログラム、立体画像生成システムおよび立体画像生成方法 | |
US10033990B2 (en) | Digital multi-dimensional image photon platform system and methods of use | |
JP5202546B2 (ja) | マルチ画像表示を較正および/または視覚化しかつゴーストアーチファクトを低減するためのするための方法およびシステム | |
US7643025B2 (en) | Method and apparatus for applying stereoscopic imagery to three-dimensionally defined substrates | |
US20120182403A1 (en) | Stereoscopic imaging | |
Holroyd et al. | Computing and fabricating multilayer models | |
JP2006107213A (ja) | 立体画像印刷システム | |
JP2003209858A (ja) | 立体画像生成方法及び記録媒体 | |
US8094148B2 (en) | Texture processing apparatus, method and program | |
JP2014522591A (ja) | 角スライス実像3dディスプレイのためのアライメント、キャリブレーション、およびレンダリングのシステムおよび方法 | |
CN102075694A (zh) | 用于视频制作、后期制作和显示适应的立体编辑 | |
EP1668919B1 (en) | Stereoscopic imaging | |
Islam et al. | Aesthetics-driven stereoscopic 3-D image recomposition with depth adaptation | |
CN116503536B (zh) | 一种基于场景分层的光场渲染方法 | |
JP4901409B2 (ja) | 三次元画像の作成方法および装置 | |
Stavrakis et al. | Image-based stereoscopic painterly rendering | |
JP2012053359A (ja) | 画像処理装置およびその方法 | |
WO2022155950A1 (zh) | 虚拟视点合成方法、电子设备和计算机可读介质 | |
JP2006211383A (ja) | 立体画像処理装置、立体画像表示装置、及び立体画像生成方法 | |
Yan et al. | Stereoscopic image generation from light field with disparity scaling and super-resolution | |
KR101567002B1 (ko) | 컴퓨터 그래픽스 기반의 스테레오 플로팅 집적 영상생성시스템 | |
CN103299156B (zh) | 创建三维图像文件的系统和方法 | |
WO2017040784A1 (en) | Digital multi-dimensional image photon platform system and methods of use |