ES2389987T3 - Sistema y método de ayuda al enfoque - Google Patents
Sistema y método de ayuda al enfoque Download PDFInfo
- Publication number
- ES2389987T3 ES2389987T3 ES07844578T ES07844578T ES2389987T3 ES 2389987 T3 ES2389987 T3 ES 2389987T3 ES 07844578 T ES07844578 T ES 07844578T ES 07844578 T ES07844578 T ES 07844578T ES 2389987 T3 ES2389987 T3 ES 2389987T3
- Authority
- ES
- Spain
- Prior art keywords
- focus
- image
- pixel
- waveform
- level data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 24
- 230000000007 visual effect Effects 0.000 claims abstract description 22
- 239000011159 matrix material Substances 0.000 claims abstract description 14
- 230000003287 optical effect Effects 0.000 claims abstract description 11
- 238000003708 edge detection Methods 0.000 claims description 13
- 238000001514 detection method Methods 0.000 claims description 5
- 238000006243 chemical reaction Methods 0.000 claims 1
- 238000004364 calculation method Methods 0.000 description 5
- 238000000605 extraction Methods 0.000 description 5
- 238000012545 processing Methods 0.000 description 5
- 230000008859 change Effects 0.000 description 4
- 230000006870 function Effects 0.000 description 4
- 230000008569 process Effects 0.000 description 3
- 238000013459 approach Methods 0.000 description 2
- 230000008901 benefit Effects 0.000 description 2
- 238000012634 optical imaging Methods 0.000 description 2
- 238000007794 visualization technique Methods 0.000 description 2
- 239000003086 colorant Substances 0.000 description 1
- 239000012141 concentrate Substances 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 238000009792 diffusion process Methods 0.000 description 1
- 239000000975 dye Substances 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 239000001044 red dye Substances 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 238000001228 spectrum Methods 0.000 description 1
- 238000010186 staining Methods 0.000 description 1
- 238000010408 sweeping Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G03—PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
- G03B—APPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
- G03B13/00—Viewfinders; Focusing aids for cameras; Means for focusing for cameras; Autofocus systems for cameras
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/63—Control of cameras or camera modules by using electronic viewfinders
- H04N23/633—Control of cameras or camera modules by using electronic viewfinders for displaying additional information relating to control or operation of the camera
-
- G—PHYSICS
- G03—PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
- G03B—APPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
- G03B13/00—Viewfinders; Focusing aids for cameras; Means for focusing for cameras; Autofocus systems for cameras
- G03B13/18—Focusing aids
-
- G—PHYSICS
- G03—PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
- G03B—APPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
- G03B13/00—Viewfinders; Focusing aids for cameras; Means for focusing for cameras; Autofocus systems for cameras
- G03B13/02—Viewfinders
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
Landscapes
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Theoretical Computer Science (AREA)
- Studio Devices (AREA)
- Indication In Cameras, And Counting Of Exposures (AREA)
- Automatic Focus Adjustment (AREA)
- Image Processing (AREA)
- User Interface Of Digital Computer (AREA)
- Focusing (AREA)
Abstract
Un aparato que ayuda al ajuste de un enfoque de una imagen, que comprende:una lente (926) que tiene una longitud focal variable, produciendo esa lente una imagen de datos visuales apartir de la luz que entra en la lente;un ajuste del enfoque que ajusta la longitud focal de la lente;un sensor óptico que convierte unos datos visuales de la imagen de la lente en una matriz numérica de píxeles,bidimensional, dispuesta la matriz de píxeles en filas y columnas;un procesador (928) configurado para determinar los datos del nivel de enfoque (932) para una pluralidad depíxeles en la matriz de píxeles yuna pantalla (930), controlada por el procesador, en la que la pantalla muestra la imagen de datos visuales apartir de la lente caracterizada por que el procesador se configura para determinar un grado respectivo deenfoque de cada una de la pluralidad de zonas de la imagen, correspondiendo cada zona de la imagen a unobjeto en dicha imagen de datos visuales, mediante el cálculo de los datos del nivel de enfoque para al menosun píxel dentro de cada zona de imagen y por que el procesador se configura de modo que la pantalla muestreal menos una forma de onda (300, 400), actualizada al mismo tiempo que la imagen, en la que puntos en laforma de onda proporcionan una correlación gráfica de los datos de nivel de enfoque determinados con el almenos un píxel correspondiente, asociando de ese modo visualmente en la pantalla cada zona de imagen (306,310, 714) de la pluralidad de zonas de imagen con una indicación visual (304, 308, 818, 822) del grado deenfoque de cada zona de imagen proporcionada por dicha al menos una forma de onda (300, 400).
Description
Sistema y método de ayuda al enfoque
La invención se refiere a proporcionar información del enfoque.
Hay dos métodos básicos para enfocar una cámara o instrumento óptico.
15 En un sistema de enfoque automático, la cámara fija el nivel de enfoque con poca o ninguna colaboración del usuario. La cámara recoge datos sobre el nivel de enfoque relativo de los objetos en la lente de la cámara. Usa un algoritmo para interpretar esos datos y fija un nivel de enfoque óptimo. Sin embargo, este algoritmo no ejecuta necesariamente las intenciones del fotógrafo. Muchos algoritmos de enfoque automático priorizan los objetos que están próximos al centro del cuadro o que están brillantemente iluminados. Si el objeto de interés para el fotógrafo está fuera del centro o débilmente iluminado, el algoritmo de enfoque automático puede calibrar un nivel de enfoque basado en objetos en los que el fotógrafo no tiene interés.
Las cámaras de enfoque manual requieren más esfuerzo por parte del usuario. Aunque, también da al fotógrafo más control sobre el nivel de enfoque. Debido a que las cámaras de enfoque manual son más sensibles a los deseos del
25 usuario y potencialmente más precisas, los profesionales usan frecuentemente cámaras de enfoque manual. Se han realizado intentos para proporcionar al usuario información sobre el enfoque de la imagen. El documento JP 2006 108973 describe la extracción de un componente de alta frecuencia de una señal de captura de imagen para crear un histograma indicativo de un nivel de enfoque de una imagen. El documento JP 2004 072297 tiene circuitos de ayuda al enfoque y la pantalla correspondiente. La pantalla incluye un gráfico de barras que muestra un valor numérico o nivel correspondiente al nivel de enfoque de la imagen.
Cualquiera que sea el sistema que emplee la cámara —enfoque automático o enfoque manual— la capacidad del sistema para producir resultados deseables depende de la habilidad del usuario para confirmar qué objetos están en
o fuera del enfoque. En un sistema de enfoque automático, no está claro qué objetos están en o fuera del enfoque,
35 el usuario no puede confirmar que el algoritmo de enfoque automático ha identificado los objetos de interés principal del usuario y ajustado el nivel de enfoque en consecuencia. En el sistema de enfoque manual, si el usuario no puede confirmar qué objetos están en o fuera de enfoque, el usuario no puede confirmar la precisión de los ajustes del enfoque.
Las pantallas de las cámaras pueden ser demasiado pequeñas o imprecisas para transmitir fiablemente al usuario si un objeto está enfocado o no o, si está fuera de enfoque, justamente en qué medida está desenfocado. Frecuentemente no permiten al usuario distinguir entre graduaciones en el nivel de enfoque o el equilibrio del nivel de enfoque entre múltiples objetos en el visor.
De acuerdo con un aspecto de la invención, se proporciona un aparato que ayuda en el ajuste de un enfoque de una imagen como se define en la reivindicación independiente 1.
De acuerdo con otro aspecto, la invención proporciona un método para suministrar una realimentación que permita el enfoque de una imagen en tiempo real como se define en la reivindicación independiente 9.
Se usa una lente óptica que tiene una longitud focal variable para detectar una imagen. La lente enfoca la imagen en un sensor y el sensor captura la información correspondiente a los elementos de imagen individuales (píxeles). Una
55 pantalla muestra la imagen detectada.
Para ayudar a un usuario a ajustar el enfoque de la imagen, una forma de onda indica un grado de enfoque de una zona de la imagen. La forma de onda se puede superponer sobre la imagen o se puede mostrar adyacente a la imagen. Alternativamente, la forma de onda se puede visualizar en una pantalla separada. La forma de onda se actualiza en tiempo real, permitiendo al usuario ajustar el enfoque al mismo tiempo. La pantalla del grado de enfoque se podía usar, por ejemplo, para cámaras fijas y cámaras de imágenes en movimiento. La zona puede ser, por ejemplo, una línea o un patrón geométrico regular. En una realización, el grado de enfoque de una zona se puede indicar mediante la variación del color de la zona. En otra realización, el grado de enfoque de una zona se puede indicar mediante la variación del brillo de la zona. Las zonas se pueden describir mediante bordes de detección y el 65 grado de enfoque de cada zona se puede indicar mediante la variación, por ejemplo, del brillo o el color de un borde.
El sensor óptico convierte la imagen de la lente en una matriz numérica de píxeles en dos dimensiones, con la matriz de píxeles dispuesta en filas y columnas. En una realización, un procesador opera sobre una fila de píxeles para determinar los datos del nivel de enfoque para la pluralidad de píxeles en esa fila.
5 La forma de onda puede indicar el grado de enfoque a través de variaciones de color, variaciones de intensidad, variaciones de densidad, variaciones de amplitud u otros indicadores visuales. Se puede usar una combinación de diferentes tipos de indicadores.
Los datos del nivel de enfoque se pueden determinar, por ejemplo, con un algoritmo de detección de bordes. En una realización, los datos del nivel de enfoque se determinan comparando al menos una parte de la matriz digital de píxeles con una representación difuminada de la misma parte de la matriz.
15 Estas y otras características se describirán ahora con referencia a los dibujos resumidos a continuación. Estos dibujos y la descripción asociada se proporcionan para ilustrar una realización preferida de la invención y no para limitar el alcance de la invención.
La FIG. 1 muestra un gráfico de una línea horizontal que transmite datos del nivel de enfoque.
La FIG. 2 muestra un gráfico de una línea vertical que transmite datos del nivel de enfoque.
La FIG. 3 muestra un gráfico de una línea horizontal que transmite datos del nivel de enfoque con tres líneas separadas.
25 La FIG. 4 muestra una rejilla superpuesta sobre la imagen, mediante cuya rejilla, se pueden calcular o visualizar los datos del nivel de enfoque.
La FIG. 5 muestra resaltes alrededor de objetos, resaltes que transmiten datos del nivel de enfoque.
La FIG. 6 muestra un diagrama de alto nivel del sistema de ayuda al enfoque.
La FIG. 7 muestra un gráfico de una línea horizontal que transmite datos del nivel de enfoque a partir de una línea de barrido horizontal.
35 La FIG. 8 muestra un gráfico de una línea horizontal que transmite datos del nivel de enfoque a partir de una línea de barrido, en el que los datos del nivel de enfoque se han calculado usando un algoritmo de detección de bordes.
FIG. 9 muestra un gráfico de una línea vertical que transmite datos del nivel de enfoque a partir de una línea de barrido vertical.
La FIG. 10 muestra gráficos de líneas horizontal y vertical que transmiten datos del nivel de enfoque a partir de líneas de barrido horizontal y vertical, respectivamente.
45 La FIG. 11 muestra un gráfico de una línea horizontal que transmite datos del nivel de enfoque a partir de una línea de barrido inclinada.
La FIG. 12 muestra un gráfico de una línea horizontal que transmite datos del nivel de enfoque promediados a partir de tres líneas de escaneado.
La FIG. 13 muestra un gráfico de una línea horizontal que transmite los datos del nivel de enfoque promediados a partir de una línea de barrido de un ancho mayor que un píxel.
La FIG. 14 muestra un gráfico de una línea horizontal que transmite datos del nivel de enfoque con tres líneas 55 separadas. Cada una de las cuales corresponde a una línea de barrido horizontal diferente.
La siguiente descripción de diferentes implementaciones se ha presentado solamente a modo de ejemplo y no se debería leer en un sentido limitativo. El alcance de la presente invención se define solamente por las reivindicaciones.
En una realización, una cámara visualiza datos del nivel de enfoque al usuario. Los datos del nivel de enfoque se pueden superponer en la pantalla del visor primario o se pueden visualizar en una pantalla secundaria. Varios 65 sistemas de generación de imágenes ópticas —tal como de una cámara de imágenes en movimiento o la cámara de foto— podrían generar y visualizar datos del nivel de enfoque. Sin embargo, la invención no se limita a cámaras.
Cualquier sistema de generación de imágenes ópticas puede visualizar la información del nivel de enfoque para el usuario. Los ejemplos incluyen microscopios ópticos, telescopios o binoculares. De modo similar, instrumentos no ópticos que producen una imagen pueden visualizar también la información del nivel de enfoque al usuario. Un ejemplo es un microscopio electrónico. Adicionalmente, un algoritmo puede generar y visualizar datos del nivel de 5 enfoque al usuario para imágenes o vídeos después de que se hallan grabado. En la realización descrita, se detecta una imagen usando una matriz bidimensional de sensores ópticos. La imagen detectada se convierte en una estructura de datos que representan la imagen detectada como una matriz bidimensional de valores de píxeles, en la que los valores de los píxeles son representativos de la cantidad de luz detectada por los sensores ópticos. Se genera una imagen difuminada mediante la combinación de un valor de píxel seleccionado con una pluralidad de valores de los píxeles en la proximidad del valor de píxel seleccionado. Se determina entonces el grado de enfoque mediante la comparación del valor del píxel seleccionado con un valor del píxel de la imagen difuminada correspondiente. Se proporciona entonces una indicación visual del grado de enfoque en la forma de una forma de onda. En una realización, la indicación visual del grado de enfoque se puede superponer sobre una representación de la imagen detectada. En otra realización, la indicación visual del grado de enfoque está adyacente a la
15 representación de la imagen detectada. Un punto en la forma de onda puede corresponder a un grado de enfoque promedio para una pluralidad de píxeles alineados verticalmente. En otra realización, un punto de la forma de onda puede corresponder a un grado de enfoque promedio para una pluralidad de píxeles alineados horizontalmente. En otra realización más, un punto en la forma de onda puede corresponder a un grado de enfoque promedio para una pluralidad de píxeles en un bloque. En una realización adicional, un punto en la forma de onda corresponde a un grado de enfoque promedio para una pluralidad de píxeles no adyacentes.
Una amplia variedad de diferentes técnicas de visualización transmiten los datos del nivel de enfoque al usuario. Por ejemplo, la FIG. 1 muestra una línea gráfica 300 orientada por debajo de la imagen 302. Alternativamente la cámara
o pantalla podría mostrar el gráfico de la línea sobrepuesto sobre la imagen. El gráfico de la línea 300 muestra
25 valores más altos 304 para objetos con un mayor enfoque 306. Y muestra valores más bajos 308 para objetos no tan bien enfocados 310. El eje x 312 representa un nivel de línea base del enfoque, por debajo del cual no se muestra ningún dato de nivel de enfoque. El umbral del eje x 312 se puede fijar de acuerdo con un cierto número de criterios diferentes. Podría reflejar algún valor numérico absoluto relativo a la pendiente del gradiente —siendo calculado el gradiente mediante un algoritmo de detección de bordes cómo se explica a continuación—. O el umbral podría estar ligado dinámicamente a un nivel de enfoque promedio de la imagen completa. De ese modo, el umbral se podría establecer en 150% o en 200% del nivel de enfoque promedio. Este mecanismo se podría usar para eliminar los valores bajos, de “ruido” de la pantalla para visualizar datos solamente para aquellos objetos de la pantalla que se considera que están enfocados o relativamente enfocados.
35 En una realización, los datos del nivel de enfoque mostrados en la línea gráfica 300 cubren un intervalo continuo de valores de nivel de enfoque —o al menos continuos en un sentido digital, discreto—, limitados por píxeles y la velocidad de muestreo. Esto no significa necesariamente que los valores de la línea gráfica 300 se correspondan uno por uno con los valores del nivel de enfoque en un punto dado de la imagen 302. La línea gráfica 300 puede ser continua y representar una función ajustada de los datos de nivel de enfoque en bruto que sean mejor percibidos por el usuario.
Una línea gráfica única, horizontal 300 como la de la FIG. 1 podría no transmitir con precisión la información del nivel de enfoque para objetos orientados verticalmente en la imagen. Debido a que la línea gráfica muestra solamente un valor para cada punto de la línea horizontal, podría oscurecer diferentes niveles de enfoque orientados verticalmente
45 con respecto a ese punto.
La FIG. 2 muestra una pantalla de línea gráfica vertical 400. Muestra información del nivel de enfoque más preciso para objetos orientados verticalmente, pero podría oscurecer niveles de enfoque diferentes para los objetos orientados horizontalmente. Otra pantalla podría combinar las líneas gráficas vertical y horizontal. Tal pantalla supera alguna de las desventajas de las pantallas solamente horizontales o verticales. Sin embargo, dependiendo de cómo se presenten los datos, puede requerir que el usuario mire en dos localizaciones diferentes para tener información del nivel de enfoque en la que podría ser una imagen fugaz.
La FIG. 3 muestra otra línea gráfica horizontal. Sin embargo, esta línea gráfica horizontal comprende varias líneas.
55 Cada línea representa información del nivel de enfoque para un área diferente de la imagen 302. Por ejemplo, una o más líneas 3001 representan información del nivel de enfoque para la parte superior de la imagen 302. Una o más líneas 3002 representan información del nivel de enfoque para la parte media de la imagen 302. Una o más líneas 3003 representan información del nivel de enfoque para la parte inferior de la imagen 302. En donde el nivel de enfoque es muy similar en las partes superior, media e inferior de la imagen, las líneas comienzan a solaparse y se intensifican.
Otras realizaciones no usan una pantalla gráfica. Por ejemplo, la FIG. 4 muestra una rejilla 712 sobrepuesta sobre la imagen 302. La rejilla 712 en sí misma no necesita ser visible para el usuario. Aunque, las zonas de la rejilla 714 indica cada una un nivel de enfoque. Un método de indicar el nivel de enfoque es una tinta de color en la región 714. 65 Así, una región muy bien enfocada 714 podía tener un primer color tal como un tinte rojo. Una región pobremente enfocada 714 podía tener un segundo color tal como un tinte violeta. La región 714 con niveles de enfoque ni muy
bien ni muy pobremente enfocados podría llevar una tinción a lo largo de los colores del espectro, que corresponda a sus niveles de enfoque respectivos.
Otro método para indicar el nivel de enfoque dentro de una zona de la rejilla 714 es variar el nivel de brillo de cada
5 zona 714. Una zona muy bien enfocada 714 podría tener un primer brillo, relativamente alto. Una zona muy pobremente enfocada 714 podría tener un segundo brillo, relativamente bajo (oscura). Las zonas 714 con niveles de enfoque intermedios podían llevar un nivel de brillo que corresponda a sus niveles de enfoque respectivos.
Otras realizaciones de pantallas resaltan los objetos en sí mismos en lugar de usar rejillas o gráficos para visualizar los datos del nivel de enfoque para un área general. En la FIG. 5, el objeto más enfocado 306 tiene un resalte brillante 818 que traza los bordos del objeto. Los objetos menos enfocados 310 tienen resaltes muy oscurecidos
822. El brillo del resalte varía con el nivel de enfoque del objeto.
Alternativamente, la pantalla podría dibujar una tinta de color alrededor de los bordos de los objetos para indicar sus
15 niveles de enfoque respectivos. Por ejemplo, los objetos que estén enfocados muy bien 306 tendrían un primer color tal como una tinta roja en su borde. Objetos muy pobremente enfocados 310 tienen un segundo color tal como una tinta violeta en su borde. Los objetos que no estén ni bien ni pobremente enfocados tendrían una tinta a lo largo de su borde que corresponda a sus niveles de enfoque respectivos.
Más que simplemente resaltar los alrededores de cada objeto, una realización realza el relieve de un objeto completo cuando está enfocado. Los objetos que no están enfocados 310 aparecen o bien planos o bien en un relieve negativo. Los objetos enfocados 306 sobresalen de la imagen, mientras que los objetos no enfocados 310 se rebajan. El relieve de cada objeto corresponde a su nivel de enfoque. Esta implementación tiene la ventaja de que el usuario puede concentrarse en los objetos en el visor para recoger los datos del nivel de enfoque. Debido a que esta
25 realización es altamente intuitiva, el usuario no necesita interpretar mucho los datos de la pantalla para determinar los niveles de enfoque relativos de los objetos en la pantalla.
La FIG. 6 muestra una realización de la arquitectura de la cámara. La cámara recoge los datos visuales 924 de la lente de la cámara 926. La cámara registra los datos visuales 924 y muestra una representación de los datos visuales 924 en el visor 930. La cámara envía también los datos visuales 924 a un procesador 928. El procesador usa un algoritmo para calcular los datos del nivel de enfoque 932 para los datos visuales 924. El procesador envía esos datos de nivel de enfoque 932 al visor, en donde el usuario 934 los ve sobrepuestos sobre los datos visuales
924. El visor 930 muestra los datos de nivel de enfoque 932 procedentes del procesador 928 y visualiza los datos 924 de la lente 926 al mismo tiempo.
35 En una realización alternativa (no mostrada), en una cámara de enfoque automático, el procesador que acepta los datos visuales y calcula los datos de nivel de enfoque es también el procesador que calcula los datos del nivel de enfoque para el sistema de enfoque automático. Un sistema de enfoque automático genera automáticamente datos del nivel de enfoque para determinar los ajustes de nivel de enfoque apropiados. En esta realización, esos datos se reutilizan. La cámara no solamente utiliza los datos de nivel de enfoque para conseguir un ajuste de enfoque óptimo, sino que los datos se envían también al usuario a través del visor. El usuario puede entonces confirmar que el sistema de enfoque automático ha identificado y fijado el nivel de enfoque para el objeto u objetos en los que el usuario esté interesado.
45 El procesador usa un algoritmo para calcular los datos de nivel de enfoque visualizados para el usuario.
En una realización, el procesador difumina los datos de la imagen para crear una imagen de comparación. Por ejemplo, el procesador podría usar una aproximación de difusión gaussiana o de rectángulo rápido o convolucionar la imagen. La imagen difuminada difiere de la imagen original principalmente en los bordes de los objetos enfocados
306. En los objetos enfocados 306, el proceso de difuminado elimina el agudo contraste entre el borde del objeto 306 y su entorno. El proceso de difuminado crea un cambio menor en los bordes de los objetos no enfocados 310. El contraste suave entre un objeto no enfocado 310 y su entorno permanece un contraste suave en la imagen difuminada, de comparación. Debido a que los bordes se componen típicamente de los píxeles que más cambian durante el proceso de difuminado, es posible encontrar los bordes de los objetos enfocados.
55 Existen varios algoritmos alternativos para detectar si una imagen está o no enfocada. Muchos de estos son algoritmos de “detección de bordes”. Ejemplos de los algoritmos de detección de bordes se pueden hallar en Fundamentals of Digital Image Processing por Anil K. Jain.
Un algoritmo usa operadores de gradiente para detectar los bordes. Los operadores de gradiente son máscaras, o simplemente matrices, usadas para generar un mapa de gradientes. Los operadores de gradiente, cuando se convolucionan con los píxeles en una imagen, producen un mapa de gradientes en dos direcciones ortogonales. De modo similar, los operadores de orientación producen un mapa de gradientes en un número seleccionado de direcciones que corresponden a las direcciones de la orientación. Una vez que se ha calculado el gradiente, se
65 identifica un borde buscando los puntos en donde el gradiente supera algún umbral. El nivel de enfoque, en general, corresponde a la intensidad del gradiente.
Otros algoritmos de detección de bordes aplican una derivada de segundo orden a la imagen. La derivada detecta tasas de cambio en la intensidad de los píxeles a lo largo de la imagen. De nuevo, el algoritmo convoluciona normalmente la imagen con un operador. Los bordes se identifican mediante localizaciones en las que el gradiente supera algún umbral o, más comúnmente, buscando puntos en los que la forma de onda de la segunda derivada
5 cruza por cero. Mientras que los cruces por cero son útiles para detectar los bordes, sólo devuelven un valor binario y por lo tanto no transmiten datos de nivel de enfoque precisos. De nuevo en este caso, el nivel de enfoque corresponde en general a la intensidad del gradiente en los bordes de los objetos
Las mediciones de gradiente cambian en la intensidad de los píxeles adyacentes. La intensidad se puede medir de acuerdo con uno o más de varios elementos diferentes de cada píxel. La intensidad se puede referir al contenido de rojo, verde o azul de un píxel o a cualquier combinación de los mismos. En sistemas YCbCr, se puede referir al componente de luminancia o crominancia de cada píxel o a una combinación de los mismos. En sistemas HSV, se puede referir a los componentes del tono, de la saturación o del brillo del píxel o cualquier combinación de los mismos. Dependiendo del espacio de color de los sistemas de procesamiento y visualización, el procesador puede
15 usar cualquiera de los componentes de los valores de los píxeles que obtienen el mapa de gradientes óptimos o datos de nivel de enfoque óptimo.
Una forma de usar un algoritmo de detección de bordes para deducir los datos del nivel de enfoque para una imagen completa —en lugar de solamente los bordes— es utilizar una extracción de límites. Mediante la conexión de los bordes, los límites definen la forma del objeto. Suponiendo que el objeto completo está enfocado y sus bordes están enfocados, la cámara puede usar la detección de límites para determinar la forma del objeto e adjudicar el nivel de enfoque en el borde del objeto al resto de la forma.
Un algoritmo de seguimiento del contorno es un algoritmo de extracción de límites que usa una serie de etapas
25 horizontales o verticales elegidas mediante prueba y error. La etapa correcta se determina tanto cuando la etapa llega al interior como al exterior de un límite.
Otro algoritmo de extracción de límites usa el principio de programación dinámica de la ciencia de ordenadores. En la programación dinámica la solución a un problema grande es función de las soluciones a sus subproblemas. En el contexto de la extracción de límites, esto significa que los subrrecorridos óptimos conducirán al límite óptimo.
El algoritmo de detección del nivel de enfoque mide el nivel de enfoque para una selección de píxeles. El número y localización de los píxeles para los que el algoritmo calcula los datos de nivel de enfoque es función de la velocidad de cálculo, detalle de los datos del nivel de enfoque y tipo de los datos de enfoque que se desean presentar al
35 usuario.
En una realización, el algoritmo del nivel de enfoque calcula los datos de nivel de enfoque para una o más “líneas de barrido”. El ejemplo más simple de una realización de línea de barrido se representa en la FIG. 7. En esa figura, una línea de barrido simple 1144 se extiende horizontalmente a través de la imagen 302. La línea de barrido 1144 no necesita estar centrada verticalmente. El usuario puede ajustar la posición de la línea de barrido 1144. El algoritmo de nivel de enfoque calcula un valor del nivel de enfoque para cada píxel a lo largo de la línea de barrido 1144 y lo visualiza como un punto a lo largo de la línea gráfica 300. En otra realización, para ahorrar tiempo de procesamiento, el algoritmo de nivel de enfoque podría medir no más de aproximadamente el 50% o no más de aproximadamente el 25% de los píxeles, tal como medir solamente uno cada dos píxeles o solamente uno cada varios píxeles en la línea
45 de barrido 1144. La línea gráfica 300 muestra cómo la pantalla de nivel de enfoque se corresponde al nivel de enfoque medido en cada píxel a lo largo de la línea de barrido 1144.
En la FIG. 8, la línea de barrido 1144 y la técnica de visualización son idénticas a las de la FIG. 11. Pero, en lugar de una forma de onda suave, la línea gráfica 300 tiene picos. Esta forma de onda de picos representa los datos producidos por un algoritmo de detección de bordes. Los datos de nivel de enfoque son más precisos en los bordes de los objetos. En los bordes de las barras que están enfocadas 306, el gráfico 300 muestra un alto valor. De la misma forma, en los bordes de las barras que no están enfocadas 310, el gráfico 300 muestra valores bajos. Pero el gráfico 300 no muestra valores altos o bajos para las partes medias de los objetos. En las partes medias de los objetos, la correspondencia entre el elevado contraste —en el que se basan los algoritmos de detección de bordes—
55 y el enfoque elevado, es menos fiable. Esto se debe a que es menos probable que las partes medias de los objetos tengan elevados valores de contraste tanto si están enfocados como si no.
La línea de barrido 1344 podría estar orientada verticalmente, como en la FIG. 9, en lugar de orientada horizontalmente. Una línea de barrido vertical 1344 da unos datos de nivel de enfoque mejores para series de objetos orientados verticalmente en el visor. Como el gráfico horizontal para una línea de barrido horizontal, una gráfico vertical 400 visualiza los datos de nivel de enfoque para una línea de barrido vertical. Otra realización, más detallada, representada en la FIG. 10 emplea tanto líneas de barrido vertical 1344 como horizontal 1114 y tanto un gráfico vertical 400 como horizontal 300.
65 La línea de barrido no necesita transcurrir precisamente de modo horizontal (o vertical) a través de la imagen. La línea de barrido 1144 podría transcurrir en una pendiente, como en la FIG. 11.
En la FIG. 12, la pantalla consiste de nuevo en una única línea gráfica 300. Y el algoritmo usa de nuevo líneas de barrido para identificar los píxeles para los que calculará los datos de nivel de enfoque. Pero en lugar de usar solamente una única línea de barrido, el algoritmo promedia los datos de múltiples líneas de barrido 1144, tal como al menos dos, en algunas realizaciones al menos cinco y en otras realizaciones al menos 10 líneas de barrido.
5 Dependiendo de la localización de las líneas de barrido y de los objetos en la imagen, esta técnica puede mejorar la precisión de la visualización del nivel de enfoque. Cuantas más líneas de barrido 1144 emplee el procesador, más datos del nivel de enfoque recogerá y más preciso será. Pero cuantas más líneas de barrido 1144 emplee el procesador más cálculos deberá ejecutar y más lentamente generará los datos de nivel de enfoque. De nuevo, la cámara podía usar líneas de barrido verticales 1344 en lugar de o junto con líneas de barrido horizontales 1144 para ésta o cualquier otra técnica de líneas de barrido.
En la FIG. 13 se muestra otra realización más basada en líneas de barrido. Sin embargo, en esta realización, la línea de barrido 1144 tiene un ancho mayor de un píxel. El ancho de la línea de barrido 1746 se puede fijar en tantos píxeles o tan pocos como se desee. De hecho, ésta es una variación de la realización de múltiples líneas de barrido
15 representada en la FIG. 12. Una línea de barrido 1144 de un número de píxeles de ancho 1746 es la misma que esas mismas líneas de barrido adyacentes, cada una de un píxel de ancho. Por ejemplo, el nivel de enfoque promedio de una línea de barrido 1144 de cinco píxeles de ancho 1746 es idéntico al nivel de enfoque promedio de cinco líneas de barrido 1144, cada una adyacente a la siguiente. Para limitar el consumo de potencia y disminuir el tiempo de cálculo, el procesador podría calcular los datos de nivel de enfoque solamente para cada dos líneas de barrido adyacentes 1144 o una de cada varias líneas de barrido adyacentes 1144.
El procesador no necesita generar un nivel promedio de enfoque para múltiples líneas de barrido. La FIG. 14 muestra una pantalla gráfica con una línea gráfica 3001-03 que corresponde a cada línea de barrido 1144. Alternativamente, cada línea gráfica podría transmitir datos de los niveles de enfoque promedio a partir de múltiples
25 líneas de barrido como ayuda para el usuario.
Además, el procesador 928 podría aplicar un algoritmo de filtrado secundario a los datos de nivel de enfoque a partir de una o más líneas de barrido. Por ejemplo, el procesador 928 podría aplicar un algoritmo que convierte en cero todos los valores de nivel de enfoque por debajo de un cierto umbral. Tal algoritmo se puede usar para eliminar el ruido de la pantalla, para evitar la distracción del usuario. El umbral podría o no establecerse en el mismo punto que el eje x 312 de línea base en la pantalla, dependiendo de la altura deseada de la línea gráfica 300 en la pantalla. Realmente, la cámara podría permitir que el usuario fijara este umbral. Como el eje x 312 de línea base, este umbral del algoritmo se podría fijar de acuerdo con o bien un valor absoluto en relación a la pendiente del gradiente, tal como se calcula por un algoritmo de detección de borde, o bien podría ser una función del nivel de enfoque
35 promedio de la imagen. Por ejemplo, el algoritmo podría eliminar los valores de nivel de enfoque para objetos que tengan menos que un umbral tal como aproximadamente el 150% del nivel de enfoque promedio de la imagen. Se podría usar también un segundo algoritmo para suavizar los datos de nivel de enfoque, de nuevo para presentar una forma de onda simplificada, fácilmente percibida por el usuario. Esta técnica podría ser útil con algoritmos de detección de borde, que tienden a producir picos.
Brevemente, las realizaciones de línea de barrido no están limitadas a ninguna línea de barrido particular o elección de píxeles dentro de esas líneas de barrido. Por el contrario, las líneas de barrido se podrían implementar en cualquier permutación que satisfaga un deseado equilibrio entre la velocidad de cálculo, detalle de la información y método de visualización para el usuario.
45 Las líneas de barrido son simplemente un método de aplicación de un algoritmo de detección de nivel de enfoque. El algoritmo podría calcular la información de nivel de enfoque para la imagen completa o para algún subconjunto alternativo de esa imagen. Ese subconjunto alternativo podría ser un área geométrica. El área geométrica se podría definir por el usuario o se podría fijar mediante un algoritmo, por ejemplo, para seguir un objeto en movimiento en el visor. El subconjunto alternativo podría ser también un patrón de píxeles, diseñado como una muestra representativa de la imagen, pero a un nivel más bajo de detalle y por lo tanto requiriendo menores cálculos.
Para visualizar los datos de nivel de enfoque en el patrón de una rejilla, el algoritmo debe calcular los datos de nivel de enfoque para al menos una parte de cada zona dentro de la rejilla. El algoritmo podría calcular los datos del nivel
55 de enfoque solamente para un píxel dentro de cada zona. El algoritmo podría calcular los datos del nivel de enfoque para la zona completa y promediar los datos para visualizar una indicación del nivel de enfoque.
Si el algoritmo calcula datos de nivel de enfoque suficientes —al menos suficientes para una muestra representativa de la imagen— es posible visualizar para el usuario información del nivel de enfoque en base a los bordes sobrepuestos sobre la imagen. Debido a que el algoritmo de detección de bordes devuelve datos que corresponden a los bordes de cada objeto, la pantalla podría usar esos datos para resaltar los bordes de los objetos en el visor en tiempo real. Esto se podría realizar variando el brillo de los bordes de los objetos o dibujando un color alrededor de los objetos, cuya sombra o ancho debería corresponder al grado de enfoque.
65 Los algoritmos que generan datos de nivel de enfoque fiables para los objetos completos permiten otras técnicas de visualización. Una pantalla varía el relieve de un objeto de acuerdo con su nivel de enfoque. De ese modo, los objetos enfocados resaltarían fuera de la imagen y se harían más prominentes que los sujetos no enfocados. De modo similar, otra pantalla representa los objetos en tres dimensiones cuando están enfocados. Cuanto más desenfocados queden los objetos, más planos quedarán en la pantalla.
5 Se debería entender que las realizaciones descritas en el presente documento se pueden implementar en una variedad de formas. Otras realizaciones que sean evidentes para los expertos en la materia, incluyendo realizaciones que no proporcionen todos los beneficios y características expuestas en el presente documento, están también dentro del alcance de esta invención. Por ejemplo, la cámara podía tener una interfaz con un dispositivo de procesamiento de imágenes físicamente separado, tal como un ordenador, o las capacidades de procesamiento de
10 imágenes se podrían implementar dentro de la cámara. Adicionalmente, los algoritmos se pueden implementar en una variedad de formas, tal como en hardware, software una combinación de hardware y software. Mientras que algunas de las realizaciones descritas en el presente documento proporcionan detalles específicos para su implementación, el alcance de la descripción se pretende que sea amplio y no limitado a las realizaciones específicas descritas. En consecuencia, los detalles descritos en la especificación no se deberían interpretar como
15 limitaciones de la invención reivindicada. Por el contrario, el alcance de las reivindicaciones se debería determinar a partir del lenguaje de las reivindicaciones.
Claims (13)
- REIVINDICACIONES1. Un aparato que ayuda al ajuste de un enfoque de una imagen, que comprende:5 una lente (926) que tiene una longitud focal variable, produciendo esa lente una imagen de datos visuales a partir de la luz que entra en la lente; un ajuste del enfoque que ajusta la longitud focal de la lente; un sensor óptico que convierte unos datos visuales de la imagen de la lente en una matriz numérica de píxeles, bidimensional, dispuesta la matriz de píxeles en filas y columnas; un procesador (928) configurado para determinar los datos del nivel de enfoque (932) para una pluralidad de píxeles en la matriz de píxeles y una pantalla (930), controlada por el procesador, en la que la pantalla muestra la imagen de datos visuales a partir de la lente caracterizada por que el procesador se configura para determinar un grado respectivo de enfoque de cada una de la pluralidad de zonas de la imagen, correspondiendo cada zona de la imagen a un15 objeto en dicha imagen de datos visuales, mediante el cálculo de los datos del nivel de enfoque para al menos un píxel dentro de cada zona de imagen y por que el procesador se configura de modo que la pantalla muestre al menos una forma de onda (300, 400), actualizada al mismo tiempo que la imagen, en la que puntos en la forma de onda proporcionan una correlación gráfica de los datos de nivel de enfoque determinados con el al menos un píxel correspondiente, asociando de ese modo visualmente en la pantalla cada zona de imagen (306, 310, 714) de la pluralidad de zonas de imagen con una indicación visual (304, 308, 818, 822) del grado de enfoque de cada zona de imagen proporcionada por dicha al menos una forma de onda (300, 400).
- 2. El aparato de la reivindicación 1, en el que el aparato se incorpora en una cámara de imágenes en movimiento.25 3. El aparato de la reivindicación 1, en el que la al menos una forma de onda tiene un color variable, siendo indicativas las variaciones de color de un punto en la forma de onda, de los datos del nivel de enfoque para al menos un píxel correspondiente en la matriz de píxeles.
-
- 4.
- El aparato de la reivindicación 1, en el que la al menos una forma de onda tiene una intensidad variable, siendo indicativas las variaciones de intensidad de un punto en la forma de onda, de los datos del nivel de enfoque para al menos un píxel correspondiente en la matriz de píxeles.
-
- 5.
- El aparato de la reivindicación 1, en el que la al menos una forma de onda tiene una densidad variable, siendo
indicativas las variaciones de densidad, de los datos del nivel de enfoque para al menos un píxel correspondiente en 35 la matriz de píxeles. -
- 6.
- El aparato de la reivindicación 1, en el que la al menos una forma de onda tiene una amplitud variable, siendo indicativas las variaciones de amplitud de un punto en la forma de onda, de los datos del nivel de enfoque para al menos un píxel correspondiente en la matriz de píxeles.
-
- 7.
- El aparato de la reivindicación 1, en el que se usa un algoritmo de detección de bordes para determinar los datos del nivel de enfoque.
-
- 8.
- El aparato de la reivindicación 1, en el que los datos de nivel de enfoque se determinan mediante la comparación
45 de al menos una parte de la matriz digital de píxeles con una representación difuminada de la misma parte de la matriz. - 9. Un método para proporcionar realimentación para permitir el enfoque de una imagen en tiempo real, que comprende las etapas de:la detección de una imagen usando una matriz bidimensional de sensores ópticos; la conversión de las señales de la imagen detectadas en una estructura de datos que representan la imagen detectada como una matriz bidimensional de valores de píxeles, en la que los valores de píxeles son representativos de la cantidad de luz detectada por los sensores ópticos;55 caracterizada por las etapas de:el uso de un algoritmo programado para determinar un grado respectivo de enfoque de cada una de una pluralidad de zonas de imagen mediante el cálculo de los datos de nivel de enfoque para al menos un píxel dentro de cada zona de imagen y la asociación visualmente sobre una pantalla, de cada zona de imagen (306, 310, 714) de la pluralidad de zonas de imagen, con una indicación visual (304, 308, 818, 822) del grado de enfoque de esa zona de imagen, en la forma de al menos una forma de onda.
- 10. El método de la reivindicación 9, en el que la etapa del uso de un algoritmo programado para determinar un 65 grado de enfoque de una pluralidad de zonas comprende las etapas de: la generación de una imagen difuminada mediante la combinación de un valor del píxel seleccionado con una pluralidad de valores de píxeles en la proximidad al valor del píxel seleccionado y la comparación del valor del píxel seleccionado con un valor del píxel correspondiente en la imagen difuminada para determinar un grado de enfoque.
-
- 11.
- El método de la reivindicación 9, en el que al menos una forma de onda tiene una intensidad variable.
-
- 12.
- El método de la reivindicación 9, en el que al menos una forma de onda se superpone sobre una imagen.
10 13. El método de la reivindicación 9, en el que el grado de enfoque de una zona se indica mediante la variación del relieve de esa zona. - 14. El método de la reivindicación 9, en el que cada zona comprende al menos un píxel. 15 15. El método de la reivindicación 9, en el que cada zona comprende una línea.
- 16. El método de la reivindicación 9, en el que un punto en la forma de onda corresponde a un grado de enfoque promedio para una pluralidad de píxeles alineados verticalmente.
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US11/561,785 US7544919B2 (en) | 2006-11-20 | 2006-11-20 | Focus assist system and method |
US561785 | 2006-11-20 | ||
PCT/US2007/082434 WO2008063811A1 (en) | 2006-11-20 | 2007-10-24 | Focus assist system and method |
Publications (1)
Publication Number | Publication Date |
---|---|
ES2389987T3 true ES2389987T3 (es) | 2012-11-05 |
Family
ID=39298325
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
ES07844578T Active ES2389987T3 (es) | 2006-11-20 | 2007-10-24 | Sistema y método de ayuda al enfoque |
Country Status (14)
Country | Link |
---|---|
US (4) | US7544919B2 (es) |
EP (1) | EP2100188B1 (es) |
JP (1) | JP5099529B2 (es) |
KR (1) | KR101417169B1 (es) |
CN (1) | CN101558355B (es) |
AU (1) | AU2007324081B2 (es) |
BR (1) | BRPI0719084B1 (es) |
CA (1) | CA2669580C (es) |
ES (1) | ES2389987T3 (es) |
HK (1) | HK1137518A1 (es) |
MX (1) | MX2009005190A (es) |
RU (1) | RU2466438C2 (es) |
TW (1) | TWI416943B (es) |
WO (1) | WO2008063811A1 (es) |
Families Citing this family (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7643698B2 (en) * | 2005-12-22 | 2010-01-05 | Apple Inc. | Image sharpening using diffusion |
US7544919B2 (en) | 2006-11-20 | 2009-06-09 | Red.Com, Inc. | Focus assist system and method |
US9690168B2 (en) | 2006-11-20 | 2017-06-27 | Red.Com, Inc. | Focus assist system and method |
JP2010103615A (ja) * | 2008-10-21 | 2010-05-06 | Sony Corp | 撮像装置およびその制御方法 |
RU2653461C2 (ru) | 2014-01-21 | 2018-05-08 | Общество с ограниченной ответственностью "Аби Девелопмент" | Обнаружение блика в кадре данных изображения |
US8928763B2 (en) * | 2008-12-09 | 2015-01-06 | Abbyy Development Llc | Detecting and correcting blur and defocusing |
JP5390913B2 (ja) * | 2009-04-08 | 2014-01-15 | キヤノン株式会社 | 撮像装置及びその制御方法 |
US8421897B2 (en) | 2009-04-08 | 2013-04-16 | Canon Kabushiki Kaisha | Image capturing apparatus and control method therefor |
DE102010039431A1 (de) * | 2010-08-18 | 2012-02-23 | Robert Bosch Gmbh | Vorrichtung zur Unterstützung einer Fokussierung einer Kamera |
EP2715669A4 (en) | 2011-05-25 | 2015-03-18 | Third Dimension Ip Llc | ALIGNMENT, CALIBRATION AND RESTITUTION SYSTEMS AND METHODS FOR TOTAL 3D ANGLED DISPLAY |
JP6102602B2 (ja) * | 2013-07-23 | 2017-03-29 | ソニー株式会社 | 画像処理装置、画像処理方法、画像処理プログラムおよび撮像装置 |
JP2015049842A (ja) * | 2013-09-04 | 2015-03-16 | トヨタ自動車株式会社 | 注意喚起表示装置及び注意喚起表示方法 |
JP2016148732A (ja) * | 2015-02-10 | 2016-08-18 | キヤノン株式会社 | 撮像装置及び画像の表示方法、プログラム、プログラムの記憶媒体 |
DE102018103092A1 (de) | 2018-02-12 | 2019-08-14 | Arnold & Richter Cine Technik Gmbh & Co. Betriebs Kg | Fokuseinstellungs-Anzeigeeinheit |
CN116055607B (zh) * | 2022-08-16 | 2023-09-01 | 荣耀终端有限公司 | 一种变焦顺滑性评估方法、装置及电子设备 |
Family Cites Families (83)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE2746920A1 (de) | 1977-10-19 | 1979-04-26 | Agfa Gevaert Ag | Kamera mit einer entfernungsmessvorrichtung |
DE2750735C2 (de) | 1977-11-12 | 1987-02-05 | Agfa-Gevaert Ag, 5090 Leverkusen | Fotografische Kamera mit einer Entfernungsmeßvorrichtung |
JPS55110229A (en) | 1979-02-16 | 1980-08-25 | Asahi Optical Co Ltd | Automatic focus indicator of camera |
JPS55111922A (en) | 1979-02-15 | 1980-08-29 | Asahi Optical Co Ltd | Focus detection indicator of camera |
JPS55118232U (es) | 1979-02-15 | 1980-08-21 | ||
US4373791A (en) | 1979-02-20 | 1983-02-15 | Ricoh Company, Ltd. | Focusing position detection apparatus |
JPS55118026A (en) | 1979-03-07 | 1980-09-10 | Asahi Optical Co Ltd | Focus instruction device of camera |
JPS55155308A (en) | 1979-05-23 | 1980-12-03 | Canon Inc | Focusing position detecting system |
EP0037839A1 (de) | 1980-04-05 | 1981-10-21 | Rollei-Werke Franke & Heidecke GmbH + Co KG | Kamera mit einer Vorrichtung zur Anzeige der Schärfentiefe |
JPS5850504A (ja) | 1981-09-21 | 1983-03-25 | West Electric Co Ltd | 合焦状態報知装置 |
JPS59181308A (ja) | 1983-03-31 | 1984-10-15 | Asahi Optical Co Ltd | 自動焦点検出カメラ |
JPH0625844B2 (ja) | 1983-05-26 | 1994-04-06 | キヤノン株式会社 | カメラ |
US4760385A (en) | 1985-04-22 | 1988-07-26 | E. I. Du Pont De Nemours And Company | Electronic mosaic imaging process |
US4794459A (en) | 1987-12-28 | 1988-12-27 | Eastman Kodak Company | Columnar focusing indicator for a manually focused video camera |
US4994843A (en) | 1988-08-25 | 1991-02-19 | Asahi Kogaku Kogyo Kabushiki Kaisha | Focus indicating apparatus of automatic focusing camera |
EP0438140B1 (en) | 1990-01-17 | 1996-05-29 | Canon Kabushiki Kaisha | Focus detecting device in a camera |
US5264889A (en) | 1990-04-17 | 1993-11-23 | Minolta Camera Kabushiki Kaisha | Apparatus having an automatic focus detecting device |
JPH0599529A (ja) | 1991-09-04 | 1993-04-20 | Furukawa Electric Co Ltd:The | 空調システム |
US5239170A (en) | 1991-10-23 | 1993-08-24 | Karl Suss America, Incorporated | Autofocus method and apparatus for imaging microscopy using a predetermined visual imaging feature |
JPH05127244A (ja) | 1991-11-07 | 1993-05-25 | Nikon Corp | 焦点状態を表示する表示装置 |
JPH05127243A (ja) | 1991-11-07 | 1993-05-25 | Nikon Corp | 焦点状態を表示する表示装置 |
US6035054A (en) | 1992-10-29 | 2000-03-07 | Canon Kabushiki Kaisha | Visual axis detection apparatus and optical apparatus provided therewith |
JPH06201983A (ja) | 1992-12-28 | 1994-07-22 | Canon Inc | 焦点検出装置 |
US5563678A (en) * | 1994-06-06 | 1996-10-08 | Nikon Corporation | Focus detection device and method |
JPH0875986A (ja) * | 1994-09-06 | 1996-03-22 | Nikon Corp | 焦点検出装置 |
JPH08110564A (ja) | 1994-10-13 | 1996-04-30 | Canon Inc | ファインダ表示装置を有する光学機器 |
US5496106A (en) | 1994-12-13 | 1996-03-05 | Apple Computer, Inc. | System and method for generating a contrast overlay as a focus assist for an imaging device |
JPH08262552A (ja) | 1995-03-28 | 1996-10-11 | Nikon Corp | 距離情報が表示可能なカメラ |
US6683652B1 (en) * | 1995-08-29 | 2004-01-27 | Canon Kabushiki Kaisha | Interchangeable lens video camera system having improved focusing |
JP4088944B2 (ja) | 1998-04-10 | 2008-05-21 | 富士フイルム株式会社 | 電子カメラ |
JP3610271B2 (ja) | 1999-11-18 | 2005-01-12 | キヤノン株式会社 | 自動焦点カメラ |
JP2002209135A (ja) | 2001-01-11 | 2002-07-26 | Minolta Co Ltd | デジタル撮像装置および記録媒体 |
US6937284B1 (en) | 2001-03-20 | 2005-08-30 | Microsoft Corporation | Focusing aid for camera |
JP3543220B2 (ja) | 2001-06-28 | 2004-07-14 | 尾道造船株式会社 | 輸送機器に於ける荷体のラッシングに使用するベルト体引張固定装置 |
JP4657543B2 (ja) | 2001-10-31 | 2011-03-23 | 株式会社ニコン | 焦点検出装置 |
JP2003153043A (ja) * | 2001-11-08 | 2003-05-23 | Fuji Photo Film Co Ltd | カメラ |
JP3530907B2 (ja) * | 2002-01-31 | 2004-05-24 | ミノルタ株式会社 | デジタルカメラ |
JP3812824B2 (ja) | 2002-03-12 | 2006-08-23 | カシオ計算機株式会社 | 撮像装置、合焦状況表示方法及びプログラム |
JP2004072297A (ja) | 2002-08-05 | 2004-03-04 | Matsushita Electric Ind Co Ltd | 撮像装置 |
US20040036792A1 (en) | 2002-08-23 | 2004-02-26 | Chikatsu Moriya | Camera system and focus information display apparatus |
US20040046938A1 (en) | 2002-09-05 | 2004-03-11 | Gary Gero | Automatic and manual lens focusing system with visual matching for motion picture camera |
JP4603761B2 (ja) * | 2002-10-24 | 2010-12-22 | シャープ株式会社 | 合焦状態表示装置、携帯端末装置並びに情報表示プログラム及びそのプログラムを記録した記録媒体 |
JP2004224009A (ja) | 2003-01-27 | 2004-08-12 | Kureha Chem Ind Co Ltd | 積層樹脂成形体およびその製造方法 |
JP2004242000A (ja) | 2003-02-05 | 2004-08-26 | Sony Corp | 符号化装置および方法、並びに復号装置および方法 |
JP3956860B2 (ja) | 2003-02-05 | 2007-08-08 | コニカミノルタフォトイメージング株式会社 | 撮像装置 |
US7003223B2 (en) | 2003-02-24 | 2006-02-21 | Fujinon Corporation | Lens control system and focus information display apparatus |
US7379091B2 (en) * | 2003-04-30 | 2008-05-27 | Hewlett-Packard Development Company, L.P. | Method and apparatus for computing an image stability measure |
US7248301B2 (en) | 2003-05-02 | 2007-07-24 | Hewlett-Packard Development Company, L.P. | System and method for providing camera focus feedback |
US7612803B2 (en) * | 2003-06-10 | 2009-11-03 | Zoran Corporation | Digital camera with reduced image buffer memory and minimal processing for recycling through a service center |
JP3846592B2 (ja) | 2003-06-26 | 2006-11-15 | セイコーエプソン株式会社 | 画像処理システム、プロジェクタ、プログラム、情報記憶媒体および画像処理方法 |
US20050134719A1 (en) | 2003-12-23 | 2005-06-23 | Eastman Kodak Company | Display device with automatic area of importance display |
DE102004016224A1 (de) | 2004-03-26 | 2005-10-06 | Arnold & Richter Cine Technik Gmbh & Co. Betriebs Kg | Verfahren zur Steuerung eines aus einem Filmaufnahmestrahlengang einer Laufbildkamera abgezweigten Abbildungsstrahlenganges |
US20050219362A1 (en) * | 2004-03-30 | 2005-10-06 | Cernium, Inc. | Quality analysis in imaging |
JP4576155B2 (ja) | 2004-05-17 | 2010-11-04 | オリンパス株式会社 | ファインダーの表示装置 |
TWI236287B (en) | 2004-05-19 | 2005-07-11 | Asia Optical Co Inc | Digital camera and manual focus method thereof |
JP2005345590A (ja) | 2004-06-01 | 2005-12-15 | Fuji Photo Film Co Ltd | 撮像装置の検査方法及び検査装置 |
JP3925513B2 (ja) * | 2004-06-23 | 2007-06-06 | セイコーエプソン株式会社 | プロジェクタの自動フォーカス調整 |
TWI244861B (en) * | 2004-07-06 | 2005-12-01 | Asia Optical Co Inc | Device and method for optical center detection |
JP2006023384A (ja) | 2004-07-06 | 2006-01-26 | Konica Minolta Photo Imaging Inc | 撮像装置 |
WO2006026317A2 (en) * | 2004-08-25 | 2006-03-09 | Panavision Imaging, Llc | Method and apparatus for controlling a lens, and camera module incorporating same |
JP4344299B2 (ja) | 2004-09-16 | 2009-10-14 | 富士通マイクロエレクトロニクス株式会社 | 撮像装置及びオートフォーカス合焦時間報知方法 |
JP4089675B2 (ja) | 2004-10-04 | 2008-05-28 | 松下電器産業株式会社 | 撮像装置 |
JP2006140594A (ja) * | 2004-11-10 | 2006-06-01 | Pentax Corp | デジタルカメラ |
JP4591325B2 (ja) * | 2005-01-28 | 2010-12-01 | カシオ計算機株式会社 | 撮像装置及びプログラム |
US7629998B2 (en) * | 2005-06-23 | 2009-12-08 | Elbex Video Limited | Method and apparatus for measuring illumination and camera performances |
JP4325599B2 (ja) | 2005-08-25 | 2009-09-02 | ソニー株式会社 | 撮像装置および表示制御方法 |
CN101297545B (zh) | 2005-10-28 | 2012-05-02 | 株式会社尼康 | 摄影装置、图像处理装置 |
JP2008072696A (ja) | 2006-08-14 | 2008-03-27 | Seiko Epson Corp | 合焦情報の視覚化装置、その方法、プログラム及び記録媒体 |
JP4712661B2 (ja) | 2006-09-22 | 2011-06-29 | オリンパスイメージング株式会社 | 撮像装置 |
JP4348356B2 (ja) | 2006-10-23 | 2009-10-21 | 富士フイルム株式会社 | 撮像装置 |
US7544919B2 (en) | 2006-11-20 | 2009-06-09 | Red.Com, Inc. | Focus assist system and method |
US9690168B2 (en) | 2006-11-20 | 2017-06-27 | Red.Com, Inc. | Focus assist system and method |
US20080251733A1 (en) | 2007-03-28 | 2008-10-16 | Qinetiq Limited | Multiple waveband millimetre and sub-millimetre wave detection system |
JP5003281B2 (ja) | 2007-05-23 | 2012-08-15 | 株式会社ニコン | 焦点状態表示装置および焦点状態表示方法 |
JP4958659B2 (ja) | 2007-07-03 | 2012-06-20 | キヤノン株式会社 | 画像表示制御装置及び画像表示制御方法及びプログラム及び記録媒体 |
US8106998B2 (en) | 2007-08-31 | 2012-01-31 | Fujifilm Corporation | Image pickup apparatus and focusing condition displaying method |
JP4535114B2 (ja) | 2007-10-26 | 2010-09-01 | ソニー株式会社 | 撮像装置および撮像方法、表示制御装置および表示制御方法、並びに、プログラム |
JP4269344B2 (ja) | 2008-01-15 | 2009-05-27 | 富士フイルム株式会社 | 電子カメラ |
JP5281446B2 (ja) | 2008-06-05 | 2013-09-04 | キヤノン株式会社 | 撮像装置、その制御方法及びプログラム |
JP2011028345A (ja) | 2009-07-22 | 2011-02-10 | Olympus Imaging Corp | 条件変更装置、カメラ、携帯機器、およびプログラム |
JP2011091602A (ja) | 2009-10-22 | 2011-05-06 | Canon Inc | 画像表示装置、撮像装置、及び画像表示方法 |
US8925101B2 (en) | 2010-07-28 | 2014-12-30 | Mcafee, Inc. | System and method for local protection against malicious software |
ES2666359T3 (es) | 2011-05-06 | 2018-05-04 | Red.Com, Llc | Sistema y método de asistencia de enfoque |
-
2006
- 2006-11-20 US US11/561,785 patent/US7544919B2/en not_active Expired - Fee Related
-
2007
- 2007-10-24 MX MX2009005190A patent/MX2009005190A/es active IP Right Grant
- 2007-10-24 CA CA2669580A patent/CA2669580C/en not_active Expired - Fee Related
- 2007-10-24 ES ES07844578T patent/ES2389987T3/es active Active
- 2007-10-24 BR BRPI0719084-0A patent/BRPI0719084B1/pt not_active IP Right Cessation
- 2007-10-24 WO PCT/US2007/082434 patent/WO2008063811A1/en active Application Filing
- 2007-10-24 EP EP07844578A patent/EP2100188B1/en not_active Not-in-force
- 2007-10-24 JP JP2009537260A patent/JP5099529B2/ja not_active Expired - Fee Related
- 2007-10-24 RU RU2009119259/28A patent/RU2466438C2/ru not_active IP Right Cessation
- 2007-10-24 KR KR1020097011999A patent/KR101417169B1/ko active IP Right Grant
- 2007-10-24 AU AU2007324081A patent/AU2007324081B2/en not_active Ceased
- 2007-10-24 CN CN200780042981.4A patent/CN101558355B/zh not_active Expired - Fee Related
- 2007-11-02 TW TW096141532A patent/TWI416943B/zh not_active IP Right Cessation
-
2009
- 2009-06-05 US US12/479,546 patent/US8274026B2/en not_active Expired - Fee Related
-
2010
- 2010-02-04 HK HK10101211.9A patent/HK1137518A1/xx not_active IP Right Cessation
-
2012
- 2012-09-21 US US13/624,738 patent/US8927916B2/en not_active Expired - Fee Related
-
2014
- 2014-12-04 US US14/561,059 patent/US9692958B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
KR20090090333A (ko) | 2009-08-25 |
AU2007324081B2 (en) | 2013-11-14 |
CA2669580A1 (en) | 2008-05-29 |
HK1137518A1 (en) | 2010-07-30 |
EP2100188A1 (en) | 2009-09-16 |
JP5099529B2 (ja) | 2012-12-19 |
US20130177254A1 (en) | 2013-07-11 |
US20090245677A1 (en) | 2009-10-01 |
US7544919B2 (en) | 2009-06-09 |
CA2669580C (en) | 2016-08-30 |
US20080116353A1 (en) | 2008-05-22 |
TW200833094A (en) | 2008-08-01 |
BRPI0719084A2 (pt) | 2013-12-03 |
CN101558355A (zh) | 2009-10-14 |
EP2100188B1 (en) | 2012-08-08 |
US8274026B2 (en) | 2012-09-25 |
CN101558355B (zh) | 2015-11-25 |
US20150215519A1 (en) | 2015-07-30 |
WO2008063811A1 (en) | 2008-05-29 |
KR101417169B1 (ko) | 2014-07-08 |
AU2007324081A1 (en) | 2008-05-29 |
US9692958B2 (en) | 2017-06-27 |
US8927916B2 (en) | 2015-01-06 |
JP2010510543A (ja) | 2010-04-02 |
RU2009119259A (ru) | 2010-12-27 |
MX2009005190A (es) | 2009-07-24 |
TWI416943B (zh) | 2013-11-21 |
RU2466438C2 (ru) | 2012-11-10 |
BRPI0719084B1 (pt) | 2018-08-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
ES2389987T3 (es) | Sistema y método de ayuda al enfoque | |
US10203585B2 (en) | Focus assist system and method | |
JP6307770B2 (ja) | 撮像素子 | |
ES2666359T3 (es) | Sistema y método de asistencia de enfoque | |
US20150362698A1 (en) | Image Sensor for Depth Estimation | |
JP2015146590A (ja) | 撮像素子 | |
WO2019105433A1 (zh) | 影像畸变检测方法和系统 | |
EP2635019A2 (en) | Image processing device, image processing method, and program | |
KR101453561B1 (ko) | 동화상 처리 장치 및 방법 | |
US7130463B1 (en) | Zoomed histogram display for a digital camera | |
JP6162971B2 (ja) | 画像処理装置、画像処理方法、撮像装置及びその制御方法 | |
JP4663670B2 (ja) | 動画像処理装置及び方法 | |
JP2016184776A (ja) | 画像処理装置と画像処理方法とプログラムおよび撮像装置 |