ES2895152T3 - Proporcionar conciencia situacional mejorada usando imagen en imagen ampliada dentro de una imagen óptica de campo de visión amplio - Google Patents

Proporcionar conciencia situacional mejorada usando imagen en imagen ampliada dentro de una imagen óptica de campo de visión amplio Download PDF

Info

Publication number
ES2895152T3
ES2895152T3 ES16750256T ES16750256T ES2895152T3 ES 2895152 T3 ES2895152 T3 ES 2895152T3 ES 16750256 T ES16750256 T ES 16750256T ES 16750256 T ES16750256 T ES 16750256T ES 2895152 T3 ES2895152 T3 ES 2895152T3
Authority
ES
Spain
Prior art keywords
picture
optical image
image
wide field
enlarged
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
ES16750256T
Other languages
English (en)
Inventor
Aliaksandr Alsheuski
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Individual
Original Assignee
Individual
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Family has litigation
First worldwide family litigation filed litigation Critical https://patents.darts-ip.com/?family=56618198&utm_source=google_patent&utm_medium=platform_link&utm_campaign=public_patent_search&patent=ES2895152(T3) "Global patent litigation dataset” by Darts-ip is licensed under a Creative Commons Attribution 4.0 International License.
Application filed by Individual filed Critical Individual
Application granted granted Critical
Publication of ES2895152T3 publication Critical patent/ES2895152T3/es
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/633Control of cameras or camera modules by using electronic viewfinders for displaying additional information relating to control or operation of the camera
    • H04N23/635Region indicators; Field of view indicators
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F41WEAPONS
    • F41GWEAPON SIGHTS; AIMING
    • F41G3/00Aiming or laying means
    • F41G3/14Indirect aiming means
    • F41G3/16Sighting devices adapted for indirect laying of fire
    • F41G3/165Sighting devices adapted for indirect laying of fire using a TV-monitor
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/69Control of means for changing angle of the field of view, e.g. optical zoom objectives or electronic zooming
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/698Control of cameras or camera modules for achieving an enlarged field of view, e.g. panoramic image capture
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04805Virtual magnifying lens, i.e. window or frame movable on top of displayed information to enlarge it for better reading or selection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04806Zoom, i.e. interaction techniques or interactors for controlling the zooming operation

Abstract

Un método para proporcionar conciencia situacional mejorada usando una imagen en imagen (104) ampliada dentro de una imagen (102) óptica de campo de visión amplio desde un visor de arma de fuego, comprendiendo el método: procesar (404) una imagen óptica recibida para generar la imagen óptica de campo de visión amplio; iniciar (406) la presentación visual de la imagen óptica de campo de visión amplio en una pantalla del visor de arma de fuego; recibir (408) una indicación para presentar visualmente una imagen de imagen en imagen ampliada en la pantalla simultáneamente con la imagen óptica de campo de visión amplio; generar (410) la imagen de imagen en imagen ampliada para su presentación visual en la pantalla del visor de arma de fuego, en donde la imagen de imagen en imagen ampliada se copia desde un área central de un tamaño definido de la imagen óptica de campo de visión amplio alrededor de una retícula y en donde cambiar el zum de cualquiera de la imagen de imagen en imagen ampliada o la imagen óptica de campo de visión amplio afecta al zum de la otra de acuerdo con alguna escala dinámica determinada o una selección de usuario a priori/sobre la marcha; e iniciar (412) la presentación visual de la imagen de imagen en imagen ampliada en la pantalla del visor de arma de fuego simultáneamente con la imagen óptica de campo de visión amplio.

Description

DESCRIPCIÓN
Proporcionar conciencia situacional mejorada usando imagen en imagen ampliada dentro de una imagen óptica de campo de visión amplio
Reivindicación de prioridad
Esta solicitud reivindica prioridad a la Solicitud de Patente de Estados Unidos N.° 14/752.241 presentada el 26 de abril de 2015.
Antecedentes
En la actualidad, cuando se utiliza un dispositivo óptico (por ejemplo, un visor de arma de fuego, telescopio terrestre, binocular, telescopio, etc.) con un campo de visión amplio (FOV) y una retícula (por ejemplo, un punto de mira, punto, etc.) para apuntar, en ocasiones puede ser extremadamente difícil diferenciar y/o atacar a un objetivo distante. Sin embargo, si se ha estrechado el FOV y se aplica zum al objetivo para proporcionar mayor detalle del objetivo, puede reducirse o perderse la conciencia situacional debido a que se ha estrechado el FOV. Un FOV estrechado, por ejemplo, puede reducir o evitar que un operador de dispositivo óptico recoja datos, evalúe completamente una situación táctica y/o realice alguna tarea deseada.
El documento US 2012/0320193 A1 describe un instrumento topográfico que comprende un telescopio, al menos una cámara que proporciona primera, segunda o más señales de imagen y un controlador, en donde el controlador está adaptado para combinar los datos de señal de imagen de la primera, segunda o más señales de imagen para presentar visualmente de manera simultánea al menos dos de las imágenes que corresponden a la primera, segunda o más señales de imagen en medios de presentación visual.
El documento US 8.336.777 B1 describe un sistema de puntería de arma que proyecta un punto de puntería y/o una imagen desde un sistema de visión montado en arma en una pantalla acoplada en un sistema de visión montado en la cabeza para ayudar a obtener un objetivo. El sistema incorpora estabilización electrónica de imagen y puede mantener una retícula alineada con un punto de impacto de un arma.
Sumario
La presente divulgación describe el suministro de conciencia situacional mejorada usando imagen en imagen (PIP) ampliada dentro de una imagen óptica de campo de visión (FOV) amplio.
La reivindicación 1 proporciona un método para proporcionar conciencia situacional mejorada usando una imagen en imagen ampliada dentro de una imagen óptica de campo de visión amplio desde un visor de arma de fuego de acuerdo con la presente invención.
Otras implementaciones de este aspecto incluyen un correspondiente medio legible por ordenador y visor de arma de fuego como se expone en las reivindicaciones 9 y 10.
Las anteriores y otras implementaciones puede cada una incluir opcionalmente una o más de las siguientes características, en solitario o en combinación:
Un primer aspecto, que puede combinarse con la implementación general, comprende recibir audio u otros datos asociados con la imagen óptica.
Un segundo aspecto, que puede combinarse con la implementación general, en donde los otros datos incluyen datos recibidos de sensores de temperatura, altitud, humedad, presión atmosférica, elevación, giroscopio, acelerómetro, intensidad de luz o de brújula.
Un tercer aspecto, que puede combinarse con la implementación general, en donde el procesamiento incluye formatear, redimensionar, escalar, una determinación de color, una determinación de temperatura, una determinación de contraste y una determinación de brillo.
Un cuarto aspecto, que puede combinarse con la implementación general, en donde la imagen óptica de PIP ampliada presenta visualmente una imagen detallada de píxeles inferior que la imagen óptica de FOV amplio.
Un quinto aspecto, que puede combinarse con la implementación general, en donde la imagen óptica de PIP ampliada presenta visualmente una retícula reducida en tamaño de una retícula presentada visualmente en la imagen óptica de FOV amplio.
Un séptimo aspecto, que puede combinarse con la implementación general, en donde la imagen óptica de PIP ampliada se presenta visualmente centrada y por encima del punto central de la imagen óptica de FOV amplio.
La materia objeto descrita en esta memoria descriptiva puede implementarse en implementaciones particulares para conseguir una o más de las siguientes ventajas. En primer lugar, proporcionar una PIP ampliada dentro de una imagen óptica de FOV amplio puede mejorar la conciencia situacional para un observador de la imagen óptica que usa un dispositivo óptico. La conciencia situacional mejorada puede mejorar la seguridad para el usuario del dispositivo óptico (por ejemplo, fuerzas del cumplimiento de la ley, militares, agentes de seguridad, etc.) o ayudar a mejorar la eficacia de la visualización/grabación de una imagen óptica particular (por ejemplo, investigación, documentación, vigilancia, etc.). En segundo lugar, la imagen de PIP ampliada puede permitir que un usuario de dispositivo óptico enfoque rápidamente el dispositivo óptico para llamar la atención sobre características definidas de una imagen óptica de FOV amplio particular (por ejemplo, un animal, edificio, objetivo de vigilancia, etc.). Por ejemplo, esto puede mejorar la usabilidad, por ejemplo, cuando hay muchas características presentes en una imagen óptica (por ejemplo, un entorno de ciudad o de tipo jungla) o la luz ambiente está desvaneciéndose naturalmente (por ejemplo, al anochecer/atardecer).
Este aumento en el tiempo de reacción puede dar como resultado un compromiso del objetivo apropiado y efectivo y mejorar la seguridad global para el usuario del dispositivo óptico. En tercer lugar, la funcionalidad descrita puede proporcionar mayor detalle, confianza y confirmación de la identidad de un objetivo cuando se visualiza una imagen óptica de FOV amplio con un dispositivo óptico. Por ejemplo, puede usarse una retícula asociada con una imagen óptica de FOV amplio para indicar un objetivo particular en la imagen óptica de FOV amplio mientras que puede usarse la PIP ampliada para proporcionar detalle adicional relacionado con el objetivo (por ejemplo, tipo de animal, rasgos faciales, número de matrícula, número de individuos, etc.). Como un ejemplo particular, un cazador puede confirmar que un objeto visto en la imagen de FOV amplio es realmente un animal que está siendo cazado a diferencia de un cazador humano camuflado.
Serán evidentes otras ventajas para los expertos en la materia.
Los detalles de una o más implementaciones de la materia objeto de esta memoria descriptiva se exponen en los dibujos adjuntos y en la descripción a continuación. Otras características, aspectos y ventajas de la materia objeto se harán evidentes a partir de la descripción, los dibujos y las reivindicaciones.
Descripción de los dibujos
La Figura 1 es una captura de pantalla de conciencia situacional mejorada usando imagen en imagen ampliada (PIP) dentro de una imagen óptica de campo de visión (FOV) amplio, de acuerdo con una implementación.
La Figura 2 es un diagrama de bloques de un sistema para proporcionar conciencia situacional mejorada usando PIP ampliada dentro de una imagen óptica de FOV amplio, de acuerdo con una implementación.
La Figura 3 es un diagrama de bloques de un ordenador de ejemplo usado en el suministro de conciencia situacional mejorada usando la PIP ampliada dentro de una imagen óptica de FOV amplio, de acuerdo con una implementación. La Figura 4 es un diagrama de flujo de un método para proporcionar conciencia situacional mejorada usando PIP ampliada dentro de una imagen óptica de FOV amplio, de acuerdo con una implementación.
Números de referencia y designaciones similares en los diversos dibujos indican elementos similares.
Descripción detallada
La siguiente descripción detallada se presenta para posibilitar a cualquier experto en la materia fabricar, usar y/o poner en práctica la materia objeto desvelada y se proporciona en el contexto de una o más implementaciones particulares. Pueden aplicarse diversas modificaciones a las implementaciones desveladas como será fácilmente evidente para los expertos en la materia, y los principios generales definidos en el presente documento a otras implementaciones y aplicaciones sin alejarse del alcance de la divulgación. Por lo tanto, la presente divulgación no se pretende que esté limitada a las implementaciones descritas y/o ilustradas, sino que sea acorde con el alcance más amplio consistente con los principios y características desvelados en el presente documento.
En la actualidad, cuando se utiliza un dispositivo óptico (por ejemplo, un visor de arma de fuego, telescopio terrestre, binocular, telescopio, etc.) con un campo de visión amplio (FOV) y una retícula (por ejemplo, un punto de mira, punto, etc.) para apuntar, en ocasiones puede ser extremadamente difícil diferenciar y/o atacar a un objetivo distante. Sin embargo, si se ha estrechado el FOV y se aplica zum al objetivo para proporcionar mayor detalle del objetivo, puede reducirse o perderse la conciencia situacional debido a que se ha estrechado el FOV. Un FOV estrechado, por ejemplo, puede reducir o evitar que un operador de dispositivo óptico recoja datos, evalúe completamente una situación táctica y/o realice alguna tarea deseada.
En un nivel alto, lo que se describe es un sistema y método para proporcionar conciencia situacional mejorada usando imagen en imagen ampliada (PIP) dentro de una imagen óptica de FOV amplio desde un dispositivo óptico. Aunque no se proporciona una ilustración específica de un dispositivo óptico particular que proporcione la funcionalidad descrita, los expertos en la materia apreciarán que el sistema descrito, método y/o funcionalidad pueden aplicarse a los dispositivos ópticos que incluyen, pero sin limitación, visores de arma de fuego, telescopios terrestres, telescopios, binoculares, monoculares, cámaras digitales y otros dispositivos ópticos. En algunas implementaciones, puede usarse una implementación de sistema de "módulo de extensión'Vexterna específica en conjunto con un dispositivo óptico existente (con adaptadores apropiados como se entiende por los expertos en la materia) para proporcionar la conciencia situacional mejorada descrita usando PIP ampliada dentro de una imagen óptica de FOV amplio del dispositivo óptico. En otras implementaciones, el sistema, método y/o la funcionalidad descritos pueden estar integrados directamente en el hardware/software de un dispositivo óptico.
La Figura 1 es una captura de pantalla 100 de la conciencia situacional mejorada usando PIP ampliada dentro de una imagen óptica de FOV amplio, de acuerdo con una implementación. Como se apreciará por los expertos en la materia, la captura 100 de pantalla ilustrada es para ilustración y ejemplo únicamente y no se pretende que limite la solicitud de manera alguna.
La captura de pantalla 100 muestra una imagen 102 óptica de FOV amplio y una PIP 104 ampliada de una imagen térmica de una escena de tipo bosque con un objetivo (por ejemplo, animal) 106a y 106b, respectivamente, en el centro de la imagen 102 óptica de FOV amplio y la PIP 104 ampliada. Mientras que se ilustra la PIP 104 ampliada centrada por encima del punto medio de la imagen 102 óptica de FOV amplio, la PIP 104 ampliada puede estar situada/presentada visualmente en cualquier posición en la imagen 102 óptica de FOV amplio. Por ejemplo, la PIP 104 ampliada podría estar situada en una de las esquinas de la imagen 102 óptica de FOV amplio.
Tanto la imagen 102 óptica de FOV amplio como la PIP 104 ampliada tienen algún tipo de indicador de puntería (por ejemplo, una retícula), 108a y 108b, respectivamente. En la captura de pantalla 100 ilustrada, la retícula 108a/108b es un punto de mira con forma de "T" similar con un punto central de tipo "punto rojo" adicional. Se usa el punto central de tipo "punto rojo" en la captura de pantalla 100 ilustrada para proporcionar un punto de puntería preciso sobre el objetivo 106a en la imagen 102 óptica de FOV amplio y un punto de puntería asociado en el objetivo 106b análogo presentado visualmente en un estado ampliado en la PIP 104 ampliada.
De acuerdo con la reivindicación 1, se copia, procesa y proyecta un área central de un tamaño definido (ya sea determinada previamente o por el usuario) de la imagen 102 óptica de FOV amplio alrededor de la retícula 108a (ya se presente visualmente o no) como la PIP 104 ampliada. En implementaciones típicas, la PIP 104 ampliada presenta visualmente una imagen detallada de píxel inferior que proporciona un aumento aparente en la ampliación. La PIP 104 ampliada puede reflejar también una retícula 108b de tamaño reducido (análoga a la retícula 108a) en una posición apropiada sobre la imagen presentada visualmente en la PIP 104 ampliada para referencia de usuario y para proporcionar conciencia situacional.
Obsérvese que, en algunas implementaciones, las retículas 108a y 108b no es necesario que sean similares. Por ejemplo, la retícula 108a de FOV 102 amplio podría ser el punto de mira con forma de "T" representado, mientras que la retícula de PIP ampliada 108b podría ser un indicador de puntería con forma de "X", un sencillo indicador de puntería de tipo "punto rojo", algún otro tipo de indicador de puntería, variable en color, etc. En algunas implementaciones, el FOV 102 amplio y/o la PIP 104 ampliada pueden presentarse visualmente con la retícula DESCONECTADA para proporcionar una vista no obstruida de la imagen asociada. La funcionalidad para CONECTAR/DESCONECTAR las retículas 108a y/o 108b puede proporcionarse, por ejemplo, por un control accesible por el usuario (por ejemplo, un interruptor de múltiples funciones, una selección de pantalla táctil, una aplicación externa en un dispositivo informático móvil, etc.) y/o algún otro método/control consistente con esta solicitud.
En algunas implementaciones, la ampliación proporcionada por la PIP 104 ampliada puede ser seleccionable. Por ejemplo, la PIP 104 ampliada podría proporcionar un intervalo de ampliación (es decir, ''zum'') de 1-4 X o algún otro intervalo de ampliación. Esta selección podría realizare, en algunas implementaciones, por un usuario a través de un control accesible por el usuario (por ejemplo, un interruptor de múltiples funciones, selección de pantalla táctil, aplicación externa en un dispositivo informático móvil, etc.) y/o algún otro método/control consistente con esta solicitud. En algunas implementaciones, tanto a la imagen 102 óptica de FOV amplio como a la PIP 104 ampliada puede aplicárseles zum. En estas implementaciones, cambiar el zum de una puede afectar al zum de la otra. Por ejemplo, si la imagen 102 óptica de FOV amplio es a 1,0 X (tamaño real) y la PIP 104 ampliada es a 2,5 X, si la imagen 102 óptica de FOV amplio se aplica zum a 2,0X, el valor de zum de la PIP 104 ampliada puede cambiar a un valor superior (por ejemplo 4,0 X) de acuerdo con alguna escala dinámica determinada o una selección de usuario anterior/sobre la marcha. Puede ocurrir lo mismo también si se reduce un valor de zum para cualquiera de la imagen 102 óptica de FOV amplio o la PIP 104 ampliada.
Si se presenta visualmente o no una retícula puede estar regulado por las leyes, normativas, etc. En algunas implementaciones, el FOV 102 amplio y/o la PIP 104 ampliada pueden estar desprovistas de una retícula o tipos de retículas para estar en cumplimiento con las leyes y/o normativas. En implementaciones con una retícula, pueden preprogramarse tipos/patrones de retícula y/o cargarse en una memoria para su uso a través de unos datos, red y/u otro tipo de conexión. Las retículas también pueden alinearse ("ponerse a cero") con una retícula en un visor óptico u otro dispositivo óptico para permitir incluso mayor versatilidad (por ejemplo, usar un método de ajuste, tal como el interruptor de múltiples funciones anteriormente descrito, pantalla táctil, aplicación externa, etc.) para mover la retícula presentada visualmente.
En algunas implementaciones, por ejemplo, también pueden estar restringidas aplicaciones térmicas de infrarrojos, una tasa de fotogramas de presentación visual térmica para el FOV 102 amplio y/o ampliado 104. Por ejemplo, una tasa de refresco de 8 Hz puede exportarse a diferentes países, pero una tasa de refresco de 9 Hz o mayor puede que no. Obsérvese que la capacidad de exportación, la legalidad, etc. pueden verse influenciadas también por el uso de los tipos de retícula anteriormente mencionados en combinación con tasas de refresco variadas.
En algunas implementaciones, puede también presentarse visualmente una barra 110 de datos con el FOV 102 amplio y la PIP 104 ampliada. Por ejemplo, como se ilustra con respecto a la captura de pantalla 100, la barra 110 de datos puede contener diferentes tipos de datos asociados con el FOV 102 amplio y/o la PIP 104 ampliada. Como se apreciará por los expertos en la materia, los tipos de datos proporcionados son para ilustración y ejemplo únicamente y no se pretenden para limitar la solicitud de manera alguna.
Tipos de datos de ejemplo en la barra 110 de datos incluyen un indicador 112 de dirección de movimiento de retícula e indicadores de posición de desplazamiento de coordenadas X/Y (para propósitos de "puesta a cero" del dispositivo óptico) 114, un indicador 116 de conexión de datos, un indicador 118 de contraste, un indicador 120 de modo SUMLIGHT, un indicador 122 de zum digital, un indicador 124 de brillo, de hora/reloj 126 e indicador 128 de batería/fuente de alimentación. El indicador 116 de conexión de datos puede indicar, por ejemplo, que un sistema que implementa la funcionalidad descrita está conectado usando una conexión de USB, FIREWIRE, serie o de otro tipo de datos de cableado permanente o una conexión de datos de tipo WIFI, BLUETOOTH u otra inalámbrica. El indicador 118 de contraste y el indicador 124 de brillo indican datos de selección de contraste/brillo de presentación visual. El indicador 120 de modo SUMLIGHT se usa para mostrar la sensibilidad de un sensor de imagen (por ejemplo, un dispositivo de carga acoplada (CCD)). El indicador 122 de zum digital indica a qué nivel de ampliación se presenta visualmente la PIP 104 ampliada. Por ejemplo, en este punto, el valor de zum de la PIP 104 ampliada es 1,5 X. La hora/reloj 126 proporciona valores de hora (y, en algunas implementaciones, valores de fecha también). El indicador 128 de batería/fuente de alimentación indica la potencia disponible para el sistema usando baterías u otra fuente de alimentación.
Aunque la barra 110 de datos se ha ilustrado y descrito en relación con la imagen 102 óptica de FOV amplio, en algunas implementaciones, los elementos de la barra 110 de datos (y/u otros elementos de datos consistentes con esta divulgación) pueden presentarse visualmente con respecto a la PIP 104 ampliada (por ejemplo, el indicador de zum digital puede presentarse visualmente en la PIP 104 ampliada en lugar de como se ilustra en la Figura 1).
La Figura 2 es un diagrama de bloques de un sistema 200 para proporcionar conciencia situacional mejorada usando PIP ampliada dentro de una imagen óptica de FOV amplio, de acuerdo con una implementación. En implementaciones típicas, el sistema 200 incluye un dispositivo 202 óptico y dispositivo 204 externo opcional acoplados juntos mediante una red 206. Obsérvese que el dispositivo 202 óptico descrito es un dispositivo 202 óptico con la funcionalidad descrita integrada en el dispositivo 202 óptico.
En algunas implementaciones, el dispositivo 202 óptico incluye una interfaz 208 de red, el conector 210 externo (no ilustrado), la aplicación 212, la memoria 214, los sensores 216, el dispositivo 218 de entrada, el altavoz 220, la pantalla 222, el procesador 224 y la fuente 226 de alimentación que se comunican a través de un bus 228 de sistema. Obsérvese que aunque se ilustra el sistema 200 en una configuración de ejemplo particular en la Figura 2, la funcionalidad descrita en esta divulgación no está limitada por la implementación ilustrada. Como será evidente para los expertos en la materia, hay muchas posibles configuraciones del sistema 200 consistentes con esta divulgación y tanto en la descripción anterior como en las siguientes. Se considera que otras configuraciones consistentes con esta divulgación están dentro del alcance de esta divulgación. Por ejemplo, en otras implementaciones, el sistema 200 puede contener más o menos componentes y/o el acoplamiento comunicativo puede proporcionarse por más de un bus 228 de sistema.
Aunque se ilustra como una única interfaz 208 de red en la Figura 2, pueden usarse dos o más interfaces 208 de red de acuerdo con necesidades particulares, deseos o implementaciones particulares del dispositivo 202 óptico/sistema 200. La interfaz 208 de red se usa por el dispositivo 202 óptico para comunicarse con otros sistemas (ilustrados o no) en un entorno distribuido - incluyendo dentro del sistema 200 - conectado a la red 206. En general, la interfaz 208 de red comprende lógica codificada en software y/o hardware en una combinación adecuada y operable para comunicarse con la red 206. Más específicamente, la interfaz 208 de red puede comprender software que soporta uno o más protocolos de comunicación asociados con las comunicaciones de manera que la red 206 o el hardware de la interfaz es operable para comunicar señales físicas dentro y fuera del dispositivo 202 óptico/sistema 200 ilustrado.
El conector 210 externo representa y puede estar configurado como uno o más de una interfaz de memoria extraíble (por ejemplo, memoria flash, etc.) para permitir el uso de memoria extraíble (no ilustrada), un conector de fuente de alimentación, interfaz de transferencia de datos (por ejemplo, un USB, FIREWIRE, ETHERNET, RCA, audio de 3,5 mm, HDMI o componentes) y/u otros tipos de conectores 210 externos consistentes con esta divulgación. Pueden usarse dos o más conectores 210 externos de acuerdo con necesidades particulares, deseos o implementaciones particulares del dispositivo 202 óptico y/o el sistema 200.
La aplicación 212 es un motor de software algorítmico que proporciona funcionalidad de acuerdo con necesidades particulares, deseos o implementaciones particulares del dispositivo 202 óptico y/o que realiza cualquier funcionalidad requerida asociada con el sistema 200 y está dentro del alcance de esta divulgación. Por ejemplo, la aplicación 212 puede proporcionar funcionalidad para uno o más elementos del dispositivo 202 óptico descrito con respecto a la Figura 2. Un ejemplo de esta funcionalidad puede incluir recopilar una imagen óptica usando un sensor visual, procesar la imagen óptica y presentar visualmente la imagen óptica como una imagen óptica de FOV amplio (por ejemplo, la imagen 102 óptica de FOV amplio en la Figura 1) y la porción de la imagen óptica en una PIP ampliada (por ejemplo, la PIP 104 ampliada en la Figura 1).
La aplicación 212 puede realizar, en algunas implementaciones, funciones para procesar imágenes ópticas recibidas y otros datos. Por ejemplo, la aplicación 212 puede tomar una imagen óptica recibida, procesar la imagen óptica (por ejemplo, formato, tamaño, escala, color, contraste, brillo, de térmica a visual, etc.), procesar otros datos recibidos (por ejemplo, añadir datos de audio a la imagen óptica recibida o procesar otros datos de sensor 216 recibidos - tales como datos de elevación o de temperatura), seleccionar/gestionar instrucciones para una representación visual particular de datos que van a presentase visualmente (por ejemplo, color de imagen óptica y/o temperatura, tal como negro caliente/blanco caliente, gradaciones de temperatura, etc., tamaño de píxel, etc.), correlacionar/alinear la imagen 102 óptica de FOV amplio con una PIP 104 ampliada y otras funciones consistentes con esta divulgación.
En algunas implementaciones, la aplicación 212 puede proporcionar también al dispositivo 202 óptico funcionalidad para comunicación bidireccional entre el dispositivo 202 óptico y un dispositivo 204 externo (por ejemplo, un dispositivo informático móvil que ejecuta una aplicación asociada, un dispositivo de almacenamiento de datos y similares). Además, aunque se ilustra como una única aplicación 212, la aplicación 212 puede implementarse como múltiples aplicaciones 212 en el dispositivo 202 óptico. Además, aunque se ilustra como integrada en el dispositivo 202 óptico, en implementaciones alternativas, la aplicación 212 puede ser externa al dispositivo 202 óptico y/o al sistema 200.
La memoria 214 mantiene datos para el dispositivo 202 óptico y/o el uno o más elementos del sistema 200 y representa tanto memoria de tipo interno y externo (extraíble) usada con el dispositivo 202 óptico y consistente con esta divulgación. Por ejemplo, la memoria de tipo interno puede incluir una o más de flash, LPDDR2 y similares. La memoria de tipo externo (extraíble) puede incluir, por ejemplo, memoria de tipo USB, tarjetas CF, tarjetas SD y similares. Aunque se ilustra como una memoria 214 única en la Figura 2, pueden usarse dos o más memorias 214 de acuerdo con necesidades particulares, deseos o implementaciones particulares del dispositivo 202 óptico y/o el sistema 200.
Los sensores 216 pueden incluir uno o más sensores visuales, de audio, de temperatura, de altitud, de humedad, de presión atmosférica, de elevación, de giroscopio, de acelerómetro, de intensidad de luz, de brújula y/u otros consistentes con esta divulgación. En algunas implementaciones, uno o más de los sensores 216 puede incluir metadatos (por ejemplo, hora, fecha, ubicación geográfica, intervalo de tiempo, datos de seguridad, identificación del observador, identificación del objeto y similares) con datos aplicables recogidos. En implementaciones alternativas, uno o más sensores 216 pueden ser externos al dispositivo 202 óptico (por ejemplo, una cámara fijada de manera externa, micrófono, etc.).
Un sensor visual (no ilustrado de manera independiente) típicamente incluye una o más de cámaras de luz diurna fijas/de movimiento, IR, ultravioleta (UV) u otros espectros. En implementaciones típicas, el sensor visual está diseñado para recoger luz visible/luz no visible para permitir el procesamiento, por ejemplo, por la aplicación 212 y el procesador 224 para su presentación visual en la pantalla 222. Por ejemplo, en algunas implementaciones, el sensor visual puede ser un sensor visual generador de imágenes térmicas de la marca LEPTON, tal como el producido por FLIR, Inc. (o un tipo equivalente de sensor visual) y/o un generador de imágenes de alta definición (HD) de luz diurna. En algunas implementaciones, puede fusionarse tanto una imagen térmica de IR como una imagen de luz diurna de HD para producir una imagen de baja luz más útil para un observador y para el reconocimiento y/o análisis de imágenes (por ejemplo, por la aplicación 212).
En algunas implementaciones, puede usarse una lente de objetivo (no ilustrada) o una ventana para cubrir, proteger y/o mejorar la funcionalidad del sensor visual. Por ejemplo, la lente de objetivo puede ser intercambiable (por ejemplo, para un FOV más amplio, ampliación más alta necesitada, tipo de datos visuales deseados, etc.). En algunas implementaciones, la lente de objetivo puede estar configurada de un material de radiación transparente a infrarroja (IR) tal como en sistemas de formación de imágenes térmicos. En algunas implementaciones, la lente de objetivo puede estar configurada de Germanio (Ge), cuarzo, AMTIER, fluoruro de bario, fluoruro de calcio, cloruro de sodio, CLEARTRAN, sílice fundida, silicio, polietileno, cerámica transparente de IR y/o cualquier otro tipo de sustancia transparente a la radiación electromagnética infrarroja. En algunas implementaciones, la lente de objetivo puede estar fabricada de una sustancia transparente tanto a las longitudes de onda ópticas como de radiación de IR (por ejemplo, cuarzo, polietileno, etc.). En algunas implementaciones, la lente de objetivo y el sensor visual pueden retirarse y sustituirse con respecto al dispositivo 202 óptico para cambiar la funcionalidad global sin necesitar un dispositivo 202 óptico configurado de manera diferente y separado. En algunas implementaciones, puede realizarse zum en el sensor (de manera óptica y/o digital) para ampliar una imagen óptica recibida para su presentación visual en la pantalla 222 (por ejemplo, la imagen 102 óptica de FOV angular y/o la PIP 104 ampliada).
En algunas implementaciones, puede añadirse audio (por ejemplo, recogido de uno o más sensores de audio (por ejemplo, un micrófono - no ilustrado de manera independiente)) a las imágenes recogidas y registradas usando el sensor visual. El audio puede proporcionar datos útiles adicionales cuando se acopla con imágenes visuales registradas.
El dispositivo 218 de entrada puede incluir un teclado, teclado numérico, pantalla táctil, reconocimiento de comandos verbal integrado (por ejemplo, usando un micrófono y/o un dispositivo externo tal como un teléfono inteligente o reloj inteligente conectado/emparejado con el dispositivo 202 óptico para recoger datos de voz para reconocimiento de comandos) y similares. En algunas implementaciones, el dispositivo 218 de entrada puede ser un dispositivo de entrada conectado de manera externa (por ejemplo, un dispositivo informático inteligente, un teclado conectado, etc.). En algunas implementaciones, puede ser necesario que se introduzca la funcionalidad deseada usando más de un dispositivo 218 de entrada.
El altavoz 220 proporciona funcionalidad de salida de audio. En algunas implementaciones, el altavoz 220 puede incluir altavoces 220 conectados de manera externa (por ejemplo, usando el conector 210 externo) para proporcionar mejor resolución de entrada/salida de audio.
La pantalla 222 (por ejemplo, una pantalla de cristal líquido (LCD), una pantalla de diodo de emisión de luz orgánico (OLED) u otro tipo de pantalla) se usa para proporcionar tanto indicaciones visuales como datos (por ejemplo, la captura de pantalla 100) a un observador, y, en algunas implementaciones, para aceptar entrada de usuario (por ejemplo, usando una pantalla táctil). Por ejemplo, la pantalla 222 puede presentar visualmente una imagen visual, proporcionar una GUI, presentar visualmente datos procesados en forma gráfica (por ejemplo, en diagramas/gráficos) y similares.
En general, el procesador 224 ejecuta instrucciones y manipula datos para realizar las operaciones (que incluyen aquellas anteriormente descritas) realizadas por el dispositivo 202 óptico. Específicamente, el procesador 224 puede ejecutar la funcionalidad para crear, operar y/o gestionar un dispositivo 202 óptico y/o el sistema 200 (o cualquier elemento del sistema 200) y/o realizar cualquier funcionalidad asociada con el sistema 200 y dentro del alcance de esta divulgación. Aunque se ilustra como un único procesador 224 en la Figura 2, pueden usarse dos o más procesadores 224 de acuerdo con necesidades particulares, deseos o implementaciones particulares del dispositivo 202 óptico y/o el sistema 200. En algunas implementaciones, el procesador puede estar configurado como un sistema en un chip (SoC), sistema en partes (SiP) u otra configuración (por ejemplo, que incluye un controlador de memoria, procesador, procesador de gráficos, memoria, interfaz de memoria, interfaz de red y similares en un único paquete o estrechamente integrado). En estas implementaciones, pueden incorporarse diversos elementos descritos del dispositivo 202 óptico en y realizarse por el procesador 224.
La fuente 226 de alimentación puede incluir CA/CC, batería, batería recargable y/u otras fuentes de alimentación usadas para operar el dispositivo 202 óptico. La fuente 226 de alimentación está típicamente interconectada con al menos una forma de interruptor de potencia (no ilustrado) para CONECTAR/DESCONECTAR el dispositivo (por ejemplo, botón, palanca, táctil, control por voz, etc.). En algunas implementaciones, el dispositivo 202 óptico proporciona funcionalidad para analizar e informar a un usuario del estado de carga/recarga de las baterías. En algunas configuraciones, las baterías recargables pueden ser o no sustituibles por el usuario.
En algunas implementaciones, el dispositivo 202 óptico puede estar configurado para permitir la adición/retirada modular de componentes del dispositivo 202 óptico. Por ejemplo, un dispositivo 202 óptico puede estar configurado con componentes convencionales (por ejemplo, la memoria 214, la aplicación 212, el dispositivo 218 de entrada, el procesador 224, etc.), pero pueden añadirse y retirarse de manera modular otros elementos del dispositivo 202 óptico del dispositivo 202 óptico (por ejemplo, los sensores 216 tales como sensores visuales o de audio pueden sustituirse para una mejor resolución/imágenes de diferentes espectros o recogida de audio direccional, un altavoz 220 estéreo para mejor resolución de salida de audio, una fuente 226 de alimentación mejorada, etc.).
En algunas implementaciones, los elementos del dispositivo 202 óptico (y otros elementos similares del sistema 200) pueden cargarse usando diversos medios. Por ejemplo, en algunas implementaciones, puede introducirse firmware actualizado, aplicaciones y/o datos de retícula en el dispositivo 202 óptico a través del conector 210 externo, la interfaz 208 de red y/o la memoria 214. En estas implementaciones, pueden transferirse los datos usando un dispositivo de memoria USB, cable de datos (USB, FIREWIRE, etc.), cable de red (por ejemplo, ETHERNET, etc.), y/u otro método de transferencia consistente con esta divulgación. En algunas implementaciones, el dispositivo 210 óptico puede actualizarse usando una conexión de tipo inalámbrico (por ejemplo, WIFI, BLUETOOTH, celular, etc.).
La Figura 3 es un diagrama 300 de bloques de un ordenador de ejemplo usado en la provisión de conciencia situacional mejorada usando la PIP ampliada dentro de una imagen óptica de FOV amplio, de acuerdo con una implementación. El ordenador 302 ilustrado se pretende que abarque cualquier dispositivo informático integrado con y/o acoplado a un dispositivo óptico como se describe en esta divulgación - tal como un servidor, ordenador de sobremesa, portátil/ordenador portátil, puerto de datos inalámbrico, teléfono inteligente, asistente de datos personal (PDA), dispositivo informático de tableta, ordenador llevable, reloj inteligente, televisión, uno o más procesadores dentro de estos dispositivos o cualquier otro dispositivo de procesamiento adecuado, que incluye tanto casos físicos y/o virtuales del dispositivo informático. Adicionalmente, el ordenador 302 puede incluir un dispositivo de entrada, tal como un teclado numérico, teclado, pantalla táctil, botón o botones de múltiples funciones y/u otro dispositivo que pueda aceptar información de usuario y un dispositivo de salida que transporte información asociada con la operación del ordenador 302, que incluye datos digitales información visual y/o de audio o una GUI.
Mientras que el ordenador 302 típicamente sirve como parte de y/o en conjunto con un dispositivo 202 óptico y/o dispositivo 204 externo, en algunas implementaciones, el ordenador 302 puede servir también como un cliente, componente de red, un servidor, una base de datos u otra persistencia y/o cualquier otro componente (ya se ilustre o no) del sistema 200. El ordenador 302 ilustrado está comunicativamente acoplado con una red 330 (por ejemplo, la red 206 de la Figura 2). En algunas implementaciones, uno o más componentes del ordenador 302 pueden estar configurados para operar dentro de un entorno informático basado en la nube.
En un alto nivel, el ordenador 302 es un dispositivo informático electrónico operable para recibir, transmitir, procesar, almacenar o gestionar datos e información asociada con el sistema 200. En algunas implementaciones, el ordenador 302 puede incluir también o estar comunicativamente acoplado con un servidor de aplicaciones, servidor de correo electrónico, servidor web, servidor de almacenamiento en caché, servidor de datos de envío por flujo continuo, servidor de inteligencia empresarial (BI) y/u otro servidor.
El ordenador 302 puede recibir solicitudes a través de la red 330 desde una aplicación (por ejemplo, una aplicación 307 que se ejecuta en otro ordenador 302 u otra aplicación) u otro elemento del sistema 200 y responder a las solicitudes recibidas procesando dichas solicitudes en una aplicación (por ejemplo, la aplicación 307). Además, pueden enviarse también solicitudes al ordenador 302 desde usuarios internos (por ejemplo, desde una consola de comandos o mediante otro método de acceso apropiado), partes externas o terceros, otras aplicaciones automatizadas, así como cualquier otra entidad, individuo, sistemas u ordenadores apropiados.
Cada uno de los componentes del ordenador 302 puede comunicarse usando un bus 303 de sistema. En algunas implementaciones, cualquiera y/o todos los componentes del ordenador 302, tanto de hardware y/o software, pueden interconectarse entre sí y/o la interfaz 304 de red a través del bus 303 de sistema usando una interfaz de programación de aplicación (API) 312 y/o una capa 313 de servicio. La API 312 puede incluir especificaciones para rutinas, estructuras de datos y clases de objeto. La API 312 puede ser dependiente/independiente del lenguaje informático y puede hacer referencia a una interfaz completa, una única función o incluso un conjunto de API. La capa 313 de servicio proporciona servicios de software al ordenador 302 y/o al sistema 200. La funcionalidad del ordenador 302 puede ser accesible para todos los consumidores de servicio que usen esta capa de servicio. Los servicios de software, tales como aquellos proporcionados por la capa 313 de servicio, proporcionan funcionalidades de negocio definidas reutilizables a través de una interfaz definida. Por ejemplo, la interfaz puede ser software escrito en JAVA, C++ u otro lenguaje adecuado que proporcione datos en formato de lenguaje de marcas extensible (XML) u otro formato adecuado. Aunque se ilustra como un componente integrado del ordenador 302, implementaciones ilustrativas pueden ilustrar la API 312 y/o la capa 313 de servicio como componentes independientes en relación con otros componentes del ordenador 302 y/o el sistema 200. Además, cualquiera o todas las partes de la API 312 y/o de la capa 313 de servicio pueden implementarse como hijos o submódulos de otro módulo de software, aplicación, o módulo de hardware sin alejarse del alcance de esta divulgación.
El ordenador 302 incluye una interfaz 304 de red (por ejemplo, la interfaz 208 de red). Aunque se ilustra como una única interfaz 304 de red en la Figura 3, pueden usarse dos o más interfaces 304 de red de acuerdo con necesidades particulares, deseos o implementaciones particulares del ordenador 302 y/o el sistema 200. La interfaz 304 de red se usa por el ordenador 302 para comunicarse con otros sistemas (ilustrados o no) en un entorno distribuido - que incluye dentro del sistema 200 - conectado a la red 330. En general, la interfaz 304 de red comprende lógica codificada en software y/o hardware en una combinación adecuada y operable para comunicarse con la red 330. Más específicamente, la interfaz 304 de red puede comprender software que soporta uno o más protocolos de comunicación asociados con las comunicaciones de manera que la red 330 o el hardware de la interfaz es operable para comunicar señales físicas dentro y fuera del sistema 200 ilustrado.
El ordenador 302 incluye un procesador 305 (por ejemplo, el procesador 224). Aunque se ilustra como un único procesador 305 en la Figura 3, pueden usarse dos o más procesadores de acuerdo con necesidades particulares, deseos o implementaciones particulares del ordenador 302 y/o el sistema 200. En general, el procesador 305 ejecuta instrucciones y manipula datos para realizar las operaciones del ordenador 302. Específicamente, el procesador 305 puede ejecutar la funcionalidad para crear, operar y/o gestionar un sistema 200 (o cualquier elemento del sistema 200) y/o realizar cualquier funcionalidad asociada con el sistema 200 y dentro del alcance de esta divulgación -proporcionando particularmente conciencia situacional mejorada usando PIP ampliada dentro de una imagen óptica de FOV amplio.
El ordenador 302 también incluye una memoria 306 (por ejemplo, la memoria 214) que mantiene datos para el ordenador 302 y/u otros componentes del sistema 200. Aunque se ilustra como una única memoria 306 en la Figura 3, pueden usarse dos o más memorias de acuerdo con necesidades particulares, deseos o implementaciones particulares del ordenador 302 y/o el sistema 200. Aunque se ilustra la memoria 306 como un componente integral del ordenador 302, en implementaciones alternativas, la memoria 306 puede ser externa al ordenador 302 y/o al sistema 200.
La aplicación 307 (por ejemplo, la aplicación 212) es un motor de software algorítmico que proporciona funcionalidad de acuerdo con necesidades particulares, deseos o implementaciones particulares del ordenador 302, particularmente con respecto a la funcionalidad requerida para crear, operar y/o gestionar un sistema 200 (o cualquier elemento del sistema 200) y/o realizar cualquier funcionalidad asociada con el sistema 200 y dentro del alcance de esta divulgación - proporcionando particularmente conciencia situacional mejorada usando PIP ampliada dentro de una imagen óptica de FOV amplio. Por ejemplo, la aplicación 307 puede proporcionar funcionalidad para uno o más componentes, módulos, aplicaciones, etc. descritos con respecto a las Figuras 1,2 y 4. Además, aunque se ilustra como una única aplicación 307, la aplicación 307 puede implementarse como múltiples aplicaciones 307 en el ordenador 302. Además, aunque se ilustra como integrada en el ordenador 302, en implementaciones alternativas, la aplicación 307 puede ser externa al ordenador 302 y/o al sistema 200.
Puede haber cualquier número de ordenadores 302 asociados con, o externos a, el sistema 200 y que se comunican a través de la red 330. Además, los términos "cliente", "usuario" y otra terminología apropiada pueden usarse de manera intercambiable según sea apropiado sin alejarse del alcance de esta divulgación. Además, esta divulgación contempla que muchos usuarios pueden usar un ordenador 302, o que un usuario puede usar múltiples ordenadores 302.
La Figura 4 es un diagrama de flujo de un método 400 para proporcionar conciencia situacional mejorada usando PIP ampliada dentro de una imagen óptica de FOV amplio, de acuerdo con una implementación. Por claridad de presentación, la descripción que sigue describe en general el método 400 en el contexto de las Figuras 1-3. Sin embargo, se entenderá que el método 400 puede realizarse, por ejemplo, por cualquier otro sistema, entorno, software y hardware adecuados, o una combinación de sistemas, entornos, software y hardware según sea apropiado. En algunas implementaciones, diversas etapas del método 400 pueden ejecutarse en paralelo, en combinación, en bucles o en cualquier orden.
En 402, se recibe una imagen óptica y otros datos (por ejemplo, audio, temperatura, elevación, etc.). Por ejemplo, un visor de arma de fuego que incorpora la funcionalidad descrita puede recibir una imagen óptica y datos de audio usando un sensor visual y un sensor de audio. Desde 402, el método 400 continúa a 404.
En 404, se procesa la imagen óptica recibida y otros datos. Por ejemplo, un programa de procesamiento de imagen (por ejemplo, la aplicación de la Figura 2) ejecutado por el procesador puede modificar, mejorar y preparar datos recibidos consistentes con la descripción anterior para su presentación en una pantalla para un usuario. Desde 404, el método 400 continúa a 406.
En 406, se presenta visualmente una pantalla de la imagen óptica de FOV amplio en la pantalla. Como se ha descrito anteriormente, pueden presentarse visualmente datos asociados con la imagen óptica de FOV amplio (por ejemplo, la barra de datos anteriormente descrita). Desde 406, el método 400 continúa a 408.
En 408, se recibe una indicación para presentar visualmente una imagen óptica PIP ampliada en la pantalla simultáneamente con la imagen óptica de FOV amplio. Por ejemplo, la indicación puede iniciarse por una acción de usuario tal como un comando de voz, selección de botón, selección de pantalla táctil, regla dinámica, etc. Desde 408, el método 400 continúa a 410.
En 410, se genera una imagen óptica para la PIP ampliada. En implementaciones típicas, se copia un área central alrededor de una retícula (por ejemplo, la retícula 108a de la Figura 1) desde datos de imagen procesados (404 arriba) y se procesa para producir una PIP ampliada. De acuerdo con la reivindicación 1, se copia un área central de un tamaño definido (ya sea determinada previamente o por el usuario) de la imagen óptica de FOV amplio alrededor de una retícula (ya se presente visualmente o no con la imagen óptica de FOV amplio) y se procesa para su presentación visual como una PIP ampliada. En implementaciones típicas, la PIP ampliada puede presentar visualmente una imagen de píxeles más grande generada pero con menor cantidad de píxeles (que proporciona un aumento aparente en la ampliación de la imagen óptica presentada visualmente en la PIP ampliada) y reflejar una retícula de tamaño reducido alineada/corregida (por ejemplo, la retícula 108b de la Figura 1) para distinguirla de la retícula asociada con la imagen óptica de FOV amplio y para no oscurecer la imagen óptica presentada visualmente en la PIP ampliada. Desde 410, el método 400 continúa a 412.
En 412, se inicia la presentación visual simultánea de la PIP ampliada generada con la imagen óptica de FOV amplio en la pantalla. Por ejemplo, la PIP ampliada se presenta visualmente/superpone sobre la imagen óptica de FOV amplio en una posición particular (por ejemplo, centrada y por encima del punto central de la imagen óptica de FOV amplio). La imagen óptica de PIP ampliada y la retícula asociada pueden usarse en conjunto con la imagen óptica de FOV amplio y la retícula asociada para proporcionar conciencia situacional y/u otras ventajas anteriormente descritas. Después de 412, el método 400 se detiene.
Las implementaciones de la materia objeto y las operaciones funcionales descritas en esta memoria descriptiva pueden implementarse en circuitería electrónica digital, en software informático o firmware realizado de manera tangible, en hardware informático, que incluye las estructuras desveladas en esta memoria descriptiva y sus equivalentes estructurales o en combinaciones de uno o más de ellos. Las implementaciones de la materia objeto descrita en esta memoria descriptiva pueden implementare como uno o más programas informáticos, es decir, uno o más módulos de instrucciones de programa informático codificados en un medio de almacenamiento por ordenador tangible, no transitorio para su ejecución por, o para controlar la operación de, el aparato de procesamiento de datos. Como alternativa o además, las instrucciones de programa pueden codificarse en una señal propagada generada de manera artificial, por ejemplo, una señal eléctrica, óptica o electromagnética generada por máquina que se genera para codificar información para su transmisión a un aparato receptor adecuado para su ejecución por un aparato de procesamiento de datos. El medio de almacenamiento por ordenador puede ser un dispositivo de almacenamiento legible por máquina, un sustrato de almacenamiento legible por máquina, un dispositivo de memoria de acceso aleatorio o en serie o una combinación de uno o más de ellos.
Las expresiones "aparato de procesamiento de datos", "ordenador" o "dispositivo informático electrónico" (o equivalentes según se entienden por un experto en la materia) hacen referencia a hardware de procesamiento de datos y abarcan todas las clases de aparatos, dispositivos y máquinas para procesamiento de datos, que incluyen, a modo de ejemplo, un procesador programable, un ordenador o múltiples procesadores u ordenadores. El aparato puede también ser o incluir circuitería de lógica de propósito especial, por ejemplo, una unidad de procesamiento central (CPU), un FPGA (campo de matriz de puertas programables) o un ASIC (circuito integrado específico de la aplicación). En algunas implementaciones, el aparato de procesamiento de datos y/o la circuitería de lógica de fin especial pueden estar basados en hardware y/o basados en software. El aparato puede incluir opcionalmente código que crea un entorno de ejecución para programas informáticos, por ejemplo, código que constituye firmware de procesador, una pila de protocolo, un sistema de gestión de base de datos, un sistema operativo o una combinación de uno o más de ellos. La presente divulgación contempla el uso de aparatos de procesamiento de datos con o sin sistemas operativos convencionales, por ejemplo, LINUX, UNIX, WINDOWS, MAC OS, ANDROID, IOS o cualquier otro sistema operativo convencional adecuado.
Un programa informático, que puede denominarse también o describirse como un programa, software, una aplicación de software, un módulo, un módulo de software, un guion o código, puede escribirse en cualquier forma de lenguaje de programación, que incluye lenguajes compilados o interpretados o lenguajes declarativos o procedurales y puede desarrollarse en cualquier forma, incluyendo como un programa independiente o como un módulo, componente, subrutina u otra unidad adecuada para su uso en un entorno informático. Un programa informático puede corresponder, aunque no necesariamente, a un fichero en un sistema de ficheros. Un programa puede almacenarse en una porción de un fichero que mantiene otros programas o datos, por ejemplo, uno o más guiones almacenados en un documento de lenguaje de marcas, en un único fichero especializado para el programa en cuestión o en múltiples ficheros coordinados, por ejemplo, ficheros que almacenan uno o más módulos, subprogramas o porciones de código. Un programa informático puede desplegarse para ejecutarse en un ordenador o en múltiples ordenadores que están ubicados en un sitio o distribuidos a través de múltiples sitios e interconectados por una red de comunicación. Aunque se muestran porciones de los programas ilustrados en las diversas figuras como módulos individuales que implementan las diversas características y funcionalidad a través de diversos objetos, métodos u otros procesos, los programas pueden incluir, en su lugar, un número de submódulos, servicios de terceros componentes, bibliotecas así sucesivamente, según sea apropiado. A la inversa, las características y funcionalidad de diversos componentes pueden combinarse en componentes únicos según sea apropiado.
Los procesos y flujos lógicos descritos en esta memoria descriptiva pueden realizarse por uno o más ordenadores programables que ejecutan uno o más programas informáticos para realizar funciones operando en datos de entrada y generando salida. Los procesos y flujos lógicos pueden realizarse también por, y los aparatos pueden implementarse también como, circuitería de lógica de propósito especial, por ejemplo, una CPU, un FPGA o un ASIC.
Los ordenadores adecuados para la ejecución de un programa informático pueden usarse en microprocesadores de propósito general o especial, ambos o cualquier otra clase de CPU. En general, una CPU recibirá instrucciones y datos de una memoria de sólo lectura (ROM) o una memoria de acceso aleatorio (RAM) o ambas. Los elementos esenciales de un ordenador son una CPU para realizar o ejecutar instrucciones y uno o más dispositivos de memoria para almacenar instrucciones y datos. En general, un ordenador incluirá también, o estará acoplado de manera operativa a, recibirá datos de o transferirá datos a, o ambos, uno o más dispositivos de almacenamiento masivo para almacenar datos, por ejemplo, discos magnéticos, magneto-ópticos o discos ópticos. Sin embargo, un ordenador no necesita tener tales dispositivos. Además, un ordenador puede estar embebido en otro dispositivo, por ejemplo, un teléfono móvil, un asistente digital personal (PDA), un reproductor de audio o vídeo móvil, una consola de juegos, un receptor de sistema de posicionamiento global (GPS), o un dispositivo de almacenamiento portátil, por ejemplo, una unidad flash de bus serie universal (USB), por nombrar solo unos pocos.
Medio legible por ordenador (transitorio o no transitorio, según sea apropiado) adecuado para almacenar instrucciones de programa informático y datos incluye todas las formas de memoria no volátil, medios y dispositivos de memoria, que incluyen, a modo de ejemplo, dispositivos de memoria de semiconductores, por ejemplo, memoria de sólo lectura programable borrable (EPROM), memoria de sólo lectura eléctricamente programable borrable (EEPROM) y dispositivos de memoria flash; discos magnéticos, por ejemplo, discos duros internos o discos extraíbles; discos magneto-discos; y discos CD-ROM, DVD+/-R, DVD-RAM y DVD-ROM. La memoria puede almacenar diversos objetos o datos, que incluyen cachés, clases, estructuras, aplicaciones, datos de respaldo, trabajos, páginas web, plantillas de página web, tablas de base de datos, repositorios que almacenan información empresarial y/o dinámica y cualquier otra información apropiada que incluya cualquier parámetro, variable, algoritmo, instrucciones, reglas, restricciones o referencias a las mismas. Adicionalmente, la memoria puede incluir cualquier otro dato apropiado, tales como registros, políticas, datos de seguridad o de acceso, ficheros de generación de información así como otros. El procesador y la memoria pueden complementarse por, o estar incorporados en, circuitería de lógica de propósito especial.
Para proporcionar la interacción con un usuario, las implementaciones de la materia objeto descrita en esta memoria descriptiva pueden implementarse en un ordenador que tiene un dispositivo de visualización, por ejemplo, un CRT (tubo de rayos catódicos), LCD (pantalla de cristal líquido), LED (diodo de emisión de luz), o monitor de plasma, para presentar visualmente información al usuario y un teclado y un dispositivo apuntador, por ejemplo, un ratón, bola de mando o almohadilla táctil, mediante el que el usuario puede proporcionar entrada al ordenador. La entrada puede proporcionarse también al ordenador usando una pantalla táctil, tal como una superficie de ordenador de tableta con sensibilidad de presión, una pantalla multi-táctil que usa detección capacitiva o eléctrica u otro tipo de pantalla táctil. Pueden usarse otros tipos de dispositivos para proporcionar interacción con un usuario también; por ejemplo, la realimentación proporcionada al usuario puede ser cualquier realimentación sensorial, por ejemplo, realimentación visual, realimentación auditiva o realimentación táctil; y la entrada del usuario puede recibirse en cualquier forma, incluyendo entrada acústica, de voz o táctil. Además, un ordenador puede interactuar con un usuario enviando documentos a y recibiendo documentos desde un dispositivo que se usa por el usuario; por ejemplo, enviando páginas web a un explorador web en un dispositivo cliente del usuario en respuesta a solicitudes recibidas del explorador web.
La expresión "interfaz de usuario gráfica", o "GUI", puede usarse en singular o en plural para describir una o más interfaces de usuario gráficas y cada una de las pantallas de una interfaz de usuario gráfica particular. Por lo tanto, una GUI puede representar cualquier interfaz de usuario gráfica que incluye, pero sin limitación, un explorador web, una pantalla táctil, o una interfaz de línea de comandos (CLI) que procesa información y presenta de manera eficaz los resultados de información al usuario. En general, una GUI puede incluir una pluralidad de elementos de interfaz de usuario (UI), algunos o todos asociados con un explorador web, tal como campos interactivos, listas desplegables y botones que pueden operarse por el usuario del conjunto de aplicaciones de negocio. Estos y otros elementos de la UI pueden estar relacionados con o representar las funciones del explorador web.
Las implementaciones de la materia objeto descrita en esta memoria descriptiva pueden implementarse en un sistema informático que incluye un componente de extremo trasero, por ejemplo, como un servidor de datos, o que incluye un componente de soporte intermedio, por ejemplo, un servidor de aplicaciones, o que incluye un componente de extremo frontal, por ejemplo, un ordenador cliente que tiene una interfaz de usuario gráfica o un explorador web a través del que un usuario puede interactuar con una implementación de la materia objeto descrita en esta memoria descriptiva, o cualquier combinación de uno o más de tales componentes de extremo trasero, soporte intermedio o de extremo delantero. Los componentes del sistema pueden interconectarse por cualquier forma de medio de comunicación de datos digital alámbrica y/o inalámbrica, por ejemplo, una red de comunicación. Ejemplos de las redes de comunicación incluyen una red de área local (LAN), una red de acceso por radio (RAN), una red de área metropolitana (MAN), una red de área extensa (WAN), Interoperabilidad Mundial para Acceso por Microondas (WIMAX), una red de área local inalámbrica (WLAN) que usa, por ejemplo, 802.11 a/b/g/n y/u 802.20, toda o una porción de Internet y/o cualquier otro sistema de comunicación o sistemas en una o más ubicaciones. La red puede comunicarse con, por ejemplo, paquetes del Protocolo de Internet (IP), tramas de Retransmisión de Tramas, células del Modo de Transferencia Asíncrona (ATM), voz, vídeo, datos y/u otra información adecuada entre direcciones de red.
El sistema informático puede incluir clientes y servidores. Un cliente y servidor están en general remotos entre sí e interactúan típicamente a través de una red de comunicación. La relación de cliente y servidor surge mediante programas informáticos que se ejecutan en los respectivos ordenadores y que tienen una relación cliente-servidor entre sí.
En algunas implementaciones, cualquiera o todos de los componentes del sistema informático, tanto hardware y/o software, pueden interconectarse entre sí y/o con la interfaz usando una interfaz de programación de aplicación (API) y/o una capa de servicio. La API puede incluir especificaciones para rutinas, estructuras de datos y clases de objeto. La API puede ser independiente o dependiente del lenguaje informático y puede hacer referencia a una interfaz completa, a una única función o incluso a un conjunto de API. La capa de servicio proporciona servicios de software al sistema informático. La funcionalidad de los diversos componentes del sistema informático puede ser accesible para todos los consumidores de servicio que usan esta capa de servicio. Los servicios de software proporciona funcionalidades de empresa definidas reutilizables, a través de una interfaz definida. Por ejemplo, la interfaz puede ser software escrito en JAVA, C++ u otro lenguaje adecuado que proporcione datos en formato de lenguaje de marcas extensible (XML) u otro formato adecuado. La API y/o la capa de servicio pueden ser un componente integral y/o uno independiente en relación con otros componentes del sistema informático. Además, cualquiera o todas las partes de la capa de servicio pueden implementarse como hijos o submódulos de otro módulo de software, aplicación empresarial o módulo de hardware sin alejarse del alcance de esta divulgación.
Aunque esta memoria descriptiva contiene muchos detalles de implementación específicos, estos no deben interpretarse como limitaciones sobre el alcance de cualquier invención o sobre el alcance de lo que puede reivindicarse, sino, en su lugar, como descripciones o características que pueden ser específicas a las implementaciones particulares de invenciones particulares. Ciertas características que se describen en esta memoria descriptiva en el contexto de implementaciones separadas pueden implementarse también en combinación en una única implementación. A la inversa, diversas características que se describen en el contexto de una única implementación pueden implementarse también en múltiples implementaciones de manera separada o en cualquier subcombinación adecuada.
Se han descrito las implementaciones particulares de la materia objeto.
Además, la separación y/o integración de diversos módulos de sistema y componentes en las implementaciones anteriormente descritas no debe entenderse como que requieren tal separación y/o integración en todas las implementaciones, y debería entenderse que los componentes y sistemas de programa descritos pueden integrarse en general juntos en un único producto de software o empaquetarse en múltiples productos de software.
Por consiguiente, la descripción anterior de implementaciones de ejemplo no define o restringe esta divulgación. En su lugar, el alcance de protección se define mediante las reivindicaciones.

Claims (10)

REIVINDICACIONES
1. Un método para proporcionar conciencia situacional mejorada usando una imagen en imagen (104) ampliada dentro de una imagen (102) óptica de campo de visión amplio desde un visor de arma de fuego, comprendiendo el método:
procesar (404) una imagen óptica recibida para generar la imagen óptica de campo de visión amplio; iniciar (406) la presentación visual de la imagen óptica de campo de visión amplio en una pantalla del visor de arma de fuego;
recibir (408) una indicación para presentar visualmente una imagen de imagen en imagen ampliada en la pantalla simultáneamente con la imagen óptica de campo de visión amplio;
generar (410) la imagen de imagen en imagen ampliada para su presentación visual en la pantalla del visor de arma de fuego, en donde la imagen de imagen en imagen ampliada se copia desde un área central de un tamaño definido de la imagen óptica de campo de visión amplio alrededor de una retícula y en donde cambiar el zum de cualquiera de la imagen de imagen en imagen ampliada o la imagen óptica de campo de visión amplio afecta al zum de la otra de acuerdo con alguna escala dinámica determinada o una selección de usuario a priori/sobre la marcha; e iniciar (412) la presentación visual de la imagen de imagen en imagen ampliada en la pantalla del visor de arma de fuego simultáneamente con la imagen óptica de campo de visión amplio.
2. El método de la reivindicación 1, que comprende recibir datos de audio u otros asociados con la imagen óptica.
3. El método de la reivindicación 2, en donde los otros datos incluyen datos recibidos de sensores de temperatura, de altitud, de humedad, de presión atmosférica, de elevación, de giroscopio, de acelerómetro, de intensidad de luz o de brújula.
4. El método de la reivindicación 1, en donde el procesamiento incluye formatear, redimensionar, escalar, determinación de color, determinación de temperatura, determinación de contraste y determinación de brillo.
5. El método de la reivindicación 1, en donde la imagen de imagen en imagen ampliada presenta visualmente una imagen detallada de píxeles inferior que la imagen óptica de campo de visión amplio.
6. El método de la reivindicación 1, en donde la imagen de imagen en imagen ampliada presenta visualmente una retícula reducida en tamaño de una retícula presentada visualmente en la imagen óptica de campo de visión amplio.
7. El método de la reivindicación 1, que comprende correlacionar la imagen de imagen en imagen ampliada con la imagen óptica de campo de visión amplio para proporcionar conciencia situacional en relación con la imagen óptica de campo de visión amplio.
8. El método de la reivindicación 1, en donde la imagen de imagen en imagen ampliada se presenta visualmente centrada y por encima del punto central de la imagen óptica de campo de visión amplio.
9. Un medio legible por ordenador no transitorio que almacena instrucciones legibles por ordenador, las instrucciones ejecutables por un ordenador y configuradas para realizar el método de una cualquiera de las reivindicaciones 1 a 8.
10. Un visor de arma de fuego, que comprende:
una memoria informática;
al menos un procesador de hardware acoplado de manera interoperativa con la memoria informática y configurado para realizar el método de una cualquiera de las reivindicaciones 1 a 8.
ES16750256T 2015-06-26 2016-06-16 Proporcionar conciencia situacional mejorada usando imagen en imagen ampliada dentro de una imagen óptica de campo de visión amplio Active ES2895152T3 (es)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US14/752,241 US20160381297A1 (en) 2015-06-26 2015-06-26 Providing enhanced situational-awareness using magnified picture-in-picture within a wide field-of-view optical image
PCT/IB2016/000956 WO2016207718A1 (en) 2015-06-26 2016-06-16 Providing enhanced situational-awareness using magnified picture-in-picture within a wide field-of-view optical image

Publications (1)

Publication Number Publication Date
ES2895152T3 true ES2895152T3 (es) 2022-02-17

Family

ID=56618198

Family Applications (1)

Application Number Title Priority Date Filing Date
ES16750256T Active ES2895152T3 (es) 2015-06-26 2016-06-16 Proporcionar conciencia situacional mejorada usando imagen en imagen ampliada dentro de una imagen óptica de campo de visión amplio

Country Status (11)

Country Link
US (1) US20160381297A1 (es)
EP (1) EP3314884B1 (es)
DK (1) DK3314884T3 (es)
ES (1) ES2895152T3 (es)
HR (1) HRP20211349T1 (es)
HU (1) HUE055996T2 (es)
PL (1) PL3314884T3 (es)
PT (1) PT3314884T (es)
RU (1) RU2730466C2 (es)
SI (1) SI3314884T1 (es)
WO (1) WO2016207718A1 (es)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102393510B1 (ko) * 2015-08-25 2022-05-03 엘지전자 주식회사 디스플레이 디바이스 및 그 제어 방법
WO2019162926A1 (en) * 2018-02-26 2019-08-29 Jsc Yukon Advanced Optics Worldwide Digitally-based, thermal imaging device configured in a conventional, optically-based imaging device form factor
CN108579083B (zh) * 2018-04-27 2020-04-21 腾讯科技(深圳)有限公司 虚拟场景显示方法、装置、电子装置及存储介质
CN111373743A (zh) * 2019-01-24 2020-07-03 深圳市大疆创新科技有限公司 图像显示方法、图像控制方法、设备和可移动平台
CA3087909A1 (en) * 2019-07-24 2021-01-24 Arris Enterprises Llc Magnification enhancement of video for visually impaired viewers
CN110339562B (zh) * 2019-08-01 2023-09-15 腾讯科技(深圳)有限公司 虚拟对象的控制方法、装置、终端及存储介质
US11473874B2 (en) 2020-02-19 2022-10-18 Maztech Industries, LLC Weapon system with multi-function single-view scope
CN113739927A (zh) * 2021-07-26 2021-12-03 武汉高德智感科技有限公司 一种红外图像的显示方法及系统
AU2021467492A1 (en) * 2021-10-04 2024-04-11 Jsc Yukon Advanced Optics Worldwide Enhanced picture-in-picture

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5026158A (en) * 1988-07-15 1991-06-25 Golubic Victor G Apparatus and method for displaying and storing impact points of firearm projectiles on a sight field of view
JP2004288100A (ja) * 2003-03-25 2004-10-14 Minolta Co Ltd 撮像装置及び移動体カメラ
RU2008107755A (ru) * 2005-07-29 2009-09-10 Эл Джи Электроникс Инк. (Kr) Носитель записи, способ и устройство для воспроизведения данных и способ и устройство для записи данных
JP4600424B2 (ja) * 2007-05-08 2010-12-15 セイコーエプソン株式会社 未現像画像データの現像処理装置、現像処理方法、および現像処理のためのコンピュータプログラム
RU2008113632A (ru) 2008-04-10 2009-11-20 Владимир Витальевич Мирошниченко (RU) Система удержания объекта
KR101009881B1 (ko) 2008-07-30 2011-01-19 삼성전자주식회사 재생되는 영상의 타겟 영역을 확대 디스플레이하기 위한장치 및 방법
US20100077431A1 (en) * 2008-09-25 2010-03-25 Microsoft Corporation User Interface having Zoom Functionality
US8336777B1 (en) * 2008-12-22 2012-12-25 Pantuso Francis P Covert aiming and imaging devices
US20100188579A1 (en) 2009-01-29 2010-07-29 At&T Intellectual Property I, L.P. System and Method to Control and Present a Picture-In-Picture (PIP) Window Based on Movement Data
WO2011141547A1 (en) * 2010-05-12 2011-11-17 Leica Geosystems Ag Surveying instrument
US20120147246A1 (en) 2010-12-13 2012-06-14 Research In Motion Limited Methods And Apparatus For Use In Enabling An Efficient Review Of Photographic Images Which May Contain Irregularities
ITTO20120907A1 (it) 2012-10-16 2014-04-17 Selex Galileo Spa Sistema di visione esterna e/o di puntamento di un'arma per veicoli militari terrestri ed unita' navali militari
CN103323942A (zh) 2013-06-08 2013-09-25 珠海市敏夫光学仪器有限公司 一种同一视场内呈现两种不同倍率图像的枪瞄
KR102047704B1 (ko) * 2013-08-16 2019-12-02 엘지전자 주식회사 이동 단말기 및 이의 제어 방법
US9973722B2 (en) 2013-08-27 2018-05-15 Qualcomm Incorporated Systems, devices and methods for displaying pictures in a picture
US20150135125A1 (en) * 2013-11-12 2015-05-14 Apple Inc. Bubble loupes

Also Published As

Publication number Publication date
RU2730466C2 (ru) 2020-08-24
PT3314884T (pt) 2021-09-03
DK3314884T3 (da) 2021-10-25
EP3314884B1 (en) 2021-08-04
PL3314884T3 (pl) 2022-01-03
EP3314884A1 (en) 2018-05-02
HUE055996T2 (hu) 2022-01-28
RU2018102811A3 (es) 2019-10-02
HRP20211349T1 (hr) 2021-11-26
WO2016207718A1 (en) 2016-12-29
SI3314884T1 (sl) 2021-12-31
US20160381297A1 (en) 2016-12-29
RU2018102811A (ru) 2019-07-30

Similar Documents

Publication Publication Date Title
ES2895152T3 (es) Proporcionar conciencia situacional mejorada usando imagen en imagen ampliada dentro de una imagen óptica de campo de visión amplio
US20150302654A1 (en) Thermal imaging accessory for head-mounted smart device
US20170139212A1 (en) Cap type virtual reality display image system
EP4235366A3 (en) Light field processor system and method
US20210257084A1 (en) Ar/xr headset for military medical telemedicine and target acquisition
EP3462283B1 (en) Image display method and device utilized in virtual reality-based apparatus
WO2014197109A3 (en) Infrared video display eyewear
WO2016197847A2 (zh) 一种终端屏幕显示控制方法及装置、终端
US10146051B2 (en) Precision adjustment of projected digital information within a daylight optical device
US10619976B2 (en) Weapon sighted camera system
Gans et al. Augmented reality technology for day/night situational awareness for the dismounted soldier
US9851177B2 (en) Coating for light security
JP2019534493A (ja) 拡張現実感のための装置および方法
EP3076660B1 (en) Method and apparatus for displaying framing information
CN105070204A (zh) 一种微型amoled光学显示器
JP2015230580A5 (es)
US20190011702A1 (en) Helmet-Mounted Visualization Device Without Parallax and its Operation Method
US20140267389A1 (en) Night Vision Display Overlaid with Sensor Data
CN107403406B (zh) 实体影像与虚拟影像之间转换的方法及其系统
ES2520540A1 (es) Gafas que permiten acoplar y ver a corta distancia un teléfono móvil
US8937686B2 (en) Ultra low latency video fusion
US11921286B2 (en) Lens array for shifting perspective of an imaging system
KR101546799B1 (ko) 열 영상 카메라를 이용하는 발칸포용 야간조준기 및 그 방법
EP3234675B1 (en) Modular camera attachment for optical devices
TW201926018A (zh) 影像資訊顯示方法、影像資訊顯示系統與顯示器