BR112016002720B1 - Sistema local e método para analisar e classificar quadros de imagem individuais de dados de imagem panorâmica - Google Patents
Sistema local e método para analisar e classificar quadros de imagem individuais de dados de imagem panorâmica Download PDFInfo
- Publication number
- BR112016002720B1 BR112016002720B1 BR112016002720-5A BR112016002720A BR112016002720B1 BR 112016002720 B1 BR112016002720 B1 BR 112016002720B1 BR 112016002720 A BR112016002720 A BR 112016002720A BR 112016002720 B1 BR112016002720 B1 BR 112016002720B1
- Authority
- BR
- Brazil
- Prior art keywords
- thermal imaging
- imaging camera
- images
- camera
- image
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 31
- 238000001931 thermography Methods 0.000 claims abstract description 104
- 230000000717 retained effect Effects 0.000 claims abstract description 24
- 238000004458 analytical method Methods 0.000 claims description 20
- 230000007246 mechanism Effects 0.000 claims description 11
- 238000012545 processing Methods 0.000 claims description 11
- 230000008569 process Effects 0.000 claims description 6
- 230000008859 change Effects 0.000 claims description 5
- 238000003384 imaging method Methods 0.000 claims 3
- 230000000284 resting effect Effects 0.000 claims 1
- 230000000875 corresponding effect Effects 0.000 abstract description 12
- 230000002596 correlated effect Effects 0.000 abstract description 6
- 230000005540 biological transmission Effects 0.000 description 7
- 230000008901 benefit Effects 0.000 description 6
- 238000001514 detection method Methods 0.000 description 6
- 238000004364 calculation method Methods 0.000 description 4
- 230000006870 function Effects 0.000 description 4
- 238000004590 computer program Methods 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 238000004891 communication Methods 0.000 description 2
- 238000005265 energy consumption Methods 0.000 description 2
- 238000001228 spectrum Methods 0.000 description 2
- 238000012546 transfer Methods 0.000 description 2
- 238000003491 array Methods 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 239000000470 constituent Substances 0.000 description 1
- 238000010924 continuous production Methods 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 230000009977 dual effect Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000000873 masking effect Effects 0.000 description 1
- 230000005055 memory storage Effects 0.000 description 1
- 230000008520 organization Effects 0.000 description 1
- 229920001690 polydopamine Polymers 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 238000013403 standard screening design Methods 0.000 description 1
- 238000001429 visible spectrum Methods 0.000 description 1
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B24—GRINDING; POLISHING
- B24B—MACHINES, DEVICES, OR PROCESSES FOR GRINDING OR POLISHING; DRESSING OR CONDITIONING OF ABRADING SURFACES; FEEDING OF GRINDING, POLISHING, OR LAPPING AGENTS
- B24B9/00—Machines or devices designed for grinding edges or bevels on work or for removing burrs; Accessories therefor
- B24B9/02—Machines or devices designed for grinding edges or bevels on work or for removing burrs; Accessories therefor characterised by a special design with respect to properties of materials specific to articles to be ground
- B24B9/06—Machines or devices designed for grinding edges or bevels on work or for removing burrs; Accessories therefor characterised by a special design with respect to properties of materials specific to articles to be ground of non-metallic inorganic material, e.g. stone, ceramics, porcelain
- B24B9/08—Machines or devices designed for grinding edges or bevels on work or for removing burrs; Accessories therefor characterised by a special design with respect to properties of materials specific to articles to be ground of non-metallic inorganic material, e.g. stone, ceramics, porcelain of glass
- B24B9/14—Machines or devices designed for grinding edges or bevels on work or for removing burrs; Accessories therefor characterised by a special design with respect to properties of materials specific to articles to be ground of non-metallic inorganic material, e.g. stone, ceramics, porcelain of glass of optical work, e.g. lenses, prisms
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
- G06T7/74—Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B29—WORKING OF PLASTICS; WORKING OF SUBSTANCES IN A PLASTIC STATE IN GENERAL
- B29C—SHAPING OR JOINING OF PLASTICS; SHAPING OF MATERIAL IN A PLASTIC STATE, NOT OTHERWISE PROVIDED FOR; AFTER-TREATMENT OF THE SHAPED PRODUCTS, e.g. REPAIRING
- B29C45/00—Injection moulding, i.e. forcing the required volume of moulding material through a nozzle into a closed mould; Apparatus therefor
- B29C45/0053—Injection moulding, i.e. forcing the required volume of moulding material through a nozzle into a closed mould; Apparatus therefor combined with a final operation, e.g. shaping
- B29C45/0055—Shaping
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/0006—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means to keep optical surfaces clean, e.g. by preventing or removing dirt, stains, contamination, condensation
-
- G—PHYSICS
- G03—PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
- G03B—APPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
- G03B37/00—Panoramic or wide-screen photography; Photographing extended surfaces, e.g. for surveying; Photographing internal surfaces, e.g. of pipe
- G03B37/02—Panoramic or wide-screen photography; Photographing extended surfaces, e.g. for surveying; Photographing internal surfaces, e.g. of pipe with scanning movement of lens or cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T1/00—General purpose image data processing
- G06T1/0007—Image acquisition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/40—Scaling of whole images or parts thereof, e.g. expanding or contracting
- G06T3/4038—Image mosaicing, e.g. composing plane images from plane sub-images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/20—Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from infrared radiation only
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/698—Control of cameras or camera modules for achieving an enlarged field of view, e.g. panoramic image capture
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/30—Transforming light or analogous information into electric information
- H04N5/33—Transforming infrared radiation
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B29—WORKING OF PLASTICS; WORKING OF SUBSTANCES IN A PLASTIC STATE IN GENERAL
- B29C—SHAPING OR JOINING OF PLASTICS; SHAPING OF MATERIAL IN A PLASTIC STATE, NOT OTHERWISE PROVIDED FOR; AFTER-TREATMENT OF THE SHAPED PRODUCTS, e.g. REPAIRING
- B29C45/00—Injection moulding, i.e. forcing the required volume of moulding material through a nozzle into a closed mould; Apparatus therefor
- B29C45/0053—Injection moulding, i.e. forcing the required volume of moulding material through a nozzle into a closed mould; Apparatus therefor combined with a final operation, e.g. shaping
- B29C45/0055—Shaping
- B29C2045/0058—Shaping removing material
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B29—WORKING OF PLASTICS; WORKING OF SUBSTANCES IN A PLASTIC STATE IN GENERAL
- B29K—INDEXING SCHEME ASSOCIATED WITH SUBCLASSES B29B, B29C OR B29D, RELATING TO MOULDING MATERIALS OR TO MATERIALS FOR MOULDS, REINFORCEMENTS, FILLERS OR PREFORMED PARTS, e.g. INSERTS
- B29K2023/00—Use of polyalkenes or derivatives thereof as moulding material
- B29K2023/04—Polymers of ethylene
- B29K2023/06—PE, i.e. polyethylene
- B29K2023/0658—PE, i.e. polyethylene characterised by its molecular weight
- B29K2023/0683—UHMWPE, i.e. ultra high molecular weight polyethylene
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B29—WORKING OF PLASTICS; WORKING OF SUBSTANCES IN A PLASTIC STATE IN GENERAL
- B29K—INDEXING SCHEME ASSOCIATED WITH SUBCLASSES B29B, B29C OR B29D, RELATING TO MOULDING MATERIALS OR TO MATERIALS FOR MOULDS, REINFORCEMENTS, FILLERS OR PREFORMED PARTS, e.g. INSERTS
- B29K2995/00—Properties of moulding materials, reinforcements, fillers, preformed parts or moulds
- B29K2995/0018—Properties of moulding materials, reinforcements, fillers, preformed parts or moulds having particular optical properties, e.g. fluorescent or phosphorescent
- B29K2995/0026—Transparent
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B29—WORKING OF PLASTICS; WORKING OF SUBSTANCES IN A PLASTIC STATE IN GENERAL
- B29K—INDEXING SCHEME ASSOCIATED WITH SUBCLASSES B29B, B29C OR B29D, RELATING TO MOULDING MATERIALS OR TO MATERIALS FOR MOULDS, REINFORCEMENTS, FILLERS OR PREFORMED PARTS, e.g. INSERTS
- B29K2995/00—Properties of moulding materials, reinforcements, fillers, preformed parts or moulds
- B29K2995/0018—Properties of moulding materials, reinforcements, fillers, preformed parts or moulds having particular optical properties, e.g. fluorescent or phosphorescent
- B29K2995/0029—Translucent
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B29—WORKING OF PLASTICS; WORKING OF SUBSTANCES IN A PLASTIC STATE IN GENERAL
- B29K—INDEXING SCHEME ASSOCIATED WITH SUBCLASSES B29B, B29C OR B29D, RELATING TO MOULDING MATERIALS OR TO MATERIALS FOR MOULDS, REINFORCEMENTS, FILLERS OR PREFORMED PARTS, e.g. INSERTS
- B29K2995/00—Properties of moulding materials, reinforcements, fillers, preformed parts or moulds
- B29K2995/0037—Other properties
- B29K2995/0094—Geometrical properties
- B29K2995/0097—Thickness
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B29—WORKING OF PLASTICS; WORKING OF SUBSTANCES IN A PLASTIC STATE IN GENERAL
- B29L—INDEXING SCHEME ASSOCIATED WITH SUBCLASS B29C, RELATING TO PARTICULAR ARTICLES
- B29L2031/00—Other particular articles
- B29L2031/764—Photographic equipment or accessories
-
- G—PHYSICS
- G03—PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
- G03B—APPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
- G03B11/00—Filters or other obturators specially adapted for photographic purposes
- G03B11/04—Hoods or caps for eliminating unwanted light from lenses, viewfinders or focusing aids
- G03B11/041—Lens caps as separate accessory
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10048—Infrared image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30232—Surveillance
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N3/00—Scanning details of television systems; Combination thereof with generation of supply voltages
- H04N3/02—Scanning details of television systems; Combination thereof with generation of supply voltages by optical-mechanical means only
- H04N3/04—Scanning details of television systems; Combination thereof with generation of supply voltages by optical-mechanical means only having a moving aperture also apertures covered by lenses
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/222—Studio circuitry; Studio devices; Studio equipment
- H04N5/262—Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
- H04N5/2628—Alteration of picture size, shape, position or orientation, e.g. zooming, rotation, rolling, perspective, translation
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Signal Processing (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Mechanical Engineering (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Chemical & Material Sciences (AREA)
- Inorganic Chemistry (AREA)
- Ceramic Engineering (AREA)
- Manufacturing & Machinery (AREA)
- Optics & Photonics (AREA)
- Studio Devices (AREA)
- Radiation Pyrometers (AREA)
- Lens Barrels (AREA)
- Stereoscopic And Panoramic Photography (AREA)
Abstract
sistema local e método para analisar e classificar quadros de imagem individuais de dados de imagem panorâmica. imagens de câmera de imageamento térmico são obtidas a partir de uma câmera de imageamento térmico (250) que gira ao longo de uma pluralidade de posições de parada. a câmera captura imagens a uma velocidade de quadros constante e ao menos algumas das imagens correspondem a posições de parada. as imagens da câmera de imageamento térmico que correspondem a uma posição de parada são retidas, enquanto as imagens que não correspondem a uma posição de parada são descartadas. as imagens retidas são enviadas por um fluxo de vídeo a um processador de vídeo (240). o fluxo de vídeo é separado em imagens individuais da câmera de imageamento térmico e armazenado para dispositivos de câmera virtual correspondentes que correspondem a posições de parada específicas. além disso, a posição da câmera (250) e dos pixels individuais das imagens são ambas correlacionadas a dados de localização geográfica, e valores de profundidade para os pixels são determinados com base nos dados geográficos.
Description
[0001] Este pedido reivindica o benefício do pedido provisório de patenteUS n° 61/864.196, depositado em 9 de agosto de 2013, intitulado “Métodos para analisar dados de imagem com o uso de uma pluralidade de dispositivos virtuais, que correlaciona valores de profundidade a pixels de imagens, e um sistema incluindo uma tampa de lente sem descontinuidade” ("METHODS FOR ANALYZING THERMAL IMAGE DATA USING A PLURALITY OF VIRTUAL DEVICES, CORRELATING DEPTH VALUES TO IMAGE PIXELS, AND A SYSTEM INCLUDING A SEAMLESS LENS COVER"), que está aqui integralmente incorporado, por referência.
[0002] Imagens panorâmicas podem ser criadas por uma matriz decâmeras de ângulo amplo que juntas criam um campo de visão de até 360 graus, ou por uma câmera com uma lente olho de peixe, ou outro espelho panorâmico, que permite uma imagem em "bola de espelho" contínua que é posteriormente planificada em um computador. Estas imagens têm habilidade limitada para fornecer os detalhes necessários para que sejam úteis para vigilância por vídeo, pois os sensores são estendidos sobre campos de visão amplos (às vezes um giro completo de 360 graus).
[0003] Um meio relativamente novo de se capturar imagens panorâmicastérmicas envolve girar continuamente um sensor térmico resfriado criogenicamente ou outra câmera de alta velocidade a menos que 60 RPM e processar as imagens da câmera em um computador onde elas são unidas e analisadas. Estes sensores resfriados criogenicamente têm a habilidade de capturar imagens em apenas alguns nanossegundos, o que permite que eles produzam vídeo em tempo quase real. Entretanto, estes sensores resfriados consomem muita energia e são dispendiosos, o que os torna pouco práticos em várias aplicações. Além disso, as câmeras de alta velocidade têm necessidades de iluminação muito amplas, o que as torna muito limitadas para uso em condições diferentes das condições de plena luz do dia.
[0004] Mesmo com os avanços existentes na técnica, ainda existe umanecessidade por sistemas de câmera e métodos de análise aprimorados, particularmente aqueles que exibem complexidade e custo mínimos e que podem operar sob necessidades energéticas relativamente baixas.
[0005] A matéria reivindicada na presente invenção não se limita amodalidades que resolvem quaisquer desvantagens ou que operam apenas em ambientes como aqueles descritos acima. Ao invés disso, esses antecedentes são apenas fornecidos para ilustrar uma área de tecnologia exemplificadora em que algumas modalidades aqui descritas podem ser praticadas.
[0006] Implementações da presente invenção compreendem sistemas,métodos e produtos de programa de computador configurados para classificar e analisar quadros de imagem individuais de dados de imagem panorâmica com o uso de uma pluralidade de dispositivos virtuais. Por exemplo, uma modalidade da presente invenção é direcionada a um sistema local para analisar e classificar quadros de imagem individuais de dados de imagem panorâmica com o uso de uma pluralidade de dispositivos virtuais. Esse sistema pode incluir um mecanismo de indexação no qual uma câmera de imageamento térmico é montada para girar a câmera através de uma pluralidade de posições de parada, uma câmera de imageamento térmico, sendo que a câmera de imageamento térmico é configurada para tomar imagens da câmera de imageamento térmico, sendo que ao menos algumas das imagens da câmera de imageamento térmico correspondem às posições de parada à medida que a câmera de imageamento térmico gira através da pluralidade de posições de parada, e um módulo de multiplexação e análise configurado para descartar quaisquer imagens da câmera de imageamento térmico que não correspondem a qualquer uma das posições de parada, de modo que estas imagens da câmera de imageamento térmico que correspondem a qualquer posição de parada sejam retidas. O módulo de multiplexação e análise pode ser configurado para processar um fluxo de vídeo das imagens retidas da câmera de imageamento térmico separando-se o fluxo de vídeo das imagens retidas da câmera de imageamento térmico em imagens individuais da câmera de imageamento térmico, sendo que as imagens retidas da câmera de imageamento térmico são armazenadas para um dispositivo de câmera virtual correspondente. Cada um dos dispositivos de câmera virtual pode corresponder a uma posição de parada específica e os dispositivos de câmera virtual podem estar no local em relação à câmera de imageamento térmico. O módulo de multiplexação e análise pode ser configurado para não unir as imagens retidas da câmera de imageamento térmico em um panorama no local, de modo que as necessidades energéticas totais para o sistema local que inclui a câmera de imageamento térmico, o mecanismo de indexação para girar a câmera e o módulo de multiplexação e análise para classificar as imagens para os dispositivos de câmera virtual não sejam maiores que cerca de 10 watts. As imagens podem ser armazenadas em um sistema local, ou fora do local (por exemplo, e retransmitida no local, se necessário).
[0007] Outra modalidade da presente invenção compreende obter imagensde uma câmera de imageamento térmico a partir de uma câmera de imageamento térmico que gira através de uma pluralidade de posições de parada. A câmera pode capturar imagens de uma câmera de imageamento térmico a uma velocidade de quadros constante. Ao menos parte das imagens da câmera de imageamento térmico correspondem a posições de parada, enquanto outras imagens capturadas pela câmera de imageamento térmico podem não corresponder a qualquer posição de parada. As imagens da câmera de imageamento térmico que correspondem a qualquer uma das posições de parada são retidas, enquanto as imagens da câmera de imageamento térmico que não correspondem a qualquer posição de parada são descartadas. As imagens retidas da câmera de imageamento térmico são enviadas por um fluxo de vídeo até um processador de vídeo onde elas são separadas em imagens individuais da câmera de imageamento térmico e classificadas para um dispositivo de câmera virtual correspondente que corresponde à posição de parada específica a qual a imagem dada corresponde. O armazenamento das imagens retidas e classificadas pode ser local. Em uma outra modalidade, o armazenamento pode ser fora do local, e as imagens retransmitidas no local, conforme necessário. Os dispositivos de câmera virtual são locais, ao invés de remotos, em relação à câmera de imageamento térmico. As imagens da câmera de imageamento térmico são intencionalmente não unidas no local em uma imagem panorâmica local, de modo que as necessidades energéticas totais do sistema local (por exemplo, que inclui a câmera de imageamento térmico, um mecanismo de indexação para girar a câmera e um módulo de multiplexação e análise para classificar as imagens para os dispositivos de câmera virtual) não sejam maiores que cerca de 10 watts.
[0008] Descartar as imagens que não correspondem a qualquer posição deparada pode permitir que o processador de vídeo descanse periodicamente, pois o mesmo nunca recebe aquelas imagens, tornando, assim, o sistema mais eficiente em termos de consumo de energia. De modo similar, devido ao fato de que análises locais são limitadas a funções relativamente simples (por exemplo, não unir as imagens, mas parar e observar um dado local para ver o que está ocorrendo, etc.), o sistema apresenta características de consumo de energia relativamente limitadas. Por exemplo, o sistema local pode precisar de menos que cerca de 10 watts, pode ser deixado sem vigilância por um período de anos e pode ser alimentado por baterias carregadas por células solares relativamente pequenas.
[0009] Em outro aspecto, a presente invenção refere-se a um método paracorrelacionar dados de localização geográfica incluindo a determinação de valores de profundidade (isto é, a distância da câmera) para posições de pixels de um quadro de imagem individual de uma imagem panorâmica. O método pode compreender as etapas de obter imagens da câmera (por exemplo, imagens da câmera de imageamento térmico) a partir de uma única câmera que gira através de uma pluralidade de posições de parada. A câmera pode capturar imagens a uma velocidade de quadros constante, sendo que ao menos algumas das imagens correspondem a posições de parada à medida que a câmera gira através de uma pluralidade de posições de parada. Uma posição da câmera pode ser correlacionada a dados de localização geográfica, posições de pixel de uma dada imagem da câmera podem ser correlacionadas aos dados de localização geográfica e os valores de profundidade para posições de pixels da dada imagem da câmera podem ser determinados com base, ao menos em parte, na localização geográfica da câmera e a orientação ou posição na qual a dada posição de parada está "apontando".
[0010] Este Sumário é fornecido para introduzir uma seleção de conceitos deuma forma simplificada que são adicionalmente descritos abaixo na Descrição Detalhada. Este Sumário não tem por objetivo identificar características chave ou características essenciais da matéria reivindicada, nem tem por objetivo ser usado como um auxiliar na determinação do escopo da matéria reivindicada.
[0011] Características e vantagens adicionais serão definidas na descriçãoque se segue e, em parte, serão óbvias a partir da descrição, ou podem ser aprendidas pela prática dos ensinamentos da presente invenção. Características e vantagens da invenção podem ser realizadas e obtidas por meio dos instrumentos e combinações particularmente apontados nas reivindicações anexas. Características da presente invenção se tornarão evidentes de forma mais completa a partir da descrição e reivindicações anexas a seguir, ou podem ser aprendidas pela prática da invenção conforme apresentada doravante.
[0012] A fim de se descrever a maneira pela qual as vantagens ecaracterísticas supracitadas e adicionais podem ser obtidas, uma descrição mais específica da matéria brevemente descrita acima será apresentada com referência a modalidades específicas que são ilustradas nos desenhos anexos. Entendendo-se que esses desenhos representam apenas modalidades típicas e, portanto, não devem ser considerados como limitadores do escopo, as modalidades serão descritas e explicadas com especificidade e detalhes adicionais através do uso dos desenhos anexos, nos quais:
[0013] A Figura 1 ilustra esquematicamente um sistema de computadorexemplificador no qual os princípios aqui descritos podem operar.
[0014] A Figura 2 ilustra esquematicamente um ambiente específico noqual os princípios aqui descritos podem operar.
[0015] A Figura 3A ilustra esquematicamente posições da câmera virtual,também denominadas aqui de posições de parada, quando giram no sentido horário, com a câmera apontada para a posição de parada 1.
[0016] A Figura 3B ilustra esquematicamente posições da câmera virtual,como na Figura 3A, com a câmera apontada para posição de parada 5.
[0017] A Figura 4 ilustra esquematicamente uma implementação doprocessador de vídeo descrito na Figura 2.
[0018] A Figura 5A é um fluxograma que ilustra um método exemplificador.
[0019] A Figura 5B é um fluxograma que ilustra outro métodoexemplificador de acordo com a presente invenção.
[0020] Implementações da presente invenção compreendem sistemas,métodos e produtos de programa de computador configurados para classificar e analisar quadros de imagem individuais de dados de imagem panorâmica com o uso de uma pluralidade de dispositivos virtuais. Por exemplo, conforme mostrado na Figura 5A, uma modalidade da presente invenção compreende um método S10 para obter imagens de uma câmera de imageamento térmico a partir de uma câmera de imageamento térmico que gira através de uma pluralidade de posições de parada (S12). A câmera pode capturar imagens de uma câmera de imageamento térmico a uma velocidade de quadros constante. Ao menos parte das imagens da câmera de imageamento térmico correspondem a posições de parada, enquanto outras imagens capturadas pela câmera de imageamento térmico podem não corresponder a qualquer posição de parada. As imagens da câmera de imageamento térmico que correspondem a qualquer uma das posições de parada são retidas (S14), enquanto as imagens da câmera de imageamento térmico que não correspondem a qualquer posição de parada são descartadas (S16).
[0021] As imagens retidas da câmera de imageamento térmico são enviadaspor um fluxo de vídeo até um processador de vídeo (S18). As mesmas podem ser separadas em imagens individuais da câmera de imageamento térmico, classificadas e armazenadas para um dispositivo de câmera virtual correspondente que corresponde à posição de parada específica a qual a dada imagem corresponde (S20). Por exemplo, o sistema local pode incluir uma memória adequada para o armazenamento de imagens. Alternativamente, algumas ou todas as imagens podem ser armazenadas fora do local e retransmitidas no local conforme necessário. Os dispositivos de câmera virtual podem estar no local em relação à câmera de imageamento térmico. As imagens da câmera de imageamento térmico não são unidas no local em uma imagem panorâmica local, de modo que as necessidades energéticas totais do sistema local (por exemplo, que inclui a câmera de imageamento térmico, um mecanismo de indexação para girar a câmera e um módulo de multiplexação e análise para classificar as imagens para os dispositivos de câmera virtual) não sejam maiores que cerca de 10 watts.
[0022] As imagens individuais da câmera de imageamento térmico a partirde cada posição de parada podem ser analisadas como uma fluxo de vídeo para detectar uma alteração de uma dada imagem para uma imagem subsequente (S24).
[0023] Descartar as imagens que não correspondem a qualquer posição deparada pode permitir que o processador de vídeo descanse periodicamente, pois o mesmo nunca recebe aquelas imagens, tornando, assim, o sistema mais eficiente em termos de consumo de energia. De modo similar, devido ao fato de que as análises locais são limitadas a funções relativamente simples (por exemplo, não unir as imagens, etc.), o sistema apresenta características de consumo de energia relativamente limitadas (por exemplo, menores que cerca de 10 watts, pode ser deixado sem vigilância por um período de anos e pode ser alimentado por baterias carregadas por células solares relativamente pequenas).
[0024] Em outro aspecto, a presente invenção refere-se a um método (S30- conforme mostrado na Figura 5B) para correlacionar dados de localização geográfica, incluindo determinar valores de profundidade para posições de pixel de um quadro de imagem individual de uma imagem panorâmica. O método pode compreender as etapas de obter imagens da câmera (por exemplo, imagens da câmera de imageamento térmico) a partir de uma única câmera que gira através de uma pluralidade de posições de parada (S32). A câmera pode capturar imagens a uma velocidade de quadros constante, sendo que ao menos algumas das imagens correspondem a posições de parada à medida que a câmera gira através de uma pluralidade de posições de parada. Uma posição da câmera pode ser correlacionada a dados de localização geográfica (S34), posições de pixel de uma dada imagem da câmera podem ser correlacionadas aos dados de localização geográfica (S36) e os valores de profundidade para posições de pixel da dada imagem da câmera podem ser determinados com base, ao menos em parte, na localização geográfica da câmera e a orientação ou posição na qual a dada posição de parada está "apontando" (S38).
[0025] Opcionalmente, determinações de informações de profundidade(por exemplo, cálculos) podem ser feitas fora do local e retransmitidas de volta para o local do sistema de câmera para armazenamento local (S40). Em outras palavras, a análise e o processamento que correlaciona posições de uma imagem com dados de localização, que determinam o valor de profundidade adequado para cada pixel, podem ser feitos fora do local, e os resultados podem ser retransmitidos ao sistema local para uso pelo sistema de câmera, reduzindo ainda mais as necessidades energéticas do sistema local.
[0026] Em uso, um dado valor de profundidade para uma posição de pixelde uma dada imagem de uma câmera de imageamento térmico pode ser comparado a uma imagem da câmera de imageamento térmico obtida anteriormente ou subsequentemente a partir da mesma posição de parada para determinar quaisquer alterações, por exemplo, o tamanho ou velocidade de movimento de um objeto mostrado nas imagens da câmera de imageamento térmico (S42).
[0027] Embora a matéria seja descrita em uma linguagem específica acaracterísticas estruturais e/ou atos metodológicos, deve-se entender que a matéria definida nas reivindicações anexas não é necessariamente limitada às características descritas ou atos descritos aqui ou a ordem das atos aqui descritos. Ao invés disso, as características e atos descritos são revelados como formas exemplificadoras da implementação das reivindicações.
[0028] Sistemas de computador assumem cada vez mais uma amplavariedade de formas atualmente. Os sistemas de computador podem ser, por exemplo, dispositivos portáteis, aparelhos, computadores do tipo laptop, computadores de mesa, unidades de processamento, sistemas de computação distribuída ou mesmo dispositivos que não são convencionalmente considerados sistemas de computador. Nesta descrição e nas reivindicações, o termo "sistema de computador" é definido amplamente como incluindo qualquer dispositivo ou sistema (ou combinações dos mesmos) que inclui ao menos um processador físico e tangível e uma memória física e tangível capaz de ter em si instruções executáveis por computador que podem ser executadas pelo processador.
[0029] A Figura 1 ilustra um sistema de computador exemplificador 100. Emsua configuração mais básica, um sistema de computador 100 inclui, tipicamente, ao menos uma unidade de processamento 102 e uma memória 104. A memória 104 pode ser uma memória de sistema física, a qual pode ser volátil, não volátil ou alguma combinação das duas. O termo "memória" pode também ser usado aqui para se referir a um armazenamento em massa não volátil, como uma mídia de armazenamento física. Se o sistema de computador for distribuído, o processamento, memória e/ou capacidade de armazenamento também podem ser distribuídos.
[0030] Cada um dos sistemas de computador aqui descritos podem serconectados um ao outro ao longo de (ou podem ser parte de) uma rede, como,por exemplo, uma Rede De Área Local ("LAN"), uma Rede De Área Ampla("WAN") e mesmo a Internet. Consequentemente, cada um dos sistemas decomputador descritos, bem como quaisquer outros sistema de computador conectados e seus componentes, pode criar dados relacionados a mensagens e dados relacionados à troca de mensagens (por exemplo, datagramas de Protocolo de Internet ("IP") e outros protocolos de camada mais elevada que utilizam datagramas de IP, como, Protocolo De Controle De Transmissão ("TCP"), Protocolo de Transferência de Hipertexto ("HTTP"), Protocolo De Transferência De Correio Simples ("SMTP"), etc.) ao longo da rede.
[0031] Como usado aqui, o termo "módulo executável" ou "componenteexecutável" pode se referir a objetos de software, roteamentos ou métodos que podem ser executados no sistema de computador. Os diferentes componentes, módulos, mecanismos e serviços aqui descritos podem ser implementados como objetos ou processos que executam tarefas no sistema de computador (por exemplo, como filamentos separados).
[0032] Na descrição que se segue, modalidades são descritas com referênciaa atos que são realizados por um ou mais sistemas de computador. Se tais atos forem implementados em software, um ou mais processadores do sistema de computador associado que realiza o ato dirige a operação do sistema de computador em resposta à execução de instruções executáveis por computador. Por exemplo, tais instruções executáveis por computador podem ser incorporadas em uma ou mais mídias legíveis por computador que formam um produto de programa de computador. Um exemplo de tal operação envolve a manipulação de dados. As instruções executáveis por computador (e os dados manipulados) podem ser armazenados na memória 104 do sistema de computador 100. O sistema de computador 100 pode conter também canais de comunicação 108 que permitem que o sistema de computador 100 se comunique com outros processadores de mensagem ao longo de, por exemplo, uma rede 110.
[0033] As modalidades aqui descritas podem compreender ou utilizar umsistema de computador com um propósito especial ou um propósito geral, que inclui um hardware de computador, como, por exemplo, um ou mais processadores e uma memória de sistema, conforme discutido em maiores detalhes abaixo. A memória de sistema pode estar incluída na memória geral 104. A memória de sistema pode também referir-se a uma "memória principal" e inclui locais de memória que são endereçáveis por ao menos uma unidade de processamento 102 ao longo de um barramento de memória, sendo que, neste caso, o local de endereço é declarado no próprio barramento de memória. A memória de sistema é tradicionalmente volátil, mas os princípios aqui descritos também se aplicam a circunstâncias em que a memória de sistema é parcialmente, ou mesmo totalmente, não volátil.
[0034] Modalidades dentro do escopo da presente invenção incluemtambém mídias físicas e outras mídias legíveis por computador para transportar ou armazenar instruções executáveis por computador e/ou estruturas de dados. Tais mídias legíveis por computador podem ser quaisquer mídias disponíveis que podem ser acessadas por um sistema de computador de propósito geral ou de propósito especial. Mídias legíveis por computador que armazenam instruções executáveis por computador e/ou estruturas de dados são mídias de armazenamento de computador. Mídias legíveis por computador que transportam instruções executáveis por computador e/ou estruturas de dados são mídias de transmissão. Dessa forma, a título de exemplo, e não de limitação, modalidades da invenção podem compreender ao menos dois tipos distintamente diferentes de mídias legíveis por computador: uma mídia de armazenamento de computador e uma mídia de transmissão.
[0035] Mídias de armazenamento de computador são mídias dearmazenamento físicas que armazenam instruções executáveis por computador e/ou estruturas de dados. Mídias de armazenamento físico incluem dispositivos de armazenamento do tipo que se pode gravar, como RAM, ROM, EEPROM, unidades de estado sólido ("SSDs"), memória flash, memória de mudança de fase ("PCM"), armazenamento em disco óptico, armazenamento em disco magnético ou outros dispositivos de armazenamento magnéticos, ou qualquer outra mídia(s) de armazenamento físico de hardware que pode ser usada para armazenar um código de programa sob a forma de instruções executáveis por computador ou estruturas de dados e que podem ser acessadas e executadas por um sistema de computador de propósito geral ou de propósito especial para implementar a funcionalidade aqui descrita.
[0036] As mídias de transmissão podem incluir uma rede e/ou enlaces dedados que podem ser usados para transportar um código de um programa sob a forma de instruções executáveis por computador ou estruturas de dados, e que podem ser acessadas por uma sistema de computador de propósito geral ou de propósito especial. Uma "rede" é definida como um ou mais enlaces de dados que permitem o transporte de dados eletrônicos entre os sistemas de computador e/ou módulos e/ou outros dispositivos eletrônicos. Quando informações são transferidas ou fornecidas ao longo de uma rede ou outra conexão de comunicações (por fio, sem fio ou uma combinação de com fio ou sem fio) a um sistema de computador, o sistema de computador pode ver a conexão como uma mídia de transmissão. Combinações das características supracitadas também devem ser incluídas dentro do escopo de mídias legíveis por computador.
[0037] Adicionalmente, ao alcançar vários componentes do sistema decomputador, um código de programa sob a forma de instruções executáveis por computador ou estruturas de dados pode ser transferido automaticamente da mídia de transmissão à mídia de armazenamento de computador (ou vice- versa). Por exemplo, as instruções executáveis por computador ou estruturas de dados recebidas ao longo de uma rede ou enlace de dados podem ser armazenadas temporariamente em RAM dentro de um módulo de interface de rede (por exemplo, um "NIC"), e então eventualmente transferidas para a RAM do sistema de computador e/ou a uma mídia de armazenamento de computador menos volátil em um sistema de computador. Dessa forma, deve-se compreender que a mídia de armazenamento de computador pode ser incluída em componentes do sistema de computador que também (ou mesmo primariamente) utilizam mídias de transmissão.
[0038] As instruções executáveis por computador compreendem, porexemplo, instruções e dados que, quando executadas em um ou mais processadores, fazem com que um sistema de computador de propósito geral, um sistema de computador de propósito especial ou um dispositivo de processamento de propósito especial realize uma certa função ou grupo de funções. As instruções executáveis por computador podem ser, por exemplo, instruções binárias de formato intermediário, como uma linguagem de montagem ou mesmo um código fonte.
[0039] Os versados na técnica irão observar que a invenção pode serpraticada em ambientes de computação de rede com diversos tipos de configurações de sistema de computador, incluindo computadores pessoais, computadores de mesa, computadores do tipo laptop, processadores de mensagem, dispositivos portáteis, sistemas de multiprocessador, dispositivos eletrônicos de consumo à base de microprocessadores ou programáveis, computadores de rede, minicomputadores, computadores de grande porte, telefones móveis, PDAs, computadores do tipo tablet, pagers, roteadores, chaves e similares. A invenção também pode ser praticada em ambientes de sistema distribuído em que ambos os sistemas de computador local e remoto, que são ligados (por enlaces de dados com fio, enlaces de dados sem fio ou por uma combinação de enlaces de dados com fio e sem fio) através de uma rede, realizam tarefas. Assim, em um ambiente de sistema distribuído, um sistema de computador pode incluir uma pluralidade de sistemas de computador constituintes. Em um ambiente de sistema distribuído, os módulos de programa podem estar situados em ambos os dispositivos de armazenamento de memória local e remoto.
[0040] Os versados na técnica também irão observar que a invenção podeser praticada em um ambiente de computação na nuvem. Ambientes de computação na nuvem podem ser distribuídos, embora isso não seja necessário. Quando distribuídos, ambientes de computação na nuvem podem ser distribuídos internacionalmente dentro de uma organização e/ou podem ter componentes possuídos por múltiplas organizações. Nesta descrição e nas reivindicações a seguir, "computação na nuvem" é definido como um modelo para permitir acesso a rede mediante solicitação a um conjunto compartilhado de recursos de computação configuráveis (por exemplo, redes, servidores, armazenamento, aplicações e serviços). A definição de "computação na nuvem" não se limita a qualquer uma das numerosas vantagens diferentes que podem ser obtidas a partir de tal modelo quando adequadamente empregado.
[0041] Alternativamente, ou além disso, a funcionalidade aqui descrita podeser realizada, ao menos em parte, por um ou mais componentes lógicos de hardware. Por exemplo, e sem limitação, tipos ilustrativos de componentes lógicos de hardware que podem ser usados incluem Matrizes de Portas Programáveis em Campo (FPGAs), Circuitos Integrados De Aplicação Específica (ASICs), Produtos Padrão De Aplicação Específica (ASSPs), Sistemas de sistema-em-um-chip (SOCs), Dispositivos Lógicos Complexos Programáveis (CPLDs), etc.I. Dispositivos de câmera virtual
[0042] A Figura 2 ilustra um diagrama em blocos para o sistema de câmera200. O sistema de câmera 200 permite que uma câmera 250 (por exemplo, uma câmera de imageamento térmico) gire até uma volta total de 360° em torno de um eixo fixo. A revolução completa compreende um número de posições que correspondem a "paradas" onde se deseja que uma imagem seja capturada. Devido às necessidades relacionadas a calibragem de câmera, particularmente com uma câmera de imageamento térmico, a câmera pode capturar imagens a uma velocidade de quadros constante. O espectro capturado pode ser de cerca de 8.000 nm a cerca de 14.000 nm. Naturalmente, é possível empregar os conceitos apresentados aqui em sistemas configurados para capturar e usar dados de imagem com base em outros espectros (por exemplo, luz visível, comprimentos de onda maiores ou menores). Ao se capturar imagens a uma velocidade de quadros constante, algumas das imagens podem corresponder a posições entre posições de "parada" designadas, enquanto outras irão corresponder a uma posição de "parada". Conforme será descrito em maiores detalhes abaixo, apenas aquelas imagens que correspondem a uma posição de "parada" podem ser retidas. As outras podem ser descartadas.
[0043] As posições em que a câmera 250 captura as imagens que serãoretidas são chamadas aqui de posições de parada, pois a câmera 250 precisa estar estacionária, ou momentaneamente parada, de modo que a câmera 250 possa adquirir uma imagem não embaçada. Uma posição de parada pode ser caracterizada como tendo um deslocamento de ângulo em relação a uma posição inicial designada (isto é, "parada" 1) na qual a câmera 250 captura uma imagem. Em algumas implementações, o sistema pode determinar a posição inicial com o uso de um suporte para câmera com um orifício, juntamente com um codificador óptico transmissivo que pode detectar a posição inicial quando o orifício no suporte para câmera se alinhar com o codificador. Tal codificador óptico transmissivo pode ser um codificador de 1 bit. Em outras implementações, um codificador de resolução mais alta pode ser usado para permitir uma retroinformação mais granular da posição real da câmera em qualquer momento.
[0044] O sistema de câmera 200 pode permitir qualquer número de posiçõesde parada por revolução. Em uma modalidade, o número de posições de parada pode estar entre 1 e 16. As paradas podem estar posicionadas em intervalos espaçados uniformemente. Por exemplo, dez posições de parada, ou paradas, por revolução resultariam em dez paradas que estão separadas por 36°. O sistema de câmera 200 pode utilizar qualquer mecanismo de motor adequado para assegurar que a câmera permanece momentaneamente estacionária em cada posição de parada, a fim de facilitar a captura de uma imagem não embaçada em cada posição de parada desejada. Por exemplo, um motor de passo pode ser empregado para manter a câmera 250 estacionária em cada posição de parada pela quantidade de tempo adequada para adquirir uma imagem antes de mover para a próxima posição de parada. Detalhes de mecanismos de motor de passo exemplificadores são revelados no pedido de patente US n° de série PCT/US/2014/033539 dos inventores, depositado em 9 de abril de 2014, intitulado STEPPER MOTOR CONTROL AND FIRE DETECTION SYSTEM, aqui incorporado a título de referência, em sua totalidade. Outro exemplo de um mecanismo de motor que pode ser empregado na rotação da câmera ao longo de uma pluralidade de posições de parada nas quais a câmera permanece estacionária momentaneamente em cada posição de parada inclui um sistema de câmera mecânico, por exemplo, conforme descrito na patente US n° 8.773.503 dos inventores, concedida em 8 de julho de 2014, e intitulada AUTOMATED PANORAMIC CAMERA AND SENSOR PLATFORM WITH COMPUTER AND OPTIONAL POWER SUPPLY, aqui incorporada a título de referência, em sua totalidade. Mecanismos de motor, conforme descritos nas patentes e pedidos acima, bem como qualquer outro projeto adequado, podem ser empregados.
[0045] Conforme mostrado na Figura 2, o sistema pode utilizar doisprocessadores, um microprocessador 210 e um processador de vídeo 240. O microprocessador 210 pode gerenciar a posição e temporização da câmera 250, enquanto o processador de vídeo 240 pode processar o vídeo a partir da câmera 250. Utilizar dois processadores permite que o desempenho em tempo real da câmera 250 e a sincronização do motor pelo microprocessador 210 sejam dissociados do processador de vídeo 240 de alta velocidade. Alternativamente, algumas implementações podem utilizar um processador para gerenciar a posição e a temporização, bem como o vídeo da câmera 250. Naturalmente, mais que dois processadores poderiam ser alternativamente empregados.
[0046] Em uma implementação, os dados da câmera 250 passam através decontatos rotativos 260, o que permite que a câmera 250 gire conforme descrito acima (rotação contínua com paradas intermitentes bem curtas). Devido ao fato de que os períodos em que a câmera está de fato estacionária serem tão curtos, a câmera pode parecer girar continuamente. Em alguns casos, a velocidade de quadros da câmera pode não ser exatamente igual à velocidade de rotação e velocidade de parada do sistema de câmera 200, criando, assim, quadros de vídeo fracionários. Um interruptor digital 230 pode então ser usado para descartar quaisquer quadros de vídeo desnecessários. Em outras palavras, conforme descrito acima, alguns quadros capturados podem corresponder a uma das posições de parada, enquanto outros quadros capturados podem ser capturados enquanto a câmera está girando. Usar o interruptor digital 230 permite que o processador de vídeo 240 descanse durante aqueles momentos em que quadros de vídeo desnecessários são descartados, criando, assim, uma melhor eficiência energética. Naturalmente, em outras modalidades do sistema, o processador de vídeo (por exemplo, um ARM/DSP) pode ter pouco ou nenhum tempo para descansar.
[0047] Quando uma imagem é tomada em cada posição de parada, cadaposição de parada pode ser representada como uma câmera virtual individual. Uma câmera virtual pode agir como uma câmera estacionária apontada em uma única direção. O sistema de câmera 200 pode sustentar qualquer número de posições de parada e um número correspondente de câmeras virtuais. Em uma modalidade, o sistema 200 pode incluir de 1 a 16 posições de parada e de 1 a 16 câmeras virtuais, sendo que cada câmera virtual é associada a uma posição de parada específica. A Figura 3A ilustra como cada posição de parada pode se correlacionar a um espaço físico com a câmera 250 voltada para a posição de parada 1 (isto é, posição inicial). A Figura 3B mostra a câmera 250 girada de modo a estar voltada para a posição de parada 5. Conforme mostrado nas Figuras 3A e 3B, um sistema de numeração usado para as posições de parada pode aumentar em um sentido horário. As Figuras 3A e 3B ilustram uma configuração exemplificadora que inclui 8 posições de parada, embora seja entendido que mais ou menos posições de parada podem ser fornecidas. A título de exemplo, o número de posições de parada pode ser de 2 a cerca de 30, de 4 a cerca de 20 ou de 6 a cerca de 16.
[0048] O período em que a câmera está momentaneamente parada podeser qualquer período de tempo adequado (por exemplo, pode depender das características de capacidade de captura de imagem da câmera). Em uma modalidade, cada período de parada (isto é, o tempo de permanência) pode ser de cerca de 30 ms a cerca de 120 ms (por exemplo, cerca de 60 ms).
[0049] Cada imagem capturada pela câmera 250 que corresponde a umaposição de parada pode ser multiplexada, ou muxada, em um fluxo de vídeo e enviada ao processador de vídeo 240. Cada imagem a ser retida que foi capturada pela câmera 250 pode ser enviada a partir da câmera ao longo da mesma interface. O microprocessador 210 pode gerenciar e rastrear o deslocamento de ângulo (e sua posição de parada correspondente) da câmera 250 quando uma imagem a ser retida é capturada (isto é, a imagem corresponde a uma posição de parada). Mesmo imagens que serão descartadas (isto é, a imagem não correspondente a uma posição de parada), podem ser enviadas para o interruptor digital 230 ao longo da mesma interface que as imagens retidas. No interruptor digital 230, aquelas imagens que serão descartadas podem ser separadas e descartadas, ao invés de passarem para o processador de vídeo 240.
[0050] Uma implementação exemplificadora que mostra como o processadorde vídeo 240 pode operar é descrita com maiores detalhes na Figura 4. Com referência à Figura 4, o acionador de demultiplexação de vídeo 430 separa o fluxo de vídeo em imagens individuais (isto é, quadros) que correspondem cada uma a uma posição de parada específica, ou câmera virtual. Por exemplo, o fluxo de vídeo mencionado neste estágio pode incluir imagens a serem retidas que foram capturadas em posições de parada diferentes. O acionador de demultiplexação 430 pode usar as informações de posição rastreadas pelo microprocessador 210 para determinar a câmera virtual correspondente de cada imagem do fluxo de vídeo, permitindo a classificação das imagens aos seus dispositivos de câmera virtual adequados. Conforme ilustrado pela Figura 4, cada imagem pode ser enviada a sua câmera virtual correspondente (401 - 408) para armazenamento e análises futuras (por exemplo, comparação de imagens tomadas em tempos adjacentes a partir da mesma posição de parada), uma vez que esta determinação foi feita.
[0051] Se for desejado, imagens de posições de parada diferentes podem serunidas para criar uma imagem panorâmica (por exemplo, de até 360°). Uma vantagem das presentes modalidades é que qualquer uma dessas uniões é opcional e não é tipicamente executada no local (se possível). Se realizada, a união pode ser feita fora do local, permitindo que as necessidades energéticas totais para um sistema local 200 não sejam maiores que cerca de 10 watts, uma vez que a união consome muita energia e o processamento do computador é intenso.
[0052] Em algumas implementações, o fluxo de vídeo associado a um dadodispositivo de câmera virtual pode ser analisado para detectar uma alteração de uma dada imagem para uma imagem subsequente. Em outras palavras, ao invés de unir as imagens para criar uma imagem panorâmica, a análise executada pode envolver a comparação entre uma imagem e uma imagem capturada subsequentemente (ou uma imagem capturada anteriormente) a partir da mesma posição de parada (e, dessa forma, o mesmo dispositivo de câmera virtual) para detectar quaisquer alterações (por exemplo, uma alteração na temperatura de um objeto, movimento de um objeto, etc.). Por exemplo, a análise executada pode incluir detecção de fogo, conforme discutido no pedido de patente anterior US n° de série PCT/US/2014/033539 dos inventores, depositado em 9 de abril de 2014, intitulado STEPPER MOTOR CONTROL AND FIRE DETECTION SYSTEM, e no pedido de patente U.S. n° de série PCT/US/2014/033547, depositado em 9 de abril de 2014, intitulado FIRE DETECTION SYSTEM, cada um dos quais está aqui integralmente incorporado, por referência.
[0053] Capturando-se dados de imagem térmica e submetendo-se osdados de imagem térmica a uma análise, o mascaramento do plano de fundo pode ser simplificado em comparação com dados de espectro visível, simplificando a identificação de objetos.
[0054] Energia pode ser suprida ao sistema local com o uso de bateriasque são carregadas através de células solares, o que pode permitir que o sistema seja colocado em um dado local (por exemplo, remoto, fora da rede elétrica) por longos períodos de tempo, como até dois anos ou mais. A vida útil pode ser mais curta que 2 anos, dependendo das características do sistema.
[0055] Cada câmera virtual pode ter um fluxo de vídeo similar àquele queseria obtido por uma câmera estacionária posicionada na posição de parada correspondente. O sistema de câmeras virtuais pode ser local em relação à câmera de imageamento térmico 250. Em algumas implementações, a velocidade de quadros de um fluxo de vídeo de uma câmera virtual é igual à velocidade de rotação do motor 270, visto que a câmera 250 passa por cada parada uma vez por revolução. A velocidade de quadros do sinal muxado pode ser igual à velocidade de rotação do motor 270 multiplicada pelo número de paradas por revolução. Por exemplo, um sistema trabalhando a 30 RPM com 16 paradas por revolução teria uma velocidade de quadros muxada de 8 quadros por segundo (FPS) e cada dispositivo de câmera virtual teria uma velocidade de quadros de % FPS, ou 1 quadro por 2 segundos (por exemplo, 30 RPM / 60 segundos em um minuto = 0,5 FPS).
[0056] Utilizar câmeras virtuais pode permitir que análises e qualquerunião sejam dissociadas da aquisição de imagens. Devido ao fato de que cada câmera virtual pode ter seu próprio fluxo de vídeo, as imagens associadas a cada câmera virtual podem ser processadas independentemente. O sistema 200 pode capturar imagens normalmente em uma ordem numérica (por exemplo, em sentido horário ou anti-horário), mas devido ao fato de que o deslocamento de ângulo a partir da posição inicial (isto é, a posição de parada 1) é conhecido com base no número de parada da câmera virtual, análises ou qualquer união podem ser atualizadas em qualquer ordem desejada.II. Dados de localização geográfica
[0057] Em algumas implementações, o posicionamento da câmera 250 naqual uma imagem é capturada pode estar correlacionado a dados de localização geográfica reais (por exemplo, dados de GPS). Uma vez que se conhece onde a câmera real 250 está situada, com base nos dados de localização geográfica, a câmera pode ser posicionada em um mapa topográfico 3D. De modo similar, os valores de profundidade para pixels individuais de um dado quadro de um dado dispositivo de câmera virtual (isto é, posição de parada) podem ser determinados. Correções podem ser feitas em inclinação e altura.
[0058] Detalhes adicionais de sistemas de detecção de fogoexemplificadores, incluindo a habilidade de correlacionar dados de localização geográfica e determinar valores de profundidade, são encontrados no pedido de patente U.S. n° de série PCT/US/2014/033547, depositado em 9 de abril de 2014, intitulado FIRE DETECTION SYSTEM, aqui já incorporado na íntegra, a título de referência.
[0059] Correlacionar dados de localização geográfica com oposicionamento da câmera 250 pode incluir, mas sem limitação, correlacionar posições de pixels de uma imagem capturada e determinar os valores deprofundidade para as posições de pixel de imagens de uma câmera deimageamento térmico com base na localização geográfica da câmera deimageamento térmico 250. Dada a elevação e orientação da câmera deimageamento térmico 250, o valor de distância ou profundidade para cada pixel de uma imagem pode ser calculado com o uso dos dados de elevação, por exemplo, do Conjunto de Dados de Elevação Nacional (NED).
[0060] O cálculo do valor de profundidade a ser associado a um dado pixelpode ser feito em uma série de etapas para determinar (por exemplo, calcular) como cada pixel representa um raio projetado da câmera através do panorama que cruza o solo. Em geral, isto pode ser alcançado com o uso de uma vista de câmera projetada em um modelo de terreno em grade de linhas criado com o uso de dados de elevação (por exemplo, do Conjunto de Dados de Elevação Nacional) para estimar onde cada pixel renderizado da vista de câmera cruzaria o gráfico em grade de linhas para calcular o valor de profundidade "z" provável do fundo de cada elemento ou pixel da imagem. Tal processo pode empregar um processo contínuo executado através do aumento das distâncias z até que a altura projetada cruze a altura de elevação a uma distância.
[0061] Isto pode ser feito determinando-se (por exemplo, calculando-se) seum raio que tem um comprimento igual à altura da câmera cruza o solo na distância projetada. Esta determinação pode ser repetida aumentando-se repetidamente o comprimento do raio por uma dada quantidade (por exemplo, 1 decímetro) até que o solo seja alcançado (por exemplo, cruzado) ou o raio exceda um dado comprimento (por exemplo, 30 quilômetros). Tal comprimento excessivo pode ser usado para ajudar a fornecer o horizonte. Dados de latitude, longitude, elevação e distância do ponto de intersecção podem ser armazenados, e a determinação (por exemplo, cálculo) pode ser repetida para o próximo pixel de uma coluna. Avançando para cima a partir do fundo, dentro da imagem, uma vez que uma coluna de pixels alcança o horizonte, a determinação pode se mover para uma nova coluna. Tais determinações ou cálculos podem se basear em um Campo de Visão Vertical, Campo de Visão Horizontal, elevação e orientação variáveis. O conjunto de dados final pode ser usado para renderizar uma imagem que representa distância (por exemplo, em escala de cinza) com linhas posicionadas a uma dada distância (por exemplo, a cada 100 metros). A imagem determinada ou calculada pode ser comparada a uma imagem real para um ajuste final das variáveis de entrada. Uma vez completo, o resultado final forneceria um mapa de valor de profundidade "z" que pode ser salvo para disponibilidade de análise imediata futura.
[0062] Ilustrando as etapas descritas acima, uma imagem de 640x512 podeprecisar de aproximadamente 250.000 repetições das determinações descritas.
[0063] Uma vez que os valores de profundidade para as posições de pixelsão determinados, isto pode permitir a determinação do tamanho ou velocidade de movimento de um objeto capturado dentro da imagem. Por exemplo, isto pode proporcionar informações sobre o tamanho ou velocidade de movimento de um incêndio florestal. O processamento que correlaciona posições de pixel de uma imagem a dados de localização e determina um valor de profundidade associado a cada pixel pode ser feito fora do local em um terminal de interface de usuário remoto. Os valores de profundidade reais associados a determinados pixels das imagens podem ser retransmitidos ao sistema de câmera para armazenamento e uso local.
[0064] A retransmissão de quaisquer dados locais para fora do local ouvice-versa pode se dar por qualquer mecanismo adequado, por exemplo, incluindo, mas sem limitação, enlaces ou redes de satélite, enlaces ou redes celulares, enlaces ou redes WiFi, transmissão por rádio, enlace ou redes com fio, etc.
[0065] A presente invenção pode englobar outras formas específicas semque se afaste do espírito ou das características. As modalidades descritas devem ser consideradas em todos os respeitos apenas como ilustrativas e não restritivas. O escopo da invenção é, portanto, indicado pelas reivindicações anexas em vez de pela descrição anteriormente mencionada. Todas as alterações que estão dentro do significado e das faixas de equivalência das reivindicações devem ser abrangidas em seu escopo.
Claims (20)
1. Sistema local (200) para analisar e classificar quadros de imagem individuais de dados de imagem panorâmica com o uso de uma pluralidade de dispositivos virtuais compreendendo:um mecanismo de indexação no qual uma câmera de imageamento térmico (250) é montada para girar a câmera de imageamento térmico (250) ao longo de uma pluralidade de posições de parada;em que a câmera de imageamento térmico (250) é configurada para tomar imagens de câmera de imageamento térmico, sendo que ao menos algumas das imagens da câmera de imageamento térmico correspondem a posições de parada à medida que a câmera de imageamento térmico (250) gira ao longo de uma pluralidade de posições de parada;caracterizado pelo fato de que ainda compreende um módulo de multiplexação e análise que compreende um primeiro processador (210), um segundo processador (240), e um interruptor digital (230), em que o primeiro processador (210) é configurado para gerenciar o posicionamento e o período de tempo da câmera de imageamento térmico, e em que o segundo processador (240) é um processador de vídeo configurado para processar um fluxo de vídeo das imagens retidas da câmera de imageamento térmico através da separação do fluxo de vídeo das imagens retidas da câmera de imageamento térmico em imagens individuais da câmera de imageamento térmico que correspondem a posições de parada específicas, e armazenar as imagens retidas da câmera de imageamento térmico para uma pluralidade de dispositivos de câmera virtual correspondentes (401-408);o interruptor digital (230) do módulo de multiplexação e análise sendo configurado para descartar quaisquer imagens da câmera de imageamento térmico que não correspondam a qualquer uma das posições de parada, sendo que o segundo processador (240) descansa enquanto o interruptor digital (230) descarta imagens que não correspondem a qualquer posição de parada designada; a pluralidade de dispositivos de câmera virtual (401-408) estando no local em relação à câmera de imageamento térmico (250), cada dispositivo de câmera virtual da pluralidade de dispositivos de câmera virtual (401-408) correspondendo a uma posição de parada específica e cada um dos dispositivos de câmera virtual possuindo um fluxo de vídeo separado correspondente, cada fluxo de vídeo separado correspondente compreendendo uma pluralidade de imagens que correspondem a uma posição de parada específica.
2. Sistema local, de acordo com a reivindicação 1, caracterizado pelo fato de que a câmera de imageamento térmico (250) toma as imagens da câmera de imageamento térmico a uma velocidade de quadros constante.
3. Sistema local, de acordo com a reivindicação 1, caracterizado pelo fato de que a energia é fornecida ao sistema local por baterias que são carregadas através de células solares.
4. Sistema local, de acordo com a reivindicação 1, caracterizado pelo fato de que o primeiro processador (210) rastreia um deslocamento de ângulo em relação a uma posição inicial na qual uma imagem da câmera de imageamento térmico é capturada.
5. Sistema local, de acordo com a reivindicação 4, caracterizado pelo fato de que o módulo de multiplexação e análise local compreende um acionador de demultiplexação (430) que classifica as imagens retidas para serem armazenadas para o dispositivo de câmera virtual correspondente.
6. Sistema local, de acordo com a reivindicação 5, caracterizado pelo fato de que o acionador de demultiplexação (430) utiliza as informações de posição fornecidas pelo primeiro processador (210) para determinar a qual posição de parada uma dada imagem corresponde.
7. Sistema local, de acordo com a reivindicação 1, caracterizado pelo fato de que um interruptor digital (230) é configurado para e reter as imagens da câmera de imageamento térmico que correspondem a qualquer posição de parada.
8. Sistema local, de acordo com a reivindicação 7, caracterizado pelo fato de que o segundo processador (240), que é o processador de vídeo, é configurado para tanto (i) processar o fluxo de vídeo das imagens retidas da câmera de imageamento térmico através da separação do fluxo de vídeo das imagens retidas da câmera de imageamento térmico em imagens individuais da câmera de imageamento térmico que são armazenadas para um dispositivo de câmera virtual correspondente, quanto para (ii) descansar durante o descarte das imagens que não correspondem a qualquer posição de parada designada pela interruptor digital (230).
9. Sistema local, de acordo com a reivindicação 8, caracterizado pelo fato de que as imagens retidas da câmera de imageamento térmico são enviadas da câmera de imageamento térmico (250) até o interruptor digital (230) do módulo de multiplexação e análise através de contatos deslizantes (260), de modo que a câmera de imageamento térmico (250) possa girar continuamente.
10. Sistema local, de acordo com a reivindicação 1, caracterizado pelo fato de que o módulo de multiplexação e análise é configurado para não unir as imagens retidas de câmera de imageamento térmico em um panorama no local.
11. Método (S10) para analisar e classificar quadros de imagem individuais de dados de imagem panorâmica com o uso de uma pluralidade de dispositivos virtuais compreendendendo:obter imagens de câmera de imageamento térmico a partir de uma câmera de imageamento térmico (250) que gira ao longo de uma pluralidade de posições de parada, sendo que a câmera de imageamento térmico (250) toma imagens de câmera de imageamento térmico e ao menos algumas das imagens de câmera de imageamento térmico correspondem a posições de parada à medida que a câmera de imageamento térmico (250) gira ao longo da pluralidade de posições de parada;reter as imagens da câmera de imageamento térmico que correspondem a qualquer posição de parada;caracterizado pelo fato de fazer com que um interruptor digital (230) descarte quaisquer imagens da câmera de imageamento térmico que não correspondem a qualquer posição de parada designada;fazer com que um processador de vídeo (240) descanse enquanto o interruptor digital (230) descarta das imagens que não correspondem a qualquer posição de parada designada;separar o fluxo de vídeo em imagens individuais da câmera de imageamento térmico e armazenar as imagens da câmera de imageamento térmico para uma pluralidade de dispositivos de câmera virtual correspondentes (401-408), a pluralidade de dispositivos de câmera virtual (401-408) estando no local em relação à câmera de imageamento térmico (250), cada dispositivo de câmera de imageamento térmico correspondendo a uma posição de parada específica e cada dispositivo de câmera virtual possuindo um fluxo de vídeo separado correspondente, cada fluxo de vídeo separado correspondente compreendendo uma pluralidade de imagens que correspondem a uma posição de parada específica; eenviar as imagens retidas da câmera de imageamento térmico em um fluxo de vídeo para o processador de vídeo (240).
12. Método, de acordo com a reivindicação 11, caracterizado pelo fato de que a câmera de imageamento térmico (250) está fisicamente estacionária ao capturar imagens correspondentes a cada uma das posições de parada.
13. Método, de acordo com a reivindicação 11, caracterizado pelo fato de que a câmera de imageamento térmico (250) não está fisicamente estacionária ao capturar imagens que não correspondem a qualquer posição de parada designada.
14. Método, de acordo com a reivindicação 11, caracterizado pelo fato de que o módulo de multiplexação e análise associado com a câmera de imageamento térmico (250) é configurado para não unir as imagens retidas da câmera de imageamento térmico juntas em um panorama no local.
15. Método, de acordo com a reivindicação 11, caracterizado pelo fato de que imagens individuais da câmera de imageamento térmico a partir de cada posição de parada são analisadas como um fluxo de vídeo para detectar uma alteração de uma dada imagem para uma imagem subsequente.
16. Método, de acordo com a reivindicação 11, caracterizado pelo fato de que as imagens individuais da câmera de imageamento térmico a partir de cada posição de parada são unidas juntas para criar uma imagem panorâmica de até 360°, sendo que a união é realizada fora do local, em uma interface de usuário.
17. Método, de acordo com a reivindicação 11, caracterizado pelo fato de que adicionalmente compreende:correlacionar uma posição da câmera de imageamento térmico (250) com dados de localização geográfica;correlacionar posições de pixel de uma dada imagem de uma câmera de imageamento térmico com dados de localização geográfica; edeterminar valores de profundidade para posições de pixel de uma dada imagem de uma câmera de imageamento térmico com base, ao menos em parte, na localização geográfica da câmera de imageamento térmico (250).
18. Método, de acordo com a reivindicação 17, caracterizado pelo fato de que um dado valor de profundidade para uma posição de pixel de uma dada imagem de uma câmera de imageamento térmico é comparado ao valor de profundidade para uma posição de pixel de uma imagem de uma câmera de imageamento térmico obtida anteriormente ou subsequentemente a partir da mesma posição de parada para determinar o tamanho ou velocidade de movimento de um objeto mostrado nas imagens da câmera de imageamento térmico.
19. Método, de acordo com a reivindicação 18, caracterizado pelo fato de que o processamento que correlaciona as posições de pixel de uma imagem com os dados de localização e determina um valor de profundidade associado a cada pixel é realizado fora do local com relação à câmera de imageamento térmico (250) em um terminal de interface de usuário remoto.
20. Método, de acordo com a reivindicação 19, caracterizado pelo fato de que informações de profundidade são retransmitidas ao local da câmera de imageamento térmico (250) para armazenamento.
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201361864196P | 2013-08-09 | 2013-08-09 | |
US61/864,196 | 2013-08-09 | ||
PCT/US2014/049986 WO2015021186A1 (en) | 2013-08-09 | 2014-08-06 | Methods for analyzing thermal image data using a plurality of virtual devices and methods for correlating depth values to image pixels |
Publications (3)
Publication Number | Publication Date |
---|---|
BR112016002720A2 BR112016002720A2 (pt) | 2017-08-01 |
BR112016002720A8 BR112016002720A8 (pt) | 2020-02-04 |
BR112016002720B1 true BR112016002720B1 (pt) | 2021-11-23 |
Family
ID=52461914
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
BR112016002720-5A BR112016002720B1 (pt) | 2013-08-09 | 2014-08-06 | Sistema local e método para analisar e classificar quadros de imagem individuais de dados de imagem panorâmica |
Country Status (8)
Country | Link |
---|---|
US (5) | US9348196B1 (pt) |
EP (1) | EP3030935B1 (pt) |
JP (1) | JP6581086B2 (pt) |
KR (1) | KR102248161B1 (pt) |
CN (2) | CN108495051B (pt) |
BR (1) | BR112016002720B1 (pt) |
MX (1) | MX360725B (pt) |
WO (1) | WO2015021186A1 (pt) |
Families Citing this family (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
NL2008639C2 (en) * | 2012-04-13 | 2013-10-16 | Cyclomedia Technology B V | Device, system and vehicle for recording panoramic images, and a device and method for panoramic projection thereof. |
WO2014169061A1 (en) | 2013-04-09 | 2014-10-16 | Thermal Imaging Radar, Llc. | Stepper motor control and fire detection system |
WO2014169066A1 (en) | 2013-04-09 | 2014-10-16 | Thermal Imaging Radar, LLC | Fire detection system |
KR102248161B1 (ko) | 2013-08-09 | 2021-05-04 | 써멀 이미징 레이다 엘엘씨 | 복수의 가상 장치를 이용하여 열 이미지 데이터를 분석하기 위한 방법들 및 깊이 값들을 이미지 픽셀들에 상관시키기 위한 방법들 |
WO2016160794A1 (en) | 2015-03-31 | 2016-10-06 | Thermal Imaging Radar, LLC | Setting different background model sensitivities by user defined regions and background filters |
USD776181S1 (en) | 2015-04-06 | 2017-01-10 | Thermal Imaging Radar, LLC | Camera |
JP6582805B2 (ja) * | 2015-09-25 | 2019-10-02 | 富士通株式会社 | 符号化装置、符号化システム、符号化方法、及びプログラム |
JP2019514078A (ja) * | 2016-03-10 | 2019-05-30 | ヴィズビット インコーポレイテッド | 時間多重化プログラム可能な視野撮像 |
US9888179B1 (en) * | 2016-09-19 | 2018-02-06 | Google Llc | Video stabilization for mobile devices |
CN106652300B (zh) * | 2016-12-23 | 2019-03-15 | 中科星图股份有限公司 | 一种应用于林区的火点监测方法 |
CN107424182B (zh) * | 2017-05-03 | 2024-04-12 | 北京海顿中科技术有限公司 | 一种热成像现场监控装置及方法 |
US10574886B2 (en) | 2017-11-02 | 2020-02-25 | Thermal Imaging Radar, LLC | Generating panoramic video for video management systems |
EP3553697B1 (en) | 2018-04-13 | 2023-06-07 | Thermal Imaging Radar, LLC | Generating panoramic video for video management systems |
CN108520615B (zh) * | 2018-04-20 | 2020-08-25 | 吉林省林业科学研究院 | 一种基于图像的火灾识别系统和方法 |
US11280500B2 (en) | 2018-08-03 | 2022-03-22 | Pixart Imaging Inc. | Auto detection system based on thermal signals |
US10871394B2 (en) * | 2018-08-03 | 2020-12-22 | Pixart Imaging Inc. | Optical sensor assembly |
US11601605B2 (en) | 2019-11-22 | 2023-03-07 | Thermal Imaging Radar, LLC | Thermal imaging camera device |
CN111726522B (zh) * | 2020-06-12 | 2021-06-11 | 上海摩勤智能技术有限公司 | 一种人脸识别设备控制方法及装置 |
KR102448584B1 (ko) * | 2022-02-24 | 2022-09-29 | 케비스전자 주식회사 | 회전 멀티어레이 써모폴리센서를 이용한 파노라마 열화상 온도 모니터링 시스템 |
Family Cites Families (205)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US3336810A (en) | 1964-04-28 | 1967-08-22 | Sperry Rand Corp | Antifriction support means for gyroscopes |
US3648384A (en) | 1970-04-07 | 1972-03-14 | Borg Warner | Turntable drive release mechanism |
US3769501A (en) | 1973-01-02 | 1973-10-30 | Gte Sylvania Inc | Selective actuating mechanism for percussive photoflash lamp array |
US4977323A (en) * | 1973-08-16 | 1990-12-11 | The United States Of America As Represented By The Secretary Of The Navy | 360 degree infrared surveillance with panoramic display |
US3883788A (en) | 1973-10-26 | 1975-05-13 | Sperry Sun Well Surveying Co | Gyroscope orientation controller |
US4263513A (en) | 1979-02-28 | 1981-04-21 | Compagnie Generale De Radiologie | Apparatus for panoramic radiography |
US4465959A (en) | 1981-07-21 | 1984-08-14 | Epson Corporation | Step motor drive control |
US4602857A (en) | 1982-12-23 | 1986-07-29 | James H. Carmel | Panoramic motion picture camera and method |
DE3706735A1 (de) | 1986-03-03 | 1987-09-10 | Canon Kk | Vorrichtung zum einstellen des optischen systems einer kamera |
US4710691A (en) | 1986-03-27 | 1987-12-01 | Anacomp, Inc. | Process and apparatus for characterizing and controlling a synchronous motor in microstepper mode |
JPH02188196A (ja) | 1989-01-13 | 1990-07-24 | Copal Co Ltd | ステッピングモータの駆動制御方法 |
US4922275A (en) | 1989-09-25 | 1990-05-01 | Burle Technologies, Inc. | Automatic panoramic camera mount |
US6088534A (en) | 1990-09-19 | 2000-07-11 | Minolta Co., Ltd. | Camera having an aperture controllable shutter |
US5990941A (en) | 1991-05-13 | 1999-11-23 | Interactive Pictures Corporation | Method and apparatus for the interactive display of any portion of a spherical image |
US5652643A (en) * | 1992-03-17 | 1997-07-29 | Sony Corporation | Photographic and video image system |
US5650813A (en) * | 1992-11-20 | 1997-07-22 | Picker International, Inc. | Panoramic time delay and integration video camera system |
BR9301438A (pt) * | 1993-04-05 | 1994-11-15 | Petroleo Brasileiro Sa | Processo de preparação de catalisador esférico tipo ziegler para polimerização de alfa-olefinas, catalisador esférico, processo de obtenção de polietileno esférico de altíssimo peso molecular e polietileno esférico de altíssimo pelo molecular |
US5453618A (en) * | 1994-01-31 | 1995-09-26 | Litton Systems, Inc. | Miniature infrared line-scanning imager |
US5598207A (en) | 1994-04-12 | 1997-01-28 | Hughes Electronics | Camera pointing mechanism using proximate magnetic sensing |
US7724278B2 (en) | 1995-05-30 | 2010-05-25 | Maguire Francis J Jr | Apparatus with moveable headrest for viewing images from a changing direction-of-view |
US20070061735A1 (en) | 1995-06-06 | 2007-03-15 | Hoffberg Steven M | Ergonomic man-machine interface incorporating adaptive pattern recognition based control system |
US5752113A (en) | 1995-12-22 | 1998-05-12 | Borden; John | Panoramic indexing camera mount |
USD381997S (en) | 1996-01-30 | 1997-08-05 | Sony Corporation | Video camera |
US5790183A (en) | 1996-04-05 | 1998-08-04 | Kerbyson; Gerald M. | High-resolution panoramic television surveillance system with synoptic wide-angle field of view |
US6133943A (en) * | 1996-09-30 | 2000-10-17 | Intel Corporation | Method and apparatus for producing a composite image |
JP4332231B2 (ja) * | 1997-04-21 | 2009-09-16 | ソニー株式会社 | 撮像装置コントローラおよび撮像システム |
US6545701B2 (en) | 1997-08-13 | 2003-04-08 | Georgia Tech Research Corporation | Panoramic digital camera system and method |
US6229546B1 (en) | 1997-09-09 | 2001-05-08 | Geosoftware, Inc. | Rapid terrain model generation with 3-D object features and user customization interface |
US6034716A (en) * | 1997-12-18 | 2000-03-07 | Whiting; Joshua B. | Panoramic digital camera system |
US6304284B1 (en) * | 1998-03-31 | 2001-10-16 | Intel Corporation | Method of and apparatus for creating panoramic or surround images using a motion sensor equipped camera |
US6304285B1 (en) | 1998-06-16 | 2001-10-16 | Zheng Jason Geng | Method and apparatus for omnidirectional imaging |
US6628338B1 (en) | 1998-07-08 | 2003-09-30 | Elbex Video Ltd. | Direct drive electric motor apparatus incorporating slip ring assembly |
US20030025599A1 (en) | 2001-05-11 | 2003-02-06 | Monroe David A. | Method and apparatus for collecting, sending, archiving and retrieving motion video and still images and notification of detected events |
US6195204B1 (en) | 1998-08-28 | 2001-02-27 | Lucent Technologies Inc. | Compact high resolution panoramic viewing system |
US7023913B1 (en) | 2000-06-14 | 2006-04-04 | Monroe David A | Digital security multimedia sensor |
WO2000017318A1 (en) | 1998-09-18 | 2000-03-30 | Kerouac Paul E | In vessel composting process and apparatus |
US6023588A (en) * | 1998-09-28 | 2000-02-08 | Eastman Kodak Company | Method and apparatus for capturing panoramic images with range data |
US6215115B1 (en) | 1998-11-12 | 2001-04-10 | Raytheon Company | Accurate target detection system for compensating detector background levels and changes in signal environments |
US20150297949A1 (en) | 2007-06-12 | 2015-10-22 | Intheplay, Inc. | Automatic sports broadcasting system |
JP2000156806A (ja) * | 1998-11-20 | 2000-06-06 | Sony Corp | ビデオカメラ装置 |
JP3620327B2 (ja) | 1999-02-17 | 2005-02-16 | 富士通株式会社 | 電子装置 |
JP2000243062A (ja) | 1999-02-17 | 2000-09-08 | Sony Corp | 映像記録装置および映像記録方法、ならびに集中監視記録システム。 |
US6539162B1 (en) * | 1999-03-30 | 2003-03-25 | Eastman Kodak Company | Photographing a panoramic image produced from a captured digital image |
US6738073B2 (en) | 1999-05-12 | 2004-05-18 | Imove, Inc. | Camera system with both a wide angle view and a high resolution view |
US6327327B1 (en) * | 1999-09-27 | 2001-12-04 | Picker International, Inc. | Multi-channel segmented slip ring |
JP4439045B2 (ja) | 1999-10-07 | 2010-03-24 | 日本電産コパル株式会社 | ステップモータ駆動装置 |
US6678001B1 (en) * | 1999-11-01 | 2004-01-13 | Elbex Video Ltd. | Ball shaped camera housing with simplified positioning |
JP2001154295A (ja) * | 1999-11-30 | 2001-06-08 | Matsushita Electric Ind Co Ltd | 全方位視覚カメラ |
US20010026684A1 (en) | 2000-02-03 | 2001-10-04 | Alst Technical Excellence Center | Aid for panoramic image creation |
US7129971B2 (en) | 2000-02-16 | 2006-10-31 | Immersive Media Company | Rotating scan self-cleaning camera |
WO2001089221A1 (en) | 2000-05-18 | 2001-11-22 | Imove Inc. | Multiple camera video system which displays selected images |
US6731799B1 (en) | 2000-06-01 | 2004-05-04 | University Of Washington | Object segmentation with background extraction and moving boundary techniques |
US6788333B1 (en) | 2000-07-07 | 2004-09-07 | Microsoft Corporation | Panoramic video |
USD435577S (en) | 2000-07-27 | 2000-12-26 | Mcbride Richard L | Video camera housing |
US6677982B1 (en) * | 2000-10-11 | 2004-01-13 | Eastman Kodak Company | Method for three dimensional spatial panorama formation |
US20110058036A1 (en) * | 2000-11-17 | 2011-03-10 | E-Watch, Inc. | Bandwidth management and control |
US7126630B1 (en) | 2001-02-09 | 2006-10-24 | Kujin Lee | Method and apparatus for omni-directional image and 3-dimensional data acquisition with data annotation and dynamic range extension method |
JP2002314846A (ja) | 2001-04-09 | 2002-10-25 | Toshiba Corp | 撮像装置および駆動装置 |
US6586898B2 (en) | 2001-05-01 | 2003-07-01 | Magnon Engineering, Inc. | Systems and methods of electric motor control |
US6782363B2 (en) | 2001-05-04 | 2004-08-24 | Lucent Technologies Inc. | Method and apparatus for performing real-time endpoint detection in automatic speech recognition |
KR200252100Y1 (ko) | 2001-08-07 | 2001-11-23 | 정운기 | 폐쇄회로 텔레비전용 불렛 카메라 |
US7940299B2 (en) | 2001-08-09 | 2011-05-10 | Technest Holdings, Inc. | Method and apparatus for an omni-directional video surveillance system |
US6948402B1 (en) | 2001-09-12 | 2005-09-27 | Centricity Corporation | Rotary work table with cycloidal drive gear system |
JP2003123157A (ja) * | 2001-10-15 | 2003-04-25 | Masahiro Aoki | 環境災害防止機能を備えた建造物及び環境警備システム |
JP4010444B2 (ja) | 2002-02-28 | 2007-11-21 | シャープ株式会社 | 全方位監視制御システム、全方位監視制御方法および全方位監視制御プログラム |
US6788198B2 (en) | 2002-03-12 | 2004-09-07 | Bob F. Harshaw | System for verifying detection of a fire event condition |
US7259496B2 (en) | 2002-04-08 | 2007-08-21 | University Of North Carolina At Charlotte | Tunable vibratory actuator |
JP3925299B2 (ja) | 2002-05-15 | 2007-06-06 | ソニー株式会社 | モニタリングシステムおよび方法 |
CA2492360A1 (en) | 2002-07-16 | 2004-01-22 | Umberto Berti | System and method for territory thermal monitoring |
US7419375B2 (en) | 2002-08-19 | 2008-09-02 | Ormco Corporation | Aesthetic self-ligating orthodontic bracket |
JP4048907B2 (ja) | 2002-10-15 | 2008-02-20 | セイコーエプソン株式会社 | 複数の画像データのパノラマ合成 |
US20040075741A1 (en) * | 2002-10-17 | 2004-04-22 | Berkey Thomas F. | Multiple camera image multiplexer |
USD482712S1 (en) | 2003-01-07 | 2003-11-25 | Joe Hsu | Digital camera |
US7157879B2 (en) | 2003-01-30 | 2007-01-02 | Rensselaer Polytechnic Institute | On-hardware optimization of stepper-motor system performance |
US20040179098A1 (en) | 2003-02-25 | 2004-09-16 | Haehn Craig S. | Image reversing for infrared camera |
USD486847S1 (en) | 2003-04-09 | 2004-02-17 | Sony Corporation | Video camera |
US6809887B1 (en) * | 2003-06-13 | 2004-10-26 | Vision Technologies, Inc | Apparatus and method for acquiring uniform-resolution panoramic images |
US8824730B2 (en) | 2004-01-09 | 2014-09-02 | Hewlett-Packard Development Company, L.P. | System and method for control of video bandwidth based on pose of a person |
US7436438B2 (en) | 2004-03-16 | 2008-10-14 | Creative Technology Ltd. | Digital still camera and method of forming a panoramic image |
US7487029B2 (en) | 2004-05-21 | 2009-02-03 | Pratt & Whitney Canada | Method of monitoring gas turbine engine operation |
US6991384B1 (en) | 2004-05-27 | 2006-01-31 | Davis Robert C | Camera tripod rotating head |
JP2006013923A (ja) | 2004-06-25 | 2006-01-12 | Sony Corp | 監視装置 |
JP2006013832A (ja) | 2004-06-25 | 2006-01-12 | Nippon Hoso Kyokai <Nhk> | 映像撮影装置および映像撮影プログラム |
JP2006033257A (ja) * | 2004-07-14 | 2006-02-02 | Fujitsu Ltd | 画像配信装置 |
US7990422B2 (en) | 2004-07-19 | 2011-08-02 | Grandeye, Ltd. | Automatically expanding the zoom capability of a wide-angle video camera |
US7381952B2 (en) | 2004-09-09 | 2008-06-03 | Flir Systems, Inc. | Multiple camera systems and methods |
USD520548S1 (en) | 2004-10-26 | 2006-05-09 | Inventec Multimedia & Telecom Corporation | Image recorder |
US20060179463A1 (en) | 2005-02-07 | 2006-08-10 | Chisholm Alpin C | Remote surveillance |
TWI427440B (zh) | 2005-04-06 | 2014-02-21 | Kodak Graphic Comm Canada Co | 用於校正影像化規則圖案的條帶之方法與裝置 |
JP2006333133A (ja) * | 2005-05-26 | 2006-12-07 | Sony Corp | 撮像装置、撮像方法、プログラム、プログラム記録媒体並びに撮像システム |
US7424218B2 (en) | 2005-07-28 | 2008-09-09 | Microsoft Corporation | Real-time preview for panoramic images |
CN1971336A (zh) * | 2005-11-22 | 2007-05-30 | 三星电子株式会社 | 光偏转器 |
JP4740723B2 (ja) | 2005-11-28 | 2011-08-03 | 富士通株式会社 | 画像解析プログラム、該プログラムを記録した記録媒体、画像解析装置、および画像解析方法 |
US7460773B2 (en) | 2005-12-05 | 2008-12-02 | Hewlett-Packard Development Company, L.P. | Avoiding image artifacts caused by camera vibration |
USD543288S1 (en) | 2006-02-08 | 2007-05-22 | Koninklijke Philips Electronics N.V. | Energy saving filament lamp |
JP2007271869A (ja) * | 2006-03-31 | 2007-10-18 | Digital Service International Co Ltd | 画像処理による地図作成方法、その装置及びそのコンピュータプログラム |
EP1876828B1 (en) | 2006-07-03 | 2016-10-26 | Axis AB | Method and apparatus for configuring parameter values for cameras |
US9369679B2 (en) | 2006-11-07 | 2016-06-14 | The Board Of Trustees Of The Leland Stanford Junior University | System and process for projecting location-referenced panoramic images into a 3-D environment model and rendering panoramic images from arbitrary viewpoints within the 3-D environment model |
US20080159732A1 (en) | 2006-12-29 | 2008-07-03 | Stuart Young | Positioning device |
EP2132543B1 (de) | 2007-03-13 | 2018-12-26 | Thomas Merklein | Verfahren zur kameragestützen erfassung der strahlungsintensität eines gasförmigen chemischen reaktionsproduktes sowie anwendungen des verfahrens und korrespondierende vorrichtung |
WO2008115416A1 (en) | 2007-03-16 | 2008-09-25 | Kollmorgen Corporation | System for panoramic image processing |
JP2008236632A (ja) * | 2007-03-23 | 2008-10-02 | Hitachi Ltd | 画像処理装置及びその方法 |
US7949172B2 (en) | 2007-04-27 | 2011-05-24 | Siemens Medical Solutions Usa, Inc. | Iterative image processing |
KR100882011B1 (ko) | 2007-07-29 | 2009-02-04 | 주식회사 나노포토닉스 | 회전 대칭형의 광각 렌즈를 이용하여 전방위 영상을 얻는 방법 및 장치 |
US7863851B2 (en) | 2007-08-22 | 2011-01-04 | National Instruments Corporation | Closed loop stepper motor control |
US8064695B2 (en) | 2007-09-27 | 2011-11-22 | Behavioral Recognition Systems, Inc. | Dark scene compensation in a background-foreground module of a video analysis system |
KR20090067762A (ko) | 2007-12-21 | 2009-06-25 | 삼성전기주식회사 | 리플로우 공정 적용이 가능한 카메라 모듈 |
US8139113B2 (en) | 2007-12-26 | 2012-03-20 | Utc Fire & Security Americas Corporation, Inc. | Method and system for operating a camera assembly |
US20100097444A1 (en) | 2008-10-16 | 2010-04-22 | Peter Lablans | Camera System for Creating an Image From a Plurality of Images |
US8355042B2 (en) | 2008-10-16 | 2013-01-15 | Spatial Cam Llc | Controller in a camera for creating a panoramic image |
TW201001338A (en) | 2008-06-16 | 2010-01-01 | Huper Lab Co Ltd | Method of detecting moving objects |
ATE550875T1 (de) | 2008-07-23 | 2012-04-15 | Nxp Bv | Rahmen-raten-aufwärtsumsetzung |
US9185361B2 (en) | 2008-07-29 | 2015-11-10 | Gerald Curry | Camera-based tracking and position determination for sporting events using event information and intelligence data extracted in real-time from position information |
KR101030719B1 (ko) | 2008-09-25 | 2011-04-22 | 주식회사 로텍 | 센서 마그네트를 부착한 슬립링 |
US8223206B2 (en) | 2008-10-15 | 2012-07-17 | Flir Systems, Inc. | Infrared camera filter wheel systems and methods |
JP5469674B2 (ja) | 2008-12-05 | 2014-04-16 | マイクロニック マイデータ アーベー | 被加工物に書き込む方法およびシステム |
US7991575B2 (en) | 2009-01-08 | 2011-08-02 | Trimble Navigation Limited | Method and system for measuring angles based on 360 degree images |
US8611728B2 (en) | 2009-02-10 | 2013-12-17 | Thomson Licensing | Video matting based on foreground-background constraint propagation |
GB0908200D0 (en) * | 2009-05-13 | 2009-06-24 | Red Cloud Media Ltd | Method of simulation of a real physical environment |
US8744121B2 (en) | 2009-05-29 | 2014-06-03 | Microsoft Corporation | Device for identifying and tracking multiple humans over time |
US8499239B2 (en) | 2009-08-28 | 2013-07-30 | Microsoft Corporation | Globe container |
CN101719299B (zh) | 2009-11-10 | 2012-03-28 | 天津市浦海新技术有限公司 | 一种火灾、可燃气体报警系统及方法 |
KR20110052124A (ko) | 2009-11-12 | 2011-05-18 | 삼성전자주식회사 | 파노라마 이미지 생성 및 조회 방법과 이를 이용한 휴대 단말기 |
US8320621B2 (en) | 2009-12-21 | 2012-11-27 | Microsoft Corporation | Depth projector system with integrated VCSEL array |
EP2481679A4 (en) * | 2010-01-12 | 2015-05-06 | Chwei-Jei Tsai | PET BOTTLE LID AND MANUFACTURING METHOD THEREFOR |
US8905311B2 (en) | 2010-03-11 | 2014-12-09 | Flir Systems, Inc. | Infrared camera with infrared-transmissive dome systems and methods |
JP2011199750A (ja) * | 2010-03-23 | 2011-10-06 | Olympus Corp | 撮像端末、外部端末、撮像システム、及び撮像方法 |
JP2011239195A (ja) * | 2010-05-11 | 2011-11-24 | Sanyo Electric Co Ltd | 電子機器 |
US8625897B2 (en) | 2010-05-28 | 2014-01-07 | Microsoft Corporation | Foreground and background image segmentation |
EP2594062B1 (en) * | 2010-07-16 | 2016-09-14 | Dual Aperture International Co. Ltd. | Flash system for multi-aperture imaging |
USD640721S1 (en) | 2010-08-09 | 2011-06-28 | Scott Satine | Cannon-shaped, low-light video camera for marine use |
EP2612491A1 (en) | 2010-08-31 | 2013-07-10 | Raul Goldemann | Rotary image generator |
JP5645566B2 (ja) * | 2010-09-17 | 2014-12-24 | キヤノン株式会社 | 撮像装置及びその制御方法、プログラム |
JP5249297B2 (ja) | 2010-09-28 | 2013-07-31 | シャープ株式会社 | 画像編集装置 |
US8576276B2 (en) | 2010-11-18 | 2013-11-05 | Microsoft Corporation | Head-mounted display device which provides surround video |
CA2818695C (en) | 2010-11-24 | 2018-06-26 | Google, Inc. | Guided navigation through geo-located panoramas |
WO2012071435A1 (en) | 2010-11-24 | 2012-05-31 | Google Inc. | Rendering and navigating photographic panoramas with depth information in a geographic information system |
JP2012113204A (ja) * | 2010-11-26 | 2012-06-14 | Canon Inc | 撮像装置 |
US20120133639A1 (en) | 2010-11-30 | 2012-05-31 | Microsoft Corporation | Strip panorama |
CA140587S (en) | 2010-12-03 | 2012-01-20 | Riegl Laser Measurement Sys | Camera |
US8717381B2 (en) | 2011-01-11 | 2014-05-06 | Apple Inc. | Gesture mapping for image filter input parameters |
US20120194564A1 (en) * | 2011-01-31 | 2012-08-02 | White Christopher J | Display with secure decompression of image signals |
US9930225B2 (en) | 2011-02-10 | 2018-03-27 | Villmer Llc | Omni-directional camera and related viewing software |
GB201102794D0 (en) | 2011-02-17 | 2011-03-30 | Metail Ltd | Online retail system |
CN102176270A (zh) | 2011-02-25 | 2011-09-07 | 广州飒特电力红外技术有限公司 | 安全监控及火灾预警一体化系统及方法 |
US8907968B2 (en) | 2011-03-31 | 2014-12-09 | Panasonic Corporation | Image rendering device, image rendering method, and image rendering program for rendering stereoscopic panoramic images |
US8970665B2 (en) | 2011-05-25 | 2015-03-03 | Microsoft Corporation | Orientation-based generation of panoramic fields |
CN102280005B (zh) | 2011-06-09 | 2014-10-29 | 广州飒特红外股份有限公司 | 基于红外热成像技术的森林防火预警系统及方法 |
KR101073076B1 (ko) * | 2011-06-10 | 2011-10-12 | 주식회사 창성에이스산업 | 복합카메라를 이용한 화재감시 시스템 및 방법 |
US8773501B2 (en) | 2011-06-20 | 2014-07-08 | Duco Technologies, Inc. | Motorized camera with automated panoramic image capture sequences |
JP5875265B2 (ja) | 2011-07-04 | 2016-03-02 | キヤノン株式会社 | ステッピングモータの駆動制御装置および駆動制御方法、駆動制御システムならびに光学機器 |
US8718922B2 (en) | 2011-07-28 | 2014-05-06 | Navteq B.V. | Variable density depthmap |
WO2013032955A1 (en) | 2011-08-26 | 2013-03-07 | Reincloud Corporation | Equipment, systems and methods for navigating through multiple reality models |
US9000371B2 (en) | 2011-08-26 | 2015-04-07 | Custom Scene Technology, Inc. | Camera, computer program and method for measuring thermal radiation and thermal rates of change |
US20130249947A1 (en) | 2011-08-26 | 2013-09-26 | Reincloud Corporation | Communication using augmented reality |
US9127597B2 (en) | 2011-09-23 | 2015-09-08 | The Boeing Company | Sensor system |
US9116011B2 (en) | 2011-10-21 | 2015-08-25 | Here Global B.V. | Three dimensional routing |
US9071740B1 (en) * | 2011-10-28 | 2015-06-30 | Google Inc. | Modular camera system |
US9171384B2 (en) * | 2011-11-08 | 2015-10-27 | Qualcomm Incorporated | Hands-free augmented reality for wireless communication devices |
US9111147B2 (en) | 2011-11-14 | 2015-08-18 | Massachusetts Institute Of Technology | Assisted video surveillance of persons-of-interest |
AU2011265429B2 (en) | 2011-12-21 | 2015-08-13 | Canon Kabushiki Kaisha | Method and system for robust scene modelling in an image sequence |
US9024765B2 (en) | 2012-01-11 | 2015-05-05 | International Business Machines Corporation | Managing environmental control system efficiency |
US9070019B2 (en) | 2012-01-17 | 2015-06-30 | Leap Motion, Inc. | Systems and methods for capturing motion in three-dimensional space |
GB2512242A (en) * | 2012-01-18 | 2014-09-24 | Logos Technologies Llc | Method, device, and system for computing a spherical projection image based on two-dimensional images |
US8773503B2 (en) | 2012-01-20 | 2014-07-08 | Thermal Imaging Radar, LLC | Automated panoramic camera and sensor platform with computer and optional power supply |
USD695809S1 (en) | 2012-06-01 | 2013-12-17 | Panasonic Corporation | Camera |
US9349218B2 (en) | 2012-07-26 | 2016-05-24 | Qualcomm Incorporated | Method and apparatus for controlling augmented reality |
US9380222B2 (en) | 2012-12-04 | 2016-06-28 | Symbol Technologies, Llc | Transmission of images for inventory monitoring |
CN104036226B (zh) * | 2013-03-04 | 2017-06-27 | 联想(北京)有限公司 | 一种目标物信息获取方法及电子设备 |
WO2014159726A1 (en) | 2013-03-13 | 2014-10-02 | Mecommerce, Inc. | Determining dimension of target object in an image using reference object |
US9508115B2 (en) | 2013-03-15 | 2016-11-29 | International Business Machines Corporation | Large-area monitoring using infrared imaging system |
US20140282275A1 (en) | 2013-03-15 | 2014-09-18 | Qualcomm Incorporated | Detection of a zooming gesture |
WO2014169066A1 (en) | 2013-04-09 | 2014-10-16 | Thermal Imaging Radar, LLC | Fire detection system |
WO2014169061A1 (en) | 2013-04-09 | 2014-10-16 | Thermal Imaging Radar, Llc. | Stepper motor control and fire detection system |
US11165994B2 (en) | 2013-05-13 | 2021-11-02 | Texas Instruments Incorporated | Analytics-driven summary views for surveillance networks |
USD741388S1 (en) | 2013-07-03 | 2015-10-20 | Garmin Switzerland Gmbh | Camera |
US9165444B2 (en) | 2013-07-26 | 2015-10-20 | SkyBell Technologies, Inc. | Light socket cameras |
KR102248161B1 (ko) | 2013-08-09 | 2021-05-04 | 써멀 이미징 레이다 엘엘씨 | 복수의 가상 장치를 이용하여 열 이미지 데이터를 분석하기 위한 방법들 및 깊이 값들을 이미지 픽셀들에 상관시키기 위한 방법들 |
USD728655S1 (en) | 2013-12-10 | 2015-05-05 | Isaac S. Daniel | Covert recording alarm device for vehicles |
WO2015118370A1 (en) | 2014-02-04 | 2015-08-13 | Intel Corporation | Techniques for frame repetition control in frame rate up-conversion |
US9570113B2 (en) | 2014-07-03 | 2017-02-14 | Gopro, Inc. | Automatic generation of video and directional audio from spherical content |
US9756234B2 (en) | 2014-07-18 | 2017-09-05 | Intel Corporation | Contrast detection autofocus using multi-filter processing and adaptive step size selection |
USD743468S1 (en) * | 2014-07-24 | 2015-11-17 | Vsn Technologies, Inc. | 360 degree wireless camera |
US9363569B1 (en) | 2014-07-28 | 2016-06-07 | Jaunt Inc. | Virtual reality system including social graph |
USD786329S1 (en) * | 2014-09-01 | 2017-05-09 | Fujifilm Corporation | Electronic camera |
US10547825B2 (en) | 2014-09-22 | 2020-01-28 | Samsung Electronics Company, Ltd. | Transmission of three-dimensional video |
US10033924B2 (en) | 2014-10-10 | 2018-07-24 | Iec Infrared Systems, Llc | Panoramic view imaging system |
US10825069B2 (en) | 2014-11-14 | 2020-11-03 | The Joan and Irwin Jacobs Technion-Cornell Institute | System and method for intuitive content browsing |
WO2016103566A1 (ja) | 2014-12-25 | 2016-06-30 | 日本電気株式会社 | 画像処理方法及び画像処理装置 |
USD813923S1 (en) * | 2015-02-20 | 2018-03-27 | Robert Bosch Gmbh | Camera |
WO2016160794A1 (en) | 2015-03-31 | 2016-10-06 | Thermal Imaging Radar, LLC | Setting different background model sensitivities by user defined regions and background filters |
USD749329S1 (en) * | 2015-04-05 | 2016-02-16 | Erik A. Kaiser | Selfie mirror |
USD776181S1 (en) | 2015-04-06 | 2017-01-10 | Thermal Imaging Radar, LLC | Camera |
US9996895B2 (en) | 2015-05-01 | 2018-06-12 | Ricoh Company, Ltd. | Image display system, information processing apparatus, and image display method |
US9992502B2 (en) | 2016-01-29 | 2018-06-05 | Gopro, Inc. | Apparatus and methods for video compression using multi-resolution scalable coding |
AU201614083S (en) * | 2016-02-02 | 2016-08-03 | Bosch Gmbh Robert | Camera |
US9742996B1 (en) | 2016-10-07 | 2017-08-22 | Sphericam Inc. | Single unit 360-degree camera with an integrated lighting array |
USD813291S1 (en) * | 2016-10-20 | 2018-03-20 | Geovision Inc. | Monitoring camera |
USD819112S1 (en) * | 2016-12-23 | 2018-05-29 | Samsung Electronics Co., Ltd. | Camera |
US10873708B2 (en) | 2017-01-12 | 2020-12-22 | Gopro, Inc. | Phased camera array system for generation of high quality images and video |
US10740622B2 (en) | 2017-03-23 | 2020-08-11 | Hall Labs Llc | Method of theft detection and prevention |
US20180307352A1 (en) | 2017-04-25 | 2018-10-25 | Gopro, Inc. | Systems and methods for generating custom views of videos |
USD849095S1 (en) * | 2017-09-26 | 2019-05-21 | Ademco Inc. | Camera and audio input/output device |
US10574886B2 (en) | 2017-11-02 | 2020-02-25 | Thermal Imaging Radar, LLC | Generating panoramic video for video management systems |
US11601605B2 (en) | 2019-11-22 | 2023-03-07 | Thermal Imaging Radar, LLC | Thermal imaging camera device |
-
2014
- 2014-08-06 KR KR1020167006217A patent/KR102248161B1/ko active IP Right Grant
- 2014-08-06 EP EP14835456.6A patent/EP3030935B1/en active Active
- 2014-08-06 JP JP2016533409A patent/JP6581086B2/ja active Active
- 2014-08-06 CN CN201810643343.8A patent/CN108495051B/zh active Active
- 2014-08-06 MX MX2016001689A patent/MX360725B/es active IP Right Grant
- 2014-08-06 WO PCT/US2014/049986 patent/WO2015021186A1/en active Application Filing
- 2014-08-06 CN CN201480031510.3A patent/CN105264439A/zh active Pending
- 2014-08-06 BR BR112016002720-5A patent/BR112016002720B1/pt active IP Right Grant
- 2014-08-11 US US14/456,329 patent/US9348196B1/en active Active
-
2015
- 2015-06-12 US US14/738,391 patent/US9516208B2/en active Active
-
2016
- 2016-05-19 US US15/159,523 patent/US10127686B2/en active Active
- 2016-12-05 US US15/369,117 patent/US9886776B2/en active Active
-
2018
- 2018-11-08 US US29/669,489 patent/USD968499S1/en active Active
Also Published As
Publication number | Publication date |
---|---|
US9516208B2 (en) | 2016-12-06 |
US9348196B1 (en) | 2016-05-24 |
CN108495051A (zh) | 2018-09-04 |
MX2016001689A (es) | 2016-10-05 |
JP2016532375A (ja) | 2016-10-13 |
BR112016002720A8 (pt) | 2020-02-04 |
US20160266380A1 (en) | 2016-09-15 |
CN105264439A (zh) | 2016-01-20 |
KR20160042972A (ko) | 2016-04-20 |
US9886776B2 (en) | 2018-02-06 |
WO2015021186A1 (en) | 2015-02-12 |
USD968499S1 (en) | 2022-11-01 |
BR112016002720A2 (pt) | 2017-08-01 |
EP3030935A1 (en) | 2016-06-15 |
US20150334303A1 (en) | 2015-11-19 |
MX360725B (es) | 2018-11-14 |
JP6581086B2 (ja) | 2019-09-25 |
CN108495051B (zh) | 2021-07-06 |
KR102248161B1 (ko) | 2021-05-04 |
EP3030935A4 (en) | 2017-09-27 |
US10127686B2 (en) | 2018-11-13 |
EP3030935B1 (en) | 2020-11-18 |
US20170236300A1 (en) | 2017-08-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
BR112016002720B1 (pt) | Sistema local e método para analisar e classificar quadros de imagem individuais de dados de imagem panorâmica | |
US10949995B2 (en) | Image capture direction recognition method and server, surveillance method and system and image capture device | |
Jain et al. | Scaling video analytics systems to large camera deployments | |
US10366509B2 (en) | Setting different background model sensitivities by user defined regions and background filters | |
US9710924B2 (en) | Field of view determiner | |
US9476964B2 (en) | Automatic image capture | |
US20130176453A1 (en) | Methods, apparatuses and computer program products for facilitating image registration based in part on using sensor data | |
US20160371305A1 (en) | Method, device and apparatus for generating picture search library, and picture search method, device and apparatus | |
US20140294361A1 (en) | Clustering Crowdsourced Videos by Line-of-Sight | |
EP2758941A1 (en) | Three-dimensional map system | |
Sandnes | Where was that photo taken? Deriving geographical information from image collections based on temporal exposure attributes | |
Bauer et al. | UASOL, a large-scale high-resolution outdoor stereo dataset | |
FR3019310A1 (fr) | Procede de geo-localisation de l'environnement d'un porteur | |
US11477603B2 (en) | Recommending targeted locations and optimal experience time | |
AU2018200872C1 (en) | Use of location lull to facilitate identifying and recording video capture location | |
US11625907B2 (en) | System using image connectivity to reduce bundle size for bundle adjustment | |
US9082049B2 (en) | Detecting broken lamps in a public lighting system via analyzation of satellite images | |
CN108898617A (zh) | 一种目标对象的跟踪方法和装置 | |
US11715230B2 (en) | System and method for detecting objects in video images | |
US9816828B2 (en) | Dynamic attraction inference in route recommendations |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
B06U | Preliminary requirement: requests with searches performed by other patent offices: procedure suspended [chapter 6.21 patent gazette] | ||
B07A | Application suspended after technical examination (opinion) [chapter 7.1 patent gazette] | ||
B06A | Patent application procedure suspended [chapter 6.1 patent gazette] | ||
B09A | Decision: intention to grant [chapter 9.1 patent gazette] | ||
B16A | Patent or certificate of addition of invention granted [chapter 16.1 patent gazette] |
Free format text: PRAZO DE VALIDADE: 20 (VINTE) ANOS CONTADOS A PARTIR DE 06/08/2014, OBSERVADAS AS CONDICOES LEGAIS. |