JP7114387B2 - IMAGING DEVICE, IMAGING DEVICE CONTROL METHOD AND PROGRAM - Google Patents

IMAGING DEVICE, IMAGING DEVICE CONTROL METHOD AND PROGRAM Download PDF

Info

Publication number
JP7114387B2
JP7114387B2 JP2018142031A JP2018142031A JP7114387B2 JP 7114387 B2 JP7114387 B2 JP 7114387B2 JP 2018142031 A JP2018142031 A JP 2018142031A JP 2018142031 A JP2018142031 A JP 2018142031A JP 7114387 B2 JP7114387 B2 JP 7114387B2
Authority
JP
Japan
Prior art keywords
infrared light
color
color palette
image
moving image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018142031A
Other languages
Japanese (ja)
Other versions
JP2020021973A (en
Inventor
理 余西
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2018142031A priority Critical patent/JP7114387B2/en
Priority to US16/418,648 priority patent/US10965925B2/en
Priority to EP19175680.8A priority patent/EP3576406A1/en
Priority to CN201910457406.5A priority patent/CN110557532B/en
Publication of JP2020021973A publication Critical patent/JP2020021973A/en
Application granted granted Critical
Publication of JP7114387B2 publication Critical patent/JP7114387B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は撮像された赤外光画像の配信技術に関する。 The present invention relates to techniques for distributing captured infrared light images.

近年、監視用途で用いられるネットワークカメラにおいて、夜間や降雨や降雪などの悪条件下でも監視用途に十分な画像の撮影が可能な赤外光撮像を利用したモデルがある。 2. Description of the Related Art In recent years, among network cameras used for monitoring purposes, there are models that use infrared light imaging that can capture images sufficient for monitoring purposes even at night or under adverse conditions such as rain or snow.

赤外光カメラでは、物体から放射されている赤外線(赤外光)を専用のセンサーで検出し、その検出データを画像処理することで視認可能な映像を生成する。 An infrared camera detects infrared rays (infrared light) emitted from an object with a dedicated sensor, and generates visible images by image processing the detected data.

ここで、実際には不可視の赤外光を可視化して表示する方法として、一般的にインデックスカラー方式が用いられる。インデックスカラー方式とは、画像データの画素ごとに色情報を持たず、色情報テーブルを参照するためのインデックス値を画素毎に持たせる形式の画像フォーマットである。この色情報テーブルはインデックス値をRGBなどの表示用色空間の画素値に変換するためのもので、一般的にカラーパレットと呼ばれる。 Here, an index color system is generally used as a method of visualizing and displaying infrared light that is actually invisible. The index color method is an image format in which each pixel of image data does not have color information but has an index value for referring to a color information table. This color information table is for converting index values into pixel values in a display color space such as RGB, and is generally called a color palette.

カラーパレットの色情報を適用することで表示用の画像を生成し、さらに生成した画像を保存する前に圧縮処理を施す。圧縮方法としては、動画の場合はMpeg4、H.264など、静止画ではJpegなどの圧縮方法が一般的である。 An image for display is generated by applying color information from the color palette, and compression processing is applied to the generated image before saving. Compression methods include Mpeg4 and H.264 for moving images. For still images such as H.264, a compression method such as Jpeg is generally used.

特許文献1には、撮像した映像データに対して、異なる画質パラメータを適用して同時に表示する方法について開示している。 Japanese Unexamined Patent Application Publication No. 2002-200001 discloses a method of applying different image quality parameters to imaged video data and simultaneously displaying the data.

特開2006-345309号公報JP-A-2006-345309

特許文献1では、RGBまたはYUVの色情報を持った映像データに対して、異なる画質パラメータ(明度、コントラスト、色相、シャープネス等)を適用している。しかし、特許文献1の技術では赤外光撮像について考慮しておらず、明度やコントラストという概念が無いインデックス値にそのまま画質パラメータを適用して画質調整することは困難である。 In Patent Document 1, different image quality parameters (brightness, contrast, hue, sharpness, etc.) are applied to video data having RGB or YUV color information. However, the technique of Patent Document 1 does not consider infrared imaging, and it is difficult to adjust image quality by directly applying image quality parameters to index values that have no concept of brightness or contrast.

上記課題を解決するために、本発明に係る撮像装置は、赤外光撮像手段と、複数のカラーパレットを保持する保持手段と、前記赤外光撮像手段によって得られた赤外光画像について、前記保持手段により保持している複数のカラーパレットの其々を参照することで生成した複数の動画ファイルを関連付けて出力する出力手段とを有することを特徴とする。 In order to solve the above problems, an imaging apparatus according to the present invention includes infrared light imaging means, holding means for holding a plurality of color palettes, and an infrared light image obtained by the infrared light imaging means, and output means for associating and outputting a plurality of moving image files generated by referring to each of the plurality of color palettes held by the holding means.

赤外光を撮像した画像を再生する場合に、関連付けられた複数の録画映像からユーザが目的に合ったカラーパレットで現像されている映像を選択することで用途に応じて映像の視認性を向上させることができる。 When playing back images captured with infrared light, the user can select images that have been developed with a color palette that suits their purpose from multiple linked recorded images, improving the visibility of the images according to the application. can be made

ネットワークカメラの外観を示す概略図である。1 is a schematic diagram showing the appearance of a network camera; FIG. ネットワークカメラを含むネットワーク構成を示す概略図である。1 is a schematic diagram showing a network configuration including network cameras; FIG. ネットワークカメラの概略構成を示すブロック図である。1 is a block diagram showing a schematic configuration of a network camera; FIG. ネットワークカメラにおける記録メディアのファイル構成を示す模式図である。FIG. 2 is a schematic diagram showing a file structure of a recording medium in a network camera; FIG. カラーパレットを示す模式図である。FIG. 4 is a schematic diagram showing a color palette; 画像記録時の処理フローとデータフローを示す模式図である。FIG. 4 is a schematic diagram showing a processing flow and a data flow during image recording; 動画生成部の処理フローを示す模式図である。FIG. 5 is a schematic diagram showing a processing flow of a moving image generation unit; 記録メディアのファイル構成を示す模式図である。3 is a schematic diagram showing a file structure of a recording medium; FIG. 画像再生時の処理フローとデータフローを示す模式図である。FIG. 4 is a schematic diagram showing a processing flow and a data flow during image reproduction; カラーパレット管理情報を示す模式図である。4 is a schematic diagram showing color palette management information; FIG. カラーパレット管理情報を示す模式図である。4 is a schematic diagram showing color palette management information; FIG. 記録タイミングを時系列に示した模式図である。FIG. 3 is a schematic diagram showing recording timings in chronological order; システム概略構成の一例を示すブロック図である。It is a block diagram showing an example of a system schematic configuration.

<<実施形態1>>
以下に、図面を参照しながら、本発明を実施するための形態について説明する。
<<Embodiment 1>>
EMBODIMENT OF THE INVENTION Below, the form for implementing this invention is demonstrated, referring drawings.

図1(a)は本発明の1つの実施形態であるネットワークカメラの外観を示す図である。ネットワークカメラ100は、赤外光を撮像するためのレンズと撮像素子(赤外光撮像部)を含む鏡筒部101を備える。図1(b)はネットワークカメラ100について情報処理に関するハードウェア構成の概略を示すブロック図である。CPU(CENTRAL PROCESSING UNIT)102は、撮影装置100を統括的に制御する中央処理装置である。IF105は、ネットワークを介してインターネットプロトコルやONVIF等のプロトコルに従って、クライアント装置との通信を行う。 FIG. 1(a) is a diagram showing the appearance of a network camera that is one embodiment of the present invention. The network camera 100 includes a lens barrel section 101 including a lens and an imaging device (infrared imaging section) for imaging infrared light. FIG. 1B is a block diagram showing an outline of the hardware configuration regarding information processing of the network camera 100. As shown in FIG. A CPU (Central Processing Unit) 102 is a central processing unit that controls the imaging apparatus 100 in an integrated manner. The IF 105 communicates with client devices via a network according to protocols such as the Internet protocol and ONVIF.

ROM103は、フラッシュメモリなどの記憶素子を有し、CPU102がネットワークカメラ100に後述するフローチャートの処理を実行させたり後述する機能ブロックを実現させたりするためのプログラムやパラメータやカラーパレット(詳細は後述)などを不揮発的に記憶する。RAM(RANDOM ACCESS MEMORY)104は、CPU200が実行するコンピュータプログラムの一部や中間値を一時的に記憶する。また、RAM202は、IF105を介して外部から取得したデータを一時的に記憶するバッファとしても機能してもよい。 The ROM 103 has a storage element such as a flash memory, and stores programs, parameters, and color palettes (details will be described later) for the CPU 102 to cause the network camera 100 to execute processing of flowcharts described later and to realize functional blocks described later. etc. is stored in a non-volatile manner. A RAM (RANDOM ACCESS MEMORY) 104 temporarily stores a part of the computer program executed by the CPU 200 and intermediate values. The RAM 202 may also function as a buffer that temporarily stores data externally acquired via the IF 105 .

図2は、ネットワークカメラ100を含むシステム構成図である。110は本発明における外部機器を示すクライアント装置である。ネットワークカメラ100とクライアント装置110は、ネットワーク120を介して相互に通信可能な状態で接続されている。クライアント装置110は、ネットワークカメラ100に対して、各種コマンドを送信する。ネットワークカメラ100は、それらのコマンドに対するレスポンスをクライアント装置110に送信する。 FIG. 2 is a system configuration diagram including the network camera 100. As shown in FIG. A client device 110 represents an external device in the present invention. The network camera 100 and the client device 110 are connected via a network 120 so as to be able to communicate with each other. The client device 110 transmits various commands to the network camera 100 . The network camera 100 transmits responses to those commands to the client device 110 .

図3を参照して、ネットワークカメラ100の各部構成と機能について説明する。鏡筒部200は赤外光レンズ300と赤外光センサー301とを有している。レンズやセンサーは使用する素材によって対応する波長領域が異なるが、ここでは、赤外光レンズ300と赤外光センサー301とは、遠赤外線(波長4~1000μm)に対応するものとする。赤外光レンズ300は着脱可能なレンズであってもよい。赤外光センサー301は可視光も撮像できるCMOSやCCDであってもよく、その場合は可視光を分離するための分光素子を備えればよい。 The configuration and function of each part of the network camera 100 will be described with reference to FIG. The lens barrel section 200 has an infrared light lens 300 and an infrared light sensor 301 . Although the wavelength range corresponding to lenses and sensors differs depending on the materials used, here, the infrared light lens 300 and the infrared light sensor 301 are assumed to correspond to far infrared rays (wavelength 4 to 1000 μm). The infrared light lens 300 may be a detachable lens. The infrared light sensor 301 may be a CMOS or CCD capable of capturing visible light, and in that case, it may be provided with a spectroscopic element for separating visible light.

映像処理部201は鏡筒部200で撮像された情報を受け取り、画像データに変換する機能を持っている。データ補正部302では赤外光センサー301から受け取った情報(遠赤外線の強度)を正規化、量子化することで、色情報テーブル(カラーパレット)を参照するためのインデックス値(赤外光画像)に変換する。本実施形態では1画素のインデックス値を1バイト(8ビット)とし、画素毎に256種類の色を表現可能とする。なお、カラーパレットの詳細は後述する。 The video processing unit 201 has a function of receiving information captured by the lens barrel unit 200 and converting it into image data. The data correction unit 302 normalizes and quantizes the information (intensity of far-infrared rays) received from the infrared light sensor 301 to obtain an index value (infrared light image) for referring to the color information table (color palette). Convert to In this embodiment, the index value of one pixel is 1 byte (8 bits), and 256 kinds of colors can be expressed for each pixel. Details of the color palette will be described later.

画像生成部304では、機能設定部303により指定されたカラーパレットを使用して、インデックス値をRGBで表される色データ(RGBの各成分について8ビットで表現される形式)に現像(変換)し、表示可能な画像を生成する。エンコーダ305では、画像生成部304が生成した動画もしくは静止画について、圧縮処理を実行する。映像伝送部306では圧縮後の動画データを、ネットワークを介してクライアント装置110に伝送する。 The image generating unit 304 uses the color palette specified by the function setting unit 303 to develop (convert) the index values into color data represented by RGB (a format in which each component of RGB is represented by 8 bits). to generate a displayable image. The encoder 305 performs compression processing on the moving image or still image generated by the image generating unit 304 . The video transmission unit 306 transmits the compressed video data to the client device 110 via the network.

静止画記録部307では、エンコーダ305からJpegなどの形式に変換されたデータもしくはRAWデータを受け取り、静止画ファイルを生成してからSDカードや内蔵メモリなどに記録する。 A still image recording unit 307 receives data converted into a format such as JPEG or RAW data from the encoder 305, generates a still image file, and then records the file in an SD card, internal memory, or the like.

動画記録部308では、エンコーダ305からMpeg4やH.264、HEVCなどの形式に変換されたデータを受け取り、動画ファイルを生成してからSDカードや内蔵メモリなどに記録する。 In the moving image recording unit 308, the encoder 305 converts Mpeg4 or H.264. 264, HEVC, etc., generates a video file, and records it in an SD card or built-in memory.

図4(a)は、データ補正部302により生成されるインデックス値を用いた画像データ(インデックス画像データ)の概略を示す。本実施形態では、画素ごとにカラーパレットを参照するためのインデックス値を持つ代表的な画像フォーマットとしてのPNG(Portable Network Graphics)形式を利用する。図4にPNG形式のファイルフォーマットを示す。領域401は、このファイルがPNG形式のファイルであることを示すPNGファイルシグネチャである。16進数で、”89 50 4E 47 0D 0A 1A 0A”が記述される。領域402はイメージヘッダを示すIHDRチャンクであり、”パレット使用”を示す情報や”画像の幅”や”画像の高さ”を示す情報を保持する。領域403は、カラーパレット本体を格納するPLTEチャンクであり、1つ以上のパレットを保持する(パレットの構造については図5を用いて後述する)。また、領域404はテキスト情報を保持し、領域405は画像を構成する全画素分のインデックス値を格納するIDATチャンクである。領域406はイメージ終端を示す。 FIG. 4A schematically shows image data (index image data) using index values generated by the data correction unit 302. FIG. In this embodiment, the PNG (Portable Network Graphics) format is used as a representative image format having an index value for referring to the color palette for each pixel. FIG. 4 shows the file format of the PNG format. Area 401 is a PNG file signature indicating that this file is in PNG format. In hexadecimal, "89 50 4E 47 0D 0A 1A 0A" is described. An area 402 is an IHDR chunk indicating an image header, and holds information indicating "use of palette" and information indicating "width of image" and "height of image". An area 403 is a PLTE chunk that stores a color palette body and holds one or more palettes (the structure of the palette will be described later with reference to FIG. 5). An area 404 holds text information, and an area 405 is an IDAT chunk that stores index values for all pixels forming an image. Region 406 indicates the end of the image.

図4(b)は、動画記録部308がSDカード等の記録メディアやネットワーク上のストレージに記録する動画ファイルのデータ構造を示す。Douga001を先頭に複数個のフォルダが生成され、各フォルダの下に各フォルダに対応する動画ファイルと、動画ファイルと対応するメタデータ格納ファイル(Douga001.xml)とが格納される。メタデータファイルには映像生成時に使用したカラーパレットの情報(カラーパレットそのもの又はカラーパレットを読み出すためのアドレス情報など)がXML形式で記述されている。 FIG. 4B shows the data structure of a moving image file recorded by the moving image recording unit 308 in a recording medium such as an SD card or storage on a network. A plurality of folders are generated starting with Douga001, and under each folder, a moving image file corresponding to each folder and a metadata storage file (Douga001.xml) corresponding to the moving image file are stored. In the metadata file, the information of the color palette used at the time of image generation (the color palette itself or the address information for reading the color palette, etc.) is described in XML format.

図5はカラーパレットの構造について示した図である。カラーパレット501は画像を白黒で表示するためのカラーパレット(モノクロ表示用のカラーパレット)で、0から255までの256段階の階調を表現できる。例えば、カラーパレット501はインデックス画像の画素のインデックス値が”252”である場合、(R,G,B)の画素値として(240,240,240)に変換することを示す。また、カラーパレット501はインデックス画像の画素のインデックス値が”3”である場合、(R,G,B)の画素値として(10,10,10)に変換することを示す。 FIG. 5 is a diagram showing the structure of the color palette. A color palette 501 is a color palette for displaying an image in black and white (a color palette for monochrome display), and can express 256 levels of gradation from 0 to 255. FIG. For example, the color palette 501 indicates that when the index value of a pixel in the index image is "252", the pixel value of (R, G, B) is converted to (240, 240, 240). Also, the color palette 501 indicates that when the index value of the pixel of the index image is "3", the pixel value of (R, G, B) is converted to (10, 10, 10).

カラーパレットのインデックス値を反転することで、白黒を反転して表示することが可能である。例えば、インデックス画像の画素のインデックス値”10”を(R,G,B)=(240,240,240)に変換し、インデックス値”252”を(R,G,B)=(10,10,10)に変換してもよい。 By inverting the index value of the color palette, black and white can be displayed in reverse. For example, the index value “10” of the pixel of the index image is converted to (R, G, B)=(240, 240, 240), and the index value “252” is converted to (R, G, B)=(10, 10). , 10).

カラーパレット502はカラー表示に使用するカラーパレットで、ユーザが任意の色情報を設定してカラーパレットを作成することが可能である。ここでは、温度が低い部分(遠赤外成分の値が小さい部分)に青色などの寒色系の色を割り当て、温度が高い部分(遠赤外成分の値が大きい部分)に赤色などの暖色系の色を割り当てている。例えば、カラーパレット502はインデックス画像の画素のインデックス値が”252”である場合、(R,G,B)の画素値として(240,0,0)に変換することを示す。また、カラーパレット502はインデックス画像の画素のインデックス値が”3”である場合、(R,G,B)の画素値として(0,0,240)に変換することを示す。もちろん、カラー表示用のカラーパレットを複数種類保持するようにしてもよい。 A color palette 502 is a color palette used for color display, and the user can set arbitrary color information to create a color palette. In this example, cool colors such as blue are assigned to areas with low temperatures (areas with small far-infrared component values), and warm colors such as red are assigned to areas with high temperatures (areas with large far-infrared component values). are assigned colors. For example, the color palette 502 indicates that when the index value of a pixel in the index image is "252", the pixel value of (R, G, B) is converted to (240, 0, 0). Also, the color palette 502 indicates that when the index value of the pixel of the index image is "3", the pixel value of (R, G, B) is converted to (0, 0, 240). Of course, a plurality of types of color palettes for color display may be held.

次に図6を用いて、映像処理部201による画像記録時の処理フローとデータフローについて説明する。 Next, the processing flow and data flow during image recording by the video processing unit 201 will be described with reference to FIG.

データ補正部601では、赤外光センサー301により取得した2次元のセンサー検出値をインデックス値に変換した画像データを生成し、画像生成部602にインデック画像データとして画像生成部602に送信する(611)。機能設定部603はカメラに保持している複数のカラーパレットデータをROM103(RAM104に展開されている場合はRAM104)から読み出して画像生成部602に送る(612)。画像生成部602は画像のインデックス値を、機能設定部603から受け取ったカラーパレットの其々を参照して色情報に変換した複数の画像データ(表示用画像データ)を生成し、エンコーダ604に送信する(613)。画像生成部602の処理の詳細は後述する。 The data correction unit 601 generates image data by converting the two-dimensional sensor detection values acquired by the infrared light sensor 301 into index values, and transmits the image data to the image generation unit 602 as index image data (611 ). The function setting unit 603 reads out a plurality of color palette data held in the camera from the ROM 103 (RAM 104 if expanded in the RAM 104) and sends them to the image generation unit 602 (612). The image generation unit 602 generates a plurality of image data (display image data) by converting the image index value into color information by referring to each of the color palettes received from the function setting unit 603 , and transmits the image data to the encoder 604 . (613). Details of the processing of the image generation unit 602 will be described later.

エンコーダ604は受け取った複数の画像データに圧縮処理を施し、Mpeg4、H.264またはHEVCなどのN個の異なる形式の圧縮動画データを生成し、動画記録部605に出力する(614)。動画記録部605は複数(N個)の圧縮画像データについて個別のファイルを生成して記録メディア606やネットワーク上のストレージ(不図示)に保存する(615)。 The encoder 604 compresses the received multiple image data and converts them into Mpeg4, H.264, and Mpeg4. N different types of compressed moving image data, such as H.264 or HEVC, are generated and output to the moving image recording unit 605 (614). The moving image recording unit 605 generates individual files for a plurality of (N) pieces of compressed image data and stores them in the recording medium 606 or storage (not shown) on the network (615).

次に、図7を用いて画像生成部602の処理の詳細について説明する。画像生成部602はデータ補正部601からインデックス画像データを取得する(S701)。次に機能設定部603からカメラで保持しているカラーパレットの数(カラーパレット数)を取得する(S702)。次に、未参照である残りのカラーパレット数を確認し(S704)、残りがあれば残りのカラーパレットの1つを取得する(S705)。次にカラーパレットの値を使用してインデックス画像データから色画像データに変換する(S706)。そして、エンコーダ部604に変換した色画像データを送信する(S707)。カラーパレット数を1減算する(S708)。ステップS704において残りのカラーパレットが0だった場合は、処理を終了する。 Next, details of the processing of the image generation unit 602 will be described with reference to FIG. The image generation unit 602 acquires index image data from the data correction unit 601 (S701). Next, the number of color palettes held by the camera (the number of color palettes) is obtained from the function setting unit 603 (S702). Next, the number of remaining unreferenced color palettes is confirmed (S704), and if there are remaining color palettes, one of the remaining color palettes is acquired (S705). Next, the index image data is converted into color image data using the color palette values (S706). Then, the converted color image data is transmitted to the encoder unit 604 (S707). 1 is subtracted from the number of color palettes (S708). If the remaining color palette is 0 in step S704, the process ends.

図8は、動画記録部605が、カラーパレットが互いに異なる複数の動画ファイルを格納する様子について示した模式図である。同一ソースから生成した動画データであることが分かるように、Douga001フォルダにカラーパレットの名称(パレット名)毎のフォルダを作成する。このパレット名のフォルダ内に、このパレット名で現像した画像データを圧縮した後の動画ファイルと、現像に使用したカラーパレットデータを格納したファイルを保存する。これは生成時に使用したカラーパレットデータを後で取得することを可能にするためである。図8の例では「Douga001_Palette01」というパレット名のフォルダに、このパレット名に対応するカラーパレットデータ「Douga001_Palette01.plt」と、このカラーパレットで現像し、Mpeg4で符号化することによりデータ量を圧縮した動画像データ「Douga001_Palette01.mp4」と、カラーパレットや符号化の際のメタデータ「Douga001_Palette01.xml」とを格納する。メタデータはフレームレートや解像度を含む。このようにすることで、動画記録部605は複数のカラーパレットの其々を参照することで現像した複数の動画ファイルを関連付けて出力することができる。 FIG. 8 is a schematic diagram showing how the moving image recording unit 605 stores a plurality of moving image files with different color palettes. A folder is created for each color palette name (palette name) in the Douga001 folder so that the moving image data generated from the same source can be identified. In the folder with this palette name, a moving image file obtained by compressing image data developed with this palette name and a file containing color palette data used for development are saved. This is to allow later retrieval of the color palette data used during generation. In the example of FIG. 8, a folder with a palette name "Douga001_Palette01" contains color palette data "Douga001_Palette01.plt" corresponding to this palette name. Stores moving image data "Douga001_Palette01.mp4" and metadata "Douga001_Palette01.xml" for color palette and encoding. Metadata includes frame rate and resolution. By doing so, the moving image recording unit 605 can output a plurality of developed moving image files in association with each other by referring to each of the plurality of color palettes.

次に記録メディアに保存した動画データを再生してクライアント装置へ配信する方法について説明する。 Next, a method of reproducing moving image data stored in a recording medium and distributing it to a client device will be described.

動画記録部902では記録メディア904に録画されている映像が管理されている。クライアント装置から再生する映像が指定されると、機能設定部901より内蔵しているカラーパレットの情報をクライアント装置へ提示し、クライアント装置ではカラーパレットを選択する動作を実行し、その結果を動画記録部902に通知する。動画記録部902は選択された映像とカラーパレットにより動画ファイルを特定し、記録メディア904から圧縮された動画データを読み出す(912)。 A moving image recording unit 902 manages images recorded on a recording medium 904 . When a video to be played back is specified from the client device, the information of the built-in color palette is presented to the client device from the function setting unit 901, the client device executes the operation of selecting the color palette, and the result is recorded as a moving image. 902 is notified. The moving image recording unit 902 identifies a moving image file based on the selected image and color palette, and reads compressed moving image data from the recording medium 904 (912).

次にクライアント装置への配信をするため、動画記録部902は映像伝送部903に圧縮された動画データを送信する(913)。映像伝送部903はRTPなどの映像伝送プロトコルを利用して、動画データをクライアント装置に配信する。 Next, the moving image recording unit 902 transmits the compressed moving image data to the video transmission unit 903 for distribution to the client device (913). A video transmission unit 903 uses a video transmission protocol such as RTP to distribute moving image data to a client device.

以上のように、本実施形態によれば、赤外光カメラで撮像した映像からカラーパレット数分の動画ファイルを記録メディアに保存するので、その映像を再生する場合に、ユーザが任意のカラーパレットを指定して再生することができるため、映像の視認性を向上させることが可能となる。 As described above, according to the present embodiment, video files corresponding to the number of color palettes are stored in a recording medium from video captured by an infrared camera. can be specified and played back, the visibility of the video can be improved.

<<実施形態2>>
実施形態1では赤外線カメラに内蔵している全てのカラーパレット分の動画ファイルを生成したが、エンコーダや記録メディアの書き込み性能によっては、同時に生成できる動画ファイル数が制限される場合がある。
<<Embodiment 2>>
In the first embodiment, moving image files for all color palettes built in the infrared camera are generated, but the number of moving image files that can be simultaneously generated may be limited depending on the writing performance of the encoder or recording medium.

本実施形態では同時生成ファイル数に制限がある場合の動画ファイル生成方法について説明する。なお、実施形態1と同一機能を有する構成や工程には同一符号を付すとともに、構成的、機能的にかわらないものについてはその説明を省略する。 In this embodiment, a moving image file generating method when the number of simultaneously generated files is limited will be described. Components and steps having the same functions as those of the first embodiment are denoted by the same reference numerals, and descriptions of components that are structurally and functionally the same are omitted.

図10はカメラのROM103が保持しているカラーパレット管理情報の一例である。カラーパレット毎に優先度(優先順位)を設定し、その優先順位に従って生成する動画ファイルを決定する。図10では優先度の数値が小さい方がより優先度が高いカラーパレットを表している。同時生成ファイル数がカラーパレットの総数よりも少ない場合、優先度が低いカラーパレットを使用した動画ファイルは生成されない。 FIG. 10 shows an example of color palette management information held in the ROM 103 of the camera. A priority (priority order) is set for each color palette, and a moving image file to be generated is determined according to the priority order. In FIG. 10, a color palette with a smaller priority number indicates a higher priority. If the number of simultaneously generated files is less than the total number of color palettes, no moving image file using a color palette with a lower priority is generated.

同時生成ファイル数は、ハードウェアもしくはソフトウェアで実行するエンコード処理の性能と、SDカード等の記録メディアへの書き込み速度によって決定される。ここではエンコードする動画の解像度とフレームレートは固定とする。 The number of simultaneously generated files is determined by the performance of encoding processing executed by hardware or software and the writing speed to recording media such as SD cards. Here, the resolution and frame rate of the video to be encoded are fixed.

ここで同時生成ファイル数がN個であった場合、図10で表される優先度値が1~Nまでのカラーパレットを使った動画ファイルを生成する。なお、同時生成ファイル数でなく単に優先順位の高いカラーパレットから所定数までの動画ファイルを出力するようにしてもよい。 Here, if the number of simultaneously generated files is N, a moving image file using a color palette with a priority value of 1 to N shown in FIG. 10 is generated. Instead of the number of simultaneously generated files, a predetermined number of moving image files may be output from the color palette having the highest priority.

以上のとおり本実施形態によれば、同時生成ファイル数が、内蔵しているカラーパレット数を下回っている場合であっても、ユーザが所望するカラーパレットを使った動画ファイルを優先的に保存することが可能となる。 As described above, according to this embodiment, even if the number of simultaneously generated files is less than the number of built-in color palettes, the video files using the color palette desired by the user are preferentially saved. becomes possible.

<<実施形態3>>
実施形態2では優先順位によっては生成できない動画ファイルが存在していたが、本実施形態では、同時生成ファイル数が、カメラが保持しているカラーパレットの数を下回っている場合でも、全カラーパレット分の動画ファイルを生成する方法について説明する。なお、実施形態1~2と同一機能を有する構成や工程には同一符号を付すとともに、構成的、機能的にかわらないものについてはその説明を省略する。
<<Embodiment 3>>
In the second embodiment, there are video files that cannot be generated depending on the order of priority. How to generate a video file for 10 minutes will be explained. Components and steps having the same functions as those of Embodiments 1 and 2 are denoted by the same reference numerals, and descriptions of components that are structurally and functionally the same are omitted.

図11は図10のカラーパレット管理情報にエンコードする際の解像度とフレームレートを付加した表である。優先度1のカラーパレットを使用してエンコードする場合は、ユーザが所望している解像度とフレームレートで動画データを生成し、優先度1以外のカラーパレットを使用してエンコードする場合は、全てのカラーパレットを使用した動画ファイルを生成することが可能となるまで、解像度とフレームレートを低減する。この場合の解像度とフレームレートは、実施形態2と同様にエンコード処理性能と記録メディア等への書き込み速度によって決定できることとする。 FIG. 11 is a table in which resolutions and frame rates for encoding are added to the color palette management information of FIG. When encoding using a color palette with priority 1, the video data is generated at the resolution and frame rate desired by the user, and when encoding using a color palette other than priority 1, all Reduce the resolution and frame rate until you can generate a video file using the color palette. The resolution and frame rate in this case can be determined by the encoding processing performance and the writing speed to the recording medium or the like, as in the second embodiment.

以上のとおり本実施形態によれば、エンコードの負荷とファイル書き込みデータ量を低減できるため、全カラーパレット分の動画ファイルを生成することが可能となる。 As described above, according to this embodiment, it is possible to reduce the load of encoding and the amount of file writing data, so that it is possible to generate moving image files for all color palettes.

<<実施形態4>>
監視用途のネットワークカメラでは、カメラ内に記録可能な画像データ量に上限があるため、できるだけ効率的に画像データを記録できることが望ましい。
<<Embodiment 4>>
Since network cameras for surveillance have an upper limit to the amount of image data that can be recorded in the camera, it is desirable to be able to record image data as efficiently as possible.

本実施形態では、実施形態1の映像記録方法において、カメラの動体検知機能を利用して効率的に画像データを保存し、また別々に保存している動画データと同期して再生する方法について説明する。なお、実施形態1~3と同一機能を有する構成や工程には同一符号を付すとともに、構成的、機能的にかわらないものについてはその説明を省略する。 In this embodiment, in the video recording method of Embodiment 1, a method of efficiently saving image data by using the moving body detection function of the camera and reproducing it in synchronization with separately saved moving image data will be described. do. Components and steps having the same functions as those of Embodiments 1 to 3 are denoted by the same reference numerals, and descriptions of components that are structurally and functionally the same are omitted.

実施形態1で複数の動画ファイルを保存する場合、保存した画像に変化が無い場合を含む可能性があるため、カメラの動体検知機能(不図示)を利用し、動体が存在している場合のみ複数の動画ファイルを保存することで、画像データ量を低減することができる。CPU102が動体検知機能は前後するフレーム画像(赤外光画像)間の差分や、事前に取得した背景画像(赤外光画像)と現フレーム画像(赤外光画像)間の差分を取得し、差分領域が所定の大きさ以上であれば動体として検知する。 When saving multiple video files in Embodiment 1, there is a possibility that there is no change in the saved images. By saving a plurality of moving image files, the amount of image data can be reduced. The moving body detection function of the CPU 102 acquires the difference between the preceding and succeeding frame images (infrared light images) and the difference between the previously acquired background image (infrared light image) and the current frame image (infrared light image), If the difference area is equal to or larger than a predetermined size, it is detected as a moving object.

図12は本実施形態における動画データを保存するタイミングを時系列に表した図である。実施形態2における優先度1のカラーパレットを用いた動画については常時記録を行い、優先度1を除いた他のカラーパレットを用いた動画については、動体検知機能による録画開始イベントが発生したことをトリガとして記録を開始する。動体を検出しなくなったタイミングで保存動作を終了する。 FIG. 12 is a diagram showing in chronological order timings for saving moving image data in this embodiment. A moving image using a color palette with priority 1 in the second embodiment is always recorded, and a moving object detection function detects the occurrence of a recording start event for moving images using color palettes other than priority 1. Start recording as a trigger. The save operation ends when the moving object is no longer detected.

カラーパレットの優先度による動画ファイルの記録方法として、実施形態2及び実施形態3の方法を併せて用いても良い。 The methods of Embodiments 2 and 3 may be used together as a moving image file recording method based on the priority of the color palette.

以上のとおり本実施形態によれば、記録メディアに保存するデータ量を低減できるため、容量不足による撮り逃しを減らすことが可能となる。 As described above, according to the present embodiment, it is possible to reduce the amount of data to be stored in the recording medium, so it is possible to reduce missed shots due to insufficient capacity.

<<その他の実施形態>>
ネットワークカメラを含むシステムでは、配信先のクライアント装置で動作するビューワアプリケーション(以降ビューワ)で映像データを再生する方法が一般的である。
本実施形態では、インデックス画像データの再生とカラーパレットの切替えをクライアント装置で実現する方法について説明する。
<<other embodiments>>
In a system including a network camera, it is common to reproduce video data using a viewer application (hereinafter referred to as a viewer) that operates on a client device of a delivery destination.
In the present embodiment, a method of realizing reproduction of index image data and switching of color palettes in a client device will be described.

図13を参照して、本実施形態における撮像装置1301とクライアント装置1302の各部構成と機能について説明する。なお、実施形態1~3と同一機能を有する構成や工程には同一符号を付すとともに、構成的、機能的にかわらないものについてはその説明を省略する。 Referring to FIG. 13, the configurations and functions of the imaging device 1301 and the client device 1302 according to this embodiment will be described. Components and steps having the same functions as those of Embodiments 1 to 3 are denoted by the same reference numerals, and descriptions of components that are structurally and functionally the same are omitted.

実施形態1と同様に、データ補正部1311では、センサーから受け取った情報からカラーパレットを参照するためのインデックス値へ変換する。データ送信部1315はデータ補正部1311からインデックス値に変換した画像データを受け取り、PNGファイル等の形式で記憶しておく。また機能設定部1316で設定可能な複数カラーパレットのテーブル情報も記憶しておく。 As in the first embodiment, the data correction unit 1311 converts the information received from the sensor into an index value for referring to the color palette. A data transmission unit 1315 receives image data converted into index values from the data correction unit 1311 and stores the image data in a format such as a PNG file. Table information of a plurality of color palettes that can be set by the function setting unit 1316 is also stored.

データ受信部1324は、予めデータ送信部1315からカラーパレットのテーブル情報を受け取り、クライアント装置1302の内部に記憶しておく。クライアント装置1302の機能設定部1325では、ユーザが画像表示に使用するカラーパレットを選択することが可能である。 The data receiving unit 1324 receives color palette table information from the data transmitting unit 1315 in advance and stores it inside the client device 1302 . A function setting unit 1325 of the client device 1302 allows the user to select a color palette to be used for image display.

撮像装置1301からクライアント装置1302へ配信する動画データは、撮像装置1301の画像生成部1312、エンコーダ1313、映像伝送部1314の順番で処理され、ネットワークを介してクライアント装置1302へ伝送される。デコーダ1321では受信した圧縮された動画データを再生可能な映像データに伸長し、映像表示部1322へ送信する。映像表示部1322はビューワ画面上に映像を表示する。 Moving image data distributed from the imaging device 1301 to the client device 1302 is processed in the order of the image generation unit 1312, the encoder 1313, and the video transmission unit 1314 of the imaging device 1301, and transmitted to the client device 1302 via the network. The decoder 1321 decompresses the received compressed video data into reproducible video data, and transmits the video data to the video display unit 1322 . A video display unit 1322 displays a video on the viewer screen.

次にクライアント装置1302において、インデックス画像データを再生する方法について説明する。 Next, a method for reproducing index image data in the client device 1302 will be described.

クライアント装置1302のデータ受信部1324は、撮像装置1301のデータ送信部1315から、PNGファイルなどの形式で記憶しているインデックス画像データを受け取る。データ受け渡し方法として、HTTPやFTPなどのデータ伝送プロトコルを用いることが一般的である。 A data receiving unit 1324 of the client device 1302 receives index image data stored in a format such as a PNG file from the data transmitting unit 1315 of the imaging device 1301 . Data transmission protocols such as HTTP and FTP are generally used as a data transfer method.

クライアント装置1302の画像生成部1323では、画像のインデックス値を用いてカラーパレット中の色情報に変換した画像データを生成し、映像表示部1322へ送信する。映像表示部1322はビューワ画面上に画像データを表示する。 The image generation unit 1323 of the client device 1302 generates image data converted into color information in the color palette using the image index value, and transmits the image data to the video display unit 1322 . A video display unit 1322 displays image data on the viewer screen.

以上、説明したとおり、本実施形態によれば、赤外光カメラで撮像した画像を再生する場合に、クライアント装置側でユーザが任意のカラーパレットを指定して再生することができ、映像の視認性が向上する。また実施形態2及び実施形態3で示した方法を、本実施形態で示した構成に適用することも可能である。 As described above, according to the present embodiment, when reproducing an image captured by an infrared camera, the user can specify an arbitrary color palette and reproduce the image on the client device side. improve sexuality. It is also possible to apply the methods shown in Embodiments 2 and 3 to the configuration shown in this embodiment.

また、上述の実施形態では、画像生成部602が、インデックス画像データをビット深度が8ビットのRGB画像データに変換する例について説明しているが、他の表示用色空間の画像データや10ビットなど他のビット深度の画像データに変換してもよい。 In the above-described embodiment, the image generation unit 602 converts index image data into RGB image data with a bit depth of 8 bits. You may convert into image data of other bit depths, such as.

上述の実施形態は、1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読み出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。 In the above-described embodiments, a program that implements one or more functions is supplied to a system or device via a network or a storage medium, and one or more processors in the computer of the system or device read and execute the program. It is feasible. It can also be implemented by a circuit (for example, ASIC) that implements one or more functions.

100 ネットワークカメラ
110 クライアント装置
120 ネットワーク
100 network camera 110 client device 120 network

Claims (19)

赤外光撮像手段と、
複数のカラーパレットを保持する保持手段と、
前記赤外光撮像手段によって得られた赤外光画像について、前記保持手段により保持している複数のカラーパレットの其々を参照することで生成した複数の動画ファイルを関連付けて出力する出力手段と
を有することを特徴とする撮像装置。
an infrared light imaging means;
holding means for holding a plurality of color palettes;
output means for associating and outputting a plurality of moving image files generated by referring to each of the plurality of color palettes held by the holding means for the infrared light image obtained by the infrared light imaging means; An imaging device characterized by comprising:
前記出力手段により出力される動画像を記録メディアに記録する記録手段を更に備えることを特徴とする請求項1に記載の撮像装置。 2. The imaging apparatus according to claim 1, further comprising recording means for recording the moving image output by said output means on a recording medium. 前記保持手段はカラーパレット毎の優先順位を更に保持し、前記出力手段は前記保持手段の保持している優先順位の高い順に所定数までの動画ファイルを出力することを特徴とする請求項1または2に記載の撮像装置。 2. The holding means further holds a priority order for each color palette, and the output means outputs up to a predetermined number of moving image files in descending order of priority held by the holding means. 3. The imaging device according to 2. 前記保持手段はカラーパレットと符号化に用いるパラメータとを関連づけて保持し、
前記出力手段は前記パラメータを用いて符号化した動画ファイルを出力することを特徴とする請求項1乃至3のいずれか1項に記載の撮像装置。
The holding means holds the color palette and the parameters used for encoding in association with each other,
4. The imaging apparatus according to any one of claims 1 to 3, wherein said output means outputs a moving image file encoded using said parameters.
前記赤外光撮像手段によって撮像された赤外光画像から動体を検出する検知手段を更に備え、前記出力手段は、前記検知手段により動体を検知していない場合でも第1のカラーパレットを参照して動画ファイルを出力し、前記検知手段により動体を検知している場合は前記第1のカラーパレットと第2のカラーパレットを参照して複数の動画ファイルを出力することを特徴とする請求項1乃至4のいずれか1項に記載の撮像装置。 Further provided is detection means for detecting a moving object from the infrared light image captured by the infrared light imaging means, and the output means refers to the first color palette even when the detection means does not detect the moving object. and outputting a plurality of moving image files by referring to the first color palette and the second color palette when a moving object is detected by the detecting means. 5. The imaging device according to any one of items 1 to 4. 前記出力手段は、前記赤外光撮像手段によって得られた赤外光画像についてカラーパレットを用いて表示用画像データに変換する変換手段を備えることを特徴とする請求項1乃至5のいずれか1項に記載の撮像装置。 6. The output means according to any one of claims 1 to 5, wherein said output means comprises conversion means for converting the infrared light image obtained by said infrared light imaging means into image data for display using a color palette. 10. The image pickup device according to claim 1. 前記複数のカラーパレットはモノクロ表示用のカラーパレットを含むことを特徴とする請求項1乃至6のいずれか1項に記載の撮像装置。 7. The imaging apparatus according to claim 1, wherein said plurality of color palettes include a color palette for monochrome display. 前記複数のカラーパレットはカラー表示用のカラーパレットを含むことを特徴とする請求項1乃至7のいずれか1項に記載の撮像装置。 8. The imaging apparatus according to claim 1, wherein said plurality of color palettes include a color palette for color display. 前記赤外光画像は、PNG形式の画像であることを特徴とする請求項1乃至8のいずれか1項に記載の撮像装置。 9. The imaging device according to any one of claims 1 to 8, wherein the infrared light image is an image in PNG format. 赤外光撮像手段と、複数のカラーパレットを保持する保持手段と、を備える撮像装置の制御方法であって、
前記赤外光撮像手段によって得られた赤外光画像について、前記保持手段により保持している複数のカラーパレットの其々を参照することで生成した複数の動画ファイルを関連付けて出力する出力工程を有することを特徴とする撮像装置の制御方法。
A control method for an imaging device comprising infrared light imaging means and holding means for holding a plurality of color palettes,
an output step of correlating and outputting a plurality of moving image files generated by referring to each of the plurality of color palettes held by the holding means for the infrared light image obtained by the infrared light imaging means; A control method for an imaging device, comprising:
前記出力工程で出力される動画像を記録メディアに記録する記録工程を更に備えることを特徴とする請求項10に記載の制御方法。 11. The control method according to claim 10, further comprising a recording step of recording the moving image output in said output step onto a recording medium. 前記保持手段はカラーパレット毎の優先順位を更に保持し、前記出力工程では前記保持手段の保持している優先順位の高い順に所定数までの動画ファイルを出力することを特徴とする請求項10または11に記載の制御方法。 11. The holding means further holds a priority order for each color palette, and in the output step, up to a predetermined number of moving image files are output in descending order of priority held by the holding means. 11. The control method according to 11. 前記保持手段はカラーパレットと符号化に用いるパラメータとを関連づけて保持し、
前記出力工程は前記パラメータを用いて符号化した動画ファイルを出力することを特徴とする請求項10乃至12のいずれか1項に記載の制御方法。
The holding means holds the color palette and the parameters used for encoding in association with each other,
13. The control method according to any one of claims 10 to 12, wherein said output step outputs a moving image file encoded using said parameters.
前記赤外光撮像手段によって撮像された赤外光画像から動体を検出する検知工程を更に備え、前記出力工程は、前記検知工程において動体を検知していない場合でも第1のカラーパレットを参照して動画ファイルを出力し、前記検知工程において動体を検知している場合は前記第1のカラーパレットと第2のカラーパレットとを参照して複数の動画ファイルを出力することを特徴とする請求項10乃至13のいずれか1項に記載の制御方法。 Further comprising a detecting step of detecting a moving object from the infrared light image captured by the infrared light imaging means, wherein the outputting step refers to the first color palette even when the moving object is not detected in the detecting step. and outputting a moving image file, and outputting a plurality of moving image files by referring to the first color palette and the second color palette when a moving object is detected in the detecting step. 14. The control method according to any one of 10 to 13. 前記出力工程は、前記赤外光撮像手段によって得られた赤外光画像についてカラーパレットを用いて表示用画像データに変換する変換工程を備えることを特徴とする請求項10乃至14のいずれか1項に記載の制御方法。 15. The outputting step comprises a conversion step of converting the infrared light image obtained by the infrared light imaging means into image data for display using a color palette. The control method described in the item. 前記複数のカラーパレットはモノクロ表示用のカラーパレットを含むことを特徴とする請求項10乃至15のいずれか1項に記載の制御方法。 16. The control method according to any one of claims 10 to 15, wherein said plurality of color palettes includes a color palette for monochrome display. 前記複数のカラーパレットはカラー表示用のカラーパレットを含むことを特徴とする請求項10乃至16のいずれか1項に記載の制御方法。 17. The control method according to any one of claims 10 to 16, wherein said plurality of color palettes includes a color palette for color display. 前記赤外光画像は、PNG形式の画像であることを特徴とする請求項10乃至17のいずれか1項に記載の制御方法。 18. The control method according to any one of claims 10 to 17, wherein said infrared light image is a PNG format image. 赤外光撮像手段と、複数のカラーパレットを保持する保持手段と、を有するコンピュータを、
前記赤外光撮像手段によって得られた赤外光画像について、前記保持手段により保持している複数のカラーパレットの其々を参照することで生成した複数の動画ファイルを関連付けて出力する出力手段として
機能させることを特徴とするプログラム。
a computer having infrared light imaging means and holding means for holding a plurality of color palettes,
As an output means for associating and outputting a plurality of moving image files generated by referring to each of the plurality of color palettes held by the holding means for the infrared light image obtained by the infrared light imaging means A program characterized by functioning.
JP2018142031A 2018-05-31 2018-07-30 IMAGING DEVICE, IMAGING DEVICE CONTROL METHOD AND PROGRAM Active JP7114387B2 (en)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2018142031A JP7114387B2 (en) 2018-07-30 2018-07-30 IMAGING DEVICE, IMAGING DEVICE CONTROL METHOD AND PROGRAM
US16/418,648 US10965925B2 (en) 2018-05-31 2019-05-21 Image capturing apparatus, client apparatus, control method, and storage medium
EP19175680.8A EP3576406A1 (en) 2018-05-31 2019-05-21 Image capturing apparatus, control method, program, and storage medium
CN201910457406.5A CN110557532B (en) 2018-05-31 2019-05-29 Imaging apparatus, client apparatus, and control method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018142031A JP7114387B2 (en) 2018-07-30 2018-07-30 IMAGING DEVICE, IMAGING DEVICE CONTROL METHOD AND PROGRAM

Publications (2)

Publication Number Publication Date
JP2020021973A JP2020021973A (en) 2020-02-06
JP7114387B2 true JP7114387B2 (en) 2022-08-08

Family

ID=69589994

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018142031A Active JP7114387B2 (en) 2018-05-31 2018-07-30 IMAGING DEVICE, IMAGING DEVICE CONTROL METHOD AND PROGRAM

Country Status (1)

Country Link
JP (1) JP7114387B2 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001249051A (en) 2000-03-03 2001-09-14 Fujitsu Ltd Infrared imaging apparatus
US20160080664A1 (en) 2014-09-12 2016-03-17 Seek Thermal, Inc. Selective color display of a thermal image
JP2017046349A (en) 2015-08-27 2017-03-02 フルークコーポレイションFluke Corporation System for combining visible light image data and infrared image data, thermal imaging camera, and computer-readable storage medium storing instructions for implementing method of enhancing infrared images
JP2018509632A (en) 2015-03-22 2018-04-05 フェイスブック,インク. Depth mapping on a head-mounted display using stereo camera and structured light

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08226853A (en) * 1995-02-22 1996-09-03 Nippon Avionics Co Ltd Infrared thermal image apparatus

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001249051A (en) 2000-03-03 2001-09-14 Fujitsu Ltd Infrared imaging apparatus
US20160080664A1 (en) 2014-09-12 2016-03-17 Seek Thermal, Inc. Selective color display of a thermal image
JP2018509632A (en) 2015-03-22 2018-04-05 フェイスブック,インク. Depth mapping on a head-mounted display using stereo camera and structured light
JP2017046349A (en) 2015-08-27 2017-03-02 フルークコーポレイションFluke Corporation System for combining visible light image data and infrared image data, thermal imaging camera, and computer-readable storage medium storing instructions for implementing method of enhancing infrared images

Also Published As

Publication number Publication date
JP2020021973A (en) 2020-02-06

Similar Documents

Publication Publication Date Title
US8941744B2 (en) Image sensors for establishing an image sharpness value
US9961272B2 (en) Image capturing apparatus and method of controlling the same
US20070132878A1 (en) Digital camera system
JP2007053537A (en) Imaging apparatus
JP4881210B2 (en) Imaging apparatus, image processing apparatus, and control method thereof
WO2016008359A1 (en) Object movement track image synthesizing method, device and computer storage medium
JP4533287B2 (en) Color processing method and apparatus
US10600170B2 (en) Method and device for producing a digital image
KR20140112623A (en) Apparatus for displaying thumbnail image and method thereof
US10965925B2 (en) Image capturing apparatus, client apparatus, control method, and storage medium
CN104980631A (en) Image Pickup Apparatus Generating Focus Changeable Image, Control Method For Image Pickup Apparatus, And Storage Medium
KR101110725B1 (en) Candidate image presenting method using thumbnail image and image signal processing device and imaging device performing the same
US20090303332A1 (en) System and method for obtaining image of maximum clarity
JP7114387B2 (en) IMAGING DEVICE, IMAGING DEVICE CONTROL METHOD AND PROGRAM
JP6417752B2 (en) Network camera system, information processing method, program
JP2007097032A (en) Image display apparatus, image display method and digital camera
JP6210772B2 (en) Information processing apparatus, imaging apparatus, control method, and program
TW201143381A (en) Digital camera with upload function
JP7277082B2 (en) IMAGING DEVICE, CLIENT DEVICE, CONTROL METHOD AND PROGRAM
JPH03230691A (en) Digital electronic still camera
US7466321B2 (en) Method and apparatus for the creation of cartoon effect videos
JP5195317B2 (en) Camera device, photographing method, and photographing control program
JP2005109757A (en) Picture imaging apparatus, picture processing apparatus, picture imaging method, and program
JP5293422B2 (en) Image specifying device and image specifying program
JP4750634B2 (en) Image processing system, image processing apparatus, information processing apparatus, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210714

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220609

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220628

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220727

R151 Written notification of patent or utility model registration

Ref document number: 7114387

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151