JP2006197098A - Image transmission system of network camera - Google Patents

Image transmission system of network camera Download PDF

Info

Publication number
JP2006197098A
JP2006197098A JP2005005186A JP2005005186A JP2006197098A JP 2006197098 A JP2006197098 A JP 2006197098A JP 2005005186 A JP2005005186 A JP 2005005186A JP 2005005186 A JP2005005186 A JP 2005005186A JP 2006197098 A JP2006197098 A JP 2006197098A
Authority
JP
Japan
Prior art keywords
data
video
image
angle
camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2005005186A
Other languages
Japanese (ja)
Inventor
Shinichi Matsumoto
真一 松本
Shinichi Sunakawa
伸一 砂川
Kiyoshi Iwabuchi
清 岩渕
Masaru Okazaki
大 岡▼崎▲
Hiroshi Yamura
太史 八村
Toshiyuki Fukui
俊之 福井
Yoshinobu Nagamasa
佳伸 長政
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2005005186A priority Critical patent/JP2006197098A/en
Publication of JP2006197098A publication Critical patent/JP2006197098A/en
Withdrawn legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To reduce the amount of communication data and to lighten an encoding/decoding processing load in a system comprising a network camera simultaneously distributing two video streams of video with a view angle for photography and wide-angle video and a viewer where those video streams are superposed and displayed one over the other. <P>SOLUTION: When superposition display is performed, encoding processing is carried out while a region of a wide-angle video region which is hidden behind photographic view-angle video is replaced with image data painted out in one color and the resulting data are outputted as wide-angle video data. The replacing monochromatic image data has values closest to the luminance and color difference data of a peripheral image in the object region. Further, the monochromatic image data replacing the region according to peripheral image data are updated each time for each frame of the video. <P>COPYRIGHT: (C)2006,JPO&NCIPI

Description

本発明は、ネットワークに接続されたカメラの映像を遠隔地から監視したり撮影することが可能なネットワークカメラにおける画像データの伝送方式に関するものである。   The present invention relates to a transmission method of image data in a network camera capable of monitoring or photographing a video of a camera connected to a network from a remote place.

従来、ネットワークに接続されたカメラを遠隔地から操作し撮影する場合、カメラが設置されている場所が離れていて被写体の周囲の状況を直接見ることができないため、リモート制御によるパンニング操作等で被写体を探したり追尾することが困難であった。これを解決するために、撮影のための映像画角に加えて、その周囲の映像を見るための広角映像を同時配信するようなカメラも実現されている(例えば、特許文献1〜3)。   Conventionally, when a camera connected to a network is operated and photographed from a remote location, the location where the camera is installed is far away and the situation around the subject cannot be seen directly. It was difficult to find and track. In order to solve this, a camera that simultaneously distributes a wide-angle video for viewing surrounding video in addition to a video angle of view for photographing has been realized (for example, Patent Documents 1 to 3).

一方、カメラの遠隔操作を行うためのビューワにおいては、2つの映像ストリームを同時に表示する表示形態として、広角映像に撮影画角映像ウインドウを重ね合わせて表示する、いわゆるピクチャインピクチャ表示が良く用いられている。このピクチャインピクチャ表示において、重なり合う画像データのうち非表示の部分を切り出して、必要なデータのみを符号化して送信することにより符号化、復号化処理に掛かる時間を短縮するという方式(例えば、特許文献4)が提案されている。   On the other hand, in a viewer for remote control of a camera, a so-called picture-in-picture display in which a shooting angle-of-view video window is displayed superimposed on a wide-angle video is often used as a display mode for simultaneously displaying two video streams. ing. In this picture-in-picture display, a non-displayed portion is cut out from overlapping image data, and only necessary data is encoded and transmitted to shorten the time required for encoding and decoding processing (for example, patents) Document 4) has been proposed.

特開平8−275043号公報JP-A-8-275043 特開平8−275044号公報JP-A-8-275044 特開平9−037135号公報Japanese Patent Laid-Open No. 9-037135 特開平8−032944号公報JP-A-8-032944

撮影画角映像と広角映像の2つのストリームを配信するネットワークカメラから構成されるシステムにおいては、2つのストリームを同時に配信した場合、ネットワーク上を流れるデータ量が増加するので、限られた通信帯域で伝送するのが困難になってしまうという課題がある。   In a system consisting of a network camera that delivers two streams of shooting angle-of-view video and wide-angle video, if two streams are delivered at the same time, the amount of data flowing over the network increases. There is a problem that it becomes difficult to transmit.

これに対して、通信帯域を更に広げるためには新たな設備の導入が必要であり、又、それぞれの映像データの符号化における圧縮率を高くすると、その分、映像の品質が低下してしまうという問題もある。   On the other hand, in order to further widen the communication band, it is necessary to introduce new equipment, and when the compression rate in encoding each video data is increased, the quality of the video is reduced accordingly. There is also a problem.

特許文献1で示した方式では、任意の形状で切り出すためには形状情報も含めて符号化処理を行わなければならず、その分の符号化データが増加し、更に符号化・復号化処理が煩雑になるという問題がある。更に、符号化の単位は通常マクロブロック(例えば、16×16ドット)ごとに行われるので、切り出しの精度が制限されてしまうという問題もある。   In the method shown in Patent Document 1, in order to cut out in an arbitrary shape, it is necessary to perform an encoding process including shape information, and the encoded data increases accordingly, and further an encoding / decoding process is performed. There is a problem that it becomes complicated. Furthermore, since the encoding unit is normally performed for each macroblock (for example, 16 × 16 dots), there is a problem that the accuracy of clipping is limited.

本発明は上記問題に鑑みてなされたもので、その目的とする処は、撮影画角映像と広角映像2つの映像ストリームを同時に配信するネットワークカメラと、それぞれの映像ストリームを重ね合わせ表示するビューワとで構成されるシステムにおいて、通信データ量の削減と符号化・復号化処理負荷の低減を図ることを目的としている。   The present invention has been made in view of the above problems, and the object of the present invention is a network camera that simultaneously delivers two video streams of a shooting angle of view video and a wide-angle video, and a viewer that superimposes and displays each video stream. The purpose of this system is to reduce the amount of communication data and the encoding / decoding processing load.

上記課題を解決するために、本発明は、重ね合わせ表示を行ったときに、広角映像領域のうち撮影画角映像に隠れる領域を単色で塗り潰した画像データに置き換えて符号化処理を行い、広角映像データとして送信するような構成とした。   In order to solve the above-described problem, the present invention performs encoding processing by replacing an area hidden in a photographic angle-of-view image in a wide-angle video area with image data filled with a single color when superimposed display is performed. The configuration is such that it is transmitted as video data.

又、置き換える単色画像データは、対象となる領域の周辺画像の輝度、色差データに最も近い値とするような構成とした。   The single-color image data to be replaced is set to a value closest to the luminance and color difference data of the peripheral image of the target area.

又、周辺画像データに合わせて置き換える単色画像データは、映像のフレームごとに毎回更新するような構成とした。   The monochrome image data to be replaced in accordance with the peripheral image data is updated every frame of the video.

又、周辺画像データに合わせて置き換える単色画像データは、重ね合わせ領域の位置や大きさや形が変化した場合にのみ更新するような構成とした。   Further, the monochromatic image data to be replaced in accordance with the peripheral image data is configured to be updated only when the position, size, or shape of the overlapping area is changed.

又、周辺画像データに合わせて置き換える単色画像データは、符号化におけるイントラフレームごとに更新するような構成とした。   Further, the monochrome image data to be replaced in accordance with the peripheral image data is configured to be updated for each intra frame in encoding.

上記手段より、単色で塗り潰した領域は、空間的、時間的な冗長性が大きくなるので、符号化効率が良くなり、動画像全体の符号化量を削減することができる。又、塗り潰し色を周辺画像のデータ値に最も近い値とすることにより、塗り潰す領域と元画像との境界部分の不連続性が小さくなるので、更に画像全体の符号化効率を上げることができる。   By the above means, the area filled with a single color has increased spatial and temporal redundancy, so that the coding efficiency is improved and the coding amount of the entire moving image can be reduced. In addition, by setting the fill color to the value closest to the data value of the surrounding image, the discontinuity at the boundary between the area to be filled and the original image is reduced, so that the coding efficiency of the entire image can be further increased. .

本発明によれば、撮影画角映像と広角映像2つの映像ストリームを同時に配信するネットワークカメラと、それぞれの映像ストリームを重ね合わせ表示するビューワとで構成されるシステムにおいて、重ね合わせ表示を行ったときに、広角映像領域のうち撮影画角映像に隠れる領域を単色で塗り潰した画像データに置き換えて符号化処理を行い、広角映像データとして送信することによって、符号化効率が良くなり、動画像全体の符号化量を削減することができるため、帯域幅の狭い通信路でも高画質の映像データの送受信ができるという効果が得られる。又、一般的な符号化方式で圧縮、
伸長処理が行えるので、システムに余分な処理負荷が掛からないという効果もある。
According to the present invention, when overlay display is performed in a system including a network camera that simultaneously delivers two video streams of a shooting angle of view video and a wide-angle video and a viewer that overlays and displays each video stream. In addition, the encoding process is performed by replacing the area hidden in the shooting angle-of-view image in the wide-angle video area with the image data filled with a single color, and transmitting as wide-angle video data, the encoding efficiency is improved, and the entire moving image is Since the amount of encoding can be reduced, an effect that high-quality video data can be transmitted and received even on a communication path with a narrow bandwidth can be obtained. In addition, compression with a general coding system,
Since the decompression process can be performed, there is an effect that an extra processing load is not applied to the system.

更に、重ね合わせ領域の変更操作から、広角映像が更新されるまでの間は、塗り潰し無しの映像で補完する処理を行うことにより、ネットワークの遅延があっても、良好な広角映像を表示することができるので、操作性が向上するという効果も得られる。   Furthermore, during the period from when the overlapping area is changed to when the wide-angle video is updated, a good wide-angle video can be displayed even if there is a network delay by performing a process that complements the video without filling. Therefore, the operability can be improved.

以下、図に基づき、本発明によるネットワークカメラとビューワで構成されるシステムの実施の形態を説明する。   Hereinafter, an embodiment of a system constituted by a network camera and a viewer according to the present invention will be described with reference to the drawings.

<実施の形態1>
図1は本発明の実施の形態1に係るネットワークカメラの概略構成を示すブロック図である。
<Embodiment 1>
FIG. 1 is a block diagram showing a schematic configuration of a network camera according to Embodiment 1 of the present invention.

図1において、101は広角映像を撮影するためのカメラユニットである広角カメラ部を示しており、この広角カメラ部101には、レンズ群1(102)、CCD1(103)、CCDコントロール部1(104)、画像処理部1(105)が含まれている。レンズ群102は被写体像を光学的にCCD102へ投影するために複数枚のレンズで構成されており広角に被写体を撮像できる特性を持っている。   In FIG. 1, reference numeral 101 denotes a wide-angle camera unit that is a camera unit for taking a wide-angle image. The wide-angle camera unit 101 includes a lens group 1 (102), a CCD 1 (103), and a CCD control unit 1 ( 104) and an image processing unit 1 (105). The lens group 102 is composed of a plurality of lenses for optically projecting a subject image onto the CCD 102, and has a characteristic of capturing a subject at a wide angle.

CCD(光電変換素子)103は、レンズ群102によって投影された撮影画像をアナログ電気信号に変換するための素子であり、VGAサイズ(640×480ドット)の画素数を持っており、30フレーム/秒の速度でデータを読み出すことができる。CCDコントロール部104は、CCD103に転送クロック信号やシャッター信号を供給するためのタイミングジェネレータ、CCD出力信号のノイズ除去、ゲイン処理を行うための回路、更に、アナログ信号を10ビットデジタル信号に変換するためのA/D変換回路等を含んでいる。   A CCD (photoelectric conversion element) 103 is an element for converting a captured image projected by the lens group 102 into an analog electric signal, has a VGA size (640 × 480 dots) pixel number, and has 30 frames / frame. Data can be read at a rate of seconds. The CCD control unit 104 is a timing generator for supplying a transfer clock signal and a shutter signal to the CCD 103, a circuit for performing noise removal and gain processing of the CCD output signal, and for converting an analog signal into a 10-bit digital signal. A / D conversion circuit and the like.

又、画像処理部105は、CCDコントロール部104より出力された10ビットデジタル信号をガンマ変換、色空間変換、又、ホワイトバランス、AE、フラッシュ補正等の画像処理を行い、YUV(4:2:2)フォーマットの8ビットデジタル信号出力を行うものである。この広角映像は、VGAサイズ(640×480ドット)の画素数で、30フレーム/秒の周期で出力している。   The image processing unit 105 performs image processing such as gamma conversion, color space conversion, white balance, AE, and flash correction on the 10-bit digital signal output from the CCD control unit 104, and performs YUV (4: 2: 2) An 8-bit digital signal is output in the format. This wide-angle video image is output at a cycle of 30 frames / second with the number of pixels of VGA size (640 × 480 dots).

106は希望する画角で撮影するためのカメラユニットである撮影画角カメラ部を示している。この撮影画角カメラ部106には広角カメラ部101と同様に、レンズ群2(107)、CCD2(108)、CCDコントロール部2(109)、画像処理部2(110)に加えて、撮影方向を移動させるパン、チルト動作のための制御モータ117が含まれている。レンズ群107は通常画角で撮影できる特性を持つズームレンズとして構成されている。   Reference numeral 106 denotes a shooting angle of view camera unit which is a camera unit for shooting at a desired angle of view. As with the wide-angle camera unit 101, the shooting angle-of-view camera unit 106 includes a lens group 2 (107), a CCD 2 (108), a CCD control unit 2 (109), and an image processing unit 2 (110), as well as a shooting direction. A control motor 117 for panning and tilting movement is included. The lens group 107 is configured as a zoom lens having characteristics that allow photographing at a normal angle of view.

又、CCD108はUXGAサイズ(1600×1200)の画素数を持っており、UXGAサイズの読み出しとVGAサイズを30フレーム/秒での読み出しが可能である。CCDコントロール部109、画像処理部110は広角カメラ部101の各ブロックと同様の動作を行うものである。撮影画角映像も同様に通常はVGAサイズで30フレーム/秒の周期で出力されているが、静止画キャプチャ制御が行われるとこれに呼応してUXGAサイズの画像データを1フレーム出力する。パン・チルト制御モータ117は、カメラユニットを水平方向に回転させるためのモータと垂直方向に回転させるためのモータの2つのモータ及びそれぞれの駆動回路で構成されている。   The CCD 108 has a pixel number of UXGA size (1600 × 1200), and can read out the UXGA size and read out the VGA size at 30 frames / second. The CCD control unit 109 and the image processing unit 110 perform the same operation as each block of the wide-angle camera unit 101. Similarly, the shooting angle-of-view video is normally output in a cycle of 30 frames / second in VGA size, but when still image capture control is performed, one frame of UXGA size image data is output in response to this. The pan / tilt control motor 117 includes two motors, that is, a motor for rotating the camera unit in the horizontal direction and a motor for rotating the camera unit in the vertical direction, and respective drive circuits.

以上のように、本発明のネットワークカメラにはそれぞれ異なった画角で撮影が可能な2つのカメラユニットが搭載されている。これらのカメラユニットは、バス118に接続されており、このバス118を経由してそれぞれのカメラで撮影された画像データが伝送され、他の処理ブロックに受け渡される。バス118には、静止画符号化部111、動画符号化部112、CPU(中央演算処理装置)113、通信インターフェース部114、ROM(リードオンリーメモリ)115、RAM(ランダムアクセスメモリ)116がそれぞれ接続されている。   As described above, the network camera of the present invention is equipped with two camera units that can shoot at different angles of view. These camera units are connected to a bus 118, and image data captured by each camera is transmitted via the bus 118 and transferred to other processing blocks. Connected to the bus 118 are a still image encoding unit 111, a moving image encoding unit 112, a CPU (Central Processing Unit) 113, a communication interface unit 114, a ROM (Read Only Memory) 115, and a RAM (Random Access Memory) 116, respectively. Has been.

静止画符号化部111は、JPEG符号化を行うための処理ブロックであり、静止画キャプチャ制御によって撮影画角カメラ部106からバス118を経由して受け渡されたUXGAサイズのYUVフォーマットデータを、静止画像としてJPEGフォーマットに圧縮符号化を行う。符号化された静止画像データは、同様にバス118を経由してRAM116中の後述する符号化データ一時保存エリア116cに一時的に蓄積される。   The still image encoding unit 111 is a processing block for performing JPEG encoding. The UXGA size YUV format data passed from the shooting angle-of-view camera unit 106 via the bus 118 by still image capture control, Compress and encode into a JPEG format as a still image. Similarly, the encoded still image data is temporarily stored in a later-described encoded data temporary storage area 116c in the RAM 116 via the bus 118.

又、動画符号化部112は、MPEG4符号化を行うための処理ブロックであり、広角カメラ部101からバス118を経由して受け渡されたVGAサイズのYUVフォーマットデータを、30フレーム/秒のフレームレートでMPEG4フォーマットに圧縮符号化を行う。同様に、撮影画角カメラ部106から受け渡されたVGAサイズのデータに対しても圧縮符号化を行う。これらの符号化データは、フレームごとにRAM116中の符号化データ一時保存エリア116cに一時的に蓄積される。   The moving image encoding unit 112 is a processing block for performing MPEG4 encoding. The VGA size YUV format data transferred from the wide-angle camera unit 101 via the bus 118 is converted into a frame of 30 frames / second. Perform compression encoding to MPEG4 format at the rate. Similarly, compression encoding is performed on VGA size data transferred from the shooting angle of view camera unit 106. These encoded data are temporarily stored in the encoded data temporary storage area 116c in the RAM 116 for each frame.

通信インターフェース部114は、ネットワークを通したデータの送受信を行うための処理ブロックで、有線LANにおけるネットワーク層、データリンク層、物理層の処理を主に司る。カメラユニットで撮影され符号化された映像データは、この通信インターフェース部114を通じて遠隔地のビューワに対して送信される。   The communication interface unit 114 is a processing block for transmitting and receiving data through a network, and mainly manages processing of a network layer, a data link layer, and a physical layer in a wired LAN. Video data shot and encoded by the camera unit is transmitted to a remote viewer through the communication interface unit 114.

CPU113は、ROM115内の制御プログラムに基づいて各種制御を行う。これらの制御の中には、撮影画角カメラ部106で撮影された撮影画角映像をビューワの表示領域の大きさに合わせて拡大・縮小を行う処理、広角カメラ部101で撮影された広角映像のうち撮影画角映像と重ね合わせられる領域を単色で塗り潰す処理、符号化された映像データを通信パケットに分割する処理、TCP,UDP等のネットワークプロトコル処理、ビューワとの情報交換プロトコル処理、コマンド処理、パン、チルト操作に応じたパン・チルト制御モータの駆動処理、撮影動作における各ブロックのタイミング制御やデータ受け渡し制御等の全体的なシーケンス制御処理等が含まれる。   The CPU 113 performs various controls based on the control program in the ROM 115. Among these controls are processing for enlarging / reducing the captured angle of view image captured by the captured angle of view camera unit 106 according to the size of the display area of the viewer, and wide angle image captured by the wide angle camera unit 101. Among them, processing to fill the area to be superimposed with the shooting angle of view video with a single color, processing to divide the encoded video data into communication packets, network protocol processing such as TCP, UDP, information exchange protocol processing with viewer, command It includes processing, pan / tilt control motor drive processing according to pan and tilt operations, overall sequence control processing such as timing control of each block and data transfer control in the shooting operation.

RAM116は、画像展開エリア116a、符号化用フレームメモリ116b、符号化データ一時保存エリア116c、ワークエリア116d、一時退避エリア116eを備えている。画像展開エリア116aは、画像処理部105、110より送られてきた撮影画像(YUVデジタルデータ)を一時的に格納するためのテンポラリバッファとして、又、画像データの拡大、縮小処理、単色塗り潰し処理等のための画像専用ワークエリアとして使用される。   The RAM 116 includes an image development area 116a, an encoding frame memory 116b, an encoded data temporary storage area 116c, a work area 116d, and a temporary save area 116e. The image development area 116a serves as a temporary buffer for temporarily storing captured images (YUV digital data) sent from the image processing units 105 and 110, and enlargement / reduction processing of image data, single color painting processing, etc. Used as a dedicated work area for images.

符号化用フレームメモリ116bは、動画符号化部112でMPEG4圧縮符号化処理におけるフレーム間予測のための前後の参照フレームデータを一時的に保存するためのフレームメモリとして使用される。符号化データ一時保存エリア116cは、静止画符号化部111、動画符号化部112で圧縮符号化されたデータを通信インターフェース部114から送信するまでの間一時的に保存するためのワークメモリとして使用される。又、ワークエリア116dは、各種プログラムのためのワークエリア、一時退避エリア116eは各種データを一時退避させるためのエリアである。   The encoding frame memory 116b is used as a frame memory for temporarily storing the reference frame data before and after the inter-frame prediction in the MPEG4 compression encoding process by the moving image encoding unit 112. The encoded data temporary storage area 116c is used as a work memory for temporarily storing the data compressed and encoded by the still image encoding unit 111 and the moving image encoding unit 112 until the data is transmitted from the communication interface unit 114. Is done. The work area 116d is a work area for various programs, and the temporary save area 116e is an area for temporarily saving various data.

次に、図2において本発明の実施の形態1に係るビューワの概略構成を示すブロック図を説明する。   Next, a block diagram showing a schematic configuration of the viewer according to Embodiment 1 of the present invention in FIG. 2 will be described.

図2において、ビューワの各処理ブロックはバス212を通じてデータの受け渡しが行われる。バス212には、CPU(中央演算処理装置)201、静止画復号化部202、動画復号化部203、表示コントロール部204、通信インターフェース部207、ROM(リードオンリーメモリ)208、RAM(ランダムアクセスメモリ)209、データ格納手段210がそれぞれ接続されている。又、CPU201には制御キー211が、表示コントロール部204には表示駆動部205が、更に表示駆動部205には表示部206がそれぞれ接続されている。   In FIG. 2, each processing block of the viewer exchanges data through a bus 212. A bus 212 includes a CPU (Central Processing Unit) 201, a still image decoding unit 202, a moving image decoding unit 203, a display control unit 204, a communication interface unit 207, a ROM (Read Only Memory) 208, and a RAM (Random Access Memory). 209 and data storage means 210 are connected to each other. A control key 211 is connected to the CPU 201, a display drive unit 205 is connected to the display control unit 204, and a display unit 206 is connected to the display drive unit 205.

CPU201は、ROM208内の制御プログラムに基づいて各種制御を行う。これらの制御の中には、オペレーティングシステムやファイルシステムの処理、受信した通信パケットを1フレーム分の符号化映像データに復元する処理、TCP,UDP等のネットワークプロトコル処理、カメラとの情報交換プロトコル処理、コマンド処理、制御キー211の操作に対応したアプリケーション処理、又、表示再生動作における各ブロックのタイミング制御やデータ受け渡し制御等の全体的なシーケンス制御処理等が含まれる。   The CPU 201 performs various controls based on the control program in the ROM 208. These controls include operating system and file system processing, processing to restore received communication packets into encoded video data for one frame, network protocol processing such as TCP and UDP, and information exchange protocol processing with cameras. , Command processing, application processing corresponding to the operation of the control key 211, and overall sequence control processing such as timing control of each block and data transfer control in the display reproduction operation.

静止画復号化部202は、JPEG復号化を行うための処理ブロックである。このブロックでは、ネットワークカメラから受信して、データ格納手段210に格納されているUXGAサイズのJPEG符号化データを、アプリケーション中のユーザー操作に応じてYUVフォーマットのデジタルデータに復号化する処理を行う。復号化されたYUV静止画像データは、バス212を経由してRAM209中の後述する表示画像展開用メモリ209bに一時的に蓄積される。   The still image decoding unit 202 is a processing block for performing JPEG decoding. In this block, a process of decoding the UXGA size JPEG encoded data received from the network camera and stored in the data storage unit 210 into YUV format digital data according to the user operation in the application is performed. The decoded YUV still image data is temporarily stored in a display image development memory 209b (to be described later) in the RAM 209 via the bus 212.

又、動画復号化部203は、MPEG4復号化を行うための処理ブロックである。このブロックではネットワークカメラから受信した、広角映像と撮影画角映像のMPEG4符号化データを、30フレーム/秒のフレームレートでYUVフォーマットのデジタルデータに復号化する処理を行う。復号化されたYUV動画像データは、フレームごとにバス212を経由してRAM209中の後述する表示画像展開用メモリ209bに一時的に蓄積される。   The moving picture decoding unit 203 is a processing block for performing MPEG4 decoding. In this block, the MPEG4 encoded data of the wide-angle video and the shooting angle-of-view video received from the network camera is decoded into YUV format digital data at a frame rate of 30 frames / second. The decoded YUV moving image data is temporarily stored in a display image expansion memory 209b (to be described later) in the RAM 209 via the bus 212 for each frame.

表示コントロール部204は、表示画像展開用メモリ209bに格納されているYUVデジタル画像データを読み出し、RGBデジタル信号へ変換した後、表示駆動部205へ出力する処理、或は、フレームバッファ209cに格納されているRGBデジタルデータを同様に表示駆動部205へ出力する処理を行う。表示駆動部205は表示部206を駆動するための制御を行う。表示部206は、画像を表示するための表示器であり、VGAサイズ(640×480ドット)TFT液晶表示装置である。   The display control unit 204 reads the YUV digital image data stored in the display image development memory 209b, converts it into an RGB digital signal, and then outputs it to the display drive unit 205, or stores it in the frame buffer 209c. Similarly, a process of outputting the RGB digital data to the display driving unit 205 is performed. The display driving unit 205 performs control for driving the display unit 206. The display unit 206 is a display for displaying an image, and is a VGA size (640 × 480 dots) TFT liquid crystal display device.

通信インターフェース部207は、ネットワークを通したデータの送受信を行うための処理ブロックで、有線LANにおけるネットワーク層、データリンク層、物理層の処理を主に司る。符号化された広角映像データ、撮影画角映像データ、撮影静止画データは、この通信インターフェース部207を通じて、遠隔地のネットワークカメラから受信される。   The communication interface unit 207 is a processing block for transmitting and receiving data through a network, and mainly controls processing of a network layer, a data link layer, and a physical layer in a wired LAN. The encoded wide-angle video data, shooting angle-of-view video data, and shooting still image data are received from a remote network camera through the communication interface unit 207.

RAM116は、符号化用フレームメモリ209a、表示画像展開用メモリ209b、フレームバッファ209c、ワークエリア209d、一時退避エリア209eを備えている。符号化用フレームメモリ209aは、動画復号化部203でMPEG4復号化処理におけるフレーム間予測のための前後の参照フレームデータを一時的に保存するためのフレームメモリとして使用される。   The RAM 116 includes an encoding frame memory 209a, a display image development memory 209b, a frame buffer 209c, a work area 209d, and a temporary save area 209e. The encoding frame memory 209a is used as a frame memory for temporarily storing the reference frame data before and after the inter-frame prediction in the MPEG4 decoding process by the moving picture decoding unit 203.

表示画像展開用メモリ209bは、静止画復号化部で復号されたYUVデジタルデータ、或は動画復号化部で復号されたYUVデジタルデータを一時的に格納するためのテンポラリバッファとして、又、CPU201による画像データの拡大、縮小処理等のための画像専用ワークエリアとして使用される。フレームバッファ209cは、CPU201で実行されるアプリケーションが作成する表示データを記憶するVRAMとして使用され、RGB8ビットデジタルデータで格納されている。又、ワークエリア209dは、各種プログラムのためのワークエリア、一時退避エリア209eは各種データを一時退避させるためのエリアである。   The display image development memory 209b is a temporary buffer for temporarily storing the YUV digital data decoded by the still image decoding unit or the YUV digital data decoded by the moving image decoding unit, or by the CPU 201. It is used as an image-dedicated work area for image data enlargement and reduction processing. The frame buffer 209c is used as a VRAM that stores display data created by an application executed by the CPU 201, and is stored as RGB 8-bit digital data. The work area 209d is a work area for various programs, and the temporary save area 209e is an area for temporarily saving various data.

データ格納手段210は、ネットワークカメラから受信した、静止画像のJPEG符号化データを、ファイルとして格納するための画像データ格納メモリとして使用される。このメモリにはファイルシステムが構築されている。   The data storage unit 210 is used as an image data storage memory for storing JPEG encoded data of a still image received from a network camera as a file. A file system is constructed in this memory.

以下、本実施の形態におけるネットワークカメラとビューワで構成されるシステムの制御処理手順を図3以降に示すフローチャートに基づいて説明する。   Hereinafter, a control processing procedure of the system configured by the network camera and the viewer according to the present embodiment will be described based on flowcharts shown in FIG.

図3はネットワークカメラ本体のメイン処理を示すフローチャートである。   FIG. 3 is a flowchart showing main processing of the network camera body.

先ず、図3のステップS301において、TCP/IPプロトコルによるビューワとの通信コネクションを確立する処理が行われる。次に、ステップS302において、ビューワから重ね合わせ情報を取得する処理が行われる。ここでは、ビューワに対して情報のリクエストコマンドを送信し、それに応じてビューワが送信した、広角映像データに重ねられる撮影画角映像の形状、大きさ、位置を示す情報を受信するというシーケンスで行われる。   First, in step S301 in FIG. 3, processing for establishing a communication connection with the viewer using the TCP / IP protocol is performed. Next, in step S302, processing for acquiring overlay information from the viewer is performed. Here, an information request command is transmitted to the viewer, and information indicating the shape, size, and position of the captured field-of-view video superimposed on the wide-angle video data transmitted by the viewer is received in response. Is called.

以下、撮影画角映像、広角映像の撮影、送信処理へ移行する。   Hereinafter, the process proceeds to shooting and transmission of shooting angle-of-view video and wide-angle video.

ステップS303では、1フレーム分の撮影画角映像処理が行われる。詳細については図4において説明する。又、ステップS304では、1フレーム分の広角映像処理が行われる。詳細については図5において説明する。   In step S303, shooting angle-of-view video processing for one frame is performed. Details will be described with reference to FIG. In step S304, wide-angle video processing for one frame is performed. Details will be described with reference to FIG.

1フレーム分のこれらの処理が終了すると、ステップS305において、ビューワからコマンド受信が行われたかどうかのチェックを行い、受信が行われていない場合は再びS303の撮影画角映像処理へ戻る。S305においてコマンド受信が行われた場合は、先ず、ステップS306において、撮影終了コマンドかどうかをチェックし、撮影終了コマンドの場合は、ステップS307において、ネットワークカメラの終了処理及び電源切断処理を実行して処理が終了する。   When these processes for one frame are completed, in step S305, it is checked whether or not a command has been received from the viewer. If no command has been received, the process returns to the photographing angle-of-view video process in S303. If a command is received in step S305, first, in step S306, it is checked whether it is a shooting end command. If it is a shooting end command, a network camera end process and a power-off process are executed in step S307. The process ends.

S306において撮影終了コマンドでない場合は、ステップS308において、シャッタコマンドかどうかのチェックを行い、シャッタコマンドの場合は、ステップS309において、静止画キャプチャ処理、つまり撮影画角カメラ部106でUXGAサイズの静止画として1フレーム分のデータを取り出す処理を実行する。   If it is not a shooting end command in S306, it is checked in step S308 whether it is a shutter command. If it is a shutter command, in step S309, a still image capture process, that is, a UXGA size still image in the shooting angle of view camera unit 106 is checked. As described above, a process for extracting data for one frame is executed.

次に、ステップS310において、静止画符号化処理が実行され、S309で取り出されたYUV形式の静止画データから、静止画符号化部111においてJPEG符号化データが作成される。このJPEG符号化データは、ステップS311において、通信インターフェース部114を経由してビューワへデータ送信される。送信処理が終了すると、再びS303の撮影画角映像処理へ戻る。   Next, in step S310, a still image encoding process is executed, and JPEG encoded data is created in the still image encoding unit 111 from the still image data in the YUV format extracted in S309. The JPEG encoded data is transmitted to the viewer via the communication interface unit 114 in step S311. When the transmission process is completed, the process returns to the photographing angle-of-view video process in S303 again.

S308においてシャッタコマンドでなかった場合は、ステップS312において、重ね合わせ条件の変更コマンドかどうかのチェックを行い、変更コマンドの場合はステップS313において、S302と同様の手順で、重ね合わせ情報を取得する処理を実行する。それからS303の撮影画角映像処理へ戻る。S312において、変更コマンドでなかった場合は、ステップS314において、その他のコマンドの処理を実行し、S303撮影画角映像処理へ戻る。その他のコマンドとは、例えばパン・チルト制御コマンド、撮影条件(画像補正条件、圧縮率、フレームレート等)の変更コマンド、その他アプリケーションに連動したコマンド等が考えられる。   If it is not a shutter command in S308, it is checked in step S312 whether it is a superposition condition change command. If it is a change command, in step S313, superimposition information is acquired in the same procedure as in S302. Execute. Then, the process returns to the shooting angle-of-view video processing in S303. If the command is not a change command in S312, other command processing is executed in Step S314, and the process returns to S303 shooting angle-of-view video processing. Other commands include, for example, pan / tilt control commands, commands for changing shooting conditions (image correction conditions, compression rate, frame rate, etc.), commands linked to other applications, and the like.

以上のように、S303〜S314までの処理を1/30秒間隔で繰り返し実行することにより、撮影画角映像、広角映像を動画ストリームとして送信することが可能となる。   As described above, by repeatedly executing the processes from S303 to S314 at intervals of 1/30 seconds, it is possible to transmit the shooting angle-of-view video and wide-angle video as a moving image stream.

次に図4に、図3、S303で説明した1フレーム分の撮影画角映像処理の詳細を表わすフローチャートを示す。   Next, FIG. 4 shows a flowchart showing details of the processing angle-of-view video processing for one frame described in FIG. 3 and S303.

図4において、ステップS401は撮影画角映像を1フレーム分読み出す処理である。この処理では、撮影画角カメラ部106において30フレーム/秒のフレームレートで撮影されている映像をYUVデジタルデータとして1 フレーム分、RAM116の画像展開エリア116aに読み出す。   In FIG. 4, step S <b> 401 is processing for reading one frame of the shooting angle of view video. In this process, one frame of video shot at a frame rate of 30 frames / second by the shooting angle-of-view camera unit 106 is read as YUV digital data into the image development area 116 a of the RAM 116.

次に、ステップS402において、図3、S302で取得した重ね合わせ情報を参照して、ビューワ上に表示される撮影画角映像の大きさに拡大又は縮小処理を行う。リサイズ処理が終了した画像データは同様に画像展開エリア116aに格納され、この画像データに対して、ステップS403において、動画符号化部112によるMPEG4符号化処理が実行され、RAM116の符号化データ一時保存エリア116cに格納される。格納された符号化データは、ステップS404において、送信パケットサイズに分割され、送信ヘッダが付加された後、ステップS405において、通信インターフェース部114によりビューワへデータ送信が行われる。   Next, in step S402, referring to the overlay information acquired in FIG. 3 and S302, enlargement or reduction processing is performed to the size of the shooting angle-of-view video displayed on the viewer. The image data for which the resizing process has been completed is similarly stored in the image development area 116a, and in step S403, the MPEG4 encoding process is performed by the moving image encoding unit 112 on the image data, and the encoded data is temporarily stored in the RAM 116. Stored in area 116c. The stored encoded data is divided into transmission packet sizes in step S404 and a transmission header is added. Then, in step S405, the communication interface unit 114 transmits data to the viewer.

図5は、図3、S304で説明した1フレーム分の広角映像処理の詳細を表わすフローチャートである。   FIG. 5 is a flowchart showing details of the wide-angle video processing for one frame described in FIG. 3 and S304.

図5において、ステップS501は広角映像を1フレーム分読み出す処理である。この処理では、撮影画角映像の読み出し処理と同様に、広角カメラ部101において30フレーム/秒のフレームレートで撮影されている映像をYUVデジタルデータとして1 フレーム分、RAM116の画像展開エリア116aに読み出す。   In FIG. 5, step S501 is a process of reading a wide-angle video for one frame. In this process, similarly to the reading process of the shot angle of view video, the video shot at the frame rate of 30 frames / second in the wide-angle camera unit 101 is read as one frame of YUV digital data to the image development area 116a of the RAM 116. .

それから、ステップS502において、図3、S302で取得した重ね合わせ情報を参照して、ビューワ上に表示される広角映像のうち撮影画角映像に重ね合わせられる領域、つまり表示しない領域を単色で塗り潰す処理を行う。ここでは、黒のデータとしてYUVデータをそれぞれ(0,128,128)に置き換える処理となる。塗り潰し処理が終了した画像データは同様に画像展開エリア116aに格納され、この画像データに対して、ステップS503において、動画符号化部112によるMPEG4符号化処理が実行され、RAM116の符号化データ一時保存エリア116cに格納される。   Then, in step S502, referring to the overlay information acquired in FIG. 3 and S302, a region that is to be superimposed on the shooting angle-of-view image, that is, a region that is not displayed, is filled with a single color among the wide-angle images displayed on the viewer. Process. Here, the YUV data is replaced with (0, 128, 128) as black data. The image data for which the filling process has been completed is similarly stored in the image development area 116a. In step S503, the MPEG4 encoding process by the moving image encoding unit 112 is performed on the image data, and the encoded data is temporarily stored in the RAM 116. Stored in area 116c.

以下、撮影画角映像の読み出し処理と同様に、格納された符号化データは、ステップS504において、送信パケットサイズに分割され、送信ヘッダが付加された後、ステップS505において、通信インターフェース部114によりビューワへデータ送信が行われる。   Thereafter, the stored encoded data is divided into transmission packet sizes in step S504 and a transmission header is added in step S504, and the viewer is then viewed by the communication interface unit 114 in step S505. Data transmission is performed.

以上、図3〜図5でネットワークカメラにおける撮影動作の処理を説明したが、次にビューワにおける表示処理について説明する。   The processing of the shooting operation in the network camera has been described above with reference to FIGS. 3 to 5. Next, the display processing in the viewer will be described.

図6はビューワ本体のメイン処理を示すフローチャートである。   FIG. 6 is a flowchart showing the main processing of the viewer body.

先ず、図6のステップS601において、ネットワークカメラにおけるS301の処理と同様に、TCP/IPプロトコルによるネットワークカメラとの通信コネクションを確立する処理が行われる。次に、ステップS602において、ビューワから送信されたリクエストコマンドに応じて、重ね合わせ情報を送信する処理が行われる。つまり、ユーザーの操作によって確定された、広角映像データに重ねられる撮影画角映像の形状、大きさ、位置を表わす情報をネットワークカメラに対して送信する処理である。   First, in step S601 of FIG. 6, processing for establishing a communication connection with the network camera using the TCP / IP protocol is performed in the same manner as the processing of S301 in the network camera. Next, in step S602, processing for transmitting overlay information is performed in accordance with the request command transmitted from the viewer. In other words, this is a process of transmitting information representing the shape, size, and position of the captured field-of-view video to be superimposed on the wide-angle video data, determined by the user's operation, to the network camera.

次に、ステップS603において、ユーザーによる操作があったかどうかをチェックする処理が行われる。ここで、操作のイベントが検出されなかった場合は、以下ステップS604〜S617で説明する受信した画像データの表示処理が実行される。   Next, in step S603, processing for checking whether or not there has been an operation by the user is performed. If no operation event is detected, the received image data display process described in steps S604 to S617 is executed.

ステップS604では、通信インターフェース部207によって1フレーム分の画像データを受信する処理が行われる。次に、ステップS605において、受信画像が広角フレームデータの場合には、ステップS606において、受信したフレームデータを、動画復号化部203によってMPEG4復号化処理を実行する。   In step S604, the communication interface unit 207 performs processing for receiving image data for one frame. Next, in step S605, if the received image is wide-angle frame data, in step S606, the received frame data is subjected to MPEG4 decoding processing by the moving picture decoding unit 203.

復号化されYUVデジタルデータに展開された広角フレームデータは、ステップS607において、RAM209の表示画像展開用メモリ209bに書き出された後にステップS611へ進む。   The wide-angle frame data that has been decoded and expanded into YUV digital data is written in the display image expansion memory 209b of the RAM 209 in step S607, and then proceeds to step S611.

一方、S605において、広角フレームデータでない場合は、ステップS608において、受信画像が撮影画角フレームデータかどうかをチェックし、撮影画角フレームデータの場合は、S606,S607の処理と同様に、ステップS609において、受信したフレームデータを動画復号化部203によってMPEG4復号化処理を実行する。   On the other hand, if it is determined in step S605 that the received image is not wide-angle frame data, it is checked in step S608 if the received image is photographed view angle frame data. If the received image is photographed view angle frame data, step S609 is performed in the same manner as in steps S606 and S607. The moving picture decoding unit 203 executes MPEG4 decoding processing on the received frame data.

復号化されYUVデジタルデータに展開された撮影画角フレームデータは、ステップS610において、RAM209の表示画像展開用メモリ209bに書き出された後にステップS611へ進む。ステップS611では、広角映像と撮影画角映像の重ね合わせ処理、つまり、S607で表示画像展開用メモリ209bに書き出された広角フレームデータに、S610で同様に書き出された撮影画角フレームデータを上書きし、合成映像データを作成する処理が実行される。ここで、上書きされる領域は、ネットワークカメラで単色に塗り潰されている領域と一致している。それから、ステップS612において、表示コントロール部204によって合成映像データをRGBデジタルデータに変換された後、表示駆動部205で表示部206への表示処理が実行される。   The captured field angle frame data that has been decoded and expanded into YUV digital data is written in the display image expansion memory 209b of the RAM 209 in step S610, and then proceeds to step S611. In step S611, the superposition processing of the wide-angle video and the shooting angle-of-view video, that is, the shooting angle-of-view frame data similarly written in S610 is added to the wide-angle frame data written in the display image development memory 209b in S607. A process of overwriting and creating composite video data is executed. Here, the area to be overwritten coincides with the area that is painted in a single color by the network camera. In step S612, the composite video data is converted into RGB digital data by the display control unit 204, and then the display drive unit 205 performs display processing on the display unit 206.

又、S608において、撮影画角フレームデータでない場合は、ステップS613において、受信画像が静止画フレームデータかどうかをチェックし、静止画フレームデータの場合は、ステップS614において、静止画フレームデータをファイル化してデータ格納手段210の画像データ格納メモリへJPEGファイルとして格納する。   If it is determined in step S608 that the frame is not shooting angle of view frame data, it is checked in step S613 if the received image is still image frame data. If it is still image frame data, the still image frame data is converted into a file in step S614. And stored as a JPEG file in the image data storage memory of the data storage unit 210.

更に、ステップS615において、受信したフレームデータを、静止画復号化部202によってJPEG復号化処理を実行する。復号化されYUVデジタルデータに展開された静止画フレームデータは、ステップS615において、UXGAサイズを表示解像度に縮小する処理が行われ、それからS612と同様に、ステップS617において、RGBデジタルデータへ変換された後、受信画像の確認として静止画像の表示処理が実行される。それから再びS603のユーザー操作のチェックへ戻る。   In step S615, the still image decoding unit 202 executes JPEG decoding processing on the received frame data. The still image frame data that has been decoded and developed into YUV digital data is subjected to processing for reducing the UXGA size to the display resolution in step S615, and then converted into RGB digital data in step S617 as in S612. Thereafter, a still image display process is executed as confirmation of the received image. Then, the process returns to the check of user operation in S603 again.

S603において、ユーザーによる操作のイベントが検出された場合には、ステップS618において、撮影終了操作のイベントかどうかをチェックし、撮影終了の場合は、ステップS619において、撮影終了コマンドをネットワークカメラに対して送信する処理を行う。更に、ステップS620において、ビューワの電源を切断する処理を実行して処理を終了する。   If an event of an operation by the user is detected in step S603, it is checked in step S618 whether the event is a shooting end operation event. If shooting is ended, a shooting end command is sent to the network camera in step S619. Process to send. Further, in step S620, a process for turning off the power of the viewer is executed, and the process ends.

S618において撮影終了イベントでなかった場合は、ステップS621において、シャッタ操作のイベントかどうかをチェックし、シャッタ操作の場合は、ステップS622において、静止画撮影を指示するためのシャッタコマンドをネットワークカメラに対して送信して、再びS603のユーザー操作のチェック処理へ戻る。   If it is not a shooting end event in S618, it is checked in step S621 whether the event is a shutter operation, and if it is a shutter operation, in step S622, a shutter command for instructing still image shooting is sent to the network camera. Then, the process returns to the user operation check process in step S603.

S621においてシャッタ操作イベントでなかった場合は、ステップS623において、重ね合わせ状態の変更操作が行われたかどうかのチェックを行う。この重ね合わせ状態の変更とは、広角映像に重ね合わされている撮影画角映像の位置、大きさ、形状等を変更する操作であり、ビューワに付属の制御キー211等による操作で行われる。ここで、変更操作が行われた場合は、ステップS624において、変更条件に合わせた重ね合わせ情報をネットワークカメラに対して送信する処理を行い、その後、再びS603のユーザー操作のチェック処理へ戻る。   If it is not a shutter operation event in S621, it is checked in step S623 whether or not an operation for changing the overlay state has been performed. The change of the superposition state is an operation for changing the position, size, shape, and the like of the shooting angle-of-view image superimposed on the wide-angle image, and is performed by an operation using the control key 211 attached to the viewer. Here, if a change operation is performed, in step S624, a process of transmitting overlay information that matches the change condition to the network camera is performed, and then the process returns to the check process of the user operation in S603 again.

又、S623において変更操作イベントでなかった場合は、ステップS625において、その他の操作に対する処理、例えば、パン・チルト操作、撮影条件(画像補正条件、圧縮率、フレームレート等)の変更操作、その他アプリケーションに連動した操作等を実行し、同様にS603へ戻る。   If the event is not a change operation event in step S623, in step S625, processing for other operations, for example, pan / tilt operation, operation for changing shooting conditions (image correction conditions, compression rate, frame rate, etc.), and other applications The operation linked to is executed, and the process returns to S603 in the same manner.

次に、図7に、ネットワークカメラで撮影される映像及びビューワで表示される映像を説明する。   Next, FIG. 7 illustrates video captured by the network camera and video displayed by the viewer.

図7において、701は、ネットワークカメラにおける広角カメラ部101で撮影された1フレームの広角映像を表わしている。又、この映像中に破線で示している領域702は、ビューワから送信された重ね合わせ情報に対応した、撮影画角映像が重ね合わせられる領域を示している。   In FIG. 7, reference numeral 701 denotes a wide-angle image of one frame taken by the wide-angle camera unit 101 in the network camera. A region 702 indicated by a broken line in the video indicates a region where the shooting angle-of-view video corresponding to the superposition information transmitted from the viewer is superimposed.

又、703は、広角映像に対して702で示した領域を単色塗り潰し処理を行った映像を表わしており、この703の映像データを符号化して広角映像としてビューワへ送信する。704は単色で塗り潰された領域である。   Reference numeral 703 denotes an image obtained by performing monochrome painting processing on the area indicated by 702 with respect to the wide-angle image. The image data of 703 is encoded and transmitted to the viewer as a wide-angle image. An area 704 is filled with a single color.

705は、ネットワークカメラにおける撮影画角カメラ部106で撮影された1フレームの撮影画角映像を表わしている。   Reference numeral 705 denotes a one-frame shooting angle-of-view image shot by the shooting angle-of-view camera unit 106 in the network camera.

706は、ビューワの表示部206に表示される表示イメージを表わしており、ネットワークカメラから送信された広角映像703と撮影画角映像705を合成表示している。この中で、707が広角映像、708が撮影画角映像である。   Reference numeral 706 denotes a display image displayed on the display unit 206 of the viewer. The wide-angle video 703 and the shooting angle-of-view video 705 transmitted from the network camera are combined and displayed. Among these, 707 is a wide-angle video and 708 is a shooting angle-of-view video.

<実施の形態2>
実施の形態1では、広角映像のうち撮影映像と重ね合わせられる領域を固定の単色データで塗り潰した映像として、ネットワークカメラからビューワへ送信するような実施形態を説明したが、本発明はこれに限定されるものではない。
<Embodiment 2>
In the first embodiment, an embodiment has been described in which an area of a wide-angle video that is to be overlaid with a captured video is transmitted as a video that is filled with fixed single-color data, and transmitted from the network camera to the viewer. However, the present invention is not limited to this. Is not to be done.

固定の単色データでは、塗り潰された単色データの領域と、その周辺の映像領域の境界が不連続となるため、画像としての空間周波数が高くなり、符号化効率が落ちてしまう。そこで、本実施の形態では、重ね合わせ領域の塗り潰しデータを、その周辺の画素に合わせて動的に切り替えるような実施形態について説明する。   In the fixed monochromatic data, since the boundary between the filled monochromatic data area and the surrounding video area becomes discontinuous, the spatial frequency of the image becomes high and the coding efficiency is lowered. Therefore, in the present embodiment, an embodiment will be described in which the overlay area fill data is dynamically switched in accordance with the surrounding pixels.

図8は実施の形態1で図3、S304で説明した1フレーム分の広角映像処理の詳細について、実施の形態2における処理を表わすフローチャートである。   FIG. 8 is a flowchart showing the processing in the second embodiment regarding the details of the wide-angle video processing for one frame explained in FIG. 3 and S304 in the first embodiment.

図8において、ステップS801は、図5、S501と同様に広角映像を1フレーム分読み出す処理である。この処理では、撮影画角映像の読み出し処理と同様に、広角カメラ部101において30フレーム/秒のフレームレートで撮影されている映像をYUVデジタルデータとして1フレーム分、RAM116の画像展開エリア116aに読み出す。   In FIG. 8, step S801 is a process of reading a wide-angle video for one frame as in FIG. 5 and S501. In this process, similarly to the reading process of the shooting angle of view video, the video shot at the frame rate of 30 frames / second in the wide-angle camera unit 101 is read as YUV digital data for one frame into the image development area 116a of the RAM 116. .

次に、ステップS802において、広角映像に撮影映像が重ね合わせられる領域(図7の702で示された部分)の境界が、画素ブロックの境界と一致しているか(図9で示す)、或は境界がブロックを分割する位置となっているか(図10に示す)どうかをチェックする。この画素ブロックとは8×8ドットの画素で構成されるブロックを表わしており、通常、静止画圧縮方式であるJPEGや動画圧縮方式であるMPEG4等は、この8×8の画素ブロックのうち上下左右に隣接する4ブロック(MCU及びマクロブロック)を使用して符号化単位としている。
Next, in step S802, the boundary of the region where the captured image is superimposed on the wide-angle image (the portion indicated by 702 in FIG. 7) matches the boundary of the pixel block (shown in FIG. 9), or It is checked whether or not the boundary is a position for dividing the block (shown in FIG. 10). This pixel block represents a block composed of pixels of 8 × 8 dots. Usually, JPEG, which is a still image compression method, MPEG4, which is a moving image compression method, is the upper and lower of the 8 × 8 pixel block. Coding units are made using four blocks (MCU and macroblock) adjacent to the left and right.

S802において、重ね合わせ境界がブロック境界と一致している場合は、ステップS803において、重ね合わせ領域より1ブロック外側の周辺ブロックにおける、輝度と色差データの平均値を求める処理を実行し、更にステップS804において、求めたそれぞれの平均値のデータで重ね合わせ領域の塗り潰し処理を実行して、S807へ進む。   In step S802, if the overlapping boundary coincides with the block boundary, in step S803, a process of obtaining an average value of luminance and color difference data in a peripheral block one block outside the overlapping region is executed, and further in step S804. In step S807, the overlapping area is filled with the obtained average value data, and the process advances to step S807.

又、S802において、重ね合わせ境界がブロック境界と一致していない場合は、ステップS805において、重ね合わせ領域の境界を含むブロックの輝度と色差データの平均値を求める処理を実行し、更にステップS806において、境界を含むブロックより1ブロック内側のブロックで囲まれる領域を、求めたそれぞれの平均値のデータで塗り潰し処理を実行してS807へ進む。   If the overlap boundary does not coincide with the block boundary in S802, a process for obtaining the average value of the luminance and color difference data of the block including the boundary of the overlap area is executed in Step S805, and further in Step S806. The area surrounded by the block one block inside the block including the boundary is filled with the obtained average value data, and the process proceeds to S807.

ステップS807の符号化処理、S808の送信パケットへの分割処理、S809のビューワへの送信処理は、それぞれ図5、S503,S504,S505と同様の処理である。   The encoding process in step S807, the dividing process into transmission packets in S808, and the transmission process to the viewer in S809 are the same processes as in FIG. 5, S503, S504, and S505, respectively.

図9は重ね合わせ領域の境界が画素ブロックの境界と一致している場合の、ブロックの構成を表わす図である。   FIG. 9 is a diagram showing a block configuration in a case where the boundary of the overlapping region coincides with the boundary of the pixel block.

図9において、 901は重ね合わせ領域の境界を表わす線であり、灰色で塗り潰した部分が重ね合わせ領域である。又、902は塗り潰されない画素ブロック、903は単色で塗り潰される画素ブロックを表わしている。各画素ブロックは8×8画素で構成されている。   In FIG. 9, reference numeral 901 denotes a line representing the boundary of the overlapping region, and the grayed out portion is the overlapping region. Reference numeral 902 denotes a pixel block that is not filled, and reference numeral 903 denotes a pixel block that is filled with a single color. Each pixel block is composed of 8 × 8 pixels.

図10は重ね合わせ領域の境界が画素ブロックを分割する位置となっている場合の、画素の構成を表わす図である。   FIG. 10 is a diagram illustrating a pixel configuration when the boundary of the overlapping region is a position where the pixel block is divided.

図10において、1001は図9、901と同様に重ね合わせ領域の境界を表わす線であり、1002は単色で塗り潰される領域の境界を表わす線である。同様に灰色で塗り潰した部分が重ね合わせ領域であり、そのうち濃い灰色の部分が単色で塗り潰される領域を示している。1003は塗り潰されない画素ブロック、1004は単色で塗り潰される画素ブロックを表わしている。   In FIG. 10, reference numeral 1001 denotes a line representing the boundary of the overlapping area as in FIGS. 9 and 901, and reference numeral 1002 denotes a line representing the boundary of the area to be filled with a single color. Similarly, the grayed-out portion is an overlap region, and the dark gray portion of the region is a region filled with a single color. Reference numeral 1003 denotes a pixel block that is not filled, and reference numeral 1004 denotes a pixel block that is filled with a single color.

本実施の形態では、図8で説明したように、広角映像の各フレームを読み出すたびに平均値を計算して塗り潰し画像データの値を決定するような処理手順であるが、処理負荷を低減するために、塗り潰し画像データは固定的に数フレームに1回のインターバルで更新するような実施形態でも良い。   In the present embodiment, as described with reference to FIG. 8, the processing procedure is such that the average value is calculated and the value of the filled image data is determined each time each frame of the wide-angle video is read, but the processing load is reduced. Therefore, the embodiment may be such that the filled image data is fixedly updated at intervals of once every several frames.

又、広角映像の動きを検出する手段を設け、 一定以上の動きがあったときに塗り潰し画像データの更新を行うような実施の形態として応用できるのは言うまでもない。同様に、ビューワの操作で重ね合わせ位置が変更されたことを検出した場合のみ塗り潰し画像データの更新を行うような実施の形態も考えられる。これらのケースにおいても、通常の撮影構図では広角映像は背景部分が映像の大部分を占めることが多く、
短時間での激しい動きは殆どないため、符号化効率が大きく損なわれることはない。
Needless to say, the present invention can be applied as an embodiment in which means for detecting the motion of a wide-angle video is provided and the filled image data is updated when there is a certain amount of motion. Similarly, an embodiment in which the filled image data is updated only when it is detected that the overlay position has been changed by the operation of the viewer is also conceivable. Even in these cases, in a normal shooting composition, the wide-angle image often occupies the majority of the background,
Since there is almost no intense movement in a short time, the coding efficiency is not greatly impaired.

<実施の形態3>
実施の形態2では、広角映像のうち撮影映像と重ね合わせられる領域を、その周辺映像の画素データに合わせて決定し、領域中の全画素を同じデータで塗り潰すような実施形態を説明したが、本発明はこれに限定されるものではない。
<Embodiment 3>
In the second embodiment, an embodiment has been described in which a region to be overlapped with a captured image in a wide-angle image is determined according to the pixel data of the surrounding image, and all pixels in the region are filled with the same data. However, the present invention is not limited to this.

実施の形態2では、塗り潰しデータ値を重ね合わせ領域の周辺映像データの平均値で決定していたが、周辺映像の位置によって周辺映像データ値の差異が大きい場合には、重ね合わせ領域の塗り潰しデータとの差異が大きくなる画素も多くなるため、符号化効率が高くならない場合がある。   In the second embodiment, the fill data value is determined by the average value of the peripheral video data in the overlap area. However, if the difference in the peripheral video data value is large depending on the position of the peripheral video, the fill data in the overlap area is determined. Because the number of pixels in which the difference from the above increases becomes large, the encoding efficiency may not increase.

そこで、本実施の形態では、重ね合わせ領域と周辺映像領域の境界より内側の1ブロック分のデータを、周辺画像のデータの数値から塗り潰しデータの数値までの間で連続的に可変となるような数値とし、データの冗長性を高めるような画素データで構成するような処理を行うものである。   Therefore, in the present embodiment, the data for one block inside the boundary between the overlapping area and the peripheral video area is continuously variable between the numerical value of the peripheral image data and the numerical value of the filled data. A process is performed that is composed of pixel data that is numerical and increases data redundancy.

図11は本実施の形態における、重ね合わせ領域と周辺映像の境界付近のブロックの構成を表わす図である。   FIG. 11 is a diagram showing the configuration of blocks near the boundary between the overlapping region and the peripheral video in the present embodiment.

図11において、1101は重ね合わせ領域の境界を表わす線であり、1102は塗り潰されない画素ブロックで構成される領域、又、1103は重ね合わせ領域のうち可変データの画素ブロックで構成される領域、1104は重ね合わせ領域のうち周辺画素の平均値より求められた単一データの画素ブロックで構成される領域である。   In FIG. 11, reference numeral 1101 denotes a line representing the boundary of the overlapping area, 1102 denotes an area composed of unfilled pixel blocks, and 1103 denotes an area composed of variable data pixel blocks in the overlapping area, Reference numeral 1104 denotes an area composed of pixel blocks of a single data obtained from the average value of surrounding pixels in the overlapping area.

1103の可変データの画素ブロックの各画素は、その隣接する周辺画像の画素データ1105の値と平均値として求められた塗り潰し画素データ1106の値を基に均等に増加(又は減少)していくような値としてY方向の8画素1107が決定される。   The pixels of the variable data pixel block 1103 are equally increased (or decreased) based on the value of the pixel data 1105 of the neighboring peripheral image and the value of the filled pixel data 1106 obtained as an average value. As an appropriate value, 8 pixels 1107 in the Y direction are determined.

<実施の形態4>
実施の形態1では、ネットワークカメラを構成するカメラユニットとして、広角カメラ部101と撮影画角カメラ部106がそれぞれ独立したレンズ群、CCD、CCDコントロール部、画像処理部を備えた構成となっているが、本発明はこれに限定されるものではない。
<Embodiment 4>
In the first embodiment, as a camera unit constituting the network camera, the wide-angle camera unit 101 and the shooting angle-of-view camera unit 106 each have an independent lens group, a CCD, a CCD control unit, and an image processing unit. However, the present invention is not limited to this.

本実施の形態では、一組の撮像部(CCD、CCDコントロール部、画像処理部)でカメラユニットを構成し、高解像度の広角画像から撮影したい画角を切り出すことにより撮影画各画像を作成するような構成の実施の形態について説明する。   In the present embodiment, a camera unit is configured by a set of imaging units (CCD, CCD control unit, image processing unit), and each image of a captured image is created by cutting out the angle of view to be captured from a high-resolution wide-angle image. An embodiment having such a configuration will be described.

図12は本実施の形態に係るネットワークカメラの概略構成を示すブロック図である。   FIG. 12 is a block diagram showing a schematic configuration of the network camera according to the present embodiment.

図12において、 1201は広角映像を撮影するためのカメラユニットである広角カメラ部を示しており、この広角カメラ部1201には、レンズ群(1202)、CCD(1203)、CCDコントロール部(1204)、画像処理部(1205)が含まれている。これらは図1、102〜105で説明した各ブロックと同様の処理を行うものであるが、各ブロックは広角映像を高解像度(UXGA)の広角撮像が可能な性能を持っており、画像処理部1205からはUXGAサイズの画素数でYUVデジタルデータを30フレーム/秒のフレームレートで出力する。   In FIG. 12, reference numeral 1201 denotes a wide-angle camera unit that is a camera unit for taking a wide-angle image. The wide-angle camera unit 1201 includes a lens group (1202), a CCD (1203), and a CCD control unit (1204). The image processing unit (1205) is included. These perform the same processing as the blocks described in FIGS. 1 and 102 to 105, but each block has a performance capable of high-resolution (UXGA) wide-angle imaging of wide-angle video, and an image processing unit. From 1205, YUV digital data is output at a frame rate of 30 frames / second with the number of pixels of UXGA size.

1206は広角ひずみ補正処理部であり、画像処理部1205から出力されたYUVデジタルデータの広角レンズによる画像のひずみをデジタル補正し、補正された映像は広角映像として使用される。   A wide-angle distortion correction processing unit 1206 digitally corrects image distortion caused by the wide-angle lens of YUV digital data output from the image processing unit 1205, and the corrected image is used as a wide-angle image.

又、1207は撮影画角切り出し部であり、1206でひずみ補正された広角映像の各フレームに対して一部の領域を切り出すようなトリミング処理を行い、切り出された映像をYUVデジタルデータとして出力するものである。切り出された映像は撮影画各映像として使用する。この撮影画角切り出し部1207で切り出す位置、大きさ、形状はビューワ側からのリモートによるパン、
チルト、ズーム操作によって決定され、操作情報が送信される。受信した情報に従ってCPU1210が撮影画角切り出し部の切り出し条件の設定を行う。
Reference numeral 1207 denotes a shooting angle-of-view cutout unit that performs a trimming process to cut out a part of each frame of the wide-angle video whose distortion has been corrected in 1206, and outputs the cut-out video as YUV digital data. Is. The clipped video is used as each video shot. The position, size, and shape to be cut out by the shooting angle-of-view cutout unit 1207 are panned remotely from the viewer side,
It is determined by tilt and zoom operations, and operation information is transmitted. In accordance with the received information, the CPU 1210 sets the extraction conditions of the shooting angle of view extraction unit.

バス1214に接続されている、静止画符号化部1208、動画符号化部1209、CPU1210、通信インターフェース部1211、ROM1212、RAM1213はそれぞれ、図1、111〜116と同様の制御を行うブロックである。   A still image encoding unit 1208, a moving image encoding unit 1209, a CPU 1210, a communication interface unit 1211, a ROM 1212, and a RAM 1213 connected to the bus 1214 are blocks that perform the same control as in FIGS.

<実施の形態5>
実施の形態5では、ビューワで重ね合わせ領域の位置や大きさ等の変更を行った場合は、更新された重ね合わせ情報をネットワークカメラに送信し、ネットワークカメラは受信した情報に従って、広角映像における塗り潰し領域を更新してビューワに送信するというシーケンスで制御を行っていたが、本発明はこれに限定されるものではない。
<Embodiment 5>
In the fifth embodiment, when the position or size of the overlapping area is changed by the viewer, the updated overlapping information is transmitted to the network camera, and the network camera fills in the wide-angle video according to the received information. Although the control is performed in the sequence of updating the area and transmitting it to the viewer, the present invention is not limited to this.

通常、ネットワークを利用した遠隔操作においてはネットワーク上の通信遅延が発生するため操作リクエストに対するレスポンスが遅くなってしまうことが多い。実施の形態1においても、例えばビューワ側で撮像画各映像の重ね合わせ位置を移動しようとすると、ビューワ側で表示されている撮影画各映像のウインドウはユーザーの操作にすぐに反応して移動処理が行われるが、広角映像の方はネットワークカメラからの更新映像が遅延して届くために、その間、ウインドウ移動前の位置が単色で塗り潰された広角映像が残ったまま表示されてしまうために、映像が見苦しくなってしまう。   Usually, in remote operation using a network, a response to an operation request is often delayed due to a communication delay on the network. Also in the first embodiment, for example, when the superimposed position of each captured image is moved on the viewer side, the window of each captured image displayed on the viewer side is immediately moved in response to a user operation. However, since the update image from the network camera arrives with delay for the wide-angle video, the position before moving the window is displayed with the single-color filled wide-angle video remaining, The video becomes unsightly.

そこで、本実施の形態では、ネットワークカメラから塗り潰し処理を行っていない広角映像を事前に送信しておき、ビューワで重ね合わせ条件が変更された場合は、更新された広角映像を受信するまでの間、先に送信している塗り潰し処理を行っていない広角映像で補完するような実施の形態について説明する。   Therefore, in the present embodiment, when a wide-angle video that has not been subjected to painting processing is transmitted in advance from the network camera and the overlay condition is changed by the viewer, until the updated wide-angle video is received. An embodiment that complements with a wide-angle video that has not been subjected to the painting process that has been transmitted first will be described.

図13はネットワークカメラにおいて1フレーム分の広角映像処理の詳細を表わすフローチャートである。   FIG. 13 is a flowchart showing details of wide-angle video processing for one frame in the network camera.

図13において、ステップS1301は広角映像を1フレーム分読み出す処理であり、図5、501と同様に30フレーム/秒のフレームレートの映像をYUVデジタルデータとして1 フレーム分、RAM116の画像展開エリア116aに読み出す。   In FIG. 13, step S1301 is a process for reading out one frame of wide-angle video. Similar to FIGS. 5 and 501, one frame of video at a frame rate of 30 frames / second is converted into YUV digital data in the image development area 116a of the RAM 116. read out.

次に、ステップS1302において、広角映像に一定以上の動きがあるかどうかをチェックし、動きがない場合は、ステップS1303において、図5、S502と同様に、ビューワ上に表示される広角映像のうち撮影画角映像に重ね合わせられる領域を単色で塗り潰す処理を行う。そして、ステップS1304において、動画符号化部112によるMPEG4符号化処理が実行され、RAM116の符号化データ一時保存エリア116cに格納される。   Next, in step S1302, it is checked whether or not the wide-angle image has a certain amount of movement. If there is no movement, in step S1303, the wide-angle image displayed on the viewer is displayed as in FIG. 5 and S502. A process of filling a region to be overlaid on the shooting angle-of-view image with a single color is performed. In step S1304, the MPEG4 encoding process by the moving image encoding unit 112 is executed and stored in the encoded data temporary storage area 116c of the RAM 116.

又、S1302において動きが検出された場合は、S1303の塗り潰し処理は行わず、S1304の符号化処理へ進む。以下、図5、S504,S505と同様に、格納された符号化データは、ステップS1305において、送信パケットサイズに分割され、送信ヘッダが付加された後、ステップS1306において、通信インターフェース部114によりビューワへデータ送信が行われる。   If a motion is detected in S1302, the paint process in S1303 is not performed, and the process proceeds to the encoding process in S1304. Hereinafter, similarly to FIG. 5, S504, and S505, the stored encoded data is divided into transmission packet sizes in step S1305, a transmission header is added, and then in step S1306, the communication interface unit 114 sends the data to the viewer. Data transmission is performed.

図14は実施の形態1、図6、S605,S606,S607で説明したビューワ側の広角フレーム処理において、実施の形態5での処理の詳細を表わすフローチャートである。   FIG. 14 is a flowchart showing details of the processing in the fifth embodiment in the viewer-side wide-angle frame processing described in the first embodiment, FIG. 6, S605, S606, and S607.

図16においてAは図6、S604からの接続を表わし、 Bは同S608へ接続、Cは同S611へ接続されることを表わしている。   In FIG. 16, A represents the connection from FIG. 6, S604, B represents the connection to S608, and C represents the connection to S611.

ステップS1401は、図6、S604の通信インターフェースから受信した1フレーム分のパケットが広角フレームかどうかのチェックを行い、広角フレームでなかった場合はBへ進む。広角フレームであった場合は、ステップS1402において、図6、S606と同様に広角フレームデータの復号化を行う。   In step S1401, it is checked whether the packet for one frame received from the communication interface in FIG. 6 or S604 is a wide-angle frame. If it is not a wide-angle frame, the process proceeds to B. If it is a wide-angle frame, in step S1402, the wide-angle frame data is decoded in the same manner as in FIG. 6 and S606.

次に、ステップS1403において、受信した広角フレームが塗り潰し無しの映像フレームかどうかをチェックし、
塗り潰し処理が行われていないフレームの場合は、ステップS1404において、このフレーム画像を表示画像展開用メモリ209bに保存して、S1405へ進む。以前に保存された同フレームデータがある場合には上書き更新となる。又、S1403で塗り潰し処理が行われているフレームの場合は、保存処理は行わずにそのままS1405へ進む。
Next, in step S1403, it is checked whether the received wide-angle frame is an unfilled video frame,
If the frame has not been filled, in step S1404, the frame image is stored in the display image development memory 209b, and the process proceeds to S1405. If there is the same frame data stored before, the update is overwritten. In the case of a frame for which the filling process has been performed in S1403, the process proceeds to S1405 without performing the storage process.

ステップS1405では、重ね合わせ変更処理中かどうかのチェック、つまり、ビューワから重ね合わせ変更リクエストをネットワークカメラに送信してから、更新された広角フレームを受信するまでの遅延時間の間かどうかをチェックし、変更処理中でない場合は、ステップS1406において、図6、S607と同様に、塗り潰し処理された広角映像データをRAM209の表示画像展開用メモリ209bに書き出す処理を実行して、Cの重ね合わせ合成処理へ接続される。   In step S1405, it is checked whether or not the overlay change process is in progress, that is, whether or not the delay time from when the overlay change request is transmitted from the viewer to the network camera until the updated wide-angle frame is received is checked. If the change processing is not in progress, in step S1406, similarly to FIG. 6 and S607, a process of writing the wide-angle video data subjected to the fill processing to the display image development memory 209b of the RAM 209 is executed, and the C overlay composition processing is performed. Connected to.

又、S1405において変更処理中の場合には、ステップS1407において、撮影画角映像ウインドウの移動操作によって前面に出てきた塗り潰し領域を、S1404で保存されている広角映像中の画素データで補完する処理を実行する。その後、Cの処理へ接続される。   If the change process is being performed in step S1405, a process for complementing the filled area that has come to the front by the moving operation of the shooting angle-of-view video window with the pixel data in the wide-angle image stored in step S1404 in step S1407. Execute. After that, it is connected to the process of C.

次に、図15に本実施の形態におけるネットワークカメラとビューワ間で、重ね合わせ変更が行われた場合の処理シーケンスを示す。   Next, FIG. 15 shows a processing sequence when the overlay change is performed between the network camera and the viewer in the present embodiment.

図15において、 1501はネットワークカメラ側の処理、1502はビューワ側の処理を表わす。ここでは、ネットワークカメラからビューワに対して1/30秒の周期で広角映像データが送信されている。ここで、1503は塗り潰し処理を行っている映像フレームであり、通常はこのフレームデータが継続的に送信されている。1504は塗り潰し処理を行っていない映像フレームデータ、又、1505は塗り潰し位置が変更された更新映像フレームを表わしている。   In FIG. 15, 1501 represents processing on the network camera side, and 1502 represents processing on the viewer side. Here, wide-angle video data is transmitted from the network camera to the viewer at a period of 1/30 seconds. Here, reference numeral 1503 denotes a video frame that is being filled, and this frame data is normally transmitted continuously. Reference numeral 1504 denotes video frame data that has not been filled, and reference numeral 1505 denotes an updated video frame whose fill position has been changed.

図15において、先ず、ネットワークカメラにおいて、1506で広角映像に一定以上の動きを検出した場合は、1507で塗り潰し処理から塗り潰し無し処理への切り替えを行い、次の送信フレームは塗り潰し無し映像フレーム(1504)となる。ビューワ側では、このフレームを検出して保存データの更新リクエストを出し(1508)、既に保存されている塗り潰し無しの広角映像データに対して上書き保存して更新する(1509)。   In FIG. 15, first, in the network camera, when a certain amount of motion is detected in the wide-angle video in 1506, switching from the filling process to the non-filling process is performed in 1507, and the next transmission frame is an unfilled video frame (1504. ) The viewer detects this frame and issues an update request for saved data (1508), and overwrites and saves the already saved wide-angle video data without update (1509).

又、1510はビューワ側で重ね合わせ条件の変更を行った場合の変更情報の送信であり、これを受けてネットワークカメラ側では1511において、送信された重ね合わせ情報に対応して、
塗り潰し位置、 大きさ等を変更する処理を実行し、 これが終了した次の撮影フレームからは、重ね合わせ変更フレームとして送信される(1505)。
Reference numeral 1510 denotes transmission of change information when the overlay condition is changed on the viewer side. In response to this, on the network camera side, 1511 corresponds to the transmitted overlay information.
A process of changing the fill position, size, etc. is executed, and from the next shooting frame that has been completed, it is transmitted as an overlay change frame (1505).

一方、1510で変更情報を送信すると、ビューワ側でも1512において重ね合わせ変更イベントが発生し、
これを受けてネットワークカメラから重ね合わせ変更フレーム(1505)が到着する間に到達した広角フレームに対しては、1509で保存されている塗り潰し無しの広角映像データを読み出し、変更操作によって前面に出てきた塗り潰し領域を補完する(1513)処理を実行する。この図において、1514で示した時間が、ビューワ操作から変更フレームを受信するまでのネットワーク上の遅延時間となる。
On the other hand, when the change information is transmitted in 1510, the overlay change event occurs in 1512 on the viewer side,
In response, for the wide-angle frame arrived while the overlay change frame (1505) arrives from the network camera, the unfilled wide-angle video data stored in 1509 is read out and brought to the front by the change operation. The process of complementing the filled area is executed (1513). In this figure, the time indicated by 1514 is the delay time on the network from the viewer operation until the change frame is received.

本実施の形態では、塗り潰し無しの映像フレームデータを送信するタイミングは、広角映像に一定以上の動きがあった場合にのみ送信するような実施の形態で説明したが、ネットワークカメラ側での動き検出の処理負荷を軽減するために、一定フレーム間隔の固定的なインターバルで塗り潰し無しフレームデータ送信を行うようにしても同様の効果は得られる。   In the present embodiment, the timing for transmitting unfilled video frame data is described in the embodiment in which the video frame data is transmitted only when there is a certain level of motion in the wide-angle video, but the motion detection on the network camera side is described. In order to reduce this processing load, the same effect can be obtained even if frame data transmission without filling is performed at a fixed interval of a fixed frame interval.

又、塗りつぶし無しフレームデータは通常の塗り潰しフレームデータに置き換えて送信するような実施の形態で説明したが、
塗り潰し無しフレームデータは別ストリームで独立して送信するようにしても良い。
Further, although the non-filled frame data has been described in the embodiment in which it is transmitted by replacing it with normal filled frame data,
The unfilled frame data may be transmitted independently in a separate stream.

<他の実施の形態>
実施の形態1〜5で説明したビューワは、液晶表示器と制御キー等を備えた専用装置として説明したが、本発明においては、ビューワとしてネットワークに接続されたPCのアプリケーションを利用しても良いのは言うまでもない。
<Other embodiments>
The viewer described in the first to fifth embodiments has been described as a dedicated device including a liquid crystal display and a control key. However, in the present invention, an application of a PC connected to a network may be used as the viewer. Needless to say.

又、動画符号化方式としてMPEG4を例に取り説明したが、これに限定されずモーションJPEGやMPEG1、MPEG2等の空間的、又は時間的な冗長度を利用した符号化方式には全て応用可能である。   In addition, MPEG4 has been described as an example of the moving image encoding method, but the present invention is not limited to this, and can be applied to all encoding methods using spatial or temporal redundancy such as motion JPEG, MPEG1, and MPEG2. is there.

更に、実施の形態では、ネットワークカメラから広角映像データと撮影画各映像データを送信してビューワで重ね合わせて表示するようなシステムへの応用として説明したが、
例えば、 テレビ電話やテレビ会議等のシステムにおいて、相手側が撮影した映像を受信し、その画面に自分側が撮影した映像を重ね合わせて表示するようなシステムにおいても、通信相手からの動画像送信方法として本発明を応用することが可能である。同様に、通信相手から送信された動画像に、自分のシステムで作成されたグラフィック画像(アイコンやメニュー等)を重ね合わせて表示するようなアプリケーションにおいても応用可能であることは言うまでもない。
Furthermore, in the embodiment, the wide-angle video data and each image data of the captured image are transmitted from the network camera and described as an application to a system in which the video is superimposed and displayed on the viewer.
For example, in a system such as a videophone or a video conference, a video transmission method from a communication partner is also used in a system that receives a video captured by the other party and displays the video captured by the other party on the screen. The present invention can be applied. Similarly, it goes without saying that the present invention can also be applied to an application that displays a graphic image (such as an icon or menu) created by its own system on a moving image transmitted from a communication partner.

本発明の実施の形態1によるネットワークカメラの概略構成を示すブロック図である。It is a block diagram which shows schematic structure of the network camera by Embodiment 1 of this invention. 本発明の実施の形態1によるビューワの概略構成を示すブロック図である。It is a block diagram which shows schematic structure of the viewer by Embodiment 1 of this invention. 本発明の実施の形態1によるネットワークカメラ本体のメイン処理をあらわすフローチャートである。It is a flowchart showing the main process of the network camera main body by Embodiment 1 of this invention. 本発明の実施の形態1による1フレーム分の撮影画角映像処理の詳細を表わすフローチャートである。5 is a flowchart showing details of processing for photographing angle-of-view video for one frame according to Embodiment 1 of the present invention. 本発明の実施の形態1による1フレーム分の広角映像処理の詳細を表わすフローチャートである。It is a flowchart showing the detail of the wide-angle video processing for 1 frame by Embodiment 1 of this invention. 本発明の実施の形態1によるビューワ本体のメイン処理を表すフローチャートである。It is a flowchart showing the main process of the viewer main body by Embodiment 1 of this invention. 本発明の実施の形態1によるネットワークカメラで撮影される映像及びビューワで表示される映像例を示す図である。It is a figure which shows the example of an image | video displayed with the image | video and the viewer image | photographed with the network camera by Embodiment 1 of this invention. 本発明の実施の形態2による1フレーム分の広角映像処理の詳細を表わすフローチャートである。It is a flowchart showing the detail of the wide-angle video process for 1 frame by Embodiment 2 of this invention. 本発明の実施の形態2による重ね合わせ領域の境界が画素ブロックの境界と一致している場合のブロックの構成を表わす図である。It is a figure showing the structure of a block in case the boundary of the superimposition area | region by Embodiment 2 of this invention corresponds with the boundary of a pixel block. 本発明の実施の形態2による重ね合わせ領域の境界が画素ブロックを分割する位置となっている場合の画素の構成を表わす図である。It is a figure showing the structure of a pixel in case the boundary of the superimposition area | region by Embodiment 2 of this invention is a position which divides | segments a pixel block. 本発明の実施の形態3による重ね合わせ領域と周辺映像の境界付近のブロックの構成を表わす図である。It is a figure showing the structure of the block near the boundary of the superimposition area | region and periphery image | video by Embodiment 3 of this invention. 本発明の実施の形態4によるネットワークカメラの概略構成を示すブロック図である。It is a block diagram which shows schematic structure of the network camera by Embodiment 4 of this invention. 本発明の実施の形態5による1フレーム分の広角映像処理の詳細を表わすフローチャートである。It is a flowchart showing the detail of the wide-angle image processing for 1 frame by Embodiment 5 of this invention. 本発明の実施の形態5によるビューワ側の広角フレーム処理の詳細を表わすフローチャートである。It is a flowchart showing the detail of the wide angle frame process by the side of the viewer by Embodiment 5 of this invention. 本発明の実施の形態5によるネットワークカメラとビューワ間で重ね合わせ変更が行われた場合の処理シーケンス図である。It is a processing sequence diagram when the overlay change is performed between the network camera and the viewer according to the fifth embodiment of the present invention.

符号の説明Explanation of symbols

101 広角カメラ部
102 レンズ群1
103 CCD1
104 CCDコントロール部1
105 画像処理部1
106 撮影画角カメラ部
107 レンズ群2
108 CCD2
109 CCDコントロール部2
110 画像処理部2
111 静止画符号化部
112 動画符号化部
113 CPU
114 通信インターフェース部
115 ROM
116 RAM
117 パン・チルト制御モータ
118 バス
101 Wide-angle camera unit 102 Lens group 1
103 CCD1
104 CCD control unit 1
105 Image processing unit 1
106 Shooting angle of view camera unit 107 Lens group 2
108 CCD2
109 CCD control unit 2
110 Image processing unit 2
111 Still image encoding unit 112 Moving image encoding unit 113 CPU
114 Communication interface 115 ROM
116 RAM
117 Pan / tilt control motor 118 Bus

Claims (7)

撮影した画像データを符号化して遠隔地に伝送することが可能なカメラと、該カメラから受信した符号化画像データを復号化して他の画像データと重ね合わせて表示することが可能なビューワとで構成され、該カメラで撮影した画像データに対して、該ビューワで他の画像データと重ね合わせられる領域と同一な領域を単色データで上書きして符号化を行い、伝送することを特徴とするネットワークカメラの画像伝送方式。   A camera capable of encoding captured image data and transmitting it to a remote location, and a viewer capable of decoding the encoded image data received from the camera and displaying it superimposed on other image data A network characterized in that the image data captured by the camera is encoded by overwriting the same area as the area overlaid with the other image data by the viewer with monochromatic data, and transmitted. Camera image transmission method. 広角映像撮影が可能な第1の撮影手段と広角映像の一部の画角の撮影が可能な第2の撮影手段を備え、
それぞれの撮影手段で撮影した画像データを符号化して伝送することが可能なカメラと、該カメラから受信した符号化画像データのうち第1の撮影手段で撮影した映像に第2の撮影手段で撮影した映像を重ね合わせて表示することが可能なビューワとで構成され、該カメラは第1の撮影手段で撮影した画像データに対して、該ビューワで第2の撮影手段で撮影した画像データが重ね合わせられる領域と同一な領域を単色データで上書きして符号化を行い、伝送することを特徴とするネットワークカメラの画像伝送方式。
A first photographing means capable of photographing a wide-angle video and a second photographing means capable of photographing a part of the angle of view of the wide-angle video;
A camera capable of encoding and transmitting image data captured by each imaging unit, and a video captured by the first imaging unit among the encoded image data received from the camera, and captured by the second imaging unit And a viewer capable of displaying the recorded video in a superimposed manner, and the camera superimposes the image data captured by the second imaging unit on the image data captured by the first imaging unit. An image transmission method for a network camera, wherein the same region as the region to be combined is overwritten with monochromatic data, encoded, and transmitted.
上書きする単色データは、上書きされる領域の周辺画素データの数値に最も近い数値で構成されることを特徴とする請求項1記載のネットワークカメラの画像伝送方式。   2. The network camera image transmission method according to claim 1, wherein the monochrome data to be overwritten comprises a numerical value closest to the numerical value of the peripheral pixel data of the overwritten area. 周辺画素データに最も近い数値は、周辺画素データの数値の平均値とすることを特徴とする請求項3記載のネットワークカメラの画像伝送方式。   4. The network camera image transmission method according to claim 3, wherein the numerical value closest to the peripheral pixel data is an average value of the numerical values of the peripheral pixel data. 上書きされる領域のうち、映像データとの境界に最も近いブロックのデータは、上書きされる数値と上書きされる領域に隣接する画素の数値の間で連続的に増加又は減少する数値で構成されるブロックとすることを特徴とする請求項1記載のネットワークカメラの画像伝送方式。   Of the area to be overwritten, the block data closest to the boundary with the video data is composed of a numerical value that continuously increases or decreases between the numerical value to be overwritten and the numerical value of the pixel adjacent to the overwritten area. 2. The network camera image transmission system according to claim 1, wherein the image transmission system is a block. 動画映像のフレームとしてとしてカメラから連続的に画像データを送信するような制御において、画像データのうち一部のフレームについては単色データの上書きを行わないフレームとして送信するとともに、ビューワで表示されている送信映像に対して、重ね合わせられる画像の形状、位置、大きさ等の条件が変化した場合は、該ビューワから変化情報を該カメラに送信し、
カメラは変化情報に対応して上書きされる領域を更新した画像データを作成しビューワに送信するような制御を行い、ビューワは条件の変化した時点から該カメラから更新された画像データを受信するまでの間は、単色データの上書きが行われていないフレームの画像データで補完するような制御を行うことを特徴とする請求項1記載のネットワークカメラの画像伝送方式。
In control such that image data is continuously transmitted from the camera as a frame of a moving image, some frames of the image data are transmitted as frames in which monochrome data is not overwritten and are displayed in the viewer. When conditions such as the shape, position, size, etc. of the image to be superimposed have changed with respect to the transmitted video, the change information is transmitted from the viewer to the camera,
The camera performs control such that image data updated in the area to be overwritten in response to the change information is generated and transmitted to the viewer, and the viewer receives the updated image data from the time when the condition changes. 2. The network camera image transmission method according to claim 1, wherein control is performed so that the image data is complemented with image data of a frame in which monochrome data is not overwritten.
撮影映像において一定以上の動きを検出した場合において、単色データの上書きを行わないフレームとして送信することを特徴とする請求項6記載のネットワークカメラの画像伝送方式。   7. The network camera image transmission system according to claim 6, wherein when a certain amount of motion is detected in the captured video, the frame is transmitted as a frame in which monochrome data is not overwritten.
JP2005005186A 2005-01-12 2005-01-12 Image transmission system of network camera Withdrawn JP2006197098A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005005186A JP2006197098A (en) 2005-01-12 2005-01-12 Image transmission system of network camera

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005005186A JP2006197098A (en) 2005-01-12 2005-01-12 Image transmission system of network camera

Publications (1)

Publication Number Publication Date
JP2006197098A true JP2006197098A (en) 2006-07-27

Family

ID=36802829

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005005186A Withdrawn JP2006197098A (en) 2005-01-12 2005-01-12 Image transmission system of network camera

Country Status (1)

Country Link
JP (1) JP2006197098A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011039880A (en) * 2009-08-13 2011-02-24 Hitachi Information & Control Solutions Ltd Information collecting apparatus and information collecting system
JP2012070100A (en) * 2010-09-21 2012-04-05 Canon Inc Network apparatus
CN109005355A (en) * 2018-09-28 2018-12-14 维沃移动通信有限公司 A kind of image pickup method and mobile terminal

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011039880A (en) * 2009-08-13 2011-02-24 Hitachi Information & Control Solutions Ltd Information collecting apparatus and information collecting system
JP2012070100A (en) * 2010-09-21 2012-04-05 Canon Inc Network apparatus
CN109005355A (en) * 2018-09-28 2018-12-14 维沃移动通信有限公司 A kind of image pickup method and mobile terminal

Similar Documents

Publication Publication Date Title
JP3870124B2 (en) Image processing apparatus and method, computer program, and computer-readable storage medium
AU2013201746B2 (en) Image processing apparatus and method of camera device
US20070268394A1 (en) Camera, image output apparatus, image output method, image recording method, program, and recording medium
JP2002354326A (en) Image-photographing system, image-photographing device and operation device
JP5312256B2 (en) Imaging apparatus and imaging system
JP2008118271A (en) Remote control system of imaging apparatus
JP2006339842A (en) Image processing apparatus
JP4919034B2 (en) Network decoder device
JP5877329B2 (en) Imaging apparatus and image processing apparatus
JP2006033380A (en) Monitoring system
JP2006197098A (en) Image transmission system of network camera
JP4369263B2 (en) Digital camera and image signal generation method
KR102058860B1 (en) Apparatus and mehod for processing a image in camera device
JP3550046B2 (en) Camera image transmission method and camera image transmission system
CN116016950A (en) Method and system for transmitting video stream
JP2006165664A (en) Image transmission/reception system
JP7038935B2 (en) Image processing device, image processing method, and image processing program
JP2010114575A (en) Monitoring system
EP4250715A1 (en) Image processing apparatus, image processing method, image transmitting apparatus, and image processing system
JP4133878B2 (en) Digital camera and image signal generation method
JP2005295424A (en) Image encoding apparatus, image encoding control method and program
JP2011119932A (en) Imaging apparatus, imaging method, and imaging program
JP2023124647A (en) Video display system, and video display method
JPH08265717A (en) Video telephone system
JP2005176085A (en) Digital camera and monitoring system using it

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20080401