JP2019125969A - Image transmission system, monitoring apparatus, and image transmission method - Google Patents

Image transmission system, monitoring apparatus, and image transmission method Download PDF

Info

Publication number
JP2019125969A
JP2019125969A JP2018006584A JP2018006584A JP2019125969A JP 2019125969 A JP2019125969 A JP 2019125969A JP 2018006584 A JP2018006584 A JP 2018006584A JP 2018006584 A JP2018006584 A JP 2018006584A JP 2019125969 A JP2019125969 A JP 2019125969A
Authority
JP
Japan
Prior art keywords
image
unit
reference image
difference
transmission system
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018006584A
Other languages
Japanese (ja)
Other versions
JP6896655B2 (en
Inventor
直人 瀬戸
Naoto Seto
直人 瀬戸
広幸 小林
Hiroyuki Kobayashi
広幸 小林
和信 倉橋
Kazunobu Kurahashi
和信 倉橋
浩美 井上
Hiromi Inoue
浩美 井上
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Toshiba Energy Systems and Solutions Corp
Original Assignee
Toshiba Corp
Toshiba Energy Systems and Solutions Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp, Toshiba Energy Systems and Solutions Corp filed Critical Toshiba Corp
Priority to JP2018006584A priority Critical patent/JP6896655B2/en
Publication of JP2019125969A publication Critical patent/JP2019125969A/en
Application granted granted Critical
Publication of JP6896655B2 publication Critical patent/JP6896655B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Alarm Systems (AREA)

Abstract

To provide a technology that can transmit data even in a narrow band communication environment and can significantly reduce an amount of data that needs to be stored locally.SOLUTION: An image transmission system 1A includes a monitoring device 20A including encoding means for subtracting a selected reference image 27_k including the range of a first image from the first image to generate a difference image between the first image and the reference image, and encoding the image data of the generated difference image, and a display processing device 30A including decoding means for combining the difference image obtained by decoding the encoded image data of the difference image and the selected reference image 37_k corresponding to the reference image subtracted when the difference image is generated to generate a composite image corresponding to the first image.SELECTED DRAWING: Figure 1

Description

本発明の実施形態は、画像伝送システム、監視装置および画像伝送方法に関する。   Embodiments of the present invention relate to an image transmission system, a monitoring apparatus, and an image transmission method.

近年、画像による監視システムの需要が年々高まっており、技術の進歩により、フルHD(水平画素1920×垂直画素1080)画像、さらには4K(水平画素3840×垂直画素2160)画像といった高解像度動画を監視システムに適用したいという要望も増えてきている。   In recent years, the demand for surveillance systems using images has been increasing year by year, and technological advances have made high resolution moving images such as full HD (horizontal pixel 1920 × vertical pixel 1080) images and even 4K (horizontal pixel 3840 × vertical pixel 2160) images There is an increasing demand to apply to surveillance systems.

動画データの符号化量低減技術としては、前後画像および基準画像との比較で、差分に変化がない場合フレームレートを落としてデータ量を低減する技術や、異常が検知された領域(異常領域)および異常が検知されていない領域(非異常領域)が予め分かっている場合に非異常領域の画質を大幅に低減してデータ量を低減(高圧縮)する技術が知られている。   As a technique for reducing the amount of coding of moving image data, a technique for reducing the amount of data by reducing the frame rate when there is no change in the difference in comparison with the previous and subsequent images and the reference image, an area where abnormality is detected (abnormal area) And when the area (non-abnormal area) in which abnormality is not detected is known in advance, there is known a technique for greatly reducing the image quality of the non-abnormal area to reduce the data amount (high compression).

特許第5656575号公報Patent No. 5656575 gazette 特開2013−229666号公報JP, 2013-229666, A

高解像度動画による監視システムの提供は、デバイスの観点からすれば、従前よりも安価に高解像度の撮像素子を入手できるようになっているため、年々容易化しているといえる。   From a device point of view, provision of a high-resolution moving image monitoring system can be said to be facilitated year by year because high-resolution imaging devices can be obtained at lower prices than before.

一方、データ通信の通信環境の観点からすると、高解像度動画による監視システムの提供が必ずしも容易化しているとはいえない状況にある。例えば、発電所関連では、通信媒体のセキュリティ性確保などの理由から未だに室内ではPHS(Personal Handyphone System)が利用される場合もある。この場合、通信帯域が狭く、高解像度の動画を通常のテレビのフレームレートである30[fps](毎秒30フレーム)や60[fps](毎秒60フレーム)でリアルタイムに伝送することが難しくなり得る。   On the other hand, from the viewpoint of the communication environment of data communication, provision of a monitoring system using high resolution moving pictures is not always easy. For example, in relation to power plants, PHS (Personal Handyphone System) may still be used indoors for reasons such as ensuring security of communication media. In this case, it may be difficult to transmit a high resolution moving image with a narrow communication band in real time at a frame rate of 30 fps (30 frames per second) or 60 fps (60 frames per second) which is the normal television frame rate. .

従って、通信環境に左右されることなく高解像度動画による監視システムを提供するためには、限られた通信帯域で遠隔地に効率よく画像を伝送する必要がある。   Therefore, in order to provide a high-resolution moving image surveillance system regardless of the communication environment, it is necessary to efficiently transmit an image to a remote place in a limited communication band.

また、画像による監視システムにおけるデータ量を低減する観点からすれば、従来技術においてもフレームレート符号化手段側においてはデータ量が低減されている一方、監視センター側、すなわちローカル側ではデータ量が必ずしも低減されているとはいえない実情がある。   Also, from the viewpoint of reducing the amount of data in the monitoring system by image, while the amount of data is reduced in the frame rate encoding means side also in the prior art, the amount of data is not necessarily reduced in the monitoring center side, that is, the local side. There is a fact that can not be reduced.

具体的に説明すれば、画像による監視システムを連続で稼働させる場合、その稼動状態は、24時間連続で且つ数日に亘る場合も有り得る。   Specifically, when the image monitoring system is operated continuously, the operating state may be continuous for 24 hours and several days.

例えば、フルHD(1920×1080画素)の動画を、符号化方式としてH.264/AVCを採用し、デジタル放送と同等のフレームスピードである30[fps]で送信しようとする場合、数十M(メガ)[bps]の伝送量が必要となるため、1日(24時間連続稼働)で蓄積されるデータ量は、数十メガバイト[Mbyte]から数十テラバイト[Tbyte]となる。   For example, a moving image of full HD (1920 × 1080 pixels) is selected as a coding method according to H.264. When H.264 / AVC is adopted and transmission is performed at 30 [fps] which is the same frame speed as digital broadcasting, a transmission amount of several tens of megabits (mega) [bps] is required, so one day (24 hours) The amount of data accumulated in the continuous operation) is from several tens of megabytes [Mbyte] to several tens of terabytes [Tbyte].

このように、従来技術では、フレームレートを下げてデータ量を低減したり、符号化の前に前処理を行ったりすることで、伝送するデータ量を低減しているため、狭帯域な通信回線を利用できる点で有益であるものの、監視センター側において保存が必要なデータ量については十分な低減が図られていないという課題がある。   As described above, in the prior art, since the amount of data to be transmitted is reduced by reducing the frame rate to reduce the amount of data or performing preprocessing before encoding, a narrow-band communication line Although it is useful in that it can be used, there is a problem that the amount of data that needs to be stored at the monitoring center side is not sufficiently reduced.

本発明の実施形態は、上述した事情に鑑みてなされたものであり、狭帯域な通信環境下においてもデータ伝送可能であって、且つローカル側で保存が必要なデータ量を大幅に低減可能な画像伝送システム、監視装置および画像伝送方法を提供することを目的とする。   The embodiment of the present invention has been made in view of the above-described circumstances, and data can be transmitted even in a narrow band communication environment, and the amount of data that needs to be stored locally can be significantly reduced. An object of the present invention is to provide an image transmission system, a monitoring device, and an image transmission method.

本実施形態に係る画像伝送システムは、上述した課題を解決するため、一の画像から前記一の画像の範囲を含む参照画像を減算して前記一の画像と前記参照画像との差分画像を生成し、生成した差分画像の画像データを符号化する符号化手段と、前記差分画像の符号化された画像データを復号化して得られる前記差分画像と前記差分画像を生成する際に減算した前記参照画像とを加算し、前記一の画像に相当する合成画像を生成する復号化手段とを具備することを特徴とする。   The image transmission system according to the present embodiment subtracts the reference image including the range of the one image from the one image to generate the difference image between the one image and the reference image in order to solve the above-described problem. Encoding means for encoding the image data of the generated difference image, the difference image obtained by decoding the encoded image data of the difference image, and the reference obtained by subtracting the difference image when the difference image is generated And decoding means for adding an image and generating a composite image corresponding to the one image.

本実施形態に係る監視装置は、上述した課題を解決するため、対象物を撮像する撮像手段が駆動可能な範囲を撮像して得られた入力画像を撮像した前記撮像手段の姿勢を表す姿勢情報と関連付けられ、当該入力画像と同じ範囲を撮像した参照画像を保持する記憶領域にアクセスして、記憶領域に保持される参照画像の中から、前記姿勢情報を検出する姿勢情報検出手段から入力される前記姿勢情報と関連付けられている参照画像を選択する参照画像選択部と、前記入力画像と前記参照画像選択部が前記姿勢情報に基づいて選択した前記参照画像とを受け取り、前記入力画像と前記参照画像との差分の画像である差分画像を得る減算部と、前記差分画像を表す差分画像データを符号化する画像符号化部とを備えることを特徴とする。   In order to solve the above-described problem, the monitoring device according to the present embodiment indicates posture information representing the posture of the imaging device which captures an input image obtained by imaging a range in which the imaging device for capturing an object can drive. Is accessed from a posture information detection unit that detects the posture information from among the reference images held in the storage area by accessing the storage area holding the reference image captured in the same range as the input image A reference image selection unit for selecting a reference image associated with the posture information, the input image, and the reference image selected by the reference image selection unit based on the posture information; A subtraction unit for obtaining a difference image which is an image of a difference from a reference image, and an image coding unit for coding difference image data representing the difference image are characterized.

本実施形態に係る画像伝送方法は、上述した課題を解決するため、一の画像から前記一の画像の範囲を含む参照画像を減算して前記一の画像と前記参照画像との差分画像を生成し、生成した差分画像の画像データを符号化する符号化手段と、前記差分画像の符号化された画像データを復号化して得られる前記差分画像と前記差分画像を生成する際に減算した前記参照画像とを加算し、前記一の画像に相当する合成画像を生成する復号化手段とを具備する画像伝送システムを用いた画像伝送方法であって、前記符号化手段が、前記一の画像から前記参照画像を減算して前記一の画像と前記参照画像との差分画像を生成するステップと、前記差分画像の画像データを符号化するステップと、符号化された前記差分画像の画像データと、前記一の画像と関連付けられる前記参照画像を特定する識別情報とを前記復号化手段へ伝送するステップと、前記復号化手段が、符号化された前記差分画像の画像データを復号化するステップと、前記復号化するステップで得られた前記差分画像と、前記符号化手段から伝送される前記識別情報によって特定される前記参照画像とを加算して前記一の画像に相当する画像を生成するステップとを備えることを特徴とする。   The image transmission method according to the present embodiment generates a difference image between the one image and the reference image by subtracting the reference image including the range of the one image from the one image in order to solve the above-described problem. Encoding means for encoding the image data of the generated difference image, the difference image obtained by decoding the encoded image data of the difference image, and the reference obtained by subtracting the difference image when the difference image is generated An image transmission method using an image transmission system including decoding means for adding an image and generating a composite image corresponding to the one image, wherein the encoding means comprises the one image from the one image The steps of subtracting a reference image to generate a difference image between the one image and the reference image, encoding image data of the difference image, image data of the encoded difference image, and One picture Transmitting to the decoding means identification information identifying the reference image associated with the image data, the decoding means decoding image data of the encoded difference image, and decoding Adding the difference image obtained in the step and the reference image specified by the identification information transmitted from the encoding unit to generate an image corresponding to the one image. It features.

本実施形態によれば、狭帯域な通信環境下においてもデータ伝送でき、ローカル側で保存が必要なデータ量を大幅に低減することができる。   According to this embodiment, data can be transmitted even in a narrow band communication environment, and the amount of data that needs to be stored locally can be significantly reduced.

第1の実施形態に係る画像伝送システムの構成を示す概略図。BRIEF DESCRIPTION OF THE DRAWINGS The schematic which shows the structure of the image transmission system which concerns on 1st Embodiment. 実施形態に係る画像伝送システムで用いられる参照画像の一例(第1の実施例)を示す説明図。Explanatory drawing which shows an example (1st Example) of the reference image used with the image transmission system which concerns on embodiment. 実施形態に係る画像伝送システムで用いられる参照画像の一例(第2の実施例)を示す説明図。Explanatory drawing which shows an example (2nd Example) of the reference image used with the image transmission system which concerns on embodiment. 第1の実施形態に係る画像伝送方法における全体的な処理の流れを示す処理フロー図。FIG. 5 is a processing flow diagram showing the overall flow of processing in the image transmission method according to the first embodiment; 実施形態に係る画像伝送システムにおける他の構成例(変形例)を示す概略図。Schematic which shows the other structural example (modification) in the image transmission system which concerns on embodiment. 第2の実施形態に係る画像伝送システムの構成を示す概略図。Schematic which shows the structure of the image transmission system which concerns on 2nd Embodiment. 第2の画像伝送処理手順における第2の符号化工程の処理の流れを示す処理フロー図。The processing flow figure showing the flow of the processing of the 2nd encoding process in the 2nd image transmission processing procedure. 第2の画像伝送処理手順における第2の復号化工程の処理の流れを示す処理フロー図。The processing flow figure showing the flow of processing of the 2nd decoding process in the 2nd image transmission processing procedure. 第3の実施形態に係る画像伝送システムの構成を示す概略図。Schematic which shows the structure of the image transmission system which concerns on 3rd Embodiment.

以下、本発明の実施形態に係る画像伝送システム、監視装置および画像伝送方法を添付の図面に基づいて説明する。   Hereinafter, an image transmission system, a monitoring apparatus, and an image transmission method according to an embodiment of the present invention will be described based on the attached drawings.

なお、後述する各実施形態は、撮像手段が撮像する画像がフルHD(水平画素1920×垂直画素1080)のカラー画像であって、画像伝送システムを、定点カメラから監視対象を撮像した画像を取得する監視装置(ローカル)と監視対象の画像を受け取り統括管理する表示処理装置(センター)とを伝送可能に接続した監視システムに適用した場合の例を説明している。   In each embodiment to be described later, an image captured by the imaging unit is a full HD (horizontal pixel 1920 × vertical pixel 1080) color image, and the image transmission system acquires an image captured of a monitoring target from a fixed-point camera An example is described in which the present invention is applied to a monitoring system in which a monitoring device (local) and a display processing device (center) that receives and centrally manages an image to be monitored are connected in a transmittable manner.

[第1の実施形態]
図1は、第1の実施形態に係る画像伝送システムの一例である画像伝送システム1Aの構成を示す概略図である。
First Embodiment
FIG. 1 is a schematic view showing a configuration of an image transmission system 1A which is an example of the image transmission system according to the first embodiment.

なお、図1に示される記号「丸I」(○印内にローマ数字「I」が記入された記号)は、結合子であり、後述する図5等の他の図においても同様である。また、矢印の方向は、信号およびデータの流れの方向を示している。   The symbol "circle I" (a symbol in which a roman numeral "I" is entered in a circle) shown in FIG. 1 is a connector, and the same applies to other drawings such as FIG. 5 described later. Also, the direction of the arrow indicates the direction of signal and data flow.

画像伝送システム1Aは、例えば、本実施形態に係る監視装置の一例であって、画像データを符号化する符号化手段を備える監視装置20Aと、監視装置20Aから伝送される、符号化された画像データを復号化する復号化手段を備える表示処理装置30Aとを具備する。   The image transmission system 1A is, for example, an example of a monitoring device according to the present embodiment, and a monitoring device 20A including an encoding unit that encodes image data, and an encoded image transmitted from the monitoring device 20A. And a display processing device 30A provided with decoding means for decoding data.

画像伝送システム1Aにおいて、監視装置20Aは、入力側(図1における左側)がカメラ10と通信可能に接続され、出力側(図1における右側)が表示処理装置30Aと通信可能に接続される。また、表示処理装置30Aは、出力側が表示装置40と通信可能に接続される。   In the image transmission system 1A, the monitoring device 20A is communicably connected to the camera 10 on the input side (left side in FIG. 1) and communicably connected to the display processing device 30A on the output side (right side in FIG. 1). In addition, the display processing device 30A is communicably connected to the display device 40 on the output side.

カメラ10は、例えば、入射した光を集光するレンズ(図示省略)を介して入射した光を電気信号に変換することによって対象物を撮像する撮像手段としての撮像部11と、カメラ10(撮像部11)の撮像時の姿勢を表す姿勢情報を検出する姿勢情報検出手段としての姿勢情報検出部16とを備える。   The camera 10 includes, for example, an imaging unit 11 as an imaging unit for imaging an object by converting light incident through a lens (not shown) that condenses incident light into an electrical signal; And a posture information detection unit 16 as posture information detection means for detecting posture information representing a posture at the time of imaging of the unit 11).

姿勢情報検出部16が検出する姿勢情報は、表示処理装置30A側へ伝送される画像に対する参照画像27_kおよび37_k(kおよびnは、1≦k≦nを満たす自然数)を選択する際の識別情報に含まれる。ここで、参照画像27_kおよび37_kは、それぞれ、参照画像の候補と成り得るn枚の画像群(以下、「参照画像群」とする。)27_1〜27_nおよび37_1〜37_nから参照画像として選択される1枚の画像(以下、「選択参照画像」とする。)である。   The posture information detected by the posture information detection unit 16 is identification information when selecting reference images 27_k and 37_k (k and n are natural numbers satisfying 1 ≦ k ≦ n) with respect to the image transmitted to the display processing device 30A side. include. Here, the reference images 27 _ k and 37 _ k are selected as reference images from n image groups (hereinafter referred to as “reference image group”) 27 _ 1 to 27 _ n and 37 1 to 37 _ n which can be candidates for reference images. It is one image (hereinafter referred to as “selected reference image”).

撮像部11は、例えば、CCD(Charged Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)等の各種の撮像素子で構成される。   The imaging unit 11 includes, for example, various imaging elements such as a charged coupled device (CCD) and a complementary metal oxide semiconductor (CMOS).

姿勢情報検出部16は、例えば、カメラ10が駆動可能な方向のうち、少なくとも基準位置(角度)に対するパン(水平)方向の角度を表すパン角θ(図2および図3)とチルト(垂直)方向の角度を表すチルト角φ(図2および図3)とを検出する角度センサ、カメラ10の角速度を検出するジャイロセンサ(角速度センサ)等のカメラ10の撮像時の姿勢を特定可能な姿勢情報を検出するセンサで構成される。   The posture information detection unit 16 is, for example, a pan angle θ (FIGS. 2 and 3) and a tilt (vertical) that represent an angle in the pan (horizontal) direction with respect to at least the reference position (angle) in the driveable direction of the camera 10 (2 and 3) and attitude information capable of specifying the attitude at the time of imaging of the camera 10, such as an angle sensor for detecting the tilt angle φ (FIG. 2 and FIG. 3) and a gyro sensor (angular velocity sensor) for detecting the angular speed of the camera 10. It consists of a sensor that detects

姿勢情報検出部16は、基準位置からの駆動量に応じた姿勢情報を検出し、検出した姿勢情報をデータ出力する。例えば、姿勢情報検出部16が角度センサで構成される場合、姿勢情報検出部16は少なくともパン角θおよびチルト角φを逐一検出する。   The posture information detection unit 16 detects posture information according to the drive amount from the reference position, and outputs data of the detected posture information. For example, when the posture information detection unit 16 is configured by an angle sensor, the posture information detection unit 16 detects at least the pan angle θ and the tilt angle φ one by one.

カメラ10は、基本的には任意の箇所に固定され、駆動範囲内の所定範囲を撮像するとともに撮像時の姿勢情報を検出する。カメラ10は、撮像部11から対象物を撮像して得られる撮像画像の画像データを監視装置20Aへ伝送する。   The camera 10 is basically fixed at an arbitrary position, images a predetermined range within the drive range, and detects posture information at the time of imaging. The camera 10 transmits image data of a captured image obtained by capturing an object from the imaging unit 11 to the monitoring device 20A.

また、カメラ10は、姿勢情報検出部16から伝送する画像データを得る際におけるカメラ10の姿勢情報を、監視装置20Aおよび表示処理装置30Aへそれぞれ伝送する。伝送される姿勢情報は、選択参照画像27_kおよび選択参照画像37_kをそれぞれ選択する際の識別情報の少なくとも一部を構成する。   Further, the camera 10 transmits, to the monitoring device 20A and the display processing device 30A, posture information of the camera 10 when obtaining image data to be transmitted from the posture information detection unit 16. The attitude information to be transmitted constitutes at least a part of identification information when selecting the selected reference image 27_k and the selected reference image 37_k.

なお、上述したカメラ10は、姿勢情報検出部16を備えている場合の例であるが、必ずしもカメラ10自体が姿勢情報検出部16を備えている必要はなく、カメラ10の撮像時の姿勢情報を検出可能である限り、カメラ10の外部に姿勢情報検出部16が設けられていてもよい。また、カメラ10は、監視装置20A等の後述する監視装置に組み込まれて(一体的に)構成されていてもよい。   Although the camera 10 described above is an example in the case of including the posture information detection unit 16, the camera 10 itself does not necessarily have to include the posture information detection unit 16, and posture information at the time of imaging of the camera 10 The posture information detection unit 16 may be provided outside the camera 10 as long as it can detect In addition, the camera 10 may be incorporated (integrally) into a monitoring device described later such as the monitoring device 20A.

監視装置20Aは、例えば、符号化手段としての減算部21、参照画像選択部22Aおよび画像符号化部23と、記憶手段としての記憶部24とを備える。また、記憶部24には、撮像画像と同じ画像範囲を有する1枚の選択参照画像27_kを選択する際に参照される画像として、例えば、n枚の参照画像群27_1〜27_nが保持されている。   The monitoring device 20A includes, for example, a subtraction unit 21 as an encoding unit, a reference image selection unit 22A and an image encoding unit 23, and a storage unit 24 as a storage unit. In addition, the storage unit 24 stores, for example, n reference image groups 27_1 to 27_n as images to be referred to when selecting one selected reference image 27_k having the same image range as the captured image. .

減算部21は、一方の入力から他方の入力を減算して出力する減算機能を有する。監視装置20において減算部21は、一方の入力である第1の入力として、カメラ10から撮像画像の画像データを受け取り、他方の入力である第2の入力として、参照画像選択部22Aから選択参照画像27_k(参照画像群27_1〜27_nから選択される1枚)の画像データを受け取り、撮像画像と選択参照画像27_kとの差分をとった差分画像の画像データを生成する。生成された差分画像の画像データは、減算部21から出力され、画像符号化部23に入力される。   The subtraction unit 21 has a subtraction function of subtracting one input from the other input and outputting the result. In the monitoring apparatus 20, the subtraction unit 21 receives image data of a captured image from the camera 10 as a first input, which is one input, and selects and references from the reference image selection unit 22A as a second input, which is the other input. The image data of the image 27 _ k (one image selected from the reference image group 27 _ 1 to 27 _ n) is received, and the image data of the difference image taking the difference between the captured image and the selected reference image 27 _ k is generated. The image data of the generated difference image is output from the subtraction unit 21 and input to the image coding unit 23.

参照画像選択部22Aは、画像の識別情報として、カメラ10の姿勢情報を姿勢情報検出部16から受け取り、受け取った識別情報(カメラ10の姿勢情報)と関連付けられている選択参照画像27_kを記憶部24に保持される参照画像群27_1〜27_nから選択し読み出す。参照画像選択部22Aは、読み出した選択参照画像27_kを、参照画像選択部22Aから減算部21へ出力する。   The reference image selection unit 22A receives the posture information of the camera 10 from the posture information detection unit 16 as the identification information of the image, and stores the selected reference image 27 _k associated with the received identification information (posture information of the camera 10). It selects from the reference image group 27_1 to 27_n hold | maintained at 24, and reads it out. The reference image selection unit 22A outputs the read selected reference image 27_k from the reference image selection unit 22A to the subtraction unit 21.

画像符号化部23は、画像データを符号化する機能を有する。画像および画像の符号化方式は、基本的には、MPEG4およびH.264/AVCやH.265/AVC等の動画および動画符号化規格に準拠した方式を用いる。   The image coding unit 23 has a function of coding image data. The picture and picture coding schemes are basically MPEG4 and H.264. H.264 / AVC and H.264. A scheme compliant with moving pictures and moving picture coding standards such as H.265 / AVC is used.

画像符号化部23は、減算部21から画像データを受け取ると、受け取った画像データを符号化した符号化画像データを生成し、符号化画像データを表示処理装置30Aへ伝送する。   When receiving the image data from the subtraction unit 21, the image coding unit 23 generates coded image data obtained by coding the received image data, and transmits the coded image data to the display processing device 30A.

記憶部24は、情報の読み出し(リード)および書き込み(ライト)が可能な記憶領域を提供する記憶回路を有し、当該記憶領域に情報を保持する機能を有する。   The storage unit 24 includes a storage circuit that provides a storage area capable of reading (writing) and writing (writing) information, and has a function of holding information in the storage area.

監視装置20Aにおいて記憶部24は、選択参照画像27_kの候補となる参照画像群27_1〜27_nまたは選択され得る参照画像群27_1〜27_nの画像範囲を網羅するパノラマ画像28(図3)を保持する。   In the monitoring device 20A, the storage unit 24 holds the panoramic image 28 (FIG. 3) covering the image range of the reference image groups 27_1 to 27_n which can be candidates for the selected reference image 27_k or the reference image groups 27_1 to 27_n which can be selected.

なお、参照画像群27_1〜27_nおよびパノラマ画像28は、監視装置20Aを設置したタイミングで準備されることが基本であるが、設置後の撮影環境の変化等により撮像される画像の内容が変わってしまう場合も有り得るため、必要に応じて、データ更新されることが好ましい。   Although the reference image groups 27_1 to 27_n and the panoramic image 28 are basically prepared at the timing when the monitoring device 20A is installed, the content of the imaged image changes due to a change in the imaging environment after installation, etc. It is preferable that the data be updated as needed, since it may be possible.

監視装置20Aは、例えば、プロセッサおよび記憶回路を有する集積回路が形成される半導体チップに、上述した減算部21、参照画像選択部22Aおよび記憶部24の機能を組み込んだ(インストールした)半導体チップと、上述した画像符号化部23の機能を有するハードウェアエンコーダとの組み合わせ、上述した減算部21、参照画像選択部22A、画像符号化部23および記憶部24の機能を組み込んだ(インストールした)半導体チップ、コンピュータおよび上述した減算部21、参照画像選択部22A、画像符号化部23および記憶部24の機能をコンピュータに実現させるプログラム等によって構成される。   The monitoring device 20A is, for example, a semiconductor chip in which the functions of the subtraction unit 21, the reference image selection unit 22A, and the storage unit 24 described above are incorporated (installed) in a semiconductor chip on which an integrated circuit having a processor and a memory circuit is formed. A combination with the above-described hardware encoder having the function of the image coding unit 23, a semiconductor incorporating (installed) the functions of the subtraction unit 21, the reference image selection unit 22A, the image coding unit 23, and the storage unit 24 described above It comprises a chip, a computer, and a program that causes a computer to realize the functions of the subtraction unit 21 described above, the reference image selection unit 22A, the image encoding unit 23, and the storage unit 24.

なお、図1に示されるデータ伝送システム1Aおよび監視装置20Aは、表示処理装置30A側(センター側)で監視装置20Aから伝送される情報を参考にして対象物の監視を行っている例であるが、監視装置20A側(ローカル側)で監視する対象物の正常または異常の判定が必要な場合、監視装置20Aや表示処理装置30Aに監視する対象物の正常または異常を判定する判定部(図1において図示省略)をさらに設けてもよい。   The data transmission system 1A and the monitoring device 20A shown in FIG. 1 are an example in which the display processing device 30A side (center side) performs monitoring of an object with reference to information transmitted from the monitoring device 20A. However, when it is necessary to determine whether the monitoring object 20A (local side) is normal or abnormal for the target to be monitored, the monitoring unit 20A or the display processing device 30A determines the normal or abnormality of the target to be monitored (see FIG. 1) may be further provided.

データ伝送システム1Aでは、通常時であれば、撮像画像(減算部21において、減算される画像)と選択参照画像27_kとは酷似する(ほとんど差異が無い)関係であるため、例えば、差分画像の少なくとも一部に、正常または異常の判定を行う判定領域を設定し、設定した判定領域の輝度差が、所定値よりも大きい(是)か否かを判定することによって、監視する対象物の正常または異常を判定することができる。   In the data transmission system 1A, since the captured image (the image to be subtracted in the subtraction unit 21) and the selected reference image 27_k have a close resemblance (there is almost no difference) under normal conditions, for example, A normal to be monitored is set by setting a determination area for performing normal or abnormal determination at least in part and determining whether the luminance difference of the set determination area is larger than a predetermined value. Or it can determine the abnormality.

具体的には、差分画像に設定した判定領域の輝度差が、所定値よりも大きい(是である)旨の判定結果が得られた場合、異常が生じていると判定し、所定値以下(否)の場合には正常と判定する。   Specifically, when a determination result to the effect that the luminance difference of the determination area set in the difference image is larger than (prescribed) the predetermined value is obtained, it is determined that an abnormality has occurred, and a predetermined value or less In the case of no), it is judged as normal.

なお、判定部を表示処理装置30Aに設ける場合、判定部が行った判定結果を表示処理装置30Aから監視装置20Aへ伝送するように、監視装置20Aおよび表示処理装置30Aを構成すればよい。   When the determination unit is provided in the display processing device 30A, the monitoring device 20A and the display processing device 30A may be configured to transmit the determination result of the determination unit from the display processing device 30A to the monitoring device 20A.

また、監視する対象物の異常を報知する必要がある場合、監視する対象物の異常を報知する発報部(図1において図示省略)を、必要に応じて、監視装置20Aおよび表示処理装置30Aの少なくとも一方に設けてもよい。   In addition, when it is necessary to notify an abnormality of an object to be monitored, a reporting unit (not shown in FIG. 1) for notifying an abnormality of the object to be monitored may be a monitoring device 20A and a display processing device 30A as necessary. It may be provided on at least one of the two.

発報部を追設する場合、監視する対象物の異常を示す情報を、上述した判定部等の他の構成要素から受け取る、または監視する対象物の異常を判定する機能を発報部に持たせて、受け取るまたは判定した判定結果の情報に基づいて異常を報知する。異常の発報の方法は、ユーザが認識可能な方法、すなわち、人間の五感の少なくとも何れかの感覚で異常の発報を人間が感知できる方法の中から適宜選択される。   When a reporting unit is additionally provided, the reporting unit has a function of receiving information indicating an abnormality of an object to be monitored from another component such as the determination unit described above, or determining an abnormality of the object to be monitored. The abnormality is informed on the basis of the information of the received or judged judgment result. The method of detecting an abnormality is appropriately selected from methods that can be recognized by the user, that is, methods in which the detection of an abnormality can be detected by at least one of human senses.

なお、表示処理装置30Aへ符号化画像データを伝送する際には、符号化画像データを構成するデータパケットのヘッダ部に他の情報を組み込んで伝送してもよい。表示処理装置30Aへ伝送が必要な情報のうち、監視装置20Aが受け取った情報または生成した情報については、符号化画像データを構成するデータパケットのヘッダ部に組み込んで表示処理装置30Aへ伝送するようにすることができる。   When transmitting the encoded image data to the display processing device 30A, other information may be incorporated into the header portion of the data packet constituting the encoded image data for transmission. Information received or generated by the monitoring device 20A among the information required to be transmitted to the display processing device 30A is incorporated into the header portion of the data packet constituting the encoded image data and transmitted to the display processing device 30A. Can be

例えば、データ伝送システム1Aにおいて、監視装置20Aが受け取った姿勢情報を符号化画像データに組み込んで伝送すれば、姿勢情報検出部16と表示処理装置30Aとを接続する通信媒体が不要となり、当該通信媒体を節約することができる。   For example, in the data transmission system 1A, if the attitude information received by the monitoring device 20A is incorporated into encoded image data and transmitted, a communication medium for connecting the attitude information detection unit 16 and the display processing device 30A becomes unnecessary, and the communication Media can be saved.

表示処理装置30Aは、例えば、復号化手段としての画像復号化部31、加算部32および参照画像選択部33Aと記憶手段としての記憶部34とを備える。また、記憶部34には、参照画像群27_1〜27_nと実質的に同じ画像であるn枚の参照画像群37_1〜37_nが保持されている。   The display processing device 30A includes, for example, an image decoding unit 31 as a decoding unit, an addition unit 32, a reference image selection unit 33A, and a storage unit 34 as a storage unit. Further, the storage unit 34 holds n reference image groups 37_1 to 37_n, which are images substantially the same as the reference image groups 27_1 to 27_n.

画像復号化部31は、画像符号化部23のデータ符号化の方式に対応したデータ復号化の機能を有する。画像復号化部31では、画像符号化部23と同様、規格に準拠した方式を採用し、基本的には画像符号化部23で採用する方式と同じ方式を採用する。   The image decoding unit 31 has a data decoding function corresponding to the data encoding scheme of the image encoding unit 23. Similar to the image coding unit 23, the image decoding unit 31 adopts a method conforming to the standard, and basically adopts the same method as the method adopted by the image coding unit 23.

画像復号化部31は、監視装置20Aから符号化画像データを受け取ると、符号化画像データを復号化する。すなわち、画像復号化部31は、画像符号化部23が符号化する前の画像データに復号し、復号した画像データを加算部32へ出力する。   When receiving the coded image data from the monitoring device 20A, the image decoding unit 31 decodes the coded image data. That is, the image decoding unit 31 decodes the image data before being coded by the image coding unit 23, and outputs the decoded image data to the addition unit 32.

加算部32は、二つの入力を加算して出力する加算機能を有する。表示処理装置30Aにおいて、加算部32は、第1の入力として画像復号化部31から受け取る画像データと第2の入力として参照画像選択部33Aから受け取る選択参照画像37_kの画像データとを加算(合成)し、加算(合成)した画像データを得る。   The addition unit 32 has an addition function of adding and outputting two inputs. In the display processing device 30A, the addition unit 32 adds the image data received from the image decoding unit 31 as the first input and the image data of the selected reference image 37_k received from the reference image selection unit 33A as the second input ) And add (compose) image data.

表示処理装置30Aにおいて、加算部32から出力される画像データは、カメラ10から監視装置20Aが受け取る撮像画像、より詳細には監視装置20Aにおける減算部21の第1の入力として減算される画像に相当する画像の画像データである。すなわち、加算部32が生成した画像データに基づく画像(合成画像)は、カメラ10から受け取る撮像画像と同義の画像である。加算部32は、加算結果である画像データを、カメラ10が取得した画像データとして表示装置40へ出力する。   In the display processing device 30A, the image data output from the addition unit 32 is a captured image received from the camera 10 by the monitoring device 20A, more specifically, an image to be subtracted as a first input of the subtraction unit 21 in the monitoring device 20A. It is image data of a corresponding image. That is, an image (composite image) based on the image data generated by the adding unit 32 is an image having the same meaning as the captured image received from the camera 10. The addition unit 32 outputs the image data that is the addition result to the display device 40 as the image data acquired by the camera 10.

表示処理装置30Aにおける参照画像選択部33Aおよび記憶部34は、監視装置20Aが備える参照画像選択部22Aおよび記憶部24と実質的に同じ機能を有する。すなわち、参照画像選択部33Aおよび記憶部34と、参照画像選択部22Aおよび記憶部24とは、設けられている場所が、監視装置20Aであるか表示処理装置30Aであるかの点で相違するが、機能的には実質的に相違しない。   The reference image selection unit 33A and the storage unit 34 in the display processing device 30A have substantially the same functions as the reference image selection unit 22A and the storage unit 24 included in the monitoring device 20A. That is, the reference image selection unit 33A and the storage unit 34 are different from the reference image selection unit 22A and the storage unit 24 in that the provided place is the monitoring device 20A or the display processing device 30A. However, there is no substantial difference in function.

なお、表示処理装置30Aは、例えば、プロセッサおよび記憶回路を有する集積回路が形成される半導体チップに、上述した加算部32、参照画像選択部33Aおよび記憶部34の機能を組み込んだ(インストールした)半導体チップと、上述した画像復号化部31の機能を有するハードウェアデコーダとの組み合わせ、上述した画像復号化部31、加算部32、参照画像選択部33Aおよび記憶部34の機能を組み込んだ(インストールした)半導体チップ、コンピュータおよび上述した画像復号化部31、加算部32、参照画像選択部33Aおよび記憶部34の機能をコンピュータに実現させるプログラム等によって構成される。   The display processing device 30A incorporates (installs) the functions of the addition unit 32, the reference image selection unit 33A, and the storage unit 34 in a semiconductor chip on which an integrated circuit having a processor and a memory circuit is formed, for example. A combination of the semiconductor chip and the hardware decoder having the function of the image decoding unit 31 described above, and the functions of the image decoding unit 31, the addition unit 32, the reference image selection unit 33A, and the storage unit 34 described above The semiconductor chip, the computer, and the program for causing the computer to realize the functions of the image decoding unit 31, the addition unit 32, the reference image selection unit 33A, and the storage unit 34 described above.

続いて、参照画像選択部22Aが選択する選択参照画像27_kと記憶部24に保持される参照画像群27_1〜27_n(またはパノラマ画像28)との関係について説明する。   Next, the relationship between the selected reference image 27_k selected by the reference image selection unit 22A and the reference image groups 27_1 to 27_n (or the panoramic image 28) held in the storage unit 24 will be described.

図2および図3は、画像伝送システム1A等、実施形態に係る画像伝送システムで用いられる選択参照画像27_kの一例を示す説明図である。   FIGS. 2 and 3 are explanatory diagrams showing an example of the selection reference image 27 _k used in the image transmission system according to the embodiment, such as the image transmission system 1A.

選択参照画像27_kの第1の実施例として図2に例示される選択参照画像27_kは、n枚の参照画像群27_1〜27_nの中から識別情報が合致する1枚を選択参照画像27_kとして選択する場合の例である。   The selection reference image 27_k illustrated in FIG. 2 as the first embodiment of the selection reference image 27_k selects one of the n reference image groups 27_1 to 27_n, which matches the identification information, as the selection reference image 27_k. It is an example of the case.

図2に例示される参照画像群27_1〜27_nは、パン(水平)方向に撮像画像i(iは自然数)枚およびチルト(垂直)方向に撮像画像j(jは自然数)枚が並んでおり、撮像画像n(=ij)枚分の画像範囲を網羅している。   In the reference image groups 27_1 to 27_n illustrated in FIG. 2, the number of captured images i (i is a natural number) in the pan (horizontal) direction and the number of captured images j (j in the natural number) are aligned in the tilt (vertical) direction. The image range of the captured image n (= ij) sheets is covered.

カメラ10(図1)のパン角θおよびチルト角φの設定は、少なくとも監視する対象物を網羅する範囲であることが必要であるが、好ましくは監視する対象物を網羅し、カメラ10の解像度に応じて求められるパン方向およびチルト方向の最小駆動角αおよびβの整数倍に設定することである。すなわち、θ=iαおよびφ=jβが成立するように、パン角θおよびチルト角φを設定し、パン方向i枚×チルト方向j枚の参照画像群27_1〜27_nを準備する。 The setting of the pan angle θ and the tilt angle φ of the camera 10 (FIG. 1) needs to at least cover the target to be monitored, but preferably covers the target to be monitored and the resolution of the camera 10 The minimum drive angles α 0 and β 0 of the pan direction and the tilt direction, which are obtained according to That is, as theta = i.alpha 0 and φ = jβ 0 is satisfied, and set the pan angle theta and tilt angle phi, to prepare a pan direction i Like × tilt direction j Like reference images 27_1~27_N.

ここで、図2に例示される「参照画像(1,1)」は、基準位置からパン方向に最小駆動角αの1倍(=α)、チルト方向に最小駆動角βの1倍(=β)移動した位置において取得される撮像画像と同じ範囲を撮像した画像(参照画像)27_1である。 Here, “reference image (1, 1)” illustrated in FIG. 2 is 1 of the minimum drive angle α 0 (= α 0 ) in the pan direction from the reference position and 1 of the minimum drive angle β 0 in the tilt direction. It is an image (reference image) 27_1 obtained by imaging the same range as the captured image acquired at the position moved by double (= β 0 ).

チルト方向の位置を基準位置からチルト方向に最小駆動角β移動した位置に固定したまま、パン方向に最小駆動角αずつiαまで順次移動させた(パン角θをα,2α,…,iαと変化させた)場合、パン方向にα移動後の最初の位置において取得される撮像画像と同じ範囲を撮像した画像(参照画像)が「参照画像(1,1)」であり、以降、「参照画像(2,1)」、…「参照画像(i,1)」となる。 While fixing the tilt direction of the position from the reference position to the minimum drive angle beta 0 moved position in the tilt direction, and moved sequentially until i.alpha 0 by minimum drive angle alpha 0 in the pan direction (the pan angle θ α 0, 0 , ..., iα 0 )), an image (reference image) obtained by imaging the same range as the captured image acquired at the first position after α 0 movement in the pan direction is “reference image (1, 1)” Henceforth, “reference image (2, 1)”,... “Reference image (i, 1)”.

チルト方向についてもパン方向と同様に、基準位置からパン方向に最小駆動角α移動した位置に固定したまま、チルト方向に最小駆動角βずつチルト角φ=jβまで順次移動させた(チルト角φをβ,2β,…,jβと変化させた)場合、チルト方向にβ移動後の最初の位置において取得される撮像画像と同じ範囲を撮像した画像(参照画像)が「参照画像(1,1)」であり、以降、「参照画像(1,2)」、…「参照画像(1,j)」となる。 Like the pan direction about the tilt direction while fixing the reference position to the minimum driving angle alpha 0 and the movement position in the pan direction and is sequentially moved to a tilt angle φ = jβ 0 by minimum drive angle beta 0 in the tilt direction ( When the tilt angle φ is changed to β 0 , 2β 0 , ..., jβ 0 ), an image (reference image) obtained by capturing the same range as the captured image acquired at the first position after β 0 movement in the tilt direction "Reference image (1, 1)", and hence "reference image (1, 2)", ... "reference image (1, j)".

従って、「参照画像(i,j)」は、基準位置からパン方向に最小駆動角αのi倍(=iα)、チルト方向に最小駆動角βのj倍(=jβ)移動した位置において取得される撮像画像と同じ範囲を撮像した画像(参照画像)27_n(図2の例では、n=ij)である。 Therefore, “reference image (i, j)” moves from the reference position in the pan direction by i times the minimum drive angle α 0 (= iα 0 ) and in the tilt direction by j times the minimum drive angle β 0 (= jβ 0 ) It is an image (reference image) 27_n (n = ij in the example of FIG. 2) obtained by imaging the same range as the captured image acquired at the position described above.

上述した第1の実施例の場合、参照画像選択部22Aは、識別情報に含まれる姿勢情報としてカメラ10のパン角θおよびチルト角φを取得し、取得したパン角θおよびチルト角φと同じ姿勢で撮像された画像と同じ範囲の画像を参照画像群27_1〜27_nの中から探し、該当する参照画像を選択参照画像27_kとする。   In the case of the first embodiment described above, the reference image selection unit 22A acquires the pan angle θ and the tilt angle φ of the camera 10 as posture information included in the identification information, and is the same as the acquired pan angle θ and tilt angle φ. An image in the same range as the image captured in the posture is searched from the reference image groups 27_1 to 27_n, and the corresponding reference image is set as a selected reference image 27_k.

また、参照画像選択部22Aが選択する選択参照画像27_kの第2の実施例として、参照画像群27_1〜27_nの代わりに、選択参照画像27_kの画像範囲を網羅するパノラマ画像28を記憶部24に保持させてよい。   In addition, as a second example of the selected reference image 27_k selected by the reference image selection unit 22A, the panoramic image 28 covering the image range of the selected reference image 27_k is stored in the storage unit 24 instead of the reference image groups 27_1 to 27_n. You may hold it.

図3に例示される、選択参照画像27_kの第2の実施例としてのパノラマ画像28は、撮像画像として取得され得る全ての画像、すなわち参照画像群27_1〜27_nを合成した画像である。パノラマ画像28は、パン(水平)方向に撮像画像i枚分の長さとチルト(垂直)方向に撮像画像j枚分の長さとを有する撮像画像n枚分の範囲を網羅する1枚の画像である。   The panoramic image 28 as the second example of the selected reference image 27_k illustrated in FIG. 3 is an image obtained by combining all the images that can be acquired as captured images, that is, the reference image groups 27_1 to 27_n. The panoramic image 28 is a single image covering a range of n captured images having a length of i captured images in the pan (horizontal) direction and a length of j captured images in the tilt (vertical) direction. is there.

図3に例示されるパノラマ画像28の画素位置は、カメラ10(図1)のパン方向をX軸方向とし、チルト方向をY軸方向とする二次元直交座標系によって表される。パノラマ画像28には、基準点および当該基準点を基準としてパン方向(X軸方向)およびチルト方向(Y軸方向)に所定量の画素を切り出した、カメラ10の解像度に相当する画素数の基準画像Oが設定される。   The pixel position of the panoramic image 28 illustrated in FIG. 3 is represented by a two-dimensional orthogonal coordinate system in which the pan direction of the camera 10 (FIG. 1) is the X axis direction and the tilt direction is the Y axis direction. In the panoramic image 28, a reference point and a reference of the number of pixels corresponding to the resolution of the camera 10 in which pixels of a predetermined amount are cut out in the pan direction (X axis direction) and the tilt direction (Y axis direction) with reference to the reference point An image O is set.

図3に例示されるパノラマ画像28では、当該画像に含まれる一点(画素)であって、四隅の点(画素)PO1〜PO4のうち、左隅の点(画素)PO1に位置する原点O(0,0)を基準点とし、原点OからX軸正方向およびY軸正方向に、それぞれ、フルHD画像に相当する1080画素および1920画素を切り出した基準画像Oが設定されている。 In the panoramic image 28 is illustrated in Figure 3, a single point that is included in the image (pixels) of a point (pixel) P O1 to P O4 of the four corners, the origin is located at point of left corner (pixel) P O1 A reference image O in which 1080 pixels and 1920 pixels corresponding to a full HD image are cut out is set in the X axis positive direction and the Y axis positive direction from the origin O with O (0, 0) as a reference point.

参照画像選択部22A(図1)は、受け取った姿勢情報から把握される画像、すなわち画像Rの基準点の位置を二次元直交座標系の座標に変換する。ここで、画像Rの基準点は、基準画像Oの基準と同じ位置関係にあり、図3に示される例では、基準画像Oと同じ位置関係にある左隅の点(画素)Pr1に位置する。 The reference image selection unit 22A (FIG. 1) converts the image grasped from the received posture information, that is, the position of the reference point of the image R into the coordinates of the two-dimensional orthogonal coordinate system. Here, the reference point of the image R is in the same positional relationship as the reference of the reference image O, and in the example shown in FIG. 3, located at the point (pixel) P r1 at the left corner which is in the same positional relationship as the reference image O .

ここで、画像Rの基準点の位置を表す座標として得られた座標が(X,Y)=(X1,Y1)である場合、この基準点(X1,Y1)から基準画像Oと同様に、X軸正方向およびY軸正方向に、それぞれ、1080画素および1920画素を切り出した画像Rを選択参照画像27_kとして選択する。   Here, when the coordinates obtained as the coordinates representing the position of the reference point of the image R are (X, Y) = (X1, Y1), the reference point (X1, Y1) from the reference point O similarly to the reference image O An image R in which 1080 pixels and 1920 pixels are cut out in the X-axis positive direction and the Y-axis positive direction, respectively, is selected as the selected reference image 27_k.

すなわち、選択参照画像27_kとして選択される画像Rは、基準画像Oの四隅の点(画素)PO1〜PO4を、それぞれ、X軸方向にX1およびY軸方向にY1だけ平行移動させた四点(画素)PR1〜PR4を、四隅とする画像である。すなわち、パノラマ画像28における基準画像Oに対する移動量は、(ΔX,ΔY)=(X1,Y1)である。 That is, the image R to be selected as the selected reference image 27_k is the reference image O point (pixel) P O1 to P O4 of the four corners of, respectively, to translate only Y1 to X1 and the Y-axis direction in the X-axis direction four a point (pixel) P R1 ~P R4, which is an image to the four corners. That is, the movement amount with respect to the reference image O in the panoramic image 28 is (ΔX, ΔY) = (X1, Y1).

ここで、パノラマ画像28の水平画素数をu、垂直画素数をv、パン方向の最小駆動角をα、チルト方向の最小駆動角をβとした場合、パン方向の最小駆動角αに対する水平画素数およびチルト方向の最小駆動角βに対する垂直画素数は、それぞれ、u/αおよびv/βとなる。 Here, assuming that the horizontal pixel number of the panoramic image 28 is u, the vertical pixel number is v, the minimum drive angle in the pan direction is α 0 , and the minimum drive angle in the tilt direction is β 0 , the minimum drive angle α 0 in the pan direction The number of horizontal pixels for Y and the number of vertical pixels for the minimum drive angle β 0 in the tilt direction are u / α 0 and v / β 0 , respectively.

従って、カメラ10を、パン方向に角度αおよびチルト方向に角度β移動させた場合、基準画像Oに対するX軸方向の移動量ΔXはα×(u/α)となり、Y軸方向の移動量ΔYはβ×(v/β)となる。すなわち(ΔX,ΔY)=(uα/α,vβ/β)となる。パノラマ画像28の水平画素数u、垂直画素数v、パン方向の最小駆動角α、チルト方向の最小駆動角βおよび基準画像Oを撮像した際のカメラ10の姿勢情報としてのパン角およびチルト角が既知なので、カメラ10の現在のパン角およびチルト角がわかれば、上述の方法で基準画像Oから画像Rへの移動量(ΔX,ΔY)を画素単位で求めることができる。 Therefore, when the camera 10 is moved in the pan direction at the angle α and in the tilt direction at the angle β, the movement amount ΔX in the X axis direction with respect to the reference image O is α × (u / α 0 ), and the movement amount in the Y axis direction ΔY is β × (v / β 0 ). That is, (ΔX, ΔY) = (uα / α 0 , vβ / β 0 ). The number of horizontal pixels u panoramic image 28, the number of vertical pixels v, pan direction of the minimum drive angle alpha 0, the pan angle of the posture information of the camera 10 at the time of imaging the minimum driving angle beta 0 and the reference image O in the tilt direction and Since the tilt angle is known, if the current pan angle and tilt angle of the camera 10 are known, the amount of movement (ΔX, ΔY) from the reference image O to the image R can be obtained in pixel units by the above-described method.

なお、図3に示される基準画像Oの基準点は、左下隅の点(画素)PO1である場合の例であるが、基準点は必ずしもPO1でなくてもよく、基準画像Oに含まれる一点(画素)であればよい。 Although the reference point of the reference image O shown in FIG. 3 is an example in the case of the point (pixel) PO1 at the lower left corner, the reference point may not necessarily be PO1 and is included in the reference image O It is sufficient if it is a single point (pixel).

参照画像群27_1〜27_n(第1の実施例:図2)の代わりに、パノラマ画像28(第2の実施例:図3)を採用した場合、参照画像群27_1〜27_nを採用する場合と比べて記憶部24における画像データのデータ量をより小さく抑えることができる。   When the panoramic image 28 (the second embodiment: FIG. 3) is employed instead of the reference image groups 27_1 to 27_n (the first embodiment: FIG. 2), compared to the case where the reference image groups 27_1 to 27_n are employed. Thus, the data amount of image data in the storage unit 24 can be further reduced.

なお、上述した参照画像選択部22Aが選択する選択参照画像27_kと記憶部24に保持される参照画像群27_1〜27_n(またはパノラマ画像28)との関係は、監視装置20Aにおける話であるが、表示処理装置30Aにおいても同様である。   The relationship between the selected reference image 27_k selected by the reference image selection unit 22A described above and the reference image groups 27_1 to 27_n (or the panoramic image 28) held in the storage unit 24 is a story in the monitoring device 20A. The same applies to the display processing device 30A.

すなわち、表示処理装置30Aにおける参照画像選択部33Aが選択する選択参照画像37_kと記憶部34に保持される参照画像群37_1〜37_n(または参照画像群37_1〜37_nと同じ画像範囲を有するパノラマ画像)との関係は、上述した参照画像選択部22Aが選択する選択参照画像27_kと記憶部24に保持される参照画像群27_1〜27_n(またはパノラマ画像28)との関係についての説明における符号22A、24および27を、それぞれ、33A、34および37に読み替えた内容である。   That is, the selected reference image 37_k selected by the reference image selection unit 33A in the display processing device 30A and the reference image groups 37_1 to 37_n held in the storage unit 34 (or panoramic images having the same image range as the reference image groups 37_1 to 37_n) The reference numeral 22A in the description of the relationship between the selected reference image 27_k selected by the reference image selection unit 22A described above and the reference image groups 27_1 to 27_n (or the panoramic image 28) held in the storage unit 24. And 27 are replaced with 33A, 34 and 37, respectively.

次に、第1の実施形態に係る画像伝送方法について説明する。
第1の実施形態に係る画像伝送方法は、例えば、画像伝送システム1Aを用いて実施することができる。画像伝送システム1Aを用いて第1の実施形態に係る画像伝送方法を実施する場合、伝送元となる監視装置20Aでは、伝送したい元の画像と参照画像との差分画像が生成され、さらに差分画像の画像データが符号化される一方、伝送先となる表示処理装置30Aでは、監視装置20Aから受け取る符号化された画像データが復号化され、参照画像を用いて監視装置20Aから伝送したい元の画像が生成される。
Next, an image transmission method according to the first embodiment will be described.
The image transmission method according to the first embodiment can be implemented, for example, using the image transmission system 1A. When the image transmission method according to the first embodiment is performed using the image transmission system 1A, the monitoring device 20A serving as the transmission source generates a difference image between the original image to be transmitted and the reference image, and further the difference image Is encoded, while the display processing device 30A serving as the transmission destination decodes the encoded image data received from the monitoring device 20A and uses the reference image to transmit the original image to be transmitted from the monitoring device 20A. Is generated.

図4は、第1の実施形態に係る画像伝送方法の一例であって、画像伝送システム1Aが行う第1の画像伝送処理手順における全体的な処理の流れを示す処理フロー図である。   FIG. 4 is an example of an image transmission method according to the first embodiment, and is a processing flow diagram showing an overall processing flow in a first image transmission processing procedure performed by the image transmission system 1A.

第1の画像伝送処理手順は、監視装置20Aが行う第1の符号化工程(ステップS1)と、表示処理装置30Aが行う第1の復号化工程(ステップS2)とを備える。   The first image transmission processing procedure includes a first encoding step (step S1) performed by the monitoring device 20A and a first decoding step (step S2) performed by the display processing device 30A.

第1の画像伝送処理手順では、処理ステップの実行が開始されると(START)、第1の符号化工程(ステップS1:ステップS11〜ステップS14)が行われ、続いて、第1の復号化工程(ステップS2:ステップS21〜ステップS24)が行われる。   In the first image transmission processing procedure, when execution of the processing step is started (START), the first encoding step (step S1: steps S11 to S14) is performed, and then the first decoding is performed. A process (step S2: step S21 to step S24) is performed.

図4に例示される第1の符号化工程(ステップS1)では、減算部21(図1)が、伝送先となる表示処理装置30Aへ伝送するカメラ10の撮像画像の画像データを第1の入力として受け取る一方、参照画像選択部22Aが、減算部21が受け取る撮像画像の識別情報(監視装置20Aでは姿勢情報を含む)を受け取る(ステップS11)。   In the first encoding step (step S1) illustrated in FIG. 4, the subtraction unit 21 (FIG. 1) performs first processing on image data of a captured image of the camera 10 transmitted to the display processing device 30A as a transmission destination. While receiving as an input, the reference image selecting unit 22A receives identification information (including posture information in the monitoring device 20A) of the captured image received by the subtracting unit 21 (step S11).

続いて、参照画像選択部22A(図1)が、参照画像群27_1〜27_n(またはパノラマ画像28)から、受け取った識別情報と関連付けられている1枚の選択参照画像27_k(図1)を選択する(ステップS12)。   Subsequently, the reference image selection unit 22A (FIG. 1) selects one selected reference image 27_k (FIG. 1) associated with the received identification information from the reference image groups 27_1 to 27_n (or the panoramic image 28). (Step S12).

続いて、減算部21が、第1の入力として受け取った撮像画像の画像データから選択参照画像27_kの画像データを減算して、当該撮像画像と選択参照画像27_kとの差分画像の画像データを生成する(ステップS13)。以下、ステップS13を「第1の差分画像生成ステップ」と呼称する。   Subsequently, the subtraction unit 21 subtracts the image data of the selected reference image 27_k from the image data of the captured image received as the first input to generate the image data of the difference image between the captured image and the selected reference image 27_k. (Step S13). Hereinafter, step S13 will be referred to as "first difference image generation step".

続いて、画像符号化部23(図1)が、第1の差分画像生成ステップ(ステップS13)において生成された差分画像の画像データを符号化し、差分画像の符号化画像データを生成する(ステップS14)。   Subsequently, the image encoding unit 23 (FIG. 1) encodes the image data of the difference image generated in the first difference image generation step (step S13) to generate encoded image data of the difference image (step S14).

差分画像の符号化画像データが生成されると、ステップS14は完了し、ステップS14の完了をもって、第1の符号化工程(ステップS1:ステップS11〜ステップS14)は完了する。   When the encoded image data of the difference image is generated, step S14 is completed, and with the completion of step S14, the first encoding step (step S1: steps S11 to S14) is completed.

第1の符号化工程(ステップS1:ステップS11〜ステップS14)が完了すると、監視装置20Aは、得られた符号化画像データと受け取った識別情報とを表示処理装置30A(図1)へ伝送する。   When the first encoding step (step S1: steps S11 to S14) is completed, the monitoring device 20A transmits the obtained encoded image data and the received identification information to the display processing device 30A (FIG. 1). .

第1の復号化工程(ステップS2:ステップS21〜ステップS24)では、表示処理装置30Aにおける画像復号化部31(図1)が差分画像の符号化画像データを受け取る一方、参照画像選択部33A(図1)が、監視装置20Aから表示処理装置30Aへ伝送する画像の識別情報を受け取る(ステップS21)。   In the first decoding step (step S2: steps S21 to S24), while the image decoding unit 31 (FIG. 1) in the display processing device 30A receives the encoded image data of the difference image, the reference image selection unit 33A ( FIG. 1) receives identification information of an image to be transmitted from the monitoring device 20A to the display processing device 30A (step S21).

続いて、画像復号化部31(図1)が、受け取った差分画像の符号化画像データを復号化する。当該復号化の結果、画像復号化部31は、監視装置20Aが生成した差分画像の画像データと同義の画像データを得る(ステップS22)。   Subsequently, the image decoding unit 31 (FIG. 1) decodes the received coded image data of the difference image. As a result of the decoding, the image decoding unit 31 obtains image data having the same meaning as the image data of the difference image generated by the monitoring device 20A (step S22).

続いて、参照画像選択部33Aが、選択参照画像群37_1〜37_n(図1)(または選択参照画像群37_1〜37_nと同じ画像範囲を有するパノラマ画像)から、受け取った識別情報と関連付けられている1枚の選択参照画像37_kを選択する(ステップS23)。   Subsequently, the reference image selection unit 33A is associated with the identification information received from the selected reference image groups 37_1 to 37 — n (FIG. 1) (or panoramic images having the same image range as the selected reference image groups 37_1 to 37 — n). One selection reference image 37 — k is selected (step S23).

続いて、加算部32が、ステップS22において得られた差分画像の画像データとステップS23において選択された選択参照画像37_kの画像データとを加算し、差分画像と選択参照画像37_kとを合成した合成画像を生成する(ステップS24)。本処理ステップで生成される合成画像は、監視装置20Aがカメラ10から受け取る撮像画像と同義の画像である。   Subsequently, the adding unit 32 adds the image data of the difference image obtained in step S22 and the image data of the selected reference image 37_k selected in step S23, and combines the difference image and the selected reference image 37_k. An image is generated (step S24). The composite image generated in the present processing step is an image having the same meaning as the captured image received by the monitoring device 20A from the camera 10.

差分画像と選択参照画像37_kとを合成した合成画像が生成されると、第1の復号化工程は全処理ステップ(ステップS2:ステップS21〜ステップS24)を完了する。第1の復号化工程が完了すると、第1の画像伝送処理手順の全処理工程(ステップS1およびステップS2)が完了し、第1の画像伝送処理手順は終了する(END)。   When a composite image obtained by combining the difference image and the selection reference image 37 — k is generated, the first decoding step completes all the processing steps (step S2: steps S21 to S24). When the first decoding step is completed, all the processing steps (steps S1 and S2) of the first image transmission processing procedure are completed, and the first image transmission processing procedure is ended (END).

本実施形態では、カメラ10が撮影した撮像画像と基本的には移動する物体がない場合に撮像画像と酷似する(ほとんど差異が無い)選択参照画像27_kとの差分をとった差分画像を監視装置20Aから表示処理装置30A側へ伝送する。ここで、生成される差分画像は、基本的にはほとんど差異が無いことからデータ量が非常に小さい(輝度差の少ない)画像となる。   In the present embodiment, a monitoring device monitors a difference image obtained by subtracting the difference between the selected reference image 27_k (which has almost no difference with the captured image when there is no moving object basically with the captured image captured by the camera 10). 20A to the display processing device 30A side. Here, the generated difference image basically becomes an image with a very small amount of data (a small difference in luminance) since there is almost no difference.

故に、本実施形態によれば、画像伝送システム1Aにおける監視装置20Aから表示処理装置30Aへ伝送が必要なデータ量を大きく低減することができ、監視装置20Aおよび表示処理装置30Aを接続する通信網の通信帯域が狭く単位時間あたりに伝送可能なデータ量が少ない場合であっても、所定時間内に表示処理装置30A側へ必要な情報を伝送することができる。また、データの符号化工程および復号化工程を適用することで、伝送が必要なデータ量をより少なく抑えることができる。   Therefore, according to the present embodiment, the amount of data required to be transmitted from the monitoring device 20A to the display processing device 30A in the image transmission system 1A can be greatly reduced, and the communication network connecting the monitoring device 20A and the display processing device 30A. Even when the communication bandwidth is narrow and the amount of data that can be transmitted per unit time is small, necessary information can be transmitted to the display processing device 30A within a predetermined time. In addition, by applying the data encoding process and the data decoding process, it is possible to further reduce the amount of data required to be transmitted.

また、本実施形態によれば、監視装置20Aにおいて生成される差分画像が、伝送したい元の画像(減算される画像)とは顕著に異なる画像であるため、伝送される差分画像が第三者に傍受された(情報漏洩した)としても、ユーザが本来伝送したい元の画像を第三者が確認することはできず、通信帯域の広狭に左右されず高い秘匿性を確保することができる。   Further, according to the present embodiment, since the difference image generated in the monitoring device 20A is an image significantly different from the original image to be transmitted (the image to be subtracted), the transmitted difference image is a third party. Even if the user is intercepted (the information leaks), the third party can not confirm the original image that the user originally wants to transmit, and high secrecy can be ensured without being influenced by the width of the communication band.

なお、上述した画像伝送システム1Aは、一例であり、上述した例に限定されるものではない。
例えば、上述した画像伝送システム1Aは、監視装置20Aが記憶部24を備え、表示処理装置30Aが記憶部34を備えている構成例であるが、記憶部24は監視装置20Aの外部に設けられていてもよい。また、記憶部24と同様に記憶部34についても表示処理装置30Aの外部に設けられていてもよい。
In addition, the image transmission system 1A mentioned above is an example, and is not limited to the example mentioned above.
For example, the image transmission system 1A described above is a configuration example in which the monitoring device 20A includes the storage unit 24 and the display processing device 30A includes the storage unit 34. However, the storage unit 24 is provided outside the monitoring device 20A. It may be Further, similarly to the storage unit 24, the storage unit 34 may be provided outside the display processing device 30A.

さらに、後述する図5に例示されるように、監視装置20Aの外部に設けた記憶部24および表示処理装置30Aの外部に設けた記憶部34を共用化して画像伝送システムを構築してもよい。すなわち、選択参照画像37_kと選択参照画像27_kとを共用化し、参照画像選択部33Aが選択参照画像37_kとして共用化される選択参照画像27_kを選択する画像伝送システムを構築してもよい。   Furthermore, as exemplified in FIG. 5 described later, the image transmission system may be constructed by sharing the storage unit 24 provided outside the monitoring device 20A and the storage unit 34 provided outside the display processing device 30A. . That is, an image transmission system may be constructed in which the selection reference image 37_k and the selection reference image 27_k are shared, and the reference image selection unit 33A selects the selection reference image 27_k to be shared as the selection reference image 37_k.

図5は、実施形態に係る画像伝送システムにおける他の構成例(変形例)である画像伝送システム1Bの構成を示す概略図である。   FIG. 5 is a schematic view showing a configuration of an image transmission system 1B which is another configuration example (modification) of the image transmission system according to the embodiment.

画像伝送システム1Bは、例えば、画像伝送システム1Aに対して、監視装置20Aおよび表示処理装置30Aの代わりに、監視装置20Aから記憶部24が省略された監視装置20Bおよび表示処理装置30Aから記憶部34が省略された表示処理装置30Bとを具備する。また、画像伝送システム1Bでは、記憶部24および記憶部34に相当する記憶領域を提供する記憶手段としての記憶装置50が、監視装置20Bおよび表示処理装置30Bの外部に設けられている。   For example, instead of the monitoring device 20A and the display processing device 30A, the image transmission system 1B includes the monitoring device 20B and the display processing device 30A from which the storage unit 24 is omitted instead of the monitoring device 20A and the display processing device 30A. And a display processing device 30B in which 34 is omitted. Further, in the image transmission system 1B, a storage device 50 as storage means for providing a storage area corresponding to the storage unit 24 and the storage unit 34 is provided outside the monitoring device 20B and the display processing device 30B.

また、図5に例示される画像伝送システム1Bでは、記憶装置50において、記憶部24および記憶部34に相当する記憶領域が共用化されて構成されている。すなわち、画像伝送システム1Aにおける、記憶部24に保持される参照画像群27_1〜27_nおよび記憶部34に保持される参照画像群37_1〜37_nを、参照画像群27_1〜27_nおよび参照画像群37_1〜37_nの何れか一方に集約して記憶装置50に保持させた画像伝送システム1Bを構築されている。   Further, in the image transmission system 1B illustrated in FIG. 5, in the storage device 50, storage areas corresponding to the storage unit 24 and the storage unit 34 are shared. That is, in the image transmission system 1A, the reference image groups 27_1 to 27_n held in the storage unit 24 and the reference image groups 37_1 to 37_n held in the storage unit 34 are referred to as reference image groups 27_1 to 27_n and reference image groups 37_1 to 37_n. An image transmission system 1B is constructed in which the image transmission system 1B is stored in one of the storage units 50.

さらに、図5に示される画像伝送システム1Bは、監視装置20Bおよび表示処理装置30Bが、それぞれ、記憶部24および記憶部34を備えておらず、参照画像群37_1〜37_nと共用化される参照画像群27_1〜27_nが記憶装置50に保持される構成例であるが、当該構成に対して、さらに監視装置20Bが、例えば記憶部24等のデータを保持可能な記憶領域を有していたり、表示処理装置30Bが例えば記憶部34等のデータを保持可能な記憶領域を有していたりしてもよい。   Furthermore, in the image transmission system 1B shown in FIG. 5, the monitoring device 20B and the display processing device 30B respectively do not include the storage unit 24 and the storage unit 34, and are shared by reference images 37_1 to 37_n. In the configuration example in which the image groups 27_1 to 27_n are held in the storage device 50, the monitoring device 20B further has a storage area capable of holding data such as the storage unit 24 with respect to the configuration, or The display processing device 30B may have, for example, a storage area capable of holding data, such as the storage unit 34.

例えば、図5に例示される画像伝送システム1Bに対して、監視装置20Bの代わりに記憶部24を備える監視装置20Aが設けられている画像伝送システム1Bを構築した場合、記憶部24が有する記憶領域を、参照画像群27_1〜27_nを保持する代わりにカメラ10から伝送される撮像画像を保持する記憶領域として用いることができる。当該構成を採用した場合、カメラ10から伝送される撮像画像を一旦保持可能になる。   For example, when the image transmission system 1B is provided in which the monitoring device 20A including the storage unit 24 is provided instead of the monitoring device 20B with respect to the image transmission system 1B illustrated in FIG. The area can be used as a storage area for holding the captured image transmitted from the camera 10 instead of holding the reference image groups 27_1 to 27 — n. When the configuration is adopted, the captured image transmitted from the camera 10 can be temporarily held.

記憶部24が有する記憶領域をカメラ10から伝送される撮像画像を保持する記憶領域として用いる場合、記憶部24に保持される画像から伝送したい画像の選択を受け付け、選択された画像を記憶部24から読み出して表示処理装置30B側へ伝送する画像転送手段としての画像転送部(図示省略)を監視装置20Aにさらに設けることができる。   When the storage area of the storage unit 24 is used as a storage area for storing a captured image transmitted from the camera 10, the selection of an image to be transmitted is received from the images stored in the storage unit 24, and the selected image is stored in the storage unit 24. An image transfer unit (not shown) can be further provided in the monitoring device 20A as an image transfer unit that reads out the image data and transmits it to the display processing device 30B.

画像伝送システム1B(監視装置20Bおよび表示処理装置30B)および画像伝送システム1Bを用いた画像伝送方法においては、監視装置20Bの外部に参照画像群27_1〜27_nを保持させる構成および表示処理装置30Bの外部に参照画像群37_1〜37_nを保持させる構成のうち少なくとも一方の構成が採用されるため、参照画像群27_1〜27_nを保持する記憶部24を省略した監視装置20Bを構成したり、参照画像群37_1〜37_nを保持する記憶部34を省略した表示処理装置30Bを構成したりすることができ、監視装置20Bや表示処理装置30Bにおける記憶領域をより小さく抑えることができる。   In the image transmission method using the image transmission system 1B (the monitoring device 20B and the display processing device 30B) and the image transmission system 1B, the configuration and display processing device 30B for holding the reference image groups 27_1 to 27_n outside the monitoring device 20B. Since at least one of the configurations for holding the reference image groups 37_1 to 37_n outside is adopted, the monitoring device 20B is configured by omitting the storage unit 24 for holding the reference image groups 27_1 to 27_n, or the reference image group The display processing device 30B can be configured by omitting the storage unit 34 that holds 37_1 to 37 — n, and the storage area of the monitoring device 20B or the display processing device 30B can be further reduced.

また、監視装置20Bの外部に参照画像群27_1〜27_nを保持させる構成を採用し、監視装置20Bの代わりに記憶部24を備える監視装置20Aを採用した画像伝送システム1B(監視装置20Aおよび表示処理装置30B)では、カメラ10から伝送される撮像画像を一旦保持する記憶領域として記憶部24を利用することができるため、伝送したい画像を事後的に選択して表示処理装置30B側へ伝送可能なシステムを構築することができる。   Further, an image transmission system 1B (monitoring device 20A and display processing employing a configuration in which the reference image groups 27_1 to 27_n are held outside the monitoring device 20B and adopting the monitoring device 20A provided with the storage unit 24 instead of the monitoring device 20B. In the device 30B), since the storage unit 24 can be used as a storage area for temporarily holding a captured image transmitted from the camera 10, an image to be transmitted can be subsequently selected and transmitted to the display processing device 30B side System can be built.

[第2の実施形態]
図6は、第2の実施形態に係る画像伝送システムの一例である画像伝送システム1Cの構成を示す概略図である。
Second Embodiment
FIG. 6 is a schematic view showing a configuration of an image transmission system 1C which is an example of the image transmission system according to the second embodiment.

なお、図6に示される記号「丸I」(○印内にローマ数字「I」が記入された記号)および「丸II」(○印内にローマ数字「II」が記入された記号)は、何れも結合子である。   Note that the symbols “circle I” (a symbol in which a roman numeral “I” is entered in a circle) and “circle II” (a symbol in which a roman numeral “II” is inscribed in a circle) shown in FIG. , And all are connectors.

画像伝送システム1Cは、画像伝送システム1Aに対して、監視装置20Aの代わりに監視装置20Cを、表示処理装置30Aの代わりに表示処理装置30Cを具備する点と、参照画像群27_1〜27_nおよび37_1〜37_nの代わりに、当該参照画像群をモノクロ化したモノクロ参照画像群29_1〜29_nおよび39_1〜39_nが、それぞれ、記憶部24および記憶部34に保持されている点とで相違するが、その他の点は実質的に相違しない。
そこで、画像伝送システム1Cの説明では、画像伝送システム1Aに対する相違点を中心に説明し、実質的に相違しない構成要素については同じ符号を付して説明を省略する。
The image transmission system 1C is different from the image transmission system 1A in that the monitoring device 20C is provided instead of the monitoring device 20A, and the display processing device 30C is provided instead of the display processing device 30A, and reference image groups 27_1 to 27_n and 37_1. Although different from the point that monochrome reference image groups 29_1 to 29_n and 39_1 to 39_n obtained by monochromizing the reference image group are stored in the storage unit 24 and the storage unit 34 instead of お よ び 37 _n, the other The points are not substantially different.
Therefore, in the description of the image transmission system 1C, differences from the image transmission system 1A will be mainly described, and components that are not substantially different will be assigned the same reference numerals and descriptions thereof will be omitted.

画像伝送システム1Cは、例えば、画像伝送システム1Aに対して、監視装置20Aの代わりに監視装置20Cを、表示処理装置30Aの代わりに表示処理装置30Cを具備する。   The image transmission system 1C includes, for example, a monitoring device 20C instead of the monitoring device 20A and a display processing device 30C instead of the display processing device 30A in the image transmission system 1A.

監視装置20Cは、例えば、減算部21と、参照画像選択部22Aと、画像符号化部23と、記憶部24と、画像変換部26とを備える。   The monitoring device 20C includes, for example, a subtraction unit 21, a reference image selection unit 22A, an image encoding unit 23, a storage unit 24, and an image conversion unit 26.

画像変換部26は、減算部21の前段(入力側:図6における左側)に設けられ、カメラ10から入力される画像(撮像画像)をグレースケール化し、入力される画像のモノクロ画像に変換する画像変換機能を有する。   The image conversion unit 26 is provided on the front stage (input side: left side in FIG. 6) of the subtraction unit 21 and converts an image (captured image) input from the camera 10 into grayscale and converts it into a monochrome image of the input image. It has an image conversion function.

画像変換部26は、例えば、入力される画像をモノクロ画像に変換し、当該画像のモノクロ画像を生成する。画像のグレースケール化の方法は、元の画像の輝度をモノクロ画像の輝度として採用する等の方法から任意に選択できる。   For example, the image conversion unit 26 converts an input image into a monochrome image, and generates a monochrome image of the image. The gray scale method of the image can be arbitrarily selected from methods such as adopting the luminance of the original image as the luminance of the monochrome image.

元の画像の輝度をモノクロ画像の輝度として採用する方法の一例としては、元の画像がRGB色空間で表される、R(赤色)、G(緑色)およびB(青色)の各色の輝度値(R,G,B)の情報を有しており、RGB色空間をYCbCr色空間に変換する際に得られるY、CbおよびCrのうちYの値、すなわち、輝度値をモノクロ画像の輝度値として決定する方法がある。   As an example of the method of adopting the brightness of the original image as the brightness of the monochrome image, the brightness value of each color of R (red), G (green) and B (blue) in which the original image is expressed in RGB color space (R, G, B) information, Y value among Y, Cb and Cr obtained when converting RGB color space to YCbCr color space, that is, the luminance value is the luminance value of a monochrome image There is a way to decide.

YCbCr色空間に変換する際に得られるYの値(輝度値)を求める方法としては、例えば下記式(1)〜(3)で表されるRGB色空間をYCbCr色空間に変換する変換式を用いて求めることができる。   As a method of obtaining the value of Y (brightness value) obtained upon conversion to the YCbCr color space, for example, a conversion formula for converting the RGB color space represented by the following formulas (1) to (3) into the YCbCr color space is used. It can be determined using.

[数1]
Y=0.29900×R+0.58700×G+0.11400×B …(1)
Cb=−0.16874×R−0.33126×G+0.50000×B …(2)
Cr=0.50000×R−0.41869×G−0.08131×B …(3)
[Equation 1]
Y = 0.29900 x R + 0.58 700 x G + 0.11400 x B (1)
Cb = −0.16874 × R−0.33126 × G + 0.50000 × B (2)
Cr = 0.50000 x R-0.41869 x G-0.08131 x B (3)

上記式(1)〜(3)において、左辺のY、CbおよびCrは、それぞれ、YCbCr色空間の各要素、すなわち輝度および色差である。また、右辺のR、GおよびBは、それぞれ、RGB色空間の各要素、すなわちR(赤色)、G(緑色)およびB(青色)の各色の輝度値である。   In the above formulas (1) to (3), Y, Cb and Cr on the left side are elements of YCbCr color space, that is, luminance and color difference. Further, R, G and B on the right side are luminance values of respective elements of the RGB color space, that is, R (red), G (green) and B (blue).

なお、上記式(1)〜(3)で表される変換式は、幾つかある変換式の一つであり、採用可能な変換式は上記式(1)〜(3)に限定されるものではなく、他の変換式を採用することもできる。   The conversion formulas represented by the above formulas (1) to (3) are one of several conversion formulas, and adoptable conversion formulas are limited to the above formulas (1) to (3). Instead, other conversion formulas can be adopted.

画像変換部26は、モノクロ画像を生成すると、生成したモノクロ画像を減算部21へ出力する。また、画像変換部26は、上記式(2)および(3)を用いて求められるCbおよびCrの値を、表示処理装置30C(より詳細には、画像復元部36)へ伝送する。   When the image conversion unit 26 generates a monochrome image, the image conversion unit 26 outputs the generated monochrome image to the subtraction unit 21. Further, the image conversion unit 26 transmits the values of Cb and Cr obtained using the above equations (2) and (3) to the display processing device 30C (more specifically, the image restoration unit 36).

なお、監視装置20Cでは、画像変換部26が出力するモノクロ画像を用いて差分画像が生成されるため、画像変換されていない参照画像群27(27_1〜27_n)をモノクロ画像に変換したモノクロ参照画像群29(29_1〜29_n)を参照画像群27_1〜27_nの代わりに記憶部24に保持している。   In addition, in the monitoring device 20C, since a difference image is generated using the monochrome image output from the image conversion unit 26, a monochrome reference image obtained by converting the reference image group 27 (27_1 to 27_n) not converted is converted to a monochrome image. The group 29 (29_1 to 29_n) is held in the storage unit 24 instead of the reference image groups 27_1 to 27_n.

監視装置20Cにおいて、参照画像選択部22Aは、受け取った識別情報(カメラ10の姿勢情報)と関連付けられている参照画像(以下、「モノクロ選択参照画像」とする。)29_kを記憶部24に保持されるモノクロ参照画像群29_1〜29_nから選択し読み出す。参照画像選択部22Aは、読み出したモノクロ選択参照画像29_kを参照画像選択部22Aから減算部21へ出力する。   In the monitoring device 20C, the reference image selection unit 22A holds the reference image (hereinafter referred to as "monochrome selection reference image") 29_k associated with the received identification information (posture information of the camera 10) in the storage unit 24. It selects from the monochrome reference image groups 29_1 to 29 — n to be read out. The reference image selection unit 22A outputs the read monochrome selection reference image 29_k from the reference image selection unit 22A to the subtraction unit 21.

表示処理装置30Cは、例えば、画像復号化部31と、加算部32と、参照画像選択部33Aと、画像復元部36とを備える。   The display processing device 30C includes, for example, an image decoding unit 31, an addition unit 32, a reference image selection unit 33A, and an image restoration unit 36.

表示処理装置30Cにおいて、参照画像選択部33Aは、受け取った識別情報(カメラ10の姿勢情報)と関連付けられているモノクロ選択参照画像39_kを記憶部34に保持されるモノクロ参照画像群39_1〜39_nから選択し読み出す。参照画像選択部33Aは、読み出したモノクロ選択参照画像39_kを参照画像選択部33Aから加算部32へ出力する。   In the display processing device 30C, the reference image selection unit 33A transmits the monochrome selection reference image 39_k associated with the received identification information (posture information of the camera 10) from the monochrome reference image group 39_1 to 39_n held in the storage unit 34. Select and read. The reference image selection unit 33A outputs the read monochrome selection reference image 39_k from the reference image selection unit 33A to the addition unit 32.

画像復元部36は、加算部32の後段(出力側:図6における右側)に設けられ、加算部32が出力した合成画像、すなわち監視装置20C内で画像変換部26が得るモノクロ画像から画像変換部26に入力される元の画像を復元(再構成)する機能を有する。元の画像への復元(再構成)は、画像変換後のモノクロ画像のY、CbおよびCrの各値を上述した式(1)〜(3)に代入して得られる三元一次連立方程式を、R、GおよびBについて解くことにより行われる。   The image restoration unit 36 is provided downstream of the addition unit 32 (output side: right side in FIG. 6), and converts the composite image output from the addition unit 32, that is, the monochrome image obtained by the image conversion unit 26 in the monitoring device 20C. It has a function to restore (reconstruct) the original image input to the unit 26. The restoration (reconstruction) to the original image is carried out by substituting the values of Y, Cb and Cr of the monochrome image after image conversion into the above-mentioned equations (1) to (3) to obtain the ternary linear simultaneous equations , R, G and B by solving.

画像復元部36は、加算部32が合成したモノクロの合成画像から画像変換部26において画像変換される前の画像(以下、「元画像」とする。)を復元(再構成)すると、復元(再構成)した元画像を、表示装置40へ出力する。   The image restoration unit 36 restores (reconstructs) an image (hereinafter referred to as “original image”) before being image-converted by the image conversion unit 26 from the monochrome composite image synthesized by the addition unit 32. The reconstructed original image is output to the display device 40.

次に、第2の実施形態に係る画像伝送方法について説明する。
第2の実施形態に係る画像伝送方法は、第1の実施形態に係る画像伝送方法に対して、画像変換部26が行う画像変換に係る処理ステップが第1の符号化工程に追加される点と、画像復元部36が行う画像復元に係る処理ステップが第1の復号化工程に追加される点とで相違するが、その他の点は実質的に相違しない。
Next, an image transmission method according to the second embodiment will be described.
The image transmission method according to the second embodiment is different from the image transmission method according to the first embodiment in that a processing step related to image conversion performed by the image conversion unit 26 is added to the first encoding step. And processing steps relating to image restoration performed by the image restoration unit 36 are added to the first decoding step, but the other points are not substantially different.

従って、上述した第1の画像伝送処理手順において、第1の符号化工程の代わりに、第1の符号化工程に画像変換の処理ステップを追加した第2の符号化工程を具備し、第1の復号化工程の代わりに、第1の復号化工程に画像復元の処理ステップを追加した第2の復号化工程を具備した画像伝送処理手順が、第2の実施形態に係る画像伝送方法の一例である第2の画像伝送処理手順となる。   Therefore, in the first image transmission processing procedure described above, instead of the first encoding step, a second encoding step is added in which the image conversion processing step is added to the first encoding step, An image transmission processing procedure including a second decoding step in which an image restoration processing step is added to the first decoding step instead of the first decoding step is an example of the image transmission method according to the second embodiment. And the second image transmission processing procedure.

第2の実施形態に係る画像伝送方法の説明では、第1の画像伝送処理手順に対して相違する画像変換および画像復元変換に係る処理ステップを中心に説明し、実質的に相違しないその他の処理ステップについては説明を省略する。   In the description of the image transmission method according to the second embodiment, the processing steps relating to image conversion and image restoration conversion different from the first image transmission processing procedure will be mainly described, and other processing not substantially different The description of the steps is omitted.

図7は、第2の画像伝送処理手順における第2の符号化工程の処理の流れを示す処理フロー図である。   FIG. 7 is a processing flow diagram showing the flow of processing of the second encoding step in the second image transmission processing procedure.

第2の符号化工程は、例えば、第1の符号化工程(ステップS11〜ステップS14:図4)に対して、画像を画像変換してモノクロ化したモノクロ画像を生成する画像変換ステップ(ステップS16)をさらに備え、第1の差分画像生成ステップ(ステップS13:図4)の代わりに画像変換後のモノクロ画像とモノクロ参照画像29との差分画像を生成するステップ(以下、「第2の差分画像生成ステップ」とする。)(ステップS17)を備える点で相違するが、その他の処理ステップは第1の符号化工程と実質的に相違しない。   The second encoding step is, for example, an image conversion step (step S16) that generates a monochrome image obtained by performing image conversion on the image with respect to the first encoding step (step S11 to step S14: FIG. 4). Step of generating a difference image between the monochrome image after image conversion and the monochrome reference image 29 instead of the first difference image generation step (step S13: FIG. 4) (hereinafter referred to as “second difference image Although the processing steps are different from the first encoding step, the processing steps are the same as those in the first encoding step.

第2の符号化工程では、まず、ステップS11が行われ、続いて、画像変換ステップ(ステップS16)、ステップS12、第2の差分画像生成ステップ(ステップS17)およびステップS14の順で行われる。   In the second encoding step, first, step S11 is performed, and then, the image conversion step (step S16), step S12, the second difference image generation step (step S17), and step S14 are performed in this order.

画像変換ステップ(ステップS16)は、監視装置20Cが表示処理装置30C側へ伝送する画像と当該画像と関連付けられている識別情報として含まれる姿勢情報を受け取った後、伝送する画像を受け取った画像変換部26が、受け取った画像を画像変換(モノクロ化)することにより行われる。画像変換部26が、受け取った画像のモノクロ画像を生成すると画像変換ステップは完了する。   In the image conversion step (step S16), after the monitoring device 20C receives the image to be transmitted to the display processing device 30C and the posture information included as identification information associated with the image, the image conversion that has received the image to be transmitted This is performed by the unit 26 performing image conversion (monochrome conversion) of the received image. When the image conversion unit 26 generates a monochrome image of the received image, the image conversion step is completed.

画像変換ステップ(ステップS16)が完了すると、続いて、ステップS12が行われ、さらに続いて、第2の差分画像生成ステップ(ステップS17)が行われる。   When the image conversion step (step S16) is completed, step S12 is subsequently performed, and then the second difference image generation step (step S17) is performed.

第2の差分画像生成ステップ(ステップS17)は、第1の差分画像生成ステップ(ステップS13)に対して、差分画像を生成する際に使用される減算される画像および減算する画像が相違するが、その他の点は実質的に同様の処理ステップである。   The second difference image generation step (step S17) is different from the first difference image generation step (step S13) in the image to be subtracted and the image to be subtracted which are used when generating the difference image. The other points are substantially the same processing steps.

第2の差分画像生成ステップでは、減算される画像として画像変換後のモノクロ画像が用いられ、減算する画像としてモノクロ参照画像29が用いられる。モノクロの差分画像が生成されると、第2の差分画像生成ステップは完了する。   In the second difference image generation step, the monochrome image after image conversion is used as the image to be subtracted, and the monochrome reference image 29 is used as the image to be subtracted. Once the monochrome difference image is generated, the second difference image generation step is complete.

第2の差分画像生成ステップ(ステップS17)が完了すると、続いて、ステップS14が行われる。続いて、ステップS14が完了すると、第2の符号化工程は全処理ステップ(ステップS11,S16,S12,S17およびS14)を終了する(END)。   When the second difference image generation step (step S17) is completed, step S14 is subsequently performed. Subsequently, when step S14 is completed, the second encoding process ends all processing steps (steps S11, S16, S12, S17 and S14) (END).

図8は、第2の画像伝送処理手順における第2の復号化工程の処理の流れを示す処理フロー図である。   FIG. 8 is a processing flow diagram showing a flow of processing of the second decoding step in the second image transmission processing procedure.

第2の復号化工程は、例えば、第1の復号化工程(ステップS21〜ステップS24:図4)に対して、画像変換されたモノクロ画像を当該画像変換前の元画像を生成(再構成)する画像復元ステップ(ステップS25)をさらに備える点で相違するが、その他の処理ステップは第1の復号化工程と実質的に相違しない。   In the second decoding step, for example, with respect to the first decoding step (steps S21 to S24: FIG. 4), a monochrome image subjected to image conversion is generated (reconstructed) to an original image before the image conversion. The second embodiment differs in that it further includes an image restoration step (step S25), but the other processing steps are not substantially different from the first decoding step.

第2の復号化工程が開始されると(START)、表示処理装置30Cが、まず、ステップS21〜ステップS24を順次行い、続いて、画像復元ステップ(ステップS25)を行う。   When the second decoding step is started (START), the display processing device 30C sequentially performs steps S21 to S24, and then performs an image restoration step (step S25).

画像復元ステップ(ステップS25)では、画像復元部36が、加算部32から出力されるモノクロの合成画像に対して、当該画像変換される前の元画像を再構成する。画像復元部36が元画像を再構成すると、画像復元ステップは完了し、第2の復号化工程は全処理ステップ(ステップS21〜ステップS25)を終了する(END)。   In the image restoration step (step S25), the image restoration unit 36 reconstructs, with respect to the monochrome composite image output from the addition unit 32, an original image before the image conversion. When the image restoration unit 36 reconstructs the original image, the image restoration step is completed, and the second decoding step ends all processing steps (steps S21 to S25) (END).

本実施形態によれば、第1の実施形態と同様の効果を得ることができる。
また、画像伝送システム1C、監視装置20Cおよび第2の画像伝送処理手順によれば、撮像画像を画像変換してモノクロ化したモノクロ撮像画像を用いて差分画像を生成するため、監視装置20Cにおけるモノクロ参照画像29および表示処理装置30Cにおけるモノクロ参照画像39の保存に必要なデータ量をさらに低減することができる。
According to this embodiment, the same effect as that of the first embodiment can be obtained.
Further, according to the image transmission system 1C, the monitoring device 20C, and the second image transmission processing procedure, since the differential image is generated using the monochrome captured image obtained by converting the captured image into a monochrome image, the monochrome in the monitoring device 20C It is possible to further reduce the amount of data required for storing the reference image 29 and the monochrome reference image 39 in the display processing device 30C.

さらに、画像伝送システム1C、監視装置20Cおよび第2の画像伝送処理手順によれば、監視装置20Cがモノクロ撮像画像を用いて差分画像を生成するため、監視装置20Cおよび表示処理装置30C間のデータ伝送量をより少なく抑えることができる。   Furthermore, according to the image transmission system 1C, the monitoring device 20C and the second image transmission processing procedure, data between the monitoring device 20C and the display processing device 30C because the monitoring device 20C generates a difference image using a monochrome captured image The amount of transmission can be further reduced.

なお、図6に示される画像伝送システム1Cは、表示処理装置30Cを具備している構成例であるが、表示装置40に表示させる画像がモノクロ画像でも差し支えないのであれば、画像復元部36を省略して表示処理装置30Cを構成することができる。すなわち、表示処理装置30Cの代わりに表示処理装置30A(記憶部34にはモノクロ参照画像群39_1〜39_kを保持)を具備する構成を採用してもよい。   Although the image transmission system 1C shown in FIG. 6 is a configuration example including the display processing device 30C, if the image displayed on the display device 40 may be a monochrome image, the image restoration unit 36 may be used. The display processing device 30C can be configured to be omitted. That is, a configuration may be adopted in which display processing device 30A (storage unit 34 holds monochrome reference image groups 39_1 to 39 — k) is provided instead of display processing device 30C.

画像復元部36を省略した構成を採用した画像伝送システム1Cでは、元画像の復元が不要になるため、画像変換部26において、上述した式(1)の代わりに下記式(4)に示される整数演算式を採用することができる。   In the image transmission system 1C adopting a configuration in which the image restoration unit 36 is omitted, restoration of the original image becomes unnecessary, and therefore, the image conversion unit 26 is represented by the following equation (4) instead of the above equation (1). An integer arithmetic expression can be adopted.

[数2]
Y=77×R+150×G+29×B …(4)
[Equation 2]
Y = 77 × R + 150 × G + 29 × B (4)

画像復元部36を省略した構成を採用した画像伝送システム1Cおよび監視装置20C並びに当該画像伝送システム1Cが行う第2の画像伝送処理手順によれば、画像変換に係る演算として、上述した式(1)の代わりに上記式(4)に示される整数演算式を採用することによって、画像変換部26が画像変換に係る演算を実行する際に浮動小数点演算が不要となり、当該演算に要する(消費する)クロック数を抑えることができる。   According to the image transmission system 1C and the monitoring device 20C adopting the configuration in which the image restoration unit 36 is omitted, and the second image transmission processing procedure performed by the image transmission system 1C, the above-mentioned equation (1 By adopting the integer arithmetic expression shown in the above equation (4) instead of), the floating point calculation becomes unnecessary when the image conversion unit 26 executes the calculation related to the image conversion, which requires (consumption of) the calculation ) The number of clocks can be reduced.

[第3の実施形態]
図9は、第3の実施形態に係る画像伝送システムの一例である画像伝送システム1Dの構成を示す概略図である。
Third Embodiment
FIG. 9 is a schematic view showing the configuration of an image transmission system 1D which is an example of the image transmission system according to the third embodiment.

なお、図9に示される記号「丸I」(○印内にローマ数字「I」が記入された記号)および「丸III」(○印内にローマ数字「III」が記入された記号)は、何れも結合子である。   Note that the symbols “circle I” (a symbol in which a roman numeral “I” is entered in a circle) and “circle III” (a symbol in which a roman numeral “III” is inscribed in a circle) shown in FIG. , And all are connectors.

画像伝送システム1Dは、画像伝送システム1Aに対して、監視装置20Aの代わりに監視装置20Dを、表示処理装置30Aの代わりに表示処理装置30Dを具備する点と、監視装置20Dおよび表示処理装置30Dが対象物の撮像された日時を表す日時情報を取得して利用する点とが相違するが、その他の点では実質的に相違しない。
そこで、画像伝送システム1Dの説明では、画像伝送システム1Aに対する相違点を中心に説明し、実質的に相違しない構成要素については同じ符号を付して説明を省略する。
The image transmission system 1D includes a monitoring device 20D instead of the monitoring device 20A and a display processing device 30D instead of the display processing device 30A with respect to the image transmission system 1A, a monitoring device 20D, and a display processing device 30D. The point is different from the point in which the date and time information representing the date and time when the object is captured is acquired and used, but is substantially the same in other points.
Therefore, in the description of the image transmission system 1D, differences from the image transmission system 1A will be mainly described, and components that are not substantially different will be assigned the same reference numerals and descriptions thereof will be omitted.

画像伝送システム1Dは、例えば、監視装置20Dと、表示処理装置30Dとを具備する。監視装置20Dおよび表示処理装置30Dは、カメラ60から撮像画像および姿勢情報に加えてさらに対象物が撮像された日時を表す日時情報を取得する。   The image transmission system 1D includes, for example, a monitoring device 20D and a display processing device 30D. The monitoring device 20D and the display processing device 30D acquire, from the camera 60, in addition to the captured image and the posture information, date and time information indicating the date and time when the object was captured.

カメラ60は、例えば、画像伝送システム1Aにおいて適用されるカメラ10に対して、撮像部11が対象物を撮像した日時を表す日時情報を生成し、生成した日時情報を出力する日時情報出力手段としての日時情報出力部17をさらに備える。カメラ60は、日時情報出力部17が生成した日時情報を監視装置20Dおよび表示処理装置30Dへそれぞれ出力する。   The camera 60 generates, for example, date and time information representing a date and time when the imaging unit 11 captures an object with respect to the camera 10 applied in the image transmission system 1A, and outputs the created date and time information as date and time information output means The date and time information output unit 17 is further provided. The camera 60 outputs the date and time information generated by the date and time information output unit 17 to the monitoring device 20D and the display processing device 30D.

なお、上述したカメラ60は、姿勢情報検出部16および日時情報出力部17を備えている場合の例であるが、必ずしもカメラ60自体が姿勢情報検出部16および日時情報出力部17を備えている必要はなく、カメラ60の外部に、姿勢情報検出部16や日時情報出力部17が設けられていてもよい。   Although the camera 60 described above is an example in which the posture information detection unit 16 and the date and time information output unit 17 are provided, the camera 60 itself necessarily includes the posture information detection unit 16 and the date and time information output unit 17 There is no need, and the posture information detection unit 16 and the date and time information output unit 17 may be provided outside the camera 60.

また、上述した日時情報出力部17は、カメラ60が対象物を撮像した日時を表す日時情報を生成して出力する例であるが、生成される日時情報は必ずしもカメラ60が対象物を撮像した日時を表す情報でなくてもよい。例えば、画像を蓄積可能な記憶手段としてのバッファメモリと日時情報出力部17とを監視装置20Dに設けている場合、画像データをバッファメモリに取り込む際の日時を表す日時情報を生成するように日時情報出力部17を構成してもよい。   Although the date and time information output unit 17 described above is an example of generating and outputting date and time information representing the date and time when the camera 60 captured the object, the generated date and time information is not necessarily the camera 60 imaged the object It does not have to be information that represents the date and time. For example, when the buffer memory as storage means capable of storing an image and the date and time information output unit 17 are provided in the monitoring device 20D, the date and time information is generated to indicate the date and time when the image data is taken into the buffer memory. The information output unit 17 may be configured.

さらに、カメラ60は、カメラ10および監視装置20A〜20Cと同様に、監視装置20Dに組み込まれて(一体的に)構成されてもよい。   Furthermore, the camera 60 may be integrated (integrally) with the monitoring device 20D as the camera 10 and the monitoring devices 20A to 20C.

監視装置20Dは、例えば、監視装置20Aに対して、参照画像選択部22Aの代わりに参照画像選択部22Dを備える。参照画像選択部22Dは、参照画像選択部22Aと基本的な機能は同様であるが、参照画像選択の際に用いる画像の識別情報に日時情報をさらに含む点と、選択対象となる参照画像群270(270_1〜270_n)および271(271_1〜271_n)が日時情報とも関連付けられている点が相違する。   For example, the monitoring device 20D includes a reference image selection unit 22D instead of the reference image selection unit 22A with respect to the monitoring device 20A. The reference image selection unit 22D has the same basic function as the reference image selection unit 22A, but further includes date and time information in identification information of an image used in reference image selection, and a reference image group to be selected The difference is that 270 (270_1 to 270_n) and 271 (271_1 to 271_n) are also associated with date and time information.

ここで、参照画像群270_1〜270_nおよび271_1〜271_nは、何れも参照画像群27(27_1〜27_n)に相当する画像群(n枚の画像)であり、姿勢情報に加えて日時情報とも関連付けられている。   Here, each of the reference image groups 270_1 to 270_n and 271_1 to 271_n is an image group (n images) corresponding to the reference image group 27 (27_1 to 27_n), and is associated with date and time information in addition to posture information. ing.

図9に例示される「参照画像(1,1;t0)」から「参照画像(i,j;t0)」は、図1等に例示される「参照画像(1,1)」から「参照画像(i,j)」に対して、さらに日時情報としての時刻t0と関連付けられている参照画像を意味する。同様に、「参照画像(1,1;t1)」から「参照画像(i,j;t1)」は、「参照画像(1,1)」から「参照画像(i,j)」に対して、さらに日時情報としての時刻t1と関連付けられている参照画像を意味する。   From “reference image (1, 1; t 0)” to “reference image (i, j; t 0)” illustrated in FIG. 9, “reference image (1, 1)” illustrated in FIG. “Image (i, j)” means a reference image further associated with time t 0 as date and time information. Similarly, “reference image (1,1; t1)” to “reference image (i, j; t1)” are different from “reference image (1, 1)” to “reference image (i, j)” Furthermore, it means a reference image associated with time t1 as date and time information.

また、参照画像群270_1〜270_nは、時刻t0における画像群である。参照画像群271_1〜271_nは、時刻t1における画像群である。すなわち、参照画像群27_1〜27_nのうち、日時情報としての時刻t0と関連付けられている画像群が参照画像群270_1〜270_nであり、日時情報としての時刻t1と関連付けられている画像群が参照画像群271_1〜271_nである。   Further, reference image groups 270_1 to 270_n are image groups at time t0. The reference image groups 271_1 to 271_n are image groups at time t1. That is, among the reference image groups 27_1 to 27_n, the image group associated with time t0 as date and time information is the reference image group 270_1 to 270_n, and the image group associated with time t1 as date and time information is the reference image Groups 271_1 to 271_n.

監視装置20Dにおいて、参照画像選択部22Dは、姿勢情報検出部16から受け取る姿勢情報および日時情報出力部17から受け取る日時情報を画像の識別情報として受け取り、記憶部24に保持される参照画像群270_1〜270_nおよび271_1〜271_nの中から受け取った姿勢情報および日時情報と関連付けられている1枚の画像を選択する。   In the monitoring device 20D, the reference image selection unit 22D receives the posture information received from the posture information detection unit 16 and the date and time information received from the date and time information output unit 17 as image identification information, and the reference image group 270_1 held in the storage unit 24. One image associated with the received posture information and the date and time information is selected from 270 270 _n and 271 _1 to 271 _ n.

表示処理装置30Dは、例えば、表示処理装置30Aに対して、参照画像選択部33Aの代わりに参照画像選択部33Dを備える。参照画像選択部33Dは、参照画像選択部33Aと基本的な機能は同様であるが、選択参照画像37_kを選択する際に用いる画像の識別情報に日時情報をさらに含む点と、選択対象となる参照画像群370_1〜370_nおよび371_1〜371_nが日時情報とも関連付けられている点が相違する。   The display processing device 30D includes, for example, a reference image selection unit 33D instead of the reference image selection unit 33A with respect to the display processing device 30A. The reference image selection unit 33D has the same basic function as the reference image selection unit 33A, but it further includes date and time information in the identification information of the image used when selecting the selected reference image 37_k, and is a selection target The difference is that reference image groups 370_1 to 370_n and 371_1 to 371_n are also associated with date and time information.

参照画像群370_1〜370_nおよび371_1〜371_nは、参照画像群270_1〜270_nおよび271_1〜271_nに相当する画像である。すなわち、参照画像群37(37_1〜37_n)のうち、日時情報としての時刻t0と関連付けられている画像群が参照画像群370_1〜370_nであり、日時情報としての時刻t1と関連付けられている画像群が参照画像群371_1〜371_nである。   The reference image groups 370_1 to 370_n and 371_1 to 371_n are images corresponding to the reference image groups 270_1 to 270_n and 271_1 to 271_n. That is, among reference image groups 37 (37_1 to 37_n), an image group associated with time t0 as date and time information is reference image groups 370_1 to 370_n, and an image group associated with time t1 as date and time information Are the reference image groups 371_1 to 371_n.

表示処理装置30Dにおいて、参照画像選択部33Dは、姿勢情報検出部16から受け取る姿勢情報および日時情報出力部17から受け取る日時情報を画像の識別情報として受け取り、記憶部34に保持される参照画像群370_1〜370_nおよび371_1〜371_nの中から受け取った姿勢情報および日時情報と関連付けられている1枚の画像を選択する。   In the display processing device 30D, the reference image selection unit 33D receives the posture information received from the posture information detection unit 16 and the date and time information received from the date and time information output unit 17 as identification information of images, and the reference image group held in the storage unit 34 One image associated with the received posture information and date and time information is selected from among 370_1 to 370_n and 371_1 to 371_n.

なお、第3の実施形態に係る画像伝送方法は、第1の実施形態に係る画像伝送方法に対して、日時情報と関連付けられていない参照画像群27_1〜27_n並びに37_1〜37_nの代わりに、それぞれ、日時情報とも関連付けられている参照画像群270_1〜270_nおよび271_1〜271_n並びに参照画像群370_1〜370_nおよび371_1〜371_nから選択される点で相違するが、その他の点は実質的に相違しない。   The image transmission method according to the third embodiment is the same as the image transmission method according to the first embodiment except for reference image groups 27_1 to 27_n and 37_1 to 37_n not associated with date and time information. Although different in that they are selected from reference image groups 270_1 to 270_n and 271_1 to 271_n and reference image groups 370_1 to 370_n and 371_1 to 371_n, which are also associated with date and time information, the other points are substantially the same.

すなわち、第1の画像伝送処理手順における画像の識別情報に、姿勢情報および日時情報を含む画像伝送処理手順が、第3の実施形態に係る画像伝送方法の一例である第3の画像伝送処理手順となる。   That is, the third image transmission processing procedure in which the image transmission processing procedure including posture information and date and time information in the identification information of the image in the first image transmission processing procedure is an example of the image transmission method according to the third embodiment. It becomes.

本実施形態によれば、日時の違いに応じた参照画像270_k,271_kおよび370_k,371_kの選択が可能となるため、朝、昼、夜といった時間帯や春、夏、秋、冬といった季節による映像の違い(特に照度)にも対応することができる。   According to this embodiment, since it is possible to select the reference images 270 _ k, 27 1 _ k and 370 _ k, 37 1 _ k according to the difference in date and time, the video according to the time zone such as morning, day, night or season such as spring, summer, autumn, winter It is also possible to cope with the difference between

なお、上述した画像伝送システム1Dは、画像伝送システム1Aにおいて参照画像選択部22Aおよび33Aの代わりに参照画像選択部22Dおよび33Dを備える構成例であるが、必ずしも参照画像選択部22Aおよび33Aを備える画像伝送システム1Aに限定されるものではない。すなわち、参照画像選択部22Aおよび33Aを具備する画像伝送システム1B,1C等の他の画像伝送システムへの参照画像選択部22Dおよび33Dの適用を妨げるものではなく、参照画像選択部22Aおよび33Aの代わりに参照画像選択部22Dおよび33Dを備える構成を適用することができる。   Although the above-described image transmission system 1D is an example of the configuration including the reference image selection units 22D and 33D instead of the reference image selection units 22A and 33A in the image transmission system 1A, the image transmission system 1D necessarily includes the reference image selection units 22A and 33A. It is not limited to the image transmission system 1A. That is, the reference image selecting units 22D and 33D do not prevent the application of the reference image selecting units 22D and 33D to other image transmission systems such as the image transmission systems 1B and 1C having the reference image selecting units 22A and 33A. Alternatively, the configuration including the reference image selection units 22D and 33D can be applied.

以上、上述した画像伝送システム1A〜1D、監視装置20A〜20Dおよび画像伝送方法によれば、カメラ10または60が撮影した撮像画像と基本的には移動する物体がない場合に撮像画像と酷似する(ほとんど差異が無い)参照画像との差分をとった差分画像を表示処理装置30A〜30D側へ伝送するため、狭帯域な通信環境下においてもデータ伝送できる。   As described above, according to the above-described image transmission systems 1A to 1D, the monitoring devices 20A to 20D, and the image transmission method, the captured image captured by the camera 10 or 60 basically resembles a captured image when there is no moving object. Since the difference image obtained with the difference from the reference image (with almost no difference) is transmitted to the display processing devices 30A to 30D, data transmission can be performed even in a narrow band communication environment.

また、上述した画像伝送システム1A〜1D、監視装置20A〜20Dおよび画像伝送方法によれば、監視装置20A〜20Dにおいて生成される差分画像が、伝送したい元の画像(減算される画像)とは顕著に異なる画像であるため、伝送される差分画像が第三者に傍受された(情報漏洩した)としても、ユーザが本来伝送したい元の画像を第三者が確認することはできず、高い秘匿性を確保することができる。   Further, according to the image transmission systems 1A to 1D, the monitoring devices 20A to 20D, and the image transmission method described above, the difference image generated in the monitoring devices 20A to 20D is the original image to be transmitted (image to be subtracted) Since the images are significantly different, even if the transmitted differential image is intercepted by a third party (the information leaks), the third party can not confirm the original image that the user originally wanted to transmit, which is high. Confidentiality can be secured.

画像伝送システム1B(監視装置20Bおよび表示処理装置30B)および画像伝送システム1Bを用いた画像伝送方法においては、監視装置20Bの外部に参照画像群27_1〜27_nを保持させる構成および表示処理装置30Bの外部に参照画像群37_1〜37_nを保持させる構成のうち少なくとも一方の構成が採用されるため、参照画像群27_1〜27_nを保持する記憶部24を省略した監視装置20Bを構成したり、参照画像群37_1〜37_nを保持する記憶部34を省略した表示処理装置30Bを構成したりすることができ、監視装置20Bや表示処理装置30Bにおける記憶領域をより小さく抑えることができる。   In the image transmission method using the image transmission system 1B (the monitoring device 20B and the display processing device 30B) and the image transmission system 1B, the configuration and display processing device 30B for holding the reference image groups 27_1 to 27_n outside the monitoring device 20B. Since at least one of the configurations for holding the reference image groups 37_1 to 37_n outside is adopted, the monitoring device 20B is configured by omitting the storage unit 24 for holding the reference image groups 27_1 to 27_n, or the reference image group The display processing device 30B can be configured by omitting the storage unit 34 that holds 37_1 to 37 — n, and the storage area of the monitoring device 20B or the display processing device 30B can be further reduced.

また、参照画像群27_1〜27_nおよび37_1〜37_nを、監視装置20Bおよび表示処理装置30Bの外部に保持させることで、監視装置20Bにおいて選択される参照画像群27_1〜27_nを表示処理装置30Bにおいて選択される参照画像群37_1〜37_nとして用いることができる。すなわち、参照画像群27_1〜27_nと参照画像群37_1〜37_nとを共用化できる。従って、画像伝送システム1Bではシステム全体で必要とする記憶容量をより少なく抑えることができる。   Further, by holding the reference image groups 27_1 to 27_n and 37_1 to 37_n outside the monitoring device 20B and the display processing device 30B, the reference image groups 27_1 to 27_n selected in the monitoring device 20B are selected in the display processing device 30B. Can be used as reference image groups 37_1 to 37 — n. That is, the reference image groups 27_1 to 27_n and the reference image groups 37_1 to 37_n can be shared. Therefore, in the image transmission system 1B, the storage capacity required for the entire system can be further reduced.

また、画像伝送システム1C(監視装置20Cおよび表示処理装置30C)を適用する場合、表示処理装置30Cへ伝送される差分画像およびモノクロ参照画像群29_1〜29_nおよび39_1〜39_nがモノクロ画像となるため、監視装置20Cにおけるモノクロ参照画像群29_1〜29_nおよび表示処理装置30Cにおけるモノクロ参照画像群39_1〜39_nの保存に必要なデータ量をさらに低減することができる。   Further, in the case of applying the image transmission system 1C (the monitoring device 20C and the display processing device 30C), the difference images and the monochrome reference image groups 29_1 to 29_n and 39_1 to 39_n transmitted to the display processing device 30C become monochrome images, It is possible to further reduce the amount of data necessary for storing the monochrome reference image groups 29_1 to 29_n in the monitoring device 20C and the monochrome reference image groups 39_1 to 39_n in the display processing device 30C.

さらに、画像伝送システム1D(監視装置20Dおよび表示処理装置30D)を適用する場合、日時の違いに応じた参照画像270_k(または271_k)および370_k(または371_k)の選択が可能となるため、朝、昼、夜といった時間帯や春、夏、秋、冬といった季節による映像の違いにも対応することができる。   Furthermore, when the image transmission system 1D (the monitoring device 20D and the display processing device 30D) is applied, it is possible to select the reference images 270_k (or 271_k) and 370_k (or 371_k) according to the difference in date and time. It is also possible to cope with differences in images due to time zones such as day and night and seasons such as spring, summer, autumn and winter.

なお、上述した実施形態において説明した「プロセッサ」とは、例えば、専用または汎用のCPU、GPU(Graphics Processing Unit)、特定用途向け集積回路(Application Specific Integrated Circuit:ASIC)、プログラマブル論理デバイス(例えば、単純プログラマブル論理デバイス(Simple Programmable Logic Device:SPLD)、複合プログラマブル論理デバイス(Complex Programmable Logic Device:CPLD)、およびフィールドプログラマブルゲートアレイ(Field Programmable Gate Array:FPGA))等のプログラムを実行可能な演算処理回路を意味する。プロセッサは、記憶回路に保存されるプログラムを読み出して実行することにより、各種機能を実現する。   The “processor” described in the above-mentioned embodiment includes, for example, a dedicated or general-purpose CPU, a graphics processing unit (GPU), an application specific integrated circuit (ASIC), a programmable logic device (for example, Arithmetic processing circuit that can execute programs such as Simple Programmable Logic Device (SPLD), Complex Programmable Logic Device (CPLD), and Field Programmable Gate Array (FPGA) Means The processor implements various functions by reading and executing a program stored in the memory circuit.

また、記憶回路にプログラムにプログラムを保存するかわりに、プロセッサを構成する回路内にプログラムを直接組み込むよう構成してもよい。この場合、プロセッサは回路内に組み込まれたプログラムを読み出して実行することで各種機能を実現する。   Further, instead of storing the program in the program in the storage circuit, the program may be directly incorporated in the circuit constituting the processor. In this case, the processor implements various functions by reading and executing a program embedded in the circuit.

さらに、複数の独立したプロセッサを組み合わせてプログラムを実行可能な演算処理回路を構成し、各プロセッサがプログラムを実行することにより各機能を実現してもよい。プロセッサが複数設けられる場合、プログラムを記憶する記憶回路は、プロセッサごとに個別に設けられてもよいし、複数のプロセッサの機能に対応するプログラムを幾つか集約して設けてもよい。   Furthermore, a plurality of independent processors may be combined to form an arithmetic processing circuit capable of executing a program, and each processor may execute a program to realize each function. When a plurality of processors are provided, storage circuits for storing programs may be provided individually for each processor, or some programs corresponding to the functions of the plurality of processors may be provided in a centralized manner.

なお、本発明は上述した実施形態そのままに限定されるものではなく、実施段階では、上述した実施例以外にも様々な形態で実施することができる。   The present invention is not limited to the above-described embodiment as it is, and can be implemented in various forms other than the above-described embodiment at the implementation stage.

例えば、カメラ10,60の撮像画像を保持する記憶手段および保持した画像から指定された画像を転送する画像転送手段を当該カメラ10,60または監視装置20A〜20Dに追設したり、カメラ10または60と監視装置20A〜20Cまたは20Dとを一体的に構成したり、表示処理装置30A〜30Dと表示装置40とを一体的に構成したりする等して本発明を実施してもよい。   For example, storage means for holding captured images of the cameras 10 and 60 and image transfer means for transferring images designated from the held images may be added to the cameras 10 and 60 or the monitoring devices 20A to 20D, the camera 10 or The present invention may be implemented by integrally configuring 60 and the monitoring devices 20A to 20C or 20D or integrally configuring the display processing devices 30A to 30D and the display device 40.

本発明は、発明の要旨を逸脱しない範囲で、種々の省略、追加、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。   The present invention can make various omissions, additions, replacements and changes without departing from the scope of the invention. These embodiments and modifications thereof are included in the scope and the gist of the invention, and are included in the invention described in the claims and the equivalent scope thereof.

1A〜1D…画像伝送システム、10,60…カメラ、11…撮像部、16…姿勢情報検出部、17…日時情報出力部、20A〜20D…監視装置、21…減算部、22A,22D…参照画像選択部、23…画像符号化部、24…記憶部、26…画像変換部、27(27_1〜27_n),37(37_1〜37_n),270(270_1〜270_n),271(271_1〜271_n),370(370_1〜370_n),371(371_1〜371_n)…参照画像群、27_k,37_k,270_k,271_k,370_k,371_k…選択参照画像、28…パノラマ画像、29(29_1〜29_n),39(39_1〜39_n)…モノクロ参照画像群、29_k,39_k…モノクロ選択参照画像、30A〜30D…表示処理装置、31…画像復号化部、32…加算部、33A,33D…参照画像選択部、34…記憶部、36…画像復元部、40…表示装置、50…記憶装置。   1A to 1D: image transmission system, 10, 60: camera, 11: imaging unit, 16: posture information detection unit, 17: date and time information output unit, 20A to 20D: monitoring device, 21: subtraction unit, 22A, 22D: reference Image selection unit 23, image coding unit 24, storage unit 26, image conversion unit, 27 (27_1 to 27_n), 37 (37_1 to 37_n), 270 (270_1 to 270_n), 271 (271_1 to 271_n), 370 (370_1 to 370_n), 371 (371_1 to 371_n) ... reference image group, 27 _ k, 37 _ k, 270 _ k, 271 _k, 370 _ k, 371 _ k ... selection reference image, 28 ... panoramic image, 29 (29_1 to 29 _n), 39 (39_1 to 39 39_n) ... monochrome reference image group, 29_k, 39_k ... monochrome selection reference image, 30A to 3 D ... display processor, 31 ... image decoding unit, 32 ... adding unit, 33A, 33D ... reference image selection unit, 34 ... storage unit, 36 ... image restoration unit, 40 ... display, 50 ... storage device.

Claims (14)

一の画像から前記一の画像の範囲を含む参照画像を減算して前記一の画像と前記参照画像との差分画像を生成し、生成した差分画像の画像データを符号化する符号化手段と、
前記差分画像の符号化された画像データを復号化して得られる前記差分画像と前記差分画像を生成する際に減算した前記参照画像とを加算し、前記一の画像に相当する合成画像を生成する復号化手段とを具備することを特徴とする画像伝送システム。
Encoding means for subtracting a reference image including the range of the one image from the one image to generate a difference image between the one image and the reference image, and encoding image data of the generated difference image;
The difference image obtained by decoding the encoded image data of the difference image and the reference image subtracted when generating the difference image are added to generate a composite image corresponding to the one image An image transmission system comprising: decoding means.
前記符号化手段は、前記差分画像に含まれる判定領域の輝度差が、所定値よりも大きいか否かを判定する判定部を備える請求項1記載の画像伝送システム。 The image transmission system according to claim 1, wherein the encoding unit includes a determination unit that determines whether a luminance difference of a determination region included in the difference image is larger than a predetermined value. 前記符号化手段および前記復号化手段の少なくとも一方は、前記差分画像に含まれる判定領域の輝度差が、所定値よりも大きいか否かの判定結果を示す情報を前記判定部から受け取る一方、受け取る情報に基づいて把握される前記判定結果が、前記輝度差が前記所定値よりも大きい旨を示す判定結果である場合、警報を出力する発報部を備える請求項2記載の画像伝送システム。 At least one of the encoding unit and the decoding unit receives, from the determination unit, information indicating the determination result as to whether or not the luminance difference of the determination area included in the difference image is larger than a predetermined value. The image transmission system according to claim 2, further comprising: a notification unit that outputs an alarm when the determination result grasped based on information is a determination result indicating that the luminance difference is larger than the predetermined value. 前記一の画像は、対象物を撮像する撮像手段が駆動可能な範囲を撮像して得られる少なくとも一つの撮像画像から選択される一つの撮像画像と同じ画像範囲を有する画像であって、
前記符号化手段は、前記撮像手段が前記撮像画像を得る際における前記撮像手段の姿勢を表す姿勢情報と関連付けられ、前記撮像画像と同じ範囲を撮像した前記参照画像を保持する第1の記憶領域にアクセスして、前記第1の記憶領域に保持される前記参照画像の中から、前記姿勢情報を検出する姿勢情報検出手段から入力される前記姿勢情報と関連付けられている前記参照画像を選択する第1の参照画像選択部と、
前記一の画像と前記第1の参照画像選択部が前記姿勢情報に基づいて選択した前記参照画像とを受け取り、前記一の画像と前記参照画像との差分画像を得る減算部と、
前記差分画像を表す差分画像データを符号化する画像符号化部とを備える請求項1から3の何れか一項に記載の画像伝送システム。
The one image is an image having the same image range as one picked-up image selected from at least one picked-up image obtained by picking up an image of a range capable of driving an image pickup means for picking up an object.
The encoding unit is associated with posture information representing a posture of the imaging unit when the imaging unit obtains the captured image, and the first storage area holds the reference image obtained by imaging the same range as the captured image. From the reference images stored in the first storage area, and selects the reference image associated with the attitude information input from the attitude information detection unit that detects the attitude information. A first reference image selection unit;
A subtraction unit that receives the one image and the reference image selected based on the posture information by the first reference image selection unit, and obtains a difference image between the one image and the reference image;
The image transmission system according to any one of claims 1 to 3, further comprising: an image encoding unit that encodes difference image data representing the difference image.
前記符号化手段は、前記撮像画像をモノクロ化したモノクロ撮像画像を得る画像変換部をさらに備え、前記モノクロ撮像画像を前記一の画像として前記減算部へ出力するように構成される請求項4記載の画像伝送システム。 The encoding unit according to claim 4, further comprising: an image conversion unit for obtaining a monochrome captured image obtained by monochromizing the captured image, and outputting the monochrome captured image to the subtraction unit as the one image. Image transmission system. 前記復号化手段は、有線または無線の通信媒体を介して通信可能に接続される前記符号化手段から前記差分画像データを受け取り、前記差分画像データを復号化してモノクロの前記差分画像を得る画像復号化部と、
前記姿勢情報と関連付けられている前記参照画像を保持する第2の記憶領域にアクセスして、前記第2の記憶領域に保持される参照画像の中から、前記姿勢情報検出手段から入力される前記姿勢情報と関連付けられている前記参照画像を選択する第2の参照画像選択部と、
前記第2の参照画像選択部が入力される前記姿勢情報に基づいて選択した前記参照画像と前記画像復号化部が復号化して得られる前記差分画像とを加算し、前記モノクロ撮像画像に相当するモノクロの合成画像を得る加算部と、
前記加算部が得る前記モノクロの合成画像に対して、前記撮像画像に相当する画像を得る画像復元部とを備える請求項5記載の画像伝送システム。
The decoding unit receives the differential image data from the encoding unit communicably connected via a wired or wireless communication medium, and decodes the differential image data to obtain the monochrome differential image Department,
The second storage area holding the reference image associated with the posture information is accessed, and the reference information input from the posture information detection means from among the reference images held in the second storage area A second reference image selection unit that selects the reference image associated with posture information;
The second reference image selection unit adds the reference image selected based on the posture information input and the difference image obtained by the image decoding unit to decode, and corresponds to the monochrome captured image An addition unit for obtaining a monochrome composite image;
The image transmission system according to claim 5, further comprising: an image restoration unit that obtains an image corresponding to the captured image with respect to the monochrome composite image obtained by the addition unit.
前記復号化手段は、有線または無線の通信媒体を介して通信可能に接続される前記符号化手段から前記差分画像データを受け取り、前記差分画像データを復号化する画像復号化部と、
前記姿勢情報と関連付けられている前記参照画像を保持する第2の記憶領域にアクセスして、前記第2の記憶領域に保持される参照画像の中から、前記姿勢情報検出手段から入力される前記姿勢情報と関連付けられている前記参照画像を選択する第2の参照画像選択部と、
前記第2の参照画像選択部が入力される前記姿勢情報に基づいて選択した前記参照画像と前記画像復号化部が復号化して得られる前記差分画像とを加算した画像を得る加算部とを備える請求項4記載の画像伝送システム。
An image decoding unit that receives the differential image data from the encoding unit communicably connected via a wired or wireless communication medium, and decodes the differential image data;
The second storage area holding the reference image associated with the posture information is accessed, and the reference information input from the posture information detection means from among the reference images held in the second storage area A second reference image selection unit that selects the reference image associated with posture information;
And an adding unit for obtaining an image obtained by adding the reference image selected based on the posture information input by the second reference image selecting unit and the difference image obtained by decoding by the image decoding unit. The image transmission system according to claim 4.
前記第2の記憶領域は、前記第1の記憶領域と同じ記憶領域であり、
前記第2の参照画像選択部は、前記第1の参照画像選択部がアクセスする前記第1の記憶領域と同じ記憶領域にアクセスして前記第1の参照画像選択部が選択した前記参照画像を選択するように構成される請求項6または7に記載の画像伝送システム。
The second storage area is the same storage area as the first storage area,
The second reference image selection unit accesses the same storage area as the first storage area accessed by the first reference image selection unit, and the reference image selected by the first reference image selection unit is The image transmission system according to claim 6 or 7, configured to select.
前記参照画像は、対象物を撮像する撮像手段が駆動可能な範囲を撮像して得られる撮像画像を得る際における前記撮像手段の姿勢を表す姿勢情報と関連付けられた前記撮像画像と同じ範囲を撮像した画像であって、前記撮像手段が最小駆動単位で駆動して取り得る姿勢毎に撮像して得られる前記姿勢毎の撮像画像である請求項1から7の何れか一項に記載の画像伝送システム。 The reference image captures the same range as the captured image associated with the posture information representing the posture of the imaging means when capturing the image obtained by imaging the range in which the imaging means for capturing an object can drive and obtaining the captured image The image transmission according to any one of claims 1 to 7, which is a picked up image and is a picked up image for each posture obtained by picking up an image for each posture which can be taken by driving the image pickup means in a minimum drive unit. system. 前記参照画像には、対象物を撮像する撮像手段が駆動可能な範囲を撮像して得られる撮像画像を得る際における前記撮像手段の姿勢を表す姿勢情報から把握される当該画像上の所定の一点が基準点として設定されており、
前記参照画像は、前記撮像手段が姿勢を変えることによって撮像可能な全範囲を網羅するパノラマ画像から前記基準点を基準として前記一の画像の水平方向および垂直方向の画素数とそれぞれ同じ画素数を切り出して生成される画像である請求項1から7の何れか一項に記載の画像伝送システム。
In the reference image, a predetermined one point on the image grasped from posture information representing the posture of the imaging means at the time of obtaining the captured image obtained by imaging the range in which the imaging means for imaging the object can drive Is set as the reference point,
The reference image is a panoramic image covering the entire range that can be captured by changing the posture of the image capturing means, and the number of pixels equal to the number of pixels in the horizontal and vertical directions of the one image with respect to the reference point The image transmission system according to any one of claims 1 to 7, which is an image generated by cutting out.
前記参照画像は、前記撮像手段によって、少なくとも二つの異なる日時に撮像されたそれぞれの画像を含んでおり、前記それぞれの画像は、前記姿勢情報に加えて日時を表す日時情報とも関連付けられている請求項4から10の何れか一項に記載の画像伝送システム。 The reference image includes respective images captured by the imaging means at at least two different dates and times, and the respective images are associated with date and time information indicating dates and times in addition to the posture information. Item 11. The image transmission system according to any one of items 4 to 10. 撮像手段が撮像した画像を保持する記憶手段と、
前記記憶手段に保持される画像のうち指定された画像を読み出して前記符号化手段へ転送する画像転送手段とをさらに設けた請求項1から11の何れか一項に記載の画像伝送システム。
A storage unit that holds an image captured by the imaging unit;
The image transmission system according to any one of claims 1 to 11, further comprising: image transfer means for reading out a specified image among the images held in the storage means and transferring the read image to the encoding means.
対象物を撮像する撮像手段が駆動可能な範囲を撮像して得られた入力画像を撮像した前記撮像手段の姿勢を表す姿勢情報と関連付けられ、当該入力画像と同じ範囲を撮像した参照画像を保持する記憶領域にアクセスして、記憶領域に保持される参照画像の中から、前記姿勢情報を検出する姿勢情報検出手段から入力される前記姿勢情報と関連付けられている参照画像を選択する参照画像選択部と、
前記入力画像と前記参照画像選択部が前記姿勢情報に基づいて選択した前記参照画像とを受け取り、前記入力画像と前記参照画像との差分の画像である差分画像を得る減算部と、
前記差分画像を表す差分画像データを符号化する画像符号化部とを備えることを特徴とする監視装置。
It is associated with posture information representing the posture of the image pickup means which picked up an input image obtained by picking up an image which can be driven by an image pickup means which picks up an object, and holds a reference image obtained by picking up the same range as the input image To select the reference image associated with the posture information input from the posture information detection unit for detecting the posture information from among the reference images held in the storage region by accessing the storage area to be selected Department,
A subtraction unit that receives the input image and the reference image selected based on the posture information by the reference image selection unit, and obtains a difference image that is a difference image between the input image and the reference image;
And d) an image coding unit for coding difference image data representing the difference image.
一の画像から前記一の画像の範囲を含む参照画像を減算して前記一の画像と前記参照画像との差分画像を生成し、生成した差分画像の画像データを符号化する符号化手段と、前記差分画像の符号化された画像データを復号化して得られる前記差分画像と前記差分画像を生成する際に減算した前記参照画像とを加算し、前記一の画像に相当する合成画像を生成する復号化手段とを具備する画像伝送システムを用いた画像伝送方法であって、
前記符号化手段が、
前記一の画像から前記参照画像を減算して前記一の画像と前記参照画像との差分画像を生成するステップと、
前記差分画像の画像データを符号化するステップと、
符号化された前記差分画像の画像データと、前記一の画像と関連付けられる前記参照画像を特定する識別情報とを前記復号化手段へ伝送するステップと、
前記復号化手段が、
符号化された前記差分画像の画像データを復号化するステップと、
前記復号化するステップで得られた前記差分画像と、前記符号化手段から伝送される前記識別情報によって特定される前記参照画像とを加算して前記一の画像に相当する画像を生成するステップとを備えることを特徴とする画像伝送方法。
Encoding means for subtracting a reference image including the range of the one image from the one image to generate a difference image between the one image and the reference image, and encoding image data of the generated difference image; The difference image obtained by decoding the encoded image data of the difference image and the reference image subtracted when generating the difference image are added to generate a composite image corresponding to the one image An image transmission method using an image transmission system comprising decoding means, comprising:
The encoding means
Subtracting the reference image from the one image to generate a difference image between the one image and the reference image;
Encoding image data of the difference image;
Transmitting to the decoding means image data of the encoded difference image and identification information specifying the reference image to be associated with the one image;
The decoding means
Decoding image data of the encoded difference image;
Generating the image corresponding to the one image by adding the difference image obtained in the decoding step and the reference image specified by the identification information transmitted from the encoding unit An image transmission method comprising:
JP2018006584A 2018-01-18 2018-01-18 Image transmission system Active JP6896655B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018006584A JP6896655B2 (en) 2018-01-18 2018-01-18 Image transmission system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018006584A JP6896655B2 (en) 2018-01-18 2018-01-18 Image transmission system

Publications (2)

Publication Number Publication Date
JP2019125969A true JP2019125969A (en) 2019-07-25
JP6896655B2 JP6896655B2 (en) 2021-06-30

Family

ID=67399133

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018006584A Active JP6896655B2 (en) 2018-01-18 2018-01-18 Image transmission system

Country Status (1)

Country Link
JP (1) JP6896655B2 (en)

Citations (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03138596A (en) * 1989-10-25 1991-06-12 Ikegami Tsushinki Co Ltd Moving body detecting device
JPH07284088A (en) * 1994-04-11 1995-10-27 Fujitsu General Ltd Monitor image transmitting system
JPH09205628A (en) * 1996-01-25 1997-08-05 Oki Electric Ind Co Ltd Image information transmitter
JP2001186506A (en) * 1999-12-27 2001-07-06 Victor Co Of Japan Ltd Image transmitter and its method
JP2001285872A (en) * 2000-03-28 2001-10-12 Victor Co Of Japan Ltd Image transmitting device
JP2001320707A (en) * 2000-05-10 2001-11-16 Mega Chips Corp Image transmission system
JP2004088558A (en) * 2002-08-28 2004-03-18 Sony Corp Monitoring system, method, program, and recording medium
JP2004295749A (en) * 2003-03-28 2004-10-21 Denon Ltd Image monitoring device
JP2009065298A (en) * 2007-09-04 2009-03-26 Sony Corp Lens barrel rotation detecting apparatus and lens barrel rotation-type imaging apparatus
JP2011076214A (en) * 2009-09-29 2011-04-14 Alps Electric Co Ltd Obstacle detection device
JP2012004670A (en) * 2010-06-14 2012-01-05 Canon Inc Image analysis device and image analysis method
JP2014236313A (en) * 2013-05-31 2014-12-15 キヤノン株式会社 Display controller, display control system, program
JP2016082455A (en) * 2014-10-17 2016-05-16 株式会社リコー Transmission system, transmission terminal, transmission method and transmission program
JP2017224882A (en) * 2016-06-13 2017-12-21 三菱電機株式会社 Monitoring camera controller

Patent Citations (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03138596A (en) * 1989-10-25 1991-06-12 Ikegami Tsushinki Co Ltd Moving body detecting device
JPH07284088A (en) * 1994-04-11 1995-10-27 Fujitsu General Ltd Monitor image transmitting system
JPH09205628A (en) * 1996-01-25 1997-08-05 Oki Electric Ind Co Ltd Image information transmitter
JP2001186506A (en) * 1999-12-27 2001-07-06 Victor Co Of Japan Ltd Image transmitter and its method
JP2001285872A (en) * 2000-03-28 2001-10-12 Victor Co Of Japan Ltd Image transmitting device
JP2001320707A (en) * 2000-05-10 2001-11-16 Mega Chips Corp Image transmission system
JP2004088558A (en) * 2002-08-28 2004-03-18 Sony Corp Monitoring system, method, program, and recording medium
JP2004295749A (en) * 2003-03-28 2004-10-21 Denon Ltd Image monitoring device
JP2009065298A (en) * 2007-09-04 2009-03-26 Sony Corp Lens barrel rotation detecting apparatus and lens barrel rotation-type imaging apparatus
JP2011076214A (en) * 2009-09-29 2011-04-14 Alps Electric Co Ltd Obstacle detection device
JP2012004670A (en) * 2010-06-14 2012-01-05 Canon Inc Image analysis device and image analysis method
JP2014236313A (en) * 2013-05-31 2014-12-15 キヤノン株式会社 Display controller, display control system, program
JP2016082455A (en) * 2014-10-17 2016-05-16 株式会社リコー Transmission system, transmission terminal, transmission method and transmission program
JP2017224882A (en) * 2016-06-13 2017-12-21 三菱電機株式会社 Monitoring camera controller

Also Published As

Publication number Publication date
JP6896655B2 (en) 2021-06-30

Similar Documents

Publication Publication Date Title
US11064110B2 (en) Warp processing for image capture
US11962736B2 (en) Image stitching with electronic rolling shutter correction
US8305424B2 (en) System, apparatus and method for panorama image display
US8315481B2 (en) Image transmitting apparatus, image receiving apparatus, image transmitting and receiving system, recording medium recording image transmitting program, and recording medium recording image receiving program
US20060093224A1 (en) Image capturing apparatus and image distributing system
WO2017205492A1 (en) Three-dimensional noise reduction
CN107613216B (en) Focusing method, device, computer readable storage medium and electronic equipment
US11563925B2 (en) Multiple tone control
JP6198021B2 (en) Using depth information to support video coding based on motion compensation
CN105578129A (en) Multipath multi-image video splicing device
US11908111B2 (en) Image processing including noise reduction
EP3466051A1 (en) Three-dimensional noise reduction
US20200244950A1 (en) Image Sensor Blemish Detection
KR20100018998A (en) Omnidirectional monitoring camera system and an image processing method using the same
US20150170340A1 (en) Imaging device, reconstruction device, imaging system, and imaging method
JP2009100259A (en) Monitoring camera and image monitoring system
JP2019125969A (en) Image transmission system, monitoring apparatus, and image transmission method
KR20090015311A (en) Video surveillance system
EP3091742A1 (en) Device and method for encoding a first image of a scene using a second image having a lower resolution and captured at the same instant
CN114257733A (en) Method and system for image processing of omni-directional image with viewpoint offset
KR20170121991A (en) Fisheye image monitoring system
KR100500152B1 (en) Method for transferring high resolution video signals and high resolution camera system executing the method
Basit et al. A Luminous-free Remote Surveillance System with Inherent Video Overlay and IP Encoder
KR20180022327A (en) Image transforming device of a 360-degree revolution in CCTV camera
JP4218278B2 (en) Information processing system, information processing apparatus, information processing method, image processing apparatus, image processing method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200304

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20201124

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201222

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210208

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210511

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210609

R150 Certificate of patent or registration of utility model

Ref document number: 6896655

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150