JP2012244480A - All-round monitored image display processing system - Google Patents

All-round monitored image display processing system Download PDF

Info

Publication number
JP2012244480A
JP2012244480A JP2011113732A JP2011113732A JP2012244480A JP 2012244480 A JP2012244480 A JP 2012244480A JP 2011113732 A JP2011113732 A JP 2011113732A JP 2011113732 A JP2011113732 A JP 2011113732A JP 2012244480 A JP2012244480 A JP 2012244480A
Authority
JP
Japan
Prior art keywords
image
luminance
view
monitoring
block
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2011113732A
Other languages
Japanese (ja)
Other versions
JP5866146B2 (en
Inventor
Akira Wada
亮 和田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Teli Corp
Original Assignee
Toshiba Teli Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Teli Corp filed Critical Toshiba Teli Corp
Priority to JP2011113732A priority Critical patent/JP5866146B2/en
Publication of JP2012244480A publication Critical patent/JP2012244480A/en
Application granted granted Critical
Publication of JP5866146B2 publication Critical patent/JP5866146B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To clearly display details of each frame unit of an entire 360-degree monitored video photographed by a monocular camera and to clearly display details of a clipped image clipped from the 360-degree monitored video.SOLUTION: A blocking brightness extension processing module 20 performs a blocking brightness extension process on each pixel of an image which is either a 360-degree all-round input image (Pa) of an elliptical surface stored in an image buffer memory 13 or a clipped image (object image) stored in an object image buffer memory 19 and is output for display.

Description

本発明は、単眼カメラで撮影した全方位画像からその一部領域の画像を切り出し、監視画像として表示する表示処理機能を備えた全方位監視画像表示処理システムに関する。   The present invention relates to an omnidirectional monitoring image display processing system having a display processing function of cutting out an image of a partial area from an omnidirectional image captured by a monocular camera and displaying the image as a monitoring image.

単眼カメラに360°レンズを取り付け、当該カメラで撮影した映像をカメラの全周に亘る監視映像として出力する360°監視システムが種々開発され実用化されている。この種、従来の360°監視システムは、カメラの全周が1フレームに収まるNTSC映像であることから、部分映像の解像度が低く、360°の全周映像について、そのすべてを目視で監視するには限界があり、細部に亘る監視は困難であった。   Various 360 ° monitoring systems have been developed and put into practical use in which a 360 ° lens is attached to a monocular camera, and an image captured by the camera is output as a monitoring image over the entire circumference of the camera. Since this type of conventional 360 ° monitoring system is an NTSC video in which the entire circumference of the camera fits in one frame, the resolution of the partial video is low, and all of the 360 ° full circumference video is visually monitored. There were limitations and detailed monitoring was difficult.

また、例え監視映像を高解像度にしても、360°の全周映像には、明るさの大きく異なる場所が含まれる場合が多く、明暗の大きく異なる部分のすべてを同時に目視にて監視することは困難であった。   In addition, even if the monitoring video is set to high resolution, the 360 ° all-round video often includes places with significantly different brightness, and it is not possible to visually monitor all the parts with greatly different brightness. It was difficult.

また、360°の全周映像から、一部領域の画像を切り出し、切り出した画像を監視画像として表示する場合においても、切り出し地点の明るさが大きく異なる場合が多く、明暗の大きく異なる部分の切り出し画像について明瞭な目視監視ができないという問題があった。   In addition, even when an image of a partial region is cut out from a 360 ° all-round video and the cut-out image is displayed as a monitoring image, the brightness of the cut-out point is often greatly different, and a portion with a greatly different brightness is cut out. There was a problem that clear visual monitoring of images was not possible.

この種の全方位監視カメラシステムとして、従来では、特定の動体画像のみを高画質で記録する監視カメラ技術(特許文献1)や、広角画像データを目視可能な通常画角の画像に変換して表示する監視カメラ技術(特許文献2)が存在した。   Conventionally, as this type of omnidirectional monitoring camera system, there is a monitoring camera technique (Patent Document 1) that records only a specific moving object image with high image quality, or by converting wide-angle image data into an image with a normal angle of view that can be viewed. There was a surveillance camera technology (Patent Document 2) to display.

特開2006−121320公報JP 2006-121320 A 特開2005−303340公報JP 2005-303340 A

上述したように、単眼カメラに360°レンズを取り付け、当該カメラで撮影した映像をカメラの全周に亘る監視映像として出力する360°監視システムにおいては、明るさの大きく異なる場所が含まれる場合が多く、明暗の大きく異なる部分のすべてを同時に目視にて監視することは困難であった。また、360°の全周映像から、一部の画像を切り出し、その切り出し画像を監視画像として表示する場合においても、360°の全周映像内のごく一部の領域に存在する監視対象物を明瞭に表示することができず、切り出した監視画像の細部に亘る表示が困難であった。   As described above, in a 360 ° monitoring system in which a 360 ° lens is attached to a monocular camera and an image captured by the camera is output as a monitoring image over the entire circumference of the camera, places with greatly different brightness may be included. In many cases, it has been difficult to visually monitor all of the light and dark areas that differ greatly. In addition, even when a part of an image is cut out from the 360 ° all-round video and the cut-out image is displayed as a monitoring image, the monitoring target existing in a very small area in the 360 ° all-round video is displayed. It was impossible to display clearly, and it was difficult to display details of the cut-out monitoring image.

本発明は上記実情に鑑みなされたもので、単眼カメラで撮影した各フレーム単位の360°監視映像について、その全体映像を細部に亘り明瞭に表示できるとともに、360°監視映像の一部を切り出し、その切り出し画像を監視画像として表示する場合に、切り出した監視画像を細部に亘り明瞭に表示することのできる全方位監視画像表示処理システムを提供することを目的とする。   The present invention has been made in view of the above circumstances, and for each 360-degree monitoring video captured by a monocular camera, the entire video can be clearly displayed in detail and a part of the 360-degree monitoring video is cut out. An object of the present invention is to provide an omnidirectional monitoring image display processing system capable of clearly displaying a cut-out monitoring image in detail when the cut-out image is displayed as a monitoring image.

本発明は、単眼カメラで撮影した360°全周監視映像に対してユーザが指定した位置指定情報に従う監視ビューを表示可能にした全方位監視画像表示処理システムであって、前記360°全周監視映像をフレーム単位にキャプチャする監視映像入力手段と、前記監視映像入力手段がキャプチャしたフレーム単位の監視映像に対して前記位置指定情報により指定された一部領域の画像を切り出す切り出し処理を実施し、切り出した画像に対して歪曲収差を補正する補正処理を実施する監視画像処理手段と、前記歪曲収差を補正した切り出し画像に対して画素単位のブロッキング輝度伸張処理を実施するブロッキング輝度伸張処理手段と、前記ブロッキング輝度伸張処理した切り出し画像を監視画像として表示する表示出力手段とを具備したことを特徴とする。   The present invention is an omnidirectional monitoring image display processing system capable of displaying a monitoring view according to position designation information designated by a user with respect to a 360 ° all-round monitoring video imaged by a monocular camera. A monitoring video input unit that captures video in frame units, and a cutout process that cuts out an image of a partial area designated by the position designation information with respect to the monitoring video in frame units captured by the monitoring video input unit, Monitoring image processing means for performing correction processing for correcting distortion on the cut-out image, blocking luminance expansion processing means for performing blocking luminance expansion processing on a pixel basis on the cut-out image corrected for distortion, Display output means for displaying the clipped image subjected to the blocking luminance expansion processing as a monitoring image; It is characterized by.

また本発明は、単眼カメラで撮影した360°全周監視映像に対してユーザが指定した位置指定情報およびビュー指定情報に従う監視ビューを表示可能にした全方位監視画像表示処理システムであって、前記360°全周監視映像をフレーム単位にキャプチャする監視映像入力手段と、前記監視映像入力手段がキャプチャしたフレーム単位の監視映像を入力画像として記憶する入力画像記憶手段と、前記監視映像入力手段がキャプチャしたフレーム単位の監視映像に対して前記位置指定情報により指定された一部領域の画像を切り出す切り出し処理を実施し、切り出した画像に対して歪曲収差を補正する補正処理を実施する監視画像処理手段と、前記歪曲収差を補正した切り出し画像をビュー指定監視画像として記憶する切り出し画像記憶手段と、前記切り出し画像記憶手段に記憶したビュー指定監視画像に対して画素単位のブロッキング輝度伸張処理を実施するブロッキング輝度伸張処理手段と、前記輝度伸張処理を施したビュー指定監視画像に対して、予め用意された監視形態を異にする複数のビュー形式から、前記ビュー指定情報により指定されたビュー形式に従う監視形態のビュー画面を作成するビュー作成処理手段と、前記ビュー作成処理手段が作成したビュー画面を表示する表示出力手段と、を具備したことを特徴とする。   Further, the present invention is an omnidirectional monitoring image display processing system capable of displaying a monitoring view according to position designation information and view designation information designated by a user with respect to a 360 ° all-round monitoring video imaged by a monocular camera, A monitoring video input unit that captures 360 ° all-round monitoring video in frame units, an input image storage unit that stores the monitoring video in frame units captured by the monitoring video input unit as an input image, and the monitoring video input unit captures A monitoring image processing unit that performs a clipping process for cutting out an image of a partial region designated by the position designation information with respect to a monitoring image in frame units, and performs a correction process for correcting distortion for the cut image And a cut-out image storage unit that stores the cut-out image corrected for distortion as a view designation monitoring image A blocking luminance expansion processing unit that performs a block-by-pixel blocking luminance expansion process on the view designation monitoring image stored in the cut-out image storage unit, and a view designation monitoring image subjected to the luminance expansion processing in advance. View creation processing means for creating a view screen in a monitoring form according to the view format specified by the view designation information from a plurality of view formats with different prepared monitoring forms, and a view screen created by the view creation processing means Display output means for displaying.

本発明によれば、単眼カメラで撮影した各フレーム単位の360°監視映像について、その全体映像を細部に亘り明瞭に表示できるとともに、360°監視映像の一部を切り出し、その切り出し画像を監視画像として表示する場合に、切り出した監視画像を細部に亘り明瞭に表示することができる。   According to the present invention, it is possible to clearly display the entire video of the 360 ° monitoring video of each frame unit captured by the monocular camera in detail, and cut out a part of the 360 ° monitoring video and extract the cut-out image as the monitoring image. Can be displayed clearly in detail.

本発明の実施形態に係る全方位監視画像表示処理システムの構成を示すブロック図。The block diagram which shows the structure of the omnidirectional monitoring image display processing system which concerns on embodiment of this invention. 上記実施形態に係る画像処理部の機能構成を示すブロック図。The block diagram which shows the function structure of the image process part which concerns on the said embodiment. 上記実施形態に係る処理の手順を示すフローチャート。The flowchart which shows the procedure of the process which concerns on the said embodiment. 上記実施形態に係るブロッキング輝度伸張処理手段の構成要素を示すブロック図。The block diagram which shows the component of the blocking luminance expansion | extension process means which concerns on the said embodiment. 上記実施形態に係る輝度伸張処理部の輝度伸張処理動作を説明するための動作説明図。Operation | movement explanatory drawing for demonstrating the brightness | luminance expansion process operation | movement of the brightness | luminance expansion | extension process part which concerns on the said embodiment. 上記実施形態に係るブロッキング輝度伸張処理動作を説明するための動作説明図。Operation | movement explanatory drawing for demonstrating the blocking luminance expansion | extension process operation | movement which concerns on the said embodiment. 上記実施形態に係るブロッキング輝度伸張処理動作を説明するための動作説明図。Operation | movement explanatory drawing for demonstrating the blocking luminance expansion | extension process operation | movement which concerns on the said embodiment. 上記実施形態に係る畳み込み処理動作を説明するための動作説明図。Operation | movement explanatory drawing for demonstrating the convolution process operation | movement which concerns on the said embodiment. 上記実施形態に係る畳み込み処理動作を説明するための動作説明図。Operation | movement explanatory drawing for demonstrating the convolution process operation | movement which concerns on the said embodiment. 上記実施形態に係るバイリニア補間処理動作を説明するための動作説明図。Operation | movement explanatory drawing for demonstrating the bilinear interpolation process operation | movement which concerns on the said embodiment. 上記実施形態に係る輝度伸張処理部の構成を示すブロック図。The block diagram which shows the structure of the brightness expansion process part which concerns on the said embodiment. 上記実施形態に係る輝度伸張処理部の処理手順を示すフローチャート。The flowchart which shows the process sequence of the brightness expansion process part which concerns on the said embodiment. 上記実施形態に係る全方位(360°全周)監視画像の一例を示す図。The figure which shows an example of the omnidirectional (360 degrees all around) monitoring image which concerns on the said embodiment. 上記実施形態に係る監視画像(任意の位置を指定して表示するPTZ(Pan-Tilt-Zoom)用ビュー)の表示形態を示す図。The figure which shows the display form of the monitoring image (PTZ (Pan-Tilt-Zoom) view which designates and displays arbitrary positions) concerning the said embodiment. 上記実施形態に係る監視画像(登録した位置を切替えて表示するプリセット用ビュー)の表示形態を示す図。The figure which shows the display form of the monitoring image (preview view which switches and displays the registered position) which concerns on the said embodiment. 上記実施形態に係る監視画像(複数地点を同時に表示する多地点用ビュー)の表示形態を示す図。The figure which shows the display form of the monitoring image (multi-point view which displays a several point simultaneously) which concerns on the said embodiment. 上記実施形態に係る監視画像(360°全周を同時に表示するパノラマ用ビュー)の表示形態を示す図。The figure which shows the display form of the monitoring image (panoramic view which displays 360 degrees all the circumferences simultaneously) concerning the said embodiment.

以下図面を参照して本発明の実施形態を説明する。この実施形態においては、ユーザが指定した監視用ビュー形式および切り出し位置に従う切り出し画像を例に、その表示処理機能の実現手段を説明する。なお、この実施形態では、単眼カメラから取り込んだ1フレーム(1画面)分の画像データを、単に画像若しくは監視映像と称している。   Embodiments of the present invention will be described below with reference to the drawings. In this embodiment, a means for realizing the display processing function will be described by taking, as an example, a cut-out image according to a monitoring view format and a cut-out position specified by the user. In this embodiment, image data for one frame (one screen) captured from a monocular camera is simply referred to as an image or a monitoring video.

本発明の実施形態に係る全方位監視画像表示処理システムは、1.3メガ(M)ピクセル以上の画素数を有する高画素(高精細)の単眼カメラ(1台のカメラ)に、360°レンズ(魚眼レンズ)を取り付け、この単眼カメラで撮影した映像から、予め指定された監視用ビューの設定パラメータ(プリセット情報など)とユーザ指定による監視用ビューの位置情報、監視用ビューの指示に従う各種監視用ビューの表示に適用可能である。この処理では、上記単眼カメラで撮影した360°全周高精細監視映像(全方位監視画像)を入力画像として、当該入力画像と、当該入力画像から切り出した切り出し画像を対象に、歪曲収差を補正後、ブロッキング輝度伸張による明暗補正を実施し、表示出力する。   An omnidirectional monitoring image display processing system according to an embodiment of the present invention provides a 360 ° lens to a high-pixel (high-definition) monocular camera (one camera) having a number of pixels of 1.3 mega (M) pixels or more. (Fisheye lens) attached to the camera, and for various types of monitoring according to the monitoring view setting parameters specified by the user (preset information, etc.), the position information of the monitoring view specified by the user, and the monitoring view instructions. Applicable to view display. In this processing, the 360 ° all-round high-definition surveillance video (omnidirectional surveillance image) captured by the monocular camera is used as an input image, and distortion is corrected for the input image and a cut-out image cut out from the input image. After that, light / dark correction is performed by blocking luminance expansion, and display output is performed.

本発明の実施形態に係る全方位監視画像表示処理システムの構成を図1に示している。
本発明の実施形態に係る全方位監視画像表示処理システムは、図1に示すように、単眼カメラ(ipカメラ)11と、キャプチャ部12と、画像バッファメモリ13と、リサイズ部14と、監視用ビューの作成指示を行う入力デバイス16と、ビューパラメータ格納部(プリセット情報バッファメモリ)17と、注目領域画像作成処理部18と、切り出し画像バッファメモリ19と、ブロッキング輝度伸張処理部20と、表示ビュー作成処理部21と、表示部(表示デバイス)22とを具備して構成される。
FIG. 1 shows the configuration of an omnidirectional monitoring image display processing system according to an embodiment of the present invention.
As shown in FIG. 1, an omnidirectional monitoring image display processing system according to an embodiment of the present invention includes a monocular camera (ip camera) 11, a capture unit 12, an image buffer memory 13, a resizing unit 14, and a monitoring unit. An input device 16 that gives a view creation instruction, a view parameter storage unit (preset information buffer memory) 17, a region-of-interest image creation processing unit 18, a cut-out image buffer memory 19, a blocking luminance expansion processing unit 20, a display view A creation processing unit 21 and a display unit (display device) 22 are provided.

単眼カメラ11およびキャプチャ部12は、360°全周監視映像をフレーム単位にキャプチャする監視映像入力手段を構成する。   The monocular camera 11 and the capture unit 12 constitute monitoring video input means for capturing 360 ° all-round monitoring video in frame units.

単眼カメラ11は、撮像窓に360°魚眼レンズ11Aを取り付けた1.3Mピクセル以上の画素数を有する高精細の監視カメラを構成し、楕円面の360°全周高精細監視映像を監視画像(Pa)として出力する。ここでは、楕円面の長辺と短辺を、1フレームの幅と高さに合わせた、横×縦=1280×960画素の360°全周高精細監視映像を監視画像(Pa)として出力する。   The monocular camera 11 constitutes a high-definition surveillance camera having a pixel number of 1.3 M pixels or more with a 360 ° fisheye lens 11A attached to the imaging window, and a 360 ° all-round high-definition surveillance video of an ellipsoid is displayed as a surveillance image (Pa ). Here, a 360 ° all-round high-definition monitoring video of horizontal × vertical = 1280 × 960 pixels, in which the long and short sides of the ellipsoid are matched to the width and height of one frame, is output as a monitoring image (Pa). .

キャプチャ部12は、上記カメラ11が撮像したフレーム単位(1280×960画素)の監視画像(Pa)を入力画像として取り込み、画像バッファメモリ13に記憶する処理機能をもつ。   The capture unit 12 has a processing function of capturing a monitor image (Pa) in frame units (1280 × 960 pixels) captured by the camera 11 as an input image and storing it in the image buffer memory 13.

画像バッファメモリ13は、キャプチャ部12がキャプチャしたフレーム単位の監視映像(Pa)を入力画像として記憶する入力画像記憶手段を構成する。ここでは横×縦=1280×960画素構成(Quad−VGA)の360°全周高精細監視映像(Pa)を入力画像として記憶する。なお、ここでは単眼カメラ11で撮影した直近の入力画像(ライブ映像)を表示処理対象の入力画像(Pa)として入力しているが、これに限らず、例えば図2に示すように、大容量記憶媒体10に記憶した時系列の録画映像を入力画像(Pa)として入力してもよい。   The image buffer memory 13 constitutes an input image storage unit that stores the monitoring video (Pa) in units of frames captured by the capture unit 12 as an input image. Here, 360 ° all-round high-definition monitoring video (Pa) having horizontal × vertical = 1280 × 960 pixel configuration (Quad-VGA) is stored as an input image. Here, the latest input image (live video) captured by the monocular camera 11 is input as the input image (Pa) to be displayed, but the present invention is not limited to this. For example, as shown in FIG. A time-series recorded video stored in the storage medium 10 may be input as an input image (Pa).

リサイズ部14は、キャプチャ部12がキャプチャした、1280×960画素構成(Quad−VGA)の入力画像(Pa)を、表示部(表示デバイス)22の画素構成に合わせた640×480画素構成(VGA)の表示用入力画像にリサイズしてブロッキング輝度伸張処理部20に受け渡すリサイズ処理を実施する。   The resizing unit 14 has a 640 × 480 pixel configuration (VGA) in which the input image (Pa) of the 1280 × 960 pixel configuration (Quad-VGA) captured by the capture unit 12 is matched to the pixel configuration of the display unit (display device) 22. ) Is resized to the display input image and transferred to the blocking luminance expansion processing unit 20.

入力デバイス16は、ここでは監視用ビューの作成指示を行うユーザ操作入力デバイスとして用いられるもので、ユーザの操作による、ビュー形式を指定するビュー指定情報(Ca)、および監視用ビューの位置指定情報(Cb)の入力を受け付け、受け付けたビュー指定情報(Ca)を後述する注目領域画像作成処理部18とブロッキング輝度伸張処理部20とビュー作成処理部21に送出し、ユーザが入力した各監視用ビューの位置指定情報(Cb)をプリセット情報としてビューパラメータ格納部17に格納する。ビュー指定情報(Ca)は監視用ビューの表示形態(ビュー形式)を指定する情報であり、この実施形態では図14に示すPTZビュー、図15に示すプリセットビュー、図16に示す多地点ビュー、図17に示すパノラマビューのうち、任意のビュー形式による監視用ビューを表示対象(監視画面)として指定する。監視用ビューの位置指定情報(Cb)は、上記各監視用ビューについて、360°全周の入力画像(Pa)から切り出す画像の矩形の位置および領域を指定する各種監視用ビュー形式のプリセット情報であり、注目領域画像作成処理部18の画像切り出し処理に供される。   Here, the input device 16 is used as a user operation input device for instructing creation of a monitoring view, and view designation information (Ca) for designating a view format and position designation information for a monitoring view by user operation. (Cb) is received, and the received view designation information (Ca) is sent to the attention area image creation processing unit 18, the blocking luminance expansion processing unit 20, and the view creation processing unit 21, which will be described later. The view position designation information (Cb) is stored in the view parameter storage unit 17 as preset information. The view designation information (Ca) is information for designating the display form (view format) of the monitoring view. In this embodiment, the PTZ view shown in FIG. 14, the preset view shown in FIG. 15, the multipoint view shown in FIG. Among the panoramic views shown in FIG. 17, a monitoring view in an arbitrary view format is designated as a display target (monitoring screen). The monitoring view position designation information (Cb) is preset information in various monitoring view formats for designating the rectangular position and area of the image to be cut out from the 360 ° all-round input image (Pa) for each of the monitoring views. Yes, it is used for the image cutout process of the attention area image creation processing unit 18.

ビューパラメータ格納部17は、入力デバイス16から入力された、各種監視用ビュー形式のプリセット情報(PTZビュー用位置情報、プリセットビュー用位置情報、多地点ビュー用位置情報)を監視用ビューパラメータとして記憶する。ビューパラメータ格納部17は、入力デバイス16から予め指定された外部パラメータとしてプリセット情報を格納し、また入力デバイス16からの位置指定情報に従って、各監視用ビュー(PTZビュー、プリセットビュー、多地点ビュー、パノラマビュー)のプリセット情報を更新する。   The view parameter storage unit 17 stores preset information (PTZ view position information, preset view position information, multi-point view position information) in various monitoring view formats input from the input device 16 as monitoring view parameters. To do. The view parameter storage unit 17 stores preset information as external parameters designated in advance from the input device 16, and each monitoring view (PTZ view, preset view, multipoint view, Update the preset information of (Panorama View).

注目領域画像作成処理部18および切り出し画像バッファメモリ19は、ビュー指定情報(Ca)により監視用ビューが指定されているとき、上記ビューパラメータ格納部17に記憶された指定ビューのプリセット情報(位置情報に基づく矩形の領域の中心位置座標)をもとに、上記画像バッファメモリ13に記憶された入力画像(Pa)に対して切り出し処理を実施し、切り出した画像に対して歪曲収差を補正する補正処理を実施する監視画像処理手段を構成する。ここでは、入力画像(Pa)から切り出した切り出し画像(q)に対して歪曲収差を補正し、ビュー作成処理部21の処理に適した各プリセット情報に基づく表示画素構成に合わせた640×480画素構成(VGA)の切り出し画像として切り出し画像バッファメモリ19に貯える。この際の歪曲収差の補正処理については既知の技術が適用される。切り出し画像バッファメモリ19に貯えられた歪曲収差補正後の切り出し画像はビュー指定情報(Ca)により監視用ビューが指定されているとき、ブロッキング輝度伸張処理部20においてブロッキング輝度伸張処理による明暗補正が実施され、ビュー作成処理部21においてユーザが指定した描画画像(監視用ビュー)の作成処理が実施される。   The attention area image creation processing unit 18 and the cut-out image buffer memory 19 store preset information (position information) of the designated view stored in the view parameter storage unit 17 when the monitoring view is designated by the view designation information (Ca). Is performed on the input image (Pa) stored in the image buffer memory 13 to correct distortion aberration on the cut image. The monitoring image processing means for executing the processing is configured. Here, the distortion aberration is corrected for the cut-out image (q) cut out from the input image (Pa), and 640 × 480 pixels are adapted to the display pixel configuration based on each preset information suitable for the processing of the view creation processing unit 21. The cut-out image buffer memory 19 stores the cut-out image of the configuration (VGA). A known technique is applied to the distortion correction process at this time. When the monitoring view is designated by the view designation information (Ca) in the cutout image after distortion correction stored in the cutout image buffer memory 19, the blocking luminance expansion processing unit 20 performs brightness correction by the blocking luminance expansion processing. Then, a drawing image (monitoring view) creation process designated by the user is performed in the view creation processing unit 21.

ブロッキング輝度伸張処理部20は、上記画像バッファメモリ13に記憶された入力画像(Pa)と切り出し画像バッファメモリ19に記憶された切り出し画像を処理対象に、表示出力する画像に対して画素単位のブロッキング輝度伸張処理を実施する処理手段(ブロッキング輝度伸張処理手段)を構成する。この実施形態ではビュー指定情報(Ca)により監視用ビューが指定されているとき、切り出し画像バッファメモリ19に記憶された切り出し画像に対してブロッキング輝度伸張処理による画素レベルの明暗補正を実施し、監視用ビューが指定されていないとき(ビュー指定情報(Ca)が入力されていない状態にあるとき)、360°全周の入力画像(Pa)に対してブロッキング輝度伸張処理による画素レベルの明暗補正を実施する。このブロッキング輝度伸張処理部20による画素レベルのブロッキング輝度伸張処理により、監視対象の画像に対して明暗の大きく異なる部分が画素レベルで補正され、監視対象の画像が監視し易いダイナミックレンジの画像に補正される。   The blocking luminance expansion processing unit 20 performs block-by-pixel blocking on an image to be displayed and output with the input image (Pa) stored in the image buffer memory 13 and the cut-out image stored in the cut-out image buffer memory 19 as processing targets. A processing unit (blocking luminance expansion processing unit) that performs luminance expansion processing is configured. In this embodiment, when a monitoring view is designated by the view designation information (Ca), pixel level contrast correction by blocking luminance expansion processing is performed on the clipped image stored in the clipped image buffer memory 19 for monitoring. When the view for use is not designated (when the view designation information (Ca) is not inputted), pixel-level brightness correction by blocking luminance expansion processing is performed on the 360 ° all-round input image (Pa). carry out. The pixel-level blocking luminance expansion processing by the blocking luminance expansion processing unit 20 corrects a greatly different portion of brightness and darkness with respect to the monitoring target image at the pixel level, and corrects the monitoring target image to an image having a dynamic range that is easy to monitor. Is done.

このブロッキング輝度伸張処理部20は、輝度伸張処理の対象となる入力画像(ここではリサイズ部14でリサイズしたVGAの360°全周入力画像、または切り出し画像バッファメモリ19に貯えられたVGAの切り出し画像)について、当該画像領域(または設定された注目エリア)を複数のブロックに分割し、分割したブロック各々について、周囲のブロックの輝度値を畳み込んだ複数のブロックの輝度値をもとにブロック単位の輝度伸張パラメータを算出し、当該輝度伸張パラメータをもとにブロック単位の輝度変換テーブルを作成するブロック処理手段と、このブロック処理手段により作成されたブロック単位の輝度変換テーブルをもとに、分割したブロック各々の各画素について、ブロック毎に、周囲のブロックの輝度変換テーブルを参照してバイリニア補間を実施する補間処理手段と、この補間処理手段によりバイリニア補間を施した上記各ブロックの画素をもとに上記入力画像に対する輝度伸張出力画像を作成する画像変換手段とを具備し、画面全体の一部に存在する明暗の大きく異なる画像について、明暗の大きく異なる部分を画素レベルで補正し、監視し易い画像に補正する。このブロッキング輝度伸張処理部20の構成並びに輝度伸張処理については、図4乃至図12を参照して後述する。   The blocking luminance expansion processing unit 20 inputs an input image (here, a VGA 360-degree all-round input image resized by the resizing unit 14 or a VGA cut-out image stored in the cut-out image buffer memory 19). ), The image area (or the set attention area) is divided into a plurality of blocks, and for each of the divided blocks, a block unit based on the luminance values of a plurality of blocks obtained by convolving the luminance values of surrounding blocks. A block processing unit that calculates a luminance expansion parameter for each block and creates a block-by-block luminance conversion table based on the luminance expansion parameter, and a block unit based on the block-based luminance conversion table created by the block processing unit. For each pixel in each block, the luminance conversion test of surrounding blocks is performed for each block. Interpolation processing means for performing bilinear interpolation with reference to the image data, and image conversion means for creating a luminance expansion output image for the input image based on the pixels of each block subjected to bilinear interpolation by the interpolation processing means. It is provided, and with respect to an image having a large difference in brightness and darkness existing in a part of the entire screen, a portion having a large difference in brightness and darkness is corrected at a pixel level to correct an image easy to monitor. The configuration of the blocking luminance expansion processing unit 20 and the luminance expansion processing will be described later with reference to FIGS.

ビュー作成処理部21は、入力デバイス16から入力されたビュー指定情報(Ca)により監視用ビューが指定されているとき、ブロッキング輝度伸張処理部20でブロッキング輝度伸張処理した図13に示す基本画像(全周画像)をもとに、ユーザが指定した監視用ビューを作成して表示部(表示デバイス)22に表示出力する処理を実施する。またビューが指定されていないとき、ブロッキング輝度伸張処理部20で明暗補正した360°全周の監視画像を表示部(表示デバイス)22に表示出力する。
表示部(表示デバイス)22は上記輝度伸張処理を施した監視対象画像を表示する表示出力手段を構成する。この実施形態では、表示デバイスの表示画面が640×480画素で構成され、画像バッファメモリ13に貯えられた入力画像(Pa)をリサイズ部14でリサイズした360°全周入力画像と、切り出し画像バッファメモリ19に貯えられた切り出し画像とを表示対象に、そのいずれかの画像を選択して、若しくは表示領域を区分して同時に表示出力する。この実施形態では、監視用ビューが指定されていないとき(ビュー指定情報(Ca)が入力されていない動作状態にあるとき)、画像バッファメモリ13に貯えられた(リサイズ部14でリサイズされた)360°全周の入力画像(Pa)を表示し、ユーザが監視用ビューを指定しているとき(ビュー指定情報(Ca)が入力された動作状態にあるとき)、切り出し画像バッファメモリ19に貯えられた切り出し画像を用いた指定ビューを表示する。
When the monitoring view is designated by the view designation information (Ca) input from the input device 16, the view creation processing unit 21 performs the blocking luminance expansion processing by the blocking luminance expansion processing unit 20 (see FIG. 13). The monitoring view designated by the user is created based on the (circumference image) and displayed on the display unit (display device) 22. When the view is not specified, the 360 ° all-round monitor image corrected by the blocking luminance expansion processing unit 20 is displayed and output on the display unit (display device) 22.
The display unit (display device) 22 constitutes a display output unit that displays the monitoring target image subjected to the luminance expansion processing. In this embodiment, the display screen of the display device is composed of 640 × 480 pixels, the 360 ° all-round input image obtained by resizing the input image (Pa) stored in the image buffer memory 13 by the resizing unit 14, and the cut-out image buffer The cutout image stored in the memory 19 is selected as a display target, and one of the images is selected, or the display area is divided and simultaneously displayed and output. In this embodiment, when the monitoring view is not designated (when the view designation information (Ca) is not inputted), it is stored in the image buffer memory 13 (resized by the resizing unit 14). When the 360 ° all-round input image (Pa) is displayed and the user designates the monitoring view (when the view designation information (Ca) is in the operating state), the image is stored in the cut-out image buffer memory 19. A designated view using the clipped image is displayed.

上記した全方位監視画像表示処理システムのソフトウェア(SW)構成を図2に示している。   FIG. 2 shows the software (SW) configuration of the above-described omnidirectional monitoring image display processing system.

キャプチャ部12は、上記カメラ11が撮像したフレーム単位(1280×960画素)の監視画像、若しくは上記カメラ映像を大容量記憶媒体10に記憶した時系列の録画映像を入力画像(Pa)として取り込む。この入力画像(Pa)に対して、注目領域画像作成処理部18により、プリセット情報に従う部分画像(監視画像)の切り出し処理が実施される。   The capture unit 12 captures, as an input image (Pa), a monitoring image in frame units (1280 × 960 pixels) captured by the camera 11 or a time-series recorded video in which the camera video is stored in the mass storage medium 10. With respect to this input image (Pa), the region-of-interest image creation processing unit 18 performs segmenting processing of a partial image (monitoring image) according to the preset information.

注目領域画像作成処理部18は、ビューパラメータ格納部17(プリセット情報バッファメモリ)に記憶されたプリセット情報(矩形の領域の中心位置座標)をもとに、画像バッファメモリ13に記憶された入力画像(Pa)に対して切り出し処理を実施して、入力画像(Pa)から切り出した切り出し画像(q)に対し歪曲収差を補正し、ビュー作成処理部21の処理に適した各プリセット情報に基づく表示画素構成に合わせた640×480画素構成(VGA)の切り出し画像として切り出し画像バッファメモリ19に貯える。   The attention area image creation processing unit 18 uses the preset information (center position coordinates of the rectangular area) stored in the view parameter storage unit 17 (preset information buffer memory) to store the input image stored in the image buffer memory 13. (Pa) is cut out, distortion is corrected for the cut out image (q) cut out from the input image (Pa), and display based on each preset information suitable for the processing of the view creation processing unit 21 The cut-out image buffer memory 19 stores a cut-out image having a 640 × 480 pixel configuration (VGA) according to the pixel configuration.

ブロッキング輝度伸張処理部20は、上記画像バッファメモリ13に記憶された入力画像(Pa)と、切り出し画像バッファメモリ19に記憶された切り出し画像を処理対象に、表示出力する監視画像に対して画素単位のブロッキング輝度伸張処理を実施する。ビュー指定情報(Ca)により監視用ビューが指定されているとき、切り出し画像バッファメモリ19に記憶された切り出し画像に対してブロッキング輝度伸張処理による画素レベルの明暗補正を実施し、監視用ビューが指定されていないとき、画像バッファメモリ13に記憶された入力画像(Pa)に対してブロッキング輝度伸張処理による画素レベルの明暗補正を実施する。   The blocking luminance expansion processing unit 20 processes the input image (Pa) stored in the image buffer memory 13 and the cut-out image stored in the cut-out image buffer memory 19 as a processing target in units of pixels. The blocking luminance expansion process is performed. When the monitoring view is designated by the view designation information (Ca), pixel level contrast correction is performed on the clipped image stored in the clipped image buffer memory 19 by blocking luminance expansion processing, and the monitor view is designated. If not, pixel level brightness correction is performed on the input image (Pa) stored in the image buffer memory 13 by blocking luminance expansion processing.

ビュー作成処理部21は、ビュー指定情報(Ca)により監視用ビューが指定されているとき、画素レベルのブロッキング輝度伸張処理で微細なダイナミックレンジの画像補正がなされた監視画像に対して、ユーザが指定した監視用ビュー(図14に示すPTZビュー、図15に示すプリセットビュー、図16に示す多地点ビュー、または、図17に示すパノラマビュー)を作成し表示部(表示デバイス)22に出力する。また、監視用ビューが指定されていないとき、リサイズ部14でリサイズし、ブロッキング輝度伸張処理部20でブロッキング輝度伸張した360°全周の監視画像を表示部(表示デバイス)22に出力する。   When the monitoring view is designated by the view designation information (Ca), the view creation processing unit 21 allows the user to apply a monitoring image that has been subjected to fine dynamic range image correction in the pixel level blocking luminance expansion processing. A designated monitoring view (PTZ view shown in FIG. 14, preset view shown in FIG. 15, multipoint view shown in FIG. 16, or panoramic view shown in FIG. 17) is created and output to the display unit (display device) 22. . When the monitoring view is not designated, the 360 ° circumference monitoring image that is resized by the resizing unit 14 and expanded by the blocking luminance expansion processing unit 20 is output to the display unit (display device) 22.

上記した全方位監視画像表示処理システムの処理手順を図3にフローチャートで示している。なお、各監視用ビュー(PTZビュー、プリセットビュー、多地点ビュー、パノラマビュー)を作成するためのビュー用パラメータの登録(各監視用ビューに対するプリセット情報のビューパラメータ格納部17への格納)は既に行われているものとする。   FIG. 3 is a flowchart showing the processing procedure of the omnidirectional monitoring image display processing system. Note that the registration of view parameters (storage of preset information for each monitoring view in the view parameter storage unit 17) for creating each monitoring view (PTZ view, preset view, multi-point view, panoramic view) has already been performed. Suppose that it is done.

キャプチャ部12は、上記カメラ11が撮像したフレーム単位(1280×960画素)の監視画像、若しくは上記カメラ映像を大容量記憶媒体10に記憶した時系列の録画映像を入力画像(Pa)として取り込む(ステップS11)。   The capture unit 12 captures, as an input image (Pa), a monitoring image in frame units (1280 × 960 pixels) captured by the camera 11 or a time-series recorded video in which the camera video is stored in the large-capacity storage medium 10 ( Step S11).

この入力画像(Pa)に対して、注目領域画像作成処理部18により、プリセット情報に従う部分画像の切り出し処理が実施される。また、360°全周の入力画像(Pa)に対してリサイズ部14により、640×480画素構成(VGA)へのリサイズ処理が実施される。   The region-of-interest image creation processing unit 18 performs a partial image cutout process according to the preset information on the input image (Pa). In addition, the resizing unit 14 performs a resizing process to a 640 × 480 pixel configuration (VGA) on the 360 ° all-round input image (Pa).

注目領域画像作成処理部18は、ビュー指定情報(Ca)により監視用ビューが指定されているとき、すなわち、ユーザによりビュー形式(PTZビュー、プリセットビュー、多地点ビュー、パノラマビュー)が指定されているとき、指定されたビュー形式に従うプリセット情報を用い、360°全周の入力画像(Pa)に対して、プリセット情報に従う切り出し処理を実施し、切り出した画像に対して歪曲収差を補正する補正処理および表示デバイス22の画素構成に合わせたリサイズ処理を実施して、当該処理を実施した切り出し画像を切り出し画像バッファメモリ19に記憶する(ステップS12)。   When the monitoring view is designated by the view designation information (Ca), the attention area image creation processing unit 18 designates the view format (PTZ view, preset view, multipoint view, panoramic view) by the user. Correction processing that uses preset information according to the specified view format, performs cutout processing according to the preset information for an input image (Pa) of 360 degrees all around, and corrects distortion aberration for the cutout image Then, the resizing process according to the pixel configuration of the display device 22 is performed, and the clipped image subjected to the process is stored in the clipped image buffer memory 19 (step S12).

ブロッキング輝度伸張処理部20は、切り出し画像バッファメモリ19に記憶された切り出し画像に対して、画素単位のブロッキング輝度伸張処理を実施し、明暗の大きく異なる部分について画素レベルの補輝度正を行う(ステップS13)。   The blocking luminance expansion processing unit 20 performs blocking luminance expansion processing for each pixel on the cutout image stored in the cutout image buffer memory 19 and corrects the complementary luminance at the pixel level for portions that are greatly different in light and dark (step S1). S13).

ビュー作成処理部21は、ブロッキング輝度伸張処理部20によりブロッキング輝度伸張処理した切り出し画像を用いて、指定されたビューの構成画面を作成し、表示デバイス22に監視用ビューとして表示する(ステップS14)。   The view creation processing unit 21 creates a configuration screen of the designated view using the clipped image subjected to the blocking luminance expansion processing by the blocking luminance expansion processing unit 20, and displays it on the display device 22 as a monitoring view (step S14). .

なお、ユーザによりビュー形式が指定されていない場合は、リサイズ部14でリサイズ処理した360°全周の入力画像(Pa)がブロッキング輝度伸張処理部20により画素レベルで明暗補正され、ビュー作成処理部21を経由して表示デバイス22に監視用ビューとして表示される。   If the view format is not specified by the user, the 360-degree all-round input image (Pa) resized by the resizing unit 14 is subjected to brightness correction at the pixel level by the blocking luminance expansion processing unit 20, and the view creation processing unit 21 is displayed on the display device 22 via 21 as a monitoring view.

上記した360°全周の入力画像(Pa)と、この入力画像(Pa)から切り出した切り出し画像を用いた各監視用ビュー(PTZビュー、プリセットビュー、多地点ビュー、パノラマビュー)の構成例を図13乃至図17に示している。   Configuration examples of the above-described 360 ° all-round input image (Pa) and the monitoring views (PTZ view, preset view, multi-point view, panoramic view) using the cut-out image cut out from the input image (Pa) This is shown in FIGS.

ここでは、単眼カメラで撮影した360°全周監視映像に対して、ユーザが指定したビュー形式および位置指定情報に従う監視用ビューを表示可能にした全方位監視画像表示処理システムを実現している。このユーザ指定による監視用ビューの表示機能は、例えばユーザがビュー指定情報(Ca)によりビュー形式を指定したとき、ユーザが指定したビュー形式に従う切り出し画像を対象とした監視用ビューを表示する監視画像の表示機能を実現可能である。このユーザ指定による監視ビューの表示においても切り出し画像に対してブロッキング輝度伸張処理を実施して、監視が容易なダイナミックレンジの補正を行い、切り出した監視画像を細部に亘り明瞭に監視ビューとして表示する。   Here, an omnidirectional monitoring image display processing system is realized in which a monitoring view according to a view format and position designation information designated by a user can be displayed on a 360 ° all-round surveillance video photographed by a monocular camera. For example, when the user designates a view format according to the view designation information (Ca), the monitoring view display function by the user designation displays a surveillance view for a cut-out image according to the view format designated by the user. The display function can be realized. Even in the display of the monitoring view specified by the user, blocking luminance expansion processing is performed on the clipped image to correct the dynamic range for easy monitoring, and the clipped monitored image is clearly displayed as a monitor view in detail. .

ここで、上記ブロッキング輝度伸張処理を施した監視画像の表示モード選択機能について、図13乃至図17を参照して説明する。図13は上記実施形態に係る360°全周監視画像(全周画像)の一例を示す図、図14乃至図17は上記図13に示す全周画像を基本画像としてビュー作成処理部21により作成処理される各種監視画像の表示形態(監視用ビュー)の構成例を示す図である。図14乃至図17は、それぞれ上記図13に示す基本画像(全周画像)に対して、ユーザが指定したビュー形式に従い表示される監視用ビューの表示例を示している。このうち、図14は任意の位置を指定して表示するPTZ(Pan-Tilt-Zoom)用ビューの表示形態を示す図、図15は登録した位置を切替えて表示するプリセット用ビューの表示形態を示す図、図16は登録した複数地点を同時に表示する多地点用ビューの表示形態を示す図、図17は360°全周を同時にパノラマ表示するパノラマ用ビューの表示形態を示す図である。   Here, the display mode selection function of the monitoring image subjected to the blocking luminance expansion processing will be described with reference to FIGS. FIG. 13 is a view showing an example of a 360 ° all-round monitoring image (all-round image) according to the above embodiment, and FIGS. 14 to 17 are created by the view creation processing unit 21 using the all-round image shown in FIG. 13 as a basic image. It is a figure which shows the structural example of the display form (monitoring view) of the various monitoring images processed. FIGS. 14 to 17 show display examples of monitoring views displayed according to the view format designated by the user for the basic image (circumference image) shown in FIG. 14 shows a display form of a PTZ (Pan-Tilt-Zoom) view that is displayed by designating an arbitrary position. FIG. 15 shows a display form of a preset view that is displayed by switching registered positions. FIG. 16 is a diagram showing a display form of a multi-point view that simultaneously displays a plurality of registered points, and FIG. 17 is a figure showing a display form of a panoramic view that panoramicly displays the entire 360 ° circumference.

上記各監視用ビューを作成するための構成要素として、この実施形態では、ブロッキング輝度伸張処理部20と表示部(表示デバイス)22との間に、ビュー作成処理部21を設けた構成としている。また、このビュー作成処理部21に付随して、ユーザが操作入力を行う入力デバイス16、およびこの入力デバイス16の操作入力で入力された各種ビューの位置指定情報をプリセット情報として記憶するビューパラメータ格納部17を設けている。   In this embodiment, a view creation processing unit 21 is provided between the blocking luminance expansion processing unit 20 and the display unit (display device) 22 as a component for creating each of the monitoring views. In addition to the view creation processing unit 21, a view parameter storage that stores, as preset information, an input device 16 on which a user performs an operation input, and position designation information of various views input by the operation input of the input device 16. A portion 17 is provided.

ビュー作成処理部21は、入力デバイス16から入力されたビュー指定情報(Ca)、および入力デバイス16から入力されビューパラメータ格納部17にプリセット情報として登録されたビューの位置指定情報(Cb)に従い、ブロッキング輝度伸張処理部20でブロッキング輝度伸張処理した図14に示す基本画像(全周画像)をもとに、ユーザが指定した図15乃至図18に示す各種表示形態(ビュー形式)の監視画像を作成し監視用ビューとして表示部(表示デバイス)22に表示出力する処理を実施する。   The view creation processing unit 21 follows the view designation information (Ca) input from the input device 16 and the view position designation information (Cb) input from the input device 16 and registered as preset information in the view parameter storage unit 17. Based on the basic image (all-round image) shown in FIG. 14 subjected to the blocking luminance extension processing by the blocking luminance extension processing unit 20, the monitor images of various display forms (view formats) shown in FIGS. 15 to 18 specified by the user are displayed. A process of creating and displaying on the display unit (display device) 22 as a monitoring view is performed.

入力デバイス16は、ユーザの操作による、ビュー指定情報(Ca)、およびビューの位置指定情報(Cb)の入力を受け付け、受け付けたビュー指定情報(Ca)をビュー作成処理部21に送出し、ビューの位置指定情報(Cb)をプリセット情報としてビューパラメータ格納部17に格納する。ここでは、ビュー形式を単位にプリセット情報(PTZビュー用位置情報、プリセットビュー用位置情報、多地点ビュー用位置情報)をそれぞれビューパラメータ格納部17に登録可能にしている。なお、図13の基本画像に示したq1〜q4はそれぞれユーザの位置指定情報(Cb)により指定された矩形の切り出し画像領域である。   The input device 16 accepts input of view designation information (Ca) and view position designation information (Cb) by the user's operation, and sends the received view designation information (Ca) to the view creation processing unit 21. Is stored in the view parameter storage unit 17 as preset information. Here, preset information (PTZ view position information, preset view position information, multipoint view position information) can be registered in the view parameter storage unit 17 in units of view formats. Note that q1 to q4 shown in the basic image of FIG. 13 are rectangular cut-out image areas designated by the user's position designation information (Cb).

ブロッキング輝度伸張処理部20はリサイズ部14でリサイズされた360°全周の監視画像、またはパラメータで指定された位置指定に従う切り出し画像に対してブロッキング輝度伸張処理を実施し、ブロッキング輝度伸張処理した画像をビュー作成処理部21に送出する。   The blocking luminance expansion processing unit 20 performs the blocking luminance expansion processing on the 360 ° all-round monitoring image resized by the resizing unit 14 or the cut-out image according to the position specification specified by the parameter, and the blocking luminance expansion processing image Is sent to the view creation processing unit 21.

ビュー作成処理部21はブロッキング輝度伸張処理した画像に対して、入力デバイス16から操作指示されたビュー指定情報(Ca)に従い、図14に示すビュー形式のPTZ用ビュー(任意の位置を指定して切り出し表示するPTZ用ビュー)、または、図15に示すビュー形式のプリセット用ビュー(登録した位置を切替えて切り出し表示するプリセット用ビュー)、または、図16に示すビュー形式の多地点用ビュー(複数地点を同時に切り出し表示する多地点用ビュー)、または、図17に示すビュー形式のパノラマ用ビュー(360°全周を半周ずつ区分して同時にパノラマ表示するパノラマ用ビュー)を作成し、監視用ビューとして出力する。   The view creation processing unit 21 performs the view for PTZ in the view format shown in FIG. 14 (designates an arbitrary position) according to the view designation information (Ca) instructed by the input device 16 for the image subjected to the blocking luminance expansion processing. PTZ view to be clipped and displayed, or preset view in the view format shown in FIG. 15 (preset view to switch and display the registered position), or view format multipoint view (multiple views shown in FIG. 16) A multi-view view that cuts and displays points simultaneously) or a panoramic view in the view format shown in FIG. 17 (a panoramic view that displays a panorama at the same time by dividing the entire 360 ° circumference by half) Output as.

表示部(表示デバイス)22はビュー作成処理部21で作成された監視ビューを表示出力する。この監視用ビューは、ビューパラメータ格納部17に格納(登録)されたパラメータ(位置情報)をユーザが書き換えることで、監視用ビューの表示に変更を加えることが可能である(入力デバイス16から予め指定された外部パラメータとしてプリセット情報をビューパラメータ格納部17に格納し、また入力デバイス16からの位置指定情報に従って、各監視用ビュー(PTZビュー、プリセットビュー、多地点ビュー、パノラマビュー)のプリセット情報を更新する)。   The display unit (display device) 22 displays and outputs the monitoring view created by the view creation processing unit 21. This monitoring view can be changed in the display of the monitoring view by previously rewriting the parameter (position information) stored (registered) in the view parameter storage unit 17 (from the input device 16 in advance). Preset information is stored in the view parameter storage unit 17 as designated external parameters, and preset information of each monitoring view (PTZ view, preset view, multi-point view, panoramic view) according to the position designation information from the input device 16 Update).

上記した監視用ビューの表示機能により、単眼カメラで撮影した各フレーム単位の360°監視映像について、その全体映像を、例えばパノラマ用ビューとして、細部に亘り明瞭に表示することができるとともに、360°監視映像の一部を切り出し、その切り出し画像を、例えばPTZ用ビュー、プリセット用ビュー、または多地点用ビューとして、細部に亘り明瞭に表示することができる。   With the monitoring view display function described above, it is possible to clearly display the entire video of the 360 ° monitoring video for each frame taken by the monocular camera as a panoramic view, for example, in detail, and 360 °. A part of the monitoring video can be cut out, and the cut-out image can be clearly displayed in detail as, for example, a PTZ view, a preset view, or a multi-point view.

このようにして、ブロッキング輝度伸張処理された、全周画像(360°全周の監視画像)またはパラメータの位置指定に従う切り出し画像が任意のビュー形式で監視用ビューとして表示部(表示デバイス)22に表示出力可能である。これにより360°全周監視画像の全てを対象に、任意領域の明瞭な監視画像をユーザの所望するビュー形式でユーザに提供することができる。   The all-round image (360 ° all-round monitoring image) or the cut-out image according to the parameter position designation subjected to the blocking luminance expansion processing in this way is displayed as a monitoring view on the display unit (display device) 22 in an arbitrary view format. Display output is possible. As a result, a clear monitoring image of an arbitrary region can be provided to the user in a view format desired by the user for all 360 ° all-round monitoring images.

なお、本発明は、上記実施形態そのままに限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化できる。また、上記実施形態に開示されている複数の構成要素の適宜な組み合わせにより種々の発明を形成できる。例えば、実施形態に示される全構成要素から幾つかの構成要素を削除してもよい。更に、異なる実施形態に構成要素を適宜組み合わせてもよい。また上記実施形態に記載した手法は、コンピュータに実行させることのできるプログラムとして、記憶媒体に格納して頒布することもできる。   Note that the present invention is not limited to the above-described embodiment as it is, and can be embodied by modifying the constituent elements without departing from the scope of the invention in the implementation stage. In addition, various inventions can be formed by appropriately combining a plurality of components disclosed in the embodiment. For example, some components may be deleted from all the components shown in the embodiment. Furthermore, you may combine a component suitably in different embodiment. In addition, the method described in the above embodiment can be stored in a storage medium and distributed as a program that can be executed by a computer.

ここで、ブロッキング輝度伸張処理部20の構成並びに輝度伸張処理について、図4乃至図12を参照して説明する。   Here, the configuration of the blocking luminance expansion processing unit 20 and the luminance expansion processing will be described with reference to FIGS.

ブロッキング輝度伸張処理部20は、上述したように、輝度伸張処理の対象となる入力画像(リサイズ部14でリサイズしたVGAの360°全周入力画像、または切り出し画像バッファメモリ19に貯えられたVGAの切り出し画像)について、当該画像領域(または設定された注目エリア)を複数のブロックに分割し、分割したブロック各々について、周囲のブロックの輝度値を畳み込んだ複数のブロックの輝度値をもとにブロック単位の輝度伸張パラメータを算出し、当該輝度伸張パラメータをもとにブロック単位の輝度変換テーブルを作成するブロック処理手段と、このブロック処理手段により作成されたブロック単位の輝度変換テーブルをもとに、分割したブロック各々の各画素について、ブロック毎に、周囲のブロックの輝度変換テーブルを参照してバイリニア補間を実施する補間処理手段と、この補間処理手段によりバイリニア補間を施した上記各ブロックの画素をもとに上記入力画像に対する輝度伸張出力画像を作成する画像変換手段とを具備して構成される。   As described above, the blocking luminance expansion processing unit 20 inputs the input image to be subjected to the luminance expansion processing (the VGA 360-degree all-round input image resized by the resizing unit 14 or the VGA stored in the cut-out image buffer memory 19). For the clipped image), the image area (or the set attention area) is divided into a plurality of blocks, and for each of the divided blocks, based on the luminance values of the plurality of blocks obtained by convolving the luminance values of the surrounding blocks. A block processing unit that calculates a luminance expansion parameter for each block and creates a luminance conversion table for each block based on the luminance expansion parameter, and a block-based luminance conversion table created by the block processing unit. For each pixel in each of the divided blocks, the brightness change of the surrounding blocks is made for each block. Interpolation processing means for performing bilinear interpolation with reference to a table, and image conversion means for creating a luminance expansion output image for the input image based on the pixels of each block subjected to bilinear interpolation by the interpolation processing means It is provided and configured.

図4に示すブロッキング輝度伸張処理部20は、単眼カメラ11で撮影した画像を入力画像として、当該入力画像について輝度伸張処理(ガンマ補正)を施し、上記入力画像を当該入力画像の輝度値の分布状態から最適な階調に変換する。ここでは、VGA(640×480画素)の0〜255階調の入力画像を対象に設定された注目エリアの画像を輝度伸張処理する。   The blocking luminance expansion processing unit 20 shown in FIG. 4 uses the image captured by the monocular camera 11 as an input image, performs luminance expansion processing (gamma correction) on the input image, and distributes the input image to the luminance value distribution of the input image. Convert from the state to the optimum gradation. Here, the luminance expansion processing is performed on the image of the attention area set for the input image of 0 to 255 gradations of VGA (640 × 480 pixels).

この輝度伸張処理部1における輝度伸張処理では、ガンマ(γ)補正の理論を参考にし、ガンマ補正に必要とする輝度伸張のための輝度伸張パラメータを、入力画像における注目エリアを複数のブロックに分割したブロック単位の画像の平均輝度値をもとに自動算出する手段を具備した。   In the luminance expansion processing in the luminance expansion processing unit 1, the luminance expansion parameter for luminance expansion necessary for gamma correction is divided with reference to the theory of gamma (γ) correction, and the area of interest in the input image is divided into a plurality of blocks. There is provided means for automatically calculating based on the average luminance value of the block unit image.

ブロッキング輝度伸張処理部20は、輝度伸張処理の対象となる入力画像について、設定された注目エリアを複数のブロックに分割し、分割したブロック各々について、周囲のブロックの輝度値を畳み込んだ複数のブロックの輝度値をもとにブロック単位の輝度伸張パラメータを算出し、当該輝度伸張パラメータをもとにブロック単位の輝度変換テーブルを作成するブロック処理手段と、このブロック処理手段により作成されたブロック単位の輝度変換テーブルをもとに、分割したブロック各々の各画素について、ブロック毎に、周囲のブロックの輝度変換テーブルを参照してバイリニア補間を実施する補間処理手段と、上記補間処理手段によりバイリニア補間を施した上記各ブロックの画素をもとに上記入力画像に対する輝度伸張出力画像を作成する画像変換手段とを具備して構成される。   The blocking luminance expansion processing unit 20 divides the set attention area into a plurality of blocks for the input image to be subjected to the luminance expansion processing, and convolves the luminance values of the surrounding blocks with respect to each of the divided blocks. A block processing unit that calculates a luminance expansion parameter for each block based on the luminance value of the block and creates a luminance conversion table for each block based on the luminance expansion parameter, and a block unit created by the block processing unit For each pixel of each divided block based on the luminance conversion table, an interpolation processing means for performing bilinear interpolation with reference to the luminance conversion table of the surrounding block for each block, and bilinear interpolation by the interpolation processing means Luminance expansion output image for the input image based on the pixels of each block subjected to Configured by including an image conversion means for generating.

図4に示すブロッキング輝度伸張処理部20の輝度伸張処理動作について、図5乃至図10を参照して説明する。図5は上記ブロッキング輝度伸張処理部20の輝度伸張処理動作を説明するための動作説明図、図6および図7はそれぞれ上記したブロック処理手段における輝度伸張処理の動作原理を説明するための動作説明図、図8および図9はそれぞれ上記したブロック処理手段における畳み込み処理の動作原理を説明するための動作説明図、図10は上記した補間処理手段におけるバイリニア補間処理の動作原理を説明するための動作説明図である。   The luminance expansion processing operation of the blocking luminance expansion processing unit 20 shown in FIG. 4 will be described with reference to FIGS. FIG. 5 is an operation explanatory diagram for explaining the luminance expansion processing operation of the blocking luminance expansion processing unit 20, and FIGS. 6 and 7 are operation descriptions for explaining the operational principle of the luminance expansion processing in the block processing means described above. FIG. 8, FIG. 8 and FIG. 9 are operation explanatory views for explaining the operation principle of the convolution processing in the block processing means, and FIG. 10 is an operation for explaining the operation principle of the bilinear interpolation processing in the interpolation processing means. It is explanatory drawing.

図5に示す、ブロッキング輝度伸張処理部20のブロック処理手段4aは、先ず、単眼カメラで撮影した入力画像(640×480画素)2について、予め設定された注目エリア3を複数のブロックに分割する。具体例を挙げると、入力画像を32×32画素単位、若しくは16×16画素単位、若しくは8×8画素単位等に分割し、注目エリア3(画像全体または設定された注目エリア)を複数のブロックに分割する。例えば注目エリア3の画面を16×16画素単位のブロック(40×30ブロック)に分割する。このブロック分割領域それぞれについて、周囲ブロックの輝度値を可変要素に、平均輝度を求める。   The block processing means 4a of the blocking luminance expansion processing unit 20 shown in FIG. 5 first divides a preset attention area 3 into a plurality of blocks for an input image (640 × 480 pixels) 2 photographed with a monocular camera. . As a specific example, the input image is divided into 32 × 32 pixel units, 16 × 16 pixel units, 8 × 8 pixel units, or the like, and attention area 3 (entire image or set attention area) is divided into a plurality of blocks. Divide into For example, the screen of the attention area 3 is divided into 16 × 16 pixel unit blocks (40 × 30 blocks). For each block division area, the average luminance is obtained using the luminance value of the surrounding block as a variable element.

この動作原理を図6乃至図9に示している。ここでは、図6および図7に示すように、画面をブロック分割した16×16画素のパターンを、1/2ブロック(8×8画素)分シフトしたブロック4パターンから1つの小ブロックの値を考える。ここでは、1/2ブロックシフトで、4パターンのブロックが重なったブロック(8×8画素)について、重なったブロックの輝度の平均、さらには輝度二乗の平均等を求め、この値をもとに、予め設定された輝度伸張処理方式に適用される輝度伸張用の輝度変換テーブルをブロック単位に作成する。さらにブロック処理手段4aは、分割したブロック各々について、ブロック毎の輝度総和を算出し、算出したブロック毎の輝度総和を用いて、前記ブロック毎に、当該ブロックとその周囲のブロックを含む重み付けおよび畳み込み処理した全ブロックの輝度総和を算出して、各ブロックの平均輝度を算出する。この際の畳み込み計数および畳み込み処理のイメージを図8および図9に示している。ここでは、図8に示すように、平均輝度の算出対象となる注目ブロックに対して「4」、注目ブロックの周囲8近傍のブロックのうち、上下左右の4ブロックに対してそれぞれ「2」、斜め4方向の各ブロックに対してそれぞれ「1」の畳み込み計数をもたせて、図9に示すデータの積み上げイメージで、上記各ブロックの輝度値を畳み込み、畳み込み演算することで、注目ブロックの輝度平均を求めることができる。このブロック毎の平均輝度値をもとに、予め設定された輝度伸張処理方式に適用されるブロック単位の輝度伸張パラメータおよび輝度変換テーブルを作成する。   This operation principle is shown in FIGS. Here, as shown in FIG. 6 and FIG. 7, the 16 × 16 pixel pattern obtained by dividing the screen into blocks is converted into the value of one small block from the block 4 pattern shifted by 1/2 block (8 × 8 pixels). Think. Here, for a block (8 × 8 pixels) in which four patterns of blocks are overlapped by a 1/2 block shift, the average of the luminance of the overlapping blocks, the average of the square of the luminance, etc. are obtained, and based on this value Then, a luminance conversion table for luminance expansion, which is applied to a preset luminance expansion processing method, is created for each block. Further, the block processing means 4a calculates a luminance sum for each block for each of the divided blocks, and uses the calculated luminance sum for each block to weight and convolve each block with the block and its surrounding blocks. The total luminance of all the processed blocks is calculated, and the average luminance of each block is calculated. 8 and 9 show images of convolution counting and convolution processing at this time. Here, as shown in FIG. 8, “4” for the target block for which the average luminance is to be calculated, and “2” for the four blocks above, below, left, and right among the blocks near the target block. The convolution count of “1” is given to each block in the four diagonal directions, and the luminance value of each block is convolved with the image of data accumulation shown in FIG. Can be requested. Based on the average luminance value for each block, a luminance expansion parameter and a luminance conversion table for each block to be applied to a preset luminance expansion processing method are created.

つぎに、ブロッキング輝度伸張処理部20の補間処理手段4bにおいて、上記ブロック単位で求めた輝度伸張パラメータに従う輝度変換テーブルを用いた各ブロックの画素について、上記した補間手段により、ブロック毎に、当該ブロックと、その周囲4ブロックの輝度変換テーブルを用いてバイリニア補間を実施する。このバイリニア補間は図10に示すように、注目画素の変換値を、周囲4ブロック(A,B,C,D)の変換値の線形補間(バイリニア補間)にて決定し設定する。ここでは、注目画素が位置するブロック位置、および注目画素の当該ブロックとの位置差を小数点で求めて、当該ブロックと周囲ブロックの輝度変換テーブルの値に、ブロック位置差の係数を掛け、線形補間(バイリニア補間)の原理で輝度の変換値を求める。   Next, in the interpolation processing unit 4b of the blocking luminance expansion processing unit 20, for each pixel of each block using the luminance conversion table according to the luminance expansion parameter obtained in units of the block, the interpolation unit 4b performs the corresponding block for each block. Then, bilinear interpolation is performed using the luminance conversion table of the surrounding four blocks. In this bilinear interpolation, as shown in FIG. 10, the conversion value of the target pixel is determined and set by linear interpolation (bilinear interpolation) of conversion values of the surrounding four blocks (A, B, C, D). Here, the block position where the pixel of interest is located and the positional difference between the pixel of interest and the corresponding block are calculated with a decimal point, and the value of the luminance conversion table of the block and surrounding blocks is multiplied by the coefficient of the block position difference to perform linear interpolation. The luminance conversion value is obtained by the principle of (bilinear interpolation).

上記補間処理手段4bによりバイリニア補間を施した各ブロックの画素をもとに上記入力画像に対する輝度伸張出力画像5を作成する。   Based on the pixels of each block subjected to bilinear interpolation by the interpolation processing unit 4b, a luminance expansion output image 5 for the input image is created.

このように、ブロッキング輝度伸張処理部20のブロック処理手段4aにおいて、画像ブロック単位の輝度伸張パラメータと輝度変換テーブルを求め、ブロッキング輝度伸張処理部20の補間処理手段4bにおいて、周囲ブロックを利用したバイリニア補間で変換輝度値を求めて、バイリニア補間を施した(周囲ブロックの輝度伸張パラメータを反映した)各ブロックの画素をもとに上記入力画像に対する輝度伸張出力画像5を作成する構成としたことにより、ブロック境界に輝度差が生じることなく、注目エリア内の一部に局所的に存在する明暗の各画像をそれぞれ明瞭に階調表示することができる。   As described above, the block processing unit 4a of the blocking luminance expansion processing unit 20 obtains the luminance expansion parameter and the luminance conversion table for each image block, and the interpolation processing unit 4b of the blocking luminance expansion processing unit 20 uses the bilinear block. By obtaining a converted luminance value by interpolation and creating a luminance expansion output image 5 for the input image based on the pixels of each block subjected to bilinear interpolation (reflecting luminance expansion parameters of surrounding blocks) The bright and dark images locally existing in a part of the attention area can be clearly displayed in gradation without causing a luminance difference at the block boundary.

上記実施形態をより具現化した一例を図11および図12に示している。図11は実施形態に係るブロッキング輝度伸張処理部20の機能構成を示すブロック図、図12は上記ブロッキング輝度伸張処理部20の処理手順を示すフローチャートである。   An example that further embodies the above embodiment is shown in FIGS. FIG. 11 is a block diagram illustrating a functional configuration of the blocking luminance expansion processing unit 20 according to the embodiment, and FIG. 12 is a flowchart illustrating a processing procedure of the blocking luminance expansion processing unit 20.

ブロッキング輝度伸張処理部20は、上述したブロック処理手段(4a)の機能と補間処理手段(4b)の機能を備え、ブロック処理機能により画像ブロック単位の輝度伸張パラメータと輝度変換テーブルを生成し、補間処理機能により周囲ブロックを利用したバイリニア補間で各ブロックの画素の変換輝度値を求めている。   The blocking luminance expansion processing unit 20 has the functions of the block processing means (4a) and the interpolation processing means (4b) described above, generates a luminance expansion parameter and a luminance conversion table for each image block by the block processing function, and performs interpolation. The converted luminance value of the pixel of each block is obtained by bilinear interpolation using surrounding blocks by the processing function.

なお、図11に示す構成は、本願発明の実施形態に係るブロック分割輝度伸張処理機能を、非線形曲線(凸曲線、凹曲線)を用いた非線形輝度伸張処理方式に適用した例を示している。   The configuration shown in FIG. 11 shows an example in which the block division luminance expansion processing function according to the embodiment of the present invention is applied to a non-linear luminance expansion processing method using a non-linear curve (convex curve, concave curve).

この非線形輝度伸張処理方式では、後述する平均輝度算出部222が算出した平均輝度値が256階調の中心輝度値(127)以下であるか超えているかを判定し、中心輝度値以下であるとき、凸曲線による参照テーブルを入力画像に対する輝度伸張用の輝度変換テーブルとして作成し、中心輝度値を超えるとき、凹曲線による参照テーブルを入力画像に対する輝度伸張用の輝度変換テーブルとして作成する。この非線形輝度伸張処理機能は、既に公知の特許第4340303号による非線形輝度伸張処理方式に適用したもので、その要旨は後述する。   In this nonlinear luminance expansion processing method, it is determined whether an average luminance value calculated by an average luminance calculation unit 222 described later is equal to or less than the central luminance value (127) of 256 gradations, and when it is equal to or less than the central luminance value A reference table with a convex curve is created as a luminance conversion table for luminance expansion for the input image. When the central luminance value is exceeded, a reference table with a concave curve is created as a luminance conversion table for luminance expansion for the input image. This nonlinear luminance expansion processing function is applied to the already-known nonlinear luminance expansion processing method according to Japanese Patent No. 4340303, and the gist thereof will be described later.

ブロッキング輝度伸張処理部20は、図11に示すように、ブロック参照輝度設定部221と、平均輝度算出部222と、累乗パラメータ算出部223と、参照テーブル判定部224と、画像変換部225と、線形補間(バイリニア補間)算出部226とを具備して構成される。   As shown in FIG. 11, the blocking luminance expansion processing unit 20 includes a block reference luminance setting unit 221, an average luminance calculation unit 222, a power parameter calculation unit 223, a reference table determination unit 224, an image conversion unit 225, And a linear interpolation (bilinear interpolation) calculation unit 226.

ブロック参照輝度設定部221は、カメラ11で撮影し入力した入力画像の注目エリアを、外部より指定されたブロックサイズに従い、複数のブロックに分割し、ブロック毎に、各ブロックの輝度値の総和を算出する。ここでは、8×8画素、16×16画素、24×24画素、32×32画素のうちのいずれかのブロックサイズ(例えば16×16画素)が指定され、その指定サイズに従い、入力画像の注目エリアがブロック分割される。なお、入力画像のエッジ部分に指定ブロックサイズより小さい端数画素分の領域が生じた場合は、当該領域を輝度伸張処理対象から外すかまたは他の輝度伸張処理手段を適用するものとする。   The block reference luminance setting unit 221 divides the attention area of the input image captured and input by the camera 11 into a plurality of blocks according to the block size designated from the outside, and sums the luminance value of each block for each block. calculate. Here, any block size (for example, 16 × 16 pixels) of 8 × 8 pixels, 16 × 16 pixels, 24 × 24 pixels, and 32 × 32 pixels is designated, and attention is paid to the input image according to the designated size. The area is divided into blocks. When an area corresponding to a fractional pixel smaller than the specified block size occurs in the edge portion of the input image, the area is excluded from the luminance expansion processing target or other luminance expansion processing means is applied.

平均輝度算出部222は、ブロック参照輝度設定部221がブロック分割し、ブロック毎に算出した輝度総和をもとに、ブロック毎に、当該ブロックとその周囲のブロックを含む重み付けおよび畳み込み処理した全ブロックの輝度総和を算出してブロック単位の画像の平均輝度値(=M)を算出する。   The average luminance calculation unit 222 divides the block into blocks by the block reference luminance setting unit 221 and, based on the luminance sum calculated for each block, all blocks subjected to weighting and convolution processing including the block and its surrounding blocks. Is calculated, and the average luminance value (= M) of the image in block units is calculated.

累乗パラメータ算出部223は、上記した非線形輝度伸張処理方式において適用されるもので、平均輝度算出部222が算出した平均輝度をもとに、後述する(1)式に従い、入力画像(注目エリア)に対する輝度伸張処理のための累乗パラメータを算出する。   The power parameter calculation unit 223 is applied in the above-described nonlinear luminance expansion processing method. Based on the average luminance calculated by the average luminance calculation unit 222, an input image (attention area) according to the equation (1) described later. A power parameter for the luminance expansion processing for is calculated.

参照テーブル判定部224は、上記平均輝度値が上記中心輝度値(127)以下であるか上記中心輝度値(127)を超えているかを判定し、上記平均輝度値が上記中心輝度値(127)以下であるとき、テーブル作成部231により、上記累乗パラメータを用いて後述する(2)式に従う凸曲線による参照テーブルを入力画像に対する輝度伸張用の輝度変換テーブル(参照テーブル)232として作成し、上記平均輝度値が上記中心輝度(127)を超えるとき、テーブル作成部231により、上記累乗パラメータを用いて後述する(3)式に従う凹曲線による参照テーブルを入力画像に対する輝度伸張用の輝度変換テーブル232として作成する。   The reference table determination unit 224 determines whether the average luminance value is equal to or less than the central luminance value (127) or exceeds the central luminance value (127), and the average luminance value is the central luminance value (127). When the following is true, the table creation unit 231 creates a reference table with a convex curve according to equation (2) described later using the power parameter as a luminance conversion table (reference table) 232 for luminance expansion for the input image, and When the average luminance value exceeds the central luminance (127), the table creation unit 231 uses the above power parameter to convert a reference table with a concave curve according to the following equation (3) into a luminance conversion table 232 for luminance expansion for the input image. Create as.

画像変換部225は、参照テーブル判定部225が作成した輝度変換テーブル(参照テーブル)232を用いて、画像バッファ21に保持された入力画像(注目エリア)に輝度変換処理を施し、入力輝度に対して出力輝度を変換した画像を画像バッファ21に書き戻すことによって画像バッファ21上に輝度伸張画像を作成する。   The image conversion unit 225 uses the luminance conversion table (reference table) 232 created by the reference table determination unit 225 to perform a luminance conversion process on the input image (attention area) held in the image buffer 21, and Then, the image whose output luminance is converted is written back to the image buffer 21 to create a luminance expanded image on the image buffer 21.

線形補間算出部226は、図10に示したように、ブロック単位で求めた輝度伸張パラメータに従う輝度変換テーブルを用いた各ブロックの画素について、ブロック毎に、当該ブロックと、その周囲4ブロックの輝度変換テーブルを用いてバイリニア補間を実施する。   As shown in FIG. 10, the linear interpolation calculation unit 226, for each block pixel using the luminance conversion table according to the luminance expansion parameter obtained in units of blocks, for each block, the luminance of the block and the surrounding four blocks Bilinear interpolation is performed using the conversion table.

上記したブロッキング輝度伸張処理部20の処理手順を図12に示している。   FIG. 12 shows a processing procedure of the blocking luminance expansion processing unit 20 described above.

ブロッキング輝度伸張処理部20は、カメラ11が撮像したフレーム単位の入力画像がキャプチャ部12を介して画像バッファメモリ13に保持される毎に、図12に示す処理を実施する。   The blocking luminance expansion processing unit 20 performs the process shown in FIG. 12 every time an input image in frame units captured by the camera 11 is held in the image buffer memory 13 via the capture unit 12.

画像バッファメモリ13に輝度伸張処理の対象となる入力画像(Pa)が保持されると、当該入力画像がリサイズ部14によりリサイズされてブロッキング輝度伸張処理部20に入力される。ブロッキング輝度伸張処理部20において、ブロック参照輝度設定部221は、カメラ11で撮影し入力した入力画像の注目エリア(画像全体または設定された注目エリア)を、外部より指定されたブロックサイズ(例えば16×16画素)に従い、複数のブロック(40×30ブロック)に分割し、ブロック毎に各ブロックの輝度値の総和を求めて当該ブロック単位の輝度総和を注目ブロックの輝度情報として平均輝度算出部222に送出する(ステップS21)。   When the input image (Pa) to be subjected to luminance expansion processing is held in the image buffer memory 13, the input image is resized by the resizing unit 14 and input to the blocking luminance expansion processing unit 20. In the blocking luminance expansion processing unit 20, the block reference luminance setting unit 221 sets the attention area (entire image or set attention area) of the input image captured and input by the camera 11 to a block size (for example, 16) designated from the outside. Is divided into a plurality of blocks (40 × 30 blocks) in accordance with (× 16 pixels), the sum of the luminance values of each block is obtained for each block, and the luminance sum of the block unit is used as the luminance information of the block of interest to calculate the average luminance (Step S21).

平均輝度算出部222は、ブロック参照輝度設定部221から注目ブロックの輝度情報(ブロック単位の輝度総和)を入力すると、この輝度情報をもとに、図8および図9に示したように、ブロック毎に、当該ブロックとその周囲のブロックを含む重み付けおよび畳み込み処理した全ブロックの輝度総和を算出してブロック単位(注目ブロック)の画像の平均輝度値を算出し、当該注目ブロックの画像の平均輝度値を累乗パラメータ算出部223と参照テーブル判定部224に送出する(ステップS22)。   When the average luminance calculation unit 222 receives the luminance information of the block of interest (total luminance in units of blocks) from the block reference luminance setting unit 221, based on this luminance information, as shown in FIG. 8 and FIG. For each block, the total luminance of all blocks subjected to weighting and convolution processing including the block and its surrounding blocks is calculated to calculate the average luminance value of the block unit (target block) image, and the average luminance of the image of the target block The value is sent to the power parameter calculation unit 223 and the reference table determination unit 224 (step S22).

累乗パラメータ算出部223は、平均輝度算出部222が算出した平均輝度値をもとに、後述する(1)式に従い、入力画像(注目エリア)に対する輝度伸張処理のための累乗パラメータを算出し、当該パラメータを参照テーブル判定部224に送出する。   The power parameter calculation unit 223 calculates a power parameter for luminance expansion processing for the input image (area of interest) according to the equation (1) described below based on the average luminance value calculated by the average luminance calculation unit 222, The parameter is sent to the reference table determination unit 224.

参照テーブル判定部224は、平均輝度算出部222から入力した平均輝度値と累乗パラメータ算出部223から入力した累乗パラメータを輝度伸張パラメータとして、当該輝度伸張パラメータに従う輝度変換テーブルを作成する。ここでは、上記平均輝度値が上記中心輝度値(127)以下であるか上記中心輝度値(127)を超えているかを判定し、上記平均輝度値が上記中心輝度値(127)以下であるとき、テーブル作成部231により、上記累乗パラメータを用いて後述する(2)式に従う凸曲線による参照テーブルを入力画像に対する輝度伸張用の輝度変換テーブル(参照テーブル)232として作成し、上記平均輝度値が上記中心輝度(127)を超えるとき、テーブル作成部231により、上記累乗パラメータを用いて後述する(3)式に従う凹曲線による参照テーブルを入力画像に対する輝度伸張用の輝度変換テーブル232として作成する(ステップS23)。   The reference table determination unit 224 uses the average luminance value input from the average luminance calculation unit 222 and the power parameter input from the power parameter calculation unit 223 as a luminance expansion parameter, and creates a luminance conversion table according to the luminance expansion parameter. Here, it is determined whether the average luminance value is the central luminance value (127) or less or exceeds the central luminance value (127), and the average luminance value is the central luminance value (127) or less. The table creation unit 231 creates a reference table with a convex curve according to the equation (2) described later using the power parameter as a luminance conversion table (reference table) 232 for luminance expansion with respect to the input image, and the average luminance value is When the central luminance (127) is exceeded, the table creation unit 231 creates a reference table with a concave curve according to the later-described equation (3) using the power parameter as the luminance conversion table 232 for luminance expansion for the input image ( Step S23).

ここで、上記した凸曲線および凹曲線を用いた非線形輝度伸張処理方式における輝度伸張処理について記述する。   Here, the luminance expansion processing in the nonlinear luminance expansion processing method using the convex curve and the concave curve described above will be described.

累乗パラメータ算出部223は、注目エリアの平均輝度をもとに輝度伸張用の累乗パラメータγを下式(1)により自動的に算出する。   The power parameter calculation unit 223 automatically calculates a power parameter γ for luminance expansion based on the average luminance of the area of interest using the following equation (1).

γ=(α/Bmed)×(Iave−Bmed)+1.0・・・・式(1)
(ただし、αは固定値、Bmedは輝度中央値、Iaveは入力画像注目エリアの平均輝度)
上記平均輝度と上記入力画像の輝度階調範囲の中心輝度とを比較し、累乗パラメータγを用いて自動的に下式(2)又は下式(3)を切り替えて、凸曲線および凹曲線の輝度変換テーブルを作成する。
γ = (α / Bmed 2 ) × (Iave−Bmed) 2 +1.0 (1)
(Where α is a fixed value, Bmed is the median brightness, Iave is the average brightness of the input image area of interest)
The average luminance is compared with the central luminance of the luminance gradation range of the input image, and the following equation (2) or (3) is automatically switched using the power parameter γ, and the convex curve and the concave curve are Create a brightness conversion table.

I’=Bmax-((Bmax-I)/Bmax)γ×Bmax:Iave≦Bmed・・・・式(2)凸曲線
I’=I/Bmaxγ×Bmax:Iave>Bmed ・・・・式(3)凹曲線
(だたし、I’は出力輝度、Iは入力輝度、Bmedは輝度中央値、Bmaxは輝度最大値、Iaveは入力画像注目エリアの平均輝度)
この参照テーブル判定部224で作成された凸曲線および凹曲線の輝度変換テーブル232は画像変換部225に送出される(ステップS23)。
I ′ = Bmax − ((Bmax−I) / Bmax) γ × Bmax: Iave ≦ Bmed (2) Convex curve
I ′ = I / Bmax γ × Bmax: Iave> Bmed (3) Concave curve (where I ′ is the output luminance, I is the input luminance, Bmed is the median luminance, and Bmax is the maximum luminance value) , Iave is the average brightness of the input image attention area)
The convex curve and concave curve luminance conversion table 232 created by the reference table determination unit 224 is sent to the image conversion unit 225 (step S23).

画像変換部225は、参照テーブル判定部225が作成した輝度変換テーブル(参照テーブル)232を用いて、画像バッファ21に保持された入力画像(注目エリア)に輝度変換処理を施す。このブロック単位で輝度伸張された注目ブロックの各画素に対して、線形補間算出部226より、図7に示したように、注目ブロックと、その周囲4ブロックの輝度変換テーブルを用いて画素位置の距離差に応じたバイリニア補間が実施され、このバイリニア補間で輝度変換された画像が画像バッファ21に書き戻されることによって画像バッファ21上にブロック間のバイリニア補間を施した輝度伸張画像が作成される(ステップS24,S25)。   The image conversion unit 225 uses the luminance conversion table (reference table) 232 created by the reference table determination unit 225 to perform luminance conversion processing on the input image (attention area) held in the image buffer 21. For each pixel of the target block whose luminance has been expanded in units of blocks, the linear interpolation calculation unit 226 uses the luminance conversion table of the target block and the surrounding four blocks as shown in FIG. Bilinear interpolation is performed in accordance with the distance difference, and an image whose luminance has been converted by this bilinear interpolation is written back to the image buffer 21, whereby a luminance expanded image obtained by performing bilinear interpolation between blocks is created on the image buffer 21. (Steps S24 and S25).

なお、上記した実施形態では、VGA(640×480画素)の0〜255階調のカメラ映像を輝度伸張処理の対象となる入力画像としたが、これに限らず、他の画像構成を扱う画像処理装置においても本発明の実施形態に係る輝度伸張処理機能を適用することができる。また、上記実施形態において、輝度伸張処理機能を実現する20の構成要素(ブロック参照輝度設定部221、平均輝度算出部222、累乗パラメータ算出部223、参照テーブル判定部224、画像変換部225、線形補間算出部226等)について、その一部機能若しくはすべての機能をソフトウェア処理により実現可能である。   In the above-described embodiment, the VGA (640 × 480 pixels) 0 to 255 gradation camera video is used as the input image to be subjected to the luminance expansion processing. However, the present invention is not limited to this, and an image that handles other image configurations. The luminance expansion processing function according to the embodiment of the present invention can also be applied to the processing device. Further, in the above embodiment, 20 components (block reference luminance setting unit 221, average luminance calculation unit 222, power parameter calculation unit 223, reference table determination unit 224, image conversion unit 225, linear, which realize the luminance expansion processing function. As for the interpolation calculation unit 226 and the like, part or all of the functions can be realized by software processing.

また、上記した実施形態では、ブロック毎に各ブロックの輝度値の総和を求め、注目ブロックとその周囲のブロックを含む重み付けおよび畳み込み処理した全ブロックの輝度総和を算出してブロック単位(注目ブロック)の画像の平均輝度値を算出しているが、これに限らず、例えば、ブロック毎に輝度平均を算出し、このブロック毎の平均輝度を用いて重み付けおよび畳み込み処理を実施することも可能である。   In the embodiment described above, the sum of the luminance values of each block is obtained for each block, and the sum of the luminance of all blocks subjected to weighting and convolution processing including the target block and its surrounding blocks is calculated to be a block unit (target block). However, the present invention is not limited to this. For example, it is also possible to calculate a luminance average for each block and perform weighting and convolution processing using the average luminance for each block. .

また、上記した実施形態では、本願発明の実施形態に係るブロック分割輝度伸張処理機能を、非線形曲線(凸曲線、凹曲線)を用いた非線形輝度伸張処理方式に適用した例を示しているが、これに限らず、例えばシグモイド関数曲線を利用したシグモイド輝度伸張処理方式や、その他の各種輝度伸張処理方式に適用可能である。   In the embodiment described above, the block division luminance expansion processing function according to the embodiment of the present invention is applied to a nonlinear luminance expansion processing method using a non-linear curve (convex curve, concave curve). For example, the present invention can be applied to a sigmoid luminance expansion processing method using a sigmoid function curve and other various luminance expansion processing methods.

上記したブロッキング輝度伸張処理により、明暗の大きく異なる部分が画素レベルで補正され、監視し易いダイナミックレンジを有した全周監視画像の表示機能を実現できる。   By the above-described blocking luminance expansion process, a greatly different portion of brightness and darkness is corrected at the pixel level, and a display function of the entire periphery monitoring image having a dynamic range that can be easily monitored can be realized.

上記した実施形態では、上記プリセット情報による切り出し画像が存在しない場合、ブロッキング輝度伸張処理した360°全周の入力画像(全周画像)を表示部(表示デバイス)22に表示し、上記プリセット情報による切り出し画像(ビュー表示)が指定されたとき、ブロッキング輝度伸張処理部20ブロッキング輝度伸張処理した切り出し画像を表示部21に表示する表示機能を実現しているが、上記プリセット情報による切り出し画像(ビュー表示)が指定されたとき、プリセット情報により指定された切り出し画像を全周画像とともに同時に表示することも可能である。この際、表示部21の表示画面全域に全周画像を表示し、切り出し画像を、全周画像の切り出し位置に対応付けるバルーン形式で全周画像に被せて(全周画像を覆って)表示させることも可能である。または、切り出し画像を、表示部21上の予め定めた一部表示領域に部分表示することも可能である。   In the embodiment described above, when there is no cut-out image based on the preset information, the 360 ° all-round input image (all-round image) subjected to the blocking luminance expansion processing is displayed on the display unit (display device) 22 and the preset information is used. When a clipped image (view display) is designated, the display function for displaying the clipped image subjected to the blocking luminance expansion processing unit 20 on the display unit 21 is realized. ) Is designated, it is also possible to simultaneously display the clipped image designated by the preset information together with the all-round image. At this time, the all-round image is displayed on the entire display screen of the display unit 21, and the clipped image is displayed on the all-round image in a balloon format corresponding to the clip position of the all-round image (covering the all-round image). Is also possible. Alternatively, the clipped image can be partially displayed in a predetermined partial display area on the display unit 21.

2…単眼カメラで撮影した画像(入力画像)、3…注目エリア対象画像、4a…ブロック処理手段、4b…補間処理手段、5…輝度伸張出力画像、10…大容量記憶媒体、11…カメラ(単眼カメラ(IPカメラ))、12…キャプチャ部、13…画像バッファメモリ、14…リサイズ部、16…ビューの作成指示を行う入力デバイス、17…ビューパラメータ格納部(プリセット情報バッファメモリ)、18…注目領域画像作成処理部、19…切り出し画像バッファメモリ、20…ブロッキング輝度伸張処理部、21…ビュー作成処理部、22…表示部(表示デバイス)、221…ブロック参照輝度設定部、222…平均輝度算出部、223…累乗パラメータ算出部、224……参照テーブル判定部、225…画像変換部、226…輝度伸張出力画像、231…テーブル作成部、232…輝度変換用テーブル(参照テーブル)。   2 ... Image captured by a monocular camera (input image), 3 ... Area of interest target image, 4a ... Block processing means, 4b ... Interpolation processing means, 5 ... Luminance expansion output image, 10 ... Mass storage medium, 11 ... Camera ( (Monocular camera (IP camera)), 12 ... capture unit, 13 ... image buffer memory, 14 ... resize unit, 16 ... input device for instructing view creation, 17 ... view parameter storage unit (preset information buffer memory), 18 ... Region-of-interest image creation processing unit, 19 ... cut-out image buffer memory, 20 ... blocking luminance expansion processing unit, 21 ... view creation processing unit, 22 ... display unit (display device), 221 ... block reference luminance setting unit, 222 ... average luminance Calculation unit, 223 ... Power parameter calculation unit, 224 ... Reference table determination unit, 225 ... Image conversion unit, 226 ... Luminance enhancement The output image, 231 ... table creating unit, 232 ... luminance conversion table (see table).

Claims (9)

単眼カメラで撮影した360°全周監視映像に対してユーザが指定した位置指定情報に従う監視ビューを表示可能にした全方位監視画像表示処理システムであって、
前記360°全周監視映像をフレーム単位にキャプチャする監視映像入力手段と、
前記監視映像入力手段がキャプチャしたフレーム単位の監視映像に対して前記位置指定情報により指定された一部領域の画像を切り出す切り出し処理を実施し、切り出した画像に対して歪曲収差を補正する補正処理を実施する監視画像処理手段と、
前記歪曲収差を補正した切り出し画像に対して画素単位のブロッキング輝度伸張処理を実施するブロッキング輝度伸張処理手段と、
前記ブロッキング輝度伸張処理した切り出し画像を監視画像として表示する表示出力手段と、
を具備したことを特徴とする全方位監視画像表示処理システム。
An omnidirectional monitoring image display processing system capable of displaying a monitoring view according to position designation information designated by a user with respect to a 360 ° all-round monitoring video imaged by a monocular camera,
Monitoring video input means for capturing the 360 ° all-round monitoring video in frame units;
A correction process for cutting out an image of a partial area designated by the position designation information on the monitoring video in frame units captured by the monitoring video input means, and correcting distortion aberration for the cut out image Monitoring image processing means for performing
Blocking luminance expansion processing means for performing blocking luminance expansion processing in units of pixels on the cut-out image with the distortion corrected;
Display output means for displaying the clipped image subjected to the blocking luminance expansion processing as a monitoring image;
An omnidirectional monitoring image display processing system comprising:
単眼カメラで撮影した360°全周監視映像に対してユーザが指定した位置指定情報およびビュー指定情報に従う監視ビューを表示可能にした全方位監視画像表示処理システムであって、
前記360°全周監視映像をフレーム単位にキャプチャする監視映像入力手段と、
前記監視映像入力手段がキャプチャしたフレーム単位の監視映像を入力画像として記憶する入力画像記憶手段と、
前記監視映像入力手段がキャプチャしたフレーム単位の監視映像に対して前記位置指定情報により指定された一部領域の画像を切り出す切り出し処理を実施し、切り出した画像に対して歪曲収差を補正する補正処理を実施する監視画像処理手段と、
前記歪曲収差を補正した切り出し画像をビュー指定監視画像として記憶する切り出し画像記憶手段と、
前記切り出し画像記憶手段に記憶したビュー指定監視画像に対して画素単位のブロッキング輝度伸張処理を実施するブロッキング輝度伸張処理手段と、
前記輝度伸張処理を施したビュー指定監視画像に対して、予め用意された監視形態を異にする複数のビュー形式から、前記ビュー指定情報により指定されたビュー形式に従う監視形態のビュー画面を作成するビュー作成処理手段と、
前記ビュー作成処理手段が作成したビュー画面を表示する表示出力手段と、
を具備したことを特徴とする全方位監視画像表示処理システム。
An omnidirectional monitoring image display processing system capable of displaying a monitoring view according to position designation information and view designation information designated by a user with respect to a 360 ° all-round monitoring video imaged by a monocular camera,
Monitoring video input means for capturing the 360 ° all-round monitoring video in frame units;
Input image storage means for storing the monitoring video in frame units captured by the monitoring video input means as an input image;
A correction process for cutting out an image of a partial area designated by the position designation information on the monitoring video in frame units captured by the monitoring video input means, and correcting distortion aberration for the cut out image Monitoring image processing means for performing
Cutout image storage means for storing the cutout image corrected for distortion as a view designation monitoring image;
Blocking luminance expansion processing means for performing a block-by-pixel blocking luminance expansion process on the view designation monitoring image stored in the cut-out image storage means;
For the view designated monitoring image subjected to the luminance expansion processing, a view screen in a monitoring form according to the view format designated by the view designation information is created from a plurality of view formats prepared in advance. View creation processing means;
Display output means for displaying the view screen created by the view creation processing means;
An omnidirectional monitoring image display processing system comprising:
前記ビュー作成処理手段は、前記ビュー指定情報に従い、
前記位置指定情報が指定した任意地点の切り出し画像を任意のパン、チルト、ズーム指定に従い表示するPTZ用ビュー形式、
前記位置指定情報が指定した複数地点の切り出し画像を所定時間毎に順次切り替えて表示するプリセット用ビュー形式、
前記位置指定情報が指定した複数地点の切り出し画像を画面上の領域を区分して同時に表示する多地点用ビュー形式、
のいずれか一つのビュー形式に従う監視形態のビュー画面を作成することを特徴とする請求項2に記載の全方位監視画像表示処理システム。
The view creation processing means, according to the view designation information,
A PTZ view format for displaying a clipped image of an arbitrary point designated by the position designation information in accordance with an arbitrary pan, tilt and zoom designation;
A preset view format for sequentially switching and displaying cut-out images of a plurality of points designated by the position designation information every predetermined time;
A multi-point view format that simultaneously displays a plurality of cut-out images designated by the position designation information by dividing an area on the screen;
The omnidirectional monitoring image display processing system according to claim 2, wherein a view screen in a monitoring form according to any one of the view formats is created.
前記ブロッキング輝度伸張処理手段は、前記切り出し画像記憶手段に記憶したビュー指定監視画像および前記入力画像記憶手段が記憶した360°全周の入力画像のいずれかを対象に画素単位のブロッキング輝度伸張処理を実施し、
前記ビュー作成処理手段は、前記ビュー指定情報に従い、
前記位置指定情報が指定した任意地点の切り出し画像を任意のパン、チルト、ズーム指定に従い表示するPTZ用ビュー形式、
前記位置指定情報が指定した複数地点の切り出し画像を所定時間毎に順次切り替えて表示するプリセット用ビュー形式、
前記位置指定情報が指定した複数地点の切り出し画像を画面上の領域を区分して同時に表示する多地点用ビュー形式、
前記ブロッキング輝度伸張処理された360°全周の入力画像を半周ずつ上下に区分して同時に表示するパノラマ用ビュー形式、
のいずれか一つのビュー形式に従う監視形態のビュー画面を作成することを特徴とする請求項2に記載の全方位監視画像表示処理システム。
The blocking luminance expansion processing means performs a pixel-by-pixel blocking luminance expansion process on either the view designation monitoring image stored in the cut-out image storage means or the 360 ° all-round input image stored in the input image storage means. Carried out,
The view creation processing means, according to the view designation information,
A PTZ view format for displaying a clipped image of an arbitrary point designated by the position designation information in accordance with an arbitrary pan, tilt and zoom designation;
A preset view format for sequentially switching and displaying cut-out images of a plurality of points designated by the position designation information every predetermined time;
A multi-point view format that simultaneously displays a plurality of cut-out images designated by the position designation information by dividing an area on the screen;
A panoramic view format in which the 360 ° full-circle input image that has been subjected to the blocking luminance expansion processing is divided into upper and lower portions and displayed simultaneously;
The omnidirectional monitoring image display processing system according to claim 2, wherein a view screen in a monitoring form according to any one of the view formats is created.
前記ブロッキング輝度伸張処理手段は、前記ビュー指定が行われないとき、前記入力画像記憶手段が記憶した360°全周の入力画像に対してブロッキング輝度伸張処理を実施して、ブロッキング輝度伸張処理した監視画像を前記表示出力手段に送出することを特徴とする請求項1または4に記載の全方位監視画像表示処理システム。   When the view designation is not performed, the blocking luminance expansion processing unit performs the blocking luminance expansion processing on the 360 ° all-round input image stored by the input image storage unit, and monitors the blocking luminance expansion processing. 5. The omnidirectional monitoring image display processing system according to claim 1, wherein the image is sent to the display output means. 前記ブロッキング輝度伸張処理手段は、
輝度伸張処理の対象となる入力画像について、設定された注目エリアを複数のブロックに分割し、分割したブロック各々について、周囲のブロックの輝度値を畳み込んだ複数のブロックの輝度値をもとにブロック単位の輝度伸張パラメータを算出し、当該輝度伸張パラメータをもとにブロック単位の輝度変換テーブルを作成するブロック処理手段と、
前記ブロック処理手段により作成されたブロック単位の輝度変換テーブルをもとに、分割したブロック各々の各画素について、ブロック毎に、周囲のブロックの輝度変換テーブルを参照してバイリニア補間を実施する補間処理手段と、
前記補間処理手段によりバイリニア補間を施した前記各ブロックの画素をもとに前記入力画像に対する輝度伸張出力画像を作成する画像変換手段と、
を具備したことを特徴とする請求項1または2に記載の全方位監視画像表示処理システム。
The blocking luminance expansion processing means includes
For an input image that is subject to luminance expansion processing, the set area of interest is divided into a plurality of blocks, and for each divided block, the luminance values of the surrounding blocks are convolved with the luminance values of the plurality of blocks. Block processing means for calculating a luminance expansion parameter in units of blocks and creating a luminance conversion table in units of blocks based on the luminance expansion parameters;
Interpolation processing for performing bilinear interpolation with reference to the luminance conversion table of the surrounding block for each pixel for each pixel of each divided block based on the luminance conversion table in block units created by the block processing means Means,
Image conversion means for creating a luminance expansion output image for the input image based on the pixels of each block subjected to bilinear interpolation by the interpolation processing means;
The omnidirectional monitoring image display processing system according to claim 1 or 2, further comprising:
前記ブロック処理手段は、分割したブロックのうち、処理対象となる注目ブロックAについて、隣接する上下左右のブロックBと、隣接する斜め方向のブロックCとを用い、A>B>Cの重み付けにより前記畳み込みの処理を実施することを特徴とする請求項6に記載の全方位監視画像表示処理システム。   The block processing means uses the adjacent upper, lower, left, and right blocks B and the adjacent diagonal blocks C for the target block A to be processed among the divided blocks, and weights A> B> C by weighting A> B> C The omnidirectional monitoring image display processing system according to claim 6, wherein a convolution process is performed. 前記ブロック処理手段は、
外部から指定されたブロックサイズに従い、前記注目エリアの画像を複数のブロックに分割するブロック分割手段と、
前記ブロック分割手段が分割したブロック各々についてブロック毎の輝度総和を算出し、算出したブロック毎の輝度総和を用いて、前記ブロック毎に、当該ブロックとその周囲のブロックを含む前記重み付けおよび畳み込み処理した全ブロックの輝度総和を算出する輝度総和算出手段と、
前記輝度総和算出手段が算出した輝度総和を用いて、前記ブロック毎に、当該ブロックの輝度平均を算出する輝度平均算出手段と、
前記輝度平均算出手段が算出したブロックの輝度平均をもとに、前記ブロック毎に、輝度伸張パラメータを算出する輝度伸張パラメータ算出手段と、
前記輝度伸張パラメータ算出手段が算出した輝度伸張パラメータをもとに、前記ブロック毎に、輝度伸張用の輝度変換テーブルを作成する輝度変換テーブル作成手段と、
を具備したことを特徴とする請求項7に記載の全方位監視画像表示処理システム。
The block processing means includes
Block dividing means for dividing the image of the area of interest into a plurality of blocks according to a block size designated from the outside;
The luminance sum for each block is calculated for each of the blocks divided by the block dividing means, and the weighting and convolution processing including the block and its surrounding blocks is performed for each block using the calculated luminance sum for each block. A luminance sum calculation means for calculating the luminance sum of all blocks;
Using the luminance sum calculated by the luminance sum calculating means, for each block, the luminance average calculating means for calculating the luminance average of the block;
Luminance expansion parameter calculation means for calculating a luminance expansion parameter for each block based on the luminance average of the block calculated by the luminance average calculation means;
Based on the luminance expansion parameter calculated by the luminance expansion parameter calculating unit, a luminance conversion table creating unit that creates a luminance conversion table for luminance expansion for each block;
The omnidirectional monitoring image display processing system according to claim 7, comprising:
前記単眼カメラ11は、楕円面の長辺と短辺をフレームの幅と高さに合わせた、1.3Mピクセル以上の画素数を有する楕円面の360°全周高精細監視映像を出力し、
前記ブロッキング輝度伸張処理手段は、前記楕円面の360°全周高精細監視映像の画素構成を前記表示出力手段の画素構成に合わせてリサイズした監視映像を処理対象に画素単位でブロッキング輝度伸張処理を実施することを特徴とする請求項1または2に記載の全方位監視画像表示処理システム。
The monocular camera 11 outputs a 360 ° all-round high-definition monitoring image of an ellipsoid having a number of pixels of 1.3 M pixels or more, in which the long and short sides of the ellipsoid are matched to the width and height of the frame,
The blocking luminance expansion processing unit performs a blocking luminance expansion process on a per-pixel basis on a monitoring video obtained by resizing the pixel configuration of the 360 ° all-round high-definition monitoring video on the elliptical surface according to the pixel configuration of the display output unit. The omnidirectional monitoring image display processing system according to claim 1, wherein the omnidirectional monitoring image display processing system is implemented.
JP2011113732A 2011-05-20 2011-05-20 Omnidirectional monitoring image display processing system Active JP5866146B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011113732A JP5866146B2 (en) 2011-05-20 2011-05-20 Omnidirectional monitoring image display processing system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011113732A JP5866146B2 (en) 2011-05-20 2011-05-20 Omnidirectional monitoring image display processing system

Publications (2)

Publication Number Publication Date
JP2012244480A true JP2012244480A (en) 2012-12-10
JP5866146B2 JP5866146B2 (en) 2016-02-17

Family

ID=47465691

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011113732A Active JP5866146B2 (en) 2011-05-20 2011-05-20 Omnidirectional monitoring image display processing system

Country Status (1)

Country Link
JP (1) JP5866146B2 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018042105A (en) * 2016-09-07 2018-03-15 東芝テリー株式会社 Monitoring image processing device and monitoring image processing method
JP6355146B1 (en) * 2017-11-20 2018-07-11 株式会社Medi Plus Medical safety system
JP6436606B1 (en) * 2018-07-27 2018-12-12 株式会社Medi Plus Medical video system
WO2019098052A1 (en) * 2017-11-20 2019-05-23 株式会社Medi Plus Medical safety system
JP2020109926A (en) * 2019-01-07 2020-07-16 株式会社オリィ研究所 Robot control device, robot control method, robot control program, and robot control system

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004015255A (en) * 2002-06-05 2004-01-15 Sony Corp Imaging apparatus and imaging method, image processor and image processing method, and program and recording medium
JP2004536351A (en) * 2001-07-20 2004-12-02 6115187 カナダ インク. A method for capturing a panoramic image using a rectangular image sensor
JP2005269573A (en) * 2004-03-22 2005-09-29 Yisheng Science & Technology Co Ltd Method of controlling attitude of two-axis monitoring camera by panoramic image and system using the method
WO2007055335A1 (en) * 2005-11-11 2007-05-18 Sony Corporation Image processing device, image processing method, program thereof, and recording medium containing the program
JP2008028778A (en) * 2006-07-21 2008-02-07 Sony Corp Image processing device, image processing method, and program thereof
JP2008263313A (en) * 2007-04-10 2008-10-30 Toshiba Teli Corp Image processing apparatus and image processing program

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004536351A (en) * 2001-07-20 2004-12-02 6115187 カナダ インク. A method for capturing a panoramic image using a rectangular image sensor
JP2004015255A (en) * 2002-06-05 2004-01-15 Sony Corp Imaging apparatus and imaging method, image processor and image processing method, and program and recording medium
JP2005269573A (en) * 2004-03-22 2005-09-29 Yisheng Science & Technology Co Ltd Method of controlling attitude of two-axis monitoring camera by panoramic image and system using the method
WO2007055335A1 (en) * 2005-11-11 2007-05-18 Sony Corporation Image processing device, image processing method, program thereof, and recording medium containing the program
JP2008028778A (en) * 2006-07-21 2008-02-07 Sony Corp Image processing device, image processing method, and program thereof
JP2008263313A (en) * 2007-04-10 2008-10-30 Toshiba Teli Corp Image processing apparatus and image processing program

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018042105A (en) * 2016-09-07 2018-03-15 東芝テリー株式会社 Monitoring image processing device and monitoring image processing method
JP6355146B1 (en) * 2017-11-20 2018-07-11 株式会社Medi Plus Medical safety system
WO2019098052A1 (en) * 2017-11-20 2019-05-23 株式会社Medi Plus Medical safety system
JP2019096961A (en) * 2017-11-20 2019-06-20 株式会社Medi Plus Medical treatment safety system
JP6436606B1 (en) * 2018-07-27 2018-12-12 株式会社Medi Plus Medical video system
JP2020017932A (en) * 2018-07-27 2020-01-30 株式会社Medi Plus Medical video system
JP2020109926A (en) * 2019-01-07 2020-07-16 株式会社オリィ研究所 Robot control device, robot control method, robot control program, and robot control system

Also Published As

Publication number Publication date
JP5866146B2 (en) 2016-02-17

Similar Documents

Publication Publication Date Title
JP5887067B2 (en) Omnidirectional image processing system
JP2009010730A (en) Image processing method and imaging apparatus employing the same
CN108805807B (en) Splicing method and system for ring scene images
US9911183B2 (en) Image processing method, image processing apparatus, image pickup apparatus, and non-transitory computer-readable storage medium
KR20130112574A (en) Apparatus and method for improving quality of enlarged image
JP5866146B2 (en) Omnidirectional monitoring image display processing system
JP4844979B2 (en) Image processing method and imaging apparatus using the image processing method
US20150109408A1 (en) System and method for capturing and rendering a landscape image or video
JP2010034964A (en) Image composition apparatus, image composition method and image composition program
KR101778744B1 (en) Monitoring system through synthesis of multiple camera inputs
JP2012175631A (en) Video monitoring device
KR20160094655A (en) The System and Method for Panoramic Video Surveillance with Multiple High-Resolution Video Cameras
KR101916419B1 (en) Apparatus and method for generating multi-view image from wide angle camera
JP2007096588A (en) Imaging device and method for displaying image
JP6351377B2 (en) Image processing system, imaging apparatus, and recording apparatus
JP5455728B2 (en) Imaging apparatus, image processing apparatus, and image processing method
JP2006345055A (en) Image pickup apparatus
JP2007184720A (en) Image photographing apparatus
US10171733B2 (en) Image processing apparatus and method, and program and recording medium
JP6513309B2 (en) Image synthesizing device, image synthesizing method, and image synthesizing program
JP2009065519A (en) Image processing apparatus
JP6857006B2 (en) Imaging device
KR101011704B1 (en) Apparatus and method for processing video signal to generate wide viewing image
JP5486963B2 (en) Image processing apparatus and image processing program
JPH08305841A (en) Distorted image correcting display device

Legal Events

Date Code Title Description
RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20130920

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140401

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20141216

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150106

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150226

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150609

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150728

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20151208

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160104

R150 Certificate of patent or registration of utility model

Ref document number: 5866146

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250