JP2013093673A - Information processing apparatus, control method, information processing system, program - Google Patents
Information processing apparatus, control method, information processing system, program Download PDFInfo
- Publication number
- JP2013093673A JP2013093673A JP2011233269A JP2011233269A JP2013093673A JP 2013093673 A JP2013093673 A JP 2013093673A JP 2011233269 A JP2011233269 A JP 2011233269A JP 2011233269 A JP2011233269 A JP 2011233269A JP 2013093673 A JP2013093673 A JP 2013093673A
- Authority
- JP
- Japan
- Prior art keywords
- masking
- camera
- area
- determination
- dividing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Closed-Circuit Television Systems (AREA)
Abstract
Description
監視カメラで撮影される画像の中で特定のエリアをマスキングする技術に関する。 The present invention relates to a technique for masking a specific area in an image taken by a surveillance camera.
現在、様々な場面でパン・チルト・ズーム可能なカメラ(PTZカメラ)が監視カメラとして使われるようになっている。例えば、防犯目的として、金融機関においてATMの操作者を監視する目的で使われたり、商店街において不審者を監視する目的で使われたりしている。 Currently, cameras that can pan, tilt, and zoom (PTZ cameras) in various situations are used as surveillance cameras. For example, as a crime prevention purpose, it is used for the purpose of monitoring an ATM operator in a financial institution, or used for the purpose of monitoring a suspicious person in a shopping street.
ここで、監視カメラが撮影している画像の中には、プライバシーにかかわる画像(以下、プライバシー画像と称する。)が含まれることがあるため、このような領域の画像は、プライバシー保護の観点等から非表示にすることが求められている。例えば、「キャッシュカードの暗証番号を入力するボタンが映る領域」や「個人の部屋の中が映る領域」などがある。 Here, the images taken by the surveillance camera may include images relating to privacy (hereinafter referred to as privacy images). It is requested to hide from. For example, there are “an area where a button for inputting a cash card PIN number is reflected” and “an area where an individual room is reflected”.
そこで、監視カメラが撮影している画像の中で、プライバシー画像が映らないようにするために、特定の画像に対してマスキングする機能が提案されている。 Therefore, a function for masking a specific image has been proposed in order to prevent a privacy image from appearing in an image taken by a surveillance camera.
例えば、特許文献1乃至3には、パン回転及びチルト回転が可能な監視カメラとその制御装置とを備える監視カメラ装置において、監視カメラが、画像に映るプライバシーゾーンをマスキングするマスクデータを保持し、このデータに従って、画像の一部をマスキングする技術が開示されている。
For example, in
しかしながら、特許文献1乃至3に記載の技術は、画像の中の特定の領域をマスキングすることを可能とする技術ではあるが、マスキング領域からプライバシー画像が外れることを防ぐ技術については何らの開示もなされていない。
However, although the techniques described in
例えば、マスキングしたい領域を矩形で指定すると、指定したマスキング領域が、カメラを中心とした座標データとして記録(カメラを中心とした球面座標上に矩形領域として記録)され、パン・チルト・ズーム動作を行った場合に、カメラの向きにマスク領域が追従する仕組みの監視カメラの場合、指定したマスキング領域は、この監視カメラの視線に対して直角な描画面に射影した矩形となることから、パン・チルト操作を行った場合に、マスキング領域が目的の対象物(プライバシー画像)から外れることがある。 For example, if the area to be masked is specified by a rectangle, the specified masking area is recorded as coordinate data centered on the camera (recorded as a rectangular area on a spherical coordinate centered on the camera), and pan / tilt / zoom operations are performed. In the case of a surveillance camera with a mechanism in which the mask area follows the direction of the camera, the specified masking area is a rectangle projected onto the drawing plane perpendicular to the line of sight of the surveillance camera. When the tilt operation is performed, the masking area may be removed from the target object (privacy image).
回り込み歪は、パン・チルト時における映像の軌跡を示している(1901、1902)。前記監視カメラの場合、画像の中点を中心として、弧を描くように映像が移動するため、中心から離れるほど描く弧の角度が急になる(図19参照)。 The wraparound distortion indicates the trajectory of the video during pan / tilt (1901, 1902). In the case of the surveillance camera, since the video moves so as to draw an arc around the midpoint of the image, the angle of the drawn arc becomes steeper as the distance from the center increases (see FIG. 19).
図20を用いてマスキング領域がプライバシー画像から外れる例を説明する。(1)表示領域2000の上部に3つのプライバシー画像2001が表示されている場合において、(2)1つのマスキング領域2002で3つのプライバシー画像をカバーする。そして、(3)監視カメラをパンすると、プライバシー画像は、画面の中心から離れているため弧を描く軌跡をたどり、マスキング領域から外れてしまう。これは、プライバシー画像は、弧を描く軌跡をたどるのに対し、マスキング領域は、マスキング領域の形状を維持したまま中心点2003を固定して画像の中で移動しているために起こる問題である。
An example in which the masking area deviates from the privacy image will be described with reference to FIG. (1) When three privacy images 2001 are displayed at the top of the display area 2000, (2) one privacy masking area 2002 covers the three privacy images. (3) When the surveillance camera is panned, the privacy image is away from the center of the screen, and thus follows a trajectory that draws an arc and deviates from the masking area. This is a problem that occurs because the privacy image follows a trajectory that draws an arc, while the masking region moves in the image with the
別の例を、図21を用いて説明する。この図では、横長のプライバシー画像2101にマスキング領域2102をカバーして管理カメラをパンした例である。プライバシー画像2101は、表示領域上部にある状態で監視カメラをパンしたため、プライバシー画像2101の両端が、マスキング領域2102から外れてしまっている。 Another example will be described with reference to FIG. In this example, the management camera is panned by covering the masking area 2102 on the horizontally long privacy image 2101. Since the surveillance camera is panned while the privacy image 2101 is in the upper part of the display area, both ends of the privacy image 2101 are out of the masking area 2102.
ところで、監視カメラにおいては、一つのレンズでより多くの画像を撮影するために広角レンズが用いられることがあるところ、広角レンズで撮影した画像の特徴として、画像の中心に比べ上や下へいくほど湾曲が大きくなるという特徴を備えるため、レンズが広角になればなるほどマスキング領域が目的の対象物から外れる問題が顕著に生じることとなる。 By the way, in a surveillance camera, a wide-angle lens may be used to capture more images with a single lens, and as a feature of an image captured with a wide-angle lens, it goes up or down compared to the center of the image. Since the curvature becomes larger as the lens becomes wider, the problem that the masking region deviates from the target object becomes more prominent as the lens becomes wider.
この問題を解決する一つの方法として、マスキング領域からプライバシー画像が外れないようにするためにマスキング領域を広めに設定するという方法もあるが、この方法では、本来監視したい画像もマスクされることがあり、監視カメラとしての機能が減殺されることとなる。 One way to solve this problem is to set the masking area wider so that the privacy image does not deviate from the masking area, but this method also masks the image that you originally want to monitor. Yes, the function as a surveillance camera will be diminished.
そのため、プライバシー画像に対してマスキング領域として設定する領域を必要最小限としつつ、監視カメラが操作されたとしてもマスキング領域からプライバシー画像が外れることを防ぐ方法が必要となる。 Therefore, there is a need for a method for preventing the privacy image from being removed from the masking area even if the surveillance camera is operated while minimizing the area set as the masking area for the privacy image.
そこで、本発明は上記課題を解決するものであり、監視カメラが操作されたとしても設定されたマスキング領域からプライバシー画像が外れることを防ぐ技術を提供することを目的とする。 SUMMARY OF THE INVENTION The present invention solves the above-described problems, and an object of the present invention is to provide a technique for preventing a privacy image from deviating from a set masking area even when a surveillance camera is operated.
本発明は、カメラで撮影された撮影画像を配信する情報処理装置であって、前記カメラで撮影可能な撮影範囲内においてマスキングする対象とされるマスキング領域の指定を受け付ける受付手段と、前記カメラで撮影された撮影画像において、前記受付手段により指定を受け付けたマスキング領域が配置される位置を判定する判定手段と、前記判定手段により判定された配置位置に応じて、前記マスキング領域を分割するかを判定する判定手段と、前記判定手段よる判定の結果、前記マスキング領域を分割するとの判定がなされた場合、前記マスキング領域を所定の数に分割する分割手段と、前記分割手段により分割された複数のマスキング領域を、前記撮影画像上に配置する配置手段と、前記配置手段により複数のマスキング領域が配置された撮影画像を配信する配信手段とを有することを特徴とする。 The present invention is an information processing apparatus that distributes a photographed image photographed by a camera, and includes a receiving unit that accepts designation of a masking area to be masked within a photographing range that can be photographed by the camera; In the captured image, a determination unit that determines a position where the masking region that has been designated by the reception unit is arranged, and whether the masking region is divided according to the arrangement position that is determined by the determination unit. A determination means for determining, and as a result of determination by the determination means, when it is determined that the masking area is to be divided, a dividing means for dividing the masking area into a predetermined number; and a plurality of parts divided by the dividing means Arranging means for arranging a masking area on the photographed image, and a plurality of masking areas are arranged by the arranging means. And having a delivery means for delivering the captured image.
本発明によれば、監視カメラが操作されたとしても設定されたマスキング領域からプライバシー画像が外れることを防ぐことができる。 According to the present invention, it is possible to prevent the privacy image from being removed from the set masking area even if the surveillance camera is operated.
以下、本発明の実施の形態について図面を参照しながら詳細に説明する。 Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.
図1は、本発明の実施の形態に係る監視カメラシステムの構成を概略的に示すブロック図である。 FIG. 1 is a block diagram schematically showing a configuration of a surveillance camera system according to an embodiment of the present invention.
図1において、監視カメラシステム100には、サーバ200と、クライアント端末300a、300bと、監視カメラ装置400a、400b、400bとが含まれる。
In FIG. 1, the
サーバ200、クライアント端末300a、及び監視カメラ装置400a〜400cは互いにネットワーク110を介して接続されている。ネットワーク110は、LAN、WAN、又はインターネットなどから成る。また、クライアント端末300aとクライアント端末300bは互いに無線回線120を介して接続されている。無線回線120に代えて、有線回線を用いてもよい。
The
監視カメラ装置400a〜400cの各々は、撮影レンズ(不図示)を介して撮影した被写体の画像(撮影画像)を取得し、この取得した画像をサーバ200やクライアント端末300aにネットワーク110を介して配信する。なお、撮影画像は、デジタルのフルカラー動画像であることが好ましいが、静止画像であってもよいし、モノクロ画像であってもよい。また、監視カメラ装置400a〜400cの各々は、水平方向や垂直方向への首振り機能(パン・チルト機能)と、ズーム機能とを有する。監視カメラ装置は、サーバ200やクライアント端末300a、300からのパン・チルト・ズームの指示に応じて、パン・チルト・ズーム制御させる。
Each of the
サーバ200には、監視カメラ装置400a〜400cから配信された画像をハードディスクドライブ(HDD)などの外部メモリに録画すると共に、録画した画像の検索や再生を行うためのソフトウェアがインストールされている。これにより、サーバ200は、画像を記憶する画像サーバとして機能する。
The
クライアント端末300a、300bの各々には、WEBブラウザがインストールされていて、WEBブラウザを介して、監視カメラ装置400a〜400cから配信された画像をリアルタイムで表示することでライブ表示(Live表示)を行うためのプラグインが追加でインストールされているものとする。更に、監視カメラ装置400a〜400cで撮影される画像の中の特定の被写体(プライバシー画像)を非表示とさせるためのマスキング領域の設定を行うことを可能とするためのプラグインも追加でインストールされているものとする。マスキング領域を設定すると、その設定内容は、監視カメラ装置400a〜400cに内蔵する設定項目に反映される。
A WEB browser is installed in each of the
図2は、図1におけるサーバ200およびクライアント端末300a、300bの内部構成を概略的に示すブロック図である。
FIG. 2 is a block diagram schematically showing the internal configuration of the
図2に示すように、サーバ200は、パーソナルコンピュータ(PC)により実現される。具体的には、サーバ200は、PC本体200aと、キーボード(KB)209と、マウス(不図示)と、表示装置としてのCRTディスプレイ(CRT)210と、ハードディスクドライブ(HDD)211と、HDD211とは別の外部メモリ220とを備える。HDD211には、ネットワークビデオレコーダプログラム212、定義ファイル213、各種テーブル214、撮影対象箇所のレイアウト情報(平面レイアウト又は立体レイアウト)215、及び撮影画像216などが格納される。
As shown in FIG. 2, the
また、PC本体200aには、CPU201、RAM202、ROM203、入力コントローラ205、ビデオコントローラ206、メモリコントローラ207、及び通信I/Fコントローラ208等と、これらを接続するシステムバス204とが収納されている。
通信I/Fコントローラ208には、ネットワーク110と接続するためのネットワークI/F(不図示)が接続されている。
Further, the PC
A network I / F (not shown) for connecting to the
次に、本発明の実施の形態にかかるマスキング領域を設定する処理の流れを説明する。 Next, a flow of processing for setting a masking area according to the embodiment of the present invention will be described.
図3は、本発明の実施の形態にかかるマスキング領域を設定する処理の流れを示すフローチャートである。 FIG. 3 is a flowchart showing a flow of processing for setting a masking area according to the embodiment of the present invention.
クライアント端末は、ユーザにより操作されるPC等のコンピュータである。 The client terminal is a computer such as a PC operated by a user.
S301において、クライアント端末は、ユーザの操作指示に応じて、WEBブラウザを起動する。 In S301, the client terminal activates a WEB browser in response to a user operation instruction.
S302において、クライアント端末は、監視カメラ装置に対して、撮影画像を要求する。これは、WEBブラウザが、監視カメラ装置が撮影した画像をWEBブラウザ上へ表示するために行う処理である。 In S302, the client terminal requests a captured image from the monitoring camera device. This is a process performed by the WEB browser to display an image taken by the monitoring camera device on the WEB browser.
S303において、監視カメラ装置は、撮影画像の要求を受け付ける。 In S303, the surveillance camera device accepts a request for a captured image.
S304において、監視カメラ装置は、要求元のクライアント端末に対して、撮影画像を配信する。 In S304, the monitoring camera device distributes the captured image to the requesting client terminal.
S305において、クライアント端末は、撮影画像を受信して、WEBブラウザの表示領域へ画像を表示する。 In S305, the client terminal receives the captured image and displays the image in the display area of the WEB browser.
S306において、クライアント端末は、ユーザの操作指示に応じて、マスキング領域設定画面を表示する。図4を用いて、マスキング領域設定画面の例を説明する。図4は、マスキング領域設定画面の一例を示す図である。 In S306, the client terminal displays a masking area setting screen in response to a user operation instruction. An example of the masking area setting screen will be described with reference to FIG. FIG. 4 is a diagram illustrating an example of a masking area setting screen.
図4において、WEBブラウザの表示領域401の中に、撮影画像表示領域402およびメニュー領域403が表示されている。ユーザは、402および403の領域に表示される画面を介してマスキング領域の設定を行う。
In FIG. 4, a captured
続いて、ユーザがマスキング領域の設定を行う手順を説明する。まず、ユーザは、メニュー領域403から「マスキング領域設定」項目を選択する。「マスキング領域設定」項目が選択されることにより、「マスキング領域設定」モードに切り替わる。このモードで、撮影画像表示領域402内に表示される撮影画像上からポインティングディバイスによりマスキング領域404を指定することができる。最後に、指定したマスキング領域404を登録する場合は、「OK」ボタン405を押下する。一方、登録しない場合は、「キャンセル」ボタン406を押下する。
Next, a procedure for setting the masking area by the user will be described. First, the user selects a “masking area setting” item from the
S307において、クライアント端末は、監視カメラ装置に対して、マスキング領域設定の指示を行う。「OK」ボタン405が押下されることによりこの処理が行われる。
In step S307, the client terminal instructs the monitoring camera device to set a masking area. This process is performed when an “OK”
S308において、監視カメラ装置は、マスキング領域設定の指示を受け付ける。 In S308, the surveillance camera device accepts an instruction for masking region setting.
S309において、監視カメラ装置は、受け付けたマスキング領域の設定処理を行う。設定処理により、マスキング領域は、カメラを中心とした球面座標上における矩形領域として記録される。具体例を、図5を用いて説明する。 In S309, the monitoring camera apparatus performs the received masking area setting process. By the setting process, the masking area is recorded as a rectangular area on the spherical coordinate centered on the camera. A specific example will be described with reference to FIG.
図5は、カメラを中心とした球面座標の範囲を示す図である。監視カメラ装置が動作するチルト角度とパン角度とにより球面座標の範囲が決まる。この例では、チルト角度が−90°〜+10°、パン角度が−170°〜+170°であることを示している。矩形領域は(左上点のチルト角度・パン角度、右下点のチルト角度・パン角度)の形式で記録される。このようにマスキング領域を示す矩形領域が登録されると、監視カメラ装置がパン/チルト/ズーム動作を行った場合でもカメラの向きに追従するマスキングが可能となる。なお、本発明の実施の形態においては、この球面座標の範囲を、マッピング用のマップ「マッピングマップ」という。 FIG. 5 is a diagram showing the range of spherical coordinates centered on the camera. The spherical coordinate range is determined by the tilt angle and pan angle at which the surveillance camera device operates. In this example, the tilt angle is −90 ° to + 10 °, and the pan angle is −170 ° to + 170 °. The rectangular area is recorded in the form of (tilt angle / pan angle of upper left point, tilt angle / pan angle of lower right point). When the rectangular area indicating the masking area is registered in this manner, masking that follows the direction of the camera can be performed even when the surveillance camera apparatus performs the pan / tilt / zoom operation. In the embodiment of the present invention, this spherical coordinate range is referred to as a mapping map “mapping map”.
S310において、監視カメラ装置は、指示元のクライアント端末に対して、完了通知を行う。 In S310, the monitoring camera device notifies the instruction source client terminal of completion.
S311において、クライアント端末は、完了通知を取得する。例えば、完了通知を取得した場合、その旨をポップアップ画面表示することでユーザに通知する。 In S311, the client terminal acquires a completion notification. For example, when a completion notification is acquired, the user is notified by displaying a pop-up screen to that effect.
S312において、クライアント端末は、設定終了の指示がなされたかを判定する。Yesの場合、終了し、Noの場合、S307へ戻る。 In step S312, the client terminal determines whether an instruction to end the setting has been given. In the case of Yes, it complete | finishes, and in No, it returns to S307.
以上、本発明の実施の形態にかかるマスキング領域を設定する処理の流れを説明した。 The flow of processing for setting the masking area according to the embodiment of the present invention has been described above.
次に、本発明の実施の形態にかかる設定されたマスキング領域が分割される処理の流れを説明する。 Next, a flow of processing for dividing the set masking area according to the embodiment of the present invention will be described.
図6は、本発明の実施の形態にかかる設定されたマスキング領域が分割される処理の流れ示すフローチャートである。 FIG. 6 is a flowchart showing a flow of processing for dividing the set masking area according to the embodiment of the present invention.
クライアント端末は、ユーザにより操作されるPC等のコンピュータである。 The client terminal is a computer such as a PC operated by a user.
S601において、クライアント端末は、ユーザの操作指示に応じて、WEBブラウザを起動する。 In step S601, the client terminal activates a WEB browser in response to a user operation instruction.
S602において、クライアント端末は、監視カメラ装置に対して、撮影画像を要求する。これは、WEBブラウザが、監視カメラ装置が撮影した画像をWEBブラウザ上へ表示するために行う処理である。 In S602, the client terminal requests a captured image from the monitoring camera device. This is a process performed by the WEB browser to display an image taken by the monitoring camera device on the WEB browser.
S603において、監視カメラ装置は、撮影画像の要求を受け付ける。 In S603, the surveillance camera device accepts a request for a captured image.
S604において、監視カメラ装置は、マスキング処理を行う。マスキング処理の詳細は、図12を用いて後に説明するが、先にマスキング処理の概要の説明を図7乃至図11を用いて行う。 In S604, the monitoring camera device performs a masking process. Details of the masking process will be described later with reference to FIG. 12, but the outline of the masking process will be described first with reference to FIGS.
図7は、回り込み歪の角度とマスキング領域の関係を示す図である。 FIG. 7 is a diagram showing the relationship between the wraparound distortion angle and the masking region.
ここで、回り込み歪の角度とは、マスキング領域とマスキング対象となるべき領域とがずれる角度のことである。 Here, the wraparound distortion angle is an angle at which the masking region and the region to be masked are shifted.
70は、原点を、(パン角度=0°、チルト角度=0°)とする座標系であることを示している。
座標70に配置される、701〜704がマスキング矩形を示しており、また、点線の705〜708は、マスキング対象となるべき領域を示している。701と705が、702と706が、703と707が、704と708がそれぞれ対応する領域を示している。
701 to 704 arranged at the coordinate 70 indicate masking rectangles, and dotted
701と705の領域を比べると、回り込み歪の角度が大きいことが分かる。回り込み歪の角度は、表示画面中心から上or下、右or左へ離れるに従って角度が大きくなるものだからである。
Comparing the
702と706の領域を比べると、回り込み歪の角度がないことが分かる。チルト位置が0°の場合、回り込みによる歪みがないからである。 Comparing the regions 702 and 706, it can be seen that there is no wraparound distortion angle. This is because there is no distortion due to wraparound when the tilt position is 0 °.
703と707の領域を比べると、回り込み歪の角度が少しあることが分かる。
Comparing the
704と708の領域を比べると、回り込み歪の角度がないことが分かる。パン位置が0°の場合、回り込みによる歪みがないからである。
Comparing the
以上から、マスキング領域を補正するために、マスキング領域の中心点座標と、左右(もしくは上下)の座標位置を確認することにより回り込み歪の角度を求めることができる。 From the above, in order to correct the masking area, the angle of the wraparound distortion can be obtained by confirming the center point coordinates of the masking area and the left and right (or vertical) coordinate positions.
なお、回り込み歪の角度を求めるにあたっては、仮想表示領域という考え方を用いる。具体的には、図8に示す通り、カメラの最大サイズがVGA(640×480ドット)の場合(801)、カメラのPT操作を行った場合のマスキング領域の中心点の座標を得るためには、1280×680ドットの仮想表示領域802で考える。本実施の形態では、最大サイズがVGAのカメラを例に説明するため、仮想表示領域は、1280×680ドットとなる。なお、当然のことながら、カメラの種類によりその最大サイズはことなるため、それに応じて仮想表示領域も変動する。
It should be noted that the concept of a virtual display area is used to determine the angle of wraparound distortion. Specifically, as shown in FIG. 8, when the maximum size of the camera is VGA (640 × 480 dots) (801), in order to obtain the coordinates of the center point of the masking area when the PT operation of the camera is performed Consider a
図8の例では、マスキング領域の左端の座標803と中心点の座標804の差を求めることにより回り込み歪の角度を求めることができる。 In the example of FIG. 8, the angle of the wraparound distortion can be obtained by obtaining the difference between the coordinate 803 at the left end of the masking region and the coordinate 804 of the center point.
なお、ズーム操作により望遠にすると画角は変わるが、最大広角側の表示領域で割り出した角度は変わらない。 Note that, when the telephoto is set by zooming, the angle of view changes, but the angle calculated in the display area on the maximum wide angle side does not change.
続いて、具体的な、回り込み歪の角度を算出する計算方法を説明する。 Next, a specific calculation method for calculating the wraparound distortion angle will be described.
ステップ(1)表示領域を算出する(図9)
広角901から望遠902によって画角の表示領域が変わることから取得したズーム値を用いて表示領域を算出する。本実施の形態では、表示領域としてVGA(640×480ドット)の解像度を例にして説明する。
Step (1) Calculate the display area (FIG. 9)
The display area is calculated using the acquired zoom value because the display area of the angle of view changes from the
ステップ(2)マッピング(図9)
表示領域を、カメラを中心とした球面座標上(マッピングマップ)にマッピングを行う。マッピングを行った表示領域内に、マスキング領域が含まれるかにより、マスキング領域を分割するかが判断されることとなる。図9の例では、「望遠」の表示領域内には、マスキング領域が含まれず、「広角」の表示領域内には、マスキング領域が含まれることを示している。
Step (2) Mapping (Fig. 9)
The display area is mapped on spherical coordinates (mapping map) centered on the camera. Whether to divide the masking area is determined depending on whether the masked area is included in the display area where the mapping is performed. In the example of FIG. 9, the “telephoto” display area does not include the masking area, and the “wide-angle” display area includes the masking area.
ステップ(3)回り込み歪の角度を算出(図10)
矩形の中心位置1001と矩形の右終端位置1002(または左終端位置1003)の2点を用いて、回り込み歪みの角度を算出する。従来の監視カメラは、回り込み歪みの角度による図形の移動量分、上下に矩形を移動させる機能を有しているが、マスキング矩形により隠しきれない部分が出てきてしまっていた(図11)
そこで、本発明の実施の形態によるマスキング処理により、従来隠しきれなかった部分を隠すことを実現している。
Step (3) Calculate the wraparound distortion angle (FIG. 10)
The angle of the wraparound distortion is calculated using two points of the
Therefore, the masking process according to the embodiment of the present invention realizes hiding a portion that could not be hidden conventionally.
図12は、本発明の実施の形態にかかるマスキング処理の詳細な処理の流れを示すフローチャートである
S1201において、監視カメラ装置は、PTZ値を取得する。ここでは、PTZ値は、デフォルトで設定されている値、もしくはユーザによるPTZ操作の結果、得られるPTZ値を取得することとなる。
FIG. 12 is a flowchart showing a detailed process flow of the masking process according to the embodiment of the present invention. In S1201, the surveillance camera apparatus acquires a PTZ value. Here, as the PTZ value, a value set by default or a PTZ value obtained as a result of the PTZ operation by the user is acquired.
S1202において、監視カメラ装置は、取得したPTZ値を用いて、実際の表示領域および仮想表示領域をマッピングマップにマッピングする処理を行う。具体的には、図9に示す通り、PTZ値により広角・望遠が特定され、その表示領域をマッピングマップにマッピングする。なお、本発明の実施の形態では、マッピングマップには、事前にマスキング領域が設定されているものとする。 In S1202, the monitoring camera apparatus performs a process of mapping the actual display area and the virtual display area to the mapping map using the acquired PTZ value. Specifically, as shown in FIG. 9, the wide angle / telephoto is specified by the PTZ value, and the display area is mapped to the mapping map. In the embodiment of the present invention, it is assumed that a masking area is set in advance in the mapping map.
S1203において、監視カメラ装置は、マスキング領域が含まれるかを判定する。Yesの場合、S1204へ進み、Noの場合、終了する。具体的には、実際の表示領域内にマスキング領域が含まれるかにより判定を行う。実際の表示領域内にマスキング領域が含まれない場合、映像に対してマスキング処理を行う必要がないからである。 In S1203, the surveillance camera device determines whether a masking area is included. In the case of Yes, it progresses to S1204, and in No, it complete | finishes. Specifically, the determination is made based on whether a masking area is included in the actual display area. This is because when the masking area is not included in the actual display area, it is not necessary to perform masking processing on the video.
S1204において、監視カメラ装置は、マスキング領域の中心位置と左端(or右端)の座標値を取得する。なお、取得する座標位置は、2点でも3点でもよいが、本発明の実施の形態では、中心位置の座標値と左端か右端のいずれかの座標値を取得するものとする。また、左端の座標値を取得するか右端の座標値を取得するかは、マスキング領域の配置位置により判断してもよい。本発明の実施の形態では、中心位置の座標位置より表示領域の内側にある端の位置を取得するものとする。図10に示す例では、中心位置1002より、右端1003の方が内側にあるので、この場合、右端1003の座標位置を取得することとなる。また、本実施の形態においては、左右に長いマスキング領域を例としているため、本ステップにおいて左端か右端の座標値を取得しているが、上下に長いマスキング領域を採用する場合においては、上端か下端の座標値を取得してもよい。
In S1204, the monitoring camera device acquires the center position of the masking region and the coordinate value of the left end (or right end). The coordinate position to be acquired may be two points or three points, but in the embodiment of the present invention, the coordinate value of the center position and the coordinate value of either the left end or the right end are acquired. Whether to acquire the left end coordinate value or the right end coordinate value may be determined by the arrangement position of the masking region. In the embodiment of the present invention, the position of the end inside the display area is acquired from the coordinate position of the center position. In the example shown in FIG. 10, since the
S1205において、監視カメラ装置は、回り込み歪角度を算出する。本発明の実施の形態では、図13に示す回り込み歪の角度計算用テーブルを用いることで回り込み歪角度を算出する。このテーブルは、表示画面縦方向座標1301と表示画面横方向座標1302とから構成される。表示画面縦方向座標1301および表示画面横方向座標1302とも座標の範囲を示している。本発明の実施の形態では、表示領域がVGA(640×480ドット)であり、仮想表示領域が1280×680ドットであることから、表示画面縦方向座標1301の範囲は、−480〜+480ドットとなり、表示画面横方向座標1302の範囲は、−640〜+640ドットとなる。表示領域の解像度が異なる場合、その解像度に応じたテーブルが用意されるものである。 In S1205, the surveillance camera device calculates a wraparound distortion angle. In the embodiment of the present invention, the wraparound distortion angle is calculated by using the wraparound distortion angle calculation table shown in FIG. This table includes display screen vertical coordinate 1301 and display screen horizontal coordinate 1302. Both the display screen vertical coordinate 1301 and the display screen horizontal coordinate 1302 indicate coordinate ranges. In the embodiment of the present invention, since the display area is VGA (640 × 480 dots) and the virtual display area is 1280 × 680 dots, the range of the display screen vertical coordinate 1301 is −480 to +480 dots. The range of the display screen horizontal coordinate 1302 is −640 to +640 dots. When the resolution of the display area is different, a table corresponding to the resolution is prepared.
また、テーブル内の値は、移動量を示しており、正数は上方向、負数は下方向へ移動することを示している。移動量の単位はドットである。回り込み歪みにより表示領域内で何ドットずれるかを示す値である。回り込み歪みは、表示領域の中心から離れるほど大きくなるため、このテーブルでは、中心に近いほど移動量は小さく、中心から離れるほど移動量が大きくなっている。 The values in the table indicate the amount of movement, with positive numbers indicating upward movement and negative numbers indicating downward movement. The unit of movement is dots. This is a value indicating how many dots are shifted in the display area due to the wraparound distortion. Since the wraparound distortion increases as the distance from the center of the display area increases, in this table, the amount of movement decreases as the distance from the center increases, and the amount of movement increases as the distance from the center increases.
具体的な回り込み歪角度の算出手順を説明する。まず、S1204において取得した中心位置の座標位置と左端(or右端)の座標値をこのテーブルに当てはめる。そして、2つ(or3つ)の値を抽出する。抽出した2つ(or3つ)の値の平均値を算出する。この算出した値が、中心位置と左端(or右端)の座標値とのずれを示す値(ドット)となる。従って、中心位置の座標位置および左端(or右端)の座標値並びにこのずれを示す値を用いることで、ずれの角度を算出する。算出方法は既存の方法を採用することが可能であり、算出されるこの角度が回り込み歪角度(単位はθ)となる。 A specific procedure for calculating the wraparound distortion angle will be described. First, the coordinate position of the center position and the coordinate value of the left end (or right end) acquired in S1204 are applied to this table. Then, two (or three) values are extracted. The average value of the two extracted values (or three) is calculated. This calculated value is a value (dot) indicating a deviation between the center position and the left end (or right end) coordinate value. Accordingly, by using the coordinate position of the center position, the coordinate value of the left end (or right end), and the value indicating this shift, the shift angle is calculated. An existing method can be adopted as the calculation method, and this calculated angle becomes a wraparound distortion angle (unit: θ).
なお、このテーブル例は、あくまでも一例であって、カメラ監視装置に搭載されるカメラのレンズや表示可能画角サイズ、解像度等により値は変わるため、それぞれ用意されることとなる。 Note that this table example is merely an example, and the values vary depending on the lens of the camera mounted on the camera monitoring apparatus, the displayable view angle size, the resolution, and the like, and thus are prepared respectively.
S1206において、監視カメラ装置は、ズーム値から歪曲収差の曲率を算出する。なお、歪曲収差とは、レンズの収差の一つのことをいう。特に画像の周辺付近で歪みが顕著となる。レンズ周辺部の直線が外側に曲がる樽型歪曲と、内側に曲がる糸巻き型歪曲がある。 In S1206, the monitoring camera apparatus calculates the curvature of distortion from the zoom value. The distortion aberration is one of lens aberrations. In particular, the distortion becomes remarkable near the periphery of the image. There is a barrel distortion in which the straight line around the lens is bent outward, and a pincushion distortion in which it is bent inward.
本発明の実施の形態では、図14に示す歪曲収差の曲率計算用テーブルを用いることで歪曲収差の曲率を算出する。このテーブルは、表示画面縦方向座標1401とズームの画角1402とから構成される。本発明の実施の形態では、表示領域は、VGA(640×480ドット)であることから、表示画面縦方向座標1401の範囲は、−240〜+240ドットとなる。表示領域の解像度が異なる場合、その解像度に応じたテーブルが用意されるものである。
In the embodiment of the present invention, the distortion aberration curvature is calculated by using the distortion aberration curvature calculation table shown in FIG. This table includes display screen vertical coordinate 1401 and zoom angle of
また、テーブル内の値は、曲率を示しており、正数は上向きの歪曲収差の曲率を、負数は下向きの歪曲収差の曲率を示している。本発明の実施の形態では、マスキング領域は、横長の例で説明しているが、縦長のマスキング領域であってもよい。その場合、縦長用のテーブルが用意されることとなるがここでは説明を省略する。 The value in the table indicates the curvature, and the positive number indicates the curvature of upward distortion and the negative number indicates the curvature of downward distortion. In the embodiment of the present invention, the masking area is described as a horizontally long example, but may be a vertically long masking area. In this case, a vertically long table is prepared, but the description thereof is omitted here.
具体的な歪曲収差の曲率の算出手順を説明する。まず、マスキング領域の左右両端の縦方向の座標値を求める。求め方として、平均値や中間点から求める方法がある。次に、取得したPTZ値を用いて、ズームの画角を求める。そして、求めた表示画面縦方向座標とズームの画角とを用いてテーブルから曲率を抽出することで歪曲収差の曲率を算出することができる。 A specific procedure for calculating the curvature of distortion will be described. First, the vertical coordinate values of the left and right ends of the masking area are obtained. As a method of obtaining, there is a method of obtaining from an average value or an intermediate point. Next, the angle of view of the zoom is obtained using the acquired PTZ value. Then, the curvature of distortion can be calculated by extracting the curvature from the table using the obtained display screen vertical coordinate and the angle of view of the zoom.
なお、このテーブル例は、あくまでも一例であって、カメラ監視装置に搭載されるカメラのレンズや表示可能画角サイズ、解像度等により値は変わるため、それぞれ用意されることとなる。 Note that this table example is merely an example, and the values vary depending on the lens of the camera mounted on the camera monitoring apparatus, the displayable view angle size, the resolution, and the like, and thus are prepared respectively.
S1207において、監視カメラ装置は、回り込み歪角度、歪曲収差の曲率より、マスキング領域を分割する数を算出する。そして算出した分割数と決定する。本発明の実施の形態では、図15に示す矩形分割計算用テーブルを用いることで数の算出を行う。このテーブルは、横方向用と縦方向用の2つのテーブルがあるが、本発明の実施の形態では、マスキング領域の形がどのような形をしているかを判断して、その判断の結果、マスキング領域が横長であると判断した場合は、横方向用の矩形分割計算用テーブルを用い、マスキング領域が縦長であると判断した場合は、縦方向用の矩形分割計算用テーブルを用いるものとする。なお、当然のことながら両方のテーブルを用いることも可能であるが、ここでは詳細な説明はしない。 In S <b> 1207, the surveillance camera device calculates the number of masking regions to be divided from the wraparound distortion angle and the curvature of distortion. Then, the calculated number of divisions is determined. In the embodiment of the present invention, the number is calculated by using the rectangular division calculation table shown in FIG. This table has two tables for the horizontal direction and the vertical direction. In the embodiment of the present invention, it is determined what the shape of the masking area is, and as a result of the determination, When it is determined that the masking area is horizontally long, a rectangular division calculation table for horizontal direction is used. When it is determined that the masking area is vertically long, a rectangular division calculation table for vertical direction is used. . Of course, both tables can be used, but will not be described in detail here.
このテーブルは、歪曲収差の曲率1501、1503と回り込み歪角度1502、1504とから構成される。本発明の実施の形態では、VGAを想定しているが、表示領域の解像度が異なる場合、その解像度に応じたテーブルが用意されるものである。また、レンズの特性等によっても値が異なるためそれぞれ最適なテーブルが用意されるものである。S1205で算出された回り込み歪角度とS1206で算出されたズーム値から歪曲収差の曲率とをテーブルに当てはめることにより値が抽出される。なお、テーブル内の値は、分割する矩形領域の縦または横の最大のサイズ(単位はドット)を示している。
This table is composed of
ここで、マスキング領域を分割する方法は、歪曲収差の曲率と回り込み歪角度の組み合わせにより様々な方法を採用することができるが、本発明の実施の形態では、一例として、マスキング領域を分割する際における分割矩形の最大サイズを最大公約数として求める方法を示す。 Here, as a method of dividing the masking region, various methods can be adopted depending on the combination of the curvature of distortion and the wraparound distortion angle. However, in the embodiment of the present invention, as an example, when the masking region is divided. A method of obtaining the maximum size of the divided rectangle in as the greatest common divisor is shown.
具体例を示すと、マスキング領域の横幅が180ドットのときに、矩形分割計算用テーブルから60ドットが抽出された場合、180ドットを60ドットで割ると「3」となることからマスキング領域を分割する数として「3」が算出される。また、マスキング領域の横幅が180ドットのときに、矩形分割計算用テーブルから40ドットが抽出された場合、180ドットを40ドットで割ると「4」と余り20ドットとなるが、余り分を補うための「1」を加算して、マスキング領域を分割する数として「5」が算出される。なお、最大サイズがマスキング領域より大きい場合は、分割の必要がないことから分割不要とする。 As a specific example, if 60 dots are extracted from the rectangular division calculation table when the width of the masking area is 180 dots, dividing the masking area by dividing 180 dots by 60 dots will result in “3”. “3” is calculated as the number to be used. Further, when 40 dots are extracted from the rectangular division calculation table when the horizontal width of the masking area is 180 dots, dividing the 180 dots by 40 dots results in a remainder of 20 with “4”, but the remainder is compensated. “5” is calculated as the number by which the masking area is divided by adding “1”. If the maximum size is larger than the masking area, it is not necessary to divide because the division is not necessary.
以上、S1207では、表示領域内に配置されるマスキング領域により特定される回り込み歪角度と歪曲収差の曲率とからマスキング領域を分割する数を算出している。つまり、マスキング領域の配置位置に応じて分割数が決定されることとなる。 As described above, in S1207, the number for dividing the masking area is calculated from the wraparound distortion angle specified by the masking area arranged in the display area and the curvature of the distortion. That is, the number of divisions is determined according to the arrangement position of the masking area.
S1208において、監視カメラ装置は、マスキング領域を分割するかを判定するYesの場合、S1209へ進み、Noの場合、S1211へ進む。具体的には、S1207において、最大サイズがマスキング領域より大きかった場合に分割不要と判断する。 In S1208, if the monitoring camera apparatus determines Yes to determine whether to divide the masking area, the process proceeds to S1209, and if No, the process proceeds to S1211. Specifically, in S1207, when the maximum size is larger than the masking area, it is determined that division is not necessary.
S1209において、監視カメラ装置は、マスキング領域を分割する。分割方法としては、矩形分割計算用テーブルから抽出された最大サイズで分割する方法(パターン1)と、マスキング領域をS1205において算出された数でマスキング領域を分割する方法(パターン2)の何れの方法を採用しても良い。なお、2つの方法は、マスキング領域が最大サイズで割りきれなかった場合に違いが生じる。例えば、マスキング領域が180ドットで、最大サイズが40ドットの場合、前者の方法では、40ドットの矩形4つと20ドットの矩形1つに分割され、後者の方法は、36ドットの矩形5つに分割される(図16参照)。本発明の実施の形態では、後者の方法を採用するものとして説明を続ける。 In S1209, the surveillance camera device divides the masking area. As a division method, any one of a method of dividing by the maximum size extracted from the rectangular division calculation table (pattern 1) and a method of dividing the masking region by the number calculated in S1205 (pattern 2). May be adopted. Note that the two methods differ when the masking area cannot be divided by the maximum size. For example, if the masking area is 180 dots and the maximum size is 40 dots, the former method is divided into four 40-dot rectangles and one 20-dot rectangle, and the latter method is divided into five 36-dot rectangles. It is divided (see FIG. 16). In the embodiment of the present invention, the description will be continued assuming that the latter method is adopted.
なお、その他の分割方法としては、最大サイズを基準として異なる大きさのマスキング領域に分割方法もある。例えば、図18に示す通り、マスキング領域が180ドットで、最大サイズが72ドットの場合、72ドットより小さい12ドット〜48のマスキング矩形に分割する方法がある。この場合、最大サイズを基準に所定の割合で小さくする係数を順次掛けることによりそれぞれのマスキング領域のサイズを求めることができる。この方法の場合、分割数は事前に必要とはならない。 As another division method, there is also a division method for masking regions having different sizes with reference to the maximum size. For example, as shown in FIG. 18, when the masking area is 180 dots and the maximum size is 72 dots, there is a method of dividing into 12 to 48 masking rectangles smaller than 72 dots. In this case, the size of each masking region can be obtained by sequentially multiplying the coefficient to be reduced by a predetermined ratio with respect to the maximum size. In this method, the number of divisions is not required in advance.
S1210において、監視カメラ装置は、分割後のマスキング領域の中心座標を回り込み歪角度、歪曲収差の曲率に従って配置する。 In S1210, the surveillance camera apparatus arranges the center coordinates of the divided masking region according to the wraparound distortion angle and the curvature of distortion.
具体的には、回り込み歪角度と歪曲収差の曲率とを用いて、マスキング領域が辿る軌跡を仮想的に求め、その軌跡上に分割後のマスキング領域の中心座標をそれぞれ配置する手順をとる(図17参照)。ここで分割後のマスキング領域の配置位置が確定する。 Specifically, using the wraparound distortion angle and the curvature of distortion, a trajectory traced by the masking region is virtually obtained, and the center coordinates of the divided masking region are respectively arranged on the trajectory (see FIG. 17). Here, the arrangement position of the divided masking area is determined.
なお、図18に示す分割を行った場合は、描かれる軌跡のうち、表示領域の中心に近い方から大きいサイズのマスキング領域の配置を行う。これは、表示領域の端になるほどずれが大きくなることから、端になる方により小さいマスキング領域を配置することで、隠したい映像がマスキング領域からはみ出すことを防ぐためである。 When the division shown in FIG. 18 is performed, the masking area having a larger size is arranged from the side closer to the center of the display area in the drawn trajectory. This is because the shift becomes larger toward the edge of the display area, so that a smaller masking area is arranged on the edge to prevent the video to be hidden from protruding from the masking area.
S1211において、監視カメラ装置は、撮影した映像の上に、分割しなかったマスキング領域もしくは分割したマスキング領域を、重ね合わせて配置する処理を行う。 In S1211, the surveillance camera apparatus performs a process of superimposing the masking area that has not been divided or the divided masking area on the photographed video.
以上、本発明の実施の形態にかかるマスキング処理の詳細な処理の流れを説明した。 The detailed process flow of the masking process according to the embodiment of the present invention has been described above.
続いて、S605において、監視カメラ装置は、要求元のクライアント端末に対して、撮影画像を配信する。ここでは、マスキング領域の設定がない場合は、そのままの映像を、マスキング領域の設定がある場合は、マスキング領域によりマスキングされた映像を配信することとなる。 Subsequently, in S605, the monitoring camera device distributes the captured image to the requesting client terminal. Here, when there is no masking area setting, the video as it is is delivered, and when the masking area is set, the video masked by the masking area is delivered.
S606において、クライアント端末は、撮影画像を受信する。 In S606, the client terminal receives the captured image.
S607において、クライアント端末は、受信した撮影画像を、WEBブラウザの表示領域へ表示する。 In S607, the client terminal displays the received captured image in the display area of the WEB browser.
S608において、クライアント端末は、ユーザによるPTZ操作の指示がなされたかを判定する。Yesの場合、S609へ進み、Noの場合、S612へ進む。具体的には、WEBブラウザに表示される操作メニューに表示されるPTZ操作ボタンを介して、ユーザによりPTZ操作の指示がなされたかを判定する。 In step S <b> 608, the client terminal determines whether a user has instructed a PTZ operation. If Yes, the process proceeds to S609, and if No, the process proceeds to S612. Specifically, it is determined whether the user has instructed the PTZ operation via the PTZ operation button displayed on the operation menu displayed on the WEB browser.
S609において、クライアント端末は、監視カメラ装置に対して、ユーザによるPTZ操作の指示を行う。 In step S609, the client terminal instructs the monitoring camera device to perform a PTZ operation by the user.
S610において、監視カメラ装置は、PTZ操作の指示を受け付ける。 In S610, the monitoring camera apparatus accepts an instruction for PTZ operation.
S611において、監視カメラ装置は、PTZ操作の指示の内容に応じて、PTZ処理を行う。なお、PTZ処理は、従来のカメラ制御処理であるため詳細な説明は省略する。その後、S604へ戻り、処理が継続される。 In S611, the monitoring camera device performs PTZ processing according to the content of the PTZ operation instruction. Since the PTZ process is a conventional camera control process, detailed description thereof is omitted. Thereafter, the process returns to S604 and the processing is continued.
一方、S612において、クライアント端末は、WEBブラウザで監視カメラ装置が撮影した画像の閲覧を終了する指示がなされたかを判定する。Yesの場合、終了し、Noの場合、S607へ戻る。 On the other hand, in step S612, the client terminal determines whether an instruction to end browsing of the image captured by the monitoring camera device has been given by the WEB browser. If Yes, the process ends. If No, the process returns to S607.
以上、本発明の実施の形態にかかる設定されたマスキング領域が分割される処理の流れを説明した。 The flow of processing for dividing the set masking area according to the embodiment of the present invention has been described above.
上述した通り、本発明によれば、監視カメラが操作されたとしても設定されたマスキング領域からプライバシー画像が外れることを防ぐことができる。 As described above, according to the present invention, it is possible to prevent the privacy image from deviating from the set masking area even if the surveillance camera is operated.
なお、マスキング処理は、リアルタイムで行われるため、監視カメラが操作され続けたとしてもマスキング領域は追従してマスクを行う。その際、表示領域内でマスキング領域が配置される位置に応じてマスキング領域が分割されることとなる。 Since the masking process is performed in real time, the masking area follows and masks even if the surveillance camera continues to be operated. At that time, the masking area is divided according to the position where the masking area is arranged in the display area.
以上、本発明の好ましい実施形態について詳述したが、本発明は係る特定の実施形態に限定されるものではなく、特許請求の範囲に記載された本発明の要旨の範囲内において、
種々の変形・変更が可能である。
The preferred embodiment of the present invention has been described in detail above, but the present invention is not limited to the specific embodiment, and within the scope of the present invention described in the claims,
Various modifications and changes are possible.
また、本発明の目的は、以下のようにすることによって達成される。即ち、上述した実施形態の機能を実現するソフトウェアのプログラムコードを記録した記憶媒体(又は記録媒体)を、システム或いは装置に供給する。そして、そのシステム或いは装置の中央演算処理手段(CPUやMPU)が記憶媒体に格納されたプログラムコードを読み出し実行する。この場合、記憶媒体から読み出されたプログラムコード自体が上述した実施形態の機能を実現することになり、そのプログラムコードを記録した記憶媒体は本発明を構成することになる。 The object of the present invention is achieved by the following. That is, a storage medium (or recording medium) in which a program code of software that realizes the functions of the above-described embodiments is recorded is supplied to the system or apparatus. Then, the central processing means (CPU or MPU) of the system or apparatus reads and executes the program code stored in the storage medium. In this case, the program code itself read from the storage medium realizes the functions of the above-described embodiment, and the storage medium recording the program code constitutes the present invention.
また、システム或いは装置の前記中央演算処理手段が読み出したプログラムコードを実行することにより、そのプログラムコードの指示に基づき、システム或いは装置上で稼働しているオペレーティングシステム(OS)等が実際の処理の一部又は全部を行う。その処理によって上述した実施形態の機能が実現される場合も含まれる。 In addition, by executing the program code read by the central processing means of the system or apparatus, an operating system (OS) or the like operating on the system or apparatus performs actual processing based on the instruction of the program code. Do some or all. The case where the function of the above-described embodiment is realized by the processing is also included.
更に、記憶媒体から読み出されたプログラムコードが、前記システム或いは装置に挿入された機能拡張カードや、接続された機能拡張ユニットに備わるメモリに書込まれたとする。その後、そのプログラムコードの指示に基づき、その機能拡張カードや機能拡張ユニットに備わるCPU等が実際の処理の一部又は全部を行い、その処理によって上述した実施形態の機能が実現される場合も含まれる。 Further, it is assumed that the program code read from the storage medium is written in a memory provided in a function expansion card inserted into the system or apparatus or a function expansion unit connected thereto. After that, based on the instruction of the program code, the CPU of the function expansion card or function expansion unit performs part or all of the actual processing, and the function of the above-described embodiment is realized by the processing. It is.
本発明を前記記憶媒体に適用する場合、その記憶媒体(コンピュータ読み取り可能な記憶媒体)には、先に説明したフローチャートに対応するプログラムコードが格納されることになる。 When the present invention is applied to the storage medium, the storage medium (computer-readable storage medium) stores program codes corresponding to the flowcharts described above.
100 監視カメラシステム
200 サーバ
300 クライアント端末
400 監視カメラ装置
100
Claims (7)
前記カメラで撮影可能な撮影範囲内においてマスキングする対象とされるマスキング領域の指定を受け付ける受付手段と、
前記カメラで撮影された撮影画像において、前記受付手段により指定を受け付けたマスキング領域が配置される位置を判定する判定手段と、
前記判定手段により判定された配置位置に応じて、前記マスキング領域を分割するかを判定する判定手段と、
前記判定手段よる判定の結果、前記マスキング領域を分割するとの判定がなされた場合、前記マスキング領域を所定の数に分割する分割手段と、
前記分割手段により分割された複数のマスキング領域を、前記撮影画像上に配置する配置手段と、
前記配置手段により複数のマスキング領域が配置された撮影画像を配信する配信手段と
を有することを特徴とする情報処理装置。 An information processing apparatus that distributes captured images captured by a camera,
Accepting means for accepting designation of a masking area to be masked within a photographing range that can be photographed by the camera;
A determination unit that determines a position at which a masking region whose designation is received by the reception unit is arranged in a captured image captured by the camera;
Determining means for determining whether to divide the masking region according to the arrangement position determined by the determining means;
As a result of the determination by the determination means, when it is determined that the masking area is divided, a dividing means for dividing the masking area into a predetermined number;
Arranging means for arranging a plurality of masking regions divided by the dividing means on the captured image;
An information processing apparatus comprising: a distribution unit that distributes a captured image in which a plurality of masking areas are arranged by the arrangement unit.
前記分割手段は、前記決定手段により決定された数に前記マスキング領域を分割することを特徴とする請求項1に記載の情報処理装置。 As a result of the determination by the determination unit, when it is determined that the masking region is divided, the determination unit further includes a determining unit that determines the number of the masking region to be divided according to the arrangement position of the masking region,
The information processing apparatus according to claim 1, wherein the dividing unit divides the masking region into the number determined by the determining unit.
前記カメラで撮影可能な撮影範囲内においてマスキングする対象とされるマスキング領域の指定を受け付ける受付ステップと、
前記カメラで撮影された撮影画像において、前記受付ステップにより指定を受け付けたマスキング領域が配置される位置を判定する判定ステップと、
前記判定ステップにより判定された配置位置に応じて、前記マスキング領域を分割するかを判定する判定ステップと、
前記判定ステップよる判定の結果、前記マスキング領域を分割するとの判定がなされた場合、前記マスキング領域を所定の数に分割する分割ステップと、
前記分割ステップにより分割された複数のマスキング領域を、前記撮影画像上に配置する配置ステップと、
前記配置ステップにより複数のマスキング領域が配置された撮影画像を配信する配信ステップと
を有することを特徴とする制御方法。 A control method in an information processing apparatus that distributes a photographed image photographed by a camera,
An accepting step of accepting designation of a masking area to be masked within a photographing range that can be photographed by the camera;
A determination step of determining a position where a masking region whose designation is accepted by the acceptance step is arranged in a photographed image photographed by the camera;
A determination step of determining whether to divide the masking region according to the arrangement position determined by the determination step;
As a result of the determination by the determination step, when it is determined that the masking region is divided, a dividing step of dividing the masking region into a predetermined number;
Arranging step of arranging a plurality of masking areas divided by the dividing step on the captured image;
A distribution step of distributing a captured image in which a plurality of masking regions are arranged in the arrangement step.
前記カメラで撮影可能な撮影範囲内においてマスキングする対象とされるマスキング領域の指定を受け付ける受付手段と、
前記カメラで撮影された撮影画像において、前記受付手段により指定を受け付けたマスキング領域が配置される位置を判定する判定手段と、
前記判定手段により判定された配置位置に応じて、前記マスキング領域を分割するかを判定する判定手段と、
前記判定手段よる判定の結果、前記マスキング領域を分割するとの判定がなされた場合、前記マスキング領域を所定の数に分割する分割手段と、
前記分割手段により分割された複数のマスキング領域を、前記撮影画像上に配置する配置手段と、
前記配置手段により複数のマスキング領域が配置された撮影画像を配信する配信手段と
を有することを特徴とする情報処理システム。 An information processing system capable of communicating between a client terminal and an information processing device that distributes a captured image captured by a camera,
Accepting means for accepting designation of a masking area to be masked within a photographing range that can be photographed by the camera;
A determination unit that determines a position at which a masking region whose designation is received by the reception unit is arranged in a captured image captured by the camera;
Determining means for determining whether to divide the masking region according to the arrangement position determined by the determining means;
As a result of the determination by the determination means, when it is determined that the masking area is divided, a dividing means for dividing the masking area into a predetermined number;
Arranging means for arranging a plurality of masking regions divided by the dividing means on the captured image;
An information processing system comprising distribution means for distributing a captured image in which a plurality of masking areas are arranged by the arrangement means.
前記カメラで撮影可能な撮影範囲内においてマスキングする対象とされるマスキング領域の指定を受け付ける受付手段、
前記カメラで撮影された撮影画像において、前記受付手段により指定を受け付けたマスキング領域が配置される位置を判定する判定手段、
前記判定手段により判定された配置位置に応じて、前記マスキング領域を分割するかを判定する判定手段、
前記判定手段よる判定の結果、前記マスキング領域を分割するとの判定がなされた場合、前記マスキング領域を所定の数に分割する分割手段、
前記分割手段により分割された複数のマスキング領域を、前記撮影画像上に配置する配置手段、
前記配置手段により複数のマスキング領域が配置された撮影画像を配信する配信手段
として前記情報処理装置を機能させることを特徴とするプログラム。 A program that can be executed by an information processing apparatus that distributes a captured image captured by a camera,
Accepting means for accepting designation of a masking area to be masked within a photographing range that can be photographed by the camera;
A determination unit that determines a position at which a masking region whose designation is received by the reception unit is arranged in a captured image captured by the camera;
Determining means for determining whether to divide the masking region according to the arrangement position determined by the determining means;
As a result of the determination by the determination means, when it is determined that the masking area is divided, a dividing means for dividing the masking area into a predetermined number;
Arranging means for arranging a plurality of masking areas divided by the dividing means on the captured image;
A program for causing the information processing apparatus to function as distribution means for distributing a photographed image in which a plurality of masking areas are arranged by the arrangement means.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011233269A JP2013093673A (en) | 2011-10-24 | 2011-10-24 | Information processing apparatus, control method, information processing system, program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011233269A JP2013093673A (en) | 2011-10-24 | 2011-10-24 | Information processing apparatus, control method, information processing system, program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2013093673A true JP2013093673A (en) | 2013-05-16 |
Family
ID=48616484
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011233269A Pending JP2013093673A (en) | 2011-10-24 | 2011-10-24 | Information processing apparatus, control method, information processing system, program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2013093673A (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2015030225A1 (en) * | 2013-08-27 | 2015-03-05 | Kabushiki Kaisha Toshiba | Information processing apparatus, surveillance camera apparatus, and image reproduction apparatus |
WO2015083511A1 (en) * | 2013-12-03 | 2015-06-11 | 三菱電機株式会社 | Imaging problem detection device and imaging problem detection program |
JP2016208147A (en) * | 2015-04-17 | 2016-12-08 | 三菱電機株式会社 | Mask processing device and method, imaging apparatus and method, program and record medium |
-
2011
- 2011-10-24 JP JP2011233269A patent/JP2013093673A/en active Pending
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2015030225A1 (en) * | 2013-08-27 | 2015-03-05 | Kabushiki Kaisha Toshiba | Information processing apparatus, surveillance camera apparatus, and image reproduction apparatus |
WO2015083511A1 (en) * | 2013-12-03 | 2015-06-11 | 三菱電機株式会社 | Imaging problem detection device and imaging problem detection program |
JP2016208147A (en) * | 2015-04-17 | 2016-12-08 | 三菱電機株式会社 | Mask processing device and method, imaging apparatus and method, program and record medium |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10165179B2 (en) | Method, system, and computer program product for gamifying the process of obtaining panoramic images | |
US9723203B1 (en) | Method, system, and computer program product for providing a target user interface for capturing panoramic images | |
JP6167703B2 (en) | Display control device, program, and recording medium | |
CN106803884B (en) | Image processing apparatus | |
JP5740884B2 (en) | AR navigation for repeated shooting and system, method and program for difference extraction | |
JP5092459B2 (en) | Remote indication system and program for remote indication system | |
WO2011114610A1 (en) | Omnidirectional image processing device and omnidirectional image processing method | |
JP2010154052A (en) | System for controlling a plurality of cameras | |
JP6096634B2 (en) | 3D map display system using virtual reality | |
JP7087158B2 (en) | Information processing equipment, information processing methods and programs | |
US20220329770A1 (en) | Information processing apparatus, video generation method and program | |
CN112352261A (en) | Object detection device and object detection method for construction machine | |
JP5963006B2 (en) | Image conversion apparatus, camera, video system, image conversion method, and recording medium recording program | |
JP2017092808A (en) | Image monitoring system | |
KR100975128B1 (en) | Method, system and computer-readable recording medium for providing information of object using viewing frustum | |
JP2013093673A (en) | Information processing apparatus, control method, information processing system, program | |
JP2019146155A (en) | Image processing device, image processing method, and program | |
JP2006191408A (en) | Image display program | |
JP6443505B2 (en) | Program, display control apparatus, and display control method | |
WO2019163449A1 (en) | Image processing apparatus, image processing method and program | |
WO2020095400A1 (en) | Characteristic point extraction device, characteristic point extraction method, and program storage medium | |
JP2018098627A (en) | Information processing device, information processing method, and program | |
KR102434428B1 (en) | Method of creating composite images, apparatus for creating composite images, and computer program for the method | |
CN115278184B (en) | Projection picture correction method and device | |
US20240119676A1 (en) | Image generation method, apparatus, and system, and computer-readable storage medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD03 | Notification of appointment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7423 Effective date: 20130531 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20130531 |