JP2014042160A - Display terminal, setting method of target area of moving body detection and program - Google Patents
Display terminal, setting method of target area of moving body detection and program Download PDFInfo
- Publication number
- JP2014042160A JP2014042160A JP2012183493A JP2012183493A JP2014042160A JP 2014042160 A JP2014042160 A JP 2014042160A JP 2012183493 A JP2012183493 A JP 2012183493A JP 2012183493 A JP2012183493 A JP 2012183493A JP 2014042160 A JP2014042160 A JP 2014042160A
- Authority
- JP
- Japan
- Prior art keywords
- image
- target area
- display
- distortion
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Abstract
Description
本発明は、動体検知の対象領域を設定する技術に関する。 The present invention relates to a technique for setting a target area for moving object detection.
魚眼レンズなどを撮影レンズとして用いた全方位カメラを備えた監視システムが、例えば特許文献1から3に開示されている。特許文献1は、魚眼レンズを用いて撮影した歪曲円形画像を時系列順に相互に比較して動体検出処理を行い、検出動体を切り出して表示することを開示している。特許文献2は、魚眼レンズを用いて得た全方位画像を動画像メモリに時系列順に格納するとともに、動画像メモリに記録された全方位画像から、指定された記録時刻且つ指定座標の画像を切り出して、平面視展開して表示することを開示している。特許文献3は、全方位カメラで得た全方位画像を同心円状及び放射状に分割して、分割した各領域を明示するとともに、領域単位でズームカメラをズーム駆動することを開示している。 For example, Patent Documents 1 to 3 disclose a monitoring system including an omnidirectional camera using a fisheye lens or the like as a photographing lens. Patent Document 1 discloses that a moving object detection process is performed by comparing distorted circular images photographed using a fisheye lens with each other in chronological order, and the detected moving object is cut out and displayed. Patent Document 2 stores omnidirectional images obtained using a fisheye lens in a moving image memory in chronological order, and cuts out an image at a specified recording time and specified coordinates from the omnidirectional image recorded in the moving image memory. Thus, it is disclosed that the display is developed in plan view. Patent Document 3 discloses that an omnidirectional image obtained by an omnidirectional camera is divided concentrically and radially, each divided area is clearly indicated, and the zoom camera is zoom-driven in units of areas.
特許文献1から3に記載の発明では、全方位カメラの撮影範囲全体、つまり、全方位画像の画像領域全体を対象として、動体の有無などを監視する。この種の監視システムでは、監視場所や監視目的などによって、撮影範囲の一部の領域(例えば、ドアや窓)を対象として監視したい場合がある。しかしながら、全方位画像などの撮影レンズに起因した画像歪みを含む撮影画像をユーザが視認して、このユーザが監視対象領域を指定する操作を行おうとしても、撮影画像中の監視場所の見え方と実際の監視場所の見え方とが相違し、所望する監視対象領域をユーザが的確に指定することは難しい。
そこで、本発明の目的は、画像歪みを含む撮影画像を用いて動体検知を行う場合に、動体検知の対象領域をユーザが的確に指定するための操作負担を減らすことである。
In the inventions described in Patent Documents 1 to 3, the presence or absence of a moving object is monitored for the entire imaging range of the omnidirectional camera, that is, the entire image area of the omnidirectional image. In this type of monitoring system, there is a case where it is desired to monitor a part of the photographing range (for example, a door or a window) depending on a monitoring place or a monitoring purpose. However, even if the user visually recognizes a captured image including image distortion caused by the imaging lens such as an omnidirectional image and performs an operation of designating a monitoring target area, how the monitored place in the captured image looks And the way the actual monitoring location is viewed are different, and it is difficult for the user to accurately specify the desired monitoring target area.
Accordingly, an object of the present invention is to reduce an operation burden for a user to accurately specify a target area for moving object detection when moving object detection is performed using a captured image including image distortion.
上述した課題を解決するため、本発明の表示端末は、表示面に画像を表示する表示部と、動画カメラから、当該動画カメラの撮影レンズに起因する画像歪みを含む撮影画像を示す撮影データを取得する取得部と、前記取得部が取得した撮影データに基づいて、前記画像歪みを減じる歪み補正を行う補正部と、前記補正部により前記歪み補正が行われた画像を、前記表示面に表示させる表示制御部と、前記表示面に表示された前記歪み補正が行われた画像を用いて、動体検知の対象領域を指定する第1操作を受け付ける第1受付部と、前記第1受付部が受け付けた操作により指定された前記対象領域の動体検知を行うよう、前記動体検知の設定を行う設定部とを備える。 In order to solve the above-described problem, a display terminal of the present invention includes a display unit that displays an image on a display surface, and shooting data indicating a shot image including an image distortion caused by a shooting lens of the movie camera from the movie camera. An acquisition unit to be acquired, a correction unit that performs distortion correction that reduces the image distortion based on shooting data acquired by the acquisition unit, and an image that has been subjected to the distortion correction by the correction unit are displayed on the display surface A first control unit that receives a first operation for designating a target region for motion detection using the display control unit that is displayed, the image that is displayed on the display surface and that is subjected to the distortion correction, and the first reception unit. A setting unit configured to set the moving object detection so as to perform the moving object detection of the target area specified by the received operation.
本発明の表示端末において、前記撮影画像の一部を拡大した部分画像の表示を指示する第2操作を受け付ける第2受付部を備え、前記表示制御部は、前記第2操作が受け付けられると、前記歪み補正後の前記部分画像を複数領域に区分して前記表示面に表示させ、前記第1受付部は、前記複数領域から前記対象領域を選択する操作を前記第1操作として受け付けるようにしてもよい。
この表示端末において、前記補正部は、前記部分画像の拡大率が高いほど前記画像歪みを少なくするように前記歪み補正を行い、前記表示制御部は、前記拡大率又は前記歪み補正の補正度合いが閾値レベルを超えたときに前記部分画像を前記複数領域に区分するようにしてもよい。
In the display terminal of the present invention, the display terminal includes a second reception unit that receives a second operation that instructs display of a partial image obtained by enlarging a part of the captured image, and the display control unit receives the second operation. The partial image after the distortion correction is divided into a plurality of areas and displayed on the display surface, and the first receiving unit receives an operation of selecting the target area from the plurality of areas as the first operation. Also good.
In this display terminal, the correction unit performs the distortion correction so that the image distortion is reduced as the enlargement ratio of the partial image is higher, and the display control unit has the enlargement ratio or the correction degree of the distortion correction. The partial image may be divided into the plurality of regions when a threshold level is exceeded.
また、本発明の表示端末において、前記設定部は、前記対象領域毎に設定した検知感度に従って前記動体検知を行うようにしてもよい。
この表示端末において、前記設定部は、前記撮影画像における前記対象領域の位置又は前記画像歪みの大きさに応じて、当該対象領域の前記検知感度を設定するようにしてもよい。
Moreover, the display terminal of this invention WHEREIN: The said setting part may be made to perform the said moving body detection according to the detection sensitivity set for every said target area | region.
In this display terminal, the setting unit may set the detection sensitivity of the target region according to the position of the target region in the captured image or the magnitude of the image distortion.
また、本発明の表示端末において、前記表示制御部は、前記第1受付部が前記第1操作を受け付けた後、前記対象領域を明示した前記撮影画像を表示させるようにしてもよい。 In the display terminal of the present invention, the display control unit may display the captured image in which the target area is clearly specified after the first reception unit receives the first operation.
また、本発明の表示端末において、前記表示制御部は、前記対象領域が前記表示面の予め決められた位置に表示されるように、当該対象領域を明示した前記撮影画像を表示させるようにしてもよい。 In the display terminal according to the present invention, the display control unit may display the captured image that clearly shows the target area so that the target area is displayed at a predetermined position on the display surface. Also good.
また、本発明の表示端末において、前記第1受付部は、前記対象領域と、当該対象領域の動体検知を行う時刻とを指定する前記第1操作を受け付け、前記設定部は、前記第1操作により指定された前記対象領域の動体検知を、当該第1操作により指定された時刻に行うよう設定するようにしてもよい。 In the display terminal of the present invention, the first reception unit receives the first operation that specifies the target region and a time at which moving object detection of the target region is performed, and the setting unit includes the first operation. It may be set so that the moving object detection of the target area designated by the above is performed at the time designated by the first operation.
本発明の動体検知の対象領域の設定方法は、動画カメラから、当該動画カメラの撮影レンズに起因する画像歪みを含む撮影画像を示す撮影データを取得する取得ステップと、前記取得ステップで取得した撮影データに基づいて、前記画像歪みを減じる歪み補正を行う補正ステップと、画像を表示する表示面に、前記補正ステップで前記歪み補正が行われた画像を表示させる表示制御ステップと、前記表示面に表示された前記歪み補正が行われた画像を用いて、動体検知の対象領域を指定する操作を受け付ける受付ステップと、前記取得ステップで取得した撮影データに基づいて前記受付ステップで受け付けた操作により指定された前記対象領域の動体検知を行うよう、前記動体検知の設定を行う設定ステップとを有する。 The moving object detection target region setting method of the present invention includes an acquisition step of acquiring shooting data indicating a shot image including image distortion caused by a shooting lens of the moving image camera from the moving image camera, and the shooting acquired in the acquisition step. Based on the data, a correction step for performing distortion correction to reduce the image distortion, a display control step for displaying the image subjected to the distortion correction in the correction step on a display surface for displaying an image, and a display surface for displaying Using the displayed image subjected to distortion correction, an accepting step for accepting an operation for designating a target area for motion detection, and an operation accepted in the accepting step based on the shooting data obtained in the obtaining step A setting step for setting the moving object detection so as to perform the moving object detection of the target area.
本発明のプログラムは、表示面に画像を表示する表示端末のコンピュータに、動画カメラから、当該動画カメラの撮影レンズに起因する画像歪みを含む撮影画像を示す撮影データを取得する取得ステップと、前記取得ステップで取得した撮影データに基づいて、前記画像歪みを減じる歪み補正を行う補正ステップと、前記補正ステップで前記歪み補正が行われた画像を、前記表示面に表示させる表示制御ステップと、前記表示面に表示された前記歪み補正が行われた画像を用いて、動体検知の対象領域を指定する操作を受け付ける受付ステップと、前記取得ステップで取得した撮影データに基づいて前記受付ステップで受け付けた操作により指定された前記対象領域の動体検知を行うよう、前記動体検知の設定を行う設定ステップ設定ステップとを実行させるためのプログラムである。 The program of the present invention obtains shooting data indicating a shot image including image distortion caused by a shooting lens of the moving image camera from a moving image camera to a computer of a display terminal that displays an image on a display surface; Based on the shooting data acquired in the acquisition step, a correction step for performing distortion correction for reducing the image distortion, a display control step for displaying the image subjected to the distortion correction in the correction step on the display surface, An accepting step for accepting an operation for designating a target area for motion detection using the image subjected to the distortion correction displayed on the display surface, and accepting the accepting step based on the imaging data obtained in the obtaining step. A setting step setting step for setting the moving object detection so that the moving object is detected in the target area specified by the operation. Is a program for executing and.
本発明によれば、画像歪みを含む撮影画像を用いて動体検知を行う場合に、動体検知の対象領域をユーザが的確に指定するための操作負担を減らすことができる。 ADVANTAGE OF THE INVENTION According to this invention, when performing a moving body detection using the picked-up image containing an image distortion, the operation burden for a user to specify the object area | region of a moving body detection exactly can be reduced.
以下、図面を参照しつつ本発明の実施形態を説明する。
図1は、表示端末10及び魚眼カメラ20の外観の構成を示す図である。
図1に示すように、表示端末10は、画像を表示する表示面141と、ユーザが指やスタイラスペンなどの指示体を表示面141に接触させて行う接触操作を検出するためのタッチセンサとを備える表示端末である。表示端末10は、ここではスマートフォンであるが、携帯電話端末やタブレット型コンピュータ、パーソナルコンピュータ、PDA(Personal Digital Assistant)などの他の表示端末であってもよい。魚眼カメラ20は、魚眼レンズ241を用いて被写体を撮影する撮影装置である。魚眼カメラ20は、撮影範囲の視野角がほぼ360度である全方位カメラなどと呼ばれ、魚眼レンズ241の向きを撮影方向として動画を撮影する動画カメラである。また、魚眼カメラ20は、魚眼レンズ241を用いて撮影した撮影画像に基づいて、動体の存在の有無を検知する動体検知を行う。
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
FIG. 1 is a diagram illustrating the external configuration of the
As shown in FIG. 1, the
表示端末10と魚眼カメラ20との間に無線通信路を確立して、表示端末10と魚眼カメラ20とがこの通信路を用いて相互にデータを送受信することが可能である。これ以外にも、表示端末10と魚眼カメラ20との間に通信ケーブルなどを用いて有線の通信路を確立して、相互にデータを送受信することも可能である。
なお、表示端末10及び魚眼カメラ20は、それぞれユーザが容易に携帯することができる程度のサイズや重さである。また、表示端末10と魚眼カメラ20とは、所定のサーバ経由で相互にデータをやり取りしてもよい。
A wireless communication path is established between the
Note that the
図2は、魚眼カメラ20のハードウェア構成を示すブロック図である。図2に示すように、魚眼カメラ20は、制御部21と、操作部22と、通信部23と、撮影部24と、記憶部25とを備える。
制御部21は、CPU(Central Processing Unit)、ROM(Read Only Memory)、及びRAM(Random Access Memory)を有するマイクロコンピュータを備える。CPUは、ROMや記憶部25に記憶されたプログラムをRAMに読み出して実行することにより、魚眼カメラ20の各部を制御する。操作部22は、ユーザに操作される操作ボタンを有し、ユーザにより行われた操作を示す操作信号を制御部21に出力する。通信部23は、無線通信路又は有線通信路を用いて表示端末10と通信するためのインタフェースである。通信部23は、例えば、撮影部24により生成された撮影データを表示端末10に宛てて送信する。
FIG. 2 is a block diagram illustrating a hardware configuration of the
The
撮影部24は、魚眼レンズ241、撮像素子及び信号処理回路を備え、撮影画像を示す撮影データを生成して制御部21に出力する。具体的に、撮影部24は、魚眼レンズ241を用いて撮像素子の位置に結像する。撮像素子は、例えばCCD(Charge Coupled Device)を有し、結像された光を受光して、その光に応じた画像信号を生成する。撮像素子は、例えば、R(レッド)、G(グリーン)、B(ブルー)の3色にて撮像する撮像素子であり、R、G及びBの3色にて被写体像を表すアナログ形式の画像信号を生成する。信号処理回路は、撮像素子により生成された画像信号に対してA(アナログ)/D(デジタル)変換などの信号処理を施して、撮影データを生成する。
なお、本実施形態において、撮影部24が生成する撮影データに含まれる色成分や各色成分の階調数などはいかようであってもよい。
The
In the present embodiment, the color components included in the shooting data generated by the
記憶部25は、EEPROM(Electronically Erasable and Programmable ROM)で例示される内部記憶装置を備え、制御部21により実行されるプログラムや撮影部24により撮影された撮影画像を示す撮影データなどを記憶する。記憶部25は、制御部21により実行されるプログラムのひとつとして、撮影部24により生成された撮影データに基づいて動体検知を行うためのプログラムを記憶する。記憶部25は、魚眼カメラ20に着脱可能なSDカードなどの外部記憶装置を含むこともあり、この外部記憶装置に撮影データなどのデータを記憶することも可能である。
The
図3は、魚眼カメラ20が住宅の部屋Rに設置されたときの設置態様を説明する図である。図3(a)は、部屋Rを上方から見た様子を表す図である。図3(a)に示すように、部屋Rの中央付近にはテーブルTが設置され、テーブルTをそれぞれ異なる方向から囲むように、ソファーSF1〜SF3が設置されている。また、部屋RのソファーSF1,SF2付近には植物Pが置かれている。そして、部屋Rの壁部には、窓W1〜W3やドアDが設けられている。図3(b)に示すように、部屋Rの天井Cには、魚眼レンズ241を鉛直下方向に向けて魚眼カメラ20が設置されている。魚眼カメラ20は、例えば、部屋Rの窓W1〜W3やドアDを含めた室空間全体を撮影範囲に収めて、撮影することができる。魚眼カメラ20は、魚眼カメラ20に設けられた固定具によりその姿勢や設置位置が固定されていてもよいし、別途用意した固定具により固定されていてもよい。
魚眼カメラ20が魚眼レンズ241を用いて撮影することにより、標準レンズなどを撮影レンズとして用いた場合に比べて、撮影範囲を広範囲にすることができる。その一方で、魚眼カメラ20の撮影画像では、魚眼レンズ241を用いたことによる画像歪みが撮影範囲に含まれる。これにより、ユーザが部屋Rを直に見た場合と、魚眼カメラ20で撮影した撮影画像中の部屋Rを見た場合とでは、部屋Rの見え方が大きく異なる。
FIG. 3 is a diagram for explaining an installation mode when the
When the
図4は、魚眼カメラ20の撮影画像100を表示端末10の表示面141に表示した様子を例示する図である。図4に示す各符号や範囲V11,V12を示す楕円は画像として表示面141に表示されているわけではない。このことは他の図面でも同様である。
図4を見ても分かるように、魚眼カメラ20は、楕円形の撮影範囲で撮影して、楕円形の撮影画像100を示す撮影データを生成する。図4に示すように、撮影画像100は、部屋Rを上方から俯瞰した様子を表す楕円形の撮影画像を示す。撮影画像100では、中心において比較的魚眼レンズ241に起因する画像歪みが少ないが、外縁に近づくほど魚眼レンズ241に起因する画像歪みが大きくなる傾向にある。例えば、撮影画像100において中心寄りに位置する被写体ほど画像歪みが少なく、撮影画像100の長径方向と短径方向との被写体の寸法の比率は、この被写体の実際の比率に近い。一方で、撮影画像100において外縁寄りに位置する被写体ほど、画像歪みの程度が大きい。例えば、撮影画像100の長径方向には画像歪みによって大きなサイズで撮影される一方、短径方向には画像歪みによって小さなサイズで撮影されることとなる。よって、このような被写体は、撮影画像100の長径方向と短径方向との寸法の比率が、実際の比率とは大きく異なる。
FIG. 4 is a diagram illustrating a state in which the captured
As can be seen from FIG. 4, the fish-
図5は、表示端末10のハードウェア構成を示すブロック図である。図5に示すように、表示端末10は、制御部11と、操作部12と、通信部13と、表示部14と、記憶部15とを備える。
制御部11は、CPU、ROM、及びRAMを有するマイクロコンピュータを備える。CPUは、ROMや記憶部15に記憶されたプログラムをRAMに読み出して実行することにより、表示端末10の各部を制御する。操作部12は、表示部14の表示面141に重ねて設けられたタッチセンサやハードボタンを有し、表示端末10のユーザにより行われた操作を示す操作信号を制御部11に出力する。通信部13は、無線通信路又は有線通信路を用いて魚眼カメラ20と通信するためのインタフェースである。通信部13は、例えば、魚眼カメラ20によって送信された撮影データを受信する。表示部14は、複数画素を配置した表示面141を有し、表示面141に画像を表示する。記憶部15は、例えばEEPROM(Electronically Erasable and Programmable ROM)やフラッシュメモリなどの記憶装置を備え、制御部11により実行されるプログラムを記憶する。記憶部15は、これ以外にも、撮影データ151と参照テーブル152とを記憶する。
FIG. 5 is a block diagram illustrating a hardware configuration of the
The
撮影データ151は、魚眼カメラ20の撮影画像の録画データに相当し、魚眼カメラ20によって撮影された撮影画像(動画)を示すデータである。撮影データ151は、魚眼レンズ241に起因した画像歪みを含んだ撮影画像を示す(図4参照)。参照テーブル152は、表示端末10が魚眼カメラ20に行わせる動体検知の設定内容が書き込まれるデータテーブルである。
The
図6は、参照テーブル152のデータ構造を示す図である。図6に示すように、参照テーブル152は、「対象領域」と「検知感度」という各情報を対応付けたデータテーブルである。「対象領域」は、撮影画像100のうち、動体検知の対象領域として指定された領域を示すデータである。対象領域のデータは、例えば、撮影画像100における対象領域の位置を示す情報(後述するメッシュ領域を示す情報)を含む。検知感度は、動体検知の感度を示すデータである。表示端末10が行う動体検知においては、検知感度が高いほど、僅かな被写体の動き(つまり、撮像画像における画像の動き)があった場合にも、動体(例えば、侵入者)の存在が検知される。
FIG. 6 is a diagram illustrating the data structure of the reference table 152. As illustrated in FIG. 6, the reference table 152 is a data table that associates each information of “target region” and “detection sensitivity”. “Target area” is data indicating an area designated as a target area for moving object detection in the captured
図6に示す例では、参照テーブル152において、対象領域として「ST1」と、検知感度として「高」とが対応付けられている。また、参照テーブル152においては、対象領域として「ST2」と、検知感度として「低」とが対応付けられている。参照テーブル152へのデータの書き込みに関する表示端末10の動作については後述するが、動体検知の開始前などにおいては、参照テーブル152の各フィールドはブランクである。
なお、表示端末10が行う動体検知の検知感度を、本実施形態では「高」及び「低」の2段階とするが、検知感度は3段階以上であってもよいし、一定であってもよい。また、表示端末10と魚眼カメラ20がサーバを介してデータをやり取りする場合には、このサーバに撮影データ151及び参照テーブル152が蓄積されていてもよい。この場合、表示端末10は、このサーバから撮影データ151を取得したり、このサーバに記憶された参照テーブル152を参照したりするとよい。
In the example illustrated in FIG. 6, in the reference table 152, “ST1” is associated with the target region and “high” is associated with the detection sensitivity. In the reference table 152, “ST2” is associated with the target area and “low” is associated with the detection sensitivity. The operation of the
In this embodiment, the detection sensitivity of the moving object detection performed by the
図7は、表示端末10の制御部11の機能構成を示す機能ブロック図である。図7に示すように、表示端末10の制御部11は、取得部111と、補正部112と、表示制御部113と、第1受付部114と、第2受付部115と、設定部116とに相当する機能を実現する。
取得部111は、通信部13により魚眼カメラ20と通信して、魚眼カメラ20の撮影画像を示す撮影データを取得する。取得部111は、例えば、ライブ動画である撮影画像を示す撮影データを取得して補正部112に供給したり、録画データとしての撮影データ151を記憶部15に記憶させたりする。
FIG. 7 is a functional block diagram illustrating a functional configuration of the
The
補正部112は、取得部111が取得した撮影データに基づいて、画像歪みを減じる歪み補正を行う。補正部112は、ここでは、リアルタイムで撮影データに基づいて歪み補正を行って、この歪み補正後の撮影データを表示制御部113に供給する。
The
表示制御部113は、表示部14における画像の表示制御を司る。表示制御部113は、例えば、取得部111が取得した撮影データ又は記憶部15に記憶された撮影データ151が示す撮影画像や、補正部112により歪み補正が行われた画像を表示面141に表示させる。また、表示制御部113は、第1受付部114や第2受付部115が受け付けた操作に応じて、表示面141に画像を表示させる。
The
第2受付部115は、撮影画像の一部を拡大した部分画像の表示を指示する操作(第2操作)を受け付ける。第2受付部115は、操作部12から操作信号を取得することにより、操作部12に対してユーザに行われた操作(例えば、接触操作)を受け付ける。表示制御部113は、部分画像の表示を指示する操作を第2受付部115が受け付けると、歪み補正後の部分画像を表示面141に表示させる。その際、補正部112は、部分画像の拡大率が高くなるほど画像歪みが少なくなるように歪み補正を行って、歪み補正後の画像データを表示制御部113に供給する。また、表示制御部113は、拡大率又は歪み補正の補正度合いが閾値レベルを超えた部分画像を表示させたときは、この部分画像をメッシュ状に区分して表示面141に表示させる。
The
第1受付部114は、表示面141に表示された歪み補正後の画像を用いて、動体検知の対象領域を指定する操作(第1操作)を受け付ける。第1受付部114は、例えば、メッシュ状に区分された部分画像の領域(以下、「メッシュ領域」という。)から、動体検知の対象領域を選択する操作と、この対象領域についての検知感度を指定する操作とをそれぞれ受け付ける。第1受付部114は、操作部12から操作信号を取得することにより、操作部12に対してユーザに行われた操作(例えば、接触操作)を受け付ける。表示制御部113は、第1受付部114が受け付けた操作により対象領域が指定されると、指定された対象領域と検知感度とを明示した撮影画像を表示面141に表示させる。
The first accepting
設定部116は、第1受付部114が受け付けた操作で指定された対象領域と検知感度とに応じて参照テーブル152を更新することにより、魚眼カメラ20で行われる動体検知の設定を行う。また、設定部116は、参照テーブル152で対応付けられた対象領域と検知感度とに基づいて動体検知を行うよう、通信部13により魚眼カメラ20に指示する。魚眼カメラ20は、設定部116からの指示に応じた動体検知を行う。そして、魚眼カメラ20は撮影画像における対象領域から動体の存在を検知した場合には、動体の検知結果に応じた特定の処理を実行する。
The
図8は、表示端末10が動体検知の設定を行うときの手順を示すフローチャートである。図8に示す動作の前において、参照テーブル152はブランクであるものとする。
魚眼カメラ20を用いて動体検知を行おうとするユーザは、予め動体検知を行いたい空間が撮影範囲に含まるように魚眼カメラ20を設置する。ここではユーザが、図3(b)に示すように、部屋Rの天井Cに撮影方向を下向きして魚眼カメラ20を設置し、部屋R全体が撮影範囲に収まるようにしたものとする。
FIG. 8 is a flowchart illustrating a procedure when the
A user who wants to detect a moving object using the
表示端末10の制御部11は、操作部12の操作により動体検知の設定を行うことがユーザに指示されると、まず、魚眼カメラ20から通信部13により取得した撮影データが示す撮影画像(ここでは、撮影範囲全体を示す全体画像)を、表示面141に表示させる(ステップS1)。ここでは、制御部11は、図4に示す撮影画像100を表示面141に表示させる。
なお、制御部11は、撮影データに基づいて動画を表示させてもよいし、撮影データに基づいてフレーム処理を行って静止画データを生成して、静止画である撮影画像を表示させてもよい。
When the
The
次に、制御部11は、操作部12の操作により、撮影画像100の表示変更操作を受け付けたか否かを判断する(ステップS2)。ここでは、制御部11は、表示面141上で指を払う接触操作などにより、撮影画像100のうち表示面141に表示させる画像領域を変更する操作を受け付けたか否かを判断したり、いわゆるピンチイン操作やピンチアウト操作などにより、撮影画像100の表示倍率を変更する操作を受け付けたか否かを判断したりする。
Next, the
制御部11は、表示変更操作を受け付けるまで待機し(ステップS2;NO)、表示変更操作を受け付けると(ステップS2;YES)、受け付けた表示変更操作に応じて、表示面141に撮影画像を表示させる。制御部11は、撮影画像の一部を拡大した部分画像を表示する表示変更操作を受け付けた場合には、その拡大率が高いほど画像歪みを少なくする歪み補正を撮影データに基づいて行い、表示面141に部分画像を表示させる(ステップS3)。制御部11は、画像歪みを減じるための周知の変換アルゴリズムに従って、撮影画像の画像歪みを減じるための画像処理を行う。図4に示すドアD付近の範囲V11を拡大表示する表示変更操作がユーザに行われていた場合、制御部11は、図9(a)に示す部分画像110を表示面141に表示させる。部分画像110は、撮影画像100に比べると画像歪みが少ない部分画像である。
The
次に、制御部11は、表示面141の部分画像を最高の拡大率で表示させているか否かを判断する(ステップS4)。ここでは、制御部11は、このステップS4の処理では「NO」と判断し、ステップS2の処理に戻る。
次に、ステップS2の処理で、制御部11は、部分画像110をさらに拡大表示する表示変更操作を受け付けると(ステップS2;YES)、図9(b)に示す部分画像120を表示面141に表示させる(ステップS3)。部分画像120は、部分画像110に含まれていた画像歪みを更に減じる歪み補正が行われた画像である。また、部分画像120は、最高の拡大率の部分画像である。
以上のステップS2からS4の処理ステップからも分かるように、制御部11は、撮影画像を徐々に拡大する表示変更操作が行われると、部分画像を拡大するとともに、部分画像を徐々に平面画像に近づけるように歪み補正を行うこととなる。
Next, the
Next, in step S2, when the
As can be seen from the above processing steps S2 to S4, the
そして、制御部11は、ステップS4の処理で表示面141の部分画像を最高の拡大率で表示させていると判断し(ステップS4;YES)、ステップS5の処理に進む。次に、制御部11は、表示面141に表示中の部分画像をメッシュ状に複数領域に区分して、表示面141に表示させる(ステップS5)。ここでは、制御部11は、図9(c)に示すように、部分画像120を10×10(計100個)の正方形のメッシュ領域Mに区分して、表示面141に部分画像120aを表示させる。メッシュ領域Mは、動体検知の対象領域をユーザが指定するために、ユーザが操作部12への操作(例えば接触操作)により選択可能な領域である。すなわち、ユーザは、メッシュ領域M単位で、動体検知の対象領域を指定可能である。図9及び他の図面において、メッシュ領域M同士の境界を実線で示しているが、制御部11が表示面141にこの境界を意味する線を表示させることで、ユーザはメッシュ領域Mに位置や範囲を把握することができる。
なお、部分画像を区分するメッシュ領域の数はあくまで一例であり、制御部11はメッシュ領域の区分数を10×10以外にしてもよい。
Then, the
Note that the number of mesh regions into which the partial image is divided is merely an example, and the
次に、制御部11は、メッシュ領域Mから対象領域を選択する選択操作を、操作部12により受け付けたか否かを判断する(ステップS6)。ここで制御部11は、図9(d)に示すように、メッシュ領域Mに指Fを触れさせることでいずれかのメッシュ領域Mの選択操作を受け付けると、このメッシュ領域Mを対象領域ST1とする。そして、制御部11は、この対象領域ST1を明示した部分画像120bを表示面141に表示させる(ステップS7)。ここでは、制御部11は、対象領域ST1について、元画像に所定の色(例えば、薄い青色)のマスクを施すなどして、ユーザが他のメッシュ領域Mとの見分けがつくように対象領域ST1を明示する。そして、制御部11は、ユーザに指定された対象領域ST1に応じて参照テーブル152を更新することにより、動体検知の設定を行う(ステップS8)。その際、ユーザは予め検知感度を指定してメッシュ領域Mから対象領域を選択しているものとし、ここでは検知感度として「高」が指定されていたものとする。この場合、制御部11は、対象領域として「ST1」と、検知感度として「高」とを対応付けて参照テーブル152に書き込む。
なお、図9及びその他の図面で、検知感度が「高」の対象領域を格子模様で塗り潰して表す。
Next, the
Note that, in FIG. 9 and other drawings, the target area having a detection sensitivity of “high” is represented by being filled with a lattice pattern.
次に、制御部11は、対象領域の指定を終了するか否かを判断する(ステップS9)。ここでは、制御部11は、現時点の参照テーブル152に設定された内容で動体検知を行うことを確定する操作がユーザに行われたか否かを判断する。制御部11は、対象領域の指定が終了していないと判断すると(ステップS9;NO)、ステップS2で説明したような表示変更操作を、操作部12により受け付けたか否かを判断する(ステップS10)。ここで、制御部11は、表示変更操作を受け付けていないと判断すると(ステップS10;NO)、ステップS6の処理に戻る。そして、制御部11は、メッシュ領域Mを対象領域として選択する選択操作を操作部12により受け付けたか否かを判断する。
Next, the
以降も、制御部11は、ステップS6からS10の処理ステップを実行して、動体検知の対象領域の選択操作を受け付けるとともに(ステップS6)、受け付けた操作に応じて、対象領域を明示するとともに、参照テーブル152を更新して動体検知の設定を行う(ステップS7,S8)。ここで、ドアD及びドアD付近が対象領域としてユーザに指定されたとすると、制御部11は、図9(e)に示すように対象領域ST1を明示した部分画像120cを表示面141に表示させる。
Thereafter, the
次に、制御部11が、対象領域の指定が終了していないと判断し(ステップS9;NO)、表示変更操作を操作部12により受け付けたと判断すると(ステップS10;YES)、ステップS3の処理に戻る。そして、上記ステップS3の処理と同様に、制御部11は、部分画像を表示するための表示変更操作を受け付けると、その拡大率が高いほど画像歪みを少なくする歪み補正を行って、表示面141に部分画像を表示させる(ステップS2,S3)。ここで、図5に示す窓W3付近の範囲V12を表示させることがユーザに指示されたとする。この場合、制御部11は、図10(a)に示す部分画像130を表示面141に表示させる。部分画像130は、最高の拡大率の部分画像であり、画像歪みが最も少ない部分画像である。
Next, when the
この場合、制御部11は、ステップS4の処理で「YES」と判断し、上記同様にステップS5からS10の処理ステップを実行する。ここで、制御部11が、部分画像130を用いて、窓W3の一部を対象領域として指定する操作を操作部12により受け付けたとする。この場合、制御部11は、図10(b)に示す部分画像130aを表示させて、対象領域ST2を明示するとともに、参照テーブル152を更新する。ここでは、窓W3の全体が部分画像130(130a)に収まらない。この場合、ユーザは、撮影画像100のうち表示面141での表示領域を操作部12の操作により変更する表示変更操作を行う。制御部11は、この表示変更操作に応じて表示領域を変更しつつ、メッシュ領域Mから対象領域を選択する選択操作を操作部12により受け付ける。ここでは、制御部11は、図10(c)に示す部分画像130bや、図10(d)に示す部分画像130cを、ユーザの表示変更操作及び対象領域ST2の選択操作に応じて、表示面141に表示させることとなる。
In this case, the
なお、対象領域ST2の検知感度は、ユーザにより「低」と指定されたとする。図10及びその他の図面で、検知感度が低い対象領域を右上がりの斜線で塗り潰して表す。
また、ユーザは、窓W3については異常がなくとも屋外の明るさによって画像に変化が現れやすいので、誤検知を抑えるために検知感度を「低」と指定したものとする。一方、ドアDについては明るさによって画像に変化が現れることは少ないので、検知感度を「高」と指定したものとする。
以上のように表示端末10が動体検知の設定を行うことにより、参照テーブル152は図6に示す内容となる。本実施形態では、表示端末10は、連続したメッシュ領域Mで構成され、且つ、同一の検知感度が指定された対象領域を、1つの対象領域として参照テーブル152でデータを管理している。ただし、表示端末10は、メッシュ領域Mごとに異なる対象領域としてデータを管理してもよく、参照テーブル152でのデータの管理方法には種々の変形が可能である。
It is assumed that the detection sensitivity of the target area ST2 is designated as “low” by the user. In FIG. 10 and other drawings, the target area with low detection sensitivity is represented by being filled with a diagonal line rising to the right.
In addition, even if there is no abnormality in the window W3, the user is likely to change the image depending on the outdoor brightness. Therefore, it is assumed that the detection sensitivity is designated as “low” in order to suppress erroneous detection. On the other hand, since there is little change in the image due to the brightness of the door D, it is assumed that the detection sensitivity is designated as “high”.
As described above, when the
そして、制御部11は、ステップS9の処理で、対象領域の指定が終了したと判断したとすると(ステップS9;YES)、ステップS11の処理に進む。そして、制御部11は、ユーザにより指定された対象領域を明示した撮影画像100aを、撮影データに基づいて表示面141に表示させる。ここでは制御部11は、図11に示すように、ステップS1の処理で表示させた撮影画像に所定のマスクを施すなどして対象領域ST1,ST2を明示した撮影画像100aを、表示面141に表示させる。撮影画像100aを視認したユーザは、撮影範囲全体を俯瞰した内容の撮影画像から、自身が指定した対象領域ST1,ST2の位置が撮影範囲におけるどの位置かを直ちに把握することができる。
If the
そして、制御部11は、動体検知を開始することが操作部12によりユーザに指示されると、参照テーブル152に書き込まれたデータに従って動体検知を行うよう、通信部13により魚眼カメラ20に指示して、魚眼カメラ20に動体検知を開始させる(ステップS12)。この動体検知の開始指示に応じて、魚眼カメラ20の制御部21は、表示端末10による設定に従って動体検知を行う。ここでは、制御部21は、撮影部24から取得した撮影データに基づき、対象領域として「ST1」については、検知感度を「高」として動体検知を行い、対象領域として「ST2」については、検知感度を「低」として動体検知を行う。制御部21は、例えば、フレーム間差分法や背景差分法などの所定の動体検知アルゴリズムに従って、動体検知を行う。具体的に、制御部21は、例えば、撮影データに対しフレーム処理を行って得た撮影画像を時系列順に比較して動体検知を行う。その際、制御部21、検知感度に応じて、例えば、検知感度が高いほどフレーム処理により得る画像の数を増やしたり、動体が存在すると判断する画像変化(例えば輝度変化)の閾値を低くしたりして、検知感度に応じた動体検知を行うとよい。そして、制御部21は、動体検知の検知結果を、通信部23により表示端末10に通知する。表示端末10の制御部11は、通信部13により魚眼カメラ20から動体検知の検知結果を受信すると、表示面141への表示や音声により検知結果をユーザに報知したり、検知結果を示すデータを記憶部15に書き込んだりする。
When the
以上説明した実施形態のとおり、表示端末10は、魚眼カメラ20の撮影画像から対象領域を指定する操作をユーザに行わせる場合に、画像歪みを減らす歪み補正を行った部分画像を表示面141に表示させる。これにより、ユーザにしてみれば、撮影画像中の監視場所(ここでは部屋R)の見え方と、実際の監視場所の見え方との乖離が小さくなるので、所望する対象領域を的確に指定するための操作負担が減る。
また、表示端末10は、部分画像を表示させるときにその拡大率が高いほど、部分画像を平面画像に近づけるように歪み補正を行い、最高の拡大率で部分画像を表示させたときに、この部分画像を複数のメッシュ領域Mに区分する。これにより、ユーザは、最高の拡大率まで拡大表示された部分画像を見て、対象領域を細部まで詳細に指定することができる。また、ユーザは、メッシュ領域Mの選択操作により、表示端末10に対し対象領域を指定することができるので、ユーザが行うべき操作は簡単である。よって、表示端末10によれば、所望する対象領域を的確に指定するための操作負担が更に減る。
また、表示端末10によれば、ユーザは対象領域(メッシュ領域M)ごとに検知感度を指定することができるので、監視場所や監視目的に適した検知感度を指定するためのユーザの操作負担も少ない。
As described above, when the
In addition, when the
Moreover, according to the
[変形例]
本発明は、上述した実施形態と異なる形態で実施することが可能である。本発明は、例えば、以下のような形態で実施することも可能である。また、以下に示す変形例は、各々を適宜に組み合わせてもよい。
(変形例1)
表示端末10は、対象領域とともに、対象領域について動体検知を行う時間帯を指定する操作を受け付けて、指定された時間帯を設定して、魚眼カメラ20に動体検知を行わせてもよい。この場合、表示端末10は、上述した実施形態で説明した参照テーブル152に代えて、参照テーブル152aを参照して魚眼カメラ20に動体検知を行わせる。
[Modification]
The present invention can be implemented in a form different from the above-described embodiment. The present invention can also be implemented in the following forms, for example. Further, the following modifications may be combined as appropriate.
(Modification 1)
The
図12は、参照テーブル152aのデータ構造を示す図である。図12に示すように、参照テーブル152aは、「対象領域」と「検知感度」と「検知時間帯」いう各情報を対応付けたデータテーブルである。「対象領域」と「検知感度」とは、上述した実施形態と同じ情報であり、ここではその説明を省略する。「検知時間帯」は、動体検知を行う時刻を示す情報であり、ユーザによって指定される。図12に示す例では、ドアD付近に位置する対象領域ST1については、ユーザが部屋Rを不在にする時間帯である「9:00〜20:00」が検知時間帯として指定されている。一方で、窓W3に位置する対象領域ST1については、検知時間帯が指定されておらず、参照テーブル152aではブランクである。 FIG. 12 shows the data structure of the reference table 152a. As shown in FIG. 12, the reference table 152a is a data table in which pieces of information of “target region”, “detection sensitivity”, and “detection time zone” are associated with each other. The “target region” and “detection sensitivity” are the same information as in the above-described embodiment, and the description thereof is omitted here. The “detection time zone” is information indicating the time at which moving object detection is performed, and is specified by the user. In the example illustrated in FIG. 12, for the target region ST1 located near the door D, “9:00:00 to 20:00”, which is a time zone in which the user is absent from the room R, is designated as the detection time zone. On the other hand, for the target area ST1 located in the window W3, the detection time zone is not specified and is blank in the reference table 152a.
この変形例の表示端末10の動作は、基本的には図8と同じ手順で動作すればよく、実施形態との相違点をここでは説明する。
ステップS6の処理では、表示端末10は、対象領域及び検知感度とともに、この対象領域の導体検知を行う時刻(検知時間帯)を指定する操作も受け付ける。
ステップS11の処理で、表示端末10は、対象領域を明示した撮影画像を表示させるときには、各時刻において検知対象となる対象領域を明示した撮影画像を表示させる。例えば、ユーザにより、9:00〜20:00の時刻を指定して対象領域を明示することが指示されると、表示端末10は、図13(a)に示すように対象領域ST1及びST2を明示した撮影画像100aを表示面141に表示させる。一方で、ユーザにより、9:00〜20:00以外の時刻を指定して対象領域を明示することが指示されると、表示端末10は、図13(b)に示すように対象領域ST2を明示した撮影画像100bを表示面141に表示させる。
The operation of the
In the process of step S6, the
In the process of step S <b> 11, when displaying the captured image specifying the target area, the
ステップS12の処理では、表示端末10は、参照テーブル152aに基づいて、検知時間帯が指定されている場合には、現在時刻が検知時間帯に含まれる期間においてのみ動体検知を行うよう魚眼カメラ20に指示する。ここでは、表示端末10は、9:00〜20:00の間の時刻では、対象領域ST1及びST2について動体検知を行うよう指示する。一方で、9:00〜20:00以外の時刻では対象領域ST1については動体検知を行わず、対象領域ST2についての動体検知を行うよう指示する。
In the process of step S12, when the detection time zone is specified based on the reference table 152a, the
この変形例の表示端末10によれば、動体検知の対象領域をユーザが的確に指定しやすくなるだけでなく、ユーザは動体検知を行う時刻を対象領域ごとに指定することができる。よって、同じ監視場所に、検知時間帯がそれぞれ異なる複数の対象領域があった場合にも、表示端末10によれば、対象領域ごとに検知時間帯を設定することができる。例えば、オフォスや会議室などでは勤務時間帯においては動体検知せずに、勤務時間外においては動体検知を行うといったことも考えられるが、ユーザが表示端末10に対して動体検知の設定を事前に行っておけば、表示端末10は対象領域ごとに適切な時刻に動体検知を行うよう設定することができる。
According to the
(変形例2)
上述した実施形態では、表示端末10は、ユーザに検知感度を指定させていたが、撮影画像における対象領域の位置に応じて、表示端末10が検知感度を自動設定してもよい。前述したように、魚眼カメラ20の撮影画像では、中心寄りに位置する被写体ほど画像歪みが少なく、撮影画像100の長径方向及び短径方向のそれぞれにおいて比較的大きなサイズで撮影される。一方で、撮影画像100の外縁寄りに位置する被写体ほど、撮影範囲の長径方向には歪みによって大きなサイズで撮影される一方、短径方向には歪みによって小さなサイズで撮影されることとなる。
(Modification 2)
In the embodiment described above, the
そこで、表示端末10は、図14(a)に示すように、画像歪みの発生度合いが小さい中心寄りに位置する楕円状の範囲A1では、検知感度を「高」に設定する。外縁寄りに位置する範囲A2,A3では、長径方向には画像歪みによって大きなサイズで被写体が撮影されることから、僅かな画像の動きでも検知が容易になるので、表示端末10は検知感度を「低」に設定する。そして、外縁寄りに位置する範囲A4,A5では、長径方向に対して被写体のサイズが縮小されるものの、短径方向に対しては被写体のサイズがある程度確保されるので、表示端末10は検知感度を「高」と「低」との中間である「中」に設定する。これ以外にも、表示端末10は、図14(b)に示すように、画像歪みの発生度合いが小さい中心寄りに位置する楕円状の範囲A6の検知感度を「高」に設定し、それ以外のドーナツ状の範囲A7の検知感度を「低」に設定してもよい。
Therefore, as shown in FIG. 14A, the
このように表示端末10は、魚眼カメラ20から取得した撮影データが示す元の撮影画像において、画像歪みの発生による被写体のサイズ拡大の度合いが大きい領域ほど検知感度を低くする。反対に、表示端末10は、元の撮影画像において、画像歪みの発生による被写体のサイズの拡大の度合いが少ない領域ほど検知感度を高くする。一例として、表示端末10は、魚眼カメラ20から取得した撮影データが示す撮影画像において、元の撮影画像でのサイズ(例えば、面積や所定方向の長さ)の方が平面画像でのサイズよりも大きい領域では、検知感度を低く設定し、平面画像でのサイズの方が元の撮影画像でのサイズよりも大きい領域については、検知感度をそれよりも高く設定する。
As described above, the
また、表示端末10は、ユーザが事前に検知感度を指定した場合に、元の撮影画像における画像歪みの発生度合いに応じた検知感度を自動設定してもよい。例えば、表示端末10は、検知感度を複数段階から指定可能である場合に、画像歪みの発生による被写体のサイズ拡大の度合いが大きい領域では、ユーザが指定した検知感度を低くする方向に補正する。また、例えば、表示端末10は、画像歪みの発生による被写体のサイズ拡大の度合いが小さい領域では、ユーザが指定した検知感度を高くする方向に補正する。
この変形例の表示端末10によれば、ユーザによる検知感度の指定の仕方によらないで、撮影画像における画像歪みの発生度合いに応じて適切な検知感度を設定することが可能である。また、表示端末10における前述した検知感度の自動設定の方法は、あくまで一例であり、撮影レンズの種類や撮影画像に含まれる画像歪みの発生度合いに応じて適切に設定されればよい。
Further, the
According to the
(変形例3)
上述した実施形態においては、魚眼カメラ20は魚眼レンズ241を用いて楕円形の撮影範囲を撮影していたが、この撮影範囲は円形などの他の形状であってもよい。これにより、魚眼カメラ20の撮影画像も、画像領域が楕円形でなく円形などの他の形状であってもよい。
(Modification 3)
In the above-described embodiment, the
(変形例4)
表示端末10は、ステップS10の処理において、対象領域が表示面141の予め決められた位置に表示されるように、対象領域を明示した撮影画像を表示させてもよい。ユーザが対象領域の位置を確認したい場合に、表示面141上の特定位置に対象領域が表示されていれば、対象領域の位置の把握がユーザにとって容易になるからである。
例えば、図15(a)に示すように、撮影画像100aの上側の領域に対象領域STが指定されたのに対し、撮影画像の下側の領域に対象領域を表示させることが表示端末10に指定されていたとする。この場合、表示端末10は、撮影画像100aを180度回転させた撮影画像100cを表示面141に表示させて、撮影画像の下側の領域に対象領域STを表示させてもよい。また、対象領域が他の位置に表示された場合でも、表示端末10は、撮影画像の回転処理などを用いて、対象領域を表示面141上の特定位置に表示させてもよい。また、変形例3で説明したように撮影範囲が円形の魚眼カメラを用いた場合に、図15(b)に示すように撮影画像200が円形であるときには、制御部11は対象領域STが特定位置に表示されるように(ここでは撮影画像の下側の領域)、撮影画像200を所定の角度だけ回転させて、撮影画像200bを表示させるとよい。
(Modification 4)
In the process of step S10, the
For example, as shown in FIG. 15A, the target area ST is specified in the upper area of the photographed
(変形例5)
上述した実施形態では、表示端末10は、最高の拡大率で部分画像を表示させるときには、画像歪みを最少とした部分画像を表示させていた。これに対し、表示端末10は、最高の拡大率未満でも、画像歪みを一定レベル未満まで小さくすることができるのであれば、最高の拡大率未満のときに表示させた部分画像をメッシュ領域Mに区分して、対象領域を指定可能にしてもよい。また、表示端末10は、画像歪みを最少とした部分画像の表示時にメッシュ領域Mに区分するのではなく、画像歪みがそれよりも大きい撮影画像を複数のメッシュ領域Mに区分して、対象領域を指定可能にしてもよい。すなわち、表示端末10は、元の撮影画像よりも画像歪みを少なくした部分画像を表示するときに、拡大率又は歪み補正の補正度合いが閾値レベルを超えたことを条件として、この部分画像をメッシュ領域Mに区分して表示させればよい。この表示端末10によれば、元の撮影画像をそのまま用いてユーザが対象領域を指定する場合に比べて、ユーザの対象領域の指定に係る操作負担を減らすことができる。
(Modification 5)
In the embodiment described above, the
(変形例6)
また、表示端末10は、対象領域を所定の色のマスクにより明示する代わりに、対象領域の位置に「対象領域」などの特定の文字列を付してもよいし、マークなどの所定の画像を対象領域の位置に付してもよい。ユーザが対象領域を把握できるのであれば、表示端末10が行う対象領域の明示方法は特に問わない。
(Modification 6)
The
(変形例7)
上述した実施形態において、表示端末10は、メッシュ領域Mが正方形になるように部分画像を区分していたが、部分画像の区分の仕方はこれに限らない。表示端末10は、例えば、メッシュ領域を矩形や円形、他の多角形など、他の形状となるように区分してもよい。
また、表示端末10は、部分画像をメッシュ領域Mに区分する構成を有していなくてもよい。表示端末10は、例えば、画像歪みを減らすように歪み補正した撮影データを画像解析して、窓やドアといったオブジェクトを抽出し、抽出したオブジェクト単位でユーザが対象領域を指定できるようにしてもよい。この構成であれば、表示端末10は、部分画像を表示させなくとも、対象領域の指定に関してユーザの操作負担を減らすことができると考えられる。
(Modification 7)
In the embodiment described above, the
Further, the
(変形例8)
また、表示端末10が受け付ける操作は、タッチセンサにより検出可能な接触操作でなくてもよい。表示端末10は、例えば、近接操作により検出可能な近接操作を受け付けてもよいし、カーソル操作を受け付けてもよい。
(Modification 8)
Further, the operation received by the
(変形例9)
上述した実施形態においては、撮影装置として魚眼カメラ20を用いていたが、表示端末10は、撮影レンズに起因する画像歪みが発生する撮影装置(動画カメラ)の撮影データを用いればよく、撮影レンズの種類は特に問わない。また、魚眼カメラ20が有する魚眼レンズ241の射影方式についても、等距離射影方式や等立体角射影方式などどのような射影方式であってもよい。
魚眼カメラ20がリアルタイムで動体検知を行う代わりに、録画データに基づいて動体検知を行ってもよい。また、表示端末10は、参照テーブル152又は152aに従って、撮影データ151を用いて動体検知を行ってもよい。
また、魚眼カメラ20が設置される場所は、住宅の部屋に限らず、例えばオフィスやその会議室、店舗などの商業施設の室空間であってもよいし、魚眼カメラ20が屋外に設置されてもよい。このように魚眼カメラ20が撮影範囲とする場所はどこであってもよい。
(Modification 9)
In the above-described embodiment, the
Instead of the moving eye detection of the
Moreover, the place where the
(変形例10)
上述した実施形態において、表示端末10の制御部11が実現する各機能は、複数のプログラムの組み合わせによって実現され、又は、複数のハードウェア資源の協働によって実現されうる。
また、本発明の表示端末は、コンピュータや制御部11が実行するプログラムや動体検知の対象領域の設定方法として把握することも可能である。
(Modification 10)
In the embodiment described above, each function realized by the
The display terminal of the present invention can also be understood as a program executed by the computer or the
10…表示端末、11…制御部、111…取得部、112…補正部、113…表示制御部、114…第1受付部、115…第2受付部、116…設定部、12…操作部、13…通信部、14…表示部、141…表示面、15…記憶部、151…撮影データ、152,152a…参照テーブル、20…魚眼カメラ、21…制御部、22…操作部、23…通信部、24…撮影部、241…魚眼レンズ、25…記憶部
DESCRIPTION OF
Claims (10)
動画カメラから、当該動画カメラの撮影レンズに起因する画像歪みを含む撮影画像を示す撮影データを取得する取得部と、
前記取得部が取得した撮影データに基づいて、前記画像歪みを減じる歪み補正を行う補正部と、
前記補正部により前記歪み補正が行われた画像を、前記表示面に表示させる表示制御部と、
前記表示面に表示された前記歪み補正が行われた画像を用いて、動体検知の対象領域を指定する第1操作を受け付ける第1受付部と、
前記第1受付部が受け付けた操作により指定された前記対象領域の動体検知を行うよう、前記動体検知の設定を行う設定部と
を備える表示端末。 A display unit for displaying an image on the display surface;
An acquisition unit that acquires shooting data indicating a shot image including image distortion caused by a shooting lens of the movie camera from the movie camera;
A correction unit that performs distortion correction to reduce the image distortion based on the shooting data acquired by the acquisition unit;
A display control unit for displaying the image on which the distortion correction has been performed by the correction unit on the display surface;
A first accepting unit that accepts a first operation for designating a target area for motion detection using the distortion-corrected image displayed on the display surface;
A display terminal comprising: a setting unit configured to set the moving object detection so as to perform the moving object detection of the target area specified by the operation received by the first receiving unit.
前記表示制御部は、
前記第2操作が受け付けられると、前記歪み補正後の前記部分画像を複数領域に区分して前記表示面に表示させ、
前記第1受付部は、
前記複数領域から前記対象領域を選択する操作を前記第1操作として受け付ける
請求項1に記載の表示端末。 A second receiving unit that receives a second operation for instructing display of a partial image obtained by enlarging a part of the captured image;
The display control unit
When the second operation is accepted, the partial image after the distortion correction is divided into a plurality of regions and displayed on the display surface,
The first reception unit
The display terminal according to claim 1, wherein an operation of selecting the target region from the plurality of regions is received as the first operation.
前記部分画像の拡大率が高いほど前記画像歪みを少なくするように前記歪み補正を行い、
前記表示制御部は、
前記拡大率又は前記歪み補正の補正度合いが閾値レベルを超えたときに前記部分画像を前記複数領域に区分する
請求項2に記載の表示端末。 The correction unit is
The distortion correction is performed so as to reduce the image distortion as the magnification of the partial image is higher,
The display control unit
The display terminal according to claim 2, wherein the partial image is divided into the plurality of regions when the enlargement ratio or the correction degree of the distortion correction exceeds a threshold level.
前記対象領域毎に設定した検知感度に従って前記動体検知を行う
請求項1から3のいずれか1項に記載の表示端末。 The setting unit
The display terminal according to any one of claims 1 to 3, wherein the moving object detection is performed according to a detection sensitivity set for each target region.
前記撮影画像における前記対象領域の位置又は前記画像歪みの大きさに応じて、当該対象領域の前記検知感度を設定する
請求項4に記載の表示端末。 The setting unit
The display terminal according to claim 4, wherein the detection sensitivity of the target area is set according to a position of the target area in the captured image or a magnitude of the image distortion.
前記第1受付部が前記第1操作を受け付けた後、前記対象領域を明示した前記撮影画像を表示させる
請求項1から5のいずれか1項に記載の表示端末。 The display control unit
The display terminal according to any one of claims 1 to 5, wherein after the first reception unit receives the first operation, the captured image in which the target area is clearly displayed is displayed.
前記対象領域が前記表示面の予め決められた位置に表示されるように、当該対象領域を明示した前記撮影画像を表示させる
請求項6に記載の表示端末。 The display control unit
The display terminal according to claim 6, wherein the captured image in which the target area is clearly displayed is displayed so that the target area is displayed at a predetermined position on the display surface.
前記対象領域と、当該対象領域の動体検知を行う時刻とを指定する前記第1操作を受け付け、
前記設定部は、
前記第1操作により指定された前記対象領域の動体検知を、当該第1操作により指定された時刻に行うよう設定する
請求項1から7のいずれか1項に記載の表示端末。 The first reception unit
Receiving the first operation for designating the target area and a time at which moving object detection of the target area is performed;
The setting unit
The display terminal according to claim 1, wherein the moving object detection of the target area specified by the first operation is set to be performed at a time specified by the first operation.
前記取得ステップで取得した撮影データに基づいて、前記画像歪みを減じる歪み補正を行う補正ステップと、
画像を表示する表示面に、前記補正ステップで前記歪み補正が行われた画像を表示させる表示制御ステップと、
前記表示面に表示された前記歪み補正が行われた画像を用いて、動体検知の対象領域を指定する操作を受け付ける受付ステップと、
前記取得ステップで取得した撮影データに基づいて前記受付ステップで受け付けた操作により指定された前記対象領域の動体検知を行うよう、前記動体検知の設定を行う設定ステップと
を有する動体検知の対象領域の設定方法。 An acquisition step of acquiring shooting data indicating a shot image including image distortion caused by a shooting lens of the movie camera from the movie camera;
A correction step for performing distortion correction to reduce the image distortion based on the shooting data acquired in the acquisition step;
A display control step for displaying the image subjected to the distortion correction in the correction step on a display surface for displaying an image;
An accepting step of accepting an operation for designating a target area for moving object detection using the distortion-corrected image displayed on the display surface;
A setting step for setting the moving object detection so as to perform the moving object detection of the target area specified by the operation received in the receiving step based on the imaging data acquired in the acquiring step. Setting method.
動画カメラから、当該動画カメラの撮影レンズに起因する画像歪みを含む撮影画像を示す撮影データを取得する取得ステップと、
前記取得ステップで取得した撮影データに基づいて、前記画像歪みを減じる歪み補正を行う補正ステップと、
前記補正ステップで前記歪み補正が行われた画像を、前記表示面に表示させる表示制御ステップと、
前記表示面に表示された前記歪み補正が行われた画像を用いて、動体検知の対象領域を指定する操作を受け付ける受付ステップと、
前記取得ステップで取得した撮影データに基づいて前記受付ステップで受け付けた操作により指定された前記対象領域の動体検知を行うよう、前記動体検知の設定を行う設定ステップと
を実行させるためのプログラム。 In the computer of the display terminal that displays the image on the display surface,
An acquisition step of acquiring shooting data indicating a shot image including image distortion caused by a shooting lens of the movie camera from the movie camera;
A correction step for performing distortion correction to reduce the image distortion based on the shooting data acquired in the acquisition step;
A display control step for displaying the image subjected to the distortion correction in the correction step on the display surface;
An accepting step of accepting an operation for designating a target area for moving object detection using the distortion-corrected image displayed on the display surface;
A program for executing a setting step for setting the moving object detection so as to perform the moving object detection of the target area specified by the operation received in the receiving step based on the imaging data acquired in the acquiring step.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012183493A JP2014042160A (en) | 2012-08-22 | 2012-08-22 | Display terminal, setting method of target area of moving body detection and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012183493A JP2014042160A (en) | 2012-08-22 | 2012-08-22 | Display terminal, setting method of target area of moving body detection and program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2014042160A true JP2014042160A (en) | 2014-03-06 |
Family
ID=50394088
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2012183493A Pending JP2014042160A (en) | 2012-08-22 | 2012-08-22 | Display terminal, setting method of target area of moving body detection and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2014042160A (en) |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016039539A (en) * | 2014-08-08 | 2016-03-22 | キヤノン株式会社 | Image processing system, image processing method, and program |
JP2016187162A (en) * | 2015-03-27 | 2016-10-27 | キヤノン株式会社 | Information processing device, information processing method, and program |
JP2016208321A (en) * | 2015-04-23 | 2016-12-08 | キヤノン株式会社 | Image processor, image processing system, image processing method, and program |
CN107122770A (en) * | 2017-06-13 | 2017-09-01 | 驭势(上海)汽车科技有限公司 | Many mesh camera systems, intelligent driving system, automobile, method and storage medium |
US11042970B2 (en) | 2016-08-24 | 2021-06-22 | Hanwha Techwin Co., Ltd. | Image providing device, method, and computer program |
CN113516071A (en) * | 2021-07-08 | 2021-10-19 | 深圳喜为智慧科技有限公司 | Weight estimation method for pigs |
US11190747B2 (en) | 2017-05-25 | 2021-11-30 | Canon Kabushiki Kaisha | Display control apparatus, display control method, and storage medium |
JP2022075745A (en) * | 2017-08-29 | 2022-05-18 | パナソニックIpマネジメント株式会社 | Object detection system, program, and object detection method |
US20220172374A1 (en) * | 2019-03-11 | 2022-06-02 | Omron Corporation | Object tracking device and object tracking method |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004064535A (en) * | 2002-07-30 | 2004-02-26 | Mitsumi Electric Co Ltd | Camera module, portable terminal, photographing method and its program |
US7366359B1 (en) * | 2004-07-08 | 2008-04-29 | Grandeye, Ltd. | Image processing of regions in a wide angle video camera |
JP2010219581A (en) * | 2009-03-13 | 2010-09-30 | Panasonic Corp | Image communication system |
-
2012
- 2012-08-22 JP JP2012183493A patent/JP2014042160A/en active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004064535A (en) * | 2002-07-30 | 2004-02-26 | Mitsumi Electric Co Ltd | Camera module, portable terminal, photographing method and its program |
US7366359B1 (en) * | 2004-07-08 | 2008-04-29 | Grandeye, Ltd. | Image processing of regions in a wide angle video camera |
JP2010219581A (en) * | 2009-03-13 | 2010-09-30 | Panasonic Corp | Image communication system |
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016039539A (en) * | 2014-08-08 | 2016-03-22 | キヤノン株式会社 | Image processing system, image processing method, and program |
JP2016187162A (en) * | 2015-03-27 | 2016-10-27 | キヤノン株式会社 | Information processing device, information processing method, and program |
JP2016208321A (en) * | 2015-04-23 | 2016-12-08 | キヤノン株式会社 | Image processor, image processing system, image processing method, and program |
US11042970B2 (en) | 2016-08-24 | 2021-06-22 | Hanwha Techwin Co., Ltd. | Image providing device, method, and computer program |
US11190747B2 (en) | 2017-05-25 | 2021-11-30 | Canon Kabushiki Kaisha | Display control apparatus, display control method, and storage medium |
CN107122770A (en) * | 2017-06-13 | 2017-09-01 | 驭势(上海)汽车科技有限公司 | Many mesh camera systems, intelligent driving system, automobile, method and storage medium |
CN107122770B (en) * | 2017-06-13 | 2023-06-27 | 驭势(上海)汽车科技有限公司 | Multi-camera system, intelligent driving system, automobile, method and storage medium |
JP2022075745A (en) * | 2017-08-29 | 2022-05-18 | パナソニックIpマネジメント株式会社 | Object detection system, program, and object detection method |
US20220172374A1 (en) * | 2019-03-11 | 2022-06-02 | Omron Corporation | Object tracking device and object tracking method |
US11869199B2 (en) * | 2019-03-11 | 2024-01-09 | Omron Corporation | Object tracking device and object tracking method |
CN113516071A (en) * | 2021-07-08 | 2021-10-19 | 深圳喜为智慧科技有限公司 | Weight estimation method for pigs |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2014042160A (en) | Display terminal, setting method of target area of moving body detection and program | |
US9906762B2 (en) | Communication apparatus, method of controlling communication apparatus, non-transitory computer-readable storage medium | |
CN111107276B (en) | Information processing apparatus, control method thereof, storage medium, and imaging system | |
KR20160016068A (en) | Method for generating image and electronic device thereof | |
JP6497965B2 (en) | Image processing apparatus and image processing method | |
JP2015115839A5 (en) | ||
JP2019012881A (en) | Imaging control device and control method of the same | |
JP2017168882A (en) | Image processing apparatus, image processing method, and program | |
KR20180129667A (en) | Display control apparatus, display control method, and storage medium | |
US20230332888A1 (en) | Information processing apparatus | |
JP6544996B2 (en) | Control device and control method | |
JPWO2016174942A1 (en) | Information processing apparatus, information processing method, and program | |
JP5872415B2 (en) | Display terminal, operation reception method, and program | |
JP6374535B2 (en) | Operating device, tracking system, operating method, and program | |
JP2018005091A (en) | Display control program, display control method and display controller | |
JP6483661B2 (en) | Imaging control apparatus, imaging control method, and program | |
US11700446B2 (en) | Information processing apparatus, system, control method of information processing apparatus, and non-transitory computer-readable storage medium | |
JP2019032448A (en) | Control unit, control method, and program | |
JP2013232830A (en) | Image processing system, image processing device, image processing method, and image processing program | |
KR20170106177A (en) | Electronic device for providing panorama image and control method thereof | |
US9883103B2 (en) | Imaging control apparatus and method for generating a display image, and storage medium | |
JP7353864B2 (en) | Information processing device, control method and program for information processing device, imaging system | |
JP2020010111A (en) | Display device, imaging device, and control method, program, and imaging system for the devices | |
JP6679784B2 (en) | Image processing apparatus and image processing method | |
JP2017182843A (en) | Program, display control device, and display control method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20150216 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20151209 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20151222 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20160412 |