JP2014042160A - Display terminal, setting method of target area of moving body detection and program - Google Patents

Display terminal, setting method of target area of moving body detection and program Download PDF

Info

Publication number
JP2014042160A
JP2014042160A JP2012183493A JP2012183493A JP2014042160A JP 2014042160 A JP2014042160 A JP 2014042160A JP 2012183493 A JP2012183493 A JP 2012183493A JP 2012183493 A JP2012183493 A JP 2012183493A JP 2014042160 A JP2014042160 A JP 2014042160A
Authority
JP
Japan
Prior art keywords
image
target area
display
distortion
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2012183493A
Other languages
Japanese (ja)
Inventor
Madoka Kamikubo
円 上窪
Kazuhiro Takagi
一裕 高木
Juichi Tsuboya
寿一 坪谷
Yasuharu Fukushima
康治 福島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NTT Docomo Inc
Original Assignee
NTT Docomo Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NTT Docomo Inc filed Critical NTT Docomo Inc
Priority to JP2012183493A priority Critical patent/JP2014042160A/en
Publication of JP2014042160A publication Critical patent/JP2014042160A/en
Pending legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To reduce operation load for permitting a user to precisely designate a target area of moving body detection when a moving object is detected by using a photographed image including image distortion.SOLUTION: A display terminal acquires photographed data showing a photographed image including image distortion due to a photographic lens of a fish-eye camera. The display terminal corrects the distortion so that the image distortion becomes less as magnification of the partial image is higher when partial images 110 and 120 obtained by enlarging a part of the photographed image are displayed ((a), (b)). When the partial image 120 in which the image distortion is made the minimum by distortion correction is displayed, the display terminal divides the partial image 120 into mesh shapes and displays a partial image 120a (c). The display terminal receives a selection operation of a target area of moving body detection from a mesh area M of the partial image 120a, and displays partial images 120b and 120c showing the selected target areas ((d), (e)). The display terminal detects the moving body of the target area, which is selected by above procedures in accordance with the photographed data.

Description

本発明は、動体検知の対象領域を設定する技術に関する。   The present invention relates to a technique for setting a target area for moving object detection.

魚眼レンズなどを撮影レンズとして用いた全方位カメラを備えた監視システムが、例えば特許文献1から3に開示されている。特許文献1は、魚眼レンズを用いて撮影した歪曲円形画像を時系列順に相互に比較して動体検出処理を行い、検出動体を切り出して表示することを開示している。特許文献2は、魚眼レンズを用いて得た全方位画像を動画像メモリに時系列順に格納するとともに、動画像メモリに記録された全方位画像から、指定された記録時刻且つ指定座標の画像を切り出して、平面視展開して表示することを開示している。特許文献3は、全方位カメラで得た全方位画像を同心円状及び放射状に分割して、分割した各領域を明示するとともに、領域単位でズームカメラをズーム駆動することを開示している。   For example, Patent Documents 1 to 3 disclose a monitoring system including an omnidirectional camera using a fisheye lens or the like as a photographing lens. Patent Document 1 discloses that a moving object detection process is performed by comparing distorted circular images photographed using a fisheye lens with each other in chronological order, and the detected moving object is cut out and displayed. Patent Document 2 stores omnidirectional images obtained using a fisheye lens in a moving image memory in chronological order, and cuts out an image at a specified recording time and specified coordinates from the omnidirectional image recorded in the moving image memory. Thus, it is disclosed that the display is developed in plan view. Patent Document 3 discloses that an omnidirectional image obtained by an omnidirectional camera is divided concentrically and radially, each divided area is clearly indicated, and the zoom camera is zoom-driven in units of areas.

特開2011−61511号公報JP 2011-61511 A 特開2005−286820号公報JP 2005-286820 A 特開2003−259350号公報JP 2003-259350 A

特許文献1から3に記載の発明では、全方位カメラの撮影範囲全体、つまり、全方位画像の画像領域全体を対象として、動体の有無などを監視する。この種の監視システムでは、監視場所や監視目的などによって、撮影範囲の一部の領域(例えば、ドアや窓)を対象として監視したい場合がある。しかしながら、全方位画像などの撮影レンズに起因した画像歪みを含む撮影画像をユーザが視認して、このユーザが監視対象領域を指定する操作を行おうとしても、撮影画像中の監視場所の見え方と実際の監視場所の見え方とが相違し、所望する監視対象領域をユーザが的確に指定することは難しい。
そこで、本発明の目的は、画像歪みを含む撮影画像を用いて動体検知を行う場合に、動体検知の対象領域をユーザが的確に指定するための操作負担を減らすことである。
In the inventions described in Patent Documents 1 to 3, the presence or absence of a moving object is monitored for the entire imaging range of the omnidirectional camera, that is, the entire image area of the omnidirectional image. In this type of monitoring system, there is a case where it is desired to monitor a part of the photographing range (for example, a door or a window) depending on a monitoring place or a monitoring purpose. However, even if the user visually recognizes a captured image including image distortion caused by the imaging lens such as an omnidirectional image and performs an operation of designating a monitoring target area, how the monitored place in the captured image looks And the way the actual monitoring location is viewed are different, and it is difficult for the user to accurately specify the desired monitoring target area.
Accordingly, an object of the present invention is to reduce an operation burden for a user to accurately specify a target area for moving object detection when moving object detection is performed using a captured image including image distortion.

上述した課題を解決するため、本発明の表示端末は、表示面に画像を表示する表示部と、動画カメラから、当該動画カメラの撮影レンズに起因する画像歪みを含む撮影画像を示す撮影データを取得する取得部と、前記取得部が取得した撮影データに基づいて、前記画像歪みを減じる歪み補正を行う補正部と、前記補正部により前記歪み補正が行われた画像を、前記表示面に表示させる表示制御部と、前記表示面に表示された前記歪み補正が行われた画像を用いて、動体検知の対象領域を指定する第1操作を受け付ける第1受付部と、前記第1受付部が受け付けた操作により指定された前記対象領域の動体検知を行うよう、前記動体検知の設定を行う設定部とを備える。   In order to solve the above-described problem, a display terminal of the present invention includes a display unit that displays an image on a display surface, and shooting data indicating a shot image including an image distortion caused by a shooting lens of the movie camera from the movie camera. An acquisition unit to be acquired, a correction unit that performs distortion correction that reduces the image distortion based on shooting data acquired by the acquisition unit, and an image that has been subjected to the distortion correction by the correction unit are displayed on the display surface A first control unit that receives a first operation for designating a target region for motion detection using the display control unit that is displayed, the image that is displayed on the display surface and that is subjected to the distortion correction, and the first reception unit. A setting unit configured to set the moving object detection so as to perform the moving object detection of the target area specified by the received operation.

本発明の表示端末において、前記撮影画像の一部を拡大した部分画像の表示を指示する第2操作を受け付ける第2受付部を備え、前記表示制御部は、前記第2操作が受け付けられると、前記歪み補正後の前記部分画像を複数領域に区分して前記表示面に表示させ、前記第1受付部は、前記複数領域から前記対象領域を選択する操作を前記第1操作として受け付けるようにしてもよい。
この表示端末において、前記補正部は、前記部分画像の拡大率が高いほど前記画像歪みを少なくするように前記歪み補正を行い、前記表示制御部は、前記拡大率又は前記歪み補正の補正度合いが閾値レベルを超えたときに前記部分画像を前記複数領域に区分するようにしてもよい。
In the display terminal of the present invention, the display terminal includes a second reception unit that receives a second operation that instructs display of a partial image obtained by enlarging a part of the captured image, and the display control unit receives the second operation. The partial image after the distortion correction is divided into a plurality of areas and displayed on the display surface, and the first receiving unit receives an operation of selecting the target area from the plurality of areas as the first operation. Also good.
In this display terminal, the correction unit performs the distortion correction so that the image distortion is reduced as the enlargement ratio of the partial image is higher, and the display control unit has the enlargement ratio or the correction degree of the distortion correction. The partial image may be divided into the plurality of regions when a threshold level is exceeded.

また、本発明の表示端末において、前記設定部は、前記対象領域毎に設定した検知感度に従って前記動体検知を行うようにしてもよい。
この表示端末において、前記設定部は、前記撮影画像における前記対象領域の位置又は前記画像歪みの大きさに応じて、当該対象領域の前記検知感度を設定するようにしてもよい。
Moreover, the display terminal of this invention WHEREIN: The said setting part may be made to perform the said moving body detection according to the detection sensitivity set for every said target area | region.
In this display terminal, the setting unit may set the detection sensitivity of the target region according to the position of the target region in the captured image or the magnitude of the image distortion.

また、本発明の表示端末において、前記表示制御部は、前記第1受付部が前記第1操作を受け付けた後、前記対象領域を明示した前記撮影画像を表示させるようにしてもよい。   In the display terminal of the present invention, the display control unit may display the captured image in which the target area is clearly specified after the first reception unit receives the first operation.

また、本発明の表示端末において、前記表示制御部は、前記対象領域が前記表示面の予め決められた位置に表示されるように、当該対象領域を明示した前記撮影画像を表示させるようにしてもよい。   In the display terminal according to the present invention, the display control unit may display the captured image that clearly shows the target area so that the target area is displayed at a predetermined position on the display surface. Also good.

また、本発明の表示端末において、前記第1受付部は、前記対象領域と、当該対象領域の動体検知を行う時刻とを指定する前記第1操作を受け付け、前記設定部は、前記第1操作により指定された前記対象領域の動体検知を、当該第1操作により指定された時刻に行うよう設定するようにしてもよい。   In the display terminal of the present invention, the first reception unit receives the first operation that specifies the target region and a time at which moving object detection of the target region is performed, and the setting unit includes the first operation. It may be set so that the moving object detection of the target area designated by the above is performed at the time designated by the first operation.

本発明の動体検知の対象領域の設定方法は、動画カメラから、当該動画カメラの撮影レンズに起因する画像歪みを含む撮影画像を示す撮影データを取得する取得ステップと、前記取得ステップで取得した撮影データに基づいて、前記画像歪みを減じる歪み補正を行う補正ステップと、画像を表示する表示面に、前記補正ステップで前記歪み補正が行われた画像を表示させる表示制御ステップと、前記表示面に表示された前記歪み補正が行われた画像を用いて、動体検知の対象領域を指定する操作を受け付ける受付ステップと、前記取得ステップで取得した撮影データに基づいて前記受付ステップで受け付けた操作により指定された前記対象領域の動体検知を行うよう、前記動体検知の設定を行う設定ステップとを有する。   The moving object detection target region setting method of the present invention includes an acquisition step of acquiring shooting data indicating a shot image including image distortion caused by a shooting lens of the moving image camera from the moving image camera, and the shooting acquired in the acquisition step. Based on the data, a correction step for performing distortion correction to reduce the image distortion, a display control step for displaying the image subjected to the distortion correction in the correction step on a display surface for displaying an image, and a display surface for displaying Using the displayed image subjected to distortion correction, an accepting step for accepting an operation for designating a target area for motion detection, and an operation accepted in the accepting step based on the shooting data obtained in the obtaining step A setting step for setting the moving object detection so as to perform the moving object detection of the target area.

本発明のプログラムは、表示面に画像を表示する表示端末のコンピュータに、動画カメラから、当該動画カメラの撮影レンズに起因する画像歪みを含む撮影画像を示す撮影データを取得する取得ステップと、前記取得ステップで取得した撮影データに基づいて、前記画像歪みを減じる歪み補正を行う補正ステップと、前記補正ステップで前記歪み補正が行われた画像を、前記表示面に表示させる表示制御ステップと、前記表示面に表示された前記歪み補正が行われた画像を用いて、動体検知の対象領域を指定する操作を受け付ける受付ステップと、前記取得ステップで取得した撮影データに基づいて前記受付ステップで受け付けた操作により指定された前記対象領域の動体検知を行うよう、前記動体検知の設定を行う設定ステップ設定ステップとを実行させるためのプログラムである。   The program of the present invention obtains shooting data indicating a shot image including image distortion caused by a shooting lens of the moving image camera from a moving image camera to a computer of a display terminal that displays an image on a display surface; Based on the shooting data acquired in the acquisition step, a correction step for performing distortion correction for reducing the image distortion, a display control step for displaying the image subjected to the distortion correction in the correction step on the display surface, An accepting step for accepting an operation for designating a target area for motion detection using the image subjected to the distortion correction displayed on the display surface, and accepting the accepting step based on the imaging data obtained in the obtaining step. A setting step setting step for setting the moving object detection so that the moving object is detected in the target area specified by the operation. Is a program for executing and.

本発明によれば、画像歪みを含む撮影画像を用いて動体検知を行う場合に、動体検知の対象領域をユーザが的確に指定するための操作負担を減らすことができる。   ADVANTAGE OF THE INVENTION According to this invention, when performing a moving body detection using the picked-up image containing an image distortion, the operation burden for a user to specify the object area | region of a moving body detection exactly can be reduced.

表示端末及び魚眼カメラの外観の構成を示す図。The figure which shows the structure of the external appearance of a display terminal and a fisheye camera. 魚眼カメラのハードウェア構成を示すブロック図。The block diagram which shows the hardware constitutions of a fisheye camera. 魚眼カメラの設置態様を例示する図。The figure which illustrates the installation aspect of a fisheye camera. 魚眼カメラの撮影画像を例示する図。The figure which illustrates the picked-up image of a fisheye camera. 表示端末のハードウェア構成を示すブロック図。The block diagram which shows the hardware constitutions of a display terminal. 参照テーブルのデータ構造を示す図。The figure which shows the data structure of a reference table. 表示端末の制御部の機能構成を示す機能ブロック図。The functional block diagram which shows the function structure of the control part of a display terminal. 表示端末が対象領域を設定するときの動作手順を示すフローチャート。The flowchart which shows the operation | movement procedure when a display terminal sets an object area | region. 対象領域の指定手順を説明する図(範囲V11)。The figure explaining the designation | designated procedure of an object area | region (range V11). 対象領域の指定手順を説明する図(範囲V12)。The figure explaining the designation | designated procedure of an object area | region (range V12). 対象領域を明示した撮影画像を例示する図。The figure which illustrates the picked-up image which specified the object area | region. 参照テーブルのデータ構造を示す図(変形例1)。The figure which shows the data structure of a reference table (modification 1). 対象領域を明示した撮影画像を例示する図(変形例1)。The figure which illustrates the picked-up image which specified the object area (modification 1). 対象領域ごとの検知感度を説明する図(変形例2)。The figure explaining the detection sensitivity for every object field (modification 2). 対象領域を明示した撮影画像を例示する図(変形例4)。The figure which illustrates the picked-up image which specified the object area (modification 4).

以下、図面を参照しつつ本発明の実施形態を説明する。
図1は、表示端末10及び魚眼カメラ20の外観の構成を示す図である。
図1に示すように、表示端末10は、画像を表示する表示面141と、ユーザが指やスタイラスペンなどの指示体を表示面141に接触させて行う接触操作を検出するためのタッチセンサとを備える表示端末である。表示端末10は、ここではスマートフォンであるが、携帯電話端末やタブレット型コンピュータ、パーソナルコンピュータ、PDA(Personal Digital Assistant)などの他の表示端末であってもよい。魚眼カメラ20は、魚眼レンズ241を用いて被写体を撮影する撮影装置である。魚眼カメラ20は、撮影範囲の視野角がほぼ360度である全方位カメラなどと呼ばれ、魚眼レンズ241の向きを撮影方向として動画を撮影する動画カメラである。また、魚眼カメラ20は、魚眼レンズ241を用いて撮影した撮影画像に基づいて、動体の存在の有無を検知する動体検知を行う。
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
FIG. 1 is a diagram illustrating the external configuration of the display terminal 10 and the fisheye camera 20.
As shown in FIG. 1, the display terminal 10 includes a display surface 141 for displaying an image, a touch sensor for detecting a contact operation performed by a user touching the display surface 141 with an indicator such as a finger or a stylus pen, and the like. It is a display terminal provided with. The display terminal 10 is a smartphone here, but may be another display terminal such as a mobile phone terminal, a tablet computer, a personal computer, or a PDA (Personal Digital Assistant). The fisheye camera 20 is a photographing device that photographs a subject using a fisheye lens 241. The fisheye camera 20 is called an omnidirectional camera or the like whose viewing angle of the shooting range is approximately 360 degrees, and is a moving image camera that takes a moving image with the direction of the fisheye lens 241 as the shooting direction. In addition, the fisheye camera 20 performs moving object detection that detects the presence or absence of a moving object based on a captured image captured using the fisheye lens 241.

表示端末10と魚眼カメラ20との間に無線通信路を確立して、表示端末10と魚眼カメラ20とがこの通信路を用いて相互にデータを送受信することが可能である。これ以外にも、表示端末10と魚眼カメラ20との間に通信ケーブルなどを用いて有線の通信路を確立して、相互にデータを送受信することも可能である。
なお、表示端末10及び魚眼カメラ20は、それぞれユーザが容易に携帯することができる程度のサイズや重さである。また、表示端末10と魚眼カメラ20とは、所定のサーバ経由で相互にデータをやり取りしてもよい。
A wireless communication path is established between the display terminal 10 and the fisheye camera 20, and the display terminal 10 and the fisheye camera 20 can transmit / receive data to / from each other using this communication path. In addition to this, it is also possible to establish a wired communication path between the display terminal 10 and the fisheye camera 20 using a communication cable or the like, and to transmit / receive data to / from each other.
Note that the display terminal 10 and the fisheye camera 20 are each of a size and weight that can be easily carried by the user. Further, the display terminal 10 and the fisheye camera 20 may exchange data with each other via a predetermined server.

図2は、魚眼カメラ20のハードウェア構成を示すブロック図である。図2に示すように、魚眼カメラ20は、制御部21と、操作部22と、通信部23と、撮影部24と、記憶部25とを備える。
制御部21は、CPU(Central Processing Unit)、ROM(Read Only Memory)、及びRAM(Random Access Memory)を有するマイクロコンピュータを備える。CPUは、ROMや記憶部25に記憶されたプログラムをRAMに読み出して実行することにより、魚眼カメラ20の各部を制御する。操作部22は、ユーザに操作される操作ボタンを有し、ユーザにより行われた操作を示す操作信号を制御部21に出力する。通信部23は、無線通信路又は有線通信路を用いて表示端末10と通信するためのインタフェースである。通信部23は、例えば、撮影部24により生成された撮影データを表示端末10に宛てて送信する。
FIG. 2 is a block diagram illustrating a hardware configuration of the fisheye camera 20. As shown in FIG. 2, the fisheye camera 20 includes a control unit 21, an operation unit 22, a communication unit 23, a photographing unit 24, and a storage unit 25.
The control unit 21 includes a microcomputer having a central processing unit (CPU), a read only memory (ROM), and a random access memory (RAM). The CPU controls each unit of the fisheye camera 20 by reading the program stored in the ROM or the storage unit 25 into the RAM and executing it. The operation unit 22 has operation buttons operated by the user, and outputs an operation signal indicating an operation performed by the user to the control unit 21. The communication unit 23 is an interface for communicating with the display terminal 10 using a wireless communication path or a wired communication path. For example, the communication unit 23 transmits the shooting data generated by the shooting unit 24 to the display terminal 10.

撮影部24は、魚眼レンズ241、撮像素子及び信号処理回路を備え、撮影画像を示す撮影データを生成して制御部21に出力する。具体的に、撮影部24は、魚眼レンズ241を用いて撮像素子の位置に結像する。撮像素子は、例えばCCD(Charge Coupled Device)を有し、結像された光を受光して、その光に応じた画像信号を生成する。撮像素子は、例えば、R(レッド)、G(グリーン)、B(ブルー)の3色にて撮像する撮像素子であり、R、G及びBの3色にて被写体像を表すアナログ形式の画像信号を生成する。信号処理回路は、撮像素子により生成された画像信号に対してA(アナログ)/D(デジタル)変換などの信号処理を施して、撮影データを生成する。
なお、本実施形態において、撮影部24が生成する撮影データに含まれる色成分や各色成分の階調数などはいかようであってもよい。
The imaging unit 24 includes a fisheye lens 241, an imaging element, and a signal processing circuit, generates imaging data indicating a captured image, and outputs the imaging data to the control unit 21. Specifically, the photographing unit 24 forms an image at the position of the image sensor using the fisheye lens 241. The imaging element has, for example, a CCD (Charge Coupled Device), receives the imaged light, and generates an image signal corresponding to the light. The image sensor is an image sensor that images, for example, three colors of R (red), G (green), and B (blue), and an analog image that represents a subject image with the three colors of R, G, and B. Generate a signal. The signal processing circuit performs signal processing such as A (analog) / D (digital) conversion on the image signal generated by the image sensor to generate shooting data.
In the present embodiment, the color components included in the shooting data generated by the shooting unit 24, the number of gradations of each color component, and the like may be arbitrary.

記憶部25は、EEPROM(Electronically Erasable and Programmable ROM)で例示される内部記憶装置を備え、制御部21により実行されるプログラムや撮影部24により撮影された撮影画像を示す撮影データなどを記憶する。記憶部25は、制御部21により実行されるプログラムのひとつとして、撮影部24により生成された撮影データに基づいて動体検知を行うためのプログラムを記憶する。記憶部25は、魚眼カメラ20に着脱可能なSDカードなどの外部記憶装置を含むこともあり、この外部記憶装置に撮影データなどのデータを記憶することも可能である。   The storage unit 25 includes an internal storage device exemplified by an EEPROM (Electronically Erasable and Programmable ROM), and stores a program executed by the control unit 21, shooting data indicating a shot image shot by the shooting unit 24, and the like. The storage unit 25 stores a program for performing moving body detection based on the shooting data generated by the shooting unit 24 as one of the programs executed by the control unit 21. The storage unit 25 may include an external storage device such as an SD card that can be attached to and detached from the fisheye camera 20, and data such as shooting data can be stored in the external storage device.

図3は、魚眼カメラ20が住宅の部屋Rに設置されたときの設置態様を説明する図である。図3(a)は、部屋Rを上方から見た様子を表す図である。図3(a)に示すように、部屋Rの中央付近にはテーブルTが設置され、テーブルTをそれぞれ異なる方向から囲むように、ソファーSF1〜SF3が設置されている。また、部屋RのソファーSF1,SF2付近には植物Pが置かれている。そして、部屋Rの壁部には、窓W1〜W3やドアDが設けられている。図3(b)に示すように、部屋Rの天井Cには、魚眼レンズ241を鉛直下方向に向けて魚眼カメラ20が設置されている。魚眼カメラ20は、例えば、部屋Rの窓W1〜W3やドアDを含めた室空間全体を撮影範囲に収めて、撮影することができる。魚眼カメラ20は、魚眼カメラ20に設けられた固定具によりその姿勢や設置位置が固定されていてもよいし、別途用意した固定具により固定されていてもよい。
魚眼カメラ20が魚眼レンズ241を用いて撮影することにより、標準レンズなどを撮影レンズとして用いた場合に比べて、撮影範囲を広範囲にすることができる。その一方で、魚眼カメラ20の撮影画像では、魚眼レンズ241を用いたことによる画像歪みが撮影範囲に含まれる。これにより、ユーザが部屋Rを直に見た場合と、魚眼カメラ20で撮影した撮影画像中の部屋Rを見た場合とでは、部屋Rの見え方が大きく異なる。
FIG. 3 is a diagram for explaining an installation mode when the fisheye camera 20 is installed in a room R of a house. FIG. 3A is a diagram illustrating a state in which the room R is viewed from above. As shown in FIG. 3A, a table T is installed near the center of the room R, and sofas SF1 to SF3 are installed so as to surround the table T from different directions. A plant P is placed near the sofas SF1 and SF2 in the room R. The walls of the room R are provided with windows W1 to W3 and a door D. As shown in FIG. 3B, the fisheye camera 20 is installed on the ceiling C of the room R with the fisheye lens 241 facing vertically downward. For example, the fisheye camera 20 can shoot the entire room space including the windows W1 to W3 and the door D of the room R within the shooting range. The fisheye camera 20 may be fixed in its posture and installation position by a fixture provided in the fisheye camera 20, or may be fixed by a separately prepared fixture.
When the fisheye camera 20 captures an image using the fisheye lens 241, the imaging range can be widened as compared with a case where a standard lens or the like is used as the imaging lens. On the other hand, in the captured image of the fisheye camera 20, image distortion caused by using the fisheye lens 241 is included in the imaging range. As a result, the appearance of the room R is greatly different between when the user looks directly at the room R and when the user looks at the room R in the captured image captured by the fisheye camera 20.

図4は、魚眼カメラ20の撮影画像100を表示端末10の表示面141に表示した様子を例示する図である。図4に示す各符号や範囲V11,V12を示す楕円は画像として表示面141に表示されているわけではない。このことは他の図面でも同様である。
図4を見ても分かるように、魚眼カメラ20は、楕円形の撮影範囲で撮影して、楕円形の撮影画像100を示す撮影データを生成する。図4に示すように、撮影画像100は、部屋Rを上方から俯瞰した様子を表す楕円形の撮影画像を示す。撮影画像100では、中心において比較的魚眼レンズ241に起因する画像歪みが少ないが、外縁に近づくほど魚眼レンズ241に起因する画像歪みが大きくなる傾向にある。例えば、撮影画像100において中心寄りに位置する被写体ほど画像歪みが少なく、撮影画像100の長径方向と短径方向との被写体の寸法の比率は、この被写体の実際の比率に近い。一方で、撮影画像100において外縁寄りに位置する被写体ほど、画像歪みの程度が大きい。例えば、撮影画像100の長径方向には画像歪みによって大きなサイズで撮影される一方、短径方向には画像歪みによって小さなサイズで撮影されることとなる。よって、このような被写体は、撮影画像100の長径方向と短径方向との寸法の比率が、実際の比率とは大きく異なる。
FIG. 4 is a diagram illustrating a state in which the captured image 100 of the fisheye camera 20 is displayed on the display surface 141 of the display terminal 10. The symbols shown in FIG. 4 and the ellipses indicating the ranges V11 and V12 are not displayed on the display surface 141 as images. The same applies to other drawings.
As can be seen from FIG. 4, the fish-eye camera 20 shoots in an elliptical shooting range and generates shooting data indicating an elliptical shot image 100. As shown in FIG. 4, the photographed image 100 shows an elliptical photographed image representing a state where the room R is viewed from above. In the photographed image 100, the image distortion caused by the fisheye lens 241 is relatively small at the center, but the image distortion caused by the fisheye lens 241 tends to increase as it approaches the outer edge. For example, the subject located closer to the center in the captured image 100 has less image distortion, and the ratio of the dimension of the subject in the major axis direction and the minor axis direction of the captured image 100 is close to the actual ratio of the subject. On the other hand, a subject located closer to the outer edge in the photographed image 100 has a higher degree of image distortion. For example, the photographed image 100 is photographed in a large size in the major axis direction due to image distortion, and is photographed in a small size in the minor axis direction due to image distortion. Therefore, in such a subject, the ratio of the dimension of the major axis direction and the minor axis direction of the captured image 100 is greatly different from the actual ratio.

図5は、表示端末10のハードウェア構成を示すブロック図である。図5に示すように、表示端末10は、制御部11と、操作部12と、通信部13と、表示部14と、記憶部15とを備える。
制御部11は、CPU、ROM、及びRAMを有するマイクロコンピュータを備える。CPUは、ROMや記憶部15に記憶されたプログラムをRAMに読み出して実行することにより、表示端末10の各部を制御する。操作部12は、表示部14の表示面141に重ねて設けられたタッチセンサやハードボタンを有し、表示端末10のユーザにより行われた操作を示す操作信号を制御部11に出力する。通信部13は、無線通信路又は有線通信路を用いて魚眼カメラ20と通信するためのインタフェースである。通信部13は、例えば、魚眼カメラ20によって送信された撮影データを受信する。表示部14は、複数画素を配置した表示面141を有し、表示面141に画像を表示する。記憶部15は、例えばEEPROM(Electronically Erasable and Programmable ROM)やフラッシュメモリなどの記憶装置を備え、制御部11により実行されるプログラムを記憶する。記憶部15は、これ以外にも、撮影データ151と参照テーブル152とを記憶する。
FIG. 5 is a block diagram illustrating a hardware configuration of the display terminal 10. As shown in FIG. 5, the display terminal 10 includes a control unit 11, an operation unit 12, a communication unit 13, a display unit 14, and a storage unit 15.
The control unit 11 includes a microcomputer having a CPU, a ROM, and a RAM. The CPU controls each unit of the display terminal 10 by reading the program stored in the ROM or the storage unit 15 into the RAM and executing it. The operation unit 12 includes a touch sensor and a hard button provided to overlap the display surface 141 of the display unit 14, and outputs an operation signal indicating an operation performed by the user of the display terminal 10 to the control unit 11. The communication unit 13 is an interface for communicating with the fisheye camera 20 using a wireless communication path or a wired communication path. The communication part 13 receives the imaging | photography data transmitted by the fisheye camera 20, for example. The display unit 14 has a display surface 141 in which a plurality of pixels are arranged, and displays an image on the display surface 141. The storage unit 15 includes a storage device such as an EEPROM (Electronically Erasable and Programmable ROM) and a flash memory, and stores a program executed by the control unit 11. In addition to this, the storage unit 15 stores shooting data 151 and a reference table 152.

撮影データ151は、魚眼カメラ20の撮影画像の録画データに相当し、魚眼カメラ20によって撮影された撮影画像(動画)を示すデータである。撮影データ151は、魚眼レンズ241に起因した画像歪みを含んだ撮影画像を示す(図4参照)。参照テーブル152は、表示端末10が魚眼カメラ20に行わせる動体検知の設定内容が書き込まれるデータテーブルである。   The shooting data 151 corresponds to the recording data of the shot image of the fisheye camera 20 and is data indicating a shot image (moving image) shot by the fisheye camera 20. The shooting data 151 indicates a shot image including image distortion caused by the fisheye lens 241 (see FIG. 4). The reference table 152 is a data table in which setting details of moving object detection that the display terminal 10 causes the fisheye camera 20 to perform are written.

図6は、参照テーブル152のデータ構造を示す図である。図6に示すように、参照テーブル152は、「対象領域」と「検知感度」という各情報を対応付けたデータテーブルである。「対象領域」は、撮影画像100のうち、動体検知の対象領域として指定された領域を示すデータである。対象領域のデータは、例えば、撮影画像100における対象領域の位置を示す情報(後述するメッシュ領域を示す情報)を含む。検知感度は、動体検知の感度を示すデータである。表示端末10が行う動体検知においては、検知感度が高いほど、僅かな被写体の動き(つまり、撮像画像における画像の動き)があった場合にも、動体(例えば、侵入者)の存在が検知される。   FIG. 6 is a diagram illustrating the data structure of the reference table 152. As illustrated in FIG. 6, the reference table 152 is a data table that associates each information of “target region” and “detection sensitivity”. “Target area” is data indicating an area designated as a target area for moving object detection in the captured image 100. The data of the target area includes, for example, information indicating the position of the target area in the captured image 100 (information indicating a mesh area described later). The detection sensitivity is data indicating the sensitivity of moving object detection. In the moving object detection performed by the display terminal 10, the higher the detection sensitivity, the more the moving object (for example, the intruder) is detected even when there is a slight movement of the subject (that is, the movement of the image in the captured image). The

図6に示す例では、参照テーブル152において、対象領域として「ST1」と、検知感度として「高」とが対応付けられている。また、参照テーブル152においては、対象領域として「ST2」と、検知感度として「低」とが対応付けられている。参照テーブル152へのデータの書き込みに関する表示端末10の動作については後述するが、動体検知の開始前などにおいては、参照テーブル152の各フィールドはブランクである。
なお、表示端末10が行う動体検知の検知感度を、本実施形態では「高」及び「低」の2段階とするが、検知感度は3段階以上であってもよいし、一定であってもよい。また、表示端末10と魚眼カメラ20がサーバを介してデータをやり取りする場合には、このサーバに撮影データ151及び参照テーブル152が蓄積されていてもよい。この場合、表示端末10は、このサーバから撮影データ151を取得したり、このサーバに記憶された参照テーブル152を参照したりするとよい。
In the example illustrated in FIG. 6, in the reference table 152, “ST1” is associated with the target region and “high” is associated with the detection sensitivity. In the reference table 152, “ST2” is associated with the target area and “low” is associated with the detection sensitivity. The operation of the display terminal 10 relating to the writing of data to the reference table 152 will be described later, but before starting the motion detection, each field of the reference table 152 is blank.
In this embodiment, the detection sensitivity of the moving object detection performed by the display terminal 10 has two levels, “high” and “low”. However, the detection sensitivity may be three or more levels, or may be constant. Good. When the display terminal 10 and the fisheye camera 20 exchange data via a server, the shooting data 151 and the reference table 152 may be stored in this server. In this case, the display terminal 10 may acquire the shooting data 151 from this server or refer to the reference table 152 stored in this server.

図7は、表示端末10の制御部11の機能構成を示す機能ブロック図である。図7に示すように、表示端末10の制御部11は、取得部111と、補正部112と、表示制御部113と、第1受付部114と、第2受付部115と、設定部116とに相当する機能を実現する。
取得部111は、通信部13により魚眼カメラ20と通信して、魚眼カメラ20の撮影画像を示す撮影データを取得する。取得部111は、例えば、ライブ動画である撮影画像を示す撮影データを取得して補正部112に供給したり、録画データとしての撮影データ151を記憶部15に記憶させたりする。
FIG. 7 is a functional block diagram illustrating a functional configuration of the control unit 11 of the display terminal 10. As illustrated in FIG. 7, the control unit 11 of the display terminal 10 includes an acquisition unit 111, a correction unit 112, a display control unit 113, a first reception unit 114, a second reception unit 115, and a setting unit 116. A function equivalent to is realized.
The acquisition unit 111 communicates with the fisheye camera 20 through the communication unit 13 and acquires imaging data indicating a captured image of the fisheye camera 20. The acquisition unit 111 acquires, for example, shooting data indicating a shot image that is a live moving image and supplies the shooting data to the correction unit 112 or stores shooting data 151 as recording data in the storage unit 15.

補正部112は、取得部111が取得した撮影データに基づいて、画像歪みを減じる歪み補正を行う。補正部112は、ここでは、リアルタイムで撮影データに基づいて歪み補正を行って、この歪み補正後の撮影データを表示制御部113に供給する。   The correction unit 112 performs distortion correction that reduces image distortion based on the shooting data acquired by the acquisition unit 111. Here, the correction unit 112 performs distortion correction based on the shooting data in real time, and supplies the display control unit 113 with the shooting data after the distortion correction.

表示制御部113は、表示部14における画像の表示制御を司る。表示制御部113は、例えば、取得部111が取得した撮影データ又は記憶部15に記憶された撮影データ151が示す撮影画像や、補正部112により歪み補正が行われた画像を表示面141に表示させる。また、表示制御部113は、第1受付部114や第2受付部115が受け付けた操作に応じて、表示面141に画像を表示させる。   The display control unit 113 controls display of images on the display unit 14. For example, the display control unit 113 displays the captured image acquired by the acquisition unit 111 or the captured image indicated by the captured data 151 stored in the storage unit 15 or the image subjected to distortion correction by the correction unit 112 on the display surface 141. Let Further, the display control unit 113 displays an image on the display surface 141 in accordance with the operation received by the first reception unit 114 or the second reception unit 115.

第2受付部115は、撮影画像の一部を拡大した部分画像の表示を指示する操作(第2操作)を受け付ける。第2受付部115は、操作部12から操作信号を取得することにより、操作部12に対してユーザに行われた操作(例えば、接触操作)を受け付ける。表示制御部113は、部分画像の表示を指示する操作を第2受付部115が受け付けると、歪み補正後の部分画像を表示面141に表示させる。その際、補正部112は、部分画像の拡大率が高くなるほど画像歪みが少なくなるように歪み補正を行って、歪み補正後の画像データを表示制御部113に供給する。また、表示制御部113は、拡大率又は歪み補正の補正度合いが閾値レベルを超えた部分画像を表示させたときは、この部分画像をメッシュ状に区分して表示面141に表示させる。   The second reception unit 115 receives an operation (second operation) for instructing display of a partial image obtained by enlarging a part of the captured image. The second receiving unit 115 receives an operation signal (for example, a contact operation) performed by the user on the operation unit 12 by acquiring an operation signal from the operation unit 12. When the second reception unit 115 receives an operation for instructing display of a partial image, the display control unit 113 displays the partial image after distortion correction on the display surface 141. At this time, the correction unit 112 performs distortion correction so that the image distortion decreases as the enlargement ratio of the partial image increases, and supplies the image data after the distortion correction to the display control unit 113. When the display control unit 113 displays a partial image in which the enlargement ratio or the correction degree of distortion correction exceeds the threshold level, the display control unit 113 divides the partial image into a mesh shape and displays the partial image on the display surface 141.

第1受付部114は、表示面141に表示された歪み補正後の画像を用いて、動体検知の対象領域を指定する操作(第1操作)を受け付ける。第1受付部114は、例えば、メッシュ状に区分された部分画像の領域(以下、「メッシュ領域」という。)から、動体検知の対象領域を選択する操作と、この対象領域についての検知感度を指定する操作とをそれぞれ受け付ける。第1受付部114は、操作部12から操作信号を取得することにより、操作部12に対してユーザに行われた操作(例えば、接触操作)を受け付ける。表示制御部113は、第1受付部114が受け付けた操作により対象領域が指定されると、指定された対象領域と検知感度とを明示した撮影画像を表示面141に表示させる。   The first accepting unit 114 accepts an operation (first operation) for designating a target area for moving object detection using the image after distortion correction displayed on the display surface 141. For example, the first reception unit 114 selects an area for moving object detection from a partial image area (hereinafter referred to as a “mesh area”) divided into meshes, and detects the detection sensitivity for the target area. Each specified operation is accepted. The first reception unit 114 receives an operation signal from the operation unit 12 to receive an operation (for example, a contact operation) performed on the operation unit 12 by the user. When the target region is specified by the operation received by the first receiving unit 114, the display control unit 113 causes the display surface 141 to display a captured image that clearly indicates the specified target region and detection sensitivity.

設定部116は、第1受付部114が受け付けた操作で指定された対象領域と検知感度とに応じて参照テーブル152を更新することにより、魚眼カメラ20で行われる動体検知の設定を行う。また、設定部116は、参照テーブル152で対応付けられた対象領域と検知感度とに基づいて動体検知を行うよう、通信部13により魚眼カメラ20に指示する。魚眼カメラ20は、設定部116からの指示に応じた動体検知を行う。そして、魚眼カメラ20は撮影画像における対象領域から動体の存在を検知した場合には、動体の検知結果に応じた特定の処理を実行する。   The setting unit 116 sets the moving object detection performed by the fisheye camera 20 by updating the reference table 152 according to the target region and the detection sensitivity specified by the operation received by the first reception unit 114. In addition, the setting unit 116 instructs the fisheye camera 20 to perform the moving object detection based on the target region and the detection sensitivity associated with each other in the reference table 152. The fisheye camera 20 performs moving object detection according to an instruction from the setting unit 116. When the fish-eye camera 20 detects the presence of a moving object from the target area in the captured image, the fish-eye camera 20 executes a specific process according to the detection result of the moving object.

図8は、表示端末10が動体検知の設定を行うときの手順を示すフローチャートである。図8に示す動作の前において、参照テーブル152はブランクであるものとする。
魚眼カメラ20を用いて動体検知を行おうとするユーザは、予め動体検知を行いたい空間が撮影範囲に含まるように魚眼カメラ20を設置する。ここではユーザが、図3(b)に示すように、部屋Rの天井Cに撮影方向を下向きして魚眼カメラ20を設置し、部屋R全体が撮影範囲に収まるようにしたものとする。
FIG. 8 is a flowchart illustrating a procedure when the display terminal 10 sets the moving object detection. It is assumed that the reference table 152 is blank before the operation shown in FIG.
A user who wants to detect a moving object using the fisheye camera 20 installs the fisheye camera 20 in advance so that the shooting range includes a space where the moving object is to be detected. Here, as shown in FIG. 3B, it is assumed that the user has installed the fisheye camera 20 on the ceiling C of the room R with the shooting direction facing downward so that the entire room R is within the shooting range.

表示端末10の制御部11は、操作部12の操作により動体検知の設定を行うことがユーザに指示されると、まず、魚眼カメラ20から通信部13により取得した撮影データが示す撮影画像(ここでは、撮影範囲全体を示す全体画像)を、表示面141に表示させる(ステップS1)。ここでは、制御部11は、図4に示す撮影画像100を表示面141に表示させる。
なお、制御部11は、撮影データに基づいて動画を表示させてもよいし、撮影データに基づいてフレーム処理を行って静止画データを生成して、静止画である撮影画像を表示させてもよい。
When the control unit 11 of the display terminal 10 is instructed to set the moving object detection by operating the operation unit 12, first, a captured image (shown by the captured data acquired by the communication unit 13 from the fisheye camera 20) is displayed. Here, an entire image showing the entire photographing range is displayed on the display surface 141 (step S1). Here, the control unit 11 displays the captured image 100 shown in FIG. 4 on the display surface 141.
The control unit 11 may display a moving image based on the shooting data, or may generate a still image data by performing frame processing based on the shooting data and display a shooting image that is a still image. Good.

次に、制御部11は、操作部12の操作により、撮影画像100の表示変更操作を受け付けたか否かを判断する(ステップS2)。ここでは、制御部11は、表示面141上で指を払う接触操作などにより、撮影画像100のうち表示面141に表示させる画像領域を変更する操作を受け付けたか否かを判断したり、いわゆるピンチイン操作やピンチアウト操作などにより、撮影画像100の表示倍率を変更する操作を受け付けたか否かを判断したりする。   Next, the control unit 11 determines whether or not a display change operation for the captured image 100 has been received by the operation of the operation unit 12 (step S2). Here, the control unit 11 determines whether or not an operation for changing an image area to be displayed on the display surface 141 in the captured image 100 is received by a touch operation of paying a finger on the display surface 141, or so-called pinch-in. It is determined whether or not an operation for changing the display magnification of the photographed image 100 is accepted by an operation or a pinch-out operation.

制御部11は、表示変更操作を受け付けるまで待機し(ステップS2;NO)、表示変更操作を受け付けると(ステップS2;YES)、受け付けた表示変更操作に応じて、表示面141に撮影画像を表示させる。制御部11は、撮影画像の一部を拡大した部分画像を表示する表示変更操作を受け付けた場合には、その拡大率が高いほど画像歪みを少なくする歪み補正を撮影データに基づいて行い、表示面141に部分画像を表示させる(ステップS3)。制御部11は、画像歪みを減じるための周知の変換アルゴリズムに従って、撮影画像の画像歪みを減じるための画像処理を行う。図4に示すドアD付近の範囲V11を拡大表示する表示変更操作がユーザに行われていた場合、制御部11は、図9(a)に示す部分画像110を表示面141に表示させる。部分画像110は、撮影画像100に比べると画像歪みが少ない部分画像である。   The control unit 11 stands by until a display change operation is accepted (step S2; NO). When the display change operation is accepted (step S2; YES), a captured image is displayed on the display surface 141 according to the received display change operation. Let When the control unit 11 receives a display change operation for displaying a partial image obtained by enlarging a part of the captured image, the control unit 11 performs distortion correction based on the captured data to reduce image distortion as the enlargement ratio increases. A partial image is displayed on the surface 141 (step S3). The control unit 11 performs image processing for reducing image distortion of the captured image in accordance with a known conversion algorithm for reducing image distortion. When the display change operation for enlarging and displaying the range V11 near the door D illustrated in FIG. 4 is performed by the user, the control unit 11 displays the partial image 110 illustrated in FIG. 9A on the display surface 141. The partial image 110 is a partial image with less image distortion than the captured image 100.

次に、制御部11は、表示面141の部分画像を最高の拡大率で表示させているか否かを判断する(ステップS4)。ここでは、制御部11は、このステップS4の処理では「NO」と判断し、ステップS2の処理に戻る。
次に、ステップS2の処理で、制御部11は、部分画像110をさらに拡大表示する表示変更操作を受け付けると(ステップS2;YES)、図9(b)に示す部分画像120を表示面141に表示させる(ステップS3)。部分画像120は、部分画像110に含まれていた画像歪みを更に減じる歪み補正が行われた画像である。また、部分画像120は、最高の拡大率の部分画像である。
以上のステップS2からS4の処理ステップからも分かるように、制御部11は、撮影画像を徐々に拡大する表示変更操作が行われると、部分画像を拡大するとともに、部分画像を徐々に平面画像に近づけるように歪み補正を行うこととなる。
Next, the control unit 11 determines whether or not the partial image on the display surface 141 is displayed at the highest magnification (step S4). Here, the control unit 11 determines “NO” in the process of step S4, and returns to the process of step S2.
Next, in step S2, when the control unit 11 receives a display change operation for further enlarging and displaying the partial image 110 (step S2; YES), the partial image 120 shown in FIG. 9B is displayed on the display surface 141. It is displayed (step S3). The partial image 120 is an image on which distortion correction for further reducing the image distortion included in the partial image 110 is performed. The partial image 120 is a partial image with the highest magnification.
As can be seen from the above processing steps S2 to S4, the control unit 11 enlarges the partial image and gradually converts the partial image into a planar image when a display change operation for gradually enlarging the captured image is performed. Distortion correction is performed so as to be close.

そして、制御部11は、ステップS4の処理で表示面141の部分画像を最高の拡大率で表示させていると判断し(ステップS4;YES)、ステップS5の処理に進む。次に、制御部11は、表示面141に表示中の部分画像をメッシュ状に複数領域に区分して、表示面141に表示させる(ステップS5)。ここでは、制御部11は、図9(c)に示すように、部分画像120を10×10(計100個)の正方形のメッシュ領域Mに区分して、表示面141に部分画像120aを表示させる。メッシュ領域Mは、動体検知の対象領域をユーザが指定するために、ユーザが操作部12への操作(例えば接触操作)により選択可能な領域である。すなわち、ユーザは、メッシュ領域M単位で、動体検知の対象領域を指定可能である。図9及び他の図面において、メッシュ領域M同士の境界を実線で示しているが、制御部11が表示面141にこの境界を意味する線を表示させることで、ユーザはメッシュ領域Mに位置や範囲を把握することができる。
なお、部分画像を区分するメッシュ領域の数はあくまで一例であり、制御部11はメッシュ領域の区分数を10×10以外にしてもよい。
Then, the control unit 11 determines that the partial image on the display surface 141 is displayed at the highest magnification in the process of step S4 (step S4; YES), and proceeds to the process of step S5. Next, the control unit 11 divides the partial image being displayed on the display surface 141 into a plurality of areas in a mesh shape and displays the partial image on the display surface 141 (step S5). Here, as shown in FIG. 9C, the control unit 11 divides the partial image 120 into 10 × 10 (total 100) square mesh regions M and displays the partial image 120a on the display surface 141. Let The mesh area M is an area that the user can select by an operation (for example, a contact operation) on the operation unit 12 in order for the user to specify a target area for moving object detection. That is, the user can designate a target area for moving object detection in units of mesh area M. In FIG. 9 and other drawings, the boundary between the mesh areas M is indicated by a solid line. However, the control unit 11 causes the display surface 141 to display a line indicating the boundary, so that the user can change the position in the mesh area M. The range can be grasped.
Note that the number of mesh regions into which the partial image is divided is merely an example, and the control unit 11 may set the number of mesh regions to a number other than 10 × 10.

次に、制御部11は、メッシュ領域Mから対象領域を選択する選択操作を、操作部12により受け付けたか否かを判断する(ステップS6)。ここで制御部11は、図9(d)に示すように、メッシュ領域Mに指Fを触れさせることでいずれかのメッシュ領域Mの選択操作を受け付けると、このメッシュ領域Mを対象領域ST1とする。そして、制御部11は、この対象領域ST1を明示した部分画像120bを表示面141に表示させる(ステップS7)。ここでは、制御部11は、対象領域ST1について、元画像に所定の色(例えば、薄い青色)のマスクを施すなどして、ユーザが他のメッシュ領域Mとの見分けがつくように対象領域ST1を明示する。そして、制御部11は、ユーザに指定された対象領域ST1に応じて参照テーブル152を更新することにより、動体検知の設定を行う(ステップS8)。その際、ユーザは予め検知感度を指定してメッシュ領域Mから対象領域を選択しているものとし、ここでは検知感度として「高」が指定されていたものとする。この場合、制御部11は、対象領域として「ST1」と、検知感度として「高」とを対応付けて参照テーブル152に書き込む。
なお、図9及びその他の図面で、検知感度が「高」の対象領域を格子模様で塗り潰して表す。
Next, the control unit 11 determines whether a selection operation for selecting a target region from the mesh region M has been received by the operation unit 12 (step S6). Here, as illustrated in FIG. 9D, when the control unit 11 receives a selection operation of any mesh region M by touching the mesh region M with a finger F, the control unit 11 sets the mesh region M as the target region ST1. To do. And the control part 11 displays the partial image 120b which specified this object area | region ST1 on the display surface 141 (step S7). Here, the control unit 11 applies a mask of a predetermined color (for example, light blue) to the original region ST1 with respect to the target region ST1, so that the user can distinguish from the other mesh region M. Is specified. And the control part 11 sets a moving body detection by updating the reference table 152 according to object area | region ST1 designated by the user (step S8). In this case, it is assumed that the user has designated the detection sensitivity in advance and has selected the target region from the mesh region M, and here, “high” has been designated as the detection sensitivity. In this case, the control unit 11 writes “ST1” as the target region and “High” as the detection sensitivity in association with each other and writes them in the reference table 152.
Note that, in FIG. 9 and other drawings, the target area having a detection sensitivity of “high” is represented by being filled with a lattice pattern.

次に、制御部11は、対象領域の指定を終了するか否かを判断する(ステップS9)。ここでは、制御部11は、現時点の参照テーブル152に設定された内容で動体検知を行うことを確定する操作がユーザに行われたか否かを判断する。制御部11は、対象領域の指定が終了していないと判断すると(ステップS9;NO)、ステップS2で説明したような表示変更操作を、操作部12により受け付けたか否かを判断する(ステップS10)。ここで、制御部11は、表示変更操作を受け付けていないと判断すると(ステップS10;NO)、ステップS6の処理に戻る。そして、制御部11は、メッシュ領域Mを対象領域として選択する選択操作を操作部12により受け付けたか否かを判断する。   Next, the control unit 11 determines whether or not to finish specifying the target area (step S9). Here, the control unit 11 determines whether or not the user has performed an operation for confirming that moving object detection is to be performed with the contents set in the current reference table 152. When the control unit 11 determines that the designation of the target area has not ended (step S9; NO), the control unit 11 determines whether the display change operation described in step S2 has been received by the operation unit 12 (step S10). ). Here, if the control part 11 judges that display change operation is not received (step S10; NO), it will return to the process of step S6. Then, the control unit 11 determines whether a selection operation for selecting the mesh region M as the target region has been received by the operation unit 12.

以降も、制御部11は、ステップS6からS10の処理ステップを実行して、動体検知の対象領域の選択操作を受け付けるとともに(ステップS6)、受け付けた操作に応じて、対象領域を明示するとともに、参照テーブル152を更新して動体検知の設定を行う(ステップS7,S8)。ここで、ドアD及びドアD付近が対象領域としてユーザに指定されたとすると、制御部11は、図9(e)に示すように対象領域ST1を明示した部分画像120cを表示面141に表示させる。   Thereafter, the control unit 11 executes the processing steps of steps S6 to S10, accepts a selection operation of a target area for moving object detection (step S6), specifies the target area according to the accepted operation, The reference table 152 is updated to set the moving object detection (steps S7 and S8). Here, when the user designates the door D and the vicinity of the door D as the target area, the control unit 11 causes the display surface 141 to display a partial image 120c in which the target area ST1 is clearly shown as illustrated in FIG. .

次に、制御部11が、対象領域の指定が終了していないと判断し(ステップS9;NO)、表示変更操作を操作部12により受け付けたと判断すると(ステップS10;YES)、ステップS3の処理に戻る。そして、上記ステップS3の処理と同様に、制御部11は、部分画像を表示するための表示変更操作を受け付けると、その拡大率が高いほど画像歪みを少なくする歪み補正を行って、表示面141に部分画像を表示させる(ステップS2,S3)。ここで、図5に示す窓W3付近の範囲V12を表示させることがユーザに指示されたとする。この場合、制御部11は、図10(a)に示す部分画像130を表示面141に表示させる。部分画像130は、最高の拡大率の部分画像であり、画像歪みが最も少ない部分画像である。   Next, when the control unit 11 determines that the target area has not been designated (step S9; NO) and determines that the display change operation has been received by the operation unit 12 (step S10; YES), the process of step S3 is performed. Return to. Then, similarly to the processing in step S3, when the display unit 11 receives a display change operation for displaying a partial image, the control unit 11 performs distortion correction to reduce image distortion as the enlargement ratio increases, and the display surface 141. Display a partial image (steps S2 and S3). Here, it is assumed that the user is instructed to display the range V12 near the window W3 shown in FIG. In this case, the control unit 11 displays the partial image 130 illustrated in FIG. The partial image 130 is a partial image with the highest magnification, and is a partial image with the least image distortion.

この場合、制御部11は、ステップS4の処理で「YES」と判断し、上記同様にステップS5からS10の処理ステップを実行する。ここで、制御部11が、部分画像130を用いて、窓W3の一部を対象領域として指定する操作を操作部12により受け付けたとする。この場合、制御部11は、図10(b)に示す部分画像130aを表示させて、対象領域ST2を明示するとともに、参照テーブル152を更新する。ここでは、窓W3の全体が部分画像130(130a)に収まらない。この場合、ユーザは、撮影画像100のうち表示面141での表示領域を操作部12の操作により変更する表示変更操作を行う。制御部11は、この表示変更操作に応じて表示領域を変更しつつ、メッシュ領域Mから対象領域を選択する選択操作を操作部12により受け付ける。ここでは、制御部11は、図10(c)に示す部分画像130bや、図10(d)に示す部分画像130cを、ユーザの表示変更操作及び対象領域ST2の選択操作に応じて、表示面141に表示させることとなる。   In this case, the control unit 11 determines “YES” in the process of step S4, and executes the process steps of steps S5 to S10 as described above. Here, it is assumed that the control unit 11 receives an operation for designating a part of the window W <b> 3 as a target region using the partial image 130 by the operation unit 12. In this case, the control unit 11 displays the partial image 130a illustrated in FIG. 10B, clearly indicates the target region ST2, and updates the reference table 152. Here, the entire window W3 does not fit in the partial image 130 (130a). In this case, the user performs a display change operation for changing the display area on the display surface 141 in the captured image 100 by operating the operation unit 12. The control unit 11 receives a selection operation for selecting a target region from the mesh region M by the operation unit 12 while changing the display region according to the display change operation. Here, the control unit 11 displays the partial image 130b illustrated in FIG. 10C or the partial image 130c illustrated in FIG. 10D according to the display change operation of the user and the selection operation of the target area ST2. 141 is displayed.

なお、対象領域ST2の検知感度は、ユーザにより「低」と指定されたとする。図10及びその他の図面で、検知感度が低い対象領域を右上がりの斜線で塗り潰して表す。
また、ユーザは、窓W3については異常がなくとも屋外の明るさによって画像に変化が現れやすいので、誤検知を抑えるために検知感度を「低」と指定したものとする。一方、ドアDについては明るさによって画像に変化が現れることは少ないので、検知感度を「高」と指定したものとする。
以上のように表示端末10が動体検知の設定を行うことにより、参照テーブル152は図6に示す内容となる。本実施形態では、表示端末10は、連続したメッシュ領域Mで構成され、且つ、同一の検知感度が指定された対象領域を、1つの対象領域として参照テーブル152でデータを管理している。ただし、表示端末10は、メッシュ領域Mごとに異なる対象領域としてデータを管理してもよく、参照テーブル152でのデータの管理方法には種々の変形が可能である。
It is assumed that the detection sensitivity of the target area ST2 is designated as “low” by the user. In FIG. 10 and other drawings, the target area with low detection sensitivity is represented by being filled with a diagonal line rising to the right.
In addition, even if there is no abnormality in the window W3, the user is likely to change the image depending on the outdoor brightness. Therefore, it is assumed that the detection sensitivity is designated as “low” in order to suppress erroneous detection. On the other hand, since there is little change in the image due to the brightness of the door D, it is assumed that the detection sensitivity is designated as “high”.
As described above, when the display terminal 10 sets the moving object detection, the reference table 152 has the contents shown in FIG. In the present embodiment, the display terminal 10 manages data using the reference table 152 as a single target area that is configured by continuous mesh areas M and designated with the same detection sensitivity. However, the display terminal 10 may manage data as a different target area for each mesh area M, and various modifications can be made to the data management method in the reference table 152.

そして、制御部11は、ステップS9の処理で、対象領域の指定が終了したと判断したとすると(ステップS9;YES)、ステップS11の処理に進む。そして、制御部11は、ユーザにより指定された対象領域を明示した撮影画像100aを、撮影データに基づいて表示面141に表示させる。ここでは制御部11は、図11に示すように、ステップS1の処理で表示させた撮影画像に所定のマスクを施すなどして対象領域ST1,ST2を明示した撮影画像100aを、表示面141に表示させる。撮影画像100aを視認したユーザは、撮影範囲全体を俯瞰した内容の撮影画像から、自身が指定した対象領域ST1,ST2の位置が撮影範囲におけるどの位置かを直ちに把握することができる。   If the control unit 11 determines in the process of step S9 that the designation of the target area has been completed (step S9; YES), the control unit 11 proceeds to the process of step S11. And the control part 11 displays the picked-up image 100a which specified the object area | region designated by the user on the display surface 141 based on picked-up data. Here, as shown in FIG. 11, the control unit 11 displays on the display surface 141 a photographed image 100a in which the target areas ST1 and ST2 are clearly shown by applying a predetermined mask to the photographed image displayed in step S1. Display. The user who has visually recognized the captured image 100a can immediately know which position in the imaging range the positions of the target areas ST1 and ST2 designated by the user are from the captured image having an overview of the entire imaging range.

そして、制御部11は、動体検知を開始することが操作部12によりユーザに指示されると、参照テーブル152に書き込まれたデータに従って動体検知を行うよう、通信部13により魚眼カメラ20に指示して、魚眼カメラ20に動体検知を開始させる(ステップS12)。この動体検知の開始指示に応じて、魚眼カメラ20の制御部21は、表示端末10による設定に従って動体検知を行う。ここでは、制御部21は、撮影部24から取得した撮影データに基づき、対象領域として「ST1」については、検知感度を「高」として動体検知を行い、対象領域として「ST2」については、検知感度を「低」として動体検知を行う。制御部21は、例えば、フレーム間差分法や背景差分法などの所定の動体検知アルゴリズムに従って、動体検知を行う。具体的に、制御部21は、例えば、撮影データに対しフレーム処理を行って得た撮影画像を時系列順に比較して動体検知を行う。その際、制御部21、検知感度に応じて、例えば、検知感度が高いほどフレーム処理により得る画像の数を増やしたり、動体が存在すると判断する画像変化(例えば輝度変化)の閾値を低くしたりして、検知感度に応じた動体検知を行うとよい。そして、制御部21は、動体検知の検知結果を、通信部23により表示端末10に通知する。表示端末10の制御部11は、通信部13により魚眼カメラ20から動体検知の検知結果を受信すると、表示面141への表示や音声により検知結果をユーザに報知したり、検知結果を示すデータを記憶部15に書き込んだりする。   When the operation unit 12 instructs the control unit 11 to start moving object detection, the control unit 11 instructs the fisheye camera 20 to perform moving object detection according to the data written in the reference table 152. Then, the fish-eye camera 20 starts moving object detection (step S12). In response to the instruction to start moving object detection, the control unit 21 of the fisheye camera 20 performs moving object detection according to the setting by the display terminal 10. Here, based on the imaging data acquired from the imaging unit 24, the control unit 21 detects a moving object with “high” as the detection sensitivity for “ST1” as the target region, and detects “ST2” as the target region. Motion detection is performed with the sensitivity set to “low”. The control unit 21 performs moving object detection according to a predetermined moving object detection algorithm such as an inter-frame difference method or a background difference method. Specifically, for example, the control unit 21 performs moving object detection by comparing captured images obtained by performing frame processing on captured image data in chronological order. At that time, according to the control unit 21 and the detection sensitivity, for example, as the detection sensitivity is higher, the number of images obtained by frame processing is increased, or the threshold of image change (for example, luminance change) determined to be a moving object is reduced. Then, it is good to perform the moving body detection according to the detection sensitivity. And the control part 21 notifies the detection result of a moving body detection to the display terminal 10 by the communication part 23. FIG. When the communication unit 13 receives the detection result of the moving object detection from the fisheye camera 20, the control unit 11 of the display terminal 10 notifies the user of the detection result by display or sound on the display surface 141 or data indicating the detection result. Or the like in the storage unit 15.

以上説明した実施形態のとおり、表示端末10は、魚眼カメラ20の撮影画像から対象領域を指定する操作をユーザに行わせる場合に、画像歪みを減らす歪み補正を行った部分画像を表示面141に表示させる。これにより、ユーザにしてみれば、撮影画像中の監視場所(ここでは部屋R)の見え方と、実際の監視場所の見え方との乖離が小さくなるので、所望する対象領域を的確に指定するための操作負担が減る。
また、表示端末10は、部分画像を表示させるときにその拡大率が高いほど、部分画像を平面画像に近づけるように歪み補正を行い、最高の拡大率で部分画像を表示させたときに、この部分画像を複数のメッシュ領域Mに区分する。これにより、ユーザは、最高の拡大率まで拡大表示された部分画像を見て、対象領域を細部まで詳細に指定することができる。また、ユーザは、メッシュ領域Mの選択操作により、表示端末10に対し対象領域を指定することができるので、ユーザが行うべき操作は簡単である。よって、表示端末10によれば、所望する対象領域を的確に指定するための操作負担が更に減る。
また、表示端末10によれば、ユーザは対象領域(メッシュ領域M)ごとに検知感度を指定することができるので、監視場所や監視目的に適した検知感度を指定するためのユーザの操作負担も少ない。
As described above, when the display terminal 10 causes the user to perform an operation of designating a target area from a captured image of the fisheye camera 20, the display terminal 10 displays a partial image subjected to distortion correction that reduces image distortion. To display. Thus, for the user, the difference between how the monitoring location (in this case, room R) appears in the captured image and how the actual monitoring location looks is reduced, so that the desired target area is specified accurately. This reduces the operational burden.
In addition, when the display terminal 10 displays a partial image, the higher the magnification ratio is, the distortion correction is performed so that the partial image is closer to a planar image, and when the partial image is displayed at the highest magnification ratio, The partial image is divided into a plurality of mesh regions M. As a result, the user can specify the target area in detail by looking at the partial image enlarged to the maximum magnification. In addition, since the user can designate the target area on the display terminal 10 by selecting the mesh area M, the operation to be performed by the user is simple. Therefore, according to the display terminal 10, the operation burden for designating the desired target region accurately is further reduced.
Moreover, according to the display terminal 10, since the user can designate detection sensitivity for every object area | region (mesh area | region M), the operation burden of the user for designating the detection sensitivity suitable for a monitoring place or the monitoring objective is also carried out. Few.

[変形例]
本発明は、上述した実施形態と異なる形態で実施することが可能である。本発明は、例えば、以下のような形態で実施することも可能である。また、以下に示す変形例は、各々を適宜に組み合わせてもよい。
(変形例1)
表示端末10は、対象領域とともに、対象領域について動体検知を行う時間帯を指定する操作を受け付けて、指定された時間帯を設定して、魚眼カメラ20に動体検知を行わせてもよい。この場合、表示端末10は、上述した実施形態で説明した参照テーブル152に代えて、参照テーブル152aを参照して魚眼カメラ20に動体検知を行わせる。
[Modification]
The present invention can be implemented in a form different from the above-described embodiment. The present invention can also be implemented in the following forms, for example. Further, the following modifications may be combined as appropriate.
(Modification 1)
The display terminal 10 may receive an operation for designating a time zone for performing motion detection for the target region together with the target region, set the designated time zone, and cause the fisheye camera 20 to perform motion detection. In this case, the display terminal 10 refers to the reference table 152a instead of the reference table 152 described in the above-described embodiment, and causes the fisheye camera 20 to perform moving object detection.

図12は、参照テーブル152aのデータ構造を示す図である。図12に示すように、参照テーブル152aは、「対象領域」と「検知感度」と「検知時間帯」いう各情報を対応付けたデータテーブルである。「対象領域」と「検知感度」とは、上述した実施形態と同じ情報であり、ここではその説明を省略する。「検知時間帯」は、動体検知を行う時刻を示す情報であり、ユーザによって指定される。図12に示す例では、ドアD付近に位置する対象領域ST1については、ユーザが部屋Rを不在にする時間帯である「9:00〜20:00」が検知時間帯として指定されている。一方で、窓W3に位置する対象領域ST1については、検知時間帯が指定されておらず、参照テーブル152aではブランクである。   FIG. 12 shows the data structure of the reference table 152a. As shown in FIG. 12, the reference table 152a is a data table in which pieces of information of “target region”, “detection sensitivity”, and “detection time zone” are associated with each other. The “target region” and “detection sensitivity” are the same information as in the above-described embodiment, and the description thereof is omitted here. The “detection time zone” is information indicating the time at which moving object detection is performed, and is specified by the user. In the example illustrated in FIG. 12, for the target region ST1 located near the door D, “9:00:00 to 20:00”, which is a time zone in which the user is absent from the room R, is designated as the detection time zone. On the other hand, for the target area ST1 located in the window W3, the detection time zone is not specified and is blank in the reference table 152a.

この変形例の表示端末10の動作は、基本的には図8と同じ手順で動作すればよく、実施形態との相違点をここでは説明する。
ステップS6の処理では、表示端末10は、対象領域及び検知感度とともに、この対象領域の導体検知を行う時刻(検知時間帯)を指定する操作も受け付ける。
ステップS11の処理で、表示端末10は、対象領域を明示した撮影画像を表示させるときには、各時刻において検知対象となる対象領域を明示した撮影画像を表示させる。例えば、ユーザにより、9:00〜20:00の時刻を指定して対象領域を明示することが指示されると、表示端末10は、図13(a)に示すように対象領域ST1及びST2を明示した撮影画像100aを表示面141に表示させる。一方で、ユーザにより、9:00〜20:00以外の時刻を指定して対象領域を明示することが指示されると、表示端末10は、図13(b)に示すように対象領域ST2を明示した撮影画像100bを表示面141に表示させる。
The operation of the display terminal 10 according to this modification may basically operate according to the same procedure as in FIG. 8, and the difference from the embodiment will be described here.
In the process of step S6, the display terminal 10 also accepts an operation for designating the time (detection time zone) for conducting the conductor detection in the target area, together with the target area and the detection sensitivity.
In the process of step S <b> 11, when displaying the captured image specifying the target area, the display terminal 10 displays the captured image specifying the target area to be detected at each time. For example, when the user instructs to specify the target area by specifying the time of 9:00 to 20:00, the display terminal 10 displays the target areas ST1 and ST2 as shown in FIG. The specified captured image 100a is displayed on the display surface 141. On the other hand, when the user designates a time other than 9:00 to 20:00 to indicate the target area, the display terminal 10 displays the target area ST2 as shown in FIG. The specified captured image 100b is displayed on the display surface 141.

ステップS12の処理では、表示端末10は、参照テーブル152aに基づいて、検知時間帯が指定されている場合には、現在時刻が検知時間帯に含まれる期間においてのみ動体検知を行うよう魚眼カメラ20に指示する。ここでは、表示端末10は、9:00〜20:00の間の時刻では、対象領域ST1及びST2について動体検知を行うよう指示する。一方で、9:00〜20:00以外の時刻では対象領域ST1については動体検知を行わず、対象領域ST2についての動体検知を行うよう指示する。   In the process of step S12, when the detection time zone is specified based on the reference table 152a, the display terminal 10 performs the fish-eye camera so as to detect the moving object only during the period in which the current time is included in the detection time zone. 20 Here, the display terminal 10 instructs to perform moving body detection for the target areas ST1 and ST2 at a time between 9:00 and 20:00. On the other hand, at a time other than 9:00 to 20:00, an instruction is given not to perform moving object detection for the target area ST1 but to perform moving object detection for the target area ST2.

この変形例の表示端末10によれば、動体検知の対象領域をユーザが的確に指定しやすくなるだけでなく、ユーザは動体検知を行う時刻を対象領域ごとに指定することができる。よって、同じ監視場所に、検知時間帯がそれぞれ異なる複数の対象領域があった場合にも、表示端末10によれば、対象領域ごとに検知時間帯を設定することができる。例えば、オフォスや会議室などでは勤務時間帯においては動体検知せずに、勤務時間外においては動体検知を行うといったことも考えられるが、ユーザが表示端末10に対して動体検知の設定を事前に行っておけば、表示端末10は対象領域ごとに適切な時刻に動体検知を行うよう設定することができる。   According to the display terminal 10 of this modified example, not only the user can easily specify the target area for moving object detection, but also the user can specify the time for performing the moving object detection for each target area. Therefore, even when there are a plurality of target areas with different detection time zones at the same monitoring location, the display terminal 10 can set the detection time zone for each target area. For example, in offices and conference rooms, it may be possible not to detect moving objects during working hours, but to detect moving objects outside working hours. If so, the display terminal 10 can be set to perform moving object detection at an appropriate time for each target area.

(変形例2)
上述した実施形態では、表示端末10は、ユーザに検知感度を指定させていたが、撮影画像における対象領域の位置に応じて、表示端末10が検知感度を自動設定してもよい。前述したように、魚眼カメラ20の撮影画像では、中心寄りに位置する被写体ほど画像歪みが少なく、撮影画像100の長径方向及び短径方向のそれぞれにおいて比較的大きなサイズで撮影される。一方で、撮影画像100の外縁寄りに位置する被写体ほど、撮影範囲の長径方向には歪みによって大きなサイズで撮影される一方、短径方向には歪みによって小さなサイズで撮影されることとなる。
(Modification 2)
In the embodiment described above, the display terminal 10 allows the user to specify the detection sensitivity. However, the display terminal 10 may automatically set the detection sensitivity according to the position of the target region in the captured image. As described above, in the photographed image of the fisheye camera 20, the subject located closer to the center has less image distortion, and the photographed image 100 is photographed with a relatively large size in each of the major axis direction and the minor axis direction. On the other hand, a subject located closer to the outer edge of the captured image 100 is photographed with a large size due to distortion in the major axis direction of the photographing range, while being photographed with a small size due to distortion in the minor axis direction.

そこで、表示端末10は、図14(a)に示すように、画像歪みの発生度合いが小さい中心寄りに位置する楕円状の範囲A1では、検知感度を「高」に設定する。外縁寄りに位置する範囲A2,A3では、長径方向には画像歪みによって大きなサイズで被写体が撮影されることから、僅かな画像の動きでも検知が容易になるので、表示端末10は検知感度を「低」に設定する。そして、外縁寄りに位置する範囲A4,A5では、長径方向に対して被写体のサイズが縮小されるものの、短径方向に対しては被写体のサイズがある程度確保されるので、表示端末10は検知感度を「高」と「低」との中間である「中」に設定する。これ以外にも、表示端末10は、図14(b)に示すように、画像歪みの発生度合いが小さい中心寄りに位置する楕円状の範囲A6の検知感度を「高」に設定し、それ以外のドーナツ状の範囲A7の検知感度を「低」に設定してもよい。   Therefore, as shown in FIG. 14A, the display terminal 10 sets the detection sensitivity to “high” in an elliptical range A1 located near the center where the degree of occurrence of image distortion is small. In the ranges A2 and A3 located closer to the outer edge, the subject is photographed with a large size due to image distortion in the major axis direction, so that even a slight image movement can be easily detected. Set to Low. In the ranges A4 and A5 located closer to the outer edge, the size of the subject is reduced in the major axis direction, but the subject size is secured to some extent in the minor axis direction. Is set to “medium” which is between “high” and “low”. In addition to this, as shown in FIG. 14B, the display terminal 10 sets the detection sensitivity of the elliptical range A6 located near the center where the degree of occurrence of image distortion is small to “high”. The detection sensitivity of the doughnut-shaped range A7 may be set to “low”.

このように表示端末10は、魚眼カメラ20から取得した撮影データが示す元の撮影画像において、画像歪みの発生による被写体のサイズ拡大の度合いが大きい領域ほど検知感度を低くする。反対に、表示端末10は、元の撮影画像において、画像歪みの発生による被写体のサイズの拡大の度合いが少ない領域ほど検知感度を高くする。一例として、表示端末10は、魚眼カメラ20から取得した撮影データが示す撮影画像において、元の撮影画像でのサイズ(例えば、面積や所定方向の長さ)の方が平面画像でのサイズよりも大きい領域では、検知感度を低く設定し、平面画像でのサイズの方が元の撮影画像でのサイズよりも大きい領域については、検知感度をそれよりも高く設定する。   As described above, the display terminal 10 lowers the detection sensitivity in the original captured image indicated by the captured data acquired from the fisheye camera 20 in a region where the size of the subject increases due to image distortion. On the contrary, the display terminal 10 increases the detection sensitivity in a region where the degree of enlargement of the subject size due to image distortion is small in the original captured image. As an example, in the captured image indicated by the captured data acquired from the fisheye camera 20, the display terminal 10 has a size in the original captured image (for example, an area or a length in a predetermined direction) rather than a size in the planar image. The detection sensitivity is set to be lower in the larger region, and the detection sensitivity is set to be higher in the region where the size in the planar image is larger than the size in the original captured image.

また、表示端末10は、ユーザが事前に検知感度を指定した場合に、元の撮影画像における画像歪みの発生度合いに応じた検知感度を自動設定してもよい。例えば、表示端末10は、検知感度を複数段階から指定可能である場合に、画像歪みの発生による被写体のサイズ拡大の度合いが大きい領域では、ユーザが指定した検知感度を低くする方向に補正する。また、例えば、表示端末10は、画像歪みの発生による被写体のサイズ拡大の度合いが小さい領域では、ユーザが指定した検知感度を高くする方向に補正する。
この変形例の表示端末10によれば、ユーザによる検知感度の指定の仕方によらないで、撮影画像における画像歪みの発生度合いに応じて適切な検知感度を設定することが可能である。また、表示端末10における前述した検知感度の自動設定の方法は、あくまで一例であり、撮影レンズの種類や撮影画像に含まれる画像歪みの発生度合いに応じて適切に設定されればよい。
Further, the display terminal 10 may automatically set the detection sensitivity according to the degree of occurrence of image distortion in the original captured image when the user specifies the detection sensitivity in advance. For example, when the detection sensitivity can be designated from a plurality of stages, the display terminal 10 corrects the detection sensitivity designated by the user to be lowered in a region where the degree of size expansion of the subject due to image distortion is large. Further, for example, the display terminal 10 corrects the detection sensitivity specified by the user in a direction to increase in a region where the degree of size expansion of the subject due to the occurrence of image distortion is small.
According to the display terminal 10 of this modification, it is possible to set an appropriate detection sensitivity according to the degree of occurrence of image distortion in a captured image without depending on how the detection sensitivity is designated by the user. Further, the above-described automatic setting method of the detection sensitivity in the display terminal 10 is merely an example, and may be appropriately set according to the type of photographing lens and the degree of occurrence of image distortion included in the photographed image.

(変形例3)
上述した実施形態においては、魚眼カメラ20は魚眼レンズ241を用いて楕円形の撮影範囲を撮影していたが、この撮影範囲は円形などの他の形状であってもよい。これにより、魚眼カメラ20の撮影画像も、画像領域が楕円形でなく円形などの他の形状であってもよい。
(Modification 3)
In the above-described embodiment, the fisheye camera 20 has photographed an elliptical photographing range using the fisheye lens 241. However, the photographing range may be other shapes such as a circle. Thereby, the captured image of the fisheye camera 20 may also have another shape such as a circle instead of an ellipse.

(変形例4)
表示端末10は、ステップS10の処理において、対象領域が表示面141の予め決められた位置に表示されるように、対象領域を明示した撮影画像を表示させてもよい。ユーザが対象領域の位置を確認したい場合に、表示面141上の特定位置に対象領域が表示されていれば、対象領域の位置の把握がユーザにとって容易になるからである。
例えば、図15(a)に示すように、撮影画像100aの上側の領域に対象領域STが指定されたのに対し、撮影画像の下側の領域に対象領域を表示させることが表示端末10に指定されていたとする。この場合、表示端末10は、撮影画像100aを180度回転させた撮影画像100cを表示面141に表示させて、撮影画像の下側の領域に対象領域STを表示させてもよい。また、対象領域が他の位置に表示された場合でも、表示端末10は、撮影画像の回転処理などを用いて、対象領域を表示面141上の特定位置に表示させてもよい。また、変形例3で説明したように撮影範囲が円形の魚眼カメラを用いた場合に、図15(b)に示すように撮影画像200が円形であるときには、制御部11は対象領域STが特定位置に表示されるように(ここでは撮影画像の下側の領域)、撮影画像200を所定の角度だけ回転させて、撮影画像200bを表示させるとよい。
(Modification 4)
In the process of step S10, the display terminal 10 may display a captured image that clearly indicates the target area so that the target area is displayed at a predetermined position on the display surface 141. This is because when the user wants to confirm the position of the target area, if the target area is displayed at a specific position on the display surface 141, the user can easily grasp the position of the target area.
For example, as shown in FIG. 15A, the target area ST is specified in the upper area of the photographed image 100a, whereas the display terminal 10 displays the target area in the lower area of the photographed image. Suppose that it was specified. In this case, the display terminal 10 may display the captured image 100c obtained by rotating the captured image 100a by 180 degrees on the display surface 141 and display the target region ST in the lower region of the captured image. Even when the target area is displayed at another position, the display terminal 10 may display the target area at a specific position on the display surface 141 by using a rotation process of the captured image. Further, when the fisheye camera having a circular shooting range is used as described in the third modification example, when the shot image 200 is circular as shown in FIG. The photographed image 200b may be displayed by rotating the photographed image 200 by a predetermined angle so that the photographed image 200 is displayed at a specific position (here, the lower region of the photographed image).

(変形例5)
上述した実施形態では、表示端末10は、最高の拡大率で部分画像を表示させるときには、画像歪みを最少とした部分画像を表示させていた。これに対し、表示端末10は、最高の拡大率未満でも、画像歪みを一定レベル未満まで小さくすることができるのであれば、最高の拡大率未満のときに表示させた部分画像をメッシュ領域Mに区分して、対象領域を指定可能にしてもよい。また、表示端末10は、画像歪みを最少とした部分画像の表示時にメッシュ領域Mに区分するのではなく、画像歪みがそれよりも大きい撮影画像を複数のメッシュ領域Mに区分して、対象領域を指定可能にしてもよい。すなわち、表示端末10は、元の撮影画像よりも画像歪みを少なくした部分画像を表示するときに、拡大率又は歪み補正の補正度合いが閾値レベルを超えたことを条件として、この部分画像をメッシュ領域Mに区分して表示させればよい。この表示端末10によれば、元の撮影画像をそのまま用いてユーザが対象領域を指定する場合に比べて、ユーザの対象領域の指定に係る操作負担を減らすことができる。
(Modification 5)
In the embodiment described above, the display terminal 10 displays the partial image with the least image distortion when displaying the partial image at the highest magnification. On the other hand, if the display terminal 10 can reduce the image distortion to below a certain level even if it is less than the maximum enlargement ratio, the partial image displayed when the display terminal 10 is less than the maximum enlargement ratio is displayed in the mesh region M. The target area may be specified by dividing. Further, the display terminal 10 does not divide the captured image having a larger image distortion into a plurality of mesh areas M, instead of dividing the image into a mesh area M at the time of displaying the partial image with the least image distortion. May be specified. That is, when the display terminal 10 displays a partial image with less image distortion than the original captured image, the display terminal 10 meshes the partial image on the condition that the enlargement ratio or the correction degree of distortion correction exceeds the threshold level. What is necessary is just to divide and display on the area | region M. According to the display terminal 10, it is possible to reduce an operation burden related to the designation of the target area of the user as compared with the case where the user designates the target area using the original captured image as it is.

(変形例6)
また、表示端末10は、対象領域を所定の色のマスクにより明示する代わりに、対象領域の位置に「対象領域」などの特定の文字列を付してもよいし、マークなどの所定の画像を対象領域の位置に付してもよい。ユーザが対象領域を把握できるのであれば、表示端末10が行う対象領域の明示方法は特に問わない。
(Modification 6)
The display terminal 10 may attach a specific character string such as “target area” to the position of the target area instead of clearly indicating the target area with a mask of a predetermined color, or may display a predetermined image such as a mark. May be added to the position of the target area. As long as the user can grasp the target area, the method of specifying the target area performed by the display terminal 10 is not particularly limited.

(変形例7)
上述した実施形態において、表示端末10は、メッシュ領域Mが正方形になるように部分画像を区分していたが、部分画像の区分の仕方はこれに限らない。表示端末10は、例えば、メッシュ領域を矩形や円形、他の多角形など、他の形状となるように区分してもよい。
また、表示端末10は、部分画像をメッシュ領域Mに区分する構成を有していなくてもよい。表示端末10は、例えば、画像歪みを減らすように歪み補正した撮影データを画像解析して、窓やドアといったオブジェクトを抽出し、抽出したオブジェクト単位でユーザが対象領域を指定できるようにしてもよい。この構成であれば、表示端末10は、部分画像を表示させなくとも、対象領域の指定に関してユーザの操作負担を減らすことができると考えられる。
(Modification 7)
In the embodiment described above, the display terminal 10 divides the partial image so that the mesh region M is square, but the method of dividing the partial image is not limited to this. For example, the display terminal 10 may divide the mesh region into other shapes such as a rectangle, a circle, and other polygons.
Further, the display terminal 10 may not have a configuration for dividing the partial image into the mesh region M. For example, the display terminal 10 may perform image analysis on image data that has been subjected to distortion correction so as to reduce image distortion, extract objects such as windows and doors, and allow a user to specify a target area in units of extracted objects. . With this configuration, it is considered that the display terminal 10 can reduce the operation burden on the user regarding the designation of the target area without displaying the partial image.

(変形例8)
また、表示端末10が受け付ける操作は、タッチセンサにより検出可能な接触操作でなくてもよい。表示端末10は、例えば、近接操作により検出可能な近接操作を受け付けてもよいし、カーソル操作を受け付けてもよい。
(Modification 8)
Further, the operation received by the display terminal 10 may not be a contact operation that can be detected by the touch sensor. For example, the display terminal 10 may accept a proximity operation that can be detected by a proximity operation, or may accept a cursor operation.

(変形例9)
上述した実施形態においては、撮影装置として魚眼カメラ20を用いていたが、表示端末10は、撮影レンズに起因する画像歪みが発生する撮影装置(動画カメラ)の撮影データを用いればよく、撮影レンズの種類は特に問わない。また、魚眼カメラ20が有する魚眼レンズ241の射影方式についても、等距離射影方式や等立体角射影方式などどのような射影方式であってもよい。
魚眼カメラ20がリアルタイムで動体検知を行う代わりに、録画データに基づいて動体検知を行ってもよい。また、表示端末10は、参照テーブル152又は152aに従って、撮影データ151を用いて動体検知を行ってもよい。
また、魚眼カメラ20が設置される場所は、住宅の部屋に限らず、例えばオフィスやその会議室、店舗などの商業施設の室空間であってもよいし、魚眼カメラ20が屋外に設置されてもよい。このように魚眼カメラ20が撮影範囲とする場所はどこであってもよい。
(Modification 9)
In the above-described embodiment, the fisheye camera 20 is used as the photographing device. However, the display terminal 10 may use photographing data of a photographing device (moving image camera) in which image distortion caused by the photographing lens occurs. The type of lens is not particularly limited. In addition, the projection method of the fisheye lens 241 included in the fisheye camera 20 may be any projection method such as an equidistant projection method or an equal solid angle projection method.
Instead of the moving eye detection of the fisheye camera 20 in real time, the moving body detection may be performed based on the recorded data. Further, the display terminal 10 may perform moving object detection using the imaging data 151 according to the reference table 152 or 152a.
Moreover, the place where the fisheye camera 20 is installed is not limited to a room in a house, but may be a room space of a commercial facility such as an office, a conference room, or a store, or the fisheye camera 20 is installed outdoors. May be. In this way, the fisheye camera 20 may take any place as a shooting range.

(変形例10)
上述した実施形態において、表示端末10の制御部11が実現する各機能は、複数のプログラムの組み合わせによって実現され、又は、複数のハードウェア資源の協働によって実現されうる。
また、本発明の表示端末は、コンピュータや制御部11が実行するプログラムや動体検知の対象領域の設定方法として把握することも可能である。
(Modification 10)
In the embodiment described above, each function realized by the control unit 11 of the display terminal 10 can be realized by a combination of a plurality of programs, or can be realized by cooperation of a plurality of hardware resources.
The display terminal of the present invention can also be understood as a program executed by the computer or the control unit 11 or a method for setting a target area for moving object detection.

10…表示端末、11…制御部、111…取得部、112…補正部、113…表示制御部、114…第1受付部、115…第2受付部、116…設定部、12…操作部、13…通信部、14…表示部、141…表示面、15…記憶部、151…撮影データ、152,152a…参照テーブル、20…魚眼カメラ、21…制御部、22…操作部、23…通信部、24…撮影部、241…魚眼レンズ、25…記憶部 DESCRIPTION OF SYMBOLS 10 ... Display terminal, 11 ... Control part, 111 ... Acquisition part, 112 ... Correction | amendment part, 113 ... Display control part, 114 ... 1st reception part, 115 ... 2nd reception part, 116 ... Setting part, 12 ... Operation part, DESCRIPTION OF SYMBOLS 13 ... Communication part, 14 ... Display part, 141 ... Display surface, 15 ... Memory | storage part, 151 ... Shooting data, 152,152a ... Reference table, 20 ... Fisheye camera, 21 ... Control part, 22 ... Operation part, 23 ... Communication unit, 24: photographing unit, 241 ... fisheye lens, 25 ... storage unit

Claims (10)

表示面に画像を表示する表示部と、
動画カメラから、当該動画カメラの撮影レンズに起因する画像歪みを含む撮影画像を示す撮影データを取得する取得部と、
前記取得部が取得した撮影データに基づいて、前記画像歪みを減じる歪み補正を行う補正部と、
前記補正部により前記歪み補正が行われた画像を、前記表示面に表示させる表示制御部と、
前記表示面に表示された前記歪み補正が行われた画像を用いて、動体検知の対象領域を指定する第1操作を受け付ける第1受付部と、
前記第1受付部が受け付けた操作により指定された前記対象領域の動体検知を行うよう、前記動体検知の設定を行う設定部と
を備える表示端末。
A display unit for displaying an image on the display surface;
An acquisition unit that acquires shooting data indicating a shot image including image distortion caused by a shooting lens of the movie camera from the movie camera;
A correction unit that performs distortion correction to reduce the image distortion based on the shooting data acquired by the acquisition unit;
A display control unit for displaying the image on which the distortion correction has been performed by the correction unit on the display surface;
A first accepting unit that accepts a first operation for designating a target area for motion detection using the distortion-corrected image displayed on the display surface;
A display terminal comprising: a setting unit configured to set the moving object detection so as to perform the moving object detection of the target area specified by the operation received by the first receiving unit.
前記撮影画像の一部を拡大した部分画像の表示を指示する第2操作を受け付ける第2受付部を備え、
前記表示制御部は、
前記第2操作が受け付けられると、前記歪み補正後の前記部分画像を複数領域に区分して前記表示面に表示させ、
前記第1受付部は、
前記複数領域から前記対象領域を選択する操作を前記第1操作として受け付ける
請求項1に記載の表示端末。
A second receiving unit that receives a second operation for instructing display of a partial image obtained by enlarging a part of the captured image;
The display control unit
When the second operation is accepted, the partial image after the distortion correction is divided into a plurality of regions and displayed on the display surface,
The first reception unit
The display terminal according to claim 1, wherein an operation of selecting the target region from the plurality of regions is received as the first operation.
前記補正部は、
前記部分画像の拡大率が高いほど前記画像歪みを少なくするように前記歪み補正を行い、
前記表示制御部は、
前記拡大率又は前記歪み補正の補正度合いが閾値レベルを超えたときに前記部分画像を前記複数領域に区分する
請求項2に記載の表示端末。
The correction unit is
The distortion correction is performed so as to reduce the image distortion as the magnification of the partial image is higher,
The display control unit
The display terminal according to claim 2, wherein the partial image is divided into the plurality of regions when the enlargement ratio or the correction degree of the distortion correction exceeds a threshold level.
前記設定部は、
前記対象領域毎に設定した検知感度に従って前記動体検知を行う
請求項1から3のいずれか1項に記載の表示端末。
The setting unit
The display terminal according to any one of claims 1 to 3, wherein the moving object detection is performed according to a detection sensitivity set for each target region.
前記設定部は、
前記撮影画像における前記対象領域の位置又は前記画像歪みの大きさに応じて、当該対象領域の前記検知感度を設定する
請求項4に記載の表示端末。
The setting unit
The display terminal according to claim 4, wherein the detection sensitivity of the target area is set according to a position of the target area in the captured image or a magnitude of the image distortion.
前記表示制御部は、
前記第1受付部が前記第1操作を受け付けた後、前記対象領域を明示した前記撮影画像を表示させる
請求項1から5のいずれか1項に記載の表示端末。
The display control unit
The display terminal according to any one of claims 1 to 5, wherein after the first reception unit receives the first operation, the captured image in which the target area is clearly displayed is displayed.
前記表示制御部は、
前記対象領域が前記表示面の予め決められた位置に表示されるように、当該対象領域を明示した前記撮影画像を表示させる
請求項6に記載の表示端末。
The display control unit
The display terminal according to claim 6, wherein the captured image in which the target area is clearly displayed is displayed so that the target area is displayed at a predetermined position on the display surface.
前記第1受付部は、
前記対象領域と、当該対象領域の動体検知を行う時刻とを指定する前記第1操作を受け付け、
前記設定部は、
前記第1操作により指定された前記対象領域の動体検知を、当該第1操作により指定された時刻に行うよう設定する
請求項1から7のいずれか1項に記載の表示端末。
The first reception unit
Receiving the first operation for designating the target area and a time at which moving object detection of the target area is performed;
The setting unit
The display terminal according to claim 1, wherein the moving object detection of the target area specified by the first operation is set to be performed at a time specified by the first operation.
動画カメラから、当該動画カメラの撮影レンズに起因する画像歪みを含む撮影画像を示す撮影データを取得する取得ステップと、
前記取得ステップで取得した撮影データに基づいて、前記画像歪みを減じる歪み補正を行う補正ステップと、
画像を表示する表示面に、前記補正ステップで前記歪み補正が行われた画像を表示させる表示制御ステップと、
前記表示面に表示された前記歪み補正が行われた画像を用いて、動体検知の対象領域を指定する操作を受け付ける受付ステップと、
前記取得ステップで取得した撮影データに基づいて前記受付ステップで受け付けた操作により指定された前記対象領域の動体検知を行うよう、前記動体検知の設定を行う設定ステップと
を有する動体検知の対象領域の設定方法。
An acquisition step of acquiring shooting data indicating a shot image including image distortion caused by a shooting lens of the movie camera from the movie camera;
A correction step for performing distortion correction to reduce the image distortion based on the shooting data acquired in the acquisition step;
A display control step for displaying the image subjected to the distortion correction in the correction step on a display surface for displaying an image;
An accepting step of accepting an operation for designating a target area for moving object detection using the distortion-corrected image displayed on the display surface;
A setting step for setting the moving object detection so as to perform the moving object detection of the target area specified by the operation received in the receiving step based on the imaging data acquired in the acquiring step. Setting method.
表示面に画像を表示する表示端末のコンピュータに、
動画カメラから、当該動画カメラの撮影レンズに起因する画像歪みを含む撮影画像を示す撮影データを取得する取得ステップと、
前記取得ステップで取得した撮影データに基づいて、前記画像歪みを減じる歪み補正を行う補正ステップと、
前記補正ステップで前記歪み補正が行われた画像を、前記表示面に表示させる表示制御ステップと、
前記表示面に表示された前記歪み補正が行われた画像を用いて、動体検知の対象領域を指定する操作を受け付ける受付ステップと、
前記取得ステップで取得した撮影データに基づいて前記受付ステップで受け付けた操作により指定された前記対象領域の動体検知を行うよう、前記動体検知の設定を行う設定ステップと
を実行させるためのプログラム。
In the computer of the display terminal that displays the image on the display surface,
An acquisition step of acquiring shooting data indicating a shot image including image distortion caused by a shooting lens of the movie camera from the movie camera;
A correction step for performing distortion correction to reduce the image distortion based on the shooting data acquired in the acquisition step;
A display control step for displaying the image subjected to the distortion correction in the correction step on the display surface;
An accepting step of accepting an operation for designating a target area for moving object detection using the distortion-corrected image displayed on the display surface;
A program for executing a setting step for setting the moving object detection so as to perform the moving object detection of the target area specified by the operation received in the receiving step based on the imaging data acquired in the acquiring step.
JP2012183493A 2012-08-22 2012-08-22 Display terminal, setting method of target area of moving body detection and program Pending JP2014042160A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012183493A JP2014042160A (en) 2012-08-22 2012-08-22 Display terminal, setting method of target area of moving body detection and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012183493A JP2014042160A (en) 2012-08-22 2012-08-22 Display terminal, setting method of target area of moving body detection and program

Publications (1)

Publication Number Publication Date
JP2014042160A true JP2014042160A (en) 2014-03-06

Family

ID=50394088

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012183493A Pending JP2014042160A (en) 2012-08-22 2012-08-22 Display terminal, setting method of target area of moving body detection and program

Country Status (1)

Country Link
JP (1) JP2014042160A (en)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016039539A (en) * 2014-08-08 2016-03-22 キヤノン株式会社 Image processing system, image processing method, and program
JP2016187162A (en) * 2015-03-27 2016-10-27 キヤノン株式会社 Information processing device, information processing method, and program
JP2016208321A (en) * 2015-04-23 2016-12-08 キヤノン株式会社 Image processor, image processing system, image processing method, and program
CN107122770A (en) * 2017-06-13 2017-09-01 驭势(上海)汽车科技有限公司 Many mesh camera systems, intelligent driving system, automobile, method and storage medium
US11042970B2 (en) 2016-08-24 2021-06-22 Hanwha Techwin Co., Ltd. Image providing device, method, and computer program
CN113516071A (en) * 2021-07-08 2021-10-19 深圳喜为智慧科技有限公司 Weight estimation method for pigs
US11190747B2 (en) 2017-05-25 2021-11-30 Canon Kabushiki Kaisha Display control apparatus, display control method, and storage medium
JP2022075745A (en) * 2017-08-29 2022-05-18 パナソニックIpマネジメント株式会社 Object detection system, program, and object detection method
US20220172374A1 (en) * 2019-03-11 2022-06-02 Omron Corporation Object tracking device and object tracking method

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004064535A (en) * 2002-07-30 2004-02-26 Mitsumi Electric Co Ltd Camera module, portable terminal, photographing method and its program
US7366359B1 (en) * 2004-07-08 2008-04-29 Grandeye, Ltd. Image processing of regions in a wide angle video camera
JP2010219581A (en) * 2009-03-13 2010-09-30 Panasonic Corp Image communication system

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004064535A (en) * 2002-07-30 2004-02-26 Mitsumi Electric Co Ltd Camera module, portable terminal, photographing method and its program
US7366359B1 (en) * 2004-07-08 2008-04-29 Grandeye, Ltd. Image processing of regions in a wide angle video camera
JP2010219581A (en) * 2009-03-13 2010-09-30 Panasonic Corp Image communication system

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016039539A (en) * 2014-08-08 2016-03-22 キヤノン株式会社 Image processing system, image processing method, and program
JP2016187162A (en) * 2015-03-27 2016-10-27 キヤノン株式会社 Information processing device, information processing method, and program
JP2016208321A (en) * 2015-04-23 2016-12-08 キヤノン株式会社 Image processor, image processing system, image processing method, and program
US11042970B2 (en) 2016-08-24 2021-06-22 Hanwha Techwin Co., Ltd. Image providing device, method, and computer program
US11190747B2 (en) 2017-05-25 2021-11-30 Canon Kabushiki Kaisha Display control apparatus, display control method, and storage medium
CN107122770A (en) * 2017-06-13 2017-09-01 驭势(上海)汽车科技有限公司 Many mesh camera systems, intelligent driving system, automobile, method and storage medium
CN107122770B (en) * 2017-06-13 2023-06-27 驭势(上海)汽车科技有限公司 Multi-camera system, intelligent driving system, automobile, method and storage medium
JP2022075745A (en) * 2017-08-29 2022-05-18 パナソニックIpマネジメント株式会社 Object detection system, program, and object detection method
US20220172374A1 (en) * 2019-03-11 2022-06-02 Omron Corporation Object tracking device and object tracking method
US11869199B2 (en) * 2019-03-11 2024-01-09 Omron Corporation Object tracking device and object tracking method
CN113516071A (en) * 2021-07-08 2021-10-19 深圳喜为智慧科技有限公司 Weight estimation method for pigs

Similar Documents

Publication Publication Date Title
JP2014042160A (en) Display terminal, setting method of target area of moving body detection and program
US9906762B2 (en) Communication apparatus, method of controlling communication apparatus, non-transitory computer-readable storage medium
CN111107276B (en) Information processing apparatus, control method thereof, storage medium, and imaging system
KR20160016068A (en) Method for generating image and electronic device thereof
JP6497965B2 (en) Image processing apparatus and image processing method
JP2015115839A5 (en)
JP2019012881A (en) Imaging control device and control method of the same
JP2017168882A (en) Image processing apparatus, image processing method, and program
KR20180129667A (en) Display control apparatus, display control method, and storage medium
US20230332888A1 (en) Information processing apparatus
JP6544996B2 (en) Control device and control method
JPWO2016174942A1 (en) Information processing apparatus, information processing method, and program
JP5872415B2 (en) Display terminal, operation reception method, and program
JP6374535B2 (en) Operating device, tracking system, operating method, and program
JP2018005091A (en) Display control program, display control method and display controller
JP6483661B2 (en) Imaging control apparatus, imaging control method, and program
US11700446B2 (en) Information processing apparatus, system, control method of information processing apparatus, and non-transitory computer-readable storage medium
JP2019032448A (en) Control unit, control method, and program
JP2013232830A (en) Image processing system, image processing device, image processing method, and image processing program
KR20170106177A (en) Electronic device for providing panorama image and control method thereof
US9883103B2 (en) Imaging control apparatus and method for generating a display image, and storage medium
JP7353864B2 (en) Information processing device, control method and program for information processing device, imaging system
JP2020010111A (en) Display device, imaging device, and control method, program, and imaging system for the devices
JP6679784B2 (en) Image processing apparatus and image processing method
JP2017182843A (en) Program, display control device, and display control method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150216

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20151209

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20151222

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20160412