JP2022169536A - Camera terminal, information processing method, and program - Google Patents

Camera terminal, information processing method, and program Download PDF

Info

Publication number
JP2022169536A
JP2022169536A JP2022120243A JP2022120243A JP2022169536A JP 2022169536 A JP2022169536 A JP 2022169536A JP 2022120243 A JP2022120243 A JP 2022120243A JP 2022120243 A JP2022120243 A JP 2022120243A JP 2022169536 A JP2022169536 A JP 2022169536A
Authority
JP
Japan
Prior art keywords
surveillance
monitoring
image
event
touch panel
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2022120243A
Other languages
Japanese (ja)
Other versions
JP7276576B2 (en
Inventor
健一朗 猪田
Kenichiro Inota
啓至 北嶋
Keiji Kitajima
博義 宮野
Hiroyoshi Miyano
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP2021000056A external-priority patent/JP7120337B2/en
Application filed by NEC Corp filed Critical NEC Corp
Priority to JP2022120243A priority Critical patent/JP7276576B2/en
Publication of JP2022169536A publication Critical patent/JP2022169536A/en
Application granted granted Critical
Publication of JP7276576B2 publication Critical patent/JP7276576B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Closed-Circuit Television Systems (AREA)
  • Emergency Alarm Devices (AREA)
  • User Interface Of Digital Computer (AREA)
  • Telephone Function (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a technology for improving operability of a mobile device.
SOLUTION: An information processing apparatus (2000) includes a first processing unit (2020), a second processing unit (2040), and a control unit (2060). The first processing unit (2020) generates information indicating an event detection position in accordance with a position on a monitor image set by a first operation. The first operation is an operation on the monitor image displayed on a display screen. The second processing unit (2040) executes display change processing on the monitor image or a window including the monitor image, in response to the first operation. The control unit (2060) causes the first processing unit (2020) or the second processing unit (2040) to process the first operation, based on a second operation.
SELECTED DRAWING: Figure 1
COPYRIGHT: (C)2023,JPO&INPIT

Description

本発明は、モバイル監視装置、制御方法、及びプログラムに関する。 The present invention relates to a mobile monitoring device, control method, and program.

監視カメラ等によって撮像された映像(以下「監視映像」という。)を用いて監視を行う監視システムがある。例えば監視映像は、監視員によって閲覧されたり、解析装置によって解析されたりする。このような監視システムは、トラブルの発生を未然に防いだり、発生したトラブルを早期に解決したりするために用いられる。 2. Description of the Related Art There are surveillance systems that perform surveillance using images captured by a surveillance camera or the like (hereinafter referred to as "surveillance images"). For example, surveillance images are viewed by surveillance personnel and analyzed by an analysis device. Such a monitoring system is used to prevent the occurrence of troubles and to solve the troubles at an early stage.

監視システムにおいて、スマートフォンやタブレット等のモバイル機器が利用され始めている。例えば特許文献1は、監視カメラの映像を不特定のユーザへ公開するシステムを開示している。ユーザは、モバイル機器やパソコン等を用いてそのサーバへアクセスすることで、監視カメラの映像を閲覧することができる。 Mobile devices such as smartphones and tablets are beginning to be used in monitoring systems. For example, Japanese Laid-Open Patent Publication No. 2002-100000 discloses a system that opens the video of a surveillance camera to unspecified users. A user can browse the video of the surveillance camera by accessing the server using a mobile device, a personal computer, or the like.

また、監視システムにおいて、監視映像の一部を監視領域として設定できる技術がある。例えば特許文献2の画像処理装置では、マウス等の入力装置を用いて監視領域を設定できる。そして、この画像処理装置は、監視領域において侵入物体の検出を行う。 Also, in a monitoring system, there is a technique that can set a part of a monitoring video as a monitoring area. For example, in the image processing apparatus disclosed in Patent Document 2, a monitor area can be set using an input device such as a mouse. Then, this image processing device detects an intruding object in the monitored area.

特開2014-64241号公報JP 2014-64241 A 特許第4976939号Patent No. 4976939 国際公開第2014/030667号WO2014/030667

監視システムにおいて利用されるスマートフォンやタブレット等のモバイル機器では、イベント検出位置の設定(映像監視線の設定や監視領域の設定等)と、表示画面上の表示を変更する処理(表示変更処理)とが、いずれもユーザのタッチ操作によって行われうる。イベント検出位置の設定は、例えば表示画面で指をスライドさせる操作、ピンチイン・ピンチアウト操作等により映像監視線や監視領域の位置や範囲が指定されることにより行われる。表示変更処理は、同様に、表示画面で指をスライドさせる操作、ピンチイン・ピンチアウト操作等による遠隔の監視カメラのPTZ(Pan-Tilt-Zoom)機能の制御、表示画面のデジタルズーム(拡大・縮小)やスクロール等により行われる。 In mobile devices such as smartphones and tablets used in monitoring systems, setting of event detection positions (setting of video monitoring lines, setting of monitoring areas, etc.) and processing to change the display on the display screen (display change processing) However, both can be performed by the user's touch operation. The setting of the event detection position is performed by designating the position and range of the image monitoring line and the monitoring area by, for example, sliding a finger on the display screen, pinch-in/pinch-out operation, or the like. Similarly, the display change processing includes the operation of sliding a finger on the display screen, the control of the PTZ (Pan-Tilt-Zoom) function of the remote surveillance camera by pinch-in/pinch-out operations, and the digital zoom (enlargement/reduction) of the display screen. or by scrolling.

このように、異なる処理が同様の操作に応じて実行されるため、監視システムにおいて利用されるモバイル機器は、ユーザにとって操作性が低い。 Since different processes are executed in response to similar operations in this manner, the mobile devices used in the monitoring system have low operability for users.

本発明は、上記の課題に鑑みてなされたものである。本発明の目的は、モバイル機器の操作性を向上させる技術を提供することである。 The present invention has been made in view of the above problems. An object of the present invention is to provide a technique for improving the operability of mobile devices.

本発明のモバイル監視装置は、表示画面上に表示されている監視画像に対する第1操作に応じて、前記監視画像に対してイベント検出位置を表す情報を生成する設定する第1処理手段と、前記第1操作に応じて、前記監視画像又は前記監視画像を含むウインドウに対する、前記イベント検出位置の設定以外の表示変更処理を行う第2処理手段と、前記第1操作を前記第1処理手段と前記第2処理手段のどちらか一方に処理させる制御手段と、を有する。 The mobile monitoring device of the present invention comprises first processing means for generating and setting information representing an event detection position for the monitoring image displayed on the display screen in accordance with a first operation for the monitoring image; second processing means for performing display change processing other than setting of the event detection position on the monitoring image or a window including the monitoring image in accordance with a first operation; and a control means for causing either one of the second processing means to process.

本発明のプログラムは、コンピュータを、本発明のモバイル監視装置として動作させるプログラムである。 A program of the present invention is a program that causes a computer to operate as the mobile monitoring device of the present invention.

本発明の制御方法は、コンピュータによって実行させる。当該制御方法は、表示画面上に表示されている監視画像に対する第1操作に応じて、前記監視画像に対してイベント検出位置を表す情報を生成する設定する第1処理ステップと、前記第1操作に応じて、前記監視画像又は前記監視画像を含むウインドウに対する、前記イベント検出位置の設定以外の表示変更処理を行う第2処理ステップと、前記第1操作を前記第1処理ステップと前記第2処理ステップのどちらか一方に処理させる制御ステップと、を有する。 The control method of the present invention is executed by a computer. The control method includes a first processing step of generating and setting information representing an event detection position for a monitoring image displayed on a display screen in response to a first operation performed on the monitoring image; a second processing step of performing display change processing other than setting of the event detection position on the monitoring image or a window including the monitoring image, and performing the first operation in the first processing step and the second processing according to and a control step that causes either one of the steps to process.

本発明によれば、モバイル機器の操作性を向上させる技術が提供される。 ADVANTAGE OF THE INVENTION According to this invention, the technique which improves the operability of a mobile device is provided.

上述した目的、およびその他の目的、特徴および利点は、以下に述べる好適な実施の形態、およびそれに付随する以下の図面によってさらに明らかになる。 The above objectives, as well as other objectives, features and advantages, will become further apparent from the preferred embodiments described below and the accompanying drawings below.

実施形態1に係る情報処理装置を例示するブロック図である。1 is a block diagram illustrating an information processing apparatus according to Embodiment 1; FIG. 実施形態1の情報処理装置によって実行される処理の流れを例示するフローチャートである。4 is a flowchart illustrating the flow of processing executed by the information processing apparatus of Embodiment 1; 情報処理装置のハードウエア構成を例示するブロック図である。2 is a block diagram illustrating the hardware configuration of an information processing device; FIG. 監視カメラによって撮像された監視画像を例示する図である。FIG. 4 is a diagram illustrating a monitoring image captured by a monitoring camera; FIG. 監視エリアの地図を表す監視画像である。It is a surveillance image showing a map of a surveillance area. 監視画像を含むウインドウを例示する図である。FIG. 4 is a diagram illustrating a window containing a surveillance image; FIG. 複数の監視画像を含むウインドウを例示する図である。FIG. 4 illustrates a window containing multiple surveillance images; 第1操作を例示する図である。FIG. 10 is a diagram illustrating a first operation; FIG. 第1操作によってイベント検出位置が指定される様子を例示する図である。FIG. 10 is a diagram illustrating how an event detection position is designated by a first operation; 監視画像の左下をタッチしながら映像監視線を重畳している様子を表している図である。It is a figure showing a mode that the image|video monitoring line is superimposed, touching the lower left of the monitoring image. 情報処理装置の姿勢を例示する図である。It is a figure which illustrates the attitude|position of an information processing apparatus. 監視システム及び情報処理装置を例示するブロック図である。1 is a block diagram illustrating a monitoring system and an information processing device; FIG. クラウド型映像記憶装置を有する監視システムを例示するブロック図である。1 is a block diagram illustrating a surveillance system with cloud video storage; FIG. インテリジェントカメラを有する監視システムを例示するブロック図である。1 is a block diagram illustrating a surveillance system with intelligent cameras; FIG. 実施例において表示画面に表示される監視画像を例示する第1の図である。FIG. 10 is a first diagram illustrating a monitoring image displayed on a display screen in the embodiment; 実施例において表示画面に表示される監視画像を例示する第2の図である。FIG. 10 is a second diagram illustrating a monitoring image displayed on the display screen in the embodiment;

まず、本発明の実施形態の理解を容易にするために、本発明の背景を説明する。
表示画面やウインドウ(以下「表示画面等」という。)の中に、画像や画像を含むドキュメント(例えば Web ページ)等が収まらないケースがある。例えば一般的に、地図を扱うアプリケーションにおいて表示画面等に表示される画像は、一部の場所の地図のみである。また、画像の解像度が表示画面の解像度より大きい場合、その画像は、サイズを縮小しない限り、表示画面等に画像の一部しか収まらない。また、情報量が多い Web ページは、表示画面等に収まらないことも多い。特にモバイル機器では、表示画面が小さいため、表示画面等に画像の一部しか収まらないケースが多い。
First, the background of the present invention will be described in order to facilitate understanding of the embodiments of the present invention.
In some cases, images or documents containing images (such as web pages) do not fit within the display screen or window (hereafter referred to as “display screen, etc.”). For example, in general, an image displayed on a display screen or the like in an application that handles a map is only a map of a part of the location. Also, if the resolution of the image is greater than the resolution of the display screen, the image will only partially fit on the display screen or the like unless the size is reduced. Web pages with a large amount of information often do not fit on the display screen. Particularly in mobile devices, since the display screen is small, there are many cases where only a part of the image can be displayed on the display screen or the like.

表示画面等に画像やドキュメントが収まらない場合、ユーザは、所定の操作を行うことで表示画面等に映る画像やドキュメントの範囲を調整する。例えば所定の操作は、スクロール操作、拡大操作、縮小操作等である。例えば地図画像の場合、ユーザは、地図画像を表示するタッチパネル上で指をスライドして地図画像をスクロールさせることで、表示画面に映る場所を変更し、所望の場所の地図を閲覧する。また例えば、ユーザは、ドキュメントをスクロールさせ、所望の文章等を閲覧する。また例えば、ユーザは、地図画像に対してピンチイン・ピンチアウト等の操作を行うことで、地図の縮尺を調整する。 When the image or document does not fit on the display screen or the like, the user adjusts the range of the image or document displayed on the display screen or the like by performing a predetermined operation. For example, the predetermined operation is a scroll operation, an enlargement operation, a reduction operation, and the like. For example, in the case of a map image, the user scrolls the map image by sliding his/her finger on the touch panel displaying the map image, thereby changing the location displayed on the display screen and browsing the map of the desired location. Further, for example, the user scrolls the document and browses desired sentences. Further, for example, the user adjusts the scale of the map by performing operations such as pinch-in and pinch-out on the map image.

このようにモバイル機器の表示画面等に画像やドキュメントが収まりきらない状況下で監視映像を用いた監視を行う場合、例えば監視員等のユーザは、監視映像や監視映像を含むドキュメントに対して上述のスクロール操作等を行う。こうすることで、ユーザは、表示画面に映る監視映像の範囲等を調整し、所望の場所の監視を行う。 In this way, when surveillance using surveillance video is performed in a situation where images and documents cannot fit on the display screen of a mobile device, for example, a user such as a surveillance officer may not be able to view the surveillance video or document containing the surveillance video as described above. , etc. By doing so, the user adjusts the range of the monitoring image displayed on the display screen, etc., and monitors the desired location.

また、監視映像を表示するモバイル機器のタッチパネル上で指をスライドさせる操作や、ピンチイン・ピンチアウト操作によって、当該監視映像を取得しているPTZ(Pan-Tilt-Zoom)カメラの PTZ 機能を制御することが行われる。また、デジタルズーム等が行われる。 In addition, the PTZ function of the PTZ (Pan-Tilt-Zoom) camera that acquires the surveillance image can be controlled by sliding your finger on the touch panel of the mobile device that displays the surveillance image, or by pinching in and pinching out. is done. In addition, digital zoom and the like are performed.

一方、監視映像に対してタッチパネル上のタッチ操作により、映像監視線を引く、監視領域を設定する等、イベントの検出位置を設定しようとする場合、当該操作は直感的には指をスライドさせる操作やピンチイン・ピンチアウト操作であることが望ましい。しかしながらそれら直観的な操作は、上述の通り表示画面等に映る監視映像の範囲等を調整する操作や、PTZ 機能を制御する操作等の表示変更の操作と同様の操作であり、ユーザが監視映像に対して行う直感的な操作の意味が重複してしまうという問題がある。例えば、監視映像中に映像監視線を引こうとして指をスライドさせる操作を行うと、映像監視線が引かれることなく表示画面がスクロールしてしまう等の問題が発生しうる。 On the other hand, when trying to set an event detection position, such as drawing a video monitoring line or setting a monitoring area, by touching a touch panel on a monitoring video, intuitively, the operation is to slide a finger. or pinch-in/pinch-out operation. However, these intuitive operations are similar to operations for adjusting the range of the surveillance image displayed on the display screen, etc., and operations for changing the display, such as operations for controlling the PTZ function, as described above. There is a problem that the meaning of the intuitive operation performed on the is duplicated. For example, if a finger is slid to draw a video monitoring line during a monitoring video, problems such as scrolling of the display screen without drawing the video monitoring line may occur.

なお、地図に対して領域を指定する操作を提供する装置の例として、特許文献3の発明がある。この発明では、ユーザが地図に対して範囲指定を行い、この指定範囲にシールの画像が描画される。しかしこの発明では、地図上で指をスライドさせると地図がスクロールしてしまうような状況は想定しておらず、上述のような操作の意味が重複する問題は想定していない。 As an example of a device that provides an operation for designating an area on a map, there is the invention of Patent Document 3. In this invention, the user designates a range on the map, and the image of the sticker is drawn in this designated range. However, the present invention does not assume a situation in which the map scrolls when the finger is slid on the map, and does not assume the above-described problem of overlapping meanings of operations.

以下に説明される本発明の実施形態によれば、上述の操作の意味が重複する問題が解決され、モバイル機器の操作性が向上する。なお、スマートフォンやタブレット等のモバイル機器を利用した監視装置を「モバイル監視装置」という。 According to the embodiments of the present invention described below, the above problem of overlapping meanings of operations is resolved, and the operability of mobile devices is improved. Monitoring devices that use mobile devices such as smartphones and tablets are called "mobile monitoring devices."

以下、本発明の実施の形態について、図面を用いて説明する。尚、すべての図面において、同様な構成要素には同様の符号を付し、適宜説明を省略する。 BEST MODE FOR CARRYING OUT THE INVENTION Hereinafter, embodiments of the present invention will be described with reference to the drawings. In addition, in all the drawings, the same constituent elements are denoted by the same reference numerals, and the description thereof will be omitted as appropriate.

[実施形態1]
図1は、実施形態1に係る情報処理装置2000を例示するブロック図である。また、図1において、各ブロックは、ハードウエア単位の構成ではなく、機能単位の構成を表している。
[Embodiment 1]
FIG. 1 is a block diagram illustrating an information processing device 2000 according to the first embodiment. Also, in FIG. 1, each block does not represent the configuration in units of hardware, but the configuration in units of functions.

情報処理装置2000は、第1処理部2020、第2処理部2040、及び制御部2060を有する。第1処理部2020は、第1操作で指定された監視画像上の位置に応じて、イベント検出位置を表す情報(以下「イベント検出位置情報」という。)を生成する。第1操作は、監視画像等を表示するモバイル機器のタッチパネル10上で、ユーザにより行われる操作である。このイベント検出位置は、情報処理装置2000を利用する監視システムにより、イベントを検出するために用いられる。イベント及びイベント検出位置の詳細については、後述する。 The information processing device 2000 has a first processing section 2020 , a second processing section 2040 and a control section 2060 . The first processing unit 2020 generates information representing an event detection position (hereinafter referred to as “event detection position information”) according to the position on the monitoring image designated by the first operation. The first operation is an operation performed by the user on the touch panel 10 of the mobile device that displays monitoring images and the like. This event detection position is used by a monitoring system using the information processing apparatus 2000 to detect an event. Details of events and event detection positions will be described later.

第2処理部2040は、第1操作に応じて、表示画面に対する表示変更処理を行う。例えば表示変更処理は、タッチパネル10に表示される監視画像の範囲や監視画像の大きさ等を変更する処理である。具体的には、表示変更処理は、監視画像をスクロールする処理等である。表示変更処理のその他の例については、後述する。 The second processing unit 2040 performs display change processing on the display screen in accordance with the first operation. For example, the display change process is a process of changing the range of the monitoring image displayed on the touch panel 10, the size of the monitoring image, and the like. Specifically, the display change process is, for example, a process of scrolling the monitoring image. Other examples of display change processing will be described later.

制御部2060は、第1操作を第1処理部2020と第2処理部2040のどちらか一方に処理させる。 The control unit 2060 causes either the first processing unit 2020 or the second processing unit 2040 to process the first operation.

<処理の流れ>
図2は実施形態1の情報処理装置2000によって実行される処理の流れを例示するフローチャートである。制御部2060は、所定の条件を満たすか否かを判定する(S104)。所定の条件を満たす場合、制御部2060の処理はステップS106に進む。ステップS106において、制御部2060は、第1処理部2020に第1操作を処理させる。
一方、所定の条件を満たさない場合、制御部2060の処理はステップS108に進む。ステップS108において、制御部2060は、第2処理部2040に第1操作を処理させる。
<Process flow>
FIG. 2 is a flowchart illustrating the flow of processing executed by the information processing apparatus 2000 of the first embodiment. The control unit 2060 determines whether or not a predetermined condition is satisfied (S104). If the predetermined condition is satisfied, the process of control unit 2060 proceeds to step S106. In step S106, the control unit 2060 causes the first processing unit 2020 to process the first operation.
On the other hand, if the predetermined condition is not satisfied, the processing of control unit 2060 proceeds to step S108. In step S108, the control unit 2060 causes the second processing unit 2040 to process the first operation.

<作用・効果>
例えば後述するように、監視画像上で指をスライドする操作は、イベント検出位置を表す線(映像監視線等)を引くための操作である場合もあるし、監視画像をスクロールするための操作(当該監視画像を取得しているPTZカメラのパン・チルト機能を制御するための操作等)である場合もある。また、監視画像上におけるピンチイン・ピンチアウト操作は、監視領域を設定する操作である場合もあるし、監視画像を拡大・縮小するための操作(当該監視画像を取得しているPTZカメラのズーム機能を制御(テレ・ワイドを変更)するための操作等)である場合もある。このように、イベント検出位置を指定するための直感的な操作と、監視画像等の表示を変更するための直感的な操作とは、同様の操作である場合が多い。
<Action/effect>
For example, as will be described later, an operation of sliding a finger on a monitoring image may be an operation for drawing a line (such as a video monitoring line) representing an event detection position, or may be an operation for scrolling a monitoring image ( In some cases, it is an operation for controlling the pan/tilt function of the PTZ camera that acquires the monitoring image. In addition, the pinch-in/pinch-out operation on the surveillance image may be an operation to set the surveillance area, or an operation for enlarging/reducing the surveillance image (the zoom function of the PTZ camera that acquires the surveillance image). (operation for changing tele/wide), etc.). In this way, the intuitive operation for designating the event detection position and the intuitive operation for changing the display of the monitoring image or the like are often the same.

本実施形態によれば、監視画像等に対する第1操作が、第1処理部2020又は第2処理部2040のどちらかによって処理される。第1処理部2020によって処理される場合、第1操作はイベント検出位置の指定を意味する。第2処理部2040によって処理される場合、第1操作は監視画像等の表示変更を意味する。このように、本実施形態によれば、監視画像等に対する第1操作という操作が、所定の条件によってイベント検出位置の指定と監視画像等の表示変更のどちらか一方を行うための操作として処理される。よって、情報処理装置2000のユーザは、監視画像等の表示を変更するための直感的な操作と同様の操作で、イベント検出位置の指定を行える。よって、情報処理装置2000のユーザは、直感的な操作でイベント検出位置の指定を行うことができる。 According to this embodiment, the first operation on the monitoring image or the like is processed by either the first processing unit 2020 or the second processing unit 2040 . When processed by the first processing unit 2020, the first operation means specifying the event detection position. When processed by the second processing unit 2040, the first operation means changing the display of the monitoring image or the like. As described above, according to the present embodiment, the first operation on the monitoring image or the like is processed as an operation for either designating the event detection position or changing the display of the monitoring image or the like according to a predetermined condition. be. Therefore, the user of the information processing apparatus 2000 can specify the event detection position with an intuitive operation similar to the operation for changing the display of the monitoring image or the like. Therefore, the user of the information processing apparatus 2000 can specify the event detection position with an intuitive operation.

以下、本実施形態についてさらに詳細を述べる。 The present embodiment will be described in further detail below.

<ハードウエア構成例>
情報処理装置2000の各機能構成部は、各機能構成部を実現するハードウエア(例:ハードワイヤードされた電子回路等)で実現されてもよいし、ハードウエアとソフトウエアとの組み合わせ(例:電子回路とそれを制御するプログラムの組み合わせ等)で実現されてもよい。
<Hardware configuration example>
Each functional configuration unit of the information processing apparatus 2000 may be implemented by hardware (eg, hardwired electronic circuit, etc.) that implements each functional configuration unit, or may be implemented by a combination of hardware and software (eg, A combination of an electronic circuit and a program for controlling it, etc.).

図3は、情報処理装置2000のハードウエア構成を例示するブロック図である。情報処理装置2000は、バス1020、プロセッサ1040、メモリ1060、ストレージ1080、入出力インタフェース1100、及びネットワークインタフェース1120を有する。バス1020は、プロセッサ1040、メモリ1060、ストレージ1080、入出力インタフェース1100、及びネットワークインタフェース1120が、相互にデータを送受信するためのデータ伝送路である。ただし、プロセッサ1040等を互いに接続する方法は、バス接続に限定されない。プロセッサ1040は、例えば CPU (Central Processing Unit) や GPU (Graphics Processing Unit) 等の演算処理装置である。メモリ1060は、例えば RAM (Random Access Memory) や ROM (Read Only Memory) 等のメモリである。ストレージ1080は、例えばハードディスク、SSD (Solid State Drive)、又はメモリカード等の記憶装置である。また、ストレージ1080は、RAM や ROM 等のメモリであってもよい。 FIG. 3 is a block diagram illustrating the hardware configuration of the information processing device 2000. As shown in FIG. The information processing device 2000 has a bus 1020 , a processor 1040 , a memory 1060 , a storage 1080 , an input/output interface 1100 and a network interface 1120 . Bus 1020 is a data transmission path for processor 1040, memory 1060, storage 1080, input/output interface 1100, and network interface 1120 to mutually transmit and receive data. However, the method of connecting the processors 1040 and the like to each other is not limited to bus connection. The processor 1040 is an arithmetic processing device such as a CPU (Central Processing Unit) or a GPU (Graphics Processing Unit). The memory 1060 is, for example, RAM (Random Access Memory) or ROM (Read Only Memory). The storage 1080 is, for example, a storage device such as a hard disk, SSD (Solid State Drive), or memory card. Also, the storage 1080 may be a memory such as RAM or ROM.

入出力インタフェース1100は、情報処理装置2000と入出力デバイスとを接続するためのインタフェースである。入出力デバイスは、例えば監視画像の表示を行うとともに、監視画像に対する操作の入力を受け付けるタッチパネル10である。 The input/output interface 1100 is an interface for connecting the information processing apparatus 2000 and input/output devices. The input/output device is, for example, the touch panel 10 that displays a monitoring image and receives an operation input for the monitoring image.

ネットワークインタフェース1120は、情報処理装置2000を外部の装置と通信可能に接続するためのインタフェースである。ネットワークインタフェース1120は、有線回線と接続するためのネットワークインタフェースでもよいし、無線回線と接続するためのネットワークインタフェースでもよい。 The network interface 1120 is an interface for communicably connecting the information processing device 2000 to an external device. The network interface 1120 may be a network interface for connecting with a wired line or a network interface for connecting with a wireless line.

ストレージ1080は、情報処理装置2000の機能を実現するためのプログラムを記憶している。具体的には、第1処理部2020、第2処理部2040、及び制御部2060の機能を実現するプログラムモジュールを記憶している。プロセッサ1040は、これら各プログラムモジュールを実行することで、第1処理部2020、第2処理部2040、及び制御部2060の機能をそれぞれ実現する。ここでプロセッサ1040は、上記各モジュールを実行する際、これらのモジュールをメモリ1060上に読み出してから実行してもよいし、メモリ1060上に読み出さずに実行してもよい。 The storage 1080 stores programs for realizing functions of the information processing apparatus 2000 . Specifically, program modules that realize the functions of the first processing unit 2020, the second processing unit 2040, and the control unit 2060 are stored. The processor 1040 implements the functions of the first processing unit 2020, the second processing unit 2040, and the control unit 2060 by executing these program modules. Here, when executing each module, the processor 1040 may execute these modules after reading them onto the memory 1060 , or may execute them without reading them onto the memory 1060 .

情報処理装置2000のハードウエア構成は図3に示した構成に限定されない。例えば、各プログラムモジュールはメモリ1060に格納されてもよい。この場合、情報処理装置2000は、ストレージ1080を備えていなくてもよい。 The hardware configuration of the information processing device 2000 is not limited to the configuration shown in FIG. For example, each program module may be stored in memory 1060 . In this case, the information processing device 2000 does not have to include the storage 1080 .

情報処理装置2000は、モバイル機器(スマートフォンやタブレット等)等の計算機として実装される。タッチパネル10は、例えば情報処理装置2000が実装されるモバイル機器に標準で備えられているタッチパネルである。 The information processing device 2000 is implemented as a computer such as a mobile device (smartphone, tablet, etc.). The touch panel 10 is, for example, a standard touch panel provided in a mobile device on which the information processing device 2000 is mounted.

<監視画像について>
監視画像は、種々の場所(港、空港、ターミナル駅、プラットホーム、発電所、プラント、ダム等の重要施設、倉庫街、レジャー施設、スポーツ施設、スタジアム、商業施設、建物、又は都市・街頭等)の監視に用いられる画像である。具体的には、監視画像は、監視対象の場所に設けられた監視カメラによって撮像された画像である。図4は、モバイル機器のタッチパネルに表示された監視画像を例示する図である。図4において、監視カメラは建物内の廊下を撮像している。
<About surveillance images>
Surveillance images can be captured at various locations (ports, airports, terminal stations, platforms, power plants, plants, important facilities such as dams, warehouse districts, leisure facilities, sports facilities, stadiums, commercial facilities, buildings, cities, streets, etc.). is an image used for monitoring the Specifically, the monitoring image is an image captured by a monitoring camera provided at a location to be monitored. FIG. 4 is a diagram exemplifying a monitoring image displayed on the touch panel of the mobile device. In FIG. 4, the surveillance camera is imaging the hallway in the building.

なお、イベント検出位置の設定は、必ずしも監視画像上で行われる必要はなく、監視対象の場所を上空から撮像した画像(例えば人工衛星から撮像された画像)や、監視対象の場所の地図を表す画像上で行われてもよい。図5は、モバイル機器のタッチパネルに表示された監視対象の場所の地図を表す画像である。 It should be noted that the setting of the event detection position does not necessarily have to be performed on the monitoring image. It may be done on the image. FIG. 5 is an image representing a map of a monitored location displayed on the touch panel of the mobile device.

また、地図画像は、単に地図を表示するだけではなく、イベント検知の対象となった人物等の追跡情報をリアルタイムで表示する、監視画像としての意味を含むものであってもよい。 In addition, the map image may not only display a map, but may also have the meaning of a monitoring image that displays in real time tracking information of a person or the like for whom an event has been detected.

第1操作が監視画像に対して行われる場合、当該監視画像は動画を構成する1つ又は複数のフレームであってもよいし、静止画像として撮像された画像(写真)であってもよい。 When the first operation is performed on a monitoring image, the monitoring image may be one or more frames forming a moving image, or may be an image (photograph) captured as a still image.

監視画像は、リアルタイムで撮像されている画像であってもよいし、過去に撮像された画像であってもよい。 The monitoring image may be an image captured in real time or an image captured in the past.

例えば監視画像は、情報処理装置2000の内部の記憶装置(図3のストレージ1080)に記憶されている。また例えば、監視画像は、情報処理装置2000の外部に設けられている記憶装置に記憶されていてもよい。この場合、情報処理装置2000は、この外部の記憶装置から監視画像を取得する。また例えば、情報処理装置2000は、監視カメラによって撮像された監視画像を、その監視カメラから直接取得してもよい。 For example, the monitoring image is stored in a storage device inside the information processing device 2000 (storage 1080 in FIG. 3). Further, for example, the monitoring image may be stored in a storage device provided outside the information processing device 2000 . In this case, the information processing device 2000 acquires the monitoring image from this external storage device. Further, for example, the information processing apparatus 2000 may directly acquire a monitoring image captured by a monitoring camera from the monitoring camera.

タッチパネル10には、監視画像が単独で表示されてもよいし、監視画像を含むウインドウが表示されてもよい。図6は、監視画像30を含むウインドウ60を例示する図である。また、ウインドウ60は、メインの監視画像30と、複数のサブの監視画像31を同時に含んでいてもよい。図7は、複数の監視画像30を含むウインドウ60を例示する図である。 The touch panel 10 may display a monitoring image alone, or may display a window including a monitoring image. FIG. 6 is a diagram illustrating a window 60 containing the surveillance image 30. As shown in FIG. Also, the window 60 may include the main monitoring image 30 and a plurality of sub-monitoring images 31 at the same time. FIG. 7 is a diagram illustrating a window 60 including multiple surveillance images 30. As shown in FIG.

<第1操作について>
第1操作は、例えばタッチパネル10上で指をスライドさせる操作である。このスライド操作は、一本の指で行われてもよいし、複数の指で行われてもよい。
<About the first operation>
A first operation is, for example, an operation of sliding a finger on the touch panel 10 . This slide operation may be performed with one finger or may be performed with a plurality of fingers.

図8は、第1操作を例示する図である。図8(a)はタッチパネル10上で一本の指をスライドさせる操作を表す。図8(b)回転操作を表す。例えばこの回転操作は、画像を回転させるための操作である。図8(c)は、ピンチイン・ピンチアウト操作を表す。ただし、第1操作はこれらの操作に限定されない。 FIG. 8 is a diagram illustrating the first operation. FIG. 8A shows an operation of sliding one finger on the touch panel 10. FIG. FIG. 8(b) represents a rotation operation. For example, this rotation operation is an operation for rotating an image. FIG. 8(c) represents a pinch-in/pinch-out operation. However, the first operation is not limited to these operations.

<第2処理部2040が行う処理>
第2処理部2040が行う表示変更処理は様々である。例えば、表示変更処理は、一般的なモバイル機器等において、画像やウインドウに対して行われた操作に応じて、画像やウインドウの表示を変更する処理である。
<Process Performed by Second Processing Unit 2040>
There are various types of display change processing performed by the second processing unit 2040 . For example, the display change process is a process of changing the display of an image or window in accordance with an operation performed on the image or window in a general mobile device or the like.

例えば表示変更処理は、監視画像、地図画像又はそれらを含むウインドウ(「監視画像等」という。)を表示するタッチパネル10に対して指をスライドさせる操作に応じて、これらの監視画像等をスクロールする処理である。また例えば、表示変更処理は、監視画像等をつまんだ指を回転する操作に応じて、監視画像等を回転させる処理である。また例えば、表示変更処理は、監視画像等をピンチイン・ピンチアウトする操作に応じて、監視画像等を縮小・拡大する処理である。表示変更処理はこれらの例に限定されない。 For example, the display change process scrolls these monitoring images, etc., in response to an operation of sliding a finger on the touch panel 10 that displays a monitoring image, a map image, or a window containing them (referred to as a "monitoring image, etc."). processing. Further, for example, the display change process is a process of rotating a monitoring image or the like according to an operation of rotating a finger pinching the monitoring image or the like. Further, for example, the display change process is a process of reducing or enlarging the monitoring image or the like in accordance with an operation of pinching in or pinching out the monitoring image or the like. The display change processing is not limited to these examples.

表示変更処理は、「監視画像に対するユーザの操作によって当該監視画像を生成している PTZ カメラの PTZ 機能が制御され、その結果として監視画像の表示が変更される」という処理を含む。例えば、表示変更処理は、監視画像上で指をスライドさせる操作に応じて、当該監視画像を生成している PTZ カメラのパン・チルト機能が制御された結果として、監視画像がスクロールされる処理である。また例えば、表示変更処理は、監視画像をピンチイン・ピンチアウトする操作に応じて、当該監視画像を取得している PTZ カメラのズーム機能が制御(テレ・ワイドが変更)された結果として、監視画像が縮小・拡大される処理である。その他、表示変更処理は、デジタルズーム等のデジタル処理の結果として監視画像の表示が変更される処理を含む。 The display change process includes a process of "controlling the PTZ function of the PTZ camera that generates the monitoring image by the user's operation on the monitoring image, and as a result, changing the display of the monitoring image". For example, the display change process is a process in which the surveillance image is scrolled as a result of controlling the pan/tilt function of the PTZ camera that generates the surveillance image according to the operation of sliding a finger on the surveillance image. be. In addition, for example, the display change processing is performed by controlling the zoom function (tele/wide) of the PTZ camera that acquires the monitoring image according to the pinch-in/pinch-out operation of the monitoring image. is reduced or enlarged. In addition, the display change processing includes processing for changing the display of the monitoring image as a result of digital processing such as digital zoom.

<第1処理部2020が行う処理>
第1処理部2020は、イベント検出位置情報の生成を行う。イベント検出位置情報は、例えば情報処理装置2000を利用する監視システムで用いられる。イベントは、この監視システムにおいて検出の対象とする様々な事象である。例えばイベントは、人、動物、車等の乗り物その他物体(以下、単に「物体」という。)の映像監視線の通過、監視領域における物体の所定の事象(侵入、立ち去り、出現、消失、侵入、立ち去り、出現、消失、喧嘩、滞留、うろつき、転倒、立ち上がり、座り込み、移動方向の変化、逆走、万引き、迂回、損傷、持ち去り、置き去り、落書き、群衆の形成、等)、線で定義された特定ルートの物体の移動等である。イベント検出位置は、例えば上記監視システムにおける上記映像監視線又は監視領域を示す位置として用いられる。
<Process Performed by First Processing Unit 2020>
The first processing unit 2020 generates event detection position information. Event detection position information is used, for example, in a monitoring system using the information processing apparatus 2000 . Events are various phenomena targeted for detection in this surveillance system. For example, events include vehicles such as people, animals, cars, and other objects (hereinafter simply referred to as "objects") passing through video monitoring lines, and predetermined events (intrusion, leaving, appearance, disappearance, intrusion, etc.) of objects in the monitoring area. leaving, appearing, disappearing, fighting, staying, loitering, falling, standing up, sitting down, changing direction of movement, running backwards, shoplifting, detouring, damage, taking away, being left behind, graffiti, forming a crowd, etc.), defined by lines For example, movement of an object along a specific route. The event detection position is used, for example, as a position indicating the video monitoring line or monitoring area in the monitoring system.

なお、映像監視線とは、ユーザにより監視画像等に重畳された線であって、当該線を横切る(通過する)物体を検知するための線である。映像監視線は方向の属性(右から左、左から右、両方向等)を持っていてもよく、ユーザにより指定された方向の物体の通過があった場合にのみ、アラートが出されるよう設計されていてもよい。また、監視領域とは、ユーザにより設定された監視画像等の一部の領域であって、所定のイベントを検知するための領域である。 Note that the video monitoring line is a line superimposed on a monitoring image or the like by a user, and is a line for detecting an object crossing (passing through) the line. Video surveillance lines may have direction attributes (right to left, left to right, both directions, etc.) and are designed to alert only when an object passes in the direction specified by the user. may be A monitoring area is a part of a monitoring image or the like set by a user, and is an area for detecting a predetermined event.

<<イベント検出位置を指定する操作の例>>
図9は、第1操作によってイベント検出位置が指定される様子を例示する図である。図9(a)は、指40で線を引く第1操作によって、線で表されるイベント検出位置50が指定される様子を表している。図9(b)は、図9(a)と同じ操作によって、四角形の領域で表されるイベント検出位置50が指定される様子を表している。なお、図9(a)や図9(b)の操作が第2処理部2040で処理される場合、例えば第2処理部2040は、監視画像や監視画像を含むウインドウをスクロールする。
<<Example of operation to specify the event detection position>>
FIG. 9 is a diagram illustrating how an event detection position is designated by the first operation. FIG. 9A shows how the first operation of drawing a line with the finger 40 designates the event detection position 50 represented by the line. FIG. 9(b) shows how an event detection position 50 represented by a rectangular area is designated by the same operation as in FIG. 9(a). When the operations in FIGS. 9A and 9B are processed by the second processing unit 2040, for example, the second processing unit 2040 scrolls the monitoring image and the window containing the monitoring image.

図9(c)は、ピンチアウト操作によって、線で表されるイベント検出位置50が指定される様子を表している。図9(d)は、図9(c)と同じ操作によって、四角形の領域で表されるイベント検出位置50が指定される様子を表している。なお、図9(c)や図9(d)の操作が第2処理部2040で処理される場合、例えば第2処理部2040は、監視画像や監視画像を含むウインドウを拡大する。また、ピンチイン操作の場合は、ピンチアウト操作の逆となり、監視画像や監視画像を含むウインドウを縮小する。 FIG. 9(c) shows how the event detection position 50 represented by a line is designated by a pinch-out operation. FIG. 9(d) shows how an event detection position 50 represented by a rectangular area is designated by the same operation as in FIG. 9(c). When the operations in FIGS. 9C and 9D are processed by the second processing unit 2040, for example, the second processing unit 2040 enlarges the monitoring image and the window containing the monitoring image. A pinch-in operation is the reverse of the pinch-out operation, and the monitoring image and the window containing the monitoring image are reduced.

図9(e)は、回転操作によって四角形の領域で表されるイベント検出位置50が指定される様子を表している。なお、図9(e)の操作が第2処理部2040で処理される場合、例えば第2処理部2040は、監視画像や監視画像を含むウインドウを回転させる。 FIG. 9(e) shows how an event detection position 50 represented by a rectangular area is designated by a rotation operation. When the operation in FIG. 9E is processed by the second processing unit 2040, for example, the second processing unit 2040 rotates the monitoring image and the window including the monitoring image.

図9(f)は、タッチ操作によって、四角形の領域で表されるイベント検出位置50が指定される様子を表している。なお、図9(f)の操作が第2処理部2040で処理される場合、例えば第2処理部2040は、監視画像や監視画像を含むウインドウに対する選択操作となる。 FIG. 9F shows how an event detection position 50 represented by a rectangular area is designated by a touch operation. When the operation of FIG. 9F is processed by the second processing unit 2040, for example, the second processing unit 2040 performs a selection operation on a monitoring image or a window containing the monitoring image.

ただし、第1操作は図9に示す各操作に限定されない。また、各第1操作によって指定されるイベント検出位置50は、図9の例に限定されない。例えば、図9(a)等の線を引く操作によって指定されるイベント検出位置50は、線に所定の幅を与えた四角形等の領域であってもよい。また、図9(b)等の領域を引く操作によって指定されるイベント検出位置50は、四角形に限定されない。例えば図9(b)において、イベント検出位置50は、指の軌跡を直径とする円であってもよい。また、図9(f)のタッチ操作によって指定されるイベント検出位置50は、点でもよいし、四角形以外の形状の領域(円等)でもよい。 However, the first operation is not limited to each operation shown in FIG. Also, the event detection position 50 designated by each first operation is not limited to the example in FIG. For example, the event detection position 50 designated by the operation of drawing a line as shown in FIG. 9A may be a rectangular area or the like in which the line is given a predetermined width. Also, the event detection position 50 designated by the operation of drawing an area in FIG. 9B or the like is not limited to a rectangle. For example, in FIG. 9B, the event detection position 50 may be a circle whose diameter is the trajectory of the finger. Also, the event detection position 50 specified by the touch operation in FIG. 9F may be a point or an area of a shape other than a rectangle (such as a circle).

各々の操作でイベント検出位置がどのように設定されるかは、モバイル機器に実装される情報処理装置2000の中で予め定義されていてもよい。例えば、指40で線を引く第1操作によって、図9(a)又は図9(b)で示すいずれの設定となるか、又はピンチアウト操作によって図9(c)又は図9(d)で示すいずれの設定となるか、については、予め定義されていてもよい。 How the event detection position is set for each operation may be defined in advance in the information processing device 2000 implemented in the mobile device. For example, the first operation of drawing a line with the finger 40 will result in either setting shown in FIG. 9(a) or FIG. 9(b), or the pinch-out operation will cause the It may be defined in advance which setting is to be shown.

<<イベント検出位置情報の詳細>>
線又は領域で表されるイベント検出位置のイベント検出位置情報は、イベント検出位置を表す座標の組み合わせを示す。座標の組み合わせで線又は領域を表現する方法には、様々な既知の方法がある。第1処理部2020は、これら既知の方法を利用することで、線又は領域で表されるイベント検出位置を座標の組み合わせで表す。これら既知の方法についての説明は省略する。
<<Details of event detection position information>>
The event detection position information of the event detection position represented by a line or area indicates a combination of coordinates representing the event detection position. There are various known methods for expressing lines or regions by combining coordinates. The first processing unit 2020 uses these known methods to represent an event detection position represented by a line or area by a combination of coordinates. A description of these known methods is omitted.

イベント検出位置を表す座標は、例えば監視画像上の座標(カメラ座標)である。また例えば、この座標は、監視画像上の座標に対応する実空間上の座標でもよい。例えば実空間上の座標は、GPS(Global Positioning System)座標である。また例えば、実空間上の座標は、施設内のフロアマップ上で定義された座標でもよい。監視画像上の座標に対応する実空間上の座標と、監視画像上の座標とは、監視画像を撮像したカメラに関する各種のパラメタ(カメラの実空間上の位置、及びカメラの姿勢や画角等の他、内部パラメタ等も含む。以下「カメラパラメタ」という。)を用いて互いに変換可能である。 The coordinates representing the event detection position are coordinates (camera coordinates) on the monitoring image, for example. Further, for example, the coordinates may be coordinates on the real space corresponding to the coordinates on the monitoring image. For example, the real space coordinates are GPS (Global Positioning System) coordinates. Further, for example, the coordinates on the real space may be coordinates defined on a floor map within the facility. The coordinates on the real space corresponding to the coordinates on the surveillance image and the coordinates on the surveillance image are the various parameters related to the camera that captured the surveillance image (the position of the camera in the real space, the attitude of the camera, the angle of view, etc.). In addition, it includes internal parameters, etc., hereinafter referred to as "camera parameters").

イベント検出位置の設定を監視画像上で行う場合で、イベント検出位置を実空間上の座標で表す場合、第1処理部2020は、上記カメラパラメタを情報処理装置2000の内部又は外部の記憶装置等から取得する。その後、第1処理部2020は、監視画像上の座標に対応する実空間上の座標を算出する。なお、上記カメラパラメタを用いて画像上の座標を実空間上の座標に変換する方法には、様々な既知の方法を利用できる。これら既知の方法についての説明は省略する。イベント検出位置の設定を図5で表されるような地図上やフロアマップ上で行う場合は、第1処理部2020は、直接 GPS 座標やフロアマップ座標を取得しても良い。 When the event detection position is set on the monitoring image, and when the event detection position is represented by the coordinates in the real space, the first processing unit 2020 stores the camera parameters in a storage device or the like inside or outside the information processing device 2000 . Get from After that, the first processing unit 2020 calculates the coordinates on the real space corresponding to the coordinates on the monitoring image. Various known methods can be used to convert coordinates on the image into coordinates on the real space using the camera parameters. A description of these known methods is omitted. When event detection positions are set on a map or floor map as shown in FIG. 5, the first processing unit 2020 may directly acquire GPS coordinates or floor map coordinates.

なお、複数の監視カメラがそれぞれ監視画像を取得する場合、GPS 座標やフロアマップ座標は、複数の監視カメラのカメラ座標の共通座標となりうる。 Note that when a plurality of surveillance cameras acquire surveillance images, the GPS coordinates and floor map coordinates can be common coordinates of the camera coordinates of the plurality of surveillance cameras.

例えば第1処理部2020は、イベント検出位置情報を、情報処理装置2000の内部又は外部の記憶装置に記憶する。また例えば、第1処理部2020は、イベント検出位置情報を利用する監視システム等へイベント検出位置情報を送信してもよい。 For example, the first processing unit 2020 stores the event detection position information in a storage device inside or outside the information processing device 2000 . Further, for example, the first processing unit 2020 may transmit event detection location information to a monitoring system or the like that uses event detection location information.

<制御部2060の詳細>
前述したように、制御部2060は第1操作を第1処理部2020と第2処理部2040のどちらかに処理させる。以下、制御部2060が第1処理部2020に第1操作を処理させる場合の情報処理装置2000の状態を「イベント位置設定モード」とも表記する。また、制御部2060が第2処理部2040に第1操作を処理させる場合の情報処理装置2000の状態を「表示変更モード」とも表記する。また、前述した PTZ カメラの制御を伴う表示変更処理を行う場合の情報処理装置2000の状態は、「表示変更モード」だけでなく、「PTZ カメラ制御モード」とも表記される。
<Details of Control Unit 2060>
As described above, the control unit 2060 causes either the first processing unit 2020 or the second processing unit 2040 to process the first operation. Hereinafter, the state of the information processing apparatus 2000 when the control unit 2060 causes the first processing unit 2020 to process the first operation is also referred to as "event position setting mode". The state of the information processing apparatus 2000 when the control unit 2060 causes the second processing unit 2040 to process the first operation is also referred to as "display change mode". In addition, the state of the information processing apparatus 2000 when performing the display change process involving the control of the PTZ camera described above is described not only as the "display change mode" but also as the "PTZ camera control mode."

制御部2060が第1処理部2020と第2処理部2040のどちらに第1操作を処理させるかを決定する方法、すなわち、表示変更モードとイベント検出位置設定モードの切替え方法は様々である。例えば制御部2060は、ユーザによって行われる第2操作に基づいて、第1操作を第1処理部2020と第2処理部2040のどちらに処理させるかを決定する。第2操作の具体的な内容については後述する。また例えば制御部2060は、情報処理装置2000の姿勢に基づいて、第1操作を第1処理部2020と第2処理部2040のどちらに処理させるかを決定する。 There are various methods for the control unit 2060 to determine which of the first processing unit 2020 and the second processing unit 2040 to process the first operation, that is, the method for switching between the display change mode and the event detection position setting mode. For example, the control unit 2060 determines which of the first processing unit 2020 and the second processing unit 2040 should process the first operation based on the second operation performed by the user. Specific contents of the second operation will be described later. Further, for example, the control unit 2060 determines which of the first processing unit 2020 and the second processing unit 2040 is to process the first operation based on the posture of the information processing device 2000 .

<<第2操作に基づくモード切替えの例1>>
制御部2060は、ユーザによって行われる第2操作に基づいて、第1操作を、第1処理部2020と第2処理部2040のどちらか一方の通常時と異なる方に、一時的に処理させてもよい。すなわち制御部2060は、ユーザによって行われる第2操作に基づいて、一時的に表示変更モードからイベント検出位置設定モードに切り替える。又は、制御部2060は、ユーザによって行われる第2操作に基づいて、一時的にイベント検出位置設定モードから表示変更モードに切り替える。
<<Example 1 of mode switching based on the second operation>>
Based on the second operation performed by the user, the control unit 2060 temporarily causes either one of the first processing unit 2020 and the second processing unit 2040 to process the first operation, which is different from the normal time. good too. That is, the control unit 2060 temporarily switches from the display change mode to the event detection position setting mode based on the second operation performed by the user. Alternatively, the control unit 2060 temporarily switches from the event detection position setting mode to the display change mode based on the second operation performed by the user.

この場合、例えば、第2操作は、第1操作の開始位置を所定時間以上押す操作であってもよい。例えば第1操作が、監視画像に対して指をスライドさせる操作であるとする。この場合、例えばユーザは、監視画像のある箇所を所定時間以上押し続けた(長押しした)後、その箇所を押した状態から指をスライドさせる操作を開始する。このとき、「監視画像のある箇所を所定時間以上押し続ける(長押しする)操作」である第2操作に基づいて、一時的に表示変更モードからイベント検出位置設定モードに切り替わる。そのため、制御部2060は、それ以降の指をスライドさせる操作を第1処理部2020に処理させる。その結果、例えば、指をスライドさせる軌跡に沿って監視画像上に映像監視線が重畳される。 In this case, for example, the second operation may be an operation of pressing the start position of the first operation for a predetermined time or longer. For example, assume that the first operation is an operation of sliding a finger on the monitoring image. In this case, for example, the user keeps pressing (long-pressing) a location on the monitoring image for a predetermined time or longer, and then starts sliding the finger while pressing the location. At this time, the display change mode is temporarily switched to the event detection position setting mode based on the second operation, which is "an operation of pressing and holding (long-pressing) a portion of the monitoring image for a predetermined time or longer". Therefore, the control unit 2060 causes the first processing unit 2020 to process subsequent finger sliding operations. As a result, for example, a video monitoring line is superimposed on the monitoring image along the trajectory of sliding the finger.

または、例えば二本の指で監視画像のある箇所を長押しした後、ピンチアウト操作を開始した場合、制御部2060は、そのピンチアウト操作を第1処理部2020に処理させる。その結果、例えばピンチアウト操作を行った範囲に応じて監視画像上に監視領域が設定される。 Alternatively, for example, when a pinch-out operation is started after a portion of the monitoring image is long-pressed with two fingers, the control unit 2060 causes the first processing unit 2020 to process the pinch-out operation. As a result, a monitoring area is set on the monitoring image according to the range in which the pinch-out operation is performed, for example.

制御部2060は、「第1操作の前に開始され、当該第1操作の操作中に継続して行われる第2操作が受け付けられている間に行われる当該第1操作を第1処理部2020に処理させ、第2操作が受け付けられていない間に行われる第1操作を第2処理部2040に処理させる」という制御を行ってもよい。例えば制御部2060は、タッチパネル10の左下(又はタッチパネル10に表示されている監視画像等の左下)がタッチされている状態で指をスライドさせる操作が行われると、その操作を一時的に第1処理部2020に処理させる。つまり、タッチパネル10の左下がタッチされ、当該タッチが継続している間はイベント検出位置設定モードとなり、指をスライドさせる操作はイベント検出位置を指定する操作となる。一方、制御部2060は、タッチパネル10の左下がタッチされていない状態(通常時の状態)で指をスライドさせる操作が行われると、その操作を第2処理部2040に処理させる。つまり、通常時は表示変更モードであり、指をスライドさせる操作は、監視画像のスクロール等の表示変更処理を行うための操作となる。通常時(表示変更モード)の状態で画面左下がタッチされ、そのタッチが継続している間に指をスライドさせる操作が行われると、一時的にイベント検出位置設定モードとなり、指をスライドさせる軌跡に沿って監視画像上に映像監視線が重畳される。図10は監視画像の左下をタッチしながら映像監視線(イベント検出位置50)を重畳している様子を表している図である。 The control unit 2060 allows the first processing unit 2020 to perform the first operation while a second operation, which is started before the first operation and continues during the operation of the first operation, is accepted. , and causes the second processing unit 2040 to process the first operation performed while the second operation is not accepted. For example, when an operation of sliding a finger is performed while the bottom left of the touch panel 10 (or the bottom left of the monitoring image displayed on the touch panel 10) is being touched, the control unit 2060 temporarily shifts the operation to the first position. Let the processing unit 2020 process. That is, the lower left corner of the touch panel 10 is touched, and while the touch is continued, the event detection position setting mode is entered, and the operation of sliding the finger becomes the operation of specifying the event detection position. On the other hand, when a finger slide operation is performed while the lower left corner of the touch panel 10 is not touched (normal state), the control unit 2060 causes the second processing unit 2040 to process the operation. In other words, the normal mode is the display change mode, and the operation of sliding the finger is an operation for performing display change processing such as scrolling of the monitoring image. If the lower left corner of the screen is touched in the normal state (display change mode) and a finger slide operation is performed while the touch continues, the event detection position setting mode is temporarily activated, and the trajectory of the finger slide. A video monitoring line is superimposed on the monitoring image along the . FIG. 10 is a diagram showing how the image monitoring line (event detection position 50) is superimposed while touching the lower left corner of the monitoring image.

または、例えばタッチパネル10の左下がタッチされている状態で、監視画像上においてピンチアウト操作が行われた場合、制御部2060は、そのピンチアウト操作を第1処理部2020に処理させる。その結果、例えばピンチアウト操作を行った範囲に応じて監視画像上に監視領域が設定される。 Alternatively, for example, when a pinch-out operation is performed on the monitoring image while the lower left corner of the touch panel 10 is being touched, the control unit 2060 causes the first processing unit 2020 to process the pinch-out operation. As a result, a monitoring area is set on the monitoring image according to the range in which the pinch-out operation is performed, for example.

<<第2操作に基づくモード切替えの例2>>
制御部2060は、上述した以外のその他様々なパターンによって、ユーザにより行われる第2操作に基づいて表示変更モードとイベント検出位置設定モードとを切替えてもよい。例えば、上述した「長押しによる切替え」は、一時的な切替えではなく、長押しのたびに表示変更モードとイベント検出位置設定モードとが切り替わってもよい。
<<Example 2 of mode switching based on the second operation>>
The control unit 2060 may switch between the display change mode and the event detection position setting mode based on the second operation performed by the user using various patterns other than those described above. For example, the "switching by long press" described above may not be a temporary switch, but may switch between the display change mode and the event detection position setting mode each time the long press is made.

他の切替えパターンとしては、例えば制御部2060は、第2操作を受け付ける前は、第1操作を第2処理部2040に処理させ(表示変更モード)、第2操作を受け付けた後は、第1操作を第1処理部2020に処理させてもよい(イベント検出位置設定モード)。ユーザの視点からは、第2操作を行うことで監視画像等の表示変更処理がされないようにした後、イベント検出位置を指定することとなる。例えば、ユーザは、監視画像がスクロールされないように第2操作をした後(監視画像のスクロールを止めた後)、イベント検出位置を指定する線を引く操作を行う。 As another switching pattern, for example, the control unit 2060 causes the second processing unit 2040 to process the first operation (display change mode) before accepting the second operation, and switches to the first operation after accepting the second operation. The operation may be processed by the first processing unit 2020 (event detection position setting mode). From the user's point of view, the event detection position is designated after performing the second operation so as not to change the display of the monitoring image or the like. For example, after performing the second operation so that the monitoring image is not scrolled (after stopping the scrolling of the monitoring image), the user performs an operation of drawing a line designating the event detection position.

例えば第2操作は、監視画像、地図画像又はそれらを含むウインドウを所定時間以上タッチする操作であってもよい。この第2操作は、監視画像等の画像上の任意の箇所で受け付けられてもよいし、監視画像等の所定箇所のみで受け付けられてもよい。この所定箇所は、例えば監視画像等の四隅等である。 For example, the second operation may be an operation of touching a monitoring image, a map image, or a window containing them for a predetermined time or longer. This second operation may be accepted at an arbitrary location on an image such as a monitoring image, or may be accepted only at a predetermined location such as a monitoring image. The predetermined locations are, for example, the four corners of the monitoring image or the like.

また例えば第2操作は、タッチパネル10を所定時間以上タッチする操作であってもよい。この第2操作は、タッチパネル10上の任意の箇所で受け付けられてもよいし、タッチパネル10上の所定箇所のみで受け付けられてもよい。この所定箇所は、例えばタッチパネル10の四隅等である。なお、「タッチパネル10をタッチする操作」は、「監視画像、地図画像又はそれらを含むウインドウをタッチする操作」と異なり、監視画像、地図画像又はそれらを含むウインドウが表示されていない箇所に対するタッチ操作も含む。 Further, for example, the second operation may be an operation of touching the touch panel 10 for a predetermined time or longer. This second operation may be accepted at an arbitrary location on touch panel 10 or may be accepted only at a predetermined location on touch panel 10 . The predetermined locations are, for example, the four corners of the touch panel 10 . It should be noted that the "operation of touching the touch panel 10" differs from the "operation of touching a monitoring image, a map image, or a window containing them", and is a touch operation on a location where the monitoring image, map image, or a window containing them is not displayed. Also includes

また例えば、第2操作は、上記監視画像等、又はタッチパネル10上の複数箇所を、同時又は所定の順番でタッチする操作であってもよい。例えばこの第2操作は、表示画面の四隅を左上、右上、右下、左下の順にタッチ操作等である。なお、この複数箇所は、任意の箇所でもよいし、所定の箇所でもよい。 Further, for example, the second operation may be an operation of touching the monitoring image or the like or a plurality of locations on the touch panel 10 simultaneously or in a predetermined order. For example, the second operation is a touch operation or the like on the four corners of the display screen in the order of upper left, upper right, lower right, and lower left. Note that the plurality of locations may be arbitrary locations or predetermined locations.

また例えば、第2操作は所定の音声の入力であってもよい。この場合、情報処理装置2000は、マイク等から入力される音声を取得し、その音声が所定の音声であるか否かを判定する。そして、制御部2060は、所定の音声が入力された後(第2操作が行われた後)は、第1操作を第1処理部2020に処理させる。なお、ユーザが入力した音声が所定の音声であるか否かを判定する方法には、様々な既知の音声解析技術が利用できる。これら既知の技術に関する説明は省略する。 Further, for example, the second operation may be input of a predetermined voice. In this case, the information processing apparatus 2000 acquires a sound input from a microphone or the like, and determines whether or not the sound is a predetermined sound. After the predetermined voice is input (after the second operation is performed), the control unit 2060 causes the first processing unit 2020 to process the first operation. Various known voice analysis techniques can be used as a method for determining whether or not the voice input by the user is the predetermined voice. A description of these known techniques is omitted.

また例えば、第2操作は、モバイル機器が有するハードウエアボタン(音量変更ボタンや電源ボタン)に対する操作でもよい。例えばこの操作は、ハードウエアボタンの長押しや、複数のハードウエアボタンを所定の順序で押す操作等である。なお、このハードウエアボタンは、音量変更ボタン等の一般的なハードウエアボタンだけでなく、第2操作用に設けられる専用のハードウエアボタンであってもよい。 Further, for example, the second operation may be an operation on a hardware button (volume change button or power button) of the mobile device. For example, this operation is a long press of a hardware button, an operation of pressing a plurality of hardware buttons in a predetermined order, or the like. Note that this hardware button may be not only a general hardware button such as a volume change button, but also a dedicated hardware button provided for the second operation.

なお、制御部2060は、第2操作が行われたことで「第1操作を第1処理部2020に処理させる状態」になった後、所定の条件を満たした場合に、「第1操作を第2処理部2040に処理させる状態」に移行するようにしてもよい。例えばこの所定の条件は、「再度第2操作が行われる」という条件である。ここで、「第1操作を第1処理部2020に処理させる状態」に制御部2060を移行させる第2操作と、「第1操作を第2処理部2040に処理させる状態」に制御部2060を移行させる第2操作は、同じ操作であってもよいし、異なる操作であってもよい。また例えば、制御部2060は、「第1操作を第1処理部2020に処理させる状態」になった後、所定の時間が経過した場合に、「第1操作を第2処理部2040に処理させる状態」に移行する。また例えば、制御部2060は、「第1操作を第1処理部2020に処理させる状態」になった後、第1操作が検出されない状態が所定の時間以上継続した場合に、「第1操作を第2処理部2040に処理させる状態」に移行する。 It should be noted that the control unit 2060, when a predetermined condition is satisfied after entering the “state in which the first processing unit 2020 processes the first operation” due to the performance of the second operation, the control unit 2060 performs “the first operation. The second processing unit 2040 may be made to process." For example, this predetermined condition is a condition that "the second operation is performed again". Here, a second operation for shifting the control unit 2060 to "a state in which the first processing unit 2020 processes the first operation" and a state in which the control unit 2060 is changed to "a state for causing the second processing unit 2040 to process the first operation" The second operation to be transferred may be the same operation or may be a different operation. Further, for example, when a predetermined period of time has elapsed after entering the state of causing the first processing unit 2020 to process the first operation, the control unit 2060 causes the second processing unit 2040 to process the first operation. state”. Further, for example, if a state in which the first operation is not detected continues for a predetermined time or longer after entering "a state in which the first operation is processed by the first processing unit 2020", the control unit 2060 determines that "the first operation is not performed." state to be processed by the second processing unit 2040”.

また、制御部2060は、上述の説明とは逆に、「第2操作を受け付ける前は、第1操作を第1処理部2020に処理させ、第2操作を受け付けた後は、第1操作を第2処理部2040に処理させる」という制御を行ってもよい。 Contrary to the above description, the control unit 2060 may be configured such that "before accepting the second operation, the first operation is processed by the first processing unit 2020, and after accepting the second operation, the first operation is processed." The second processing unit 2040 may perform the control.

<<情報処理装置2000の姿勢に基づくモード切替えの例>>
例えば制御部2060は、情報処理装置2000の姿勢が所定の第1姿勢である場合に、イベント検出位置設定モードとして第1操作を第1処理部2020に処理させる。情報処理装置2000の第1姿勢とは異なる第2姿勢(例えば第1姿勢以外の全ての姿勢)である場合に、表示変更モードとして第1操作を第2処理部2040に処理させてもよい。
<<Example of Mode Switching Based on Posture of Information Processing Device 2000>>
For example, when the orientation of the information processing device 2000 is the predetermined first orientation, the control unit 2060 causes the first processing unit 2020 to process the first operation as the event detection position setting mode. When the information processing apparatus 2000 is in a second orientation different from the first orientation (for example, all orientations other than the first orientation), the second processing unit 2040 may be caused to process the first operation as the display change mode.

モバイル機器は姿勢の変更が容易のため、ユーザは、イベント検出位置を設定する操作と、監視画像等の表示を変更する処理とを、容易に使い分けることができる。 Since it is easy to change the posture of the mobile device, the user can easily switch between the operation of setting the event detection position and the processing of changing the display of the monitoring image or the like.

一般的に、モバイル機器は、平面視における形状が、縦と横の長さが異なる形状(略長方形等)である。そこで例えば、情報処理装置2000は、情報処理装置2000の長辺を横方向にした姿勢(情報処理装置2000が横長になる姿勢)を第1姿勢として扱い、情報処理装置2000の長辺を縦方向にした姿勢(情報処理装置2000が縦長になる姿勢)を第2姿勢として扱う。つまりこの場合、ユーザは、監視画像のスクロール等を行いたい時は、情報処理装置2000が縦長になるように情報処理装置2000を保持しながら操作を行う。一方、ユーザは、イベント検出位置を設定したい時は、情報処理装置2000が横長になるように情報処理装置2000を保持しながら操作を行う。図11は、情報処理装置2000の姿勢を例示する図である。図11(a)は情報処理装置2000の長辺を縦方向にした姿勢を例示しており、図11(b)は情報処理装置2000の短辺を縦方向にした姿勢を例示している。 In general, a mobile device has a shape (substantially rectangular, etc.) with different lengths and widths in plan view. Therefore, for example, the information processing apparatus 2000 treats an orientation in which the long sides of the information processing apparatus 2000 are oriented horizontally (an orientation in which the information processing apparatus 2000 is horizontally long) as the first orientation, and the long sides of the information processing apparatus 2000 are oriented vertically. The posture (the posture in which the information processing apparatus 2000 becomes vertically long) is treated as the second posture. In other words, in this case, when the user wants to scroll the monitoring image, the user performs the operation while holding the information processing device 2000 so that the information processing device 2000 is vertically long. On the other hand, when the user wants to set the event detection position, the user performs an operation while holding the information processing device 2000 so that the information processing device 2000 is horizontally long. 11A and 11B are diagrams illustrating postures of the information processing apparatus 2000. FIG. FIG. 11A illustrates an orientation in which the long sides of the information processing device 2000 are oriented vertically, and FIG. 11B exemplifies an orientation in which the short sides of the information processing device 2000 are oriented vertically.

<各種所定の値について>
上述の各説明における各種所定の値(所定の操作、所定の幅、又は所定の時間等)は、例えばその値を用いる機能構成部に予め設定される。また例えば、これら所定の値は、情報処理装置2000の内部又は外部に設けられている記憶装置に記憶される。この場合、各機能構成部は、利用する所定の値をこの記憶装置から取得する。
<Regarding various predetermined values>
Various predetermined values (predetermined operation, predetermined width, predetermined time, etc.) in each of the above descriptions are set in advance in, for example, the functional configuration unit that uses the values. Also, for example, these predetermined values are stored in a storage device provided inside or outside the information processing apparatus 2000 . In this case, each functional component acquires a predetermined value to be used from this storage device.

<情報処理装置2000の利用方法の例>
例えば情報処理装置2000が実装されるモバイル機器による監視は、普段は監視する必要がないが、一時的に監視する必要が生じるような場所の監視作業で利用される。例えば、普段は和やかで監視の必要がない場所であっても、何らかの催し物(花火大会等)が行われる期間だけ監視が必要となるケースがある。また、このようなケースでは、行われる催し物の種類等によっては、監視すべき位置が異なり、また、監視すべき位置がリアルタイムで変更されることもある。そのため、イベント検出位置が固定された大規模な監視システムを常時運用するよりも、モバイル機器のタッチパネルを用いた簡易な方法でイベント検出位置を設定・変更できる簡便かつ一時的に利用可能な監視システムの方が望ましいことがある。情報処理装置2000によれば、イベント検出位置をタッチ操作等で容易に設定できる。そのため情報処理装置2000は、このようなケースに好適である。
<Example of Usage of Information Processing Device 2000>
For example, monitoring by a mobile device in which the information processing apparatus 2000 is installed is used for monitoring work in places where monitoring is not normally required, but where monitoring is temporarily required. For example, even in a place that is usually peaceful and does not require surveillance, there are cases where surveillance is required only during the period when some kind of event (such as a fireworks display) is held. In such a case, the position to be monitored may differ depending on the type of event being held, and the position to be monitored may change in real time. Therefore, rather than constantly operating a large-scale monitoring system with fixed event detection positions, a simple and temporary monitoring system that can set and change event detection positions using a simple method using the touch panel of a mobile device. is sometimes preferable. According to the information processing apparatus 2000, the event detection position can be easily set by a touch operation or the like. Therefore, the information processing apparatus 2000 is suitable for such cases.

情報処理装置2000が実装されるモバイル機器による監視の利用方法は、上述のような一時的な監視作業に利用する方法に限定されない。例えば情報処理装置2000が実装されるモバイル監視システムは、常時運用される監視システムとして、イベント検出位置の設定等に利用されてもよい。例えば、監視員が何らかの事情で一時的に持ち場を離れる場合がある。その場合、この監視員は、情報処理装置2000を用いて、その持ち場をイベント検出位置に設定する。こうすることで、持ち場を離れた際に生じたイベントが見過ごされてしまうことを防ぐことができる。また、店舗を経営する経営者が夜間の店舗内の様子を監視したい場合等においても、モバイル機器による監視は利便性が高い。 The method of using monitoring by a mobile device in which the information processing apparatus 2000 is installed is not limited to the method of using it for temporary monitoring work as described above. For example, a mobile monitoring system in which the information processing device 2000 is implemented may be used for setting an event detection position or the like as a monitoring system that is always operated. For example, an observer may temporarily leave his post for some reason. In that case, the observer uses the information processing device 2000 to set his station as the event detection position. By doing so, it is possible to prevent an event that occurred when leaving one's place from being overlooked. In addition, monitoring by a mobile device is highly convenient when a manager who runs a store wants to monitor the state of the store at night.

[実施例]
以下、情報処理装置2000を利用する監視システム3000を例示する。図12は、監視システム3000及び情報処理装置2000を例示するブロック図である。なお、情報処理装置2000を利用する監視システムは、以下で説明する監視システムに限定されない。
[Example]
A monitoring system 3000 using the information processing device 2000 will be exemplified below. FIG. 12 is a block diagram illustrating the monitoring system 3000 and the information processing device 2000. As shown in FIG. Note that the monitoring system using the information processing device 2000 is not limited to the monitoring system described below.

監視システム3000は、監視カメラ3020、記憶装置3040、イベント検出装置3060、監視モニタ3080、及び警報装置3100を有する。記憶装置3040は、監視カメラ3020によって撮像された監視画像を記憶する。また、記憶装置3040は、第1処理部2020によって生成されたイベント検出位置情報も記憶する。なお、監視カメラ3020は映像を撮像するカメラである。そのため、記憶装置3040には、監視カメラ3020によって撮像された映像を構成するフレームが記憶される。 Surveillance system 3000 includes surveillance camera 3020 , storage device 3040 , event detection device 3060 , surveillance monitor 3080 and alarm device 3100 . Storage device 3040 stores monitoring images captured by monitoring camera 3020 . The storage device 3040 also stores event detection position information generated by the first processing unit 2020 . Note that the monitoring camera 3020 is a camera that captures images. Therefore, storage device 3040 stores the frames that form the video imaged by surveillance camera 3020 .

記憶装置3040及びイベント検出装置3060は、例えばクラウド型の映像記憶装置として実装されてもよい。図13は、クラウド型映像記憶装置4000を有する監視システム3000を例示するブロック図である。このクラウド型映像記憶装置4000は、ネットワークを介して、情報処理装置2000からイベント検出位置を示す情報を受け付け、その情報を記憶装置3040に記憶する。また、クラウド型映像記憶装置4000は、監視カメラ3020によって撮像された監視画像を記憶装置3040に記憶する。そして、クラウド型映像記憶装置4000のイベント検出装置3060は、記憶装置3040に記憶された監視画像に対し、記憶装置3040に記憶されたイベント検出位置を利用して、イベントの検出を行う。そして、クラウド型映像記憶装置4000は、ネットワークを介し、監視モニタ3080や警報装置3100に対して、イベント検出の結果の通知などを行う。 Storage device 3040 and event detection device 3060 may be implemented, for example, as a cloud-type video storage device. FIG. 13 is a block diagram illustrating a surveillance system 3000 having a cloud video store 4000. As shown in FIG. The cloud-type video storage device 4000 receives information indicating the event detection position from the information processing device 2000 via the network, and stores the information in the storage device 3040 . The cloud-type video storage device 4000 also stores monitoring images captured by the monitoring camera 3020 in the storage device 3040 . Then, the event detection device 3060 of the cloud type video storage device 4000 uses the event detection positions stored in the storage device 3040 to detect events in the monitoring images stored in the storage device 3040 . Then, the cloud-type video storage device 4000 notifies the monitoring monitor 3080 and the alarm device 3100 of the result of event detection via the network.

クラウド型映像記憶装置4000を情報処理装置2000、監視モニタ3080、及び警報装置3100と接続する各ネットワークは、インターネットなどの WAN(Wide Area Network)であってもよいし、LAN(Local Area Network)であってもよい。 Each network that connects the cloud type video storage device 4000 to the information processing device 2000, the monitoring monitor 3080, and the alarm device 3100 may be a WAN (Wide Area Network) such as the Internet, or a LAN (Local Area Network). There may be.

クラウド型映像記憶装置4000と監視カメラ3020との間は、ネットワークで接続されていてもよいし、バスなどで直接接続されていてもよい。このネットワークも、WAN と LAN のどちらでもよい。 Cloud type video storage device 4000 and monitoring camera 3020 may be connected via a network, or may be directly connected via a bus or the like. This network can also be either a WAN or a LAN.

また、監視カメラ3020は、記憶装置3040及びイベント検出装置3060を内部に含むインテリジェントカメラとして実装されてもよい。図14は、インテリジェントカメラ5000を有する監視システム3000を例示するブロック図である。撮像部5020は、前述した監視カメラ3020の機能を実現する機能構成部である。インテリジェントカメラ5000は、クラウド型映像記憶装置4000と同様に、情報処理装置2000、監視モニタ3080、及び警報装置3100それぞれとネットワークを介して接続される。このネットワークはいずれも、WAN でもよいし、LAN でもよい。 Surveillance camera 3020 may also be implemented as an intelligent camera that includes storage device 3040 and event detection device 3060 therein. FIG. 14 is a block diagram illustrating a surveillance system 3000 having an intelligent camera 5000. As shown in FIG. The imaging unit 5020 is a functional configuration unit that implements the functions of the monitoring camera 3020 described above. The intelligent camera 5000 is connected to the information processing device 2000, the monitoring monitor 3080, and the alarm device 3100 via a network in the same manner as the cloud type video storage device 4000. FIG. Any of these networks can be a WAN or a LAN.

本実施例において、情報処理装置2000はタブレット端末である。情報処理装置2000は、記憶装置3040から取得する監視画像をタッチパネル10に表示する。ユーザは、情報処理装置2000のタッチパネル10に対して、指やタッチペン等を用いて操作を行う。なお本実施例において、制御部2060は、第1操作の開始位置が1秒間押し続けられた後に第1操作が行われた場合に、第1操作を第1処理部2020に処理させる。つまりこの場合に、第1操作は、イベント検出位置を指定する操作となる。なお、長押しの時間は1 秒に限定されず、1.5 秒であっても、2 秒であってもよく、何秒であってもよい。 In this embodiment, the information processing device 2000 is a tablet terminal. The information processing device 2000 displays the monitoring image acquired from the storage device 3040 on the touch panel 10 . A user operates the touch panel 10 of the information processing apparatus 2000 using a finger, a touch pen, or the like. Note that in this embodiment, the control unit 2060 causes the first processing unit 2020 to process the first operation when the first operation is performed after the start position of the first operation is held down for one second. That is, in this case, the first operation is an operation of designating the event detection position. Note that the long press time is not limited to 1 second, and may be 1.5 seconds, 2 seconds, or any number of seconds.

図15及び図16は、実施例においてタッチパネル10に表示される監視画像30を例示する図である。図15(a)の監視画像30において、左側に1つのドア70-1が映っている。ユーザは、図15(a)の監視画像30には映っていない、ドア70-1の1つ手前にあるドア70-2を、イベント検出位置に指定しようとしているとする。 15 and 16 are diagrams illustrating monitoring images 30 displayed on the touch panel 10 in the example. In the monitoring image 30 of FIG. 15(a), one door 70-1 is shown on the left side. It is assumed that the user intends to designate the door 70-2, which is not shown in the monitoring image 30 of FIG. 15(a) and which is one before the door 70-1, as the event detection position.

まずユーザは、図15(a)に示すように、監視画像30に対して指40をスライドさせる操作を行い、当該監視画像30をスクロールさせる。その結果、図15(b)に示すように、ドア70-2が監視画像30上に表示される。 First, as shown in FIG. 15A , the user performs an operation of sliding the finger 40 on the monitoring image 30 to scroll the monitoring image 30 . As a result, the door 70-2 is displayed on the monitoring image 30 as shown in FIG. 15(b).

次にユーザは、図16(a)に示すように、監視画像30に対して映像監視線を引く操作を行う。この際、ユーザは、開始点80を1秒以上押し続けた後に指40をスライドする。すると、図16(b)に示すように、ドア70-2に対してイベント検出位置50が設定される。このイベント検出位置50を示すイベント検出位置情報は、記憶装置3040に記憶される。 Next, the user performs an operation of drawing a video monitoring line on the monitoring image 30, as shown in FIG. 16(a). At this time, the user slides the finger 40 after continuing to press the start point 80 for one second or more. Then, as shown in FIG. 16B, the event detection position 50 is set with respect to the door 70-2. Event detection position information indicating this event detection position 50 is stored in the storage device 3040 .

イベント検出装置3060は、記憶装置3040に記憶されたイベント検出位置情報を取得する。そして、イベント検出装置3060は、イベント検出位置において所定のイベント(映像監視線の通過)が起こったことを検出する。本実施例の場合、例えばイベント検出装置3060は、ドア70-1及びドア70-2における人の出入り等を検出する。 The event detection device 3060 acquires event detection position information stored in the storage device 3040 . Then, the event detection device 3060 detects that a predetermined event (passage of the video monitoring line) has occurred at the event detection position. In the case of this embodiment, for example, the event detection device 3060 detects the entry and exit of people through the doors 70-1 and 70-2.

例えばイベント検出装置3060は、画像解析を行う計算機である。この場合、イベント検出装置3060は、記憶装置3040から監視画像を取得し、この監視画像を解析する。例えばイベント検出装置3060は、同じ監視カメラ3020によって撮像された複数の監視画像を取得し、その監視画像の中のイベント検出位置に相当する位置を解析する。そして、イベント検出装置3060は、その位置において、所定のイベントを表す変化が検出された場合に、所定のイベントが起こったことを検出する。本実施例の場合、イベント検出装置3060は、ドア70-2の付近について解析することで、ドア70-2における人の出入り等を検出する。ここで、画像内を解析して所定のイベントが起こったことを検出する技術には、既存の技術を利用することができる。 For example, the event detection device 3060 is a computer that performs image analysis. In this case, the event detection device 3060 acquires the monitoring image from the storage device 3040 and analyzes this monitoring image. For example, the event detection device 3060 acquires a plurality of surveillance images captured by the same surveillance camera 3020, and analyzes the positions corresponding to the event detection positions in the surveillance images. Then, event detection device 3060 detects that a predetermined event has occurred when a change representing a predetermined event is detected at that position. In the case of this embodiment, the event detection device 3060 detects the entry and exit of a person through the door 70-2 by analyzing the vicinity of the door 70-2. Here, an existing technique can be used as a technique for analyzing the inside of an image and detecting that a predetermined event has occurred.

また例えば、イベント検出装置3060は、赤外線センサ等のセンサである。例えばこのセンサは、物体の通過等のイベントを検出する。例えばこのセンサは、監視対象の各場所に設置されている。情報処理装置2000によってイベント検出位置情報が生成されると、そのイベント検出位置情報で示されるイベント検出位置又はその付近にあるセンサが監視を開始する。例えば本実施例の場合、各ドア70の付近等に赤外線センサが設けられている。そして、図16(b)に示すイベント検出位置50が指定された場合、ドア70-2の付近にあるセンサが監視を開始する。 Also, for example, the event detection device 3060 is a sensor such as an infrared sensor. For example, this sensor detects an event such as the passage of an object. For example, this sensor is installed at each location to be monitored. When the information processing apparatus 2000 generates the event detection position information, the sensors at or near the event detection position indicated by the event detection position information start monitoring. For example, in the case of this embodiment, an infrared sensor is provided near each door 70 or the like. Then, when the event detection position 50 shown in FIG. 16(b) is specified, the sensor near the door 70-2 starts monitoring.

イベント検出装置3060によってイベントが検出されると、その旨が情報処理装置2000(タブレット端末)、監視モニタ3080及び警報装置3100に通知される。監視モニタ3080は、例えば警備員室等に設けられているモニタである。例えば監視モニタ3080は、イベントが検出された位置が写っている監視映像を強調表示する等して、イベントの発生を監視員に知らせる。よって、監視員は、イベントが発生した場所を容易に把握することができる。 When the event detection device 3060 detects an event, the information processing device 2000 (tablet terminal), the monitoring monitor 3080 and the alarm device 3100 are notified of the event. The surveillance monitor 3080 is, for example, a monitor provided in a guard room or the like. For example, the surveillance monitor 3080 notifies the surveillance staff of the occurrence of the event by highlighting the surveillance image showing the position where the event was detected. Therefore, the observer can easily grasp the place where the event occurred.

警報装置3100は、例えばアラームを鳴らすことで、イベントの発生を監視員に知らせる。このアラームにより、監視員は、イベントの発生を知ることができる。 The alarm device 3100 notifies the observer of the occurrence of an event by, for example, sounding an alarm. This alarm allows the observer to know that an event has occurred.

また、監視モニタ3080は、記憶装置3040からイベント検出位置情報を取得し、そのイベント検出位置を監視映像上に表示してもよい。これにより、例えば監視員は、イベント検出位置を注視するように監視作業を行うことができる。また、監視員は、イベント検出位置におけるイベント発生の検知をイベント検出装置3060にまかせ、イベント検出位置以外の場所を注視するように監視作業を行うこともできる。 Also, the surveillance monitor 3080 may acquire the event detection position information from the storage device 3040 and display the event detection position on the surveillance video. As a result, for example, a monitoring staff can perform monitoring work so as to focus on the event detection position. In addition, the observer can entrust the detection of the event occurrence at the event detection position to the event detection device 3060, and perform the monitoring work so as to pay attention to a place other than the event detection position.

以上、図面を参照して本発明の実施形態について述べたが、これらは本発明の例示であり、上記以外の様々な構成を採用することもできる。 Although the embodiments of the present invention have been described above with reference to the drawings, these are examples of the present invention, and various configurations other than those described above can also be adopted.

以下、参考形態の例を付記する。
1. 表示画面上に表示されている監視画像に対する第1操作に応じて、前記監視画像に対してイベント検出位置を設定する第1処理手段と、
前記第1操作に応じて、前記監視画像又は前記監視画像を含むウインドウに対する、前記イベント検出位置の設定以外の表示変更処理を行う第2処理手段と、
第2操作に基づいて前記第1操作を前記第1処理手段と前記第2処理手段のどちらか一方に処理させる制御手段と、
を有するモバイル監視装置。
2. 前記制御手段は、前記第2操作がなされる前は、前記第1操作に応じて前記第2処理手段に処理させ、前記第2操作がなされた後は、前記第1操作に応じて前記第1処理手段に処理させる1.に記載のモバイル監視装置。
3. 前記第2操作は、前記表示画面又は前記監視画像の任意の箇所に対する所定時間以上のタッチ操作である2.に記載のモバイル監視装置。
4. 前記第2操作は、前記第1操作の開始位置を所定時間以上タッチする操作である2.に記載のモバイル監視装置。
5. 前記第2操作は、前記第1操作の前に開始され、前記第1操作の操作中に継続して行われる、前記表示画面上の任意の箇所に対するタッチ操作であり、
前記制御手段は、前記第2操作がなされている間、前記第1操作に応じて前記第1処理手段に処理させ、前記第2操作がなされなくなると、前記第1操作に応じて前記第2処理手段に処理させる1.に記載のモバイル監視装置。
6.表示画面上に表示されている監視画像に対する第1操作に応じて、前記監視画像に対してイベント検出位置を設定する第1処理手段と、
前記第1操作に応じて、前記監視画像又は前記監視画像を含むウインドウに対する、前記イベント検出位置の設定以外の表示変更処理を行う第2処理手段と、
前記第1操作を前記第1処理手段と前記第2処理手段のどちらか一方に処理させる制御手段と、を有し、
前記制御手段は、当該モバイル監視装置の姿勢が第1の姿勢である場合に、前記第1操作を前記第1処理手段に処理させ、当該モバイル監視装置の姿勢が前記第1の姿勢とは異なる第2の姿勢である場合に、前記第1操作を前記第2処理手段に処理させるモバイル監視装置。
7. 前記イベント検出位置は、通過する物体を検知するための映像監視線の位置、又は物体の所定のイベントを検知する監視領域の位置を表す1.乃至6.いずれか一つに記載のモバイル監視装置。
8. コンピュータを、1.乃至7.いずれか一つに記載のモバイル監視装置として動作させるプログラム。
9. コンピュータによって実行させる制御方法であって、
表示画面上に表示されている監視画像に対する第1操作に応じて、前記監視画像に対してイベント検出位置を設定する第1処理ステップと、
前記第1操作に応じて、前記監視画像又は前記監視画像を含むウインドウに対する、前記イベント検出位置の設定以外の表示変更処理を行う第2処理ステップと、
第2操作に基づいて前記第1操作を前記第1処理ステップと前記第2処理ステップのどちらか一方に処理させる制御ステップと、
を有する制御方法。
10. 前記制御ステップは、前記第2操作がなされる前は、前記第1操作に応じて前記第2処理ステップに処理させ、前記第2操作がなされた後は、前記第1操作に応じて前記第1処理ステップに処理させる9.に記載の制御方法。
11. 前記第2操作は、前記表示画面又は前記監視画像の任意の箇所に対する所定時間以上のタッチ操作である10.に記載の制御方法。
12. 前記第2操作は、前記第1操作の開始位置を所定時間以上タッチする操作である10.に記載の制御方法。
13. 前記第2操作は、前記第1操作の前に開始され、前記第1操作の操作中に継続して行われる、前記表示画面上の任意の箇所に対するタッチ操作であり、
前記制御ステップは、前記第2操作がなされている間、前記第1操作に応じて前記第1処理ステップに処理させ、前記第2操作がなされなくなると、前記第1操作に応じて前記第2処理ステップに処理させる9.に記載の制御方法。
14. コンピュータによって実行される制御方法であって、
表示画面上に表示されている監視画像に対する第1操作に応じて、前記監視画像に対してイベント検出位置を設定する第1処理ステップと、
前記第1操作に応じて、前記監視画像又は前記監視画像を含むウインドウに対する、前記イベント検出位置の設定以外の表示変更処理を行う第2処理ステップと、
前記第1操作を前記第1処理ステップと前記第2処理ステップのどちらか一方に処理させる制御ステップと、を有し、
前記制御ステップは、前記コンピュータの姿勢が第1の姿勢である場合に、前記第1操作を前記第1処理ステップに処理させ、前記コンピュータの姿勢が前記第1の姿勢とは異なる第2の姿勢である場合に、前記第1操作を前記第2処理ステップに処理させる制御方法。
15. 前記イベント検出位置は、通過する物体を検知するための映像監視線の位置、又は物体の所定のイベントを検知する監視領域の位置を表す9.乃至14.いずれか一つに記載の制御方法。
Examples of reference forms are added below.
1. a first processing means for setting an event detection position on a monitoring image displayed on a display screen in response to a first operation on the monitoring image;
second processing means for performing display change processing other than setting of the event detection position for the monitoring image or a window including the monitoring image in accordance with the first operation;
a control means for causing either one of the first processing means and the second processing means to process the first operation based on the second operation;
mobile surveillance device.
2. The control means causes the second processing means to process according to the first operation before the second operation is performed, and causes the second processing means to process according to the first operation after the second operation is performed. 1. Let the processing means process. A mobile surveillance device as described in .
3. 2. The second operation is a touch operation for a predetermined time or longer on any part of the display screen or the monitoring image. A mobile surveillance device as described in .
4. 2. The second operation is an operation of touching the start position of the first operation for a predetermined time or longer. A mobile surveillance device as described in .
5. the second operation is a touch operation on an arbitrary location on the display screen, which is started before the first operation and continues during the operation of the first operation;
The control means causes the first processing means to process according to the first operation while the second operation is being performed, and causes the second processing means to process according to the first operation when the second operation is no longer performed. Let the processing means process1. A mobile surveillance device as described in .
6. a first processing means for setting an event detection position on a monitoring image displayed on a display screen in response to a first operation on the monitoring image;
second processing means for performing display change processing other than setting of the event detection position for the monitoring image or a window including the monitoring image in accordance with the first operation;
a control means for causing either one of the first processing means and the second processing means to process the first operation;
The control means causes the first processing means to process the first operation when the posture of the mobile monitoring device is the first posture, and the posture of the mobile monitoring device is different from the first posture. A mobile monitoring device that causes the second processing means to process the first operation when in the second posture.
7. The event detection position represents the position of a video monitoring line for detecting a passing object or the position of a monitoring area for detecting a predetermined event of an object.1. to 6. A mobile surveillance device according to any one of the preceding claims.
8. a computer; to 7. A program for operating as the mobile monitoring device according to any one of the above.
9. A computer-implemented control method comprising:
a first processing step of setting an event detection position on the monitoring image in response to a first operation on the monitoring image displayed on the display screen;
a second processing step of performing display change processing other than setting of the event detection position for the monitoring image or a window including the monitoring image in accordance with the first operation;
a control step of causing either one of the first processing step and the second processing step to process the first operation based on the second operation;
A control method with
10. The control step causes the second processing step to perform processing according to the first operation before the second operation is performed, and causes the second processing step to perform processing according to the first operation after the second operation is performed. 9. Process in one processing step. The control method described in .
11. 10. The second operation is a touch operation on an arbitrary part of the display screen or the monitoring image for a predetermined time or longer. The control method described in .
12. 10. The second operation is an operation of touching the start position of the first operation for a predetermined time or longer. The control method described in .
13. the second operation is a touch operation on an arbitrary location on the display screen, which is started before the first operation and continues during the operation of the first operation;
The control step causes the first processing step to process according to the first operation while the second operation is being performed, and causes the second processing step to be processed according to the first operation when the second operation is no longer performed. 9. Let the processing step process. The control method described in .
14. A control method implemented by a computer, comprising:
a first processing step of setting an event detection position on the monitoring image in response to a first operation on the monitoring image displayed on the display screen;
a second processing step of performing display change processing other than setting of the event detection position for the monitoring image or a window including the monitoring image in accordance with the first operation;
a control step causing either one of the first processing step and the second processing step to process the first operation;
The control step causes the first processing step to process the first operation when the posture of the computer is the first posture, and the posture of the computer is the second posture different from the first posture. , the control method causes the first operation to be processed in the second processing step.
15. 9. The event detection position represents the position of a video surveillance line for detecting a passing object or the position of a surveillance area for detecting a given event of an object. to 14. A control method according to any one of the preceding claims.

本発明は、カメラ端末、情報処理方法、及びプログラムに関する。 The present invention relates to a camera terminal, an information processing method , and a program.

本発明のカメラ端末は、監視映像の少なくとも一部を表示するタッチパネルディスプレイに対する所定のタッチ操作が行われた場合に、前記タッチパネルディスプレイに対するスライド操作に応じて、前記監視映像における検出の対象とする事象を検知するエリアを設定し、前記タッチパネルディスプレイに対する前記所定のタッチ操作が行われていない場合に、スライド操作に応じて、前記監視映像を示す領域のうち、前記タッチパネルディスプレイに表示する領域を変更させる情報処理装置と通信可能である。
当該カメラ端末は、
前記監視映像を撮像する撮像部と、
前記監視映像を前記情報処理装置に送信する送信部と、
前記エリアの情報を受信する受信部と、
受信した前記エリアの情報に基づき、前記監視映像において検出の対象とする事象を検知する検知部と、を備える。
In the camera terminal of the present invention, when a predetermined touch operation is performed on a touch panel display that displays at least part of a surveillance image, an event to be detected in the surveillance image in response to a slide operation on the touch panel display. is detected, and when the predetermined touch operation is not performed on the touch panel display, the area displayed on the touch panel display is changed among the areas showing the surveillance image in accordance with the slide operation. It can communicate with an information processing device.
The camera terminal is
an imaging unit that captures the surveillance video;
a transmission unit configured to transmit the surveillance video to the information processing device;
a receiving unit for receiving information on the area;
a detection unit that detects an event to be detected in the surveillance image based on the received information of the area.

本発明のプログラムは、監視映像の少なくとも一部を表示するタッチパネルディスプレイに対する所定のタッチ操作が行われた場合に、前記タッチパネルディスプレイに対するスライド操作に応じて、前記監視映像における検出の対象とする事象を検知するエリアを設定し、前記タッチパネルディスプレイに対する前記所定のタッチ操作が行われていない場合に、スライド操作に応じて、前記監視映像を示す領域のうち、前記タッチパネルディスプレイに表示する領域を変更させる情報処理装置と通信可能なコンピュータ
前記監視映像を撮像する処理、
前記監視映像を前記情報処理装置に送信する処理、
前記エリアの情報を受信する処理、
受信した前記エリアの情報に基づき、前記監視映像において検出の対象とする事象を検知する処理、を実行させるプログラムである。
According to the program of the present invention, when a predetermined touch operation is performed on a touch panel display that displays at least part of a surveillance image, an event to be detected in the surveillance image is detected in response to a slide operation on the touch panel display. Information for setting an area to be detected and for changing an area to be displayed on the touch panel display among the areas showing the surveillance video according to a slide operation when the predetermined touch operation is not performed on the touch panel display. on a computer communicable with the processing unit ;
a process of capturing the surveillance video;
a process of transmitting the surveillance video to the information processing device;
a process of receiving information of said area;
A program for executing a process of detecting an event to be detected in the surveillance image based on the received information of the area .

本発明の制御方法は、監視映像の少なくとも一部を表示するタッチパネルディスプレイに対する所定のタッチ操作が行われた場合に、前記タッチパネルディスプレイに対するスライド操作に応じて、前記監視映像における検出の対象とする事象を検知するエリアを設定し、前記タッチパネルディスプレイに対する前記所定のタッチ操作が行われていない場合に、スライド操作に応じて、前記監視映像を示す領域のうち、前記タッチパネルディスプレイに表示する領域を変更させる情報処理装置と通信可能なコンピュータ実行る。
当該制御方法においてコンピュータは、
前記監視映像を撮像し、
前記監視映像を前記情報処理装置に送信し、
前記エリアの情報を受信し、
受信した前記エリアの情報に基づき、前記監視映像において検出の対象とする事象を検知する。
In the control method of the present invention, when a predetermined touch operation is performed on a touch panel display that displays at least part of a surveillance image, an event to be detected in the surveillance image in response to a slide operation on the touch panel display. is detected, and when the predetermined touch operation is not performed on the touch panel display, the area displayed on the touch panel display is changed among the areas showing the surveillance image in accordance with the slide operation. A computer that can communicate with the information processing device executes .
In the control method , the computer
capturing the surveillance video;
transmitting the surveillance video to the information processing device;
receiving information of said area;
Based on the received information of the area, an event to be detected is detected in the surveillance image.

Claims (12)

監視映像の少なくとも一部をタッチパネルディスプレイ上に表示し、
前記タッチパネルディスプレイに対する所定のタッチ操作が行われた場合に、前記タッチパネルディスプレイに対するスライド操作に応じて、前記監視映像における検出の対象とする事象を検知するエリアを設定し、
前記タッチパネルディスプレイに対する前記所定のタッチ操作が行われていない場合に、スライド操作に応じて、前記監視映像を示す領域のうち、前記タッチパネルディスプレイに表示する領域を変更する、制御方法。
displaying at least a portion of the surveillance video on a touch panel display;
setting an area for detecting an event to be detected in the surveillance image in response to a slide operation on the touch panel display when a predetermined touch operation is performed on the touch panel display;
A control method, wherein, when the predetermined touch operation is not performed on the touch panel display, an area to be displayed on the touch panel display out of areas showing the surveillance image is changed in accordance with a slide operation.
請求項1に記載の制御方法において、
前記変更する処理の前後に表示される前記領域はいずれも前記監視映像に含まれる、制御方法。
In the control method according to claim 1,
The control method, wherein both the areas displayed before and after the changing process are included in the surveillance image.
請求項2に記載の制御方法において、
前記監視映像を解析することにより前記事象を検知する、制御方法。
In the control method according to claim 2,
A control method, wherein the event is detected by analyzing the surveillance video.
請求項3に記載の制御方法において、
前記事象は物体の事象であり、
前記物体は、人、動物、または乗り物であり、
前記事象は、前記物体による映像監視線の通過、前記監視映像の対象となる監視領域における前記物体の所定の事象、または線で定義された特定ルートの物体の移動である、制御方法。
In the control method according to claim 3,
the event is an object event,
the object is a person, an animal, or a vehicle;
The control method, wherein the event is passage of the object through a video surveillance line, a predetermined event of the object in a surveillance area targeted by the surveillance video, or movement of the object along a specific route defined by a line.
請求項3又は4に記載の制御方法において、
前記事象を検知すると、情報処理装置に対して通知処理を行う、制御方法。
In the control method according to claim 3 or 4,
A control method, wherein when the event is detected, notification processing is performed to an information processing device.
コンピュータに、
監視映像の少なくとも一部をタッチパネルディスプレイに表示する機能と、
前記タッチパネルディスプレイに対する所定のタッチ操作が行われた場合に、前記タッチパネルディスプレイに対するスライド操作に応じて、前記監視映像における検出の対象とする事象を検知するエリアを設定する機能と、
前記タッチパネルディスプレイに対する前記所定のタッチ操作が行われていない場合に、スライド操作に応じて、前記監視映像を示す領域のうち、前記タッチパネルディスプレイに表示する領域を変更する機能と、を持たせるプログラム。
to the computer,
a function of displaying at least part of the surveillance video on a touch panel display;
A function of setting an area for detecting an event to be detected in the surveillance image in response to a slide operation on the touch panel display when a predetermined touch operation is performed on the touch panel display;
A program for providing a function of changing an area to be displayed on the touch panel display out of areas showing the surveillance image in accordance with a slide operation when the predetermined touch operation is not performed on the touch panel display.
請求項6に記載のプログラムにおいて、
前記変更する処理の前後に表示される前記領域はいずれも前記監視映像に含まれる、プログラム。
In the program according to claim 6,
The program, wherein both the areas displayed before and after the changing process are included in the surveillance image.
請求項7に記載のプログラムにおいて、
前記監視映像を解析することにより前記事象を検知する、プログラム。
In the program according to claim 7,
A program for detecting the event by analyzing the surveillance video.
請求項8に記載のプログラムにおいて、
前記事象は物体の事象であり、
前記物体は、人、動物、または乗り物であり、
前記事象は、前記物体による映像監視線の通過、前記監視映像の対象となる監視領域における前記物体の所定の事象、または線で定義された特定ルートの物体の移動である、プログラム。
In the program according to claim 8,
the event is an object event,
the object is a person, an animal, or a vehicle;
The program according to claim 1, wherein the event is passage of the object through a video surveillance line, a predetermined event of the object in a surveillance area targeted by the surveillance video, or movement of the object along a specific route defined by a line.
請求項8又は9に記載のプログラムにおいて、
前記コンピュータに、前記事象を検知すると、情報処理装置に対して通知処理を行わせる機能を持たせる、プログラム。
In the program according to claim 8 or 9,
A program that causes the computer to perform notification processing to an information processing device when the event is detected.
監視映像の少なくとも一部をタッチパネルディスプレイに表示し、
前記タッチパネルディスプレイに対する所定のタッチ操作が行われた場合に、前記タッチパネルディスプレイに対するスライド操作に応じて、前記監視映像における検出の対象とする事象を検知するエリアを設定し、
前記タッチパネルディスプレイに対する前記所定のタッチ操作が行われていない場合に、スライド操作に応じて、前記監視映像を示す領域のうち、前記タッチパネルディスプレイに表示する領域を変更する、システム。
displaying at least a portion of the surveillance video on a touch panel display;
setting an area for detecting an event to be detected in the surveillance image in response to a slide operation on the touch panel display when a predetermined touch operation is performed on the touch panel display;
A system for changing an area to be displayed on the touch panel display out of areas showing the surveillance video according to a slide operation when the predetermined touch operation is not performed on the touch panel display.
請求項11に記載のシステムにおいて、
前記変更する処理の前後に表示される前記領域はいずれも前記監視映像に含まれる、システム。
12. The system of claim 11, wherein
The system, wherein both the areas displayed before and after the changing process are included in the surveillance image.
JP2022120243A 2021-01-04 2022-07-28 Camera terminal, information processing method, and program Active JP7276576B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022120243A JP7276576B2 (en) 2021-01-04 2022-07-28 Camera terminal, information processing method, and program

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2021000056A JP7120337B2 (en) 2021-01-04 2021-01-04 Control method, program and system
JP2022120243A JP7276576B2 (en) 2021-01-04 2022-07-28 Camera terminal, information processing method, and program

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2021000056A Division JP7120337B2 (en) 2021-01-04 2021-01-04 Control method, program and system

Publications (2)

Publication Number Publication Date
JP2022169536A true JP2022169536A (en) 2022-11-09
JP7276576B2 JP7276576B2 (en) 2023-05-18

Family

ID=87805524

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022120243A Active JP7276576B2 (en) 2021-01-04 2022-07-28 Camera terminal, information processing method, and program

Country Status (1)

Country Link
JP (1) JP7276576B2 (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002034032A (en) * 2000-07-13 2002-01-31 Asahi Optical Co Ltd Controller for monitoring camera system
JP2005148863A (en) * 2003-11-11 2005-06-09 Konica Minolta Holdings Inc Number of person counting system

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002034032A (en) * 2000-07-13 2002-01-31 Asahi Optical Co Ltd Controller for monitoring camera system
JP2005148863A (en) * 2003-11-11 2005-06-09 Konica Minolta Holdings Inc Number of person counting system

Also Published As

Publication number Publication date
JP7276576B2 (en) 2023-05-18

Similar Documents

Publication Publication Date Title
JP6229816B2 (en) Mobile monitoring device, program, and control method
JP5954106B2 (en) Information processing apparatus, information processing method, program, and information processing system
US8671344B2 (en) Information display device
EP2934004A1 (en) System and method of virtual zone based camera parameter updates in video surveillance systems
US20160357415A1 (en) Quick review of captured image data
KR102644782B1 (en) The Apparatus And The System For Monitoring
JP2007174589A (en) Thumbnail creation program
US20120139827A1 (en) Method and apparatus for interacting with projected displays using shadows
US11651667B2 (en) System and method for displaying moving objects on terrain map
JP6852293B2 (en) Image processing system, information processing device, information terminal, program
JP6268497B2 (en) Security system and person image display method
JP7120337B2 (en) Control method, program and system
JP2019125053A (en) Information terminal device, information processing system, and display control program
JP2005148863A (en) Number of person counting system
JPWO2014050180A1 (en) Video display system, operation terminal, operation method and program
KR20180058599A (en) Apparatus and method for providing density
JP6299602B2 (en) Information processing apparatus, information processing method, program, and information processing system
JP7276576B2 (en) Camera terminal, information processing method, and program
JP6515975B2 (en) MOBILE MONITORING DEVICE, MOBILE MONITORING SYSTEM, PROGRAM, AND CONTROL METHOD
JP6996758B2 (en) Mobile monitoring devices, control methods, and programs
CN114895813A (en) Information display method and device, electronic equipment and readable storage medium
EP3096303B1 (en) Sensor data conveyance
WO2017029779A1 (en) Security system, person image display method, and report creation method
JP2020154071A (en) Display control device, display control method, program and display control system
JP2017040982A (en) Security system and report preparation method

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220728

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220728

TRDD Decision of grant or rejection written
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230322

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230404

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230417

R151 Written notification of patent or utility model registration

Ref document number: 7276576

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151