JP2018107775A - Information processing device, and control method and program thereof - Google Patents

Information processing device, and control method and program thereof Download PDF

Info

Publication number
JP2018107775A
JP2018107775A JP2016255978A JP2016255978A JP2018107775A JP 2018107775 A JP2018107775 A JP 2018107775A JP 2016255978 A JP2016255978 A JP 2016255978A JP 2016255978 A JP2016255978 A JP 2016255978A JP 2018107775 A JP2018107775 A JP 2018107775A
Authority
JP
Japan
Prior art keywords
map
camera
network
displayed
network cameras
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016255978A
Other languages
Japanese (ja)
Other versions
JP6810351B2 (en
Inventor
高志 羽部
Takashi Habe
高志 羽部
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Marketing Japan Inc
Original Assignee
Canon Marketing Japan Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Marketing Japan Inc filed Critical Canon Marketing Japan Inc
Priority to JP2016255978A priority Critical patent/JP6810351B2/en
Publication of JP2018107775A publication Critical patent/JP2018107775A/en
Application granted granted Critical
Publication of JP6810351B2 publication Critical patent/JP6810351B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide a mechanism for improving the easiness of confirming a place where an event occurs with a simple operation and easily confirming video of a place that a user wants to confirm.SOLUTION: An information processing device for causing a display device to display a map with objects showing network cameras arranged and video photographed by the network cameras stores a plurality of maps of different scales, gradually displays detailed maps from a map of a wide area with the objects arranged at a position where a plurality of network cameras for photographing a plurality of places with an event acquired are installed, receives any selection among the plurality of network cameras by a user when the plurality of network cameras are determined to be arranged in mutually different detailed maps, and gradually displays detailed maps from a map where an object showing the selected network camera is arranged.SELECTED DRAWING: Figure 7

Description

本発明は、情報処理装置、及びその制御方法、プログラムに関し、特に、簡易な操作で、イベントが発生している場所の確認容易性を向上させると共に、ユーザが確認したい場所の映像を確認し易くするための技術に関するものである。   The present invention relates to an information processing apparatus, a control method therefor, and a program, and in particular, improves the ease of confirming a place where an event has occurred with a simple operation and facilitates confirmation of a video of a place that a user wants to confirm. It is about the technology to do.

近年、監視カメラをインターネット回線に接続し、当該監視カメラにより撮影されたライブ映像をパソコンやスマートフォンなどのクライアント端末で閲覧できるサービスが提供されている。   In recent years, a service has been provided in which a surveillance camera is connected to an Internet line, and a live video captured by the surveillance camera can be viewed on a client terminal such as a personal computer or a smartphone.

また、監視カメラが設置された位置に相当する地図上の位置に、カメラのアイコンを表示し、当該カメラアイコンに相当するカメラで撮影された映像を表示することも提案されている。   In addition, it has been proposed to display a camera icon at a position on the map corresponding to the position where the surveillance camera is installed, and to display an image taken by the camera corresponding to the camera icon.

特許文献1には、例えば、カメラアイコンを表示したマップ表示部と、そのカメラアイコンに相当するカメラで撮影された映像を表示する映像表示部とを含むGUIが記載されている。   Patent Document 1 describes a GUI including, for example, a map display unit that displays a camera icon and a video display unit that displays a video shot by a camera corresponding to the camera icon.

特開2010−11307号公報JP 2010-11307 A

しかしながら、例えば、工場内に配置されたカメラに相当するアイコンを地図上に表示する場合、工場内の地図は、インターネット上の地図提供サービスには蓄積されていないため、自ら工場内の地図を作成して用意しなければならない。そのため、従来、CADデータとして、工場内の地図を作成して、当該CADデータの地図上に、カメラのアイコンを配置する。   However, for example, when an icon corresponding to a camera placed in the factory is displayed on the map, the map in the factory is not stored in the map providing service on the Internet, so the map in the factory is created by itself. You have to prepare. Therefore, conventionally, a factory map is created as CAD data, and a camera icon is arranged on the CAD data map.

また、そのような地図を、広域地図から詳細地図まで、複数枚用意し、従来、ユーザの手動で、広域地図から詳細地図に段階的にドリルダウンして表示していた。すなわち、例えば、工場が複数拠点あるような場合には、ユーザは、どこの工場のどこの生産エリアのどこの生産ラインでエラー等のイベントが発生しているのかを確認するために、手動で地図をドリルダウンする等して探し出さなければならず、煩雑な操作が必要であった。   Also, a plurality of such maps from a wide area map to a detailed map are prepared, and conventionally, the user manually displays the map by drilling down from the wide area map to the detailed map step by step. That is, for example, when there are a plurality of factories, the user manually checks in which production line in which production area of which factory an error or other event has occurred. The map had to be searched for by drilling down, and complicated operations were required.

そこで、自動的に、広域地図から詳細地図に段階的にドリルダウンして表示することで、ユーザは、簡易な操作で、どこの工場のどこの生産エリアのどこの生産ラインでエラー等のイベントが発生しているのかを確認することが考えられる。   Therefore, by automatically drilling down and displaying from the wide area map to the detailed map in a step-by-step manner, the user can easily perform an event such as an error in any production line in any production area in any factory. It may be possible to confirm whether or not the above has occurred.

しかし、例えば、同時刻(同時間帯)に、複数のイベントが異なる場所で発生し、自動的に、広域地図から段階的に詳細地図を表示する途中で、その複数のイベントが、複数の詳細地図に分かれてしまう場合も考えられる。また、例えば、同時刻(同時間帯)に、複数のイベントが異なる場所で発生し、広域地図から段階的に詳細地図を表示する途中の同一の地図上に、複数のイベントが表示されないことも考えられるが、そのような場合に、ユーザが、簡易な操作で、どこでイベントが発生しているのかを容易に確認することは出来なった。   However, for example, multiple events occur in different places at the same time (same time zone), and the multiple events are displayed in multiple steps while automatically displaying the detailed map step by step from the wide area map. It may be divided into maps. In addition, for example, a plurality of events may occur at different locations at the same time (same time period), and a plurality of events may not be displayed on the same map while displaying a detailed map step by step from a wide area map. In such a case, the user could not easily check where the event occurred by a simple operation.

そこで、本発明は、簡易な操作で、イベントが発生している場所の確認容易性を向上させると共に、ユーザが確認したい場所の映像を確認し易くする仕組みを提供することである。   Therefore, the present invention provides a mechanism for improving the ease of confirming a place where an event has occurred with a simple operation and making it easy to confirm a video of a place that the user wants to confirm.

本発明は、ネットワークカメラが設置された位置に前記ネットワークカメラを示すオブジェクトを配置した地図と、前記ネットワークカメラにより撮影された映像とを表示装置に表示させる情報処理装置であって、複数の異なる縮尺の地図を記憶する記憶手段と、複数のネットワークカメラでそれぞれ撮影される複数の場所のイベントを取得する取得手段と、前記取得手段により取得した複数のイベントの場所を撮影する複数のネットワークカメラが設置された位置に、それぞれネットワークカメラを示すオブジェクトが配置された、前記記憶手段に記憶された広域の地図から、ユーザの操作を受け付けることなく段階的に詳細の地図を表示する表示手段と、前記取得手段により取得した複数のイベントの場所を撮影する複数のネットワークカメラが、互いに異なる詳細地図に配置されているか否かを判定する判定手段と、前記判定手段により、複数のネットワークカメラが、互いに異なる詳細地図に配置されていると判定された場合には、ユーザの操作により、当該複数のネットワークカメラの中からいずれかの選択を受け付ける選択受付手段と、を備え、前記表示手段は、前記選択受付手段により選択を受け付けたネットワークカメラを示すオブジェクトが配置された地図から、段階的に詳細の地図を表示することを特徴とする。   The present invention is an information processing apparatus that displays on a display device a map in which an object indicating the network camera is arranged at a position where the network camera is installed, and a video photographed by the network camera, and a plurality of different scales Storage means for storing the map, acquisition means for acquiring events at a plurality of locations respectively captured by a plurality of network cameras, and a plurality of network cameras for capturing the locations of the plurality of events acquired by the acquisition means Display means for displaying a detailed map step by step without accepting a user operation from a wide-area map stored in the storage means, each of which indicates an object indicating a network camera, and the acquisition Multiple networks that capture the location of multiple events acquired by means The determination means for determining whether or not the camera is arranged on different detailed maps, and when the determination means determines that the plurality of network cameras are arranged on different detailed maps, the user Selection accepting means for accepting a selection from among the plurality of network cameras by the operation of, and the display means is a map in which an object indicating the network camera accepted by the selection accepting means is arranged From the above, a detailed map is displayed step by step.

また、本発明は、ネットワークカメラが設置された位置に前記ネットワークカメラを示すオブジェクトを配置した地図と、前記ネットワークカメラにより撮影された映像とを表示装置に表示させる機能と、複数の異なる縮尺の地図を記憶する記憶手段を備えた情報処理装置における制御方法であって、取得手段が、複数のネットワークカメラでそれぞれ撮影される複数の場所のイベントを取得する取得工程と、表示手段が、前記取得工程により取得した複数のイベントの場所を撮影する複数のネットワークカメラが設置された位置に、それぞれネットワークカメラを示すオブジェクトが配置された、前記記憶手段に記憶された広域の地図から、ユーザの操作を受け付けることなく段階的に詳細の地図を表示する表示工程と、判定手段が、前記取得工程により取得した複数のイベントの場所を撮影する複数のネットワークカメラが、互いに異なる詳細地図に配置されているか否かを判定する判定工程と、選択受付手段が、前記判定工程により、複数のネットワークカメラが、互いに異なる詳細地図に配置されていると判定された場合には、ユーザの操作により、当該複数のネットワークカメラの中からいずれかの選択を受け付ける選択受付工程と、を備え、前記表示工程は、前記選択受付工程により選択を受け付けたネットワークカメラを示すオブジェクトが配置された地図から、段階的に詳細の地図を表示することを特徴とする。   The present invention also includes a function of displaying a map in which an object indicating the network camera is arranged at a position where the network camera is installed, a video image taken by the network camera on a display device, and a plurality of different scale maps. A control method in an information processing apparatus comprising a storage means for storing the acquisition means, wherein the acquisition means acquires an event at a plurality of locations respectively photographed by a plurality of network cameras, and the display means is the acquisition process. Accepts a user's operation from a wide-area map stored in the storage means in which objects indicating network cameras are respectively arranged at positions where a plurality of network cameras for photographing a plurality of event locations acquired by the A display step for displaying a detailed map step by step without determining, and the determining means, A determination step for determining whether or not a plurality of network cameras that photograph the locations of a plurality of events acquired in the acquisition step are arranged on different detailed maps, and the selection receiving means includes a plurality of networks according to the determination step. A selection receiving step of receiving a selection from the plurality of network cameras by a user operation when it is determined that the cameras are arranged on different detailed maps, the display step Is characterized in that a detailed map is displayed step by step from a map on which an object indicating a network camera that has received a selection in the selection receiving step is arranged.

また、本発明は、ネットワークカメラが設置された位置に前記ネットワークカメラを示すオブジェクトを配置した地図と、前記ネットワークカメラにより撮影された映像とを表示装置に表示させる機能と、複数の異なる縮尺の地図を記憶する記憶手段を備えた情報処理装置で読み取り実行可能なプログラムであって、前記情報処理装置を、複数のネットワークカメラでそれぞれ撮影される複数の場所のイベントを取得する取得手段と、前記取得手段により取得した複数のイベントの場所を撮影する複数のネットワークカメラが設置された位置に、それぞれネットワークカメラを示すオブジェクトが配置された、前記記憶手段に記憶された広域の地図から、ユーザの操作を受け付けることなく段階的に詳細の地図を表示する表示手段と、前記取得手段により取得した複数のイベントの場所を撮影する複数のネットワークカメラが、互いに異なる詳細地図に配置されているか否かを判定する判定手段と、前記判定手段により、複数のネットワークカメラが、互いに異なる詳細地図に配置されていると判定された場合には、ユーザの操作により、当該複数のネットワークカメラの中からいずれかの選択を受け付ける選択受付手段として機能させ、前記表示手段は、前記選択受付手段により選択を受け付けたネットワークカメラを示すオブジェクトが配置された地図から、段階的に詳細の地図を表示することを特徴とする。   The present invention also includes a function of displaying a map in which an object indicating the network camera is arranged at a position where the network camera is installed, a video image taken by the network camera on a display device, and a plurality of different scale maps. A program that can be read and executed by an information processing apparatus including a storage unit that stores information, and the information processing apparatus acquires an event at a plurality of locations that are captured by a plurality of network cameras, and the acquisition The user's operation is performed from a wide-area map stored in the storage means in which objects indicating network cameras are respectively arranged at positions where a plurality of network cameras for photographing a plurality of event locations acquired by the means are installed. Display means for displaying a detailed map step by step without accepting; Determining means for determining whether or not a plurality of network cameras for photographing the locations of a plurality of events acquired by the means are arranged on different detailed maps, and the details of the plurality of network cameras differing from each other by the determining means If it is determined that it is arranged on the map, it is made to function as a selection receiving unit that receives any selection from the plurality of network cameras by the user's operation, and the display unit is operated by the selection receiving unit. A detailed map is displayed step by step from a map on which objects indicating network cameras that have received selections are arranged.

本発明によれば、簡易な操作で、イベントが発生している場所の確認容易性を向上させると共に、ユーザが確認したい場所の映像を確認し易くする仕組みを提供することができる。   According to the present invention, it is possible to provide a mechanism that improves the ease of confirming a place where an event has occurred and makes it easy to confirm a video of a place that the user wants to confirm with a simple operation.

本発明の実施形態に係る情報処理システムの構成を示す図である。It is a figure which shows the structure of the information processing system which concerns on embodiment of this invention. 図1に示すクライアント端末104、管理サーバ103のハードウェア構成の一例を示す図である。It is a figure which shows an example of the hardware constitutions of the client terminal 104 and the management server 103 which are shown in FIG. クライアント端末104の表示部に表示される、ネットワークカメラで撮影された映像を表示するビューワーの表示の遷移の一例を示す図である。It is a figure which shows an example of the display transition of the viewer which displays the image | video image | photographed with the network camera displayed on the display part of the client terminal. クライアント端末104の表示部に表示される、ネットワークカメラで撮影された映像を表示するビューワーの表示の遷移の一例を示す図である。It is a figure which shows an example of the display transition of the viewer which displays the image | video image | photographed with the network camera displayed on the display part of the client terminal. クライアント端末104の表示部に表示される、ネットワークカメラで撮影された映像を表示するビューワーの表示の遷移の一例を示す図である。It is a figure which shows an example of the display transition of the viewer which displays the image | video image | photographed with the network camera displayed on the display part of the client terminal. クライアント端末104の表示部に表示される、ネットワークカメラで撮影された映像を表示するビューワーの表示の遷移の一例を示す図である。It is a figure which shows an example of the display transition of the viewer which displays the image | video image | photographed with the network camera displayed on the display part of the client terminal. クライアント端末104の表示部に表示される、ネットワークカメラで撮影された映像を表示するビューワーの表示の遷移の一例を示す図である。It is a figure which shows an example of the display transition of the viewer which displays the image | video image | photographed with the network camera displayed on the display part of the client terminal. クライアント端末104の表示部に表示される、ネットワークカメラで撮影された映像を表示するビューワーの表示の遷移の一例を示す図である。It is a figure which shows an example of the display transition of the viewer which displays the image | video image | photographed with the network camera displayed on the display part of the client terminal. 管理サーバ103の記憶手段に記憶された各種テーブルの一例を示す図である。It is a figure which shows an example of the various tables memorize | stored in the memory | storage means of the management server. 管理サーバ103のCPU201が実行する制御処理の一例を示すフローチャートである。6 is a flowchart illustrating an example of a control process executed by a CPU 201 of the management server 103.

以下、図面を参照して、本発明の実施形態を詳細に説明する。   Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.

以下、本発明を適用した好適な実施形態を、添付図面を参照しながら詳細に説明する。
<図1の説明>
図1は、本発明の実施形態に係る情報処理システムの構成を示す図である。
DESCRIPTION OF EXEMPLARY EMBODIMENTS Hereinafter, preferred embodiments to which the invention is applied will be described in detail with reference to the accompanying drawings.
<Description of FIG. 1>
FIG. 1 is a diagram showing a configuration of an information processing system according to an embodiment of the present invention.

図1に示す情報処理システムは、複数のネットワークカメラ(101、102、・・・)と、管理サーバ103と、クライアント端末104と含むシステムである。   The information processing system illustrated in FIG. 1 is a system including a plurality of network cameras (101, 102,...), A management server 103, and a client terminal 104.

複数のネットワークカメラ(101、102、・・・)と、管理サーバ103と、クライアント端末104とは、相互に通信可能に、有線、又は無線のネットワーク105を介して接続されている。   The plurality of network cameras (101, 102,...), The management server 103, and the client terminal 104 are connected via a wired or wireless network 105 so that they can communicate with each other.

図1には、ネットワークカメラ101、102を2台示しているが、3台以上、ネットワーク105に接続されているものとする。   Although two network cameras 101 and 102 are shown in FIG. 1, it is assumed that three or more network cameras 101 and 102 are connected to the network 105.

ネットワークカメラ101、102は、監視カメラであり、所定の場所に固定して設置されている。   The network cameras 101 and 102 are surveillance cameras and are fixedly installed at predetermined locations.

ネットワークカメラ101、102は、ネットワーク105に接続可能な撮像装置(カメラ)である。ネットワークカメラ101、102は、動画、及び/又は静止画を撮影可能なカメラである。以下、動画、及び/又は静止画を映像データとも言う。   The network cameras 101 and 102 are imaging devices (cameras) that can be connected to the network 105. The network cameras 101 and 102 are cameras that can shoot moving images and / or still images. Hereinafter, a moving image and / or a still image is also referred to as video data.

ネットワークカメラ101、102は、撮影された映像のデータを、管理サーバ103、又はクライアント端末104に送信する機能を備えている。   The network cameras 101 and 102 have a function of transmitting captured video data to the management server 103 or the client terminal 104.

また、ネットワークカメラ101、102は、撮影している映像から、又は、他のPLCなどの装置から、被写体である機器のエラー等の所定のイベントを検知すると、当該撮影しているネットワークカメラを識別するカメラID、及び、当該イベントを検知した日時(エラー日時)を、管理サーバ103に送信する機能、及び、当該撮影している映像を、管理サーバ103、又はクライアント端末104に送信する機能を備えている。   When the network cameras 101 and 102 detect a predetermined event such as an error of a device that is a subject from an image being captured or from another device such as a PLC, the network cameras 101 and 102 identify the network camera that is capturing the image. A function of transmitting the camera ID to be detected and the date and time when the event was detected (error date and time) to the management server 103, and a function of transmitting the captured video to the management server 103 or the client terminal 104. ing.

管理サーバ103は、ネットワークカメラから、カメラID、及び、当該イベントを検知した日時(エラー日時)を受信すると、管理サーバ103のメモリ等の記憶手段に記憶されているカメラテーブル902(図9)に、当該カメラIDに対して、日時(エラー日時)を登録する。   When the management server 103 receives the camera ID and the date / time (error date / time) when the event was detected from the network camera, the management server 103 stores it in the camera table 902 (FIG. 9) stored in the storage means such as the memory of the management server 103. The date and time (error date and time) is registered for the camera ID.

すなわち、カメラテーブル902(図9)には、機器のエラー等の所定のイベントを、ネットワークカメラが撮影していることを示している。   In other words, the camera table 902 (FIG. 9) indicates that the network camera is shooting a predetermined event such as a device error.

管理サーバ103は、ネットワークに接続されたネットワークカメラから当該ネットワークカメラで撮影されたライブ映像(動画データ)を、当該ネットワークを介して受信し、クライアント端末104に送信する機能を有する。また、当該映像を録画して、クライアント端末104に送信する機能も備えている。   The management server 103 has a function of receiving live video (moving image data) captured by a network camera connected to the network via the network and transmitting it to the client terminal 104. In addition, a function of recording the video and transmitting it to the client terminal 104 is also provided.

管理サーバ103は、本発明の情報処理装置の適用例であり、ネットワークカメラが設置された位置に当該ネットワークカメラを示すオブジェクトを配置した地図と、当該ネットワークカメラにより撮影された映像とを表示装置(クライアント端末104)に表示させる。   The management server 103 is an application example of the information processing apparatus of the present invention, and displays a map in which an object indicating the network camera is arranged at a position where the network camera is installed, and a video captured by the network camera (display device ( Display on the client terminal 104).

クライアント端末104は、監査者、管理者などのユーザが操作する端末であり、各ネットワークカメラで撮影された映像を当該ユーザが閲覧、確認するための端末である。   The client terminal 104 is a terminal operated by a user such as an inspector or an administrator, and is a terminal for the user to view and check video captured by each network camera.

クライアント端末104は、パソコンだけではなく、スマートフォンやタブレットPCなどの可搬可能な端末でもよい。
クライアント端末104は、本発明の表示装置の適用例である。
<図2の説明>
The client terminal 104 may be not only a personal computer but also a portable terminal such as a smartphone or a tablet PC.
The client terminal 104 is an application example of the display device of the present invention.
<Description of FIG. 2>

次に、図1に示すクライアント端末104、管理サーバ103のハードウェア構成の一例について説明する。   Next, an example of the hardware configuration of the client terminal 104 and the management server 103 illustrated in FIG. 1 will be described.

図2は、図1に示すクライアント端末104、管理サーバ103のハードウェア構成の一例を示す図である。   FIG. 2 is a diagram illustrating an example of a hardware configuration of the client terminal 104 and the management server 103 illustrated in FIG.

すなわち、図2は、図1に示すクライアント端末104、管理サーバ103が適用可能な情報処理装置のハードウェア構成の一例を示す図である。   That is, FIG. 2 is a diagram illustrating an example of a hardware configuration of an information processing apparatus to which the client terminal 104 and the management server 103 illustrated in FIG. 1 can be applied.

図2に示すように、情報処理装置は、CPU201と、RAM202と、ROM203と、システムバス204と、入力コントローラ205と、ビデオコントローラ206と、メモリコントローラ207と、通信I/Fコントローラ208と、キーボード209と、CRT210と、外部メモリ211を有して構成されている。   As shown in FIG. 2, the information processing apparatus includes a CPU 201, a RAM 202, a ROM 203, a system bus 204, an input controller 205, a video controller 206, a memory controller 207, a communication I / F controller 208, and a keyboard. 209, a CRT 210, and an external memory 211.

CPU201は、情報処理装置における動作を統括的に制御するものであり、必要に応じて、システムバス204に接続される各種のデバイスや各種のコントローラを制御する。   The CPU 201 controls the overall operation of the information processing apparatus, and controls various devices and various controllers connected to the system bus 204 as necessary.

RAM202は、CPU201の主メモリ、ワークエリア等として機能する。CPU201は、処理の実行に際して必要なプログラム等をRAM202にロードして、プログラムを実行することで各種の動作を実現する。   The RAM 202 functions as a main memory, work area, and the like for the CPU 201. The CPU 201 implements various operations by loading a program or the like necessary for executing the processing into the RAM 202 and executing the program.

ROM203には、CPU201の制御プログラムであるBIOS(Basic Input / Output System)やオペレーティングシステムプログラム(以下、OS)、CPU201が本実施形態に係る情報処理装置の機能を実現するために必要な各種のプログラム等が記憶されている。なお、これらのプログラムは、外部メモリ211に記憶されている態様であってもよい。   The ROM 203 includes a BIOS (Basic Input / Output System) and an operating system program (hereinafter referred to as OS), which are control programs for the CPU 201, and various programs necessary for the CPU 201 to realize the functions of the information processing apparatus according to the present embodiment. Etc. are stored. These programs may be stored in the external memory 211.

システムバス204は、CPU201、RAM202、ROM203、システムバス204、入力コントローラ205、ビデオコントローラ206、メモリコントローラ207及び通信I/Fコントローラ208を、相互に通信可能に接続する。   The system bus 204 connects the CPU 201, RAM 202, ROM 203, system bus 204, input controller 205, video controller 206, memory controller 207, and communication I / F controller 208 so that they can communicate with each other.

入力コントローラ205は、キーボード209やマウス(不図示)等のポインティングデバイスからの入力を制御する。   The input controller 205 controls input from a pointing device such as a keyboard 209 or a mouse (not shown).

ビデオコントローラ206は、CRTディスプレイ(CRT)210等の表示部への表示を制御する。この表示部は、CRTだけでなく、液晶ディスプレイ等であっても構わない。   The video controller 206 controls display on a display unit such as a CRT display (CRT) 210. This display unit may be not only a CRT but also a liquid crystal display or the like.

メモリコントローラ207は、ブートプログラム、ブラウザソフトウエア、各種のアプリケーション、フォントデータ、ユーザファイル、編集ファイル、各種のデータ等を記憶するハードディスク(HD)やフロッピーディスク(登録商標FD)或いはPCMCIAカードスロットにアダプタを介して接続されるコンパクトフラッシュメモリ(登録商標)等の外部メモリ211へのアクセスを制御する。   The memory controller 207 is an adapter to a hard disk (HD), floppy disk (registered trademark FD) or PCMCIA card slot that stores a boot program, browser software, various applications, font data, user files, editing files, various data, and the like. Is used to control access to an external memory 211 such as a compact flash memory (registered trademark) connected via the.

通信I/Fコントローラ208は、ネットワークを介して、外部機器と接続・通信するものであり、ネットワークでの通信制御処理を実行する。例えば、TCP/IPを用いたインターネット通信等が可能である。   The communication I / F controller 208 is connected to and communicates with an external device via a network, and executes communication control processing on the network. For example, Internet communication using TCP / IP is possible.

なお、CPU201は、例えばRAM202の表示情報用領域へアウトラインフォントの展開(ラスタライズ)処理を実行することにより、CRT210での表示を可能としている。また、CPU201は、CRT210のマウスカーソル(不図示)等でのユーザ指示を可能とする。   Note that the CPU 201 enables display on the CRT 210 by executing outline font rasterization processing on the display information area of the RAM 202, for example. In addition, the CPU 201 enables a user instruction with a mouse cursor (not shown) of the CRT 210 or the like.

本発明を実現するための後述する各種プログラムは、外部メモリ211に記録されており、必要に応じてRAM202にロードされることによりCPU201によって実行されるものである。さらに、上記プログラムの実行時に用いられる定義ファイル及び各種情報テーブル(図9)等も、外部メモリ211に格納されており、これらについての詳細な説明も後述する。
<図3、4の説明>
Various programs to be described later for realizing the present invention are recorded in the external memory 211 and executed by the CPU 201 by being loaded into the RAM 202 as necessary. Furthermore, a definition file and various information tables (FIG. 9) used when executing the program are also stored in the external memory 211, and a detailed description thereof will be described later.
<Description of FIGS. 3 and 4>

次に、図3、図4を用いて、クライアント端末104の表示部に表示される、ネットワークカメラで撮影された映像を表示するビューワーの表示の遷移について、説明する。   Next, transition of display of the viewer that displays the video captured by the network camera displayed on the display unit of the client terminal 104 will be described with reference to FIGS. 3 and 4.

図3、図4は、クライアント端末104の表示部に表示される、ネットワークカメラで撮影された映像を表示するビューワーの表示の遷移の一例を示す図である。   3 and 4 are diagrams illustrating an example of display transitions of the viewer that displays the video captured by the network camera displayed on the display unit of the client terminal 104. FIG.

まず、ネットワークカメラが、被写体である機器のエラー等の所定のイベントを検知すると、当該撮影しているネットワークカメラを識別するカメラID、及び、当該イベントを検知した日時(エラー日時)を、管理サーバ103に送信し、管理サーバ103が、当該カメラIDに対応して、カメラテーブル902に当該日時(エラー日時)を登録する。   First, when the network camera detects a predetermined event such as an error of a device that is a subject, the management server obtains a camera ID for identifying the network camera that is capturing the image, and the date and time (error date and time) when the event is detected. The management server 103 registers the date / time (error date / time) in the camera table 902 corresponding to the camera ID.

そして、管理サーバ103は、予め登録されている地図テーブル901を参照して、図3(A)に示すビューワー画面301を表示する。   Then, the management server 103 refers to the map table 901 registered in advance and displays the viewer screen 301 shown in FIG.

ビューワー画面301は、エラー等のイベントを検知した場所、あるいは、当該場所を撮影しているネットワークカメラの場所を示す地図を表示するマップ表示領域302と、当該ネットワークカメラが撮影している映像を表示する領域である映像表示領域303と、カメラテーブル902に登録された日時とカメラIDとを表示するエラー一覧表示領域304と、を表示する画面である。   The viewer screen 301 displays a map display area 302 that displays a map indicating a location where an event such as an error is detected or a network camera that is capturing the location, and a video that the network camera is capturing. This is a screen that displays a video display area 303 that is an area to be displayed, and an error list display area 304 that displays the date and time registered in the camera table 902 and the camera ID.

ビューワー画面301の表示の遷移は、クライアント端末104のプログラムで行うこともできるが、本実施形態では、管理サーバ103のプログラムが行い、クライアント端末104のディスプレイ(表示装置)に表示させるものとして説明する。   Although the transition of the display of the viewer screen 301 can be performed by the program of the client terminal 104, in the present embodiment, the program of the management server 103 is described and displayed on the display (display device) of the client terminal 104. .

マップ表示領域302には、エラー一覧表示領域304に表示されているネットワークカメラの場所(カメラ場所)、あるいは、当該ネットワークカメラが撮影しているエラー等のイベントを検知した場所(エラー場所)を示す地図を表示している。305は、その場所を示しているオブジェクト(アイコン)である。この305は、ネットワークカメラが設置された位置に当該ネットワークカメラを示すオブジェクトである。   The map display area 302 indicates the location of the network camera (camera location) displayed in the error list display area 304 or the location (error location) where an event such as an error being photographed by the network camera is detected. A map is displayed. Reference numeral 305 denotes an object (icon) indicating the location. This 305 is an object indicating the network camera at the position where the network camera is installed.

また、映像表示領域303は、当該ネットワークカメラが撮影している映像(動画)を表示する領域である。
図3(A)の画面の302には、広域の上位地図(日本地図)が表示されている。
The video display area 303 is an area for displaying a video (moving image) taken by the network camera.
In the screen 302 of FIG. 3A, a wide area upper map (Japan map) is displayed.

図3(A)の画面で、ユーザは、305のオブジェクト、又は、エラー一覧表示領域304に表示されているカメラID、又は日時を選択すると、次に、詳細の地図を、図3(B)の302のように表示する。図3(B)の302には、図3(A)の画面の302よりも詳細の地図が表示されている。図3(B)の302では、より詳細な地図が表示されており、A工場、B工場、C工場、D工場が表示されている。そして、図3(B)の302内の305は、A工場でイベントが発生していることを示している。そして、その所定時間後に、図4(C)の302のように、より詳細の地図(A工場内の地図)を表示する。ここでは、A工場内に、A製品生産エリアと、B製品生産エリアとがあり、図4(C)の302内の305は、A製品生産エリアでイベントが発生していることを示している。そして、更に、その所定時間後に、図4(D)の302のように、より詳細の地図(A製品生産エリア内の地図)を表示する。ここでは、A製品生産エリア内に、生産ラインAと、生産ラインBとがあり、生産ラインA上の装置Aを撮影するネットワークカメラ(カメラIDが1のカメラ)と、生産ラインB上の装置Bを撮影するネットワークカメラ(カメラIDが2のカメラ)とが表示されている。そして、図4(D)の302内の305は、カメラIDが1のカメラで撮影している装置Aにエラー等のイベントが発生したこと、あるいは、その装置Aの場所を撮影している当該カメラの映像を、映像表示領域303に表示することを示している。図4(D)の303には、カメラIDが1のネットワークカメラで撮影されている装置Aの映像が表示されている。   When the user selects the object 305 or the camera ID or date / time displayed in the error list display area 304 on the screen shown in FIG. 3A, a detailed map is displayed next, as shown in FIG. 302 is displayed. In FIG. 3B 302, a more detailed map than the screen 302 of FIG. 3A is displayed. In 302 of FIG. 3B, a more detailed map is displayed, and A factory, B factory, C factory, and D factory are displayed. And 305 in 302 of FIG. 3 (B) has shown that the event has generate | occur | produced in A factory. Then, after the predetermined time, a more detailed map (map in the factory A) is displayed as indicated by 302 in FIG. Here, the A factory has an A product production area and a B product production area, and 305 in 302 of FIG. 4C indicates that an event has occurred in the A product production area. . Further, after a predetermined time, a more detailed map (map in the A product production area) is displayed as indicated by 302 in FIG. Here, there are a production line A and a production line B in the A product production area, a network camera (camera with a camera ID of 1) for photographing the device A on the production line A, and a device on the production line B. A network camera (camera with a camera ID of 2) for photographing B is displayed. In FIG. 4D, reference numeral 305 in 302 indicates that an event such as an error has occurred in the device A capturing with the camera having the camera ID 1, or the location of the device A is captured. It shows that the video of the camera is displayed in the video display area 303. In FIG. 4D, an image of the device A captured by the network camera having the camera ID 1 is displayed at 303.

このように、ユーザが、図3(A)の画面で、305のオブジェクト、又は、エラー一覧表示領域304に表示されているカメラID、又は日時を選択すると、広域の地図から、段階的に、詳細の地図を自動的に表示するため、ユーザは、どこの工場のどこの生産エリアのどこの生産ラインでエラー等のイベントが発生しているのかを確認することが出来ると共に、そのイベントが発生している場所の映像を303に表示するため、実際の映像を確認して、どのようなイベントが発生しているのかを確認し易くなる。このように、広域の地図から、段階的に、詳細の地図を自動的に表示することを、自動で、ドリルダウンで詳細地図を表示するという。
<図5、6説明>
As described above, when the user selects the object ID 305 or the camera ID or date / time displayed in the error list display area 304 on the screen of FIG. Since a detailed map is automatically displayed, the user can confirm which event such as an error has occurred in which production line in which production area in which factory, and that event has occurred. Since the video of the place where it is displayed is displayed on 303, it is easy to check what kind of event is occurring by checking the actual video. Thus, displaying a detailed map automatically from a wide-area map in stages is called displaying a detailed map by drill-down automatically.
<Description of FIGS. 5 and 6>

図3、4の例では、1つのイベントが1つの場所で発生し、広域の地図から、段階的に、詳細の地図を自動的に表示することを説明したが、次に、図5、図6を用いて、同時刻(同時間帯)に、複数のイベントが異なる場所で発生し、広域地図から段階的に詳細地図を表示する途中で、その複数のイベントが、複数の詳細地図に分かれる場合には、ユーザに、どの場所の映像を確認したいかを選択させて、表示する詳細地図を決める例について説明する。   In the example of FIGS. 3 and 4, it has been explained that one event occurs in one place and a detailed map is automatically displayed step by step from a wide area map. Next, FIG. 6, multiple events occur at different locations at the same time (same time zone), and the multiple events are divided into multiple detailed maps while displaying the detailed map step by step from the wide area map. In this case, an example will be described in which the user selects which place he / she wants to check and decides a detailed map to be displayed.

図5、図6は、クライアント端末104の表示部に表示される、ネットワークカメラで撮影された映像を表示するビューワーの表示の遷移の一例を示す図である。   FIG. 5 and FIG. 6 are diagrams illustrating an example of display transition of the viewer that displays the video captured by the network camera displayed on the display unit of the client terminal 104.

図9のカメラテーブル902に示すように、2箇所の場所で、同時刻(同時間帯)に、イベントが発生した状態での、詳細地図のドリルダウン表示について、説明する。   As shown in the camera table 902 of FIG. 9, a detailed map drill-down display in a state where an event has occurred at two locations at the same time (same time zone) will be described.

図9のカメラテーブル902に示すように、2箇所の場所で、同時刻(同時間帯)に、イベントが発生しているため、図5(A)の304には、2つのカメラID、日時が表示されている。
図5(A)の画面の302には、広域の上位地図(日本地図)が表示されている。
As shown in the camera table 902 in FIG. 9, since an event has occurred at two locations at the same time (same time zone), two camera IDs, date and time are shown in 304 of FIG. Is displayed.
In the screen 302 of FIG. 5A, a wide area upper map (Japan map) is displayed.

図5(A)の画面で、ユーザは、305のオブジェクト、又は、エラー一覧表示領域304に表示されている2つカメラID、又は日時のうちいずれか1つを選択すると、次に、詳細の地図を、図5(B)の302のように表示する。図5(B)の302には、図5(A)の画面の302よりも詳細の地図が表示されている。   In the screen of FIG. 5A, when the user selects any one of the object 305, the two camera IDs displayed in the error list display area 304, or the date and time, The map is displayed as 302 in FIG. In FIG. 5B 302, a more detailed map than the screen 302 in FIG. 5A is displayed.

図5(B)の302では、より詳細な地図が表示されており、A工場、B工場、C工場、D工場が表示されている。そして、図5(B)の302内の305は、A工場でイベントが発生していることを示している。そして、その所定時間後に、図6(C)の302のように、より詳細の地図(A工場内の地図)を表示する。ここでは、A工場内に、A製品生産エリアと、B製品生産エリアとがあり、図6(C)の302内の2つ305は、A製品生産エリア、及びB製品生産エリアでイベントが発生していることを示している。また、図6(C)の画面では、メッセージ601の欄に、「A製品生産エリアとB製品生産エリアは異なるCADデータのマップであるため、どちらの映像を表示するかを選択してください。」とのメッセージを表示している。これにより、ユーザは、どちらかの場所を選択しなければならないことが分かる。   In 302 of FIG. 5B, a more detailed map is displayed, and A factory, B factory, C factory, and D factory are displayed. And 305 in 302 of FIG. 5 (B) has shown that the event has generate | occur | produced in A factory. Then, after the predetermined time, a more detailed map (map in the factory A) is displayed as indicated by 302 in FIG. Here, there are an A product production area and a B product production area in the A factory, and events occur in the A product production area and the B product production area in two 305 in 302 of FIG. 6C. It shows that you are doing. In the screen of FIG. 6 (C), in the column of the message 601, “A product production area and B product production area are different CAD data maps, so select which video to display. Is displayed. As a result, it is understood that the user must select one of the locations.

そして、ユーザにより、B製品生産エリアの305のオブジェクトを選択すると、図6(D)の302のように、より詳細の地図(B製品生産エリア内の地図)を表示する。   When the user selects an object 305 in the B product production area, a more detailed map (map in the B product production area) is displayed as 302 in FIG. 6D.

ここでは、B製品生産エリア内に、生産ラインCと、生産ラインDとがあり、生産ラインC上の装置Cを撮影するネットワークカメラ(カメラIDが3のカメラ)と、生産ラインD上の装置Dを撮影するネットワークカメラ(カメラIDが4のカメラ)とが表示されている。そして、図6(D)の302内の305は、カメラIDが4のカメラで撮影している装置Dにエラー等のイベントが発生したこと、あるいは、その装置Dの場所を撮影している当該カメラの映像を、映像表示領域303に表示することを示している。図6(D)の303には、カメラIDが4のネットワークカメラで撮影されている装置Dの映像が表示されている。   Here, there are a production line C and a production line D in the B product production area, a network camera (camera with a camera ID of 3) for photographing the device C on the production line C, and a device on the production line D. A network camera (camera with a camera ID of 4) that shoots D is displayed. In FIG. 6D, reference numeral 305 in 302 indicates that an event such as an error has occurred in the device D that is shooting with the camera whose camera ID is 4, or that the location of the device D is being shot. It shows that the video of the camera is displayed in the video display area 303. In FIG. 6D, an image of the device D captured by a network camera with a camera ID of 4 is displayed.

このように、ユーザが、図5(A)の画面で、305のオブジェクト、又は、エラー一覧表示領域304に表示されているカメラID、又は日時を選択すると、広域の地図から、段階的に、詳細の地図を自動的に表示するが、同時刻(同時間帯)に、複数のイベントが異なる場所で発生し、広域地図から段階的に詳細地図を表示する途中で、その複数のイベントが、複数の詳細地図に分かれる場合には、ユーザに、どの場所の映像を確認したいかを選択させて、表示する詳細地図を決めるため、ユーザは、どこの工場のどこの生産エリアのどこの生産ラインでエラー等のイベントが発生しているのかを確認することが出来ると共に、簡易な操作で、ユーザが確認したい場所の映像を確認し易くなる。   As described above, when the user selects the object ID 305 or the camera ID or date / time displayed in the error list display area 304 on the screen of FIG. A detailed map is automatically displayed, but at the same time (same time zone), multiple events occur in different places, and while displaying the detailed map step by step from a wide area map, the multiple events In the case of dividing into multiple detailed maps, the user selects which location the user wants to check and decides which detailed map to display, so the user can select which production line in which production area in which factory. Thus, it is possible to confirm whether an event such as an error has occurred or not, and it is easy to confirm a video of a place that the user wants to confirm with a simple operation.

図5、6の例では、同時刻(同時間帯)に、複数のイベントが異なる場所で発生し、広域地図から段階的に詳細地図を表示する途中で、その複数のイベントが、複数の詳細地図に分かれる場合には、ユーザに、どの場所の映像を確認したいかを選択させて、表示する詳細地図を決める例について説明した。より具体的には、段階的に詳細地図を表示する途中の同一の地図上に、複数のイベントのオブジェクト305が表示される場合について説明した。
<図7、8説明>
In the example of FIGS. 5 and 6, a plurality of events occur at different locations at the same time (same time period), and the plurality of events are displayed in detail while the detailed map is displayed step by step from the wide area map. In the case of dividing into maps, an example has been described in which the user selects which place he / she wants to check and decides a detailed map to be displayed. More specifically, the case where a plurality of event objects 305 are displayed on the same map in the middle of displaying the detailed map in stages has been described.
<Description of FIGS. 7 and 8>

次に、図7、図8を用いて、同時刻(同時間帯)に、複数のイベントが異なる場所で発生し、広域地図から段階的に詳細地図を表示する途中で、その複数のイベントが、複数の詳細地図に分かれる場合には、ユーザに、どの場所の映像を確認したいかを選択させて、表示する詳細地図を決める例について説明する。具体的には、段階的に詳細地図を表示する途中の同一の地図上に、複数のイベントのオブジェクト305が表示されない例(すなわち、複数のイベントが、複数の詳細地図に分かれ、同一地図上で選択できない場合の例)について説明する。   Next, using FIG. 7 and FIG. 8, a plurality of events occur at different locations at the same time (same time period), and the plurality of events are displayed while displaying a detailed map step by step from a wide area map. In the case where the map is divided into a plurality of detailed maps, an example will be described in which the user selects which place the user wants to check and determines the detailed map to be displayed. Specifically, an example in which objects 305 of a plurality of events are not displayed on the same map in the middle of displaying a detailed map step by step (that is, a plurality of events are divided into a plurality of detailed maps, An example in the case where selection is not possible will be described.

図7、図8は、クライアント端末104の表示部に表示される、ネットワークカメラで撮影された映像を表示するビューワーの表示の遷移の一例を示す図である。   7 and 8 are diagrams illustrating an example of display transition of the viewer that displays the video captured by the network camera displayed on the display unit of the client terminal 104.

図7(A)の304に示すように、カメラIDが1のカメラ、カメラIDが5のカメラの2箇所の場所で、同時刻(同時間帯)に、イベントが発生した状態での、詳細地図のドリルダウン表示について、説明する。   As shown at 304 in FIG. 7A, details are shown in a state where an event has occurred at two locations of the camera with the camera ID 1 and the camera ID 5 at the same time (same time zone). The map drill-down display will be described.

カメラIDが1のカメラは、上述の通り、A工場内のA製品生産エリアの生産ラインA上の装置Aを撮影しているカメラである。また、カメラIDが5のカメラは、A工場内のC製品生産エリアの生産ラインE上の装置Eを撮影しているカメラである。   As described above, the camera with the camera ID 1 is a camera that photographs the device A on the production line A in the A product production area in the A factory. A camera with a camera ID of 5 is a camera that photographs the device E on the production line E in the C product production area in the A factory.

カメラIDが1のカメラ、カメラIDが5のカメラの2箇所の場所で、同時刻(同時間帯)に、イベントが発生しているため、図6(C)の302に表示されたA製品生産エリアの地図と、図8(C)の302に表示されたC製品生産エリアの地図の2つの地図に別れてしまい、同一の地図上でオブジェクト305を選択することができない。   Product A displayed at 302 in FIG. 6C because an event has occurred at the same time (same time zone) at two locations of the camera with camera ID 1 and camera ID 5. It is divided into two maps, a production area map and a C product production area map displayed in 302 of FIG. 8C, and the object 305 cannot be selected on the same map.

そこで、図7、図8の例では、図7(B)の画面で、エラー一覧表示領域304に表示されている2つカメラID、又は日時のうちいずれか1つを選択させて、表示する詳細地図を決める。
図7(A)の画面の302には、広域の上位地図(日本地図)が表示されている。
Therefore, in the example of FIGS. 7 and 8, one of the two camera IDs or date / time displayed in the error list display area 304 is selected and displayed on the screen of FIG. 7B. Decide on a detailed map.
In the screen 302 of FIG. 7A, a wide area upper map (Japan map) is displayed.

図7(A)の画面で、ユーザは、305のオブジェクト、又は、エラー一覧表示領域304に表示されている2つカメラID、又は日時のうちいずれか1つを選択すると、次に、詳細の地図を、図7(B)の302のように表示する。図7(B)の302には、図7(A)の画面の302よりも詳細の地図が表示されている。   In the screen of FIG. 7A, when the user selects any one of the object 305, the two camera IDs displayed in the error list display area 304, or the date and time, The map is displayed as 302 in FIG. A map in more detail than 302 in the screen in FIG. 7A is displayed in 302 in FIG. 7B.

図7(B)の302では、より詳細な地図が表示されており、A工場、B工場、C工場、D工場が表示されている。そして、図7(B)の302内の305は、A工場でイベントが発生していることを示している。   In 302 of FIG. 7B, a more detailed map is displayed, and A factory, B factory, C factory, and D factory are displayed. And 305 in 302 of FIG. 7 (B) has shown that the event has generate | occur | produced in A factory.

ここで、カメラIDが1のカメラ、カメラIDが5のカメラの2箇所の場所で、同時刻(同時間帯)に、イベントが発生しているため、次の詳細画面では、図6(C)の302に表示されたA製品生産エリアの地図と、図8(C)の302に表示されたC製品生産エリアの地図の2つの地図に別れてしまい、同一の地図上でオブジェクト305を選択することができない。そのため、図7(B)の画面に、メッセージ701の欄に、「・エラーコード1のエラーをA工場内のA製品生産エリアのカメラID:1のカメラで撮影しています。・また、エラーコード5のエラーをA工場内のC製品生産エリアのカメラID:5のカメラで撮影しています。・A製品生産エリアとC製品生産エリアは異なるCADデータのマップであるため、どちらの映像を表示するかを1つのマップ上で選択できません。そのため、どちらの映像を表示するかを、エラー一覧表示領域304から選択してください。」とのメッセージを表示する。   Here, since an event has occurred at the same time (same time zone) at two locations of the camera with the camera ID 1 and the camera with the camera ID 5, the next detailed screen shows FIG. ) Of the product A production area displayed in 302 and the map of the product C production area displayed in 302 of FIG. 8C, and the object 305 is selected on the same map. Can not do it. Therefore, on the screen of FIG. 7B, in the message 701 column, “・ Error code 1 is being shot with the camera of camera ID: 1 in the A product production area in the A factory. The error of code 5 is taken with the camera of camera ID: 5 in the C product production area in the A factory.- Since the A product production area and the C product production area are different CAD data maps, which of the images is “You cannot select the image to be displayed on one map, so select which image to display from the error list display area 304.” is displayed.

これにより、ユーザは、図7(B)のエラー一覧表示領域304から、これにより、ユーザは、どちらかの場所を選択しなければならないことが分かる。   Thereby, it can be understood from the error list display area 304 in FIG. 7B that the user must select one of the locations.

そして、ユーザは、図7(B)のエラー一覧表示領域304に表示されている2つカメラID、又は日時のうちいずれか1つを選択すると、当該選択されたカメラIDを含む詳細地図を表示する。例えば、図7(B)のエラー一覧表示領域304の中のカメラID:5がユーザにより選択されると、カメラID:5のカメラを示す場所を含む、図8(C)の302のようなより詳細の地図を、表示する。そして、その所定時間後に、図8(D)の302のように、より詳細の地図(C製品生産エリアの地図)を表示する。ここでは、C製品生産エリア内に、生産ラインEがあり、生産ラインE上の装置Eを撮影するネットワークカメラ(カメラIDが5のカメラ)と、生産ラインE上の装置Eを撮影するネットワークカメラ(カメラIDが5のカメラ)とが表示されている。   When the user selects either one of the two camera IDs displayed in the error list display area 304 in FIG. 7B or the date and time, a detailed map including the selected camera ID is displayed. To do. For example, when the camera ID: 5 in the error list display area 304 in FIG. 7B is selected by the user, the location indicating the camera with the camera ID: 5 is included as indicated by 302 in FIG. A more detailed map is displayed. Then, after a predetermined time, a more detailed map (C product production area map) is displayed as 302 in FIG. 8D. Here, there is a production line E in the C product production area, a network camera (camera with a camera ID of 5) for photographing the device E on the production line E, and a network camera for photographing the device E on the production line E. (Camera with camera ID 5) is displayed.

そして、図8(D)の302内の305は、カメラIDが5のカメラで撮影している装置Dにエラー等のイベントが発生したこと、あるいは、その装置Dの場所を撮影している当該カメラの映像を、映像表示領域303に表示することを示している。図8(D)の303には、カメラIDが5のネットワークカメラで撮影されている装置Eの映像が表示されている。   In FIG. 8D, reference numeral 305 in 302 indicates that an event such as an error has occurred in the device D that is shooting with the camera whose camera ID is 5, or that the location of the device D is being shot. It shows that the video of the camera is displayed in the video display area 303. In FIG. 8D 303, an image of the device E taken by the network camera with the camera ID 5 is displayed.

このように、ユーザが、図7(A)の画面で、305のオブジェクト、又は、エラー一覧表示領域304に表示されているカメラID、又は日時を選択すると、広域の地図から、段階的に、詳細の地図を自動的に表示するが、同時刻(同時間帯)に、複数のイベントが異なる場所で発生し、広域地図から段階的に詳細地図を表示する途中の同一の地図上に、複数のイベントのオブジェクト305が表示されない場合(すなわち、複数のイベントが、複数の詳細地図に分かれ、同一地図上で選択できない場合)でも、ユーザに、どの場所の映像を確認したいかを選択させて、表示する詳細地図を決めることができる。   As described above, when the user selects the object 305 or the camera ID or date / time displayed in the error list display area 304 on the screen of FIG. A detailed map is automatically displayed, but multiple events occur at different locations at the same time (same time zone), and multiple maps are displayed on the same map in the middle of displaying the detailed map step by step from the wide area map. Even if the event object 305 is not displayed (that is, when a plurality of events are divided into a plurality of detailed maps and cannot be selected on the same map), the user is allowed to select which location the user wants to check, A detailed map to be displayed can be determined.

その結果、ユーザは、どこの工場のどこの生産エリアのどこの生産ラインでエラー等のイベントが発生しているのかを確認することが出来ると共に、簡易な操作で、ユーザが確認したい場所の映像を確認し易くなる。
<図9の説明>
図9は、管理サーバ103の記憶手段に記憶された各種テーブルの一例を示す図である。
As a result, the user can confirm which event such as an error has occurred in which production line in which production area in which factory, and a video of the location that the user wants to check with a simple operation. It becomes easy to confirm.
<Description of FIG. 9>
FIG. 9 is a diagram illustrating an example of various tables stored in the storage unit of the management server 103.

図9に示す地図テーブル901は、「地図ID」、「地図ファイル」、「カメラID」、「表示座標」、
「上位地図ID」の項目から構成されている。
「地図ID」は、302に表示する地図を識別するための識別情報である。
The map table 901 shown in FIG. 9 includes “map ID”, “map file”, “camera ID”, “display coordinates”,
It consists of the item “upper map ID”.
“Map ID” is identification information for identifying the map displayed on 302.

「地図ファイル」は、当該地図IDにより識別される地図のデータ(地図ファイル)である。この地図ファイルは、例えば、CADデータとして生成されている。この地図は、オブジェクト305を配置した地図である。地図テーブル901に示す各地図ファイルには、複数の異なる縮尺の地図である。   The “map file” is map data (map file) identified by the map ID. This map file is generated as CAD data, for example. This map is a map in which objects 305 are arranged. Each map file shown in the map table 901 has a plurality of different scale maps.

「カメラID」は、ネットワークカメラ(本実施形態では、単にカメラとも言う)を識別するための識別情報であり、当該地図ファイルに含まれるカメラのカメラIDが格納されている。   “Camera ID” is identification information for identifying a network camera (also simply referred to as a camera in this embodiment), and stores the camera ID of the camera included in the map file.

「表示座標」は、当該地図ファイルの地図上に表示されるオブジェクト305の座標(カメラの座標(当該地図上の座標))である。   “Display coordinates” are the coordinates (camera coordinates (coordinates on the map)) of the object 305 displayed on the map of the map file.

「上位地図ID」は、上位地図IDの1段階だけより広域の地図を識別する地図IDが記憶されている。   The “upper map ID” stores a map ID for identifying a map of a wider area than only one level of the upper map ID.

例えば、地図IDが1のレコードの地図ファイルは、「上位地図」というファイル名であり、当該上位地図上に、305のオブジェクトが(100、200)の位置に配置され表示されることを示している。また、このレコードの上位地図IDは、「‐」であるため、地図IDが1の地図ファイルの地図よりも、より広域の地図(上位地図)が無いことを示している。また、地図IDが1のレコードの地図ファイルには、カメラIDが1〜5のカメラが含まれていることを示している。すなわち、カメラIDが1〜5のカメラを1つのオブジェクト305でまとめ表示することを示している。   For example, a map file with a map ID of 1 has a file name “higher map”, and indicates that 305 objects are arranged and displayed at the position (100, 200) on the higher map. Yes. Further, since the upper map ID of this record is “−”, it indicates that there is no map of a wider area (upper map) than the map of the map file having the map ID of 1. Further, it is indicated that the map file of the record having the map ID 1 includes the cameras having the camera IDs 1 to 5. That is, the camera IDs 1 to 5 are collectively displayed as one object 305.

また、地図IDが2のレコードの地図ファイルは、「第1中位地図」というファイル名であり、当該第1中位地図上に、305のオブジェクトが(90、200)の位置に配置され表示されることを示している。また、このレコードの上位地図IDは、「1」であるため、地図IDが2の地図ファイルの地図よりも、より広域の地図は、「上位地図」であることを示している。また、地図IDが2のレコードの地図ファイルには、カメラIDが1〜5のカメラが含まれていることを示している。すなわち、カメラIDが1〜5のカメラを1つのオブジェクト305でまとめ表示することを示している。   The map file of the record with the map ID 2 has a file name “first intermediate map”, and 305 objects are arranged and displayed at the positions (90, 200) on the first intermediate map. It is shown that. Further, since the higher-level map ID of this record is “1”, the map of a wider area than the map of the map file with the map ID of 2 indicates that it is “higher-level map”. Further, it is indicated that the map file of the record with the map ID 2 includes the cameras with the camera IDs 1 to 5. That is, the camera IDs 1 to 5 are collectively displayed as one object 305.

また、カメラテーブル902は、「カメラID」、「日時(エラー日時)」の項目から構成されている。   The camera table 902 includes items of “camera ID” and “date and time (error date and time)”.

「カメラID」は、エラー等のイベントが発生した場所を撮影しているカメラを識別するための識別情報である。また、「日時(エラー日時)」は、当該イベントが発生した日時を示している。
<図10の説明>
“Camera ID” is identification information for identifying a camera that is shooting a place where an event such as an error has occurred. “Date and time (error date and time)” indicates the date and time when the event occurred.
<Description of FIG. 10>

図10に示す各ステップの処理は、管理サーバ103の外部メモリ211に記録されているプログラムによる制御に従って、管理サーバ103のCPU201が実行する。   The processing of each step shown in FIG. 10 is executed by the CPU 201 of the management server 103 according to control by a program recorded in the external memory 211 of the management server 103.

図10は、管理サーバ103のCPU201が実行する制御処理の一例を示すフローチャートである。   FIG. 10 is a flowchart illustrating an example of control processing executed by the CPU 201 of the management server 103.

まず、管理サーバ103は、カメラテーブル902に記憶されている日時(エラー日時)のカメラIDを取得する。ここでの取得処理は、本発明の取得手段の適用例であり、複数のネットワークカメラでそれぞれ撮影される複数の場所のイベントを取得する。   First, the management server 103 acquires the camera ID of the date and time (error date and time) stored in the camera table 902. The acquisition processing here is an application example of the acquisition means of the present invention, and acquires events at a plurality of places respectively photographed by a plurality of network cameras.

そして、当該取得したカメラIDを含む地図テーブル901の各レコードのうち、最も上位の上位地図ID(上位地図IDが「‐」)のレコードを特定する。当該特定されたレコードの地図IDの地図ファイルを取得して当該地図を表示する(S1001)。本実施例で表示するということは、管理サーバ103が、当該表示のデータをクライアント端末104に送信して、クライアント端末104が当該データを受信して、当該データに従って表示するということである。S1001では、地図IDが1の上位地図を表示する(例えば、図3(A)等)。 Then, among the records of the map table 901 including the acquired camera ID, a record of the uppermost upper map ID (the upper map ID is “−”) is specified. The map file of the map ID of the specified record is acquired and the map is displayed (S1001). Displaying in this embodiment means that the management server 103 transmits the display data to the client terminal 104, and the client terminal 104 receives the data and displays it according to the data. In S1001, a higher-level map with a map ID of 1 is displayed (for example, FIG. 3A).

そして、管理サーバ103は、ユーザによる、当該表示された地図上の305のオブジェクト、又は、エラー一覧表示領域304に表示されているカメラID、又は日時の選択を受け付ける。   Then, the management server 103 accepts selection of a 305 object on the displayed map by the user or a camera ID or date / time displayed in the error list display area 304.

管理サーバ103は、ユーザによる、当該表示された地図上の305のオブジェクト、又は、エラー一覧表示領域304に表示されているカメラID、又は日時の選択を受け付けたと判定された場合には(S1002:YES)、処理をS1003に移行する。また、S1002で受け付けていないと判定された場合には、処理をS1001に戻す。   If the management server 103 determines that the user has selected the 305 objects on the displayed map or the camera ID or date / time displayed in the error list display area 304 (S1002: YES), the process proceeds to S1003. If it is determined in S1002 that the request has not been received, the process returns to S1001.

管理サーバ103は、S1003において、S1002から処理を移行した場合には、S1001でカメラテーブル902から取得したカメラIDを含む、現在、表示している地図よりも下位の詳細地図があるか否かを判定する。具体的には、S1001でカメラテーブル902から取得したカメラIDを含み、現在表示されている地図の地図IDが上位地図IDである地図テーブル901のレコードがあるか否かを判定する。そして、現在、表示している地図よりも下位の詳細地図があると判定された場合には(YES)、処理をS1004に移行する。一方、現在、表示している地図よりも下位の詳細地図がないと判定された場合には(NO)、処理をS1016に移行して、現在選択中のカメラID(S1001でカメラテーブル902から取得したカメラID)のカメラで撮影された/撮影されている映像(動画)を映像表示領域303に表示する(S1016)。   In S1003, when the processing shifts from S1002, the management server 103 determines whether there is a detailed map lower than the currently displayed map including the camera ID acquired from the camera table 902 in S1001. judge. Specifically, it is determined whether there is a record in the map table 901 that includes the camera ID acquired from the camera table 902 in S1001 and whose map ID of the currently displayed map is a higher-level map ID. If it is determined that there is a detailed map lower than the currently displayed map (YES), the process proceeds to S1004. On the other hand, if it is determined that there is no detailed map lower than the currently displayed map (NO), the process proceeds to S1016 and the currently selected camera ID (obtained from the camera table 902 in S1001). The video (moving image) captured / captured by the camera with the camera ID) is displayed in the video display area 303 (S1016).

また、管理サーバ103は、S1003において、後述するS1009、又はS1004でカメラIDが選択された場合には、当該選択されたカメラIDを含む、現在、表示している地図よりも下位の詳細地図があるか否かを判定する。具体的には、当該選択されたカメラIDを含み、現在表示されている地図の地図IDが上位地図IDである地図テーブル901のレコードがあるか否かを判定する。   In S1003, when a camera ID is selected in S1009 or S1004 described later, the management server 103 displays a detailed map lower than the currently displayed map including the selected camera ID. It is determined whether or not there is. Specifically, it is determined whether or not there is a record in the map table 901 that includes the selected camera ID and whose map ID of the currently displayed map is a higher-level map ID.

管理サーバ103は、現在、処理対象としているカメラIDは1つであるか(エラー場所は1つであるか)否かを判定する(S1004)。現在、処理対象としているカメラIDは1つである(エラー場所は1つである)と判定された場合には(YES)、S1003で特定された、現在、表示している地図よりも下位の詳細地図を表示する(S1015)。   The management server 103 determines whether the number of camera IDs currently targeted for processing is one (there is one error location) (S1004). If it is determined that the number of camera IDs currently being processed is one (there is one error location) (YES), it is lower than the currently displayed map identified in S1003. A detailed map is displayed (S1015).

管理サーバ103は、現在、処理対象としているカメラIDは1つではなく複数である(エラー場所は1つではなく複数である)と判定された場合には(NO)、S1003で特定された、現在、表示している地図よりも下位の詳細地図は、複数のカメラID(複数のエラー箇所)を1箇所に表示する地図であるか、それとも、複数のエラー場所(カメラ場所)を同一地図上に個々に表示する地図であるかを判定する(S1005)。   If the management server 103 determines that the number of camera IDs currently being processed is not one but plural (the number of error locations is not one but plural) (NO), the management server 103 is identified in S1003. The detailed map below the currently displayed map is a map that displays multiple camera IDs (multiple error locations) in one location, or multiple error locations (camera locations) on the same map. It is determined whether the map is displayed individually (S1005).

ここで、複数のカメラID(複数のエラー箇所)を1箇所に表示する地図とは、例えば、図5(B)の305ように、現在処理対象のカメラIDが1、4の2つあるものの、地図上では1箇所しか、オブジェクト305を表示していない地図である。複数のカメラID(複数のエラー箇所)を1箇所に表示する地図であるか否かは、S1003で特定された、現在、表示している地図よりも下位の詳細地図の地図IDの地図テーブル901のレコードのカメラIDに、現在処理対象の複数のカメラIDが登録されているか否かで判定する。   Here, a map that displays a plurality of camera IDs (a plurality of error locations) in one location is, for example, one that has two camera IDs 1 and 4 that are currently processed as shown by 305 in FIG. 5B. The map displays the object 305 at only one place on the map. Whether or not the map displays a plurality of camera IDs (a plurality of error locations) in one location is determined in S1003, and is a map table 901 of a map ID of a detailed map lower than the currently displayed map. This determination is made based on whether or not a plurality of camera IDs to be processed are registered in the camera ID of the record.

また、ここで、個々に表示する地図とは、図6(C)の302の305のように、複数のオブジェクト305が、同一の地図上に、個々に表示される地図である。個々に表示する地図であるか否かの判定は、S1003で特定された、現在、表示している地図よりも下位の詳細地図の地図IDの地図テーブル901の各レコードに、それぞれ、現在処理対象のカメラIDが含まれているか否かで判定する。   Here, the individually displayed map is a map in which a plurality of objects 305 are individually displayed on the same map as indicated by reference numeral 302 in FIG. 6C. The determination as to whether or not the map is to be displayed individually is determined for each record in the map table 901 of the map ID of the detailed map lower than the currently displayed map specified in S1003. Whether or not the camera ID is included is determined.

管理サーバ103は、S1005で、S1003で特定された、現在、表示している地図よりも下位の詳細地図は、複数のカメラID(複数のエラー箇所)を1箇所に表示する地図であると判定された場合には(YES(1箇所))、処理をS1011に移行する。   In S1005, the management server 103 determines that the detailed map lower than the currently displayed map specified in S1003 is a map that displays a plurality of camera IDs (a plurality of error locations) in one location. If yes (YES (one place)), the process proceeds to S1011.

管理サーバ103は、S1011において、S1003で特定された、現在、表示している地図よりも下位の詳細地図よりも1段階下位の詳細地図を特定する。具体的には、S1003で特定された、現在、表示している地図よりも下位の詳細地図の地図IDを上位地図IDとして含み、現在処理対象としているいずれか1つのカメラIDを含む地図テーブル901の全レコードの地図を特定する。そして、当該特定された地図が、複数の地図に分かれているか否かを判定する。具体的には、当該特定された地図(レコード)が、複数あるか否かを判定することで、当該特定された地図が、複数の地図に分かれているか否かを判定する(S1011)。   In S1011, the management server 103 specifies a detailed map that is one level lower than the detailed map that is specified in S1003 and that is lower than the currently displayed map. Specifically, a map table 901 that includes the map ID of the detailed map lower than the currently displayed map identified in S1003 as the upper map ID and includes any one camera ID currently being processed. Identify a map of all records in. Then, it is determined whether or not the specified map is divided into a plurality of maps. Specifically, it is determined whether or not the specified map is divided into a plurality of maps by determining whether or not there are a plurality of the specified maps (records) (S1011).

そして、管理サーバ103は、該特定された地図が、複数の地図に分かれていると判定された場合には(YES)、処理をS1013に移行して、S1003で特定された地図を302に表示する(例えば図7(B)の画面を表示する)。このとき表示される301の画面の701に示すメッセージを表示する。そして、管理サーバ103は、ユーザにより、304に表示されている複数のカメラIDのうち、いずれか1つのカメラIDの選択を受け付ける(S1014)。そして、管理サーバ103は、当該選択されたカメラIDを処理対象にして、処理をS1003に戻す。   If it is determined that the specified map is divided into a plurality of maps (YES), the management server 103 shifts the process to S1013 and displays the map specified in S1003 on 302. (For example, the screen shown in FIG. 7B is displayed). The message shown at 701 on the 301 screen displayed at this time is displayed. Then, the management server 103 accepts selection of any one of the plurality of camera IDs displayed in 304 by the user (S1014). Then, the management server 103 sets the selected camera ID as a processing target, and returns the process to S1003.

また、管理サーバ103は、S1011において、複数の地図に分かれていないと判定された場合には(NO)、処理をS1012に移行して、S1003で特定された地図を302に表示する(例えば図5(B)の画面を表示する)ここで表示される画面には、メッセージ701は表示しない。そして、処理をS1003に戻す。   If it is determined in S1011 that the map is not divided into a plurality of maps (NO), the management server 103 shifts the process to S1012 and displays the map specified in S1003 on 302 (for example, FIG. The message 701 is not displayed on the screen displayed here. Then, the process returns to S1003.

管理サーバ103は、S1005において、S1003で特定された、現在、表示している地図よりも下位の詳細地図は、個々に表示する地図(例えば、図6(C))であると判定された場合には(NO(個々))、当該個々に表示する地図よりも下位の詳細地図が、複数の地図に分かれているか否かを判定する(S1007)。具体的には、当該個々に表示する地図よりも下位の詳細地図の地図IDを上位地図IDとして含み、現在処理対象としているいずれか1つのカメラIDを含む地図テーブル901の全レコードの地図を特定する。そして、当該特定された地図が、複数の地図であるか否かを判定する。当該特定された地図が、複数の地図であるか否かを判定することで、当該個々に表示する地図よりも下位の詳細地図が、複数の地図に分かれているか否かを判定する。   When the management server 103 determines in S1005 that the detailed map lower than the currently displayed map specified in S1003 is an individually displayed map (for example, FIG. 6C). (NO (individual)), it is determined whether or not a detailed map lower than the individually displayed map is divided into a plurality of maps (S1007). Specifically, the map of all records in the map table 901 including the map ID of the detailed map lower than the individually displayed map as the upper map ID and including any one camera ID currently being processed is specified. To do. Then, it is determined whether or not the specified map is a plurality of maps. By determining whether or not the specified map is a plurality of maps, it is determined whether or not a detailed map lower than the individually displayed map is divided into a plurality of maps.

そして、管理サーバ103は、当該個々に表示する地図よりも下位の詳細地図が、複数の地図に分かれていると判定された場合には(S1007:YES)、映像を選択する旨の図6(C)のメッセージ601を表示する共に、S1003で特定された下位の詳細地図(当該個々に表示する地図)を表示する(例えば、図6(C))(S1008)。   Then, when it is determined that the detailed map lower than the individually displayed map is divided into a plurality of maps (S1007: YES), the management server 103 selects a video in FIG. The message 601 of (C) is displayed, and the lower detailed map (the map to be displayed individually) specified in S1003 is displayed (for example, FIG. 6C) (S1008).

そして、管理サーバ103は、ユーザにより、A製品生産エリア、又はB製品生産エリアの305のオブジェクト(エラー場所、カメラ場所(カメラID))の選択を受け付ける(S1009)。そして、S1009で選択されたオブジェクトのカメラIDを処理対象にして、処理をS1003に移行する。   Then, the management server 103 accepts selection of 305 objects (error location, camera location (camera ID)) in the A product production area or the B product production area by the user (S1009). Then, the camera ID of the object selected in S1009 is set as a processing target, and the process proceeds to S1003.

また、管理サーバ103は、当該個々に表示する地図よりも下位の詳細地図が、複数の地図に分かれていないと判定された場合には(S1007:NO)、映像を選択する旨の図6(C)のメッセージ601を含まない、S1003で特定された下位の詳細地図(当該個々に表示する地図)を表示する(例えば、図6(C)のメッセージ601を含まない画面)(S1010)。そして、処理をS1003に移行する。   In addition, when it is determined that the detailed map lower than the individually displayed map is not divided into a plurality of maps (S1007: NO), the management server 103 selects a video in FIG. The lower detailed map specified in S1003 (the map to be displayed individually) that does not include the message 601 in (C) is displayed (for example, a screen that does not include the message 601 in FIG. 6C) (S1010). Then, the process proceeds to S1003.

管理サーバ103は、S1010、S1012、S1015の処理が実行されると、所定時間を経過した後に、処理をS1003に移行する。   When the processes of S1010, S1012, and S1015 are executed, the management server 103 shifts the process to S1003 after a predetermined time has elapsed.

以上の通り、図10に示す処理を実行することで、図3〜図8で説明した、地図の表示の遷移が可能となる。   As described above, by executing the processing shown in FIG. 10, the display of the map described with reference to FIGS. 3 to 8 can be changed.

図10の処理を実行することにより、S1015、S1012、S1010の処理を繰り返し実行することで、取得手段により取得した複数のイベントの場所を撮影する複数のネットワークカメラが設置された位置に、それぞれネットワークカメラを示すオブジェクトが配置された、記憶された広域の地図から、ユーザの操作を受け付けることなく、段階的に詳細の地図を表示する。この処理は、本発明の表示手段の適用例である。   By executing the processing of FIG. 10, by repeatedly executing the processing of S1015, S1012, and S1010, the network is respectively set at a position where a plurality of network cameras that capture the location of the plurality of events acquired by the acquisition unit are installed A detailed map is displayed step by step from a stored wide-area map in which an object indicating a camera is arranged without accepting a user operation. This process is an application example of the display means of the present invention.

また、S1007、S1011は、本発明の判定手段の適用例であり、取得手段により取得した複数のイベントの場所を撮影する複数のネットワークカメラが、互いに異なる詳細地図に配置されているか否かを判定する。   S1007 and S1011 are application examples of the determination unit of the present invention, and it is determined whether or not a plurality of network cameras that photograph the locations of a plurality of events acquired by the acquisition unit are arranged on different detailed maps. To do.

また、S1009、S1014は、本発明の選択受付手段の適用例であり、判定手段により、複数のネットワークカメラが、互いに異なる詳細地図に配置されていると判定された場合には、ユーザの操作により、当該複数のネットワークカメラの中からいずれかの選択を受け付ける。   S1009 and S1014 are application examples of the selection receiving unit of the present invention. When the determination unit determines that a plurality of network cameras are arranged on different detailed maps, the user operation is performed. Then, any one of the plurality of network cameras is accepted.

そして、S1015の表示手段は、選択受付手段により選択を受け付けたネットワークカメラを示すオブジェクトが配置された地図から、段階的に詳細の地図を表示する。   Then, the display unit in S1015 displays a detailed map step by step from the map on which the object indicating the network camera whose selection has been received by the selection receiving unit is arranged.

また、S1015、S1012、S1010の表示手段は、S1007、S1011の判定手段により、複数のネットワークカメラが、互いに異なる詳細地図に配置されていないと判定された場合には、取得手段により取得した複数のイベントの場所を撮影する複数のネットワークカメラが設置された位置に、それぞれネットワークカメラを示すオブジェクトが配置された、記憶手段に記憶された広域の地図から、ユーザの操作を受け付けることなく段階的に詳細の地図を表示する。   In addition, the display unit of S1015, S1012, and S1010 is configured to display a plurality of images acquired by the acquisition unit when the determination unit of S1007 and S1011 determines that the plurality of network cameras are not arranged on different detailed maps. Details from the wide area map stored in the storage means, where objects indicating network cameras are placed at the locations where multiple network cameras that capture the location of the event are installed, in stages without accepting user operations Display a map of.

また、メッセージ601、メッセージ701の表示は、判定手段により、複数のネットワークカメラが、互いに異なる詳細地図に配置されていると判定された場合に、当該複数のネットワークカメラのうちいずれかの選択要求をユーザに通知する通知手段の適用例である。   In addition, the message 601 and the message 701 are displayed when the determination unit determines that a plurality of network cameras are arranged on different detailed maps, and selects one of the plurality of network cameras. It is an application example of the notification means to notify a user.

そのため、ユーザは、どこの工場のどこの生産エリアのどこの生産ラインでエラー等のイベントが発生しているのかを確認することが出来ると共に、そのイベントが発生している場所の映像を303に表示するため、実際の映像を確認して、どのようなイベントが発生しているのかを確認し易くなる。   Therefore, the user can check in which production line of which production area of which factory an event such as an error has occurred, and an image of the location where the event has occurred is displayed in 303. Since it is displayed, it is easy to check what kind of event is occurring by checking the actual video.

また、同時刻(同時間帯)に、複数のイベントが異なる場所で発生し、広域地図から段階的に詳細地図を表示する途中で、その複数のイベントが、複数の詳細地図に分かれる場合には、ユーザに、どの場所の映像を確認したいかを選択させて、表示する詳細地図を決めるため、ユーザは、どこの工場のどこの生産エリアのどこの生産ラインでエラー等のイベントが発生しているのかを確認することが出来ると共に、簡易な操作で、ユーザが確認したい場所の映像を確認し易くなる。   Also, if multiple events occur in different locations at the same time (same time zone), and the multiple events are divided into multiple detailed maps while displaying the detailed map step by step from the wide area map, In order to allow the user to select which location the user wants to check and determine the detailed map to be displayed, the user has an event such as an error in which production line in which production area in which factory. It is easy to confirm the video of the place that the user wants to confirm with a simple operation.

また、同時刻(同時間帯)に、複数のイベントが異なる場所で発生し、広域地図から段階的に詳細地図を表示する途中の同一の地図上に、複数のイベントのオブジェクト305が表示されない場合(すなわち、複数のイベントが、複数の詳細地図に分かれ、同一地図上で選択できない場合)でも、ユーザに、どの場所の映像を確認したいかを選択させて、表示する詳細地図を決めることができる。   Also, when multiple events occur at different locations at the same time (same time zone), and multiple event objects 305 are not displayed on the same map in the middle of displaying a detailed map from a wide area map step by step (In other words, even when multiple events are divided into multiple detailed maps and cannot be selected on the same map), the user can select which location the user wants to check and decide which detailed map to display. .

以上、本発明によれば、簡易な操作で、イベントが発生している場所の確認容易性を向上させると共に、ユーザが確認したい場所の映像を確認し易くすることが出来る。   As described above, according to the present invention, it is possible to improve the ease of confirming a place where an event has occurred with a simple operation, and to make it easy to confirm a video of a place that the user wants to confirm.

また、本発明の目的は、前述した実施形態の機能を実現するソフトウェアのプログラムコードを記録した記憶媒体を、システム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU)が記憶媒体に格納されたプログラムコードを読み出し実行することによっても、達成されることは言うまでもない。   Another object of the present invention is to supply a storage medium storing software program codes for realizing the functions of the above-described embodiments to a system or apparatus, and the computer (or CPU or MPU) of the system or apparatus stores the storage medium. Needless to say, this can also be achieved by reading and executing the program code stored in.

この場合、記憶媒体から読み出されたプログラムコード自体が前述した実施形態の機能を実現することになり、プログラムコード自体及びそのプログラムコードを記憶した記憶媒体は本発明を構成することになる。   In this case, the program code itself read from the storage medium realizes the functions of the above-described embodiments, and the program code itself and the storage medium storing the program code constitute the present invention.

プログラムコードを供給するための記憶媒体としては、例えば、フレキシブルディスク、ハードディスク、光ディスク、光磁気ディスク、CD−ROM、CD−R、磁気テープ、不揮発性のカード、ROM等を用いることができる。   As a storage medium for supplying the program code, for example, a flexible disk, a hard disk, an optical disk, a magneto-optical disk, a CD-ROM, a CD-R, a magnetic tape, a nonvolatile card, a ROM, or the like can be used.

また、コンピュータが読み出したプログラムコードを実行することにより、前述した実施形態の機能が実現されるだけでなく、そのプログラムコードの指示に基づき、コンピュータ上で稼動しているOS(基本システム或いはオペレーティングシステム)などが実際の処理の一部又は全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。このプログラムコードを読み出し実行可能な情報処理装置(コンピュータ)が前述した実施形態の機能を実現する。   Further, by executing the program code read by the computer, not only the functions of the above-described embodiments are realized, but also an OS (basic system or operating system) running on the computer based on the instruction of the program code. Needless to say, a case where the function of the above-described embodiment is realized by performing part or all of the actual processing and the processing is included. An information processing apparatus (computer) that can read and execute the program code realizes the functions of the above-described embodiments.

さらに、記憶媒体から読み出されたプログラムコードが、コンピュータに挿入された機能拡張ボードやコンピュータに接続された機能拡張ユニットに備わるメモリに書込まれた後、そのプログラムコードの指示に基づき、その機能拡張ボードや機能拡張ユニットに備わるCPU等が実際の処理の一部又は全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。   Further, after the program code read from the storage medium is written in a memory provided in a function expansion board inserted into the computer or a function expansion unit connected to the computer, the function is determined based on the instruction of the program code. It goes without saying that the CPU or the like provided in the expansion board or function expansion unit performs part or all of the actual processing and the functions of the above-described embodiments are realized by the processing.

101 ネットワークカメラ
102 ネットワークカメラ
103 管理サーバ
104 クライアント端末
105 ネットワーク


101 Network Camera 102 Network Camera 103 Management Server 104 Client Terminal 105 Network


Claims (5)

ネットワークカメラが設置された位置に前記ネットワークカメラを示すオブジェクトを配置した地図と、前記ネットワークカメラにより撮影された映像とを表示装置に表示させる情報処理装置であって、
複数の異なる縮尺の地図を記憶する記憶手段と、
複数のネットワークカメラでそれぞれ撮影される複数の場所のイベントを取得する取得手段と、
前記取得手段により取得した複数のイベントの場所を撮影する複数のネットワークカメラが設置された位置に、それぞれネットワークカメラを示すオブジェクトが配置された、前記記憶手段に記憶された広域の地図から、ユーザの操作を受け付けることなく段階的に詳細の地図を表示する表示手段と、
前記取得手段により取得した複数のイベントの場所を撮影する複数のネットワークカメラが、互いに異なる詳細地図に配置されているか否かを判定する判定手段と、
前記判定手段により、複数のネットワークカメラが、互いに異なる詳細地図に配置されていると判定された場合には、ユーザの操作により、当該複数のネットワークカメラの中からいずれかの選択を受け付ける選択受付手段と、
を備え、
前記表示手段は、前記選択受付手段により選択を受け付けたネットワークカメラを示すオブジェクトが配置された地図から、段階的に詳細の地図を表示することを特徴とする情報処理装置。
An information processing apparatus for displaying on a display device a map in which an object indicating the network camera is arranged at a position where the network camera is installed, and a video photographed by the network camera,
Storage means for storing a plurality of different scale maps;
An acquisition means for acquiring events at a plurality of locations each shot by a plurality of network cameras;
From a wide-area map stored in the storage unit, an object indicating a network camera is arranged at a position where a plurality of network cameras that capture the locations of a plurality of events acquired by the acquisition unit are installed. A display means for displaying a detailed map step by step without accepting an operation;
A determination unit that determines whether or not a plurality of network cameras that photograph locations of a plurality of events acquired by the acquisition unit are arranged on different detailed maps;
When the determination unit determines that the plurality of network cameras are arranged on different detailed maps, a selection receiving unit that receives a selection from the plurality of network cameras by a user operation When,
With
The information processing apparatus according to claim 1, wherein the display unit displays a detailed map step by step from a map on which an object indicating a network camera that has received selection by the selection receiving unit is arranged.
前記表示手段は、前記判定手段により、複数のネットワークカメラが、互いに異なる詳細地図に配置されていないと判定された場合には、前記取得手段により取得した複数のイベントの場所を撮影する複数のネットワークカメラが設置された位置に、それぞれネットワークカメラを示すオブジェクトが配置された、前記記憶手段に記憶された広域の地図から、ユーザの操作を受け付けることなく段階的に詳細の地図を表示することを特徴とする請求項1に記載の情報処理装置。   When the determination unit determines that the plurality of network cameras are not arranged on different detailed maps, the display unit is configured to capture a plurality of networks that capture the locations of the plurality of events acquired by the acquisition unit. A detailed map is displayed step by step without accepting a user operation from a wide-area map stored in the storage means in which an object indicating a network camera is arranged at each position where the camera is installed. The information processing apparatus according to claim 1. 前記判定手段により、複数のネットワークカメラが、互いに異なる詳細地図に配置されていると判定された場合に、当該複数のネットワークカメラのうちいずれかの選択要求をユーザに通知する通知手段を更に備えること特徴とする請求項1又は2に記載の情報処理装置。   When the determination unit determines that the plurality of network cameras are arranged on different detailed maps, the notification unit further includes a notification unit that notifies the user of a selection request for one of the plurality of network cameras. The information processing apparatus according to claim 1, wherein the information processing apparatus is characterized. ネットワークカメラが設置された位置に前記ネットワークカメラを示すオブジェクトを配置した地図と、前記ネットワークカメラにより撮影された映像とを表示装置に表示させる機能と、複数の異なる縮尺の地図を記憶する記憶手段を備えた情報処理装置における制御方法であって、
取得手段が、複数のネットワークカメラでそれぞれ撮影される複数の場所のイベントを取得する取得工程と、
表示手段が、前記取得工程により取得した複数のイベントの場所を撮影する複数のネットワークカメラが設置された位置に、それぞれネットワークカメラを示すオブジェクトが配置された、前記記憶手段に記憶された広域の地図から、ユーザの操作を受け付けることなく段階的に詳細の地図を表示する表示工程と、
判定手段が、前記取得工程により取得した複数のイベントの場所を撮影する複数のネットワークカメラが、互いに異なる詳細地図に配置されているか否かを判定する判定工程と、
選択受付手段が、前記判定工程により、複数のネットワークカメラが、互いに異なる詳細地図に配置されていると判定された場合には、ユーザの操作により、当該複数のネットワークカメラの中からいずれかの選択を受け付ける選択受付工程と、
を備え、
前記表示工程は、前記選択受付工程により選択を受け付けたネットワークカメラを示すオブジェクトが配置された地図から、段階的に詳細の地図を表示することを特徴とする制御方法。
A function for causing a display device to display a map in which an object indicating the network camera is arranged at a position where the network camera is installed, and a video image taken by the network camera, and a storage means for storing a plurality of different scale maps A control method in the information processing apparatus provided,
An acquisition step of acquiring an event of a plurality of places each captured by a plurality of network cameras;
A wide-area map stored in the storage unit, in which objects indicating network cameras are respectively arranged at positions where a plurality of network cameras that photograph the locations of a plurality of events acquired by the acquisition unit are displayed. From the display process of displaying a detailed map step by step without accepting the user's operation,
A determination step of determining whether or not a plurality of network cameras that photograph the locations of a plurality of events acquired by the acquisition step are arranged on different detailed maps;
When it is determined by the determination step that the plurality of network cameras are arranged on different detailed maps, the selection receiving unit selects any one of the plurality of network cameras by a user operation. A selection acceptance process for accepting,
With
The control method characterized in that the display step displays a detailed map step by step from a map on which objects indicating network cameras that have received selections in the selection receiving step are arranged.
ネットワークカメラが設置された位置に前記ネットワークカメラを示すオブジェクトを配置した地図と、前記ネットワークカメラにより撮影された映像とを表示装置に表示させる機能と、複数の異なる縮尺の地図を記憶する記憶手段を備えた情報処理装置で読み取り実行可能なプログラムであって、
前記情報処理装置を、
複数のネットワークカメラでそれぞれ撮影される複数の場所のイベントを取得する取得手段と、
前記取得手段により取得した複数のイベントの場所を撮影する複数のネットワークカメラが設置された位置に、それぞれネットワークカメラを示すオブジェクトが配置された、前記記憶手段に記憶された広域の地図から、ユーザの操作を受け付けることなく段階的に詳細の地図を表示する表示手段と、
前記取得手段により取得した複数のイベントの場所を撮影する複数のネットワークカメラが、互いに異なる詳細地図に配置されているか否かを判定する判定手段と、
前記判定手段により、複数のネットワークカメラが、互いに異なる詳細地図に配置されていると判定された場合には、ユーザの操作により、当該複数のネットワークカメラの中からいずれかの選択を受け付ける選択受付手段として機能させ、
前記表示手段は、前記選択受付手段により選択を受け付けたネットワークカメラを示すオブジェクトが配置された地図から、段階的に詳細の地図を表示することを特徴とするプログラム。




A function for causing a display device to display a map in which an object indicating the network camera is arranged at a position where the network camera is installed, and a video image taken by the network camera, and a storage means for storing a plurality of different scale maps A program that can be read and executed by the information processing apparatus provided,
The information processing apparatus;
An acquisition means for acquiring events at a plurality of locations each shot by a plurality of network cameras;
From a wide-area map stored in the storage unit, an object indicating a network camera is arranged at a position where a plurality of network cameras that capture the locations of a plurality of events acquired by the acquisition unit are installed. A display means for displaying a detailed map step by step without accepting an operation;
A determination unit that determines whether or not a plurality of network cameras that photograph locations of a plurality of events acquired by the acquisition unit are arranged on different detailed maps;
When the determination unit determines that the plurality of network cameras are arranged on different detailed maps, a selection receiving unit that receives a selection from the plurality of network cameras by a user operation Function as
The program according to claim 1, wherein the display means displays a detailed map step by step from a map on which objects indicating network cameras whose selection has been received by the selection reception means are arranged.




JP2016255978A 2016-12-28 2016-12-28 Information processing equipment, its control method, and programs Active JP6810351B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016255978A JP6810351B2 (en) 2016-12-28 2016-12-28 Information processing equipment, its control method, and programs

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016255978A JP6810351B2 (en) 2016-12-28 2016-12-28 Information processing equipment, its control method, and programs

Publications (2)

Publication Number Publication Date
JP2018107775A true JP2018107775A (en) 2018-07-05
JP6810351B2 JP6810351B2 (en) 2021-01-06

Family

ID=62787556

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016255978A Active JP6810351B2 (en) 2016-12-28 2016-12-28 Information processing equipment, its control method, and programs

Country Status (1)

Country Link
JP (1) JP6810351B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110996044A (en) * 2019-11-06 2020-04-10 视联动力信息技术股份有限公司 Monitoring round-robin method and device, electronic equipment and storage medium

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007158496A (en) * 2005-12-01 2007-06-21 Hitachi Eng Co Ltd Map interconnection video monitoring method and apparatus thereof
US20070139546A1 (en) * 2005-12-06 2007-06-21 Sony Corporation Image managing apparatus and image display apparatus
JP2008251017A (en) * 2008-04-14 2008-10-16 Nikon Corp Image retrieval device and program
JP2010140383A (en) * 2008-12-15 2010-06-24 Sony Corp Information processor and method, and program
US20130241953A1 (en) * 2012-03-13 2013-09-19 Canon Kabushiki Kaisha Information processing apparatus and information processing method
JP2014023098A (en) * 2012-07-23 2014-02-03 Nikon Corp Information processing device, imaging device, information processing program, and information processing method

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007158496A (en) * 2005-12-01 2007-06-21 Hitachi Eng Co Ltd Map interconnection video monitoring method and apparatus thereof
US20070139546A1 (en) * 2005-12-06 2007-06-21 Sony Corporation Image managing apparatus and image display apparatus
JP2007156849A (en) * 2005-12-06 2007-06-21 Sony Corp Image controller and image display
JP2008251017A (en) * 2008-04-14 2008-10-16 Nikon Corp Image retrieval device and program
JP2010140383A (en) * 2008-12-15 2010-06-24 Sony Corp Information processor and method, and program
US20130241953A1 (en) * 2012-03-13 2013-09-19 Canon Kabushiki Kaisha Information processing apparatus and information processing method
JP2014038592A (en) * 2012-03-13 2014-02-27 Canon Inc Information processing device, and information processing method
JP2014023098A (en) * 2012-07-23 2014-02-03 Nikon Corp Information processing device, imaging device, information processing program, and information processing method

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110996044A (en) * 2019-11-06 2020-04-10 视联动力信息技术股份有限公司 Monitoring round-robin method and device, electronic equipment and storage medium

Also Published As

Publication number Publication date
JP6810351B2 (en) 2021-01-06

Similar Documents

Publication Publication Date Title
JP6586076B2 (en) Visual audiovisual annotation on infrared images using a separate wireless mobile device
US20150156247A1 (en) Client-Side Bulk Uploader
JP6484871B2 (en) Information processing apparatus, control method therefor, and program
US20170004652A1 (en) Display control method and information processing apparatus
JP2012113717A (en) System and method of transmitting information using image code
CN105320695A (en) Picture processing method and device
JP2018045356A (en) Construction management system, construction management method, portable terminal and program
JP6810351B2 (en) Information processing equipment, its control method, and programs
JP6617547B2 (en) Image management system, image management method, and program
JP2015222556A (en) Document system, processing method therefor, and program
JP6435550B2 (en) Information processing apparatus, information processing apparatus control method, and program
US8811756B2 (en) Image compression
JP2018074429A (en) Information processing device, information processing method, and program
JP2020129844A (en) Server, control method therefor, and program
JP6708937B2 (en) Surveillance camera, information processing system, control method, program
JP7398184B1 (en) Video provision system, video provision method, and video provision program
JP2018093357A (en) Information processing apparatus, information processing method, program
US20220254072A1 (en) Providing context for software deployments using augmented reality
JP6895748B2 (en) Information processing equipment, data management methods for information processing equipment, and programs
JP2008028688A (en) Image distribution system
JP2016126763A (en) Information processing system, and information processing method and program thereof
JP2013050806A (en) Information processing system, mobile terminal, information processing method, control method, and program therefor
JP2016072828A (en) Image display device, control method of the same, and program
JP5975020B2 (en) Information processing apparatus, information processing system, control method thereof, and program
JP2014119950A (en) Information processor, information processing system, and control method and program for the same

Legal Events

Date Code Title Description
RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20180703

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20181031

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20190109

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191220

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20201027

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20201110

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20201123

R151 Written notification of patent or utility model registration

Ref document number: 6810351

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250