JP2021072521A - Imaging device, imaging system, control method of imaging device, program, and recording medium - Google Patents

Imaging device, imaging system, control method of imaging device, program, and recording medium Download PDF

Info

Publication number
JP2021072521A
JP2021072521A JP2019197627A JP2019197627A JP2021072521A JP 2021072521 A JP2021072521 A JP 2021072521A JP 2019197627 A JP2019197627 A JP 2019197627A JP 2019197627 A JP2019197627 A JP 2019197627A JP 2021072521 A JP2021072521 A JP 2021072521A
Authority
JP
Japan
Prior art keywords
image
video
processing
relay server
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019197627A
Other languages
Japanese (ja)
Inventor
康宏 川和
Yasuhiro Kawakazu
康宏 川和
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2019197627A priority Critical patent/JP2021072521A/en
Publication of JP2021072521A publication Critical patent/JP2021072521A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Closed-Circuit Television Systems (AREA)
  • Studio Devices (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

To safely update a predetermined function in an imaging device that can communicate with a relay server capable of image analysis and improve the accuracy of the image analysis in the relay server.SOLUTION: An imaging device communicates with a relay server capable of image analysis via a network. The imaging device includes transmission means for transmitting an image to the relay server and first image processing means for performing predetermined image processing for a captured image. The transmission means transmits metadata on an image after application of image processing together with an image before the application of image processing by the first image processing means.SELECTED DRAWING: Figure 6

Description

本発明は、撮像装置、撮像システム、撮像装置の制御方法、プログラム、および、記憶媒体に関するものである。 The present invention relates to an imaging device, an imaging system, a control method of the imaging device, a program, and a storage medium.

通信システムの発展に伴い、通信の高速化、大容量化に加え、多接続、低遅延(リアルタイム)が見込まれる。例えば、第5世代移動通信システムでは、よりデバイス側に近い基地局においてMulti−access Edge Computing(以降MECとする)といった計算リソースが使用できる環境が提供されるという特徴があるとされている。さらに、レイテンシーが1msec程度の低遅延などの特徴もあるとされている。一方、従来監視カメラでは撮影している物体を追尾する追尾技術が広く普及されている。監視カメラの追尾機能は、機能が改善される可能性があるため継続的に新しいものを使いたいといった要望がある。しかし、監視カメラのファームウェア変更は装置が起動しなくなる懸念があるためできれば避けたいといった要望もある。 With the development of communication systems, in addition to high-speed communication and large capacity, multiple connections and low latency (real time) are expected. For example, the 5th generation mobile communication system is characterized in that it provides an environment in which computing resources such as Multi-access Edge Computing (hereinafter referred to as MEC) can be used in a base station closer to the device side. Furthermore, it is said that it also has features such as a low latency of about 1 msec. On the other hand, in conventional surveillance cameras, a tracking technique for tracking an object being photographed is widely used. As for the tracking function of the surveillance camera, there is a demand to continuously use a new one because the function may be improved. However, there is also a request to avoid changing the firmware of the surveillance camera if possible because there is a concern that the device will not start.

そこで、MECの計算リソースを利用して追尾機能を実現するとファームウェアの変更を行うことなく安全に機能の更新が可能となる。しかしながら、追尾をMECで行う場合、配信された映像に対し追尾を行うため、マスク設定がされているとマスクに対象が隠れ追尾できないといった課題がある。映像に対し処理を行う際に、何かしらの条件で映像処理を切り換える技術として、映像に画像を合成する際に、顔の部分を避けるように合成する特許が特許文献1により開示されている。 Therefore, if the tracking function is realized by using the calculation resource of MEC, the function can be updated safely without changing the firmware. However, when tracking is performed by MEC, since tracking is performed on the delivered video, there is a problem that the target cannot be hidden and tracked by the mask if the mask is set. Patent Document 1 discloses a patent for synthesizing an image so as to avoid a face portion when synthesizing an image with the video, as a technique for switching the video processing under some conditions when processing the video.

特開2012−199743号公報Japanese Unexamined Patent Publication No. 2012-199743

しかしながら、上述の特許文献に開示された技術を監視カメラの追尾機能に応用すると、複数の人体を追尾する場合において、追尾対象となる人体にマスクがかかってしまい、追尾が困難となりうる。 However, if the technique disclosed in the above-mentioned patent document is applied to the tracking function of a surveillance camera, when tracking a plurality of human bodies, the human body to be tracked may be masked, which may make tracking difficult.

そこで、本発明は、画像解析が可能な中継サーバーと通信可能な撮像装置において、所定の機能を安全に更新し、中継サーバーにおける画像解析の精度を向上させることを目的とする。 Therefore, an object of the present invention is to safely update a predetermined function in an imaging device capable of communicating with a relay server capable of image analysis, and to improve the accuracy of image analysis in the relay server.

上記課題を解決するために、本発明の撮像装置は、ネットワークを介して画像解析が可能な中継サーバーと通信する撮像装置であって、前記中継サーバーに画像を送信する送信手段と、撮像画像に対して所定の画像処理を行う第1の画像処理手段と、を有し、前記送信手段は、前記第1の画像処理手段による前記画像処理の適用前の画像とともに、前記画像処理の適用後の画像のメタデータを送信することを特徴とする。 In order to solve the above problems, the image pickup device of the present invention is an image pickup device that communicates with a relay server capable of image analysis via a network, and is used as a transmission means for transmitting an image to the relay server and a captured image. On the other hand, it has a first image processing means that performs predetermined image processing, and the transmitting means includes an image before the application of the image processing by the first image processing means and a post-application of the image processing. It is characterized by transmitting image metadata.

本発明によれば、画像解析が可能な中継サーバーと通信可能な撮像装置において、所定の機能を安全に更新でき、中継サーバーにおける画像解析の精度を向上させることができる。 According to the present invention, in an imaging device capable of communicating with a relay server capable of image analysis, a predetermined function can be safely updated, and the accuracy of image analysis in the relay server can be improved.

本実施形態に係る監視システムの構成図である。It is a block diagram of the monitoring system which concerns on this embodiment. 本実施形態に係る監視カメラのハードウェア構成図である。It is a hardware block diagram of the surveillance camera which concerns on this embodiment. 監視カメラのソフトウェア構成図である。It is a software configuration diagram of a surveillance camera. リバースプロキシのソフトウェア構成図である。It is a software configuration diagram of a reverse proxy. 実施例1に係るリバースプロキシがリクエストを受信した場合のフローチャートである。It is a flowchart when the reverse proxy which concerns on Example 1 receives a request. 実施例1に係る監視カメラにおける映像生成時のフローチャートである。It is a flowchart at the time of image generation in the surveillance camera which concerns on Example 1. 実施例1に係るリバースプロキシにおける映像受信時のフローチャートである。It is a flowchart at the time of video reception in the reverse proxy which concerns on Example 1. FIG. 実施例2に係る監視カメラにおける映像生成時のフローチャートである。It is a flowchart at the time of image generation in the surveillance camera which concerns on Example 2.

以下に、本発明の好ましい実施の形態を、添付の図面に基づいて詳細に説明する。図1は、本実施形態に係る監視システム1000の構成図である。監視システム1000は、監視カメラ100と、リバースプロキシ500とを含む。監視カメラ100は、5Gネットワーク400を介してリバースプロキシ500と接続され、リバースプロキシ500はネットワーク300を介し、クライアント装置200と接続されている。ここで、5Gネットワーク400は第5世代移動通信システムに代表される無線通信システムである。なお、ここでは、一例として、監視カメラ100と、リバースプロキシ500との接続に5Gネットワーク400を用いたが、MECを適用可能なネットワークであれば、これに限られるものではない。 Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings. FIG. 1 is a configuration diagram of the monitoring system 1000 according to the present embodiment. The surveillance system 1000 includes a surveillance camera 100 and a reverse proxy 500. The surveillance camera 100 is connected to the reverse proxy 500 via the 5G network 400, and the reverse proxy 500 is connected to the client device 200 via the network 300. Here, the 5G network 400 is a wireless communication system represented by a 5th generation mobile communication system. Here, as an example, the 5G network 400 is used for the connection between the surveillance camera 100 and the reverse proxy 500, but the network is not limited to this as long as it is a network to which MEC can be applied.

監視カメラ100は、カメラユニット(撮像部)を備えており、撮像部によって撮影した映像(撮像画像)を、ネットワークを介して配信する。監視カメラ100は、Panning、Tilt、Zoom(PTZ)の位置を変更するPTZ制御が可能な撮像装置である。また、監視カメラ100は、例えば、プライバシーマスクと呼ばれる所定の形状と大きさの画像(以下マスクという)で、撮影した映像の所定領域を隠すマスク機能を有する。加えて、監視カメラ100は、動体検出(物体認識)、顔検出、顔認識、人物検出などの映像解析を行ってもよい。なお、例えば、監視カメラ100の設置時に、安全なネットワークにおいて管理者登録などの設定を行うためなど、監視カメラ100は、リバースプロキシ500を介さずにクライアント装置200通信することも可能である。この場合、別途Ethernet等のネットワーク300に経路を変更し通信することも可能である。すなわち、監視カメラ100は、ネットワークを介してリバースプロキシ500およびクライアント装置200の少なくとも一方と通信する。 The surveillance camera 100 includes a camera unit (imaging unit), and distributes an image (captured image) captured by the imaging unit via a network. The surveillance camera 100 is an imaging device capable of PTZ control for changing the positions of Panning, Til, and Zoom (PTZ). Further, the surveillance camera 100 has, for example, a mask function of hiding a predetermined area of a captured image with an image of a predetermined shape and size (hereinafter referred to as a mask) called a privacy mask. In addition, the surveillance camera 100 may perform video analysis such as motion detection (object recognition), face detection, face recognition, and person detection. It should be noted that, for example, when the surveillance camera 100 is installed, the surveillance camera 100 can communicate with the client device 200 without going through the reverse proxy 500, for example, in order to make settings such as administrator registration in a secure network. In this case, it is also possible to separately change the route to the network 300 such as Ethernet and communicate. That is, the surveillance camera 100 communicates with at least one of the reverse proxy 500 and the client device 200 via the network.

リバースプロキシ500は、5Gネットワーク400の基地局の中または近くに設置されるエッジコンピューティング装置であるMECに設置される。MECは、例えば、OpenStackなどの技術により仮想化されてもよい。仮想化の方式は問わず、さらには仮想化を施さない構成も採用することができる。リバースプロキシ500は、クライアント装置200からのリクエストを監視カメラ100へ中継する中継サーバーとして機能する。また、リバースプロキシ500は、監視カメラ100からのレスポンスを受信し、必要に応じてコンテンツのキャッシュや、映像処理、映像解析処理を行う。さらに、リバースプロキシ500は、PTZ制御や映像解析結果からオブジェクトを追尾する自動追尾も行う。5Gネットワーク400に監視カメラ100が接続されている場合は、リバースプロキシ500がクライアント装置200からのリクエストを一元管理する。これにより、リバースプロキシ500と監視カメラ100を合わせて監視カメラとしてクライアント装置200に見せることが可能である。 The reverse proxy 500 is installed in the MEC, which is an edge computing device installed in or near the base station of the 5G network 400. The MEC may be virtualized by a technique such as OpenStack. Regardless of the virtualization method, a configuration without virtualization can also be adopted. The reverse proxy 500 functions as a relay server that relays the request from the client device 200 to the surveillance camera 100. Further, the reverse proxy 500 receives the response from the surveillance camera 100 and performs content caching, video processing, and video analysis processing as needed. Further, the reverse proxy 500 also performs automatic tracking that tracks an object from PTZ control and video analysis results. When the surveillance camera 100 is connected to the 5G network 400, the reverse proxy 500 centrally manages the requests from the client device 200. As a result, the reverse proxy 500 and the surveillance camera 100 can be combined and shown to the client device 200 as a surveillance camera.

クライアント装置200は、パーソナルコンピュータやスマートフォンなどに代表される機器であり、監視カメラ100と通信しユーザーにGraphical User Interface(GUI)を提供すれば、その形態には特に制限は設けない。クライアント装置200は、監視カメラ100またはリバースプロキシ500にアクセスし、映像を取得する。そして、ユーザーは、クライアント装置200を用いて、監視カメラ100の設定の変更および制御が可能である。 The client device 200 is a device typified by a personal computer, a smartphone, or the like, and as long as it communicates with the surveillance camera 100 and provides the user with a Graphical User Interface (GUI), the form thereof is not particularly limited. The client device 200 accesses the surveillance camera 100 or the reverse proxy 500 and acquires an image. Then, the user can change and control the setting of the surveillance camera 100 by using the client device 200.

なお、本実施形態では、説明の簡略化のために監視カメラは1台としているが、2台以上であっても構わない。加えて、クライアント装置200以外にも監視カメラ100にアクセスして映像の受信や蓄積を行う他のクライアント装置があっても構わない。 In the present embodiment, the number of surveillance cameras is one for the sake of simplification of the explanation, but two or more cameras may be used. In addition to the client device 200, there may be other client devices that access the surveillance camera 100 to receive and store images.

ネットワーク300は、インターネット等のワイドエリアに接続可能なネットワークである。本実施形態においては各監視カメラ・クライアント間の通信が支障なく行えるものであればその通信規格、規模、構成を問わない。故に、ネットワーク300はとしては、EthernetからLAN (Local Area Network)、Wi−Fiにまで適用可能である。 The network 300 is a network that can be connected to a wide area such as the Internet. In this embodiment, the communication standard, scale, and configuration are not limited as long as communication between each surveillance camera and client can be performed without any trouble. Therefore, the network 300 can be applied from Ethernet to LAN (Local Area Network) and Wi-Fi.

図2は、本実施形態に係る監視カメラ100のハードウェア構成図である。監視カメラ100は、CPU1101、1次記憶装置1102、2次記憶装置1103、映像キャプチャインターフェース(以降I/Fとする)1105、ネットワークI/F1107、カメラ制御I/F1108、および、映像解析I/F1109を含む。また、これらは相互が内部バス1104を介して接続されている。 FIG. 2 is a hardware configuration diagram of the surveillance camera 100 according to the present embodiment. The surveillance camera 100 includes a CPU 1101, a primary storage device 1102, a secondary storage device 1103, a video capture interface (hereinafter referred to as I / F) 1105, a network I / F1107, a camera control I / F1108, and a video analysis I / F1109. including. Also, they are connected to each other via the internal bus 1104.

ここで、1次記憶装置1102は、RAMに代表される書き込み可能な高速の記憶装置で、OSや各種プログラム及び各種データがロードされ、またOSや各種プログラムの作業領域としても使用される。 Here, the primary storage device 1102 is a writable high-speed storage device typified by RAM, and is loaded with an OS, various programs, and various data, and is also used as a work area for the OS and various programs.

2次記憶装置1103は、フラッシュメモリ、HDD、SDカード等に代表される不揮発性を持った記憶装置で、OSや各種プログラム及び各種データの永続的な記憶領域として使用される他に、短期的な各種データの記憶領域としても使用される。監視カメラ100の1次記憶装置1102及び2次記憶装置1103に置かれる各種プログラム等の詳細については後述する。 The secondary storage device 1103 is a non-volatile storage device typified by a flash memory, an HDD, an SD card, etc., and is used as a permanent storage area for an OS, various programs, and various data, as well as a short-term storage device. It is also used as a storage area for various data. Details of various programs and the like placed in the primary storage device 1102 and the secondary storage device 1103 of the surveillance camera 100 will be described later.

映像キャプチャI/F1105には、CCDやCMOSなどの撮像素子と、レンズを含むカメラユニット1106(撮像部)が接続される。映像キャプチャI/F1105は、カメラユニット1106から取得した映像データ(撮像画像)を所定のフォーマットに変換・圧縮して1次記憶装置1102に転送する。マスクなどの映像重畳を行うのも映像キャプチャI/F1105の役割である。 An image sensor such as a CCD or CMOS and a camera unit 1106 (imaging unit) including a lens are connected to the image capture I / F 1105. The video capture I / F 1105 converts and compresses the video data (captured image) acquired from the camera unit 1106 into a predetermined format and transfers it to the primary storage device 1102. It is also the role of the video capture I / F1105 to superimpose images such as masks.

カメラ制御I/F1108にもカメラユニット1106が接続され、露出などの撮像パラメータ制御や、Pan,Tilt,Zoomなどの制御を行い、カメラユニット1106から取得した現在のパラメータを、1次記憶装置1102に保存する。 The camera unit 1106 is also connected to the camera control I / F 1108 to control imaging parameters such as exposure and control Pan, Tilt, Zoom, etc., and the current parameters acquired from the camera unit 1106 are stored in the primary storage device 1102. save.

映像解析I/F1109は、映像キャプチャI/F1105が生成したマスクなどの画像が重畳されていない映像に対して動体検出、人体検出、顔検出、顔認識などの映像解析処理を行い、結果を1次記憶装置1102に保存する。映像解析処理の結果から特定人物を追尾するために、カメラ制御I/F1108を介してカメラ制御を行っても構わない。 The image analysis I / F1109 performs image analysis processing such as motion detection, human body detection, face detection, and face recognition on the image on which the image such as the mask generated by the image capture I / F1105 is not superimposed, and the result is 1 It is stored in the next storage device 1102. In order to track a specific person from the result of the video analysis processing, the camera may be controlled via the camera control I / F1108.

ネットワークI/F1107は前述のネットワーク300または5Gネットワーク400と接続するためのI/Fであり、5GネットワークやEthernet等の通信媒体を介してクライアント装置200またはリバースプロキシ500との通信を担う。 The network I / F 1107 is an I / F for connecting to the above-mentioned network 300 or 5G network 400, and is responsible for communication with the client device 200 or the reverse proxy 500 via a communication medium such as a 5G network or Ethernet.

(実施例1)
以下、本発明の実施例1による、監視システムの追尾方法について説明する。図3は、監視カメラ100のソフトウェア構成図である。1次記憶装置1102には、OS1000、プロトコル処理部1001、カメラ制御部1002、映像生成部1003及び、設定管理部1004、および、映像解析部1005がロードされる。
(Example 1)
Hereinafter, the tracking method of the monitoring system according to the first embodiment of the present invention will be described. FIG. 3 is a software configuration diagram of the surveillance camera 100. The OS 1000, the protocol processing unit 1001, the camera control unit 1002, the video generation unit 1003, the setting management unit 1004, and the video analysis unit 1005 are loaded into the primary storage device 1102.

OS1000は、監視カメラ100全体を制御する基本プログラムである。OS1000の代表的な機能としてファイルシステムなどの2次記憶装置1103の管理、仮想記憶などのメモリ管理、マルチタスクなどのプロセス管理、ネットワークI/F1107の管理などが挙げられる。 OS1000 is a basic program that controls the entire surveillance camera 100. Typical functions of the OS1000 include management of a secondary storage device 1103 such as a file system, memory management such as virtual storage, process management such as multitasking, and management of network I / F1107.

プロトコル処理部1001は、クライアント装置200やリバースプロキシ500の要求(リクエスト)に応じて、映像生成部1003が生成した映像データの配信や、要求に含まれる制御情報の取得、要求に含まれる設定値などを受け入れる。プロトコル処理部1001は、要求に対して、映像生成部1003、カメラ制御部1002、設定管理部1004、映像解析部1005に中継を行う。そして、中継先からの結果をもとに、対応する応答をクライアント装置200、または、リバースプロキシ500に送信する。プロトコル処理部1001は、ネットワークI/F1107を介して外部装置(ここでは、クライアント装置200、または、リバースプロキシ500)と通信を行う。ネットワークとしては5Gネットワーク400、ネットワーク300双方が適用可能である。プロトコルとしては例えばHypertext Transfer Protocol(HTTP)を使用する。プロトコル処理部1001は、クライアント装置200からの要求に応じて応答を返すためHTTPのサーバーつまりWebサーバーといった一面も有する。HTTPのバージョンには特に依存せずHTTP/1.0,HTTP/1.1,HTTP/2、HTTP/3など適用可能であり、Transport Layer Security(TLS)レイヤを介しても構わない。 The protocol processing unit 1001 distributes video data generated by the video generation unit 1003, acquires control information included in the request, and sets values included in the request in response to a request (request) from the client device 200 or the reverse proxy 500. And so on. The protocol processing unit 1001 relays the request to the video generation unit 1003, the camera control unit 1002, the setting management unit 1004, and the video analysis unit 1005. Then, based on the result from the relay destination, the corresponding response is transmitted to the client device 200 or the reverse proxy 500. The protocol processing unit 1001 communicates with an external device (here, the client device 200 or the reverse proxy 500) via the network I / F 1107. As a network, both 5G network 400 and network 300 can be applied. As a protocol, for example, Hypertext Transfer Protocol (HTTP) is used. The protocol processing unit 1001 also has an aspect such as an HTTP server, that is, a Web server, in order to return a response in response to a request from the client device 200. It does not depend on the version of HTTP, and can be applied such as HTTP / 1.0, HTTP / 1.1, HTTP / 2, HTTP / 3, etc., and may be applied via the Transport Layer Security (TLS) layer.

カメラ制御部1002は、プロトコル処理部1001や映像解析部1005から受け取った制御情報をもとに、カメラ機能の制御・調整を行う。代表的なものにカメラユニット1106の制御および、制御結果の通知がある。該制御にはPanning、Tilt、ZoomのPTZのパラメータや露出などの撮像撮像パラメータなどを含んで構わない。プロトコル処理部1001および映像解析部1005の2つがカメラ制御部1002に対し、制御情報提供するため、カメラ制御部1002は、プロトコル処理部1001および映像解析部1005の調整機能も行う。 The camera control unit 1002 controls and adjusts the camera function based on the control information received from the protocol processing unit 1001 and the video analysis unit 1005. Typical examples are the control of the camera unit 1106 and the notification of the control result. The control may include imaging parameters such as Panning, Til, Zoom PTZ parameters and exposure. Since the protocol processing unit 1001 and the video analysis unit 1005 provide control information to the camera control unit 1002, the camera control unit 1002 also performs the adjustment function of the protocol processing unit 1001 and the video analysis unit 1005.

映像生成部1003は、カメラユニット1106で取得された映像データを映像キャプチャI/F1105を経由して取得し、取得した映像データのエンコード処理を行い、映像データファイルを生成する。すなわち、映像生成部1003は、撮像された映像に対して、様々な画像処理を行う。エンコード方式はjpegであってもよいし、H.264/AVC, H.265/HEVCなど映像圧縮の符号化方式であれば適応可能である。なお、本実施例のエンコード方式に加え、他の映像圧縮方式であっても構わない。加えて、映像生成部1003は、映像キャプチャI/F1105が生成した全体映像の一部を切り出した、切り出し映像を生成する機能を有してもよい。その他として映像生成部1003は撮影した映像の所定領域を隠蔽するマスク処理、指定領域のQ値を指定する処理、時刻や任意文字列を撮影した映像上に重畳する(表示させる)処理を行ってもよい。これらの設定は、画像処理の情報として、具体的には、例えば、メタデータとして、設定管理部1004から通知される。加えてPTZの移動が伴う場合においてもマスク領域、または、指定したQ値の領域を追従するために、カメラ制御部1002から通知されたPTZ位置を参照し、処理する領域の計算を行い、重畳を行う。なお、映像解析部1005が処理する映像はこれらの重畳処理が施されていないものを使用する。そうすることで余分な処理がされていない映像に解析を行うことが可能となり、解析処理の負荷が軽減される。 The video generation unit 1003 acquires the video data acquired by the camera unit 1106 via the video capture I / F 1105, encodes the acquired video data, and generates a video data file. That is, the image generation unit 1003 performs various image processing on the captured image. The encoding method may be jpg, and H.I. 264 / AVC, H. Any video compression coding method such as 265 / HEVC can be applied. In addition to the encoding method of this embodiment, another video compression method may be used. In addition, the video generation unit 1003 may have a function of generating a cut-out video by cutting out a part of the entire video generated by the video capture I / F 1105. In addition, the image generation unit 1003 performs mask processing for hiding a predetermined area of the captured image, processing for specifying the Q value of the specified area, and processing for superimposing (displaying) the time and an arbitrary character string on the captured image. May be good. These settings are notified from the setting management unit 1004 as image processing information, specifically, for example, metadata. In addition, in order to follow the mask area or the area of the specified Q value even when the PTZ moves, the PTZ position notified from the camera control unit 1002 is referred to, the area to be processed is calculated, and the area to be processed is superimposed. I do. As the video processed by the video analysis unit 1005, those that have not been subjected to the superimposition processing are used. By doing so, it becomes possible to analyze the video without extra processing, and the load of the analysis processing is reduced.

設定管理部1004は、プロトコル処理部1001から中継されたパラメータを、設定値として2次記憶装置1103へ書き込み、設定値を参照するカメラ制御部1002、映像生成部1003、映像解析部1005へ通知を行う。設定値としては配信映像、映像解析、追尾、マスクの設定などが含まれる。マスクの設定には、その領域を示すものであれば適用可能で、例えば始点の位置と幅・高さがあげられる。 The setting management unit 1004 writes the parameters relayed from the protocol processing unit 1001 as set values to the secondary storage device 1103, and notifies the camera control unit 1002, the image generation unit 1003, and the image analysis unit 1005 that refer to the set values. Do. The setting values include distribution video, video analysis, tracking, mask setting, and the like. The mask can be set as long as it indicates the area, and examples thereof include the position, width, and height of the start point.

映像解析部1005は、映像生成部1003が生成した映像に対し、動体検出、人体検出、顔検出、顔認識などの映像解析処理を行う。映像解析の設定値は設定管理部1004から通知されたものを利用する。映像解析の結果に関してはプロトコル処理部1001を介し、クライアント装置200またはリバースプロキシ500へ送信される。その他として、映像解析部1005は、映像解析の結果から、検出したオブジェクトの位置にPTZを移動する追尾も行う。PTZ制御では、カメラ制御部1002に対して制御を行う。なお、本実施例では映像解析部1005の説明を行ったが、映像解析をリバースプロキシ500で行う場合は、リバースプロキシによって追尾が可能であるため、監視カメラ100内における映像解析部は必須の構成ではない。 The image analysis unit 1005 performs image analysis processing such as motion detection, human body detection, face detection, and face recognition on the image generated by the image generation unit 1003. As the setting value of the video analysis, the one notified from the setting management unit 1004 is used. The result of the video analysis is transmitted to the client device 200 or the reverse proxy 500 via the protocol processing unit 1001. In addition, the image analysis unit 1005 also tracks the PTZ to move to the position of the detected object based on the result of the image analysis. In PTZ control, the camera control unit 1002 is controlled. Although the video analysis unit 1005 has been described in this embodiment, when the video analysis is performed by the reverse proxy 500, the tracking is possible by the reverse proxy, so that the video analysis unit in the surveillance camera 100 is indispensable. is not it.

図4は、リバースプロキシ500のソフトウェア構成図である。リバースプロキシ500は、プロトコル処理部5001、カメラ制御部5002、映像処理部5003、設定管理部5004、および、映像解析部5005を含み、クライアント装置200からの要求(リクエスト)を監視カメラ100へ中継する。クライアント装置200からHTTPリクエスト受信を行うため、監視カメラ100と同様にリバースプロキシはHTTPサーバーとなる。よってWebサーバーの側面を有する。加えて監視カメラ100へHTTPリクエストを送信することからHTTPクライアントの側面も持ち、サーバーとクライアント双方の機能を併せ持つ。リバースプロキシも広義の意味においてWebサーバーといえる。 FIG. 4 is a software configuration diagram of the reverse proxy 500. The reverse proxy 500 includes a protocol processing unit 5001, a camera control unit 5002, a video processing unit 5003, a setting management unit 5004, and a video analysis unit 5005, and relays a request from the client device 200 to the surveillance camera 100. .. Since the HTTP request is received from the client device 200, the reverse proxy serves as an HTTP server as in the surveillance camera 100. Therefore, it has an aspect of a Web server. In addition, since it sends an HTTP request to the surveillance camera 100, it also has an HTTP client aspect, and has both server and client functions. A reverse proxy can also be said to be a Web server in a broad sense.

プロトコル処理部5001は、クライアント装置200の要求に応じて、監視カメラ100へ要求の中継を行う。中継の際に設定値を設定管理部5004へ渡してもよく、クライアント装置200から受信した要求も一部変更して送信するといったことも行う。そして、監視カメラ100からの応答を受けた際に、必要に応じてリバースプロキシ500内で処理をおこないクライアント装置200へ応答を返す。必要に応じたリバースプロキシ500内の処理としては、応答中に含まれる映像やHTMLファイルのキャッシュ、映像処理部5003、映像解析部5005へ映像を提供などが含まれる。 The protocol processing unit 5001 relays the request to the surveillance camera 100 in response to the request of the client device 200. The set value may be passed to the setting management unit 5004 at the time of relaying, and the request received from the client device 200 may be partially changed and transmitted. Then, when the response from the surveillance camera 100 is received, processing is performed in the reverse proxy 500 as necessary, and the response is returned to the client device 200. The processing in the reverse proxy 500 as needed includes caching of the video and HTML files included in the response, providing the video to the video processing unit 5003, and the video analysis unit 5005.

カメラ制御部5002は、映像解析部5005から受け取ったPTZ制御命令を、プロトコル処理部5001が受け入れる形式への変換機能を担う。また、プロトコル処理部5001から通知されたPTZ位置を含むカメラ情報の保持の役割も担当する。 The camera control unit 5002 is responsible for converting the PTZ control command received from the video analysis unit 5005 into a format accepted by the protocol processing unit 5001. It is also responsible for holding camera information including the PTZ position notified by the protocol processing unit 5001.

映像処理部5003は、監視カメラ100から配信された映像を入力とし、設定管理部5004が管理する設定値や監視カメラ100からプロトコル処理部5001を介して受信したメタデータをもとに映像処理(画像処理)を行う。映像処理には映像の逆圧縮処理(デコード)、圧縮処理(エンコード)、所定領域を隠蔽するマスク処理、指定領域のQ値を指定する処理、時刻や任意の文字列を映像上に重畳する処理などが含まれる。エンコード方式はjpegであってもよいし、H.264/AVC, H.265/HEVCなど映像圧縮の符号化方式であれば適応可能である。なお本実施の形態のエンコード方式に加え、他の映像圧縮方式であっても構わない。 The video processing unit 5003 receives the video distributed from the surveillance camera 100 as an input, and processes the video based on the set value managed by the setting management unit 5004 and the metadata received from the surveillance camera 100 via the protocol processing unit 5001 ( Image processing). Video processing includes decompression processing (decoding) of video, compression processing (encoding), mask processing that hides a predetermined area, processing that specifies the Q value of a specified area, and processing that superimposes a time or an arbitrary character string on the video. Etc. are included. The encoding method may be jpg, and H.I. 264 / AVC, H. Any video compression coding method such as 265 / HEVC can be applied. In addition to the encoding method of this embodiment, another video compression method may be used.

設定管理部5004は、プロトコル処理部5001からパラメータが渡され、設定値として保存(記憶)する。保存された設定値は映像処理部5003、映像解析部5005へ通知される。設定値としては映像解析、追尾、マスクの設定などが含まれる。 The setting management unit 5004 receives parameters from the protocol processing unit 5001 and saves (stores) them as setting values. The saved set value is notified to the video processing unit 5003 and the video analysis unit 5005. The set values include video analysis, tracking, mask setting, and the like.

映像解析部5005は、映像処理部5003が処理した映像に対し、動体検出処理(物体認識処理)、人体検出処理、顔検出処理、顔認識処理などの映像解析処理を行う。映像解析の設定値は設定管理部5004から通知されたものを利用する。映像解析の結果に関してはプロトコル処理部1001を介し、クライアント装置200へ送信される。その他として映像解析の結果から、検出したオブジェクトの位置にPTZを移動する追尾も映像解析部5005が行う。PTZ制御にはカメラ制御部1002へ制御を行う。 The image analysis unit 5005 performs image analysis processing such as motion detection processing (object recognition processing), human body detection processing, face detection processing, and face recognition processing on the image processed by the image processing unit 5003. As the setting value of the video analysis, the one notified from the setting management unit 5004 is used. The result of the video analysis is transmitted to the client device 200 via the protocol processing unit 1001. In addition, the image analysis unit 5005 also tracks the PTZ to move to the position of the detected object based on the result of the image analysis. For PTZ control, the camera control unit 1002 is controlled.

図5は、実施例1に係るリバースプロキシ500がリクエストを受信した場合のフローチャートである。S6000はクライアント装置200からリクエストを受信した場合に開始する。S6001においてプロトコル処理部5001がリクエストの解析処理を行う。そしてS6002において、リクエストの種類に応じて分岐を行う。リクエストの種類がマスク設定値の保存または、追尾の設定の保存である場合S6003へ分岐し、設定管理部5004へ設定値の保存を行う。リクエストの種類がその他の場合は設定値の保存は行わずにS6004へ分岐する。S6003の設定値の保存の後は、S6004のヘッダ追加処理を行う。S6004のヘッダ追加処理においては、リバースプロキシ500からに中継されたということを示すためのヘッダであるX−forwarded−forヘッダを、HTTPリクエストヘッダに追加する。換言すると、本処理は、中継情報を付加する処理であると言える。このX−forwarded−forを監視カメラ100が参照することにより、監視カメラ100において、リバースプロキシ500によって中継されたリクエストであるといった判断が可能になる。本実施例ではX−forwarded−forヘッダを利用することで中継することを明示した。しかし、そのほかにも、中継しているといった設定値の送信や、監視カメラ100の外部で画像解析を行うといった設定値やHTTPヘッダを監視カメラ100に送るなどしてもよい。 FIG. 5 is a flowchart when the reverse proxy 500 according to the first embodiment receives a request. S6000 starts when a request is received from the client device 200. In S6001, the protocol processing unit 5001 performs request analysis processing. Then, in S6002, branching is performed according to the type of request. When the request type is saving the mask setting value or saving the tracking setting, the process branches to S6003 and the setting value is saved in the setting management unit 5004. If the request type is other, branch to S6004 without saving the set value. After saving the set value of S6003, the header addition process of S6004 is performed. In the header addition process of S6004, the X-forwarded-for header, which is a header for indicating that the relay has been relayed from the reverse proxy 500, is added to the HTTP request header. In other words, it can be said that this process is a process of adding relay information. By referring to this X-forwarded-for by the surveillance camera 100, it becomes possible for the surveillance camera 100 to determine that the request is relayed by the reverse proxy 500. In this embodiment, it is clarified that relaying is performed by using the X-forwarded-for header. However, in addition to this, the setting value such as relaying may be transmitted, or the setting value such as performing image analysis outside the surveillance camera 100 or the HTTP header may be sent to the surveillance camera 100.

次いで、S6005において、プロトコル処理部5001は、監視カメラ100に対してHTTPリクエストの送信を行い、クライアント装置200からのリクエストの中継を実現する。中継時にS6003においてリクエストの種類に応じてリバースプロキシ500においても設定値を保存することで、監視カメラ100とリバースプロキシ500の双方に同じ設定がされることとなる。そのためリバースプロキシ500を中継する場合でも、監視カメラ100とクライアント装置200の経路が変わり、リバースプロキシ500を使わない(経由しない)場合においても、追尾処理とマスク処理の両立を保ったまま動的な切り替えが実現できる。 Next, in S6005, the protocol processing unit 5001 transmits an HTTP request to the surveillance camera 100, and relays the request from the client device 200. By saving the setting value in the reverse proxy 500 according to the type of request in S6003 at the time of relay, the same setting is made in both the surveillance camera 100 and the reverse proxy 500. Therefore, even when the reverse proxy 500 is relayed, the route between the surveillance camera 100 and the client device 200 changes, and even when the reverse proxy 500 is not used (does not go through), it is dynamic while maintaining both tracking processing and mask processing. Switching can be realized.

フローチャートは最後にS6006において終了する。これは例えば、一時的な監視カメラ100のメンテナンスのために5Gネットワーク400から切り離し、ローカルなネットワークにおいてメンテナンスする場合や、監視カメラ100が車や鉄道などの移動体に設置された場合など、に有用になる。 The flowchart finally ends at S6006. This is useful, for example, when the surveillance camera 100 is separated from the 5G network 400 for temporary maintenance and maintenance is performed on a local network, or when the surveillance camera 100 is installed on a moving body such as a car or a railroad. become.

図6は、実施例1に係る監視カメラ100における映像生成時のフローチャートである。S1500は映像生成部1003が画像圧縮前の映像データを取得した場合に起動する。リバースプロキシ500によって中継されたリクエストは、監視カメラ100のプロトコル処理部1001において処理される。プロトコル処理部1001において、取得したリクエストにX−forwarded−forヘッダが含まれる場合、その情報を映像生成部1003または設定管理部1004へ伝える。即ち、プロトコル処理部1001は、取得したリクエストがリバースプロキシ500によって中継されたものであるといった情報(中継情報)を映像生成部1003または設定管理部1004へ伝える。中継情報を受け取った映像生成部1003はその値を参照し、S1501においてリバースプロキシ500によって中継されたかどうかの判断を行う。すなわち、映像生成部1003は、中継情報を用いてリバースプロキシ500と通信するか否かの判断を行う。S1501においてリバースプロキシ500によって中継されている場合(YES)、S1505に分岐し、映像生成部1003は、エンコード処理を行う。一方、S1501において中継されていない(NO)場合、S1502へ分岐し、映像生成部1003は、マスクが設定されているかどうかの判断を行う。 FIG. 6 is a flowchart at the time of image generation in the surveillance camera 100 according to the first embodiment. S1500 is activated when the image generation unit 1003 acquires the image data before image compression. The request relayed by the reverse proxy 500 is processed by the protocol processing unit 1001 of the surveillance camera 100. When the acquired request includes the X-forwarded-for header in the protocol processing unit 1001, the information is transmitted to the video generation unit 1003 or the setting management unit 1004. That is, the protocol processing unit 1001 transmits information (relay information) that the acquired request is relayed by the reverse proxy 500 to the video generation unit 1003 or the setting management unit 1004. The video generation unit 1003 that has received the relay information refers to the value and determines whether or not the relay has been relayed by the reverse proxy 500 in S1501. That is, the video generation unit 1003 determines whether or not to communicate with the reverse proxy 500 using the relay information. If it is relayed by the reverse proxy 500 in S1501 (YES), it branches to S1505 and the video generation unit 1003 performs the encoding process. On the other hand, if it is not relayed (NO) in S1501, it branches to S1502, and the image generation unit 1003 determines whether or not the mask is set.

S1502においてマスク設定がされていない場合(NO)、マスク設定は行わずにS1505へ分岐する。一方、S1502においてマスク設定がされている場合(YES)、S1503へ分岐し、映像生成部1003は、マスク処理を行う。マスク処理ではS1503において、映像生成部1003は、カメラ制御部1002から通知されたPTZの現在値と設定管理部5004から通知されたマスクの領域情報からマスクを重畳する領域座標の計算を行う。次いで、S1504において、映像生成部1003は、映像上にマスクの重畳を行い、S1505のエンコード処理を行う。S1505のエンコード処理の後は、S1506において映像生成通知をプロトコル処理部1001へ行う。通知を受けたプロトコル処理部1001は、リクエストがリバースプロキシ500によって中継されたものである場合には、リバースプロキシ500に映像配信を行う。即ち、プロトコル処理部1001は、映像生成部1003による画像処理の適用前の画像とともに、前記画像処理の適用後の画像のメタデータをリバースプロキシ500に送信する。一方、リクエストがリバースプロキシ500によって中継されたものでない場合には、クライアント装置200に映像配信を行う。本実施例ではX−forwarded−forヘッダを利用することで中継することを明示した。しかし、そのほかにも、中継しているといった設定値等、中継することを示す情報や、監視カメラ100の外部で画像解析を行うといった設定値やHTTPヘッダ等の中継サーバーで映像解析を行うことを示す情報を用いても構わない。この場合、プロトコル処理部1001は、中継することを示す情報または中継サーバーで映像解析を行うことを示す情報を映像生成部1003へ伝える。最後にS1507において処理を終了する。 If the mask is not set in S1502 (NO), the process branches to S1505 without setting the mask. On the other hand, when the mask is set in S1502 (YES), the process branches to S1503, and the image generation unit 1003 performs mask processing. In the mask processing, in S1503, the image generation unit 1003 calculates the area coordinates on which the mask is superimposed from the current value of the PTZ notified from the camera control unit 1002 and the area information of the mask notified from the setting management unit 5004. Next, in S1504, the image generation unit 1003 superimposes the mask on the image and performs the encoding process of S1505. After the encoding process of S1505, the video generation notification is sent to the protocol processing unit 1001 in S1506. When the request is relayed by the reverse proxy 500, the protocol processing unit 1001 that has received the notification delivers the video to the reverse proxy 500. That is, the protocol processing unit 1001 transmits the metadata of the image after the application of the image processing to the reverse proxy 500 together with the image before the application of the image processing by the image generation unit 1003. On the other hand, if the request is not relayed by the reverse proxy 500, the video is delivered to the client device 200. In this embodiment, it is clarified that relaying is performed by using the X-forwarded-for header. However, in addition to this, information indicating relaying such as setting values such as relaying, setting values such as performing image analysis outside the surveillance camera 100, and video analysis using a relay server such as an HTTP header can be performed. You may use the information shown. In this case, the protocol processing unit 1001 transmits information indicating that the relay is to be performed or information indicating that the video analysis is performed by the relay server to the video generation unit 1003. Finally, the process ends in S1507.

リバースプロキシ500によって中継される場合に、監視カメラ100においてマスク重畳を避けることで、リバースプロキシ500にマスクが重畳されていない撮影画像を送信することが可能となる。そして、リバースプロキシ500において余分な映像処理が施されていない映像に対して解析処理を行うことが可能となる。 By avoiding mask superposition in the surveillance camera 100 when relayed by the reverse proxy 500, it is possible to transmit a captured image in which the mask is not superposed on the reverse proxy 500. Then, the reverse proxy 500 can perform analysis processing on the video that has not been subjected to extra video processing.

なお、映像解析部1005においても、映像生成部1003と同様に、リバースプロキシによって中継されたかどうかに応じて追尾処理を行うかどうかを切り替えても構わない。図6の説明の通り、リバースプロキシ500によって中継された場合にマスク重畳を監視カメラ100で行わないことで、マスクが重畳されていない画像をリバースプロキシ500へ送ることが可能となり、リバースプロキシ500での画像解析処理が可能になる。 Note that the video analysis unit 1005 may also switch whether to perform the tracking process depending on whether or not it has been relayed by the reverse proxy, as in the video generation unit 1003. As described in FIG. 6, when the image is relayed by the reverse proxy 500, the image without the mask superimposed can be sent to the reverse proxy 500 by not performing the mask superimposition on the surveillance camera 100, and the reverse proxy 500 can send the image. Image analysis processing becomes possible.

図7は、実施例1に係るリバースプロキシ500における映像受信時のフローチャートである。S7000は、リバースプロキシ500が監視カメラ100から映像を受信した場合に起動する。まず、S7001において、プロトコル処理部5001が監視カメラ100から映像の受信を行う。次いで、プロトコル処理部5001は、受信した映像を映像解析部5005へ中継し、映像解析部5005は追尾設定がされているかどうかの判断をS7002で行う。追尾設定がされていない場合(NO)、S7004へ分岐し追尾は行わずに、映像処理部5003が、マスクが設定されているかどうかの判断を行う。一方、追尾設定がされている場合(YES)、S7003へ分岐し、映像解析部5005は、追尾を行う。S7003における追尾処理では、映像解析部5005は、映像解析を行いオブジェクトの位置を検出する。次いで検出した位置へPTZするために、PTZ位置をカメラ制御部5002へ送信し、カメラ制御部5002がプロトコル処理部5001へ送信する。プロトコル処理部5001は監視カメラ100に対してPTZ制御を行う。即ち、S7003における追尾処理は、映像解析結果に応じてPTZ制御を行う。オブジェクト(被写体)の動きに合わせて、監視カメラ100の制御を行うため、監視カメラ100とリバースプロキシ500とを接続するネットワークは、5Gネットワークのように低レイテンシーである必要がある。 FIG. 7 is a flowchart at the time of receiving a video in the reverse proxy 500 according to the first embodiment. The S7000 is activated when the reverse proxy 500 receives an image from the surveillance camera 100. First, in S7001, the protocol processing unit 5001 receives an image from the surveillance camera 100. Next, the protocol processing unit 5001 relays the received video to the video analysis unit 5005, and the video analysis unit 5005 determines in S7002 whether or not the tracking setting is set. If the tracking setting is not set (NO), the video processing unit 5003 determines whether or not the mask is set without branching to S7004 and performing tracking. On the other hand, when the tracking setting is set (YES), the process branches to S7003, and the image analysis unit 5005 performs tracking. In the tracking process in S7003, the image analysis unit 5005 performs image analysis and detects the position of the object. Next, in order to perform PTZ to the detected position, the PTZ position is transmitted to the camera control unit 5002, and the camera control unit 5002 transmits the PTZ position to the protocol processing unit 5001. The protocol processing unit 5001 performs PTZ control on the surveillance camera 100. That is, the tracking process in S7003 performs PTZ control according to the image analysis result. In order to control the surveillance camera 100 according to the movement of the object (subject), the network connecting the surveillance camera 100 and the reverse proxy 500 needs to have a low latency like a 5G network.

S7004では、映像処理部5003が設定管理部5004から通知された設定値を参照し、マスクが設定されているかどうかの判断を行う。S7004においてマスク設定がされていない場合(NO)は、マスク重畳は行わずS7009へ分岐し、プロトコル処理部5001が、クライアント装置200に対して映像の送信を行い、処理を終了する。一方、マスクが設定されている場合(YES)、S7005に分岐し、デコード処理を行う。S7005では、映像処理部5003が受信映像のデコード処理を行う。デコード処理後はS7006において、映像処理部5003は、マスク座標の取得を行う。実施例1においてはマスク座標の取得は、カメラ制御部5002から受信したPTZの位置と、設定管理部5004から通知されたマスク設定からマスク座標の計算を行うことにより取得する。その後、S7007において、映像処理部5003は、計算されたマスク座標からデコードされた映像にマスク重畳を行う。S7008において、映像処理部5003は、マスクが重畳された映像に対して、エンコード処理を行う。その後、S7009においてプロトコル処理部5001はクライアント装置200へ映像の送信を行い、最後にS7010において終了する。 In S7004, the video processing unit 5003 refers to the set value notified from the setting management unit 5004, and determines whether or not the mask is set. If the mask is not set in S7004 (NO), the mask is not superposed and branches to S7009, and the protocol processing unit 5001 transmits a video to the client device 200 and ends the processing. On the other hand, when the mask is set (YES), the process branches to S7005 and the decoding process is performed. In S7005, the video processing unit 5003 decodes the received video. After the decoding process, in S7006, the video processing unit 5003 acquires the mask coordinates. In the first embodiment, the mask coordinates are acquired by calculating the mask coordinates from the position of the PTZ received from the camera control unit 5002 and the mask setting notified from the setting management unit 5004. After that, in S7007, the image processing unit 5003 performs mask superimposition on the image decoded from the calculated mask coordinates. In S7008, the video processing unit 5003 performs encoding processing on the video on which the mask is superimposed. After that, in S7009, the protocol processing unit 5001 transmits the video to the client device 200, and finally ends in S7010.

本実施例では、監視カメラ100においてエンコードされた映像が配信されるため、リバースプロキシ500ではデコードとエンコードを含む再エンコード処理を行う説明をした。しかし、監視カメラ100がエンコードを施さずに配信する場合については、再エンコード処理は不要である。 In this embodiment, since the encoded video is distributed by the surveillance camera 100, the reverse proxy 500 has been described to perform re-encoding processing including decoding and encoding. However, when the surveillance camera 100 delivers without encoding, the re-encoding process is not necessary.

以上述べてきたように、リバースプロキシ500と監視カメラ100がマスクの処理のネゴシエーションを行うことにより、マスクを重畳することが可能で機能更新が安全にできる複数の人体を追尾することができる撮像システムを提供することができる。 As described above, the reverse proxy 500 and the surveillance camera 100 negotiate the mask processing, so that the masks can be superimposed and the functions can be updated safely. An imaging system capable of tracking a plurality of human bodies. Can be provided.

(実施例2)
以下、本発明の実施例2による、監視システムの追尾方法について説明する。実施例1では図6を用いて監視カメラ100の映像生成部1003のフローチャートを説明したが、実施例2では図1の代わりに図8を用いて説明する。残りの図の説明は実施例1と同様であるため説明は省略する。
(Example 2)
Hereinafter, the tracking method of the monitoring system according to the second embodiment of the present invention will be described. In the first embodiment, the flowchart of the image generation unit 1003 of the surveillance camera 100 has been described with reference to FIG. 6, but in the second embodiment, FIG. 8 will be used instead of FIG. Since the description of the remaining figures is the same as that of the first embodiment, the description thereof will be omitted.

図8は、実施例2に係る監視カメラ100における映像生成時のフローチャートである。S8000は、映像生成部1003が画像圧縮前の映像データを取得した場合に起動する。リバースプロキシ500によって中継されたリクエストは、監視カメラ100のプロトコル処理部1001において処理される。プロトコル処理部1001において、X−forwarded−forヘッダが含まれる場合、その情報を映像生成部1003または設定管理部1004へ伝える。即ち、プロトコル処理部1001は、取得したリクエストがリバースプロキシ500によって中継されたものであるといった情報(中継情報)を映像生成部1003または設定管理部1004へ伝える。中継情報を受け取った映像生成部1003はその値を参照し、S8001においてリバースプロキシ500によって中継されたかどうかの判断を行う。S8001においてリバースプロキシ500によって中継されている場合(NO)、S8006に分岐し、映像生成部1003は、マスクが設定されているかどうか判断を行う。 FIG. 8 is a flowchart at the time of image generation in the surveillance camera 100 according to the second embodiment. The S8000 is activated when the video generation unit 1003 acquires the video data before image compression. The request relayed by the reverse proxy 500 is processed by the protocol processing unit 1001 of the surveillance camera 100. When the protocol processing unit 1001 includes the X-forwarded-for header, the information is transmitted to the video generation unit 1003 or the setting management unit 1004. That is, the protocol processing unit 1001 transmits information (relay information) that the acquired request is relayed by the reverse proxy 500 to the video generation unit 1003 or the setting management unit 1004. The video generation unit 1003 that has received the relay information refers to the value and determines whether or not the relay has been relayed by the reverse proxy 500 in S8001. When relayed by the reverse proxy 500 in S8001 (NO), it branches to S8006, and the image generation unit 1003 determines whether or not the mask is set.

一方、S8001においてリバースプロキシ500によって中継されてない場合(NO)、S8002へ分岐し、映像生成部1003は、マスクが設定されているかどうかの判断を行う。S8002においてマスク設定がされていない場合(NO)、マスク設定は行わずにS8009へ分岐する。一方、S8002において、マスク設定がされている場合(YES)、S8003へ分岐し、映像生成部1003は、マスク処理を行う。マスク処理ではS8003において、カメラ制御部1002から通知されたPTZの現在値と設定管理部1004から通知されたマスクの領域情報からマスクを重畳する領域座標の計算を行う。次いでS8004において、映像生成部1003は、映像上にマスクの重畳を行う。次いでS8005にて、映像生成部1003は、計算したマスク座標と対応する画像の対応をとるために、時間情報や映像フレームの番号を紐づけてプロトコル処理部1001へ通知する。PTZの移動中は取得できるPTZの位置と対応する画像がずれる可能性がある。そのためマスク座標と画像の対応づけが必須となる。その後はS8009においてエンコード処理を行う。 On the other hand, if it is not relayed by the reverse proxy 500 in S8001 (NO), it branches to S8002 and the video generation unit 1003 determines whether or not the mask is set. If the mask is not set in S8002 (NO), the process branches to S8009 without setting the mask. On the other hand, in S8002, when the mask is set (YES), the process branches to S8003, and the image generation unit 1003 performs mask processing. In the mask processing, in S8003, the area coordinates on which the mask is superimposed are calculated from the current value of PTZ notified from the camera control unit 1002 and the area information of the mask notified from the setting management unit 1004. Next, in S8004, the image generation unit 1003 superimposes the mask on the image. Next, in S8005, the video generation unit 1003 notifies the protocol processing unit 1001 of the time information and the video frame number in association with each other in order to make the calculated mask coordinates correspond to the corresponding image. While the PTZ is moving, the image corresponding to the position of the PTZ that can be acquired may deviate. Therefore, it is essential to associate the mask coordinates with the image. After that, the encoding process is performed in S8009.

次に、S8001においてリバースプロキシ500によって中継されている場合(NO)、について説明する。S8006では、映像生成部1003は、マスクが設定されているかどうかの判断を行う。マスクが設定されている場合(YES)、S8007において、映像生成部1003は、リバースプロキシ500に配信するための所定領域の情報としてのマスク座標の計算を行う。マスク座標の計算方法はS8003と同様である。同じく、S8008におけるマスク座標通知もS8005と同様の処理である。S8006においてマスクが設定されていない場合(NO)は、マスク座標の計算の必要はないため、マスク座標の計算は省略しS8009のエンコード処理へ進む。 Next, the case where the relay is relayed by the reverse proxy 500 in S8001 (NO) will be described. In S8006, the image generation unit 1003 determines whether or not the mask is set. When the mask is set (YES), in S8007, the video generation unit 1003 calculates the mask coordinates as the information of the predetermined area for distribution to the reverse proxy 500. The method of calculating the mask coordinates is the same as that of S8003. Similarly, the mask coordinate notification in S8008 is the same process as in S8005. When the mask is not set in S8006 (NO), the calculation of the mask coordinates is not necessary, so the calculation of the mask coordinates is omitted and the process proceeds to the encoding process of S8009.

リバースプロキシ500によって中継される場合に、監視カメラ100においてマスク重畳を避けることで、リバースプロキシ500にマスクが重畳されていない画像を送信することが可能となる。そして、リバースプロキシ500において余分な映像処理が施されない映像に対して解析処理を行うことが可能となる。 By avoiding mask superposition in the surveillance camera 100 when relayed by the reverse proxy 500, it is possible to transmit an image in which the mask is not superposed on the reverse proxy 500. Then, the reverse proxy 500 can perform analysis processing on the video that is not subjected to extra video processing.

S8009では、映像生成部1003は、映像のエンコード処理を行う。S8009のエンコード処理の後は、S8010において映像生成通知をプロトコル処理部1001へ行う。通知を受けたプロトコル処理部1001は、リクエストがリバースプロキシ500によって中継されたものである場合には、リバースプロキシ500に映像とマスク座標の配信を行う。一方、リクエストがリバースプロキシ500によって中継されたものでない場合には、クライアント装置200に映像配信を行う。なお、所定領域の情報として、マスク座標と画像の対応づけのためにマスク座標に時間情報やフレーム番号を紐づけて通知するとしたが、代わりに画像にメタデータとしてマスク座標を挿入することで代用しても構わない。通知を受けたプロトコル処理部1001は、リバースプロキシ500に映像配信を行う。本実施例ではX−forwarded−forヘッダを利用することで中継することを明示した。しかし、そのほかにも、中継しているといった設定値の送信や、監視カメラ100の外部で画像解析を行うといった設定値やHTTPヘッダをプロトコル処理部1001から通知するなどしても構わない。最後にS8011において終了する。
映像解析部1005においても、映像生成部1003と同様に、リバースプロキシ500によって中継されたかどうかに応じて追尾処理を行うかどうかを切り替えても構わない。
In S8009, the video generation unit 1003 performs video encoding processing. After the encoding process of S8009, the video generation notification is sent to the protocol processing unit 1001 in S8010. Upon receiving the notification, the protocol processing unit 1001 delivers the video and the mask coordinates to the reverse proxy 500 when the request is relayed by the reverse proxy 500. On the other hand, if the request is not relayed by the reverse proxy 500, the video is delivered to the client device 200. In addition, as the information of the predetermined area, in order to associate the mask coordinates with the image, the time information and the frame number are associated with the mask coordinates and notified, but instead, the mask coordinates are inserted as metadata in the image instead. You may. Upon receiving the notification, the protocol processing unit 1001 distributes the video to the reverse proxy 500. In this embodiment, it is clarified that relaying is performed by using the X-forwarded-for header. However, in addition to this, the protocol processing unit 1001 may notify the setting value such as relaying, the setting value such as performing image analysis outside the surveillance camera 100, or the HTTP header. Finally, it ends in S8011.
Similarly to the video generation unit 1003, the video analysis unit 1005 may switch whether to perform the tracking process depending on whether or not the tracking process is relayed by the reverse proxy 500.

リバースプロキシ500に配信された映像は実施例1の図7の説明と同様にリバースプロキシ500によって、クライアント装置200へ中継される。中継時の処理、すなわち、リバースプロキシ500における映像受信時の処理は、S7006のマスク座標の取得を除き同じである。そのため実施例1と異なるS7006の処理について説明を行う。S7006のマスク座標の取得においては、映像処理部5003は、プロトコル処理部5001とカメラ制御5002を介して、監視カメラ100から送信されたマスク座標を用いる。その実現手段としては例えば映像に含まれるPTZの現在位置から取得してもよいし、時間情報や映像フレームの番号と画像との紐づけ情報から求めてもよい。 The video delivered to the reverse proxy 500 is relayed to the client device 200 by the reverse proxy 500 in the same manner as in FIG. 7 of the first embodiment. The processing at the time of relay, that is, the processing at the time of receiving video in the reverse proxy 500 is the same except for the acquisition of the mask coordinates of S7006. Therefore, the processing of S7006 different from that of the first embodiment will be described. In the acquisition of the mask coordinates of S7006, the video processing unit 5003 uses the mask coordinates transmitted from the surveillance camera 100 via the protocol processing unit 5001 and the camera control 5002. As a means for realizing this, for example, it may be acquired from the current position of the PTZ included in the video, or it may be obtained from the time information or the link information between the video frame number and the image.

(その他の実施例)
以上、本発明をその好適な実施例に基づいて詳述してきたが、本発明は上記実施形態に限定されるものではなく、本発明の主旨に基づき種々の変形が可能であり、それらを本発明の範囲から除外するものではない。例えば、監視カメラの代わりにWebサーバーを用いること、メタデータとして所定領域を隠すマスク領域、Q値を指定する指定領域、時刻や任意文字列を映像上に重畳する領域を用いても良い。
(Other Examples)
Although the present invention has been described in detail based on the preferred embodiments thereof, the present invention is not limited to the above-described embodiment, and various modifications can be made based on the gist of the present invention. It is not excluded from the scope of the invention. For example, a Web server may be used instead of the surveillance camera, a mask area for hiding a predetermined area as metadata, a designated area for specifying a Q value, and an area for superimposing a time or an arbitrary character string on an image may be used.

また、本実施形態における制御の一部または全部を上述した実施例の機能を実現するコンピュータプログラムをネットワーク又は各種記憶媒体を介して撮像装置に供給するようにしてもよい。そしてその撮像装置におけるコンピュータ(又はCPUやMPU等)がプログラムを読み出して実行するようにしてもよい。その場合、そのプログラム、及び該プログラムを記憶した記憶媒体は本発明を構成することとなる。 Further, a computer program that realizes a part or all of the control in the present embodiment to realize the functions of the above-described embodiment may be supplied to the image pickup apparatus via a network or various storage media. Then, the computer (or CPU, MPU, etc.) in the image pickup apparatus may read and execute the program. In that case, the program and the storage medium that stores the program constitute the present invention.

100 監視カメラ
200 クライアント装置
500 リバースプロキシ
1000 監視システム
1001 プロトコル処理部
1002 カメラ制御部
1003 映像生成部
1004 設定管理部
1005 映像解析部
5001 プロトコル処理部
5002 カメラ制御部
5003 映像処理部
5004 設定管理部
5005 映像解析部

100 Surveillance camera 200 Client device 500 Reverse proxy 1000 Surveillance system 1001 Protocol processing unit 1002 Camera control unit 1003 Video generation unit 1004 Setting management unit 1005 Video analysis unit 5001 Protocol processing unit 5002 Camera control unit 5003 Video processing unit 5004 Setting management unit 5005 Video Analysis department

Claims (11)

ネットワークを介して画像解析が可能な中継サーバーと通信する撮像装置であって、
前記中継サーバーに画像を送信する送信手段と、
撮像画像に対して所定の画像処理を行う第1の画像処理手段と、を有し、
前記送信手段は、前記第1の画像処理手段による前記画像処理の適用前の画像とともに、前記画像処理の適用後の画像のメタデータを送信することを特徴とする撮像装置。
An imaging device that communicates with a relay server capable of image analysis via a network.
A transmission means for transmitting an image to the relay server and
It has a first image processing means for performing predetermined image processing on a captured image, and has
The transmitting means is an image pickup apparatus that transmits metadata of an image after the application of the image processing together with an image before the application of the image processing by the first image processing means.
前記メタデータは、少なくとも、前記撮像画像の所定領域を隠蔽するマスクの設定、前記撮像画像上の指定領域のQ値の指定、および、文字列の表示の設定のいずれかを含むことを特徴とする請求項1に記載の撮像装置。 The metadata is characterized by including at least one of a mask setting for hiding a predetermined area of the captured image, a Q value designation of the designated area on the captured image, and a character string display setting. The imaging device according to claim 1. 請求項1又は2に記載の撮像装置と、前記撮像装置とネットワークを介して通信し、画像解析が可能な中継サーバーと、を含む撮像システム。 An imaging system including the imaging apparatus according to claim 1 or 2, and a relay server capable of communicating with the imaging apparatus via a network and performing image analysis. 前記中継サーバーは、MEC(Multi−access Edge Computing)のための中継サーバーであることを特徴とする請求項3に記載の撮像システム。 The imaging system according to claim 3, wherein the relay server is a relay server for MEC (Multi-access Edge Computing). 前記中継サーバーは、前記撮像装置から配信された撮像画像に対して、動体検出処理、顔検出処理、物体認識処理、および追尾処理の少なくともいずれかの前記画像解析の処理を行う解析手段を有することを特徴とする請求項3または4記載の撮像システム。 The relay server has an analysis means that performs at least one of the image analysis processing of motion detection processing, face detection processing, object recognition processing, and tracking processing on the captured image delivered from the imaging device. 3. The imaging system according to claim 3 or 4. 前記中継サーバーは、
クライアント装置から前記撮像装置へのリクエストを中継する中継手段と、
前記リクエストに含まれる設定値を管理する管理手段と、を備え、
前記管理手段は、前記リクエストの種類に応じて、前記設定値を記憶することを特徴とする請求項3乃至5のいずれか1項に記載の撮像システム。
The relay server
A relay means for relaying a request from the client device to the image pickup device, and
It is provided with a management means for managing the setting value included in the request.
The imaging system according to any one of claims 3 to 5, wherein the management means stores the set value according to the type of the request.
前記管理手段は、前記リクエストに少なくとも前記撮像画像の所定領域の設定値および追尾処理の設定値のいずれかが含まれる場合に、前記設定値を記憶することを特徴とする請求項6に記載の撮像システム。 6. The management means according to claim 6, wherein the management means stores the set value when at least one of the set value of the predetermined region of the captured image and the set value of the tracking process is included in the request. Imaging system. 前記中継サーバーは、前記撮像装置が有する、前記撮像画像の所定領域の情報を生成する生成手段によって生成された前記所定領域の情報に基づいて、前記撮像装置から配信された撮像画像の前記所定領域に画像を重畳する第2の画像処理手段を有することを特徴とする請求項3乃至7のいずれか1項に記載の撮像システム。 The relay server has the predetermined region of the captured image delivered from the imaging device based on the information of the predetermined region generated by the generation means for generating the information of the predetermined region of the captured image of the imaging device. The imaging system according to any one of claims 3 to 7, further comprising a second image processing means for superimposing an image on the image. ネットワークを介して画像解析が可能な中継サーバーと通信する撮像装置の制御方法であって、
前記中継サーバーに画像を送信する送信工程と、
撮像画像に対して所定の画像処理を行う第1の画像処理工程と、を含み、
前記送信工程は、前記第1の画像処理工程における前記画像処理の適用前の画像とともに、前記画像処理の適用後の画像のメタデータを送信することを特徴とする制御方法。
It is a control method of an image pickup device that communicates with a relay server capable of image analysis via a network.
The transmission process of transmitting an image to the relay server and
Including a first image processing step of performing predetermined image processing on a captured image,
The transmission step is a control method comprising transmitting metadata of an image after application of the image processing together with an image before application of the image processing in the first image processing step.
請求項9に記載の撮像装置の制御方法を、コンピュータに実行させるためのプログラム。 A program for causing a computer to execute the control method of the imaging device according to claim 9. 請求項10に記載のプログラムを記憶する、コンピュータで読み取り可能な記憶媒体。

A computer-readable storage medium for storing the program of claim 10.

JP2019197627A 2019-10-30 2019-10-30 Imaging device, imaging system, control method of imaging device, program, and recording medium Pending JP2021072521A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019197627A JP2021072521A (en) 2019-10-30 2019-10-30 Imaging device, imaging system, control method of imaging device, program, and recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019197627A JP2021072521A (en) 2019-10-30 2019-10-30 Imaging device, imaging system, control method of imaging device, program, and recording medium

Publications (1)

Publication Number Publication Date
JP2021072521A true JP2021072521A (en) 2021-05-06

Family

ID=75713723

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019197627A Pending JP2021072521A (en) 2019-10-30 2019-10-30 Imaging device, imaging system, control method of imaging device, program, and recording medium

Country Status (1)

Country Link
JP (1) JP2021072521A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20230168105A (en) * 2022-06-03 2023-12-12 주식회사 넷온 Edge Computing Apparatus that can De-identify Personal Information in Real Time

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20230168105A (en) * 2022-06-03 2023-12-12 주식회사 넷온 Edge Computing Apparatus that can De-identify Personal Information in Real Time
KR102628904B1 (en) * 2022-06-03 2024-01-24 주식회사 넷온 Edge Computing Apparatus that can De-identify Personal Information in Real Time

Similar Documents

Publication Publication Date Title
US20150222815A1 (en) Aligning videos representing different viewpoints
US20150244928A1 (en) Camera control method, and camera control device for same
JP2024019238A (en) Video monitoring method, video monitoring system, video monitoring terminal, information processing device and program
JP7056564B2 (en) Video processing equipment, video processing methods and programs
US20170324893A1 (en) Network system and control method for network system
SG185110A1 (en) Multiple-site drawn-image sharing apparatus, multiple-site drawn-image sharing system, method executed by multiple-site drawn-image sharing apparatus, program, and recording medium
US20200259880A1 (en) Data processing method and apparatus
US11064095B2 (en) Image displaying system, communication system, and method for image displaying
WO2016072121A1 (en) Image-capturing and video-image-distributing system for automatically or manually capturing image of user holding mobile communication terminal
JP2017529029A (en) Camera control and image streaming
WO2023020197A1 (en) Continuous processing method and system for multimedia content, and storage medium
JP2021072521A (en) Imaging device, imaging system, control method of imaging device, program, and recording medium
JP6809114B2 (en) Information processing equipment, image processing system, program
JP7328849B2 (en) IMAGING DEVICE, SYSTEM, CONTROL METHOD OF IMAGING DEVICE, AND PROGRAM
JP6261191B2 (en) Display control apparatus, display control method, and program
JP2019129466A (en) Video display device
KR20190077803A (en) System for requesting and delivering aerial photographic images at a specific location using an autonomous traveling drone
JP2021052325A (en) Image capture device, system, method for controlling image capture device, and program
KR101354438B1 (en) System for video monitoring based on mobile device and mehtod for mehtod of real-time streaming thereof
WO2019090473A1 (en) Display method and system for panoramic image, and processing method and ground station for panoramic image
JP7307643B2 (en) IMAGING DEVICE, SYSTEM, CONTROL METHOD OF IMAGING DEVICE, AND PROGRAM
JP7142543B2 (en) Image processing program, image processing apparatus, image processing system, and image processing method
KR102579511B1 (en) Video Surveillance Device and Driving Method Thereof, Video Surveillance System and Computer Readable Recording Medium
KR101380501B1 (en) System for video monitoring based on mobile device and mehtod for brodcasing recoded video thereof
KR102250873B1 (en) System and method for transmitting external image in security environment