JP2018107587A - Monitoring system - Google Patents
Monitoring system Download PDFInfo
- Publication number
- JP2018107587A JP2018107587A JP2016251098A JP2016251098A JP2018107587A JP 2018107587 A JP2018107587 A JP 2018107587A JP 2016251098 A JP2016251098 A JP 2016251098A JP 2016251098 A JP2016251098 A JP 2016251098A JP 2018107587 A JP2018107587 A JP 2018107587A
- Authority
- JP
- Japan
- Prior art keywords
- unit
- image
- request
- imaging device
- calculation result
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Abstract
Description
本開示は監視システムに関する。 The present disclosure relates to a monitoring system.
従来から、大型商業施設、イベント会場、空港、駅、道路といった不特定多数の人が訪れる施設には、事故防止等の目的で、映像監視システムが設置されている。これは、監視対象の人物等をカメラ等の撮像装置で撮影し、その映像を、管理事務所や警備室等の監視センタに伝送し、常駐する監視者がそれを監視し、目的や必要に応じて、注意するものである。 Conventionally, video surveillance systems have been installed in facilities visited by an unspecified number of people such as large commercial facilities, event venues, airports, stations, and roads for the purpose of preventing accidents. This is because a person to be monitored is photographed by an imaging device such as a camera, and the video is transmitted to a monitoring center such as a management office or a security room, and the resident supervisor monitors it, and the purpose and necessity Depending on what you are careful with.
このような背景から、監視者の労力を減らすための様々な機能を備える映像監視システムが普及しつつある。特に、近年では、映像中の特定の事象(イベント)の発生を、画像処理技術を用いてリアルタイムに自動検知する、ビッグデータに蓄積し特定の情報を検索するなど高度な機能を備えた映像監視システムが登場しつつある。ピンポイントの警戒だけではなく、蓄積データを活用したマーケティングや警備人員配置計画にも使われ始めている。 Against this background, video surveillance systems having various functions for reducing the labor of the supervisor are becoming widespread. In particular, in recent years, video surveillance with advanced functions such as automatic detection of real-time occurrences of specific events in video using image processing technology, search for specific information stored in big data, etc. A system is emerging. In addition to pinpoint alerts, it is also beginning to be used for marketing and security staffing plans using stored data.
年々システムは高機能化しているが、画像処理演算もより複雑化の一途をたどり、撮像装置台数規模も大規模化している。そのシステムを支える上で、画像処理演算の最適化は重要な課題となっている。 The system has become more sophisticated year by year, but the image processing operations are becoming more complicated and the number of image pickup devices is also increasing. In supporting such a system, optimization of image processing calculation is an important issue.
画像処理技術の発展・精度向上や、撮像装置解像度の飛躍的進化により、複数台の撮像装置からの画像処理演算をシステムで管理し、限られたシステムリソースでも最適な画像処理結果を出力する必要性がでてきた。
その他の課題と新規な特徴は、本明細書の記述および添付図面から明らかになるであろう。
It is necessary to manage the image processing operations from multiple imaging devices by the system and to output the optimal image processing results even with limited system resources due to the development and improvement of image processing technology and the dramatic evolution of imaging device resolution. Sex came out.
Other problems and novel features will become apparent from the description of the specification and the accompanying drawings.
本開示のうち、代表的なものの概要を簡単に説明すれば、下記のとおりである。
すなわち、監視システムは、(a)撮像した画像を送信する画像送信部と、要求を受信する要求受信部と、前記要求を撮像装置方向に適用するためのモーター制御部と、前記要求を撮像装置画角に適用するための画角制御部と、有する撮像装置と、(b)前記撮像装置からの画像を用いて演算を実施する画像処理演算部と、前記画像処理部の演算結果を蓄積するデータベース部と、前記データベースに蓄積される前記演算結果を空間的および時間的に解析するシステム運用支援部と、前記システム運用支援部の解析結果に基づき前記撮像装置に前記要求を送信する要求送信部と、を有するサーバ装置と、を備える。
The outline of a representative one of the present disclosure will be briefly described as follows.
That is, the monitoring system includes: (a) an image transmission unit that transmits a captured image; a request reception unit that receives a request; a motor control unit that applies the request in the direction of the imaging device; An angle-of-view control unit for application to an angle of view; an imaging device having the angle; an image processing calculation unit that performs an operation using an image from the imaging device; and an operation result of the image processing unit is accumulated. A database unit, a system operation support unit that spatially and temporally analyzes the calculation result stored in the database, and a request transmission unit that transmits the request to the imaging device based on the analysis result of the system operation support unit And a server device.
上記監視システムによれば、画像処理を効率的に行うことができる。 According to the monitoring system, image processing can be performed efficiently.
実施形態に係る監視システムは、撮像装置から得られる画像処理情報を空間的にとらえることや、それを時間軸で分析することによって、すなわち、監視カメラ等から複数の画像処理で演算した結果を空間・時間の両面で統合的に活用することにより、監視システムにおける画像処理効率の最適化、各カメラの運用の最適化をはかるものである。 The monitoring system according to the embodiment spatially captures the image processing information obtained from the imaging device and analyzes it on the time axis, that is, the result of the calculation performed by the plurality of image processing from the monitoring camera or the like. -By integrating the use of both aspects of time, the image processing efficiency in the surveillance system and the operation of each camera will be optimized.
実施形態に係る監視システムは、撮像装置、端末装置、サーバ装置を備える。端末装置にはソフトウェアアプリケーションが実装され、キーボード・マウス等の外部入力デバイスにより操作され、ディスプレイ等の外部出力デバイス上に表示される。撮像装置は制御命令を受信可能なカメラ等で構成される。端末装置と外部入力デバイス間のやり取りは画面操作検知部が受け持つ。サーバ装置は監視システムを統括管理する。 The monitoring system according to the embodiment includes an imaging device, a terminal device, and a server device. A software application is installed in the terminal device, and is operated by an external input device such as a keyboard / mouse and displayed on an external output device such as a display. The imaging device includes a camera that can receive a control command. The screen operation detection unit handles the exchange between the terminal device and the external input device. The server device manages the monitoring system.
撮像装置は、撮像した映像を送信する画像送信部、サーバ装置からの要求を受信する要求受信部、要求内容を撮像装置方向に適用するためのモーター制御部、要求内容を撮像装置画角に適用するための画角制御部を備える。 The imaging device includes an image transmission unit that transmits the captured video, a request reception unit that receives a request from the server device, a motor control unit that applies the requested content in the direction of the imaging device, and applies the requested content to the angle of view of the imaging device An angle-of-view control unit.
端末装置の、アプリケーションは大きく二つの機能に分かれ、一つは撮像対象空間を電子地図データとして表現したエリアマップ上で撮像装置からのイベント発生情報を視覚的に把握する機能であり、もう一つは、各撮像装置・エリアにおける発生イベントの頻度情報を視覚的に把握する機能である。 The application of the terminal device is roughly divided into two functions, one is a function to visually grasp event occurrence information from the imaging device on an area map that represents the imaging target space as electronic map data, and the other is This is a function for visually grasping frequency information of occurrence events in each imaging device / area.
サーバ装置は、撮像装置からの映像を受信する画像受信部、その画像を用いて演算を実施する画像処理演算部、前述の撮像装置の画面内座標とエリアマップ内座標の関連性及び画像処理演算結果を蓄積するデータベース部と、その管理を司るデータベース管理部、データベースを分析し映像監視システムを最適運用させるためのシステム運用支援部、その結果に基づき撮像装置に要求を投げる要求送信部、監視システム構成要素の設定等を統合管理するシステム統合管理部を備える。 The server device includes an image receiving unit that receives a video from the imaging device, an image processing calculation unit that performs an operation using the image, a relationship between the coordinates in the screen of the imaging device and the coordinates in the area map, and an image processing calculation result A database unit that stores data, a database management unit that manages the database, a system operation support unit that analyzes the database and optimally operates the video surveillance system, a request transmission unit that sends a request to the imaging device based on the result, and a monitoring system configuration A system integrated management unit that integrates and manages element settings and the like is provided.
実施形態によれば、複数種の画像解析から各特徴を統合的に分析し、十分でないカメラ台数のシステムにおいても、人手でやるよりはるかに有効なカメラ運用が可能になる。さらには、時間軸での分析を行うことにより、時間帯によってカメラの画像処理実施内容を変更し、リソースの最適配分も可能になる。例えば、搭載された画像処理の側面を考え、入退検知処理は建屋の入口、混雑判定処理は狭まった通路といった具合に適用することにより、システム内の全撮像装置それぞれが、搭載された全種類の画像処理を実施し、それを統合処理するのではないので、システム的制約を低減することができる。また、単純に人のノウハウだけで配置を決めるものではないので、機会の損失を低減させ、監視システムを最適運用することができる。 According to the embodiment, each feature is analyzed in an integrated manner from a plurality of types of image analysis, and even in a system with an insufficient number of cameras, camera operation that is much more effective than manual operation is possible. Furthermore, by performing analysis on the time axis, it is possible to change the contents of the image processing performed by the camera according to the time zone, and to perform optimal resource allocation. For example, considering the aspect of installed image processing, all the imaging devices in the system are all installed by applying entrance / exit detection processing to the entrance of a building, congestion judgment processing to a narrow passage, etc. Since the image processing is not performed and the integrated processing is not performed, system constraints can be reduced. Also, since the arrangement is not simply determined by human know-how, the loss of opportunity can be reduced and the monitoring system can be optimally operated.
実施形態は、特定人物検知(例えば、特開2012−124658号公報(参考文献1))、特定物体検索(例えば、特開2015−032133号公報(参考文献2))など他の画像処理検知・検索システムを本監視システムに組み合わせた場合において、イベント発生頻度の空間的・時間的分析によって、画角内の人物数や物体・行動数も増え、カメラ画角固定・機能固定で運用しているより効果的な運用が可能になる。これにより、設置カメラ台数の削減、監視労力の削減だけでなく、システム活用機会の増加、イベント検知率の向上につながる。 In the embodiment, a specific person detection (for example, JP 2012-124658 A (reference document 1)), a specific object search (for example, JP 2015-032133 (reference document 2)), and other image processing detection / When the search system is combined with this monitoring system, the number of people, objects, and actions in the field of view increases due to spatial and temporal analysis of the event occurrence frequency, and the camera is operated with fixed camera angle of view and functions. More effective operation becomes possible. This not only reduces the number of installed cameras and the monitoring effort, but also increases the system utilization opportunities and improves the event detection rate.
また、実施形態は3次元エリア情報とカメラ情報が統合管理されている状況下で活用することが望ましい。 In addition, it is desirable to use the embodiment in a situation where 3D area information and camera information are integrated and managed.
以下、実施例について、図面を用いて説明する。ただし、以下の説明において、同一構成要素には同一符号を付し繰り返しの説明を省略することがある。 Examples will be described below with reference to the drawings. However, in the following description, the same components may be denoted by the same reference numerals and repeated description may be omitted.
まず、実施例に係る監視システムの構成いついて図1を用いて説明する。監視システムは、ネットワーク100に、撮像装置101、サーバ装置201、端末装置301が接続され、互いに通信可能な状態で構成される。ネットワーク100は、データ通信を行う専用ネットワークやイントラネット、インターネット、無線LAN(Local Area Network)等のように各装置を相互に接続して通信を行う通信手段である。さらに、端末装置301には、外部入力デバイス401、外部出力デバイス402が接続される。撮像装置101、サーバ装置201、端末装置301については、各々複数装置が接続可能である。
First, the configuration of the monitoring system according to the embodiment will be described with reference to FIG. The monitoring system is configured such that an
撮像装置101は画像送信部102、要求受信部103、画角制御部104、モーター制御部105を備え、CCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)素子等の撮像部で被写体を撮像し、撮像した画像にデジタル変換処理を施し、変換された画像データを、ネットワーク100を介して録画装置へ出力するネットワークカメラや監視カメラ等の装置である。
The
画像送信部102は撮像された画像データの装置外部への出力を行う処理部である。要求受信部103は装置外部からの要求命令を受信し、その内容を解読、装置内各処理部に伝達する処理部である。画角制御部104は、要求に応じて画角(パン・チルト・魚眼カメラの平面・立面展開後の切り出し領域)を変更適用する処理部である。モーター制御部105は、要求に応じて撮像装置高さ、向き(ヨー・ピッチ・ロール)を変更適用する処理部である。
The
サーバ装置201は、画像受信部202、システム運用支援部203、要求送信部204、システム統合管理部205、画像処理演算部206、データベース部207、データベース管理部208の各処理部を備える。
The
画像受信部202は装置外部からの画像入力を行う処理部であり、例えばネットワーク100を介して撮像装置101からの入力画像データの受信を行う。システム運用支援部203はデータベース部207からの各画像処理結果を空間的・時間的に解析し、その情報よりシステム内の複数の撮像装置101の各撮像装置に対して、画角・撮像装置の向き・その他撮像装置のパラメータのへの命令処理内容の作成を行う処理部である。要求送信部204はシステム運用支援部203で作成された命令内容の撮像装置への送信を行う処理部である。システム統合管理部205はネットワーク構成、各種プロセス設定等、システム全体の設定要素の管理部である。画像処理演算部206は受信画像について各種の画像処理演算を行う部分である。データベース部207は画像データや画像処理演算結果を位置情報・時刻情報等と紐(関連)づけて格納(記憶)する部分である。データベース管理部208はデータベース部207と端末装置301との間でのデータ入出力管理を行う処理部である。
The
端末装置301上に例えばクライアントソフトウェアとして実装されるアプリは、エリアマップ表示部302、カメラ映像表示部305、画像受信部306、画像要求部307、演算結果要求部308、演算結果受信部309、演算結果表示部310、画面操作検知部312の各処理部よりなる。
For example, an application implemented as client software on the
エリアマップ表示部302はデータベース部207より読み込んだエリアマップをGUI(Graphical User Interface)アプリケーション上に表示する処理部である。カメラ映像表示部305は画像受信部306で受信した画像をGUIアプリケーション上に表示する処理部である。画像受信部306は、サーバ装置201の画像受信部202と同種の機能をもつ処理部であり、ネットワーク100を介して撮像装置101等からの画像入力を行う処理部である。画像要求部307は装置外部へ画像出力を要求する処理部であり、撮像装置101へ画像データを要求する。演算結果要求部308は、ネットワーク100を介して、データベース管理部208に所定の条件(場所・時間等であり、幅を持って連続または断続指定が可能である。)を指定して所定の検索要求を行う処理部である。演算結果受信部309はその要求に応じた演算結果をデータベース部207から取得する処理部である。演算結果表示部310は取得した演算結果をGUIアプリケーション上にグラフィカル表示する処理部である。取得した複数種の演算結果についてのレイヤ管理が可能である。画面操作検知部312は外部入力デバイス401による操作の受け付けを行う処理部である。
The area
外部入力デバイス401はキーボードやポインティングデバイス(マウス)等で構成される。外部出力デバイス402はディスプレイ等で構成される。
The
サーバ装置201、端末装置301は、ネットワーク機能を有する一般のPC(パーソナルコンピュータ)で実現してもよいし、専用の高性能端末でもよい。本構成では、常時駆動が要求される負荷の高い処理はサーバ装置201、グラフィカルな要素を要する機能は端末装置301と負荷分散しているが、構成はこの限りではなく同一装置内で実現してもよい。
The
次に、監視システムの運用の流れについて図2Aおよび図2Bを用いて説明する。図2Aは実施例に係る監視システムの動作を説明するためのフローチャートである。図2Bは図2AのAおよびBの部分のフローチャートである。 Next, the operation flow of the monitoring system will be described with reference to FIGS. 2A and 2B. FIG. 2A is a flowchart for explaining the operation of the monitoring system according to the embodiment. FIG. 2B is a flowchart of portions A and B of FIG. 2A.
ステップS10:運用開始前に、各種装置接続を行う。 Step S10: Connect various devices before starting operation.
ステップS21:まずサーバ装置201は初期設定として、ネットワーク構成、各種プロセス設定、カメラ位置とエリアマップ間の対応付け情報等をシステム統合管理部205に設定する。カメラ位置とエリアマップ間の対応付けについては、後述する。
Step S21: First, the
次に、実運用時の動作を説明する。 Next, the operation during actual operation will be described.
ステップS11:まず、撮像装置101は撮像部で撮影した画像データ106を画像送信部102からネットワーク100を介して、サーバ装置201の画像受信部202に送信する。
Step S11: First, the
ステップS22:サーバ装置201の画像受信部202は撮像装置101の撮像部が撮像した画像データ106を受信する。
Step S22: The
ステップS23:画像処理演算部206は、画像受信部202が受信した画像データ106に対して所定の画像処理演算を行って解析し、演算結果(解析結果)をデータベース部207に出力する。
Step S <b> 23: The image
ステップS24:データベース部207は、演算結果を画像データ106と紐付けて記憶(格納)する。ここで、画像処理演算部206は画像種ごとに複数個用意され、全ての演算結果がデータベース部207に集約される。
Step S24: The
サーバ装置201は、この処理を繰り返して、エリア内位置情報(A)、測定時間(T)、画像処理種(K)、画像処理演算値(V)をデータベース部207に蓄積していく。ここで、エリア内位置情報(A)は、XYZ空間座標で表現できる点情報、座標点の複合により表現できる面情報、角度情報と組み合わせたベクトルデータ情報など様々な場合を想定する。
The
ステップS25:システム運用支援部203は、データベース部207のデータベース情報である画像処理結果を、空間情報と時間情報から統合的に演算処理する、各撮像装置についての最適運用演算を行う。具体例を以下に説明する。
Step S25: The system
画像処理種の具体的機能として、以下の機能が監視システムに実装されている。
(1)顔検知:撮像装置画角内から人物の顔領域を矩形情報として検出する。
(2)特定人物検知:あらかじめ装置に登録した人物と一致する人物を撮像装置画角内から検出する。(参考文献1)
(3)滞留検知:撮像画角内各点から物体の滞留度合いを検出する。
(4)人流検知:撮影画角内での物体の流量の度合い、ベクトルを検出する。
(5)放置物検知:撮影画角内に放置された物体を検出する。
(6)特定行動検知:撮影画角内から人物等が倒れる、争うなどの特定行動を検出する。
As specific functions of image processing types, the following functions are implemented in the monitoring system.
(1) Face detection: A face area of a person is detected as rectangular information from within the angle of view of the imaging device.
(2) Specific person detection: A person who matches the person registered in advance in the apparatus is detected from within the angle of view of the imaging apparatus. (Reference 1)
(3) Stay detection: The degree of stay of an object is detected from each point within the imaging angle of view.
(4) Human flow detection: detecting the degree and vector of the flow rate of an object within the shooting angle of view.
(5) Abandoned object detection: Detects an object left in the shooting angle of view.
(6) Specific action detection: Detects a specific action such as a person falling or fighting from within the shooting angle of view.
この中で、「顔検知(1)」「滞留検知(3)」「人流検知(4)」は基礎的な画像処理であり、その情報の上に「特定人物顔検知(2)」「放置物検知(5)」「特定行動検知(6)」といった応用的な画像処理が成り立つといった関係にある。運用の流れは次の通りである。 Among these, “face detection (1)”, “stagnation detection (3)”, “human flow detection (4)” are basic image processing, and “specific person face detection (2)” “leaving” is left on the information. There is a relation that applied image processing such as object detection (5) and specific action detection (6) is established. The operational flow is as follows.
ステップS26:サーバ装置201は、応用的な画像処理からの処理結果を、システム運用支援部203にフィードバックする。最適な画角情報等のフィードバック情報は、要求(209)として要求送信部204を介し、撮像装置101に送られる。
Step S26: The
ステップS12:撮像装置101の要求受信部103は、サーバ装置201から要求が(209)あるかどうかを判断する。YESの場合、ステップS13に移り、NOの場合、ステップS11に戻る。
Step S12: The
ステップS13:撮像装置101は要求受信部103で要求内容を解読する。
Step S13: The
ステップS14:撮像装置101は、さらに、撮像装置の物理的位置に関する要求をモーター制御部105へ、画角や映像設定などに関する要求を画角制御部104へ伝達し、モーター制御部105および画角制御部104の各々の処理部は撮像装置101を制御する。これで、撮像装置101の運用が最適化され、それにより基礎的な画像処理のイベント検知機会が増え、さらに応用的な画像処理のイベント検知機会が増えるといった関係にもある。
Step S14: The
具体的状況として、例えば、図3に示すように、システムが対象とする建屋内に複数台のパンチルトズーム対応の撮像装置101aや魚眼撮像装置101bを設置する。平日が、朝の時間帯は建屋入口から建屋中央部に向かっての人の流れが多く、昼の時間帯は人通りが少なく、夕方の時間帯は建屋中央部から建屋入口に向かっての人の流れが多い。休日は常に人通りが少ない、といった特徴があるとする。
As a specific situation, for example, as shown in FIG. 3, a plurality of pan-tilt-zoom
システム運用開始時は上記特徴がわからないことが多い。さらに、長期間運用しないとわかりえない情報もある。 The above features are often unknown at the start of system operation. In addition, there is information that cannot be understood unless it is operated for a long time.
この状況でシステム運用を始めることにより、「顔検知(1)」「滞留検知(3)」「人流検知(4)」のような基礎的な画像処理から、各画像処理によるイベント発生の頻出ポイントがわかる。その解析結果に基づいて、下記(a)〜(d)等により、検知機会を増やす運用が可能となる。
(a)滞留検知(3)の度数が高いエリアに、周辺の撮像装置101aの画角を向ける。
(b)対象のエリアにある撮像装置101aに対して、4K、8Kといった高解像度で運用する。
(c)人流検知(4)より検出された人流ベクトルの方向に撮像装置101aの画角を合わせる。ことで、顔検知(1)の機会を増やす。
(d)魚眼撮像装置101bの撮像映像の展開画角について、通常運用時は平面に展開して、平面画角(天井から見下ろした画角)が適している滞留検知(3)で運用し、立面での撮像が適している人流検知(4)の発生頻度の高い時間帯・場所においては、立面に展開して画像処理する。
By starting system operation in this situation, frequent occurrence points of events by each image processing from basic image processing such as “face detection (1)”, “stay detection (3)”, “human flow detection (4)” I understand. Based on the analysis results, the following (a) to (d) can be used to increase the detection opportunities.
(A) The angle of view of the surrounding
(B) The
(C) Human flow detection The angle of view of the
(D) The developed view angle of the picked-up image of the fish-eye
さらに、時間的解析により、下記(e)〜(g)等の運用もすることができ、処理負荷の分散、運用費の低減にもつながる。
(e)朝と夕方で撮像装置101aの画角を人流方向に回転させる
(f)人流密度の高い平日朝夕は、特に密度の高いエリアにおいて周辺の撮像装置101aの解像度を高くする
(g)人流密度の低い休日や昼間は撮像装置運用を最低限にする(全体は魚眼撮像装置101bでカバー)
これによって、「特定人物顔検知(2)」「放置物検知(5)」「特定行動検知(6)」といった応用的な画像処理の検出機会も増えることが期待できる。各検知イベントが頻出した地点、時間帯をシステム運用支援部203にフィードバックすることにより、その地点を重点的に撮像する撮像装置画角に変えることで、さらに応用的な画像処理の検出機会も増えることも期待できる。
Furthermore, the following (e) to (g) can be operated by temporal analysis, which leads to distribution of processing load and reduction of operation costs.
(E) Rotating the angle of view of the
As a result, it is expected that opportunities for detection of applied image processing such as “specific human face detection (2)”, “left object detection (5)”, and “specific behavior detection (6)” will increase. By feeding back to the system
以下、サーバ装置201と端末装置301間の実運用時の動作について図2Aおよび図2Bを用いて説明する。
Hereinafter, operations during actual operation between the
ステップS31:端末装置301に実装されたアプリケーションによる実現方法の一例を下記する。GUIアプリケーション上の、エリアマップ表示部302には、すでにカメラ設置座標が登録されているものとする。撮像装置101の各々のカメラ設置座標とカメラIPアドレスを紐づけた情報は、サーバ装置201のデータベース部207に格納されているものとする。エリアマップ上のカメラ座標点をマウスクリック押下(カメラ映像表示要求ありと)すると、対応するカメラ映像がカメラ映像表示部305に表示される。その仕組みとして、カメラ座標点をクリックすると端末装置301の演算結果要求部308はサーバ装置201のデータベース管理部208に該当する座標位置のカメラIPアドレスを問い、データベース部207に格納のアドレスを端末装置301の演算結果受信部309に返送する。
Step S31: An example of an implementation method using an application installed in the
ステップS32:そして、画像要求部307は、ネットワーク100を介して演算結果受信部309が受信したIPアドレスの撮像装置101に画像データを要求(画像要求(303)を送信)する。
Step S32: The
ステップS15:画像要求(303)を受信した撮像装置101の要求受信部103は、端末装置301から画像要求(303)があるかどうかを判定する。YESの場合、撮像装置101の撮像部が撮影した画像データを画像送信部102に送り、ステップS16に移る。NOの場合、ステップS11に戻る。
Step S15: Upon receiving the image request (303), the
ステップS16:画像送信部102は、ネットワーク100を介して撮像装置101の撮像部が撮影した画像データ(107)を端末装置301の画像受信部306に送信する。
Step S <b> 16: The
ステップS33:画像受信部306は、撮像装置101の画像送信部102から送られる画像107を受け取る(撮影画像を受信する)と、カメラ映像表示部305に送る。
Step S33: The
ステップS34:カメラ映像表示部305は画像107を外部出力デバイス402のディスプレイに表示する(カメラ画像表示)。これを繰り返すことで連続的な映像(動画)となる。
Step S34: The camera
ステップS35:また、エリアマップ上にはサーバ装置201による各種画像処理演算結果を重畳表示することができる。そのためには、端末装置301は演算結果要求があるかどうかを判断する。YESの場合、ステップS36に移り、NOの場合、ステップS31またはステップS35に戻る。
Step S35: Also, various image processing calculation results by the
ステップS36:演算結果要求部308はサーバ装置201のデータベース管理部208に特定条件(場所・時間)を指定した演算結果要求(304)を送信する。
Step S36: The calculation
ステップS27:データベース管理部208は端末装置301から演算結果要求があるかどうかを判断する。YESの場合、ステップS28に移り、NOの場合、ステップS28に戻る。
Step S27: The
ステップS28:データベース管理部208はデータベース部207から該当演算結果を検索絞り込みしたものを読み出し、端末装置301の演算結果受信部309に返す(該演算結果送信)。
Step S <b> 28: The
ステップS37:端末装置301は、演算結果(108)を演算結果受信部309で受信すると、その結果を用いて、演算結果表示部310が、エリアマップ上に重畳表示(演算結果表示)する。
Step S37: When the calculation result (108) is received by the calculation
表示には、短期的表示と長期的表示の2種類を有する。短期的表示は、現在時刻よりたとえば数分前までのイベント発生情報がエリア上に表現される。イベント発生はアイコン表示し、その選択により、該当時間の映像を、録画機能を有する撮像装置101に要求し、再生することができる機能を有する。イベント発生ポイントに人員を発動させるなどに活用することができる。
There are two types of display: short-term display and long-term display. In the short-term display, event occurrence information up to several minutes before the current time is expressed on the area. When an event occurs, an icon is displayed, and by selecting the event, the
また、長期的表示は、表示したい期間を絞り込む(連続・断続両方可能)ことにより、その期間中に発生した各イベントの頻度情報を表示し、イベント発生が多い地点を視覚的に把握する機能である。さらに、各イベントはレイヤ管理されており、オンオフ切り替えによりエリア上への重畳の組合せを自由に変えることができ、分析に役立てることができる。これは、建屋内の人物配置計画などに活用できる。 The long-term display is a function that displays the frequency information of each event that occurred during that period by narrowing down the period you want to display (both continuous and intermittent), and visually grasp the locations where events occur frequently. is there. Furthermore, each event is layer-managed, and the combination of superimposing on the area can be freely changed by on / off switching, which can be used for analysis. This can be used for a person arrangement plan in a building.
次に、カメラ画像とエリアマップ間の測定点と矩形の対応付けについて図4〜図8を用いて説明する。図4は実施例に係る端末装置の動作を説明するためのフローチャートである。図5は実施例に係る端末装置の座標対応付け画面を説明するための図である。 Next, the correspondence between the measurement point and the rectangle between the camera image and the area map will be described with reference to FIGS. FIG. 4 is a flowchart for explaining the operation of the terminal device according to the embodiment. FIG. 5 is a diagram for explaining a coordinate association screen of the terminal device according to the embodiment.
ステップS311:端末装置301は、実装されているGUIのアプリケーションを起動する。
Step S311: The
ステップS312:エリアマップ表示部302の機能を用いて、図5の座標対応付け画面4001にエリアマップ2302を表示する。エリアマップ2302は、線分から構成され、各々の線分とマップ内座標には高さ情報が紐(関連)づけられている。
Step S312: The
ステップS313:端末装置301は、図5において、エリアマップ2302のカメラ座標点にカメラアイコン4020を重畳し、カメラアイコン4020を外部入力デバイス401のマウスでクリックすることで撮像装置101のIPアドレス(カメラIPアドレス)を取得する。
Step S313: In FIG. 5, the
端末装置301は、カメラIPアドレスを取得後、カメラ画角内測定点と矩形をエリアマップに対応付けを行うフェーズに移る。
After acquiring the camera IP address, the
ステップS314:端末装置301は、エリアマップ2302内の対応付けカメラを選択(測定点・矩形付与カメラ選択)する。演算結果要求部308がカメラ映像をカメラ映像表示部305に表示させるため、画面操作検知部312が検知したカメラ座標点に該当する撮像装置101のIPアドレスをサーバ装置201のデータベース管理部208へ要求する。データベース管理部208は、データベース部207に格納(記憶)しているIPアドレスを読み出して端末装置301の演算結果受信部309に返送する。
Step S314: The
ステップS315:そして、画像要求部307は、ネットワーク100を介して画像要求(303)を演算結果受信部309が受信したIPアドレスの撮像装置101に要求する。
Step S315: The
ステップS316:画像要求(303)を受信した撮像装置101の要求受信部103は、端末装置301から画像要求(303)ありと判定し(S15)、撮像装置101の撮像部が撮影した画像データを画像送信部102に送る。画像送信部102は、ネットワーク100を介して撮像装置101の撮像部が撮影した画像データ(107)を端末装置301の画像受信部306に送信する。
Step S316: Upon receiving the image request (303), the
ステップS317:端末装置301の画像受信部306は、画像データ(107)を受信すると、カメラ映像表示部305に送る。カメラ映像表示部305は、画像データ(107)(要求した時点での静止フレーム)を表示する。
Step S317: Upon receiving the image data (107), the
次に、実施例に係る端末装置のエリアマップ調整部と3次元(3D)処理部について図4と図6を用いて動作を説明する。図6は実施例に係る端末装置のエリアマップ調整部と3D処理部を説明するための図である。 Next, operations of the area map adjustment unit and the three-dimensional (3D) processing unit of the terminal device according to the embodiment will be described with reference to FIGS. 4 and 6. FIG. 6 is a diagram for explaining the area map adjustment unit and the 3D processing unit of the terminal device according to the embodiment.
ステップS318:端末装置301は、図6のエリアマップ2302上の領域5011が領域選択する。
Step S318: The
ステップS319:端末装置301は、操作群5010に対する外部入力デバイス401のマウス等の操作に従いエリアマップ調整部303がエリアマップの拡大、縮小、回転、切り出しを平面領域5100に対して実施する(平面領域変形)。
Step S319: In the
ステップS320:次に、端末装置301の3D処理部(不図示)は、2次元平面で表現されたエリアマップ5100を3次元表示するため、領域立体化を実施する。
Step S320: Next, a 3D processing unit (not shown) of the
ステップS321:端末装置301の3D処理部は、その調整(立体領域変形・調整)を実施する。
Step S321: The 3D processing unit of the
ステップS322:端末装置301の3D処理部は、例えば、パン・チルト、ヨー・ピッチ・ロールの調整ボタン(操作群)5020などの操作に従い、3D化したエリアマップ(5101)をカメラ画像に近づけるためのフィッティングを行う。
Step S322: For example, the 3D processing unit of the
次に、実施例に係る端末装置の測定点と矩形の付与について図4と図7を用いて説明する。図7は実施例に係る端末装置の測定点と矩形の付与を説明するための座標対応付け画面の図である。 Next, provision of measurement points and rectangles of the terminal device according to the embodiment will be described with reference to FIGS. 4 and 7. FIG. 7 is a diagram of a coordinate association screen for explaining the provision of measurement points and rectangles of the terminal device according to the embodiment.
図7において、端末装置301は、立体の特定区画における立体エリアマップ上に、カメラ画像をフローティング6001、半透明表示させ、フィッティング3008を実施する。
In FIG. 7, the
ステップS323:端末装置301は、フィッティング完了後、カメラ画像上における測定点・矩形を立体エリアマップ上に描画(測定点・矩形付与)する。
Step S323: After the fitting is completed, the
ステップS324:端末装置301は、幾何学演算により描画結果を平面エリアマップ上へ落とす(床面投射)。
Step S324: The
端末装置301は、例えば、測定点・矩形描画を実現するため、座標対応付け画面4001上に測定点アイコン4002や測定矩形アイコン4003が用意され、測定点アイコン4002が外部入力デバイス401のマウスでクリックされ、その後にエリアマップ上で再度クリックされると測定点6002を確定し、測定矩形アイコン4003がマウスクリック後にエリアマップ上で閉じた矩形が描写6003されると測定矩形を確定する。
For example, the
次に、実施例に係る端末装置の測定点と矩形の平面エリア上の描画(床面投射)について図8を用いて説明する。図8は実施例に係る端末装置の測定点と矩形の平面エリア上の描画について説明するための図であり、図8(A)は立体エリアマップ、図8(B)は平面エリアマップ、図8(C)は床面投影である。 Next, measurement points and drawing on the rectangular plane area (floor projection) of the terminal device according to the embodiment will be described with reference to FIG. 8A and 8B are diagrams for explaining the measurement points of the terminal device according to the embodiment and the drawing on the rectangular planar area. FIG. 8A is a three-dimensional area map, FIG. 8B is a planar area map, and FIG. C) is a floor projection.
図8において、端末装置301は、例えば、図8(A)の立体エリアマップ上で描画した点・矩形が、図8(C)のカメラ焦点距離の垂直平面7002に描かれた場合に、撮像装置101のレンズ中心と各点を結んだ線7004を床面まで伸ばしたときに床と交差した各点7007を平面エリアマップ上に投射する。図8ではカメラ奥行方向をイメージしているが、左右方向について同様に実施する。
In FIG. 8, for example, the
端末装置301は、座標情報が確定後、座標情報送信部311からサーバ装置201へ座標情報(311)を送信する。
After the coordinate information is confirmed, the
サーバ装置201のデータベース部207は、受信した座標情報(311)を格納(記憶)する。
The
次に、実施例に係る端末装置のカメラ画像とエリアマップ間の座標対応付けの幾何学計算概念について図9を用いて説明する。図9は実施例に係る端末装置のカメラ画像とエリアマップ間の座標対応付けの幾何学計算概念を説明するための図であり、図9(A)はカメラ画像、図9(B)は床面投影である。 Next, a geometric calculation concept of coordinate association between the camera image and the area map of the terminal device according to the embodiment will be described with reference to FIG. 9A and 9B are diagrams for explaining a geometric calculation concept of coordinate correspondence between the camera image and the area map of the terminal device according to the embodiment. FIG. 9A is a camera image, and FIG. 9B is a floor surface. It is a projection.
図9において、端末装置301は、フィッティング時、撮像装置101のレンズ中心点から鉛直に伸びる垂線ベクトル角8007から、エリアマップ基準ベクトル角8008に対するヨー・ピッチ・ロール角、レンズの左下点・右下点に対応する各々の床面点間距離8006から、パン・チルトの度合いも自動幾何学計算し、サーバ装置201のデータベース部207に送信する。
In FIG. 9, the
サーバ装置201のデータベース部207は、受信したパン・チルトの度合いを格納(記憶)する。
The
実施例を監視システムに適用し運用することで、システム全体の高効率制御をすることができる。 By applying the embodiment to the monitoring system and operating it, high-efficiency control of the entire system can be performed.
実施例に係る監視システムにおいて、撮像装置、端末装置、サーバ装置が協調動作し、撮像装置画像による画像処理演算結果を空間情報と時間情報の両面から解析し、システム内の撮像装置にフィードバックすることにより、撮像装置内での画像処理におけるイベント発生機会を向上することができ、システム運用の高効率化が可能になる。 In the monitoring system according to the embodiment, the imaging device, the terminal device, and the server device operate cooperatively, analyze the image processing calculation result based on the imaging device image from both the spatial information and the time information, and feed back to the imaging device in the system. As a result, an event occurrence opportunity in image processing within the imaging apparatus can be improved, and the efficiency of system operation can be improved.
実施例に係る監視システムにおいて、撮像装置による画像処理間での各演算結果が協調しあうことにより、それぞれの画像処理におけるイベント発生機会を相乗的に向上させることができる。 In the monitoring system according to the embodiment, each calculation result between the image processes performed by the imaging apparatus cooperates to synergistically improve an event occurrence opportunity in each image process.
実施例に係る監視システムにおいて撮像装置画像による画像処理演算結果を監視エリアマップ上に対応させ、エリアマップ上で、短期的、または長期的な、各画像処理演算結果をグラフィカルに表示することにより、監視エリア内の人員発動や、人員配置計画などに利用することができる。 In the monitoring system according to the embodiment, the image processing calculation result by the imaging device image is made to correspond to the monitoring area map, and the short-term or long-term image processing calculation result is graphically displayed on the area map, thereby It can be used for internal personnel activation and personnel allocation planning.
以上、本発明者によってなされた発明を実施形態および実施例に基づき具体的に説明したが、本発明は、上記実施形態および実施例に限定されるものではなく、種々変更可能であることはいうまでもない。 Although the invention made by the present inventor has been specifically described based on the embodiments and examples, the present invention is not limited to the above-described embodiments and examples, and various modifications can be made. Not too long.
100…ネットワーク、101…撮像装置、102…画像送信部、103…要求受信部、104…画角制御部、105…モーター制御部、201…サーバ装置、202…画像受信部、203…システム運用支援部、204…要求送信部、205…システム統合管理部、206…画像処理演算部、207…データベース部、208…データベース管理部、301…端末装置、302…エリアマップ表示部、305…カメラ映像表示部、306…画像受信部、307…画像要求部、308…演算結果要求部、309…演算結果受信部、310…演算結果表示部、312…画面操作検知部、401…外部入力デバイス、402…外部出力デバイス
DESCRIPTION OF
Claims (4)
前記撮像装置からの画像を用いて演算を実施する画像処理演算部と、前記画像処理演算部の演算結果を蓄積するデータベース部と、前記データベース部に蓄積される前記演算結果を空間的および時間的に解析するシステム運用支援部と、前記システム運用支援部の解析結果に基づき前記撮像装置に前記要求を送信する要求送信部と、を有するサーバ装置と、
を備える監視システム。 An image transmission unit for transmitting a captured image, a request reception unit for receiving a request, a motor control unit for applying the request to the imaging device direction, and an angle of view for applying the request to the imaging device angle of view A control unit, an imaging device having,
An image processing operation unit that performs an operation using an image from the imaging device, a database unit that stores the operation result of the image processing operation unit, and the operation result stored in the database unit in terms of space and time A server apparatus having a system operation support unit that analyzes the request, and a request transmission unit that transmits the request to the imaging device based on an analysis result of the system operation support unit,
A monitoring system comprising:
撮像対象空間を電子地図データとして表現したエリアマップ上で前記撮像装置からのイベント発生情報を視覚的に把握する手段と、各撮像装置およびエリアにおける発生イベントの頻度情報を視覚的に把握する手段と、を有する端末装置を備え、
前記データベース部は、前記撮像装置の画面内座標とエリアマップ内座標の関連性を蓄積する監視システム。 In claim 1,
Means for visually grasping event occurrence information from the imaging device on an area map representing the imaging target space as electronic map data; means for visually grasping frequency information of occurrence events in each imaging device and area; A terminal device having
The database unit is a monitoring system that accumulates relevance between in-screen coordinates and area map coordinates of the imaging apparatus.
前記端末装置は、前記撮像装置に画像要求を行う画像要求部と、画像受信部と、カメラ映像表示部と、前記サーバ装置に所定条件を指定した演算結果を要求する演算結果要求部と、演算結果受信部と、演算結果表示部と、を有し、
前記要求受信部は前記画像要求に基づいて前記画像受信部に撮像した画像を送信し、
前記カメラ映像表示部は前記画像受信部が受信した画像を表示し、
前記サーバ装置は、前記演算結果要求部からの要求に基づいて、前記データベース部から前記演算結果を読み出して、前記演算結果受信部に送信し、
前記演算結果表示部は、前記演算結果受信部が受信した演算結果を前記エリアマップ上に重畳表示する監視システム。 In claim 2,
The terminal device includes an image requesting unit that requests an image from the imaging device, an image receiving unit, a camera video display unit, a calculation result requesting unit that requests a calculation result specifying a predetermined condition from the server device, A result receiving unit and a calculation result display unit;
The request receiving unit transmits an image captured to the image receiving unit based on the image request,
The camera video display unit displays the image received by the image receiving unit,
The server device reads the calculation result from the database unit based on a request from the calculation result request unit, and transmits the calculation result to the calculation result reception unit.
The calculation result display unit superimposes and displays the calculation result received by the calculation result receiving unit on the area map.
前記撮像装置は、パンチルトズーム対応の撮像装置と魚眼撮像装置であり、
前記パンチルトズーム対応の撮像装置の前記モーター制御部は前記要求に基づいて人流ベクトルの方向に画角を合わせ、
前記魚眼撮像装置の前記画角制御部は前記要求に基づいて撮像映像の展開画角を、通常運用時は平面に展開し、人流検知の発生頻度の高い時間帯および場所においては立面に展開する監視システム。 In claim 3,
The imaging device is a pan-tilt-zoom compatible imaging device and a fish-eye imaging device,
Based on the request, the motor control unit of the pan / tilt / zoom compatible imaging apparatus adjusts the angle of view in the direction of the human flow vector,
Based on the request, the angle-of-view control unit of the fish-eye imaging device develops a developed view angle of a captured image on a flat surface during normal operation, and is elevated in time zones and places where human flow detection occurs frequently. The monitoring system to deploy.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016251098A JP2018107587A (en) | 2016-12-26 | 2016-12-26 | Monitoring system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016251098A JP2018107587A (en) | 2016-12-26 | 2016-12-26 | Monitoring system |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2018107587A true JP2018107587A (en) | 2018-07-05 |
Family
ID=62787535
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016251098A Pending JP2018107587A (en) | 2016-12-26 | 2016-12-26 | Monitoring system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2018107587A (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110602458A (en) * | 2019-09-20 | 2019-12-20 | 重庆紫光华山智安科技有限公司 | Image forwarding method and related device |
CN114566023A (en) * | 2022-02-28 | 2022-05-31 | 广西中科云创智能科技有限公司 | Emergency alarm system for school |
WO2022259541A1 (en) * | 2021-06-11 | 2022-12-15 | 日本電気株式会社 | Monitoring system, video quality setting method, crowd behavior analysis server, and computer-readable non-transitory recording medium for storing crowd behavior analysis program |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003101994A (en) * | 2001-09-20 | 2003-04-04 | Toshiba Lighting & Technology Corp | Monitoring camera system |
JP2005117542A (en) * | 2003-10-10 | 2005-04-28 | Konica Minolta Holdings Inc | Monitoring system |
JP2005123750A (en) * | 2003-10-14 | 2005-05-12 | Tsukuba Multimedia:Kk | Video-map interlocking system and interlocking method thereof |
JP2005176164A (en) * | 2003-12-15 | 2005-06-30 | Hitachi Kokusai Electric Inc | Video accumulation and distribution apparatus and video distribution system |
JP2011077617A (en) * | 2009-09-29 | 2011-04-14 | Saxa Inc | Moving body imaging apparatus |
JP2012520650A (en) * | 2009-05-29 | 2012-09-06 | ヨングク エレクトロニクス シーオー., エルティーディー | Intelligent surveillance camera device and video surveillance system employing the same |
JP2016100696A (en) * | 2014-11-19 | 2016-05-30 | キヤノン株式会社 | Image processing device, image processing method, and image processing system |
-
2016
- 2016-12-26 JP JP2016251098A patent/JP2018107587A/en active Pending
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003101994A (en) * | 2001-09-20 | 2003-04-04 | Toshiba Lighting & Technology Corp | Monitoring camera system |
JP2005117542A (en) * | 2003-10-10 | 2005-04-28 | Konica Minolta Holdings Inc | Monitoring system |
JP2005123750A (en) * | 2003-10-14 | 2005-05-12 | Tsukuba Multimedia:Kk | Video-map interlocking system and interlocking method thereof |
JP2005176164A (en) * | 2003-12-15 | 2005-06-30 | Hitachi Kokusai Electric Inc | Video accumulation and distribution apparatus and video distribution system |
JP2012520650A (en) * | 2009-05-29 | 2012-09-06 | ヨングク エレクトロニクス シーオー., エルティーディー | Intelligent surveillance camera device and video surveillance system employing the same |
JP2011077617A (en) * | 2009-09-29 | 2011-04-14 | Saxa Inc | Moving body imaging apparatus |
JP2016100696A (en) * | 2014-11-19 | 2016-05-30 | キヤノン株式会社 | Image processing device, image processing method, and image processing system |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110602458A (en) * | 2019-09-20 | 2019-12-20 | 重庆紫光华山智安科技有限公司 | Image forwarding method and related device |
WO2022259541A1 (en) * | 2021-06-11 | 2022-12-15 | 日本電気株式会社 | Monitoring system, video quality setting method, crowd behavior analysis server, and computer-readable non-transitory recording medium for storing crowd behavior analysis program |
CN114566023A (en) * | 2022-02-28 | 2022-05-31 | 广西中科云创智能科技有限公司 | Emergency alarm system for school |
CN114566023B (en) * | 2022-02-28 | 2023-11-10 | 广西中科云创智能科技有限公司 | Sudden event alarm system for schools |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109104561B (en) | System and method for tracking moving objects in a scene | |
JP6696615B2 (en) | Monitoring system, monitoring method, and recording medium storing monitoring program | |
US9509900B2 (en) | Camera control method, and camera control device for same | |
TWI435279B (en) | Monitoring system, image capturing apparatus, analysis apparatus, and monitoring method | |
JP6786378B2 (en) | Information processing equipment, information processing methods and programs | |
JP4790613B2 (en) | Camera control device and zoom magnification control method in this device | |
JP7036493B2 (en) | Monitoring method and equipment | |
US20170278367A1 (en) | System and method for overlap detection in surveillance camera network | |
US10200631B2 (en) | Method for configuring a camera | |
JPWO2008035745A1 (en) | Surveillance system, camera, and video encoding method | |
JP7067604B2 (en) | Event monitoring system, event monitoring method, and program | |
CN110324572B (en) | Monitoring system, monitoring method, and non-transitory computer-readable storage medium | |
KR20130130544A (en) | Method and system for presenting security image | |
JP2018107587A (en) | Monitoring system | |
JP2010220189A (en) | Image capturing apparatus and moving image distribution system | |
JP5608490B2 (en) | Image network system, image transmission system, and image acquisition system | |
KR20140058192A (en) | Control image relocation method and apparatus according to the direction of movement of the object of interest | |
KR20150019230A (en) | Method and apparatus for tracking object using multiple camera | |
JP2012119971A (en) | Monitoring video display unit | |
KR101670247B1 (en) | System for magnifying-moving object using one click of cctv real-time image and method therefor | |
JP6483326B2 (en) | Monitoring system and terminal device | |
JP2019153986A (en) | Monitoring system, management apparatus, monitoring method, computer program, and storage medium | |
JP2018170574A (en) | Monitoring system | |
JP2018174468A (en) | Video display unit, and control method, and program therefor | |
KR102148749B1 (en) | Video surveillance network system and video surveillance method thereof |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20191210 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20200828 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200908 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20201105 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20210413 |