JP7479535B1 - Person detection system and person detection method - Google Patents

Person detection system and person detection method Download PDF

Info

Publication number
JP7479535B1
JP7479535B1 JP2023055995A JP2023055995A JP7479535B1 JP 7479535 B1 JP7479535 B1 JP 7479535B1 JP 2023055995 A JP2023055995 A JP 2023055995A JP 2023055995 A JP2023055995 A JP 2023055995A JP 7479535 B1 JP7479535 B1 JP 7479535B1
Authority
JP
Japan
Prior art keywords
image
person
human detection
unit
human
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2023055995A
Other languages
Japanese (ja)
Inventor
肇 藤沼
亮太 藤沼
矯 斎藤
稔 福田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
DKK Co Ltd
Original Assignee
Denki Kogyo Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denki Kogyo Co Ltd filed Critical Denki Kogyo Co Ltd
Priority to JP2023055995A priority Critical patent/JP7479535B1/en
Application granted granted Critical
Publication of JP7479535B1 publication Critical patent/JP7479535B1/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Image Analysis (AREA)

Abstract

【課題】監視領域において自動的に人物を検知することができる人物検知システムおよび人物検知方法を提供する。【解決手段】監視領域の画像を所定の時間間隔で取得する少なくともサーマルカメラを備えた監視カメラと、画像を処理する中央演算部と、画像を記憶する映像蓄積部とを含む映像解析サーバ20と、を含む人物検知システムであって、中央演算部は、画像を処理するための、動体検出部と、AI判定部と、を含む。動体検出部は、フレーム差分法を用いて画像のうちの連続する3枚以上のフレームを切り出し、連続するフレーム2枚の差分の絶対値を計算し、次の2枚のフレームについても繰り返し、差分の論理積を計算することによって、3枚以上のフレームにわたって動き続けている物体を抽出する。AI判定部は、物体について人工知能を使用した画像解析処理を実行して、物体が人物であるかどうかを判定する。【選択図】図1[Problem] To provide a human detection system and a human detection method capable of automatically detecting a human in a monitored area. [Solution] A human detection system including a surveillance camera equipped with at least a thermal camera that captures images of the monitored area at a predetermined time interval, a video analysis server 20 including a central processing unit that processes the images, and a video storage unit that stores the images, the central processing unit including a moving object detection unit and an AI determination unit for processing the images. The moving object detection unit uses a frame difference method to cut out three or more consecutive frames from the images, calculates the absolute value of the difference between two consecutive frames, repeats this for the next two frames, and calculates the logical product of the differences to extract an object that continues to move over three or more frames. The AI determination unit performs image analysis processing using artificial intelligence on the object to determine whether the object is a person. [Selected Figure] Figure 1

Description

本発明は、人物検知システムおよび人物検知方法に関し、特に、監視カメラによって取
得された画像を解析して監視領域内の人物を検知する人物検知システムおよび人物検知方
法に関する。
The present invention relates to a human detection system and a human detection method, and more particularly to a human detection system and a human detection method that analyze images captured by a surveillance camera to detect people within a surveillance area.

監視カメラによって自動的に人物を検知する技術が必要とされている。工場などの民間
人の立ち入りが禁止されており、夜間には人の出入りが少なくなる場所では、夜間の不法
侵入や盗難被害が発生している。したがって、検知された人物が立ち入りを許可された者
であるかを監視カメラによって自動的に検知する技術が必要とされている。不法侵入によ
る盗難は夜間に行われることが多く、夜間の人の動きの監視が大きなテーマとなっている
。そして、夜間の監視には、サーマルカメラや赤外線ライトとカメラの組み合わせなどが
用いられる。
There is a need for technology that can automatically detect people using surveillance cameras. In places such as factories where civilians are prohibited from entering and where there are few people coming and going at night, illegal intrusions and thefts occur at night. Therefore, there is a need for technology that can automatically detect whether a detected person is authorized to enter using surveillance cameras. Thefts by illegal intrusion often occur at night, so monitoring people's movements at night has become a major theme. For nighttime surveillance, thermal cameras and combinations of infrared lights and cameras are used.

ここで、従来の人物検知システムや人物検知方法として、例えば、特許文献1及び特許
文献2が知られている。特許文献1および特許文献2の人物検知システムは、建設現場に
おける建設機械と人との接触による災害を防止する観点から、建設機械に取り付けられた
撮像装置によって取得した画像から人物を検知するものである。
Here, known conventional human detection systems and methods are, for example, those disclosed in Patent Documents 1 and 2. The human detection systems of Patent Documents 1 and 2 detect people from images acquired by an imaging device attached to construction machinery, from the viewpoint of preventing accidents caused by contact between people and construction machinery at construction sites.

特許文献1の人物検知システムは、例えばホイールローダのような建設機械に取り付け
られた単眼の遠赤外線カメラによって取得した画像(熱画像)を俯瞰変換し、学習済みモ
デルを用いた画像処理によって、建設機械の周囲に存在する人物の接地位置を検出してい
る(例えば、特許文献1の段落[0006]、[0010]等を参照)。ここで、特許文
献1では、画像処理部の人物検知部は、遠赤外線カメラから送られた画像(熱画像)を使
用するものであるが、人に特有の温度分布を用いて建設機械の周辺に存在する人物を検知
している(例えば、特許文献1の段落[0022]等を参照)。しかしながら、特許文献
1の人物検知システムでは、人物を検知することができるが、その人物が立ち入りを許可
された者であるかどうかを区別することはできない。
The human detection system of Patent Document 1 converts an image (thermal image) acquired by a monocular far-infrared camera attached to a construction machine such as a wheel loader into a bird's-eye view image, and detects the grounding position of a person present around the construction machine by image processing using a trained model (see, for example, paragraphs [0006] and [0010] of Patent Document 1). Here, in Patent Document 1, the human detection unit of the image processing unit uses an image (thermal image) sent from the far-infrared camera, and detects a person present around the construction machine using a temperature distribution unique to a person (see, for example, paragraph [0022] of Patent Document 1). However, the human detection system of Patent Document 1 can detect a person, but cannot distinguish whether the person is a person authorized to enter.

特許文献2は、建設機械に取り付けられた撮像装置によって取得した画像から、建設機
械の周囲に存在する人物を検知する建設機械用人物検知システムに関する。ここで、特許
文献2の撮像装置は、CCD等の撮像素子を含む可視光カメラ(カラーカメラ)である(
例えば、特許文献2の段落[0013]等を参照)。そのため、撮像装置として可視光カ
メラを採用した特許文献2の人物検知システムでは、例えば、夜間や悪天候の場合におい
て、人物を検出する機能(または精度)が著しく低下する。
Patent Document 2 relates to a human detection system for construction machinery that detects people around the construction machinery from images acquired by an imaging device attached to the construction machinery. Here, the imaging device in Patent Document 2 is a visible light camera (color camera) including an imaging element such as a CCD (
For example, see paragraph [0013] of Patent Document 2.) Therefore, in the human detection system of Patent Document 2 that employs a visible light camera as an imaging device, the function (or accuracy) of detecting a human is significantly reduced, for example, at night or in bad weather.

一般に、解析対象となる画像のサイズが大きくなると、データ処理に時間が必要となる
。特に、処理能力が比較的低いコンピュータを使用し、人物を検知するのに人工知能(A
I)を使用した場合には、より多くの時間が必要となるため、人物をリアルタイムで検知
するのは難しい。
Generally, the larger the image size to be analyzed, the longer it takes to process the data. In particular, it is common to use a computer with relatively low processing power and artificial intelligence (AI) to detect people.
When I) is used, it takes more time, so it is difficult to detect people in real time.

特開2021-163401号公報JP 2021-163401 A 特許第6434507号公報Patent No. 6434507

本発明は、自動的に人物を検知することができる人物検知システムおよび人物検知方法
を提供する。
The present invention provides a human detection system and a human detection method capable of automatically detecting a human.

具体的には、本発明によれば、
監視領域の画像を所定の時間間隔で取得する、少なくともサーマルカメラを備えた監視
カメラと、
前記サーマルカメラから受信した前記画像を処理する中央演算部と、前記サーマルカメ
ラから受信した前記画像を記憶する映像蓄積部とを含む映像解析装置であって、該中央演
算部は、前記画像を処理するための動体検出部とAI判定部とを含むものである、映像解
析装置と
を含んでなる人物検知システムであって、
前記動体検出部は、フレーム差分法を用いて前記画像のうちの連続する3枚以上のフレ
ームを切り出し、連続するフレーム2枚の差分の絶対値を計算し、これを次の2枚のフレ
ームについても繰り返し、差分の論理積を計算することによって、前記3枚以上のフレー
ムにわたって動き続けている物体を抽出し、
前記AI判定部は、前記物体について人工知能(AI)を使用した画像解析処理を実行
して前記物体が人物であるかどうかを判定するものである、人物検知システムを提供する
Specifically, according to the present invention,
a surveillance camera including at least a thermal camera for acquiring images of a surveillance area at predetermined time intervals;
A human detection system comprising: a video analysis device including a central processing unit that processes the image received from the thermal camera, and a video storage unit that stores the image received from the thermal camera, the central processing unit including a moving object detection unit and an AI determination unit for processing the image;
the moving object detection unit extracts three or more consecutive frames from the image using a frame difference method, calculates the absolute value of the difference between two consecutive frames, repeats this process for the next two frames, and calculates the logical product of the differences to extract an object that continues to move across the three or more frames;
The AI determination unit performs image analysis processing using artificial intelligence (AI) on the object to determine whether the object is a person, thereby providing a human detection system.

ここで、サーマルカメラは遠赤外線を検出することで対象物の温度を検知するものであ
る。サーマルカメラで撮影した映像はサーモグラフィと呼ばれ、通常、温度が高い部分は
赤く、低い部分は青く表示される。サーマルカメラは、周辺光が無くても物体が生じる遠
赤外光を捉えるのでサーモグラフィを得ることができる。このため、夜間の暗い場所でも
計測可能である。また、遠赤外線を用いるので、霧や煙などで視界が不良な場所でも撮影
できる。逆に、遠赤外線は周辺光の影響を受けないので昼間でも使用可能である。
前記AI判定部は、前記物体が人物であることを判定するアルゴリズムを有するプログ
ラムを含む態様であることが好ましい。また、前記AI判定部は、前記物体の高さと幅と
の比率に基づいて前記物体が人物であるかを判定する態様であることがより好ましい。
さらに、前記中央演算部は、前記人物であることを判定した前記画像において、前記人
物を取り囲む範囲を示すマークを前記画像に追加する処理を実行する、前記AI判定部に
接続されたマーキング部を更に含む態様であることが好ましい。
加えて、前記監視カメラは少なくとも1つの可視光カメラを更に備えることができる。
前記中央演算部は、前記サーマルカメラによって前記人物を検出した画像において前記人
物の座標および撮影された時刻に基づいて、不可視の近赤外線ライトを照射することによ
り可視光カメラの白黒モードによって得られる画像において前記人物を特定し、前記画像
の前記人物を取り囲む所定の範囲内における発光の有無を判定する態様であることが好ま
しい。ここで、許可された者は赤外線ライトを所持しているので、前記所定の範囲内にお
ける発光を検知した場合、前記人物が前記監視領域への立ち入りを許可された者であると
判定する態様がより好ましい。
また、上記の人物検知システムは、前記映像蓄積部に記憶された前記画像を表示する表
示装置を更に含む態様や、インターネットを介して前記映像解析装置を制御する少なくと
も1つの端末を更に含む態様が好ましい。
Here, a thermal camera detects the temperature of an object by detecting far-infrared rays. Images captured by a thermal camera are called thermographs, and usually high-temperature areas are displayed in red and low-temperature areas in blue. Thermal cameras can obtain thermographs because they capture far-infrared light emitted by objects even in the absence of ambient light. This makes it possible to make measurements even in dark places at night. In addition, the use of far-infrared rays makes it possible to take images in places where visibility is poor due to fog or smoke. Conversely, far-infrared rays are not affected by ambient light, so they can be used during the day as well.
The AI determination unit preferably includes a program having an algorithm for determining whether the object is a person. More preferably, the AI determination unit determines whether the object is a person based on a ratio of the height and width of the object.
Furthermore, it is preferable that the central processing unit further includes a marking unit connected to the AI determination unit, which executes a process of adding a mark indicating the area surrounding the person to the image determined to be the person.
Additionally, the surveillance camera may further comprise at least one visible light camera.
It is preferable that the central processing unit identifies the person in an image obtained by a black and white mode of a visible light camera by irradiating an invisible near-infrared light based on the coordinates of the person in the image detected by the thermal camera and the time of shooting, and determines whether or not light is emitted within a predetermined range surrounding the person in the image. Since an authorized person carries an infrared light, it is more preferable that the central processing unit determines that the person is authorized to enter the surveillance area when light emission is detected within the predetermined range.
In addition, it is preferable that the above-mentioned human detection system further includes a display device that displays the images stored in the video storage unit, or further includes at least one terminal that controls the video analysis device via the Internet.

また、本発明は、上記の人物検知システムを使用した人物検知方法も提供する。
具体的には、
監視領域の画像を所定の時間間隔で取得する、少なくともサーマルカメラを備えた監視
カメラと、
前記サーマルカメラから受信した前記画像を処理する中央演算部と、前記サーマルカメ
ラから受信した前記画像を記憶する映像蓄積部とを含む映像解析装置であって、該中央演
算部は、前記画像を処理するための動体検出部とAI判定部とを含む、映像解析装置と
を含んでなる、人物検知システムにおける人物検知方法であって、
前記動体検出部は、フレーム差分法を用いて前記画像のうちの連続する3枚以上のフレ
ームを切り出し、連続するフレーム2枚の差分の絶対値を計算し、これを次の2枚のフレ
ームについても繰り返し、差分の論理積を計算することによって、前記3枚以上のフレー
ムにわたって動き続けている物体を抽出するステップと、
前記物体を含む複数の画像を学習データとして、前記物体が人物であるか否かを繰り返
し学習させた前記AI判定部は、前記物体について人工知能(AI)を使用した画像解析
処理を実行し、前記物体が人物であるか否かを判定するステップと
を含んでなる人物検知方法を提供する。
The present invention also provides a human detection method using the above-mentioned human detection system.
in particular,
a surveillance camera including at least a thermal camera for acquiring images of a surveillance area at predetermined time intervals;
A human detection method in a human detection system comprising: a video analysis device including a central processing unit that processes the image received from the thermal camera; and a video storage unit that stores the image received from the thermal camera, the central processing unit including a moving object detection unit and an AI determination unit for processing the image,
the moving object detection unit extracts three or more consecutive frames from the image using a frame difference method, calculates the absolute value of the difference between two consecutive frames, repeats this process for the next two frames, and calculates the logical product of the differences, thereby extracting an object that continues to move across the three or more frames;
the AI determination unit having been repeatedly trained to determine whether or not the object is a person using a plurality of images including the object as learning data, executes an image analysis process using artificial intelligence (AI) on the object, and determines whether or not the object is a person.

ここで、前記AI判定部は、前記物体が人物であることを判定するアルゴリズムを有す
るプログラムを含む態様であることが好ましい。また、前記AI判定部は、前記物体の高
さと幅との比率に基づいて前記物体が人物であるかを判定する態様であることが好ましい

さらに、前記中央演算部は、前記人物であることを判定した前記画像において、前記人
物を取り囲む範囲を示すマークを前記画像に追加する処理を、前記AI判定部に接続され
たマーキング部に実行させるステップを更に含む態様であることが好ましい。
加えて、前記監視カメラは少なくとも1つの可視光カメラを更に備え、前記中央演算部
は、前記サーマルカメラによって前記人物を検出した画像において前記人物の座標および
撮影された時刻に基づいて、前記可視光カメラの白黒モードによって得られる画像におい
て前記人物を特定し、前記画像の前記人物を取り囲む所定の範囲内における発光の有無を
判定する態様であることが好ましい。ここで、前記所定の範囲内における発光を検知した
場合、前記人物が前記監視領域への立ち入りを許可された者であると判定する態様がより
好ましい。
また、前記映像蓄積部に記憶された前記画像を表示装置に表示させるステップを更に含
む態様や、少なくとも1つの端末が、インターネットを介して前記映像解析装置を制御す
るステップを更に含む態様が好ましい。
Here, it is preferable that the AI determination unit includes a program having an algorithm for determining whether the object is a person. It is also preferable that the AI determination unit determines whether the object is a person based on a ratio of the height and width of the object.
Furthermore, it is preferable that the central processing unit further includes a step of causing a marking unit connected to the AI determination unit to execute a process of adding a mark indicating an area surrounding the person to the image determined to be the person.
In addition, it is preferable that the surveillance camera further comprises at least one visible light camera, and the central processing unit identifies the person in an image obtained by the black and white mode of the visible light camera based on the coordinates of the person in the image in which the person is detected by the thermal camera and the time of shooting, and determines whether or not light is emitted within a predetermined range surrounding the person in the image. Here, it is more preferable that, when light is detected within the predetermined range, the central processing unit determines that the person is authorized to enter the surveillance area.
In addition, it is preferable that the method further includes a step of displaying the images stored in the video storage unit on a display device, or that the method further includes a step of at least one terminal controlling the video analysis device via the Internet.

さらに、本発明は、前記映像蓄積部に記憶することができ、前記中央演算部に対して、
上記のいずれかに記載した人物検知方法を実行させる、コンピュータに読み取り可能なプ
ログラムも提供する。
Furthermore, the present invention can store the image in the image storage unit, and the central processing unit can
There is also provided a computer readable program for causing a computer to execute any of the human detection methods described above.

本発明の人物検知システムおよび人物検知方法によれば、監視領域の撮影時の環境によ
る影響を低減して、監視領域において人物を自動的に検知することができる。
また、本発明の人物検知システムおよび人物検知方法によれば、機械学習アルゴリズム
として知られている通常のCNN(畳み込みニューラルネットワーク。Convolutional Ne
ural Network)モデル構造よりも簡易な構造を採用しているので、人物を検知する際の画
像解析をより高速で実行することができる。
さらに、本発明の人物検知システムおよび人物検知方法によれば、監視領域において検
知した人物が立ち入りを許可された者であるかどうかを判定することができる。
According to the human detection system and human detection method of the present invention, it is possible to automatically detect humans in a monitored area while reducing the influence of the environment when the monitored area is photographed.
In addition, according to the human detection system and the human detection method of the present invention, a conventional CNN (Convolutional Neural Network) known as a machine learning algorithm is used.
The proposed method uses a simpler structure than the Real-World Network (VRN) model structure, which enables faster image analysis when detecting people.
Furthermore, according to the human detection system and human detection method of the present invention, it is possible to determine whether or not a person detected in a monitored area is a person authorized to enter.

Aは、本発明の一実施態様にかかる人物検知システム1の全体構成を示す概略図である。Bは、Aの人物検知システム1の機能ブロック図である。1A is a schematic diagram showing an overall configuration of a human detection system 1 according to an embodiment of the present invention, and FIG. 1B is a functional block diagram of the human detection system 1 of A. 各波長領域と、各波長領域における主な用途とを示す概略図である。FIG. 1 is a schematic diagram showing wavelength regions and main applications in each wavelength region. Aは、可視光カメラによって取得したカラー画像である。Bは、Aと同じ時間に同じ場所で、サーマルカメラによって取得したサーマル画像である。A is a color image taken by a visible light camera, and B is a thermal image taken by a thermal camera at the same time and location as A. 本発明の一実施態様にかかる人物検知システム1において、自動的に人物を検知する処理を示すフローチャートである。4 is a flowchart showing a process for automatically detecting a person in the human detection system 1 according to an embodiment of the present invention. 動体検出部202aが動体を検出する処理を示す画像である。11 is an image showing a process of detecting a moving object by the moving object detection unit 202a. 動体検出部202aにおいて実行される第1のフィルタ処理を示すフローチャートである。11 is a flowchart showing a first filtering process executed in a moving object detecting section 202a. 動体検出部202a及びAI判定部202bにおいて実行される第2のフィルタ処理を示すフローチャートである。13 is a flowchart showing a second filtering process executed in the moving object detection unit 202a and the AI determination unit 202b. 動体検出部202aにおいて実行されるPositionFilterでの処理を示す概略図である。13 is a schematic diagram showing processing by a PositionFilter executed in a moving object detection unit 202a. FIG. Aは、動体検出部202aにおいて、図7のPositionFilterで動体検知した対象のサイズが横長のため人物以外(自動車)であると判断した場合の画像である。Bは、動体検出部202aにおいて、図7のPositionFilterで動体検知した対象のサイズから人物の候補であると判断した場合の画像である。Image A is an image obtained when the moving object detection unit 202a determines that the moving object detected by the PositionFilter in Fig. 7 is a non-human object (a car) because the size of the moving object is horizontal. Image B is an image obtained when the moving object detection unit 202a determines that the moving object detected by the PositionFilter in Fig. 7 is a human candidate based on its size. 図7の第2のフィルタ処理の所定のフィルタ処理時に取得された画像である。8 is an image acquired during a predetermined filtering process of the second filtering process of FIG. 7. 本発明の一実施態様にかかる人物検知システム1のAI判定部202bにおいて人物を検知するためのAI学習モデル構造である。This is an AI learning model structure for detecting people in the AI determination unit 202b of the human detection system 1 according to one embodiment of the present invention. 本発明の一実施態様にかかる人物検知システム1を使用して、実際に人物を検知したテスト環境を示す画像である。1 is an image showing a test environment in which a person was actually detected using a human detection system 1 according to an embodiment of the present invention. 図12のテスト環境において、本発明の実施態様にかかる人物検知システム1によって自動的に人物を検知したことを示すデータである。13 shows data indicating that a person was automatically detected by the human detection system 1 according to an embodiment of the present invention in the test environment of FIG. 12. 本発明の人物検知システム1によって検知した人物が立ち入り許可者であるかどうかを判定する(サーマルカメラによって得られた)サーマル画像である。1 is a thermal image (obtained by a thermal camera) for determining whether a person detected by the human detection system 1 of the present invention is an authorized entrant. 本発明の人物検知システム1によって検知した人物が立ち入り許可者であるかどうかを判定する(可視光カメラの白黒モードで得られた)白黒モード画像である。1 is a black and white mode image (obtained in the black and white mode of the visible light camera) for determining whether a person detected by the human detection system 1 of the present invention is an authorized trespasser. Aは、画像の所定の範囲内に赤外線ライトの発光が見いだされるかによって、検知した人物が立ち入りを許可された者または不法侵入者であることを示す画像である。Bは、立ち入りを許可された者を判定するための赤外線ライトとして使用することができる装置の一例を示す画像である。A is an image that indicates whether a detected individual is an authorized entrant or a trespasser depending on whether an infrared light is found emitting within a predetermined range of the image, and B is an image showing an example of a device that can be used as an infrared light to determine authorized entrants. 従来の機械学習アルゴリズムの1つである通常のCNNモデルの構造を示す図である。FIG. 1 is a diagram showing the structure of a typical CNN model, which is one of conventional machine learning algorithms.

図1を参照して、本発明の一実施態様である人物検知システム1を説明する。ここで、
人物検知システム1は、例えば、工場内への不法侵入を監視する場合には、侵入者が入っ
てくる場所や盗難される恐れのある物を撮影することができる場所に設置され得る。人物
検知システム1は、監視領域の画像を取得している少なくとも1つのサーマルカメラを含
む監視カメラ10と、監視カメラ10が撮影した画像を受信して記憶する映像解析装置(
または映像解析サーバ)20と、映像解析装置20で解析された結果を表示する表示装置
30とを含む。なお、サーマルカメラは、物体から放出される遠赤外線(波長が3~10
00マイクロメートル)を検知するものである。ここで、映像解析装置20は、監視カメ
ラ10からの画像や解析用プログラムや解析用及び結果の各種データを記憶する映像蓄積
部201と、映像蓄積部201と通信して画像解析処理などの演算を行う中央演算部(C
PUおよびGPU)202とを含む。そして、中央演算部202は、動体検出部202a
とAI判定部202bとマーキング部202cとを含む。動体検出部202aとAI判定
部202bとマーキング部202cとは、監視カメラ10が撮影した画像を中央演算部2
02と協働して解析するプログラムである。そして、解析された画像は、映像解析装置2
0に接続された表示装置30に表示される。ここで、監視カメラ10と映像解析装置20
との間は、例えば、通信ケーブルによって有線で接続されているか、無線で接続されてい
るか、あるいは有線と無線との両方で接続されていてもよい。ここで、監視カメラ10と
映像解析装置20との間は、例えば、インターネット回線を介して接続されていてもよい
。同様に、映像解析装置20と表示装置30との間は、例えば、通信ケーブルによって有
線で接続されているか、無線で接続されているか、あるいは有線と無線との両方で接続さ
れていてもよい。ここで、映像解析装置20と表示装置30との間は、例えば、インター
ネット回線を介して接続されていてもよい。このようにして、人物検知システム1は、少
なくとも1台のサーマルカメラを含む監視カメラ10を1台の映像解析装置20に接続し
たシンプルな構成を採用している。
A human detection system 1 according to an embodiment of the present invention will be described with reference to FIG.
For example, when monitoring illegal intrusions into a factory, the human detection system 1 can be installed in a location where an intruder enters or an object that may be stolen can be photographed. The human detection system 1 includes a surveillance camera 10 including at least one thermal camera that captures images of a surveillance area, and a video analysis device (
The image analyzing device 20 includes a video analysis server (or image analyzing server) 20, and a display device 30 that displays the results of analysis by the image analyzing device 20. The thermal camera detects far-infrared rays (having a wavelength of 3 to 10 nm) emitted from an object.
The image analysis device 20 is a device for detecting a distance of 0.000 micrometers. The image analysis device 20 includes an image storage unit 201 for storing images from the surveillance camera 10, analysis programs, and various data for analysis and results, and a central processing unit (CCU) for performing calculations such as image analysis processing by communicating with the image storage unit 201.
The central processing unit 202 includes a moving object detection unit 202a
The moving object detection unit 202a, the AI determination unit 202b, and the marking unit 202c are a central processing unit 2
The analyzed image is then sent to the video analysis device 2.
The image is displayed on a display device 30 connected to the surveillance camera 10 and the image analysis device 20.
For example, the surveillance camera 10 and the video analysis device 20 may be connected by a communication cable, wirelessly, or both wired and wirelessly. Here, the surveillance camera 10 and the video analysis device 20 may be connected by an Internet line, for example. Similarly, the video analysis device 20 and the display device 30 may be connected by a communication cable, wirelessly, or both wired and wirelessly. Here, the video analysis device 20 and the display device 30 may be connected by an Internet line, for example. In this way, the human detection system 1 adopts a simple configuration in which the surveillance camera 10 including at least one thermal camera is connected to one video analysis device 20.

図2は、一般的な各波長範囲と、その各波長範囲の用途とをそれぞれ示している。特に
、図2に示す赤外線(波長0.78~1000マイクロメートル)の領域において、非冷
却サーマルカメラは、8~14マイクロメートルの波長の遠赤外線を検知し、冷却サーマ
ルカメラは3~5マイクロメートルの波長の中赤外線を検知するのが一般的である。例え
ば、監視カメラ10としてサーマルカメラを使用することによって、昼間のみならず夜間
においても、監視領域である漁場周辺の画像を良好なコントラストで取得することができ
る。
Figure 2 shows typical wavelength ranges and their applications. In particular, in the infrared region (wavelength 0.78 to 1000 micrometers) shown in Figure 2, uncooled thermal cameras typically detect far infrared rays with wavelengths of 8 to 14 micrometers, while cooled thermal cameras typically detect mid infrared rays with wavelengths of 3 to 5 micrometers. For example, by using a thermal camera as the surveillance camera 10, images of the fishing grounds, which are the surveillance area, can be obtained with good contrast not only during the day but also at night.

なお、一般に、サーマルカメラは、熱を検知し、温度を可視化する。サーマルカメラで
撮影した映像はサーモグラフィ(熱画像)と呼ばれ、通常、高温部分は赤く、低温部分は
青く表示される(なお、本願で使用するサーマルカメラでは、高温部分は白く、低温部分
は黒く表示される)。サーマルカメラは、物体の温度を非接触計測するため、遠赤外線を
検出するセンサーが搭載されている。この遠赤外線の強弱を検出して温度を計測し、計測
した温度に応じて画像処理で色付けすることで、視覚的に温度分布が把握しやすいサーモ
グラフィを表示する。一方、赤外線カメラは、暗闇の中で映像を撮影することを目的とす
る。通常、赤外線カメラには、光源としての役割を果たす近赤外線LEDが搭載されてお
り、被写体に照射して反射した赤外線をとらえる。したがって、サーマルカメラと赤外線
カメラは、同じ赤外線を使ってはいるが、全く異なる光の帯域を用い、異なる構成と機能
を有する点に注意する必要がある。
Generally, a thermal camera detects heat and visualizes temperature. Images captured by a thermal camera are called thermography (thermal images), and usually, high temperature areas are displayed in red and low temperature areas in blue (in the thermal camera used in this application, high temperature areas are displayed in white and low temperature areas in black). A thermal camera is equipped with a sensor that detects far-infrared rays in order to measure the temperature of an object without contact. The strength of the far-infrared rays is detected to measure the temperature, and the image is colored according to the measured temperature using image processing to display a thermograph that makes it easy to visually grasp the temperature distribution. On the other hand, an infrared camera is intended to capture images in the dark. Infrared cameras are usually equipped with near-infrared LEDs that function as light sources, and capture the infrared rays that are irradiated onto the subject and reflected. Therefore, it is necessary to note that although thermal cameras and infrared cameras use the same infrared rays, they use completely different light bands and have different configurations and functions.

図3Aは、ある監視領域を夜間に撮影した場合に、可視光カメラによって取得されたカ
ラー画像を示す。また、図3Bは、図3Aと同じ監視領域を同じ夜間に撮影した場合に、
サーマルカメラによって取得されたサーマル画像を示す。図3A及び図3Bを比較すると
、図3Bの方がより鮮明な画像が得られることがわかる。これは、サーマルカメラが監視
領域に存在する物体から放出される遠赤外線(波長が3~1000マイクロメートル)を
受信するものであり、可視光カメラと比べて、監視領域における可視光の明るさや暗さに
よる影響を受けにくいことによる。また、不法侵入による盗難は、一般的に、日中よりも
人目に付きにくい夜間に行われることが多い。そのため、可視光カメラと比較すると、サ
ーマルカメラは、特に夜間に鮮明な画像を得ることができる点で有利である。
なお、図1に示す人物検知システム1では、監視カメラ10として、例えば非冷却サー
マルカメラを使用した場合について説明している。しかしながら、これに限らず、例えば
、監視カメラ10として冷却サーマルカメラを使用することもできる。
Fig. 3A shows a color image captured by a visible light camera when a certain monitored area is photographed at night. Fig. 3B shows a color image captured by a visible light camera when the same monitored area as Fig. 3A is photographed at the same night.
A thermal image obtained by a thermal camera is shown. Comparing FIG. 3A and FIG. 3B, it can be seen that FIG. 3B provides a clearer image. This is because a thermal camera receives far-infrared rays (having a wavelength of 3 to 1000 micrometers) emitted from objects in the monitoring area, and is less affected by the brightness or darkness of visible light in the monitoring area than a visible light camera. In addition, theft by illegal intrusion is generally more likely to occur at night, when it is less noticeable than during the day. Therefore, compared to a visible light camera, a thermal camera has the advantage of being able to obtain clear images, especially at night.
1, a case is described in which, for example, an uncooled thermal camera is used as the surveillance camera 10. However, the present invention is not limited to this, and for example, a cooled thermal camera can also be used as the surveillance camera 10.

次に図4のフローチャートを参照して、人物検知システム1の映像解析装置20で実行
される各処理について説明する。
ステップS1では、監視カメラ10によって取得した監視領域の画像フレームを映像解
析装置20の映像蓄積部(ハードディスク)201に記憶する。ここで、中央演算部20
2は、監視カメラ10によって連続して撮影された、一連の画像などの映像(動画データ
)を映像蓄積部201に記憶させておくこともできる。
ステップS2では、動体検出部202aが、映像中にある物体が動体であるか否かを判
定する処理を実行する。ここで、映像中の物体が動体であると動体検出部202aが判定
した場合にはステップS3に進む。一方、映像中の物体が動体ではないと動体検出部20
2aが判定した場合(つまり、静止体のみを含む場合)にはステップS4に進む。そして
、ステップS4では、検知することなく通常のフローに戻り(つまり、ステップS1に戻
り)、その映像についての処理を終了する。なお、ステップS2での処理は、後述する図
6のMOGBacksubFilter60とErodeFilter61とDilateFilter62と、これに後続する図
7のPositionFilter70とMotionObjectTracker71とCandidateFilter72とMaskValida
tor73とにおける処理に対応する。
ステップS3では、AI判定部202bが、映像中の動体について、所定のモデル構造
に従ってAIを用いた画像解析処理を実行する(なお、所定のモデル構造については後述
する図11を参照)。ここで、映像中の動体が人物であるとAI判定部202bが判定し
た場合にはステップS5に進む。そして、AI判定部202bは、映像中の動体が人物で
あると判断した部分にマークを付ける処理(例えば四角枠で囲むなどのマーキング処理)
を実行する。一方、映像中の動体が人物以外であるとAI判定部202bが判定した場合
にはステップS4に進む。そして、ステップS4では、検知することなく通常のフローに
戻り(つまり、ステップS1に戻り)、その映像についての処理を終了する。なお、ステ
ップS3での処理は、後述する図7のDnnFilter74での処理に対応する。
Next, each process executed by the video analysis device 20 of the human detection system 1 will be described with reference to the flowchart of FIG.
In step S1, an image frame of a monitoring area captured by the monitoring camera 10 is stored in the video storage unit (hard disk) 201 of the video analysis device 20.
The surveillance camera 10 may also store video (video data) such as a series of images continuously captured by the surveillance camera 10 in the video storage unit 201 .
In step S2, the moving object detection unit 202a executes a process of determining whether or not an object in the video is a moving object. If the moving object detection unit 202a determines that the object in the video is a moving object, the process proceeds to step S3. On the other hand, if the moving object detection unit 202a determines that the object in the video is not a moving object, the process proceeds to step S4.
If it is determined that the image includes only stationary objects, the process proceeds to step S4. Then, in step S4, the process returns to the normal flow without detection (i.e., returns to step S1), and the process for that image ends. Note that the process in step S2 includes a MOGBacksubFilter 60, an ErodeFilter 61, and a DilateFilter 62 in FIG. 6, which will be described later, and the subsequent PositionFilter 70, a MotionObjectTracker 71, a CandidateFilter 72, and a MaskValidaFilter 73 in FIG. 7.
This corresponds to the processing in tor73.
In step S3, the AI determination unit 202b performs image analysis processing using AI on the moving object in the video according to a predetermined model structure (for the predetermined model structure, see FIG. 11 described later). If the AI determination unit 202b determines that the moving object in the video is a person, the process proceeds to step S5. Then, the AI determination unit 202b performs a process of attaching a mark to the part of the moving object in the video that is determined to be a person (for example, a marking process such as surrounding it with a rectangular frame).
On the other hand, if the AI determination unit 202b determines that the moving object in the video is other than a person, the process proceeds to step S4. Then, in step S4, the process returns to the normal flow without detection (i.e., returns to step S1), and the process for the video is terminated. The process in step S3 corresponds to the process in DnnFilter 74 in FIG. 7, which will be described later.

図5を参照して、動体検出部202aが動体を検出する処理について説明する。ここで
、動体検出部202aは、フレーム差分法を使用して動体を検出する。これは一般公開さ
れているOpenCVと呼ばれる画像処理ソフトウェアを利用して実行することができる
。まず、動体検出部202aは、監視カメラ10によって取得した画像のうち連続する3
枚のフレームI1、I2およびI3を切り出す。次に、この連続した3枚のフレーム(画
像)をグレースケールに変更する。そして、動体検出部202aは、連続するフレームI
1とI2との間の差分画像I1’と、連続するフレームI2とI3との間の差分画像I2
’との絶対値を計算する。そして、動体検出部202aは、差分画像I1’と差分画像I
2’との2つの論理積を計算して、動き続けている物体の画像I1’’を得る。このよう
な処理によって、動体検出部202aは、3枚のフレームにわたって動き続けている物体
の画像を抽出することができる。なお、動体検出部202aでの上記処理は、図6の「MO
GBacksubFilter60」での処理に該当する。
The process of detecting a moving object by the moving object detection unit 202a will be described with reference to Fig. 5. Here, the moving object detection unit 202a detects a moving object using a frame difference method. This can be performed using image processing software called OpenCV, which is publicly available. First, the moving object detection unit 202a detects three consecutive images from among the images acquired by the surveillance camera 10.
The moving object detection unit 202a extracts three consecutive frames I1, I2, and I3. Next, the three consecutive frames (images) are converted to grayscale.
1 and I2, and a difference image I2′ between successive frames I2 and I3.
Then, the moving object detection unit 202a calculates the absolute value of the difference image I1' and the difference image I
2' to obtain an image I1'' of the object that is in motion. By this process, the moving object detection unit 202a can extract an image of the object that is in motion over three frames. The above process in the moving object detection unit 202a is performed in the "MO
This corresponds to the processing performed by "GBacksubFilter60".

図6は、人物検知システム1の動体検出部202aにおいて実行される第1のフィルタ
処理を示すフローチャートである。なお、以下で用いる関数MOGBacksubFilterやPosition
Filterなどは、OpenCVの例えばバージョン4.6.0において利用することができ
るものである。まず、この第1のフィルタ処理は、MOGBacksubFilter60とErodeFilter
61とDilateFilter62とを含む。ここで、MOGBacksubFilter60では、背景差分法によ
る検出を行う。ErodeFilter61では、ピクセルが集まっていないノイズを除去する。Dil
ateFilter62では、ピクセルの集まりを膨らませて抽出する。
6 is a flowchart showing the first filtering process executed by the moving object detection unit 202a of the human detection system 1. Note that the functions MOGBacksubFilter and Position
Filter and the like are available in OpenCV, for example, version 4.6.0. First, the first filter process is a combination of MOGBacksubFilter 60 and ErodeFilter
The filter includes a MOGBacksubFilter 60, which performs detection using a background subtraction method, and a DilateFilter 61, which removes noise where pixels are not concentrated.
In the ateFilter 62, a collection of pixels is dilated and extracted.

次に、図7は、人物検知システム1の動体検出部202a及びAI判定部202bにお
いて実行される第2のフィルタ処理を示すフローチャートである。この第2のフィルタ処
理は、PositionFilter70とMotionObjectTracker71とCandidateFilter72とMaskVali
dator73とDnnFilter74とを含む。ここで、PositionFilter70では、サイズが小さす
ぎるものや大きすぎるものを除去し、サイズが横長のものを削除する。MotionObjectTrac
ker71では、前後のフレームで同じ動体にIDを割り当てる。CandidateFilter72では
、前フレームで無効としたものや、サイズ変化が大きいものを除去する。MaskValidator
73では、映像上でマスキングしたエリアの内部または外部のいずれかにあることについ
ての正誤を判定する。そして、DnnFilter74では、畳み込みニューラルネットワーク(
CNN:Convolutional Neural Network)を用いたAIによる正誤を判定する。
ここで、動体検出部202aは、MOGBacksubFilter60とErodeFilter61とDilateFil
ter62と、PositionFilter70とMotionObjectTracker71とCandidateFilter72とMas
kValidator73との処理を実行する。そして、AI判定部202bは、DnnFilter74の
処理を実行する。
7 is a flowchart showing a second filtering process executed in the moving object detection unit 202a and the AI determination unit 202b of the human detection system 1. The second filtering process includes a PositionFilter 70, a MotionObjectTracker 71, a CandidateFilter 72, and a MaskVali
The MotionObjectTrac includes a data filter 73 and a DnnFilter 74. Here, the PositionFilter 70 removes objects that are too small or too large, and deletes objects that are horizontally long.
In the CandidateFilter71, IDs are assigned to the same moving object in the previous and next frames. In the CandidateFilter72, objects that were invalid in the previous frame or objects with large size changes are removed.
In step 73, it is judged whether the object is inside or outside the masked area in the image. Then, in step 74, a convolutional neural network (
The accuracy is determined using AI using a Convolutional Neural Network (CNN).
Here, the moving object detection unit 202a includes a MOGBacksubFilter 60, an ErodeFilter 61, and a DilateFilter 62.
ter62, PositionFilter70, MotionObjectTracker71, CandidateFilter72, and Mas
The AI determination unit 202b executes processing with the kValidator 73. Then, the AI determination unit 202b executes processing with the DnnFilter 74.

図8は、動体検出部202aにおいて実行されるPositionFilter70での処理を示す概
略図である。ここで、PositionFilter70での処理では、動体検知した各画像中の対象物
の高さ(H)と幅(W)との比率(H/W)を求める。ここで、PositionFilter70での
処理では、(例えば、鳥や昆虫などの小さい対象物や、監視領域外の遠方で動いている対
象物を検知しないようにするために)高さ(H)が1ピクセル以下の対象物を当該フィル
タ処理から除外するように予め設定しておくことができる。そして、PositionFilter70
での処理では、H/W>1.1の場合(つまり、各画像中の対象物が縦長である場合)、
その物体を人物の候補とする。その一方で、PositionFilter70での処理では、H/W<
15の場合(つまり、各画像中の対象物がかなり横長である場合)、その物体を人物の候
補から除外する。
8 is a schematic diagram showing the processing by the PositionFilter 70 executed in the moving object detection unit 202a. Here, in the processing by the PositionFilter 70, the ratio (H/W) of the height (H) to the width (W) of an object in each image where a moving object has been detected is calculated. Here, in the processing by the PositionFilter 70, it is possible to set in advance to exclude objects with a height (H) of 1 pixel or less from the filtering process (for example, to avoid detecting small objects such as birds and insects, or objects moving at a distance outside the monitoring area). Then, the PositionFilter 70
In the case of processing in the above, when H/W>1.1 (i.e., when the object in each image is vertically long),
The object is determined to be a candidate for a person.
If it is 15 (i.e., the object in each image is significantly longer than the rest), then the object is eliminated as a candidate for a person.

次に、図9Aおよび図9Bを参照して、動体検出部202aにおいて実行されるPositi
onFilter70での処理を説明する。図9Aでは、動体検出部202aは、PositionFilter
70での処理によって、対象物についての高さ(H)と、幅(W)と、高さと幅との
比率(H/W)とを求める。図9Aの対象物の場合には、高さと幅との比率(H
)が1より小さい(H/W<1)。そのため、後続するAI判定部202bにお
いて実行されるDnnFilter74での処理において、かかる対象物は人物以外(自動車)で
あると判断される。
一方、図9Bでは、動体検出部202aは、PositionFilter70での処理によって、図
9Aとは異なる対象物についての高さ(H)と、幅(W)と、高さと幅との比率(H
/W)とを求める。図9Bの対象物の場合には、高さと幅との比率(H/W)が
1.1より大きい(H/W>1.1)。そのため、後続するAI判定部202bにお
いて実行されるDnnFilter74での処理において、かかる対象物は人物の可能性が高いと
判断される。
Next, referring to FIG. 9A and FIG. 9B, the Positive-Negative Transformation executed by the moving object detection unit 202a is performed.
The process in onFilter70 will be described. In FIG. 9A, the moving object detection unit 202a executes PositionFilter
The process at 70 determines the height (H A ), width (W A ), and height-to-width ratio (H A /W A ) for the object. For the object in FIG. 9A, the height-to-width ratio (H A /W A ) is
W A ) is smaller than 1 (H A /W A <1). Therefore, in the subsequent processing by DnnFilter 74 executed in the AI determination unit 202b, the object is determined to be something other than a person (a car).
On the other hand, in FIG. 9B, the moving object detection unit 202a obtains the height (H B ), width (W B ), and height-to-width ratio (H
9B, the height to width ratio ( H B /W B ) is greater than 1.1 (H B /W B >1.1). Therefore, in the subsequent process by DnnFilter 74 executed in the AI determination unit 202b, the object is determined to be highly likely to be a person.

図10は、図7の第2のフィルタ処理のうち、PositionFilter70とDnnFilter74と
におけるフィルタ処理中の画像を示している。ここで、図10に示されるPositionFilter
70では、動体検出部202aは、1ピクセル以下の動体や所定の大きさ以上の動体を除
外し、高さと幅との比率(H/W)が1.1よりも小さい動体を除外している。また、図
10に示されるDnnFilter74では、AI判定部202bは、既に収集済みの人物画像を
、後述する図11のアルゴリズムで判定させたAIモデルを用いて、画像内の動体の高さ
と幅との比率(H/W)が1.1よりも大きいことを判定して、人物であるか否かについ
て判定している。
10 shows an image undergoing filtering by the PositionFilter 70 and the DnnFilter 74 in the second filtering process of FIG. 7. Here, the PositionFilter 70 shown in FIG.
In DnnFilter 70, the moving object detection unit 202a excludes moving objects of 1 pixel or less and moving objects of a predetermined size or more, and excludes moving objects with a height-to-width ratio (H/W) of less than 1.1. In DnnFilter 74 shown in Fig. 10, the AI determination unit 202b determines whether a moving object in an image that has already been collected is a person by using an AI model determined by the algorithm in Fig. 11 described later.

なお、図11は、人物検知システム1のAI判定部202bで実行されるDnnFilter7
4での処理において動体が人物であるかどうかを判定するために使用することができる、
機械学習アルゴリズムのモデル構造を示す。このモデル構造は、6つの畳み込み層と3つ
の全結合層とを含む。ここで、畳み込み層は、画像上に小領域を設け、1つの特徴量とし
て圧縮(畳み込み)する工程を、画像上をスライドしながら繰り返してできた層である。
畳み込み層によって、点ではなく領域ごとに特徴抽出をすることができる。全結合層は、
畳み込み演算によって抽出した特徴量を受け取り、特徴量で分類を行うために利用される
層である。
ここで、図11のモデル構造は、動体検知部202aにて動体と判定されたサーマル画
像内の一部分を使用しているため、図17に示される画像全体を使用している一般的なC
NNモデル構造よりもシンプルな構成となっている。そのため、人物検知システム1のA
I判定部202bは、図11のモデル構造を使用して画像処理をより高速で実行すること
ができる(また、図12および図13で後述するように、人物検知システム1のAI判定
部202bは、高精度で人物を検知することができる)。このサーマル画像のサイズに応
じて畳み込み層の構成が変化する。
次に、AI判定部202bでの判定に使用される図11のモデル構造に対し、人物の画
像を事前に学習させる手順を簡単に説明する。まず、複数の場所で撮影を行い、人物を含
む画像を15000枚収集する。次に、人物を含む画像から動画切り出しツールを用いて
AI判定画像を作成することができる。ここで、例えばノイズの追加や画像の反転などの
処理を行うことにより、AI判定画像の数を15000枚から20000枚に増やすこと
ができる。そして、このようにして得られた20000枚のAI判定画像を用いて、AI
判定部202bでの判定に使用される図11のモデル構造の学習を事前に行うことができ
る。なお、例えば20000枚以上のAI判定画像を用いて、図11のモデル構造の学習
を行うこともできる。
FIG. 11 shows the DnnFilter7 executed by the AI determination unit 202b of the human detection system 1.
It can be used to determine whether a moving object is a person in the process of 4.
The model structure of the machine learning algorithm is shown below. This model structure includes six convolution layers and three fully connected layers. Here, the convolution layer is a layer created by repeatedly sliding over the image to compress (convolute) a small region on the image into a single feature.
The convolutional layer allows feature extraction by region, not by point.
This layer receives features extracted by convolutional operations and is used to perform classification based on the features.
Here, the model structure in FIG. 11 uses a part of the thermal image that is determined to be a moving object by the moving object detection unit 202a, and therefore is different from the general C shown in FIG. 17, which uses the entire image.
This is a simpler structure than the NN model structure.
The AI determination unit 202b can perform image processing at a higher speed by using the model structure of Fig. 11 (and, as described later in Figs. 12 and 13, the AI determination unit 202b of the human detection system 1 can detect people with high accuracy). The configuration of the convolution layer changes depending on the size of the thermal image.
Next, a procedure for learning images of people in advance for the model structure of FIG. 11 used for judgment in the AI judgment unit 202b will be briefly described. First, shooting is performed at multiple locations, and 15,000 images including people are collected. Next, an AI judgment image can be created from the images including people using a video extraction tool. Here, the number of AI judgment images can be increased from 15,000 to 20,000 by performing processing such as adding noise or inverting the images. Then, the 20,000 AI judgment images obtained in this way are used to perform AI judgment.
The model structure of Fig. 11 used for the judgment in the judgment unit 202b can be learned in advance. Note that, for example, the model structure of Fig. 11 can be learned using 20,000 or more AI judgment images.

一方、図17は、従来、主に画像認識において活用されるニューラルネットワークの1
つであるCNNモデルの構造を示す。ここで、ニューラルネットワークとは、脳の神経回
路を模した数理モデルであり、ある入力に対する出力を返すものである。そのようなCN
Nモデルは、一般に、畳み込み層とプーリング層と全結合層とを含む。ここで、畳み込み
層は、画像上に小領域を設け、1つの特徴量として圧縮(畳み込み)する工程を、画像上
をスライドしながら繰り返してできた層である。畳み込み層によって、点ではなく領域ご
とに特徴抽出をすることができる。プーリング層は、畳み込み層に小領域を設け、その枠
内のデータに演算を行うことによりできた層である。特に、プーリング層は、画像のカテ
ゴリを分けるタスクにおいて、特徴を抽出した畳み込み層の位置ずれを吸収することが可
能となる。全結合層は、畳み込み演算やプーリング演算によって抽出した特徴量を受け取
り、特徴量で分類を行うために利用される層である。そして、全結合層の最後にSoft
max層を追加することによって、クラスごとの出力値の合計を1にすることができるた
め、出力結果を確率とすることができる。
なお、図17に示す従来のCNNモデルの詳細については、例えば、以下のURL ht
tps://newtechnologylifestyle.net/vgg16originalpicture/を参照されたい。
On the other hand, FIG. 17 shows one of the neural networks that has been used mainly for image recognition.
The structure of the CNN model, which is one of the neural networks, is shown below. A neural network is a mathematical model that mimics the neural circuits of the brain and returns an output for a certain input.
The N model generally includes a convolutional layer, a pooling layer, and a fully connected layer. Here, the convolutional layer is a layer created by repeatedly setting a small region on an image and compressing (convolving) it into one feature while sliding across the image. The convolutional layer makes it possible to extract features for each region, not for each point. The pooling layer is a layer created by setting a small region in the convolutional layer and performing operations on the data within that frame. In particular, the pooling layer makes it possible to absorb the positional shift of the convolutional layer that extracted features in the task of classifying image categories. The fully connected layer is a layer that receives the features extracted by the convolutional operation or pooling operation and is used to classify by the features. And, at the end of the fully connected layer, Soft
By adding a max layer, the sum of the output values for each class can be made 1, so that the output result can be treated as a probability.
For details of the conventional CNN model shown in FIG. 17, please refer to the following URL:
Please refer to tps://newtechnologylifestyle.net/vgg16originalpicture/ .

図12は、本発明の一実施態様である人物検知システム1の監視カメラ10(サーマル
カメラ)によって得られた画像の一例を示す。この画像は、3月11日の朝方(00:00-09
:00)に、電気興業株式会社の鹿沼工場内の第一駐車場の一部を監視領域として得られた
ものである。このとき、人物検知システム1は、上記の第一駐車場から約100メートル
離れた建物の屋上に設置されて、上記の第一駐車場内の人物を検出した。
12 shows an example of an image obtained by the surveillance camera 10 (thermal camera) of the human detection system 1 according to an embodiment of the present invention. This image was taken in the early morning of March 11th (00:00-09:00).
The image was obtained at 1:00 a.m. with a part of the first parking lot in the Kanuma factory of Denki Kogyo Co., Ltd. as a monitored area. At this time, human detection system 1 was installed on the roof of a building about 100 meters away from the first parking lot, and detected a person in the first parking lot.

次に、図13を参照して、図12に示す画像の場所(第一駐車場)を朝方(00:00-09:0
0)に監視領域として監視した場合に、本発明の一実施態様である人物検知システム1の
表示装置30に表示される、人物を検知した場合の画面について説明する。図13では、
監視カメラ10で監視領域を撮影した(図12に示される)画像とその画像を撮影した日
時とを、表示装置30の表示部に自動的に表示する。ここで、表示装置30には、一例と
して、何等かの動体を検知した数や、動体についての映像を取得した時刻(映像時刻)や
、人物の検知の有無や、車両の検知の有無や、検知対象が不明なものの有無などを表示す
ることができる。具体的には、図13に示されるように、本発明の一実施態様である人物
検知システム1は、図12に示す上記の第一駐車場の一部を朝方(00:00-09:00)に監視
し、人物検知数が177、人物未検知数が6、車両検知数が2、検知対象不明数が0とい
う結果を自動的に得ることができた(なお、画像を目視して数えた人物総数は183人で
あった)。そのため、この場合の人物検知システム1の人物検知率(人物検知数÷人物総
数)は、177÷183≒96.7%であった。そして、この場合の人物検知システム1
の総合検知率(人物検知数÷総検知数)は、177÷(177+6+2+0)≒95.7
%であった。このように、本発明の一実施態様である人物検知システム1によれば、95
%を超える良好な人物検知率および総合検知率を得ることができた。ここで、「人物未検
知数」は、人物検知システム1が監視領域内で検知することができなかった人物の数であ
り、「検知対象不明数」は、人物検知システム1が監視領域内で検知した、人物または車
両以外の物体の数である。
なお、図13の備考欄の「0時~なし」の記載は、0時~1時の範囲での検知が無かっ
たことを意味する。同様に、図13の備考欄の「1時~なし」の記載は、1時~2時の範
囲での検知が無かったことを意味し、図13の備考欄の「3時~なし」の記載は、3時~
4時の範囲での検知が無かったことを意味する。
Next, referring to FIG. 13, the location of the image shown in FIG. 12 (first parking lot) was photographed in the morning (00:00-09:00
13, a screen displayed on the display device 30 of the human detection system 1 according to an embodiment of the present invention when a human is detected in the monitoring area (i.e., the area in the vicinity of the camera 10) is described below.
The image (shown in FIG. 12) of the monitoring area captured by the monitoring camera 10 and the date and time of capturing the image are automatically displayed on the display unit of the display device 30. Here, the display device 30 can display, for example, the number of detected moving objects, the time when the image of the moving object was captured (image time), whether or not a person was detected, whether or not a vehicle was detected, and whether or not an object of detection is unknown. Specifically, as shown in FIG. 13, the human detection system 1 according to one embodiment of the present invention monitored a part of the first parking lot shown in FIG. 12 in the morning (00:00-09:00), and automatically obtained the results that the number of detected people was 177, the number of undetected people was 6, the number of detected vehicles was 2, and the number of unknown objects of detection was 0 (note that the total number of people counted by visual inspection of the image was 183). Therefore, the human detection rate (number of detected people÷total number of people) of the human detection system 1 in this case was 177÷183≒96.7%. And, the human detection system 1 in this case was
The overall detection rate (number of people detected ÷ total number of people detected) is 177 ÷ (177 + 6 + 2 + 0) ≒ 95.7
%. Thus, according to the human detection system 1 according to one embodiment of the present invention,
%, we were able to obtain a good human detection rate and overall detection rate of over 100%. Here, the "number of undetected humans" is the number of humans that the human detection system 1 was unable to detect within the monitored area, and the "number of unknown detection targets" is the number of objects other than humans or vehicles that the human detection system 1 detected within the monitored area.
In addition, the entry "0:00 - none" in the remarks column of Fig. 13 means that there was no detection in the range of 0:00 - 1:00. Similarly, the entry "1:00 - none" in the remarks column of Fig. 13 means that there was no detection in the range of 1:00 - 2:00, and the entry "3:00 - none" in the remarks column of Fig. 13 means that there was no detection in the range of 3:00 -
This means that there was no detection in the 4 o'clock range.

加えて、本発明の一実施態様である人物検知システム1では、所定のマーキング処理さ
れた人物の映像を表示装置30に表示することができる。また、所定のマーキング処理さ
れた人物の映像を(例えば、フレームインからフレームアウトまでの間に)連続してマー
キングを行う事でその軌道を目視で確認することができる。そのため、そのようにマーキ
ング処理された人物が、所定の撮影日時(つまりその人物の検知日時)において、例えば
、監視領域に存在していたか否かを表示装置30において容易に確認することができる。
In addition, in the human detection system 1 according to an embodiment of the present invention, an image of a person that has been subjected to a predetermined marking process can be displayed on the display device 30. Also, by continuously marking the image of a person that has been subjected to a predetermined marking process (for example, from frame-in to frame-out), the trajectory can be visually confirmed. Therefore, it can be easily confirmed on the display device 30 whether or not a person that has been subjected to such a marking process was present, for example, in the monitoring area at a predetermined shooting date and time (i.e., the detection date and time of the person).

図14は、AI判定部202bによって判定された人物がマーキング部202cによっ
て四角枠で囲まれたマーキング処理されて表示装置30に表示されたサーマル画像である
。図14中の破線は、座標をわかりやすくするための補助線である(つまり、図14中の
破線は、本願における説明用として記載した補助線であり、マーキング部202cによっ
てマーキング処理されたものではない)。また、表示装置30では、マーキング部202
cでのマーキング処理によって判定された人物を取り囲む四角枠の色を、(例えば、立ち
入りを許可された者であるか否かに応じて)緑または赤のマーキングで区別して表示する
ことができる。次に、図15は、図14のAI判定部202bによって判定された人物(
つまり、図14と同じ人物、同じ時間、同じ場所)について、マーキング部202cによ
って四角枠で囲まれたマーキング処理されて表示装置30に表示された、可視光カメラの
白黒モードで撮影した画像(白黒モード画像あるいは赤外線モード画像)である。ここで
、白黒モードにおいて、設定パネルから設定した四角枠の範囲内に一定の閾値を超える光
量(つまり、赤外線ライトの光量)が検出された場合には、その四角枠で囲まれた人物は
立ち入りを許可された者であると判定することができる。そして、その人物を取り囲む四
角枠の色を緑にして表示することができる。一方、設定パネルから設定した四角枠の範囲
内に一定の閾値を超える光量(つまり、赤外線ライトの光量)が検出されない場合には、
その四角枠で囲まれた人物は不法侵入者であると判定することができる。そして、その人
物を取り囲む四角枠の色を赤にして表示することができる。
ここで、図14のサーマル画像と図15の白黒モード画像とは、解像度が互いに同一で
ある。また、人物検知システム1は、図14のサーマル画像において人物を検知した座標
を記録する。そして、人物検知システム1は、図15の白黒モード画像の同一座標範囲内
に所定の光源(つまり、赤外線ライトの発光)があるかを判定する。そして、人物検知シ
ステム1は、図15の破線の四角枠で囲まれた範囲内に赤外線ライトの発光を検知したこ
とから、この人物が監視領域への立ち入りを許可された者であることを判定する。
14 is a thermal image in which a person determined by the AI determination unit 202b is marked by the marking unit 202c in a rectangular frame and displayed on the display device 30. The dashed lines in FIG. 14 are auxiliary lines for making the coordinates easier to understand (i.e., the dashed lines in FIG. 14 are auxiliary lines described for the purpose of explanation in this application, and are not markings by the marking unit 202c).
The color of the square frame surrounding the person determined by the marking process in c can be displayed in green or red (depending on whether the person is permitted to enter, for example). Next, FIG. 15 shows a person (
That is, it is an image (black and white mode image or infrared mode image) taken in black and white mode by the visible light camera, in which the same person, at the same time, and at the same place as in Figure 14) is marked by the marking unit 202c so as to be surrounded by a rectangular frame and displayed on the display device 30. Here, in black and white mode, if an amount of light (i.e., the amount of infrared light) exceeding a certain threshold is detected within the range of the rectangular frame set from the setting panel, it can be determined that the person surrounded by the rectangular frame is a person who is permitted to enter. The color of the rectangular frame surrounding the person can then be displayed as green. On the other hand, if an amount of light (i.e., the amount of infrared light) exceeding a certain threshold is not detected within the range of the rectangular frame set from the setting panel,
The person surrounded by the square frame can be determined to be an intruder, and the square frame surrounding that person can be displayed in red.
Here, the thermal image in Fig. 14 and the black-and-white mode image in Fig. 15 have the same resolution. Furthermore, the human detection system 1 records the coordinates at which the human is detected in the thermal image in Fig. 14. The human detection system 1 then determines whether a predetermined light source (i.e., infrared light emission) is present within the same coordinate range in the black-and-white mode image in Fig. 15. The human detection system 1 then determines that the human is permitted to enter the monitored area, since it has detected infrared light emission within the range enclosed by the dashed rectangular frame in Fig. 15.

図16Aは、一例として、マーキング部202cによって検知した人物がいくつかの四
角枠で囲まれたマーキング処理を含むカラー画像(白黒モードあるいは赤外線モード)を
示す。図16Aの画像中のある四角枠内では赤外線ライトの発光が検知されているため、
この四角枠内の人物は監視領域への立ち入りを許可された者であることがわかる。一方、
図16Aの別の四角枠では赤外線ライトの発光が検知されていないため、この四角枠内の
人物は不法侵入者である可能性が高いことがわかる。
次に、図16Bは、監視領域への立ち入りを許可された者であるかどうかを判定するの
に利用されうる赤外線ライトの一例を示す。例えば、本発明の一実施態様である人物検知
システム1の監視領域への立ち入りを許可された者に対して、図16Bに示される赤外線
ライトを予め貸与することによって、監視領域への立ち入りを許可された者と不法侵入者
とを区別することができる。
16A shows, as an example, a color image (black and white mode or infrared mode) including a marking process in which a person detected by the marking unit 202c is surrounded by several rectangular frames. Since the emission of infrared light is detected within a certain rectangular frame in the image of FIG. 16A,
It can be seen that the person inside this square frame is someone who is authorized to enter the monitored area.
Since no infrared light is detected in another square frame in FIG. 16A, it is understood that the person within this square frame is highly likely to be an intruder.
Next, Fig. 16B shows an example of an infrared light that can be used to determine whether or not a person is authorized to enter a monitored area. For example, by lending an infrared light shown in Fig. 16B to a person authorized to enter a monitored area of the human detection system 1 according to an embodiment of the present invention, it is possible to distinguish between a person authorized to enter the monitored area and an intruder.

なお、上記の人物検知システム1は、例えば、人物検知方法のための所定の命令を含む
、コンピュータに読み取り可能なプログラムを映像蓄積部201に記憶しておき、その所
定の命令を中央演算部202に実行させることができる。
In addition, the above-mentioned human detection system 1 can store a computer-readable program including predetermined instructions for the human detection method in the video storage unit 201, and cause the central processing unit 202 to execute the predetermined instructions.

ここまで、一例として工場への不法侵入者を監視する用途として、人物検知システム1
を説明してきた。しかしながら、工場を監視する目的に限られない他の用途に人物検知シ
ステム1を利用できることが、当業者には理解されるであろう。例えば、許可された者の
みが立ち入りを許可された場所を通行する人物を監視するために人物検知システム1を使
用できることが、当業者には理解されるであろう。
So far, we have used a human detection system 1 as an example to monitor trespassers in a factory.
However, it will be understood by those skilled in the art that the human detection system 1 can be used for other purposes other than the purpose of monitoring a factory. For example, it will be understood by those skilled in the art that the human detection system 1 can be used to monitor people passing through a place where only authorized persons are allowed to enter.

本明細書において、特定の実施態様について本発明を具体的に説明してきたが、これら
の実施態様は、本発明の原理及び用途の単なる例示にすぎない。したがって、例示の実施
態様に対して多数の修正を実行することができることや、特許請求の範囲によって規定さ
れる本発明の趣旨及び範囲から逸脱することなく他の構成を採用することができることが
当業者に理解されるであろう。
Although the present invention has been particularly described herein with reference to certain embodiments, it is to be understood that these embodiments are merely illustrative of the principles and applications of the present invention, and that those skilled in the art will therefore recognize that numerous modifications can be made to the illustrative embodiments and that other configurations can be adopted without departing from the spirit and scope of the present invention as defined by the appended claims.

1 人物検知システム
10 監視カメラ
20 映像解析装置
201 映像蓄積部
202 中央演算部
202a 動体検出部
202b AI判定部
202c マーキング部
30 表示装置
REFERENCE SIGNS LIST 1 Person detection system 10 Surveillance camera 20 Video analysis device 201 Video storage unit 202 Central processing unit 202a Moving object detection unit 202b AI determination unit 202c Marking unit 30 Display device

Claims (17)

監視領域の画像を所定の時間間隔で取得する、少なくともサーマルカメラを備えた監視
カメラと、
前記サーマルカメラから受信した前記画像を処理する中央演算部と、前記サーマルカメ
ラから受信した前記画像を記憶する映像蓄積部とを含む映像解析装置であって、該中央演
算部は、前記画像を処理するための、動体検出部とAI判定部とを含むものである、映像
解析装置と
を含んでなる人物検知システムであって、
前記動体検出部は、フレーム差分法を用いて前記画像のうちの連続する3枚以上のフレ
ームを切り出し、連続するフレーム2枚の差分の絶対値を計算し、これを次の2枚のフレ
ームについても繰り返し、差分の論理積を計算することによって、前記3枚以上のフレー
ムにわたって動き続けている物体を抽出し、
前記AI判定部は、前記物体について人工知能を使用した画像解析処理を実行して前記
物体が人物であるかどうかを判定するものである、人物検知システム。
a surveillance camera including at least a thermal camera for acquiring images of a surveillance area at predetermined time intervals;
A human detection system comprising: a video analysis device including a central processing unit that processes the image received from the thermal camera, and a video storage unit that stores the image received from the thermal camera, the central processing unit including a moving object detection unit and an AI determination unit for processing the image;
the moving object detection unit extracts three or more consecutive frames from the image using a frame difference method, calculates the absolute value of the difference between two consecutive frames, repeats this process for the next two frames, and calculates the logical product of the differences to extract an object that continues to move across the three or more frames;
The AI determination unit performs image analysis processing using artificial intelligence on the object to determine whether the object is a person.
前記AI判定部は、前記物体が人物であることを判定するアルゴリズムを有するプログ
ラムを含む、請求項1に記載の人物検知システム。
The human detection system according to claim 1 , wherein the AI determination unit includes a program having an algorithm for determining that the object is a human.
前記AI判定部は、前記物体の高さと幅との比率に基づいて前記物体が人物であるかを
判定する、請求項1に記載の人物検知システム。
The human detection system according to claim 1 , wherein the AI determination unit determines whether the object is a human based on a ratio of the height and width of the object.
前記中央演算部は、前記人物であることを判定した前記画像において、前記人物を取り
囲む範囲を示すマークを前記画像に追加する処理を実行する、前記AI判定部に接続され
たマーキング部を更に含む、請求項1~3のいずれか一項に記載の人物検知システム。
The human detection system according to any one of claims 1 to 3, wherein the central processing unit further includes a marking unit connected to the AI determination unit that executes a process of adding a mark indicating an area surrounding the person in the image determined to be the person.
前記監視カメラは少なくとも1つの可視光カメラを更に備え、前記中央演算部は、前記
サーマルカメラによって前記人物を検出した画像において前記人物の座標および撮影され
た時刻に基づいて、近赤外線ライトを照射して前記可視光カメラの白黒モードによって得
られる画像において前記人物を特定し、前記画像の前記人物を取り囲む所定の範囲内にお
ける発光の有無を判定する、請求項1に記載の人物検知システム。
2. The human detection system of claim 1, wherein the surveillance camera further comprises at least one visible light camera, and the central processing unit identifies the person in an image obtained in black and white mode of the visible light camera by irradiating the person with near-infrared light based on the coordinates of the person in the image detected by the thermal camera and the time the person was photographed, and determines whether or not light is emitted within a predetermined range surrounding the person in the image.
前記中央演算部は、前記所定の範囲内における発光を検知した場合、前記人物が前記監
視領域への立ち入りを許可された者であると判定する、請求項5に記載の人物検知システ
ム。
The human detection system according to claim 5 , wherein the central processing unit, when detecting light emission within the predetermined range, determines that the human is a person permitted to enter the monitored area.
前記映像蓄積部に記憶された前記画像を表示する表示装置を更に含む、請求項1に記載
の人物検知システム。
The human detection system according to claim 1 , further comprising a display device that displays the image stored in the video storage unit.
インターネットを介して前記映像解析装置を制御する少なくとも1つの端末を更に含む
、請求項1に記載の人物検知システム。
The human detection system according to claim 1 , further comprising at least one terminal that controls the video analysis device via the Internet.
監視領域の画像を所定の時間間隔で取得する、少なくともサーマルカメラを備えた監視
カメラと、
前記サーマルカメラから受信した前記画像を処理する中央演算部と、前記サーマルカメ
ラから受信した前記画像を記憶する映像蓄積部とを含む映像解析装置であって、該中央演
算部は、前記画像を処理するための動体検出部とAI判定部とを含むものである、映像解
析装置と
を含んでなる、人物検知システムにおける人物検知方法であって、
前記動体検出部は、フレーム差分法を用いて前記画像のうちの連続する3枚以上のフレ
ームを切り出し、連続するフレーム2枚の差分の絶対値を計算し、これを次の2枚のフレ
ームについても繰り返し、差分の論理積を計算することによって、前記3枚以上のフレー
ムにわたって動き続けている物体を抽出するステップと、
前記物体を含む複数の画像を学習データとして、前記物体が人物であるか否かを繰り返
し学習させた前記AI判定部は、前記物体について人工知能(AI)を使用した画像解析
処理を実行し、前記物体が人物であるか否かを判定するステップと
を含んでなる人物検知方法。
a surveillance camera including at least a thermal camera for acquiring images of a surveillance area at predetermined time intervals;
a video analysis device including a central processing unit that processes the image received from the thermal camera, and a video storage unit that stores the image received from the thermal camera, the central processing unit including a moving object detection unit and an AI determination unit for processing the image,
the moving object detection unit extracts three or more consecutive frames from the image using a frame difference method, calculates the absolute value of the difference between two consecutive frames, repeats this process for the next two frames, and calculates the logical product of the differences, thereby extracting an object that continues to move across the three or more frames;
a step in which the AI determination unit, which has been repeatedly trained to determine whether or not the object is a person using a plurality of images including the object as learning data, executes an image analysis process using artificial intelligence (AI) on the object and determines whether or not the object is a person.
前記AI判定部は、前記物体が人物であることを判定するアルゴリズムを有するプログ
ラムを含む、請求項9に記載の人物検知方法。
The human detection method according to claim 9 , wherein the AI determination unit includes a program having an algorithm for determining that the object is a human.
前記AI判定部は、前記物体の高さと幅との比率に基づいて前記物体が人物であるかを
判定する、請求項9に記載の人物検知システム。
The human detection system according to claim 9 , wherein the AI determination unit determines whether the object is a human based on a ratio of a height to a width of the object.
前記中央演算部は、前記人物であることを判定した前記画像において、前記人物を取り
囲む範囲を示すマークを前記画像に追加する処理を、前記AI判定部に接続されたマーキ
ング部に実行させるステップを更に含む、請求項9~11のいずれか一項に記載の人物検
知方法。
The human detection method according to any one of claims 9 to 11, further comprising a step in which the central processing unit causes a marking unit connected to the AI determination unit to execute a process of adding a mark indicating an area surrounding the person to the image determined to be the person.
前記監視カメラは少なくとも1つの可視光カメラを更に備え、前記中央演算部は、前記
サーマルカメラによって前記人物を検出した画像において前記人物の座標および撮影され
た時刻に基づいて、近赤外線ライトを照射することにより前記可視光カメラの白黒モード
によって得られる画像において前記人物を特定し、前記画像の前記人物を取り囲む所定の
範囲内における発光の有無を判定する、請求項9に記載の人物検知方法。
The human detection method of claim 9, wherein the surveillance camera further comprises at least one visible light camera, and the central processing unit identifies the person in an image obtained in black and white mode of the visible light camera by shining near-infrared light on the basis of the coordinates of the person in the image detected by the thermal camera and the time the person was photographed, and determines whether or not light is emitted within a predetermined range surrounding the person in the image.
前記中央演算部は、前記所定の範囲内における発光を検知した場合、前記人物が前記監
視領域への立ち入りを許可された者であると判定する、請求項13に記載の人物検知方法
The human detection method according to claim 13 , wherein the central processing unit determines, when detecting light emission within the predetermined range, that the human is a person permitted to enter the monitored area.
前記映像蓄積部に記憶された前記画像を表示装置に表示させるステップを更に含む、請
求項9に記載の人物検知方法。
The human detection method according to claim 9 , further comprising the step of displaying the image stored in the video storage unit on a display device.
少なくとも1つの端末が、インターネットを介して前記映像解析装置を制御するステッ
プを更に含む、請求項9に記載の人物検知方法。
The human detection method according to claim 9 , further comprising the step of: at least one terminal controlling the video analysis device via the Internet.
前記映像蓄積部に記憶することができ、前記中央演算部に対して、請求項9に記載の人
物検知方法を実行させる、コンピュータに読み取り可能なプログラム。
A computer-readable program that can be stored in the video storage unit and causes the central processing unit to execute the human detection method according to claim 9.
JP2023055995A 2023-03-30 2023-03-30 Person detection system and person detection method Active JP7479535B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2023055995A JP7479535B1 (en) 2023-03-30 2023-03-30 Person detection system and person detection method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2023055995A JP7479535B1 (en) 2023-03-30 2023-03-30 Person detection system and person detection method

Publications (1)

Publication Number Publication Date
JP7479535B1 true JP7479535B1 (en) 2024-05-08

Family

ID=90926159

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2023055995A Active JP7479535B1 (en) 2023-03-30 2023-03-30 Person detection system and person detection method

Country Status (1)

Country Link
JP (1) JP7479535B1 (en)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000175176A (en) 1998-12-04 2000-06-23 Hitachi Ltd Supervisory method for mobile object and image supervisory device
JP2003044859A (en) 2001-07-30 2003-02-14 Matsushita Electric Ind Co Ltd Device for tracing movement and method for tracing person
JP2006252248A (en) 2005-03-11 2006-09-21 Meidensha Corp Trespasser detecting system by image processing
JP2009267827A (en) 2008-04-25 2009-11-12 Yokogawa Denshikiki Co Ltd Apparatus for identifying commander and command support system
JP2020027372A (en) 2018-08-09 2020-02-20 美和ロック株式会社 Management device, management system, management method, and program
JP2020102817A (en) 2018-12-25 2020-07-02 凸版印刷株式会社 Monitor target identification apparatus, monitor target identification system, and monitor target identification method

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000175176A (en) 1998-12-04 2000-06-23 Hitachi Ltd Supervisory method for mobile object and image supervisory device
JP2003044859A (en) 2001-07-30 2003-02-14 Matsushita Electric Ind Co Ltd Device for tracing movement and method for tracing person
JP2006252248A (en) 2005-03-11 2006-09-21 Meidensha Corp Trespasser detecting system by image processing
JP2009267827A (en) 2008-04-25 2009-11-12 Yokogawa Denshikiki Co Ltd Apparatus for identifying commander and command support system
JP2020027372A (en) 2018-08-09 2020-02-20 美和ロック株式会社 Management device, management system, management method, and program
JP2020102817A (en) 2018-12-25 2020-07-02 凸版印刷株式会社 Monitor target identification apparatus, monitor target identification system, and monitor target identification method

Similar Documents

Publication Publication Date Title
CN110044486B (en) Method, device and equipment for avoiding repeated alarm of human body inspection and quarantine system
CN110569772B (en) Method for detecting state of personnel in swimming pool
Abuarafah et al. Real-time crowd monitoring using infrared thermal video sequences
US9196056B2 (en) Electro-optical system and method for analyzing images of a scene to identify the presence of a target color
Zin et al. Fusion of infrared and visible images for robust person detection
JP3924171B2 (en) Monitoring device for identifying monitoring objects
US20080247601A1 (en) Image processing apparatus and image processing method
JP5832910B2 (en) Image monitoring device
CN107437318B (en) Visible light intelligent recognition algorithm
US20220122360A1 (en) Identification of suspicious individuals during night in public areas using a video brightening network system
KR101196678B1 (en) Real-time fire detection device and method
CN115410324A (en) Car as a house night security system and method based on artificial intelligence
CN116403377A (en) Abnormal behavior and hidden danger detection device in public place
JP7479535B1 (en) Person detection system and person detection method
CN111612815A (en) Infrared thermal imaging behavior intention analysis method and system
JP6934118B2 (en) Image processing system, image processing method and image processing program
JP7092616B2 (en) Object detection device, object detection method, and object detection program
CN111432172A (en) Fence alarm method and system based on image fusion
KR101520293B1 (en) Scheduling method for detention of object and of obtaining forensic image by visual attention, and system thereof
Hatekar et al. Fire detection on a surveillance system using Image processing
JP4641902B2 (en) Image sensor
JP2008152586A (en) Automatic identification monitor system for area surveillance
JPS62249298A (en) Security monitor system
JP6527729B2 (en) Image processing apparatus and image processing program
Peker et al. Real-time motion-sensitive image recognition system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230330

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231215

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240221

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240419

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240423

R150 Certificate of patent or registration of utility model

Ref document number: 7479535

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150