JP2012237569A - Person management device and person management method - Google Patents

Person management device and person management method Download PDF

Info

Publication number
JP2012237569A
JP2012237569A JP2011104960A JP2011104960A JP2012237569A JP 2012237569 A JP2012237569 A JP 2012237569A JP 2011104960 A JP2011104960 A JP 2011104960A JP 2011104960 A JP2011104960 A JP 2011104960A JP 2012237569 A JP2012237569 A JP 2012237569A
Authority
JP
Japan
Prior art keywords
person
image
face
detection
helmet
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2011104960A
Other languages
Japanese (ja)
Inventor
Kazunori Setsu
一憲 薜
Tatsuya Ueda
達也 上田
Kazuyuki Ishikawa
和幸 石川
Hideyuki Kobayashi
秀幸 小林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Renesas Electronics Corp
Original Assignee
Renesas Electronics Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Renesas Electronics Corp filed Critical Renesas Electronics Corp
Priority to JP2011104960A priority Critical patent/JP2012237569A/en
Publication of JP2012237569A publication Critical patent/JP2012237569A/en
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02EREDUCTION OF GREENHOUSE GAS [GHG] EMISSIONS, RELATED TO ENERGY GENERATION, TRANSMISSION OR DISTRIBUTION
    • Y02E30/00Energy generation of nuclear origin
    • Y02E30/30Nuclear fission reactors

Landscapes

  • Monitoring And Testing Of Nuclear Reactors (AREA)
  • Time Recorders, Dirve Recorders, Access Control (AREA)
  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To determine whether person's appearance is suitable or not without requiring manual operation.SOLUTION: A person management device 1 includes: image acquisition means 11 for acquiring a photographed image; storage means 12 for storing information of a detection target; face detection means 13 for detecting a face of a person from the photographed image acquired by the image acquisition means 11; area setting means 14 for setting an area in which the detection target should exist based on the coordinates of the face detected by the face detection means 13; determination means 15 for determining whether or not the detection target exists in the area set by the area setting means 14 and whether or not the detection target is suitably equipped; and control means 16 for performing processing corresponding to a determination result of the determination means 15.

Description

本発明は、人物管理装置および人物管理方法に関する。   The present invention relates to a person management apparatus and a person management method.

特定の施設や部屋への入退出に際し、入退出者の身なりの管理を必要とする場合がある。例えば、原子力発電所や核燃料処理施設などでは、複数の管理区域に分割されており、入退出者はこのような管理区域への入退出時にはその管理区域の性質に応じて、適切な装備をすることが求められる。そのため各管理区域の出入口(入退出口)では、入退出者の装備の確認が行われる。   When entering or leaving a specific facility or room, it may be necessary to manage the appearance of the entrance / exit. For example, nuclear power plants and nuclear fuel processing facilities are divided into multiple controlled areas, and those who enter and leave are appropriately equipped according to the nature of the controlled area. Is required. For this reason, the entrance / exit of equipment is checked at the entrance / exit of each management area.

特許文献1には、入退出する人物について撮影を行い、撮影画像と、あらかじめ取得した基準画像と比較することで、人手を介することなく衣服等の身なりをチェックする人物管理装置が開示されている。ここで基準画像とは、事前に撮影者の適切な身なり及び不適切な身なりを撮影した画像である。   Patent Document 1 discloses a person management device that takes a picture of a person entering and leaving, and compares the photographed image with a reference image acquired in advance to check the appearance of clothes and the like without human intervention. . Here, the reference image is an image obtained by photographing a photographer's appropriate dressing and inappropriate dressing in advance.

特開2005−030861号公報Japanese Patent Laying-Open No. 2005-030861

しかしながら、特許文献1にかかる発明では、判定する人物毎の基準画像をチェック項目ごとに準備する必要があった。
具体的には、仮に適切な身なりを「ヘルメットをかぶり、派手な服装を着用しておらず、ひげを生やしていないこと」とした場合には、ヘルメットをかぶっており適切な範囲の服装でひげを剃っている画像、ヘルメットをかぶっており適切な範囲の服装だがひげを生やしている画像、ヘルメットをかぶっており過剰な範囲の服装でひげを剃っている画像、ヘルメットをかぶっており過剰な範囲の服装だがひげを生やしている画像、ヘルメットをかぶっておらず適切な範囲の服装でひげを剃っている画像、ヘルメットをかぶっておらず適切な範囲の服装だがひげを生やしている画像、ヘルメットをかぶっておらず過剰な範囲の服装でひげを剃っている画像、ヘルメットをかぶっておらず過剰な範囲の服装だがひげを生やしている画像、のように、2(通り)の3(項目)乗の8(枚)の画像が、登録人物ごとに必要となる。
したがって、チェック項目を増やした場合に、必要となる基準画像が指数関数的に増加していき、画像の準備が困難となる問題があった。また、基準画像が増加すると、判定を行う際に多数の画像から検索することとなり、ソフトウェアによる処理時間が増加するという問題があった。
However, in the invention according to Patent Document 1, it is necessary to prepare a reference image for each person to be determined for each check item.
Specifically, if the appropriate dressing is “wearing a helmet, not wearing extravagant clothes, and not bearded”, the person must wear a helmet and wear the appropriate range of clothes. Images of shaving, wearing a helmet and wearing the appropriate range, but bearded, wearing a helmet and shaving in an excessive range, wearing a helmet, wearing an excessive range Dressed but bearded image, not wearing a helmet, shaving the appropriate range of clothing, not wearing a helmet, appropriate range of clothing but bearded image, helmet Like an image that is not worn and shaves with an excessive range of clothes, an image that is not worn with a helmet and is an excessive range of clothes but bearded Image 2 8 (sheets) of 3 (item) squared (street) is required for each registered person.
Therefore, when the number of check items is increased, the necessary reference images increase exponentially, which makes it difficult to prepare images. Further, when the reference image increases, a search is performed from a large number of images at the time of determination, and there is a problem that processing time by software increases.

本発明にかかる人物管理装置は、人物を撮影した撮影画像に基づいて検出対象物が適切に装備されているか否かのチェックを行う人物管理装置であって、前記撮影画像を取得する画像取得手段と、検出対象物の情報を記憶する記憶手段と、前記画像取得手段により取得された撮影画像から人物の顔を検出する顔検出手段と、前記顔検出手段により検出された顔の座標に基づいて、前記検出対象物が存在すべき領域を設定する領域設定手段と、前記領域設定手段で設定された領域に検出対象物が存在し、検出対象物が適切に装備されているか否かを判定する判定手段と、前記判定手段の判定結果に応じた処理を行う制御手段と、を備える。
これにより人物管理装置は、判定したい人物と身なりの組み合わせごとに基準画像を用意することなく、検出物品が適切に装備されているか否かを判定し、判定結果に基づいた動作を行うことができる。
A person management apparatus according to the present invention is a person management apparatus that checks whether or not a detection target is appropriately equipped based on a photographed image obtained by photographing a person, and that obtains the photographed image. Based on the coordinates of the face detected by the face detection means, the face detection means for detecting the face of the person from the captured image acquired by the image acquisition means, the storage means for storing the information of the detection object A region setting means for setting a region where the detection target object should exist, and a determination is made as to whether or not the detection target object exists in the region set by the region setting means and the detection target object is appropriately equipped Determination means, and control means for performing processing according to the determination result of the determination means.
As a result, the person management device can determine whether or not the detected article is appropriately equipped without preparing a reference image for each combination of the person to be determined and the appearance, and can perform an operation based on the determination result. .

また、本発明に係る人物管理方法は、人物が含まれる撮影画像を取得し、取得された前記撮影画像から人物の顔を検出し、検出された顔の座標に基づいて、あらかじめ情報が記憶されている検出対象物が存在すべき領域を設定し、前記設定された領域に前記検出対象物が存在しているか否かを判定し、前記判定結果に応じた処理を行う。
これにより、判定したい人物と身なりの組み合わせごとに基準画像を用意することなく、検出物品が適切に装備されているか否かを判定し、判定結果に基づいた動作を行うことができる。
The person management method according to the present invention acquires a captured image including a person, detects a person's face from the acquired captured image, and stores information in advance based on the coordinates of the detected face. An area where the detection target object should be present is set, it is determined whether or not the detection target object exists in the set area, and processing according to the determination result is performed.
Accordingly, it is possible to determine whether or not the detected article is appropriately equipped without preparing a reference image for each combination of the person to be determined and the appearance, and to perform an operation based on the determination result.

人の手を介することなく、人物の身なりが適切であるか否かを判定することができる。   It is possible to determine whether a person is appropriately dressed without human intervention.

実施の形態1にかかる人物管理装置の機能ブロックごとの図である。It is a figure for every functional block of the person management device concerning Embodiment 1. FIG. 実施の形態1にかかる人物管理装置の構成物品を示した図である。It is the figure which showed the structural article of the person management apparatus concerning Embodiment 1. FIG. 実施の形態1にかかる記憶装置内のファイル構成の図である。FIG. 3 is a diagram of a file configuration in the storage device according to the first embodiment. 実施の形態1にかかる装備画像データベースの図である。It is a figure of the equipment image database concerning Embodiment 1. FIG. 実施の形態1にかかる警告履歴ファイルの図である。It is a figure of the warning history file concerning Embodiment 1. FIG. 実施の形態1にかかる顔検出履歴ファイルの図である。FIG. 6 is a diagram of a face detection history file according to the first embodiment. 実施の形態1にかかる人物管理装置の処理フローの図である。It is a figure of the processing flow of the person management apparatus concerning Embodiment 1. FIG. 実施の形態1にかかる顔画像およびヘルメット検出対象領域の関係を表す図である。It is a figure showing the relationship between the face image concerning Embodiment 1, and a helmet detection object area | region. 実施の形態1にかかるヘルメット着用時の検出領域の図である。It is a figure of the detection field at the time of helmet wearing concerning Embodiment 1. 実施の形態1にかかるヘルメット不着用時の検出領域の図である。It is a figure of the detection area at the time of helmet non-wearing concerning Embodiment 1. FIG. 実施の形態2にかかる人物管理装置の構成物品を示した図である。It is the figure which showed the structural article of the person management apparatus concerning Embodiment 2. FIG. 実施の形態2にかかる撮影装置の配置を示した図である。FIG. 6 is a diagram illustrating an arrangement of photographing apparatuses according to a second embodiment. 実施の形態2にかかる第1の撮影装置による撮影状態を示した図である。FIG. 6 is a diagram illustrating a shooting state of the first shooting apparatus according to the second embodiment. 実施の形態2にかかる第2の撮影装置による撮影状態を示した図である。FIG. 6 is a diagram illustrating a photographing state by a second photographing apparatus according to the second embodiment.

実施の形態1
以下、図面を参照して本発明の実施の形態について説明する。図1は、実施の形態1にかかる人物管理装置を機能ブロックごとに表した図である。人物管理装置1は、画像撮影手段11と、記憶手段12と、顔検出手段13と、領域設定手段14と、判定手段15と、制御手段16と、を備える。なお人物管理装置1は、扉(入退出ゲート)の開閉を制御することにより、人の入退出を管理する、入退出管理装置であるものとして説明する。
Embodiment 1
Embodiments of the present invention will be described below with reference to the drawings. FIG. 1 is a diagram illustrating the person management apparatus according to the first embodiment for each functional block. The person management apparatus 1 includes an image photographing unit 11, a storage unit 12, a face detection unit 13, an area setting unit 14, a determination unit 15, and a control unit 16. The person management apparatus 1 will be described as an entry / exit management apparatus that manages opening / closing of a person by controlling opening / closing of a door (entrance / exit gate).

図2は、人物管理装置1の構成物品を示した図である。人物管理装置1は、画像撮影装置101と、記憶装置102と、CPU(Central Processing Unit)103と、RAM(Random Access Memory)104と、入力装置105と、表示装置106と、通信装置107と、警告装置108と、入退出制御装置109と、を備える。各構成物品は、バスラインを介して互いに接続されている。   FIG. 2 is a diagram showing the constituent articles of the person management device 1. The person management device 1 includes an image capturing device 101, a storage device 102, a CPU (Central Processing Unit) 103, a RAM (Random Access Memory) 104, an input device 105, a display device 106, a communication device 107, A warning device 108 and an entry / exit control device 109 are provided. Each component is connected to each other via a bus line.

画像撮影手段11は、画像撮影装置101により構成されている。画像撮影装置101は、例えばCCDイメージセンサ等を撮像素子として使用した、デジタルビデオカメラである。典型的には、画像撮影装置101は、入退出を行う人物の顔を正面方向から撮影し、撮影画像をCPU103やRAM104に送信する。以下では、画像撮影装置101は、1名の人物を正面から撮影するものとして説明する。なお、画像撮影装置101により取得される画像は、静止画と動画のいずれであっても良い。   The image photographing means 11 is constituted by an image photographing device 101. The image capturing apparatus 101 is a digital video camera using, for example, a CCD image sensor or the like as an image sensor. Typically, the image capturing apparatus 101 captures the face of a person entering / exiting from the front, and transmits the captured image to the CPU 103 or the RAM 104. In the following description, it is assumed that the image capturing apparatus 101 captures one person from the front. Note that the image acquired by the image capturing apparatus 101 may be either a still image or a moving image.

記憶手段12は、検出対象である検出対象物に関するデータや、人物に関するデータを記憶している。記憶手段12は、記憶装置102により構成されている。   The storage unit 12 stores data related to a detection target that is a detection target and data related to a person. The storage unit 12 includes a storage device 102.

記憶装置102は、プログラム記憶領域とデータ記憶領域とを有し、磁気的、光学的、半導体メモリ等やその駆動系によって構成されている。例えば、記憶装置102は、ハードディスク等の固定的なメモリの他、CD−ROM、DVD等の着脱自在な記憶媒体を装着可能な構成であっても良い。
図3は、記憶装置102内に設けられているファイル群を列記したものである。記憶装置102には、装備画像データベース21、警告履歴ファイル22、顔検出履歴ファイル23が設けられている。
The storage device 102 has a program storage area and a data storage area, and is configured by a magnetic, optical, semiconductor memory, or a drive system thereof. For example, the storage device 102 may have a configuration in which a removable storage medium such as a CD-ROM or DVD can be mounted in addition to a fixed memory such as a hard disk.
FIG. 3 shows a list of files provided in the storage device 102. In the storage device 102, an equipment image database 21, a warning history file 22, and a face detection history file 23 are provided.

図4は、装備画像データベース21の内容を示した図である。例えば装備画像データベース21は、画像撮影装置101で取得された撮影画像のそれぞれについて、画像ID、装備箇所、検出されないときの警告内容、備考等が保存されている。なお、装備画像データベース21には、ヘルメットや眼鏡などの身につけるものだけでなく、ひげや髪などの情報も、検出対象物の情報として保存される。装備画像データベース21には、それぞれの装備ごとに、顔からの相対座標が設定されている。
図5は、警告履歴ファイル22の内容を示した図である。例えば警告履歴ファイル22には、警告装置108が警告を発した場合の警告履歴として、日時(Date)、警告内容、画像ファイルが保存されている。
図6は、顔検出履歴ファイル23の内容を示した図である。例えば顔検出履歴ファイル23は、記録された顔検出履歴について、日時(Date)、撮影された画像中の顔の個数、顔画像ファイルが保存されている。
なお記憶装置102が記憶するものは、これらのものに限られない。
FIG. 4 is a diagram showing the contents of the equipment image database 21. For example, the equipment image database 21 stores an image ID, equipment location, warning content when not detected, remarks, and the like for each of the captured images acquired by the image capturing apparatus 101. Note that the equipment image database 21 stores information such as a beard and hair as well as information to be detected such as a helmet and glasses. In the equipment image database 21, relative coordinates from the face are set for each equipment.
FIG. 5 is a diagram showing the contents of the warning history file 22. For example, the warning history file 22 stores date and time, warning content, and image file as warning history when the warning device 108 issues a warning.
FIG. 6 is a diagram showing the contents of the face detection history file 23. For example, the face detection history file 23 stores the date and time (Date), the number of faces in the captured image, and the face image file for the recorded face detection history.
Note that what the storage device 102 stores is not limited to these.

顔検出手段13は、画像撮影手段11が取得した画像から、人物の顔がある領域(顔領域)を検出する。例えば、顔認識処理によって、撮影画像中の顔領域が抽出される。領域設定手段は、取得された顔領域に基づいて、対象物が適切に装備されている場合に検出対象物が存在すべき領域を設定する。例えば領域設定手段14は、ヘルメットを検出する場合には、顔領域の上方に設定する。判定手段15は、検出対象物が、領域設定手段14の設定した領域内にあるか否かを判定する。
顔検出手段13と、領域設定手段14と、判定手段15の動作は、それぞれCPU103と、RAM104と、記憶装置102が、それぞれ協調して動作することにより実現される。
The face detection unit 13 detects an area (face area) where a person's face is present from the image acquired by the image capturing unit 11. For example, a face area in the captured image is extracted by face recognition processing. The area setting means sets an area where the detection target object should be present when the target object is appropriately equipped based on the acquired face area. For example, the area setting means 14 sets the face area above the face area when detecting a helmet. The determination unit 15 determines whether or not the detection target is within the region set by the region setting unit 14.
The operations of the face detection unit 13, the region setting unit 14, and the determination unit 15 are realized by the CPU 103, the RAM 104, and the storage device 102 operating in cooperation with each other.

CPU103は、記憶装置102に記憶されているオペレーティングシステムや各種アプリケーションソフトにしたがって演算を行い、人物管理装置1の動作を制御する中央演算処理装置である。
具体的には、CPU103は、画像撮影装置101により取得された撮影画像から、記憶装置102やRAMに格納されたプログラムに基づいて、顔を検出する演算を行う。またCPU103は、検出した顔の座標に基づいて、検出対象物が適切に装備されている場合に、検出対象物が存在すべき領域を設定する。またCPU103は、画像撮影装置101で撮影された撮影画像と、記憶装置102に記憶されている基準画像と、を比較して解析し、人物の身なりが基準に合っているか否かを判定する。
The CPU 103 is a central processing unit that performs operations according to an operating system and various application software stored in the storage device 102 and controls the operation of the person management device 1.
Specifically, the CPU 103 performs a calculation for detecting a face from a captured image acquired by the image capturing device 101 based on a program stored in the storage device 102 or the RAM. Further, the CPU 103 sets an area where the detection target object should exist when the detection target object is appropriately equipped based on the detected face coordinates. Further, the CPU 103 compares and analyzes the captured image captured by the image capturing apparatus 101 and the reference image stored in the storage device 102, and determines whether or not the person's appearance meets the reference.

RAM104は、記憶装置102に記憶されているプログラムやデータを必要に応じてロードし、CPU103に高速で伝送する。また、RAM104は、CPU103による演算結果を一時的に保存し、演算結果を記憶装置102に伝送する。典型的にはRAM104は、CPU103から直接アクセス可能なメインメモリである。   The RAM 104 loads programs and data stored in the storage device 102 as necessary, and transmits them to the CPU 103 at high speed. Further, the RAM 104 temporarily stores the calculation result by the CPU 103 and transmits the calculation result to the storage device 102. Typically, the RAM 104 is a main memory that can be directly accessed from the CPU 103.

制御手段16は、人物管理装置1の動作を管理する。例えば制御手段16は、入力装置105と、表示装置106と、通信装置107と、警告装置108と、入退出制御装置109と、を備える。   The control unit 16 manages the operation of the person management device 1. For example, the control unit 16 includes an input device 105, a display device 106, a communication device 107, a warning device 108, and an entry / exit control device 109.

入力装置105は、例えば使用者の操作により入力を行うための機器である。典型的には、入力装置105は、キーボードやマウス、テンキー等である。   The input device 105 is a device for performing input by a user's operation, for example. Typically, the input device 105 is a keyboard, a mouse, a numeric keypad, or the like.

表示装置106は、例えば、液晶ディスプレイである。表示装置106は、CPU103により判定された判定結果を表示する。   The display device 106 is, for example, a liquid crystal display. The display device 106 displays the determination result determined by the CPU 103.

通信装置107は、人物管理装置1の外部に設けられた機器との通信を行う。例えば、通信装置107は、遠隔地にいる人物に対して記憶装置102に記憶された内容の送信や、遠隔地から送信されたデータの受信を行う。   The communication device 107 communicates with a device provided outside the person management device 1. For example, the communication device 107 transmits content stored in the storage device 102 to a person at a remote location and receives data transmitted from the remote location.

警告装置108は、例えばスピーカーである。警告装置108は、CPU103により、人物の身なりが規則に違反していると判定された場合に、その違反内容に応じた警告メッセージ音を発生する。   The warning device 108 is, for example, a speaker. If the CPU 103 determines that the person's dress is in violation of the rules, the warning device 108 generates a warning message sound corresponding to the violation content.

入退出制御装置109は、判定手段15が行った、人物の装備が規則に適合しているか否かの判定結果に基づいて、扉の開閉制御を行う。   The entrance / exit control device 109 performs door opening / closing control based on the determination result of whether the person's equipment conforms to the rules performed by the determination unit 15.

次に、人物管理装置1の動作について説明する。図7は、人物管理装置1の処理フローの図である。ここでは、人物がヘルメットを装備しているか否かにより、入退出管理を行うものについて説明する。   Next, the operation of the person management device 1 will be described. FIG. 7 is a diagram of a processing flow of the person management apparatus 1. Here, what performs entrance / exit management depending on whether a person is equipped with a helmet will be described.

画像撮影装置101は撮影を行い、1フレームの画像を更新する(ステップS1)。このとき、画像撮影装置101が動画を撮影する場合には、新規フレームを読み込む。画像撮影装置101が静止画を撮影する場合には、撮影画像を取得する。   The image photographing apparatus 101 performs photographing and updates one frame image (step S1). At this time, when the image capturing apparatus 101 captures a moving image, a new frame is read. When the image capturing apparatus 101 captures a still image, a captured image is acquired.

CPU103は、撮影された新規の画像から、人物の顔を検出する処理(顔検出処理)を行う(ステップS2)。顔検出処理により人物の顔を検出した場合には(ステップS3でYes)、ステップS4に進む。顔検出処理により顔を検出できなかった場合には(ステップS3でNo)、ステップS1に戻る。   The CPU 103 performs processing (face detection processing) for detecting a person's face from the photographed new image (step S2). If a human face is detected by the face detection process (Yes in step S3), the process proceeds to step S4. If the face cannot be detected by the face detection process (No in step S3), the process returns to step S1.

CPU103は、顔の四隅の座標と、画像中の顔の向きを取得する(ステップS4)。さらに、記憶装置102の顔検出履歴ファイル23に顔検出の履歴を更新する。図8は、検出された顔画像と、取得された顔の四隅の座標およびヘルメット検出対象領域の関係を示した図である。ここで検出された顔の四隅の座標は、それぞれA(Xa,Ya)、B(Xb,Yb)、C(Xc,Yc)、D(Xd,Yd)とする。ここで、図8に示すように、座標Aは画面の左下、座標Bは画面の右下、座標Cは画面の左上、座標Dは画面の右上とする。なお、例えば取得画像のX方向(左右方向)のサイズが640pixelであり、Y方向(上下方向)のサイズが480pixelであれば、取得画像の左下の座標が(0,0)、右上の座標が(640,480)であるものとして説明する。   The CPU 103 acquires the coordinates of the four corners of the face and the orientation of the face in the image (step S4). Further, the face detection history is updated in the face detection history file 23 of the storage device 102. FIG. 8 is a diagram showing the relationship between the detected face image, the coordinates of the four corners of the acquired face, and the helmet detection target area. The coordinates of the four corners of the detected face are A (Xa, Ya), B (Xb, Yb), C (Xc, Yc), and D (Xd, Yd), respectively. Here, as shown in FIG. 8, the coordinate A is the lower left of the screen, the coordinate B is the lower right of the screen, the coordinate C is the upper left of the screen, and the coordinate D is the upper right of the screen. For example, if the size of the acquired image in the X direction (horizontal direction) is 640 pixels and the size in the Y direction (vertical direction) is 480 pixels, the lower left coordinates of the acquired image are (0,0), and the upper right coordinates are The description will be made assuming that it is (640,480).

CPU103は、取得画像から、ヘルメット検出対象領域の設定を行う(ステップS5)。ヘルメット検出対象領域は、例えば図8に示すように、座標A〜Dに基づいて定められた座標E〜Hに囲まれた領域とする。画像中の顔の向きが上向きの場合であれば、座標Eを(Xa-50,Yc-100)とし、座標Fを(Xb+50,Yd-100)とし、座標Gを(Xa-50,Yc+200)とし、座標Hを(Xb+50,Yd+200)とする。   The CPU 103 sets a helmet detection target region from the acquired image (step S5). For example, as shown in FIG. 8, the helmet detection target region is a region surrounded by coordinates E to H determined based on the coordinates A to D. If the face orientation in the image is upward, the coordinate E is (Xa-50, Yc-100), the coordinate F is (Xb + 50, Yd-100), and the coordinate G is (Xa-50, Yc-100). Yc + 200) and the coordinates H are (Xb + 50, Yd + 200).

CPU103は、ヘルメットの検出を行う(ステップS6)。図9及び図10は、検出された顔の向きが上向きの場合の、ヘルメット検出の図である。図9は、人物がヘルメットを装備している状態であり、図10は、人物がヘルメットを装備していない状態である。
例えば、CPU103は、記憶装置102に登録されているヘルメット画像とのマッチングにより、ヘルメットを検出する。CPU103は、ヘルメットを検出できた場合には(ステップS7でYes)、ヘルメットの向きおよびヘルメットの四隅の座標を取得し、ステップS8に進む。ここで、ヘルメットとして検出された四隅の座標は、それぞれI(Xi,Yi)、J(Xj,Yj)、K(Xk,Yk)、L(Xl,Yl)とする。
CPU103は、ヘルメットを検出できなかった場合には(ステップS7でNo)、警告装置108が装備画像データベース21を参照してヘルメットの装備が不適当である旨の警告を発するように制御し、さらに記憶装置102の警告履歴ファイル22に警告履歴を記録する(ステップS10)。その後、ステップS1に戻る。
CPU103 detects a helmet (step S6). 9 and 10 are diagrams of helmet detection when the detected face orientation is upward. FIG. 9 shows a state where a person is equipped with a helmet, and FIG. 10 shows a state where the person is not equipped with a helmet.
For example, the CPU 103 detects a helmet by matching with a helmet image registered in the storage device 102. When the CPU 103 can detect the helmet (Yes in step S7), the CPU 103 acquires the direction of the helmet and the coordinates of the four corners of the helmet, and proceeds to step S8. Here, the coordinates of the four corners detected as the helmet are I (Xi, Yi), J (Xj, Yj), K (Xk, Yk), and L (Xl, Yl), respectively.
If the helmet cannot be detected (No in step S7), the CPU 103 controls the warning device 108 to issue a warning that the helmet equipment is inappropriate with reference to the equipment image database 21, and further. The warning history is recorded in the warning history file 22 of the storage device 102 (step S10). Then, it returns to step S1.

CPU103は、ヘルメットの向きとヘルメットの座標について、人物の相対位置との確認を行う(ステップS8)。より具体的には、CPU103は、ヘルメットの座標I〜Lが、ヘルメット検出対象領域である座標E〜Hの内部にあるか否かを判定する。CPU103は、図8のように、ヘルメット検出領域内にヘルメットが存在していれば(ステップS8でYes)、ヘルメットが適正に装備されているものと判定し、入退出制御装置109に入退出を許可する旨の制御信号を出力する。入退出制御装置109は、CPU103から受信した制御信号に基づいて開扉の制御を行う(ステップS9)。その後、ステップS1に戻る。
CPU103は、図10のように、ヘルメット検出領域内にヘルメットが存在していない場合には(ステップS8でNo)、警告装置108が装備画像データベース21を参照してヘルメットの装備が不適当である旨の警告を発するように制御し、さらに記憶装置102の警告履歴ファイル22に警告履歴を記録する(ステップS10)。その後、ステップS1に戻る。
CPU103 confirms the relative position of a person about the direction of a helmet, and the coordinate of a helmet (step S8). More specifically, the CPU 103 determines whether or not the coordinates I to L of the helmet are inside the coordinates E to H that are the helmet detection target areas. As shown in FIG. 8, if a helmet is present in the helmet detection area (Yes in step S <b> 8), the CPU 103 determines that the helmet is properly equipped, and enters / exits the entry / exit control device 109. A control signal indicating permission is output. The entrance / exit control device 109 controls the opening of the door based on the control signal received from the CPU 103 (step S9). Then, it returns to step S1.
As shown in FIG. 10, when there is no helmet in the helmet detection area (No in step S <b> 8), the CPU 103 refers to the equipment image database 21 and the helmet apparatus is not properly equipped. A warning history is recorded in the warning history file 22 of the storage device 102 (step S10). Then, it returns to step S1.

これにより、人物の顔と同時に衣服や装備等の検出対象物を検出し、検出された顔と検出対象物の位置関係から、検出対象物の所持チェックを行うとともに、検出対象物が適切に装備されているか否かを判定し、入退出管理を行うことができる。
より具体的には、カメラにより撮影される静止画または動画に対し、顔検出処理を行った結果得られた顔の向きおよび位置座標と、同じ画像に対して事前に定義済みの着用義務のある装備の位置座標との相対位置から、装備が適切に行われているか否かを考慮に入れて判定することができる。したがってヘルメットだけでなく、例えば名札や眼鏡などの装備品についても、顔との相対座標に基づいて、適切に装備されているか否かを判定することができる。
また、特許文献1に開示された発明に比べ、本実施の形態にかかる人物管理装置1では、必要とする基準画像の枚数が少ない。具体的には、3つの装備品について判定を行う場合、特許文献1に開示された発明では8枚の基準画像を用意しなければならないのに対し、本実施の形態にかかる人物管理装置1では少なくとも3枚の基準画像が存在すればよい。さらに人物管理装置1では、対象となる人物が増えても、あらかじめ用意する基準画像の数を特許文献1に開示された発明に比べて少なくすることができる。したがって、人物管理装置1では、基準画像との比較処理を高速で実行することができる。
また、複数の人数の人物管理を行う場合において、事前に各人の基準画像を登録する必要が無く、登録されていない人物の身なりについて判定することができる。
As a result, detection objects such as clothes and equipment are detected at the same time as the face of a person, and the possession of the detection object is checked from the positional relationship between the detected face and the detection object, and the detection object is appropriately equipped. It can be determined whether or not it has been done, and entry / exit management can be performed.
More specifically, the orientation and position coordinates of the face obtained as a result of performing face detection processing on a still image or video shot by a camera and a pre-defined wearing obligation for the same image It can be determined from the relative position to the position coordinates of the equipment in consideration of whether or not the equipment is properly performed. Therefore, not only helmets but also equipment such as name tags and glasses can be determined based on the relative coordinates with the face.
Compared to the invention disclosed in Patent Document 1, the person management apparatus 1 according to the present embodiment requires a smaller number of reference images. Specifically, in the case of making a determination for three equipments, the invention disclosed in Patent Document 1 requires eight reference images, whereas the person management apparatus 1 according to the present embodiment requires There should be at least three reference images. Further, the person management device 1 can reduce the number of reference images prepared in advance as compared with the invention disclosed in Patent Document 1, even if the number of persons to be targeted increases. Therefore, the person management apparatus 1 can execute the comparison process with the reference image at high speed.
Further, when managing a plurality of persons, it is not necessary to register each person's reference image in advance, and it is possible to determine the dressing of unregistered persons.

なお、撮影画像中の一部の領域を装備品の検出領域として設定していることを利用し、画像全体ではなく、その検出領域内において基準画像とマッチング処理を行うことで、装備が適切か否かの判定処理をより高速で行うことができる。   In addition, using the fact that some areas in the captured image are set as the detection area of the equipment, matching is performed with the reference image in the detection area instead of the entire image, so that the equipment is appropriate. The determination process of whether or not can be performed at higher speed.

実施の形態2
図11に、人物管理装置2の構成を示す。人物管理装置2は、実施の形態1で示した人物管理装置1に、第2の画像撮影装置110を更に備えたものである。人物管理装置1と同様の構成物品については、同一の符号を付し、説明を省略する。なお、画像撮影装置101は、第1の画像撮影装置101とする。
Embodiment 2
FIG. 11 shows the configuration of the person management device 2. The person management apparatus 2 includes the second image photographing apparatus 110 in addition to the person management apparatus 1 shown in the first embodiment. Constituent articles similar to those of the person management device 1 are denoted by the same reference numerals and description thereof is omitted. Note that the image capturing apparatus 101 is the first image capturing apparatus 101.

第2の画像撮影装置110は、例えばデジタルビデオカメラである。第2の画像撮影装置110は、入退出を行う人物を頭部方向から撮影し、撮影画像をCPU103やRAM104に送信する。すなわち、第2の画像撮影装置110は、第1の画像撮影装置101と同時刻に、別のアングルから撮影を行う。図12は、人物を2方向から撮影する場合の概略図である。   The second image capturing device 110 is, for example, a digital video camera. The second image capturing device 110 captures the person entering and exiting from the head direction and transmits the captured image to the CPU 103 and the RAM 104. That is, the second image capturing device 110 captures images from a different angle at the same time as the first image capturing device 101. FIG. 12 is a schematic diagram when a person is photographed from two directions.

次に、人物管理装置2の動作について説明する。   Next, the operation of the person management device 2 will be described.

第1の画像撮影装置101は、人物の顔を撮影する。図13は、第1の画像撮影装置101が人物を正面から撮影した場合の図である。
CPU103は、第1の画像撮影装置101により撮影された画像から人物の顔を検出し、検出した顔の上方に第1のヘルメット検出領域を作成する。さらにCPU103はヘルメットの検出を行い、検出したヘルメットの座標が第1のヘルメット検出領域の内部であるか否かを判定する。
CPU103は、検出したヘルメットの座標が第1のヘルメット検出領域内部であれば、適切に装備がなされているものとして判定する。CPU103は、ヘルメットが検出できなかった場合や、ヘルメットの座標が第1のヘルメット検出領域の外であれば、装備が不適切であるものとして判定する。
The first image capturing apparatus 101 captures a person's face. FIG. 13 is a diagram when the first image capturing apparatus 101 captures a person from the front.
The CPU 103 detects the face of a person from the image photographed by the first image photographing device 101 and creates a first helmet detection area above the detected face. Further, the CPU 103 detects the helmet and determines whether or not the coordinates of the detected helmet are inside the first helmet detection area.
If the detected coordinates of the helmet are within the first helmet detection area, the CPU 103 determines that the equipment is appropriately equipped. If the helmet cannot be detected, or if the coordinates of the helmet are outside the first helmet detection area, the CPU 103 determines that the equipment is inappropriate.

また、第2の画像撮影装置110は、人物の上方から撮影を行う。図14は、第2の画像撮影装置110が人物を上方向から撮影した場合の図あり、ヘルメットの上部が撮影されている。ここで、人物が第1の画像撮影装置101に近づいた場合には、第2の画像撮影装置110の撮影画像では人物が下方向に動くものとして説明する。
CPU103は、第2の画像撮影装置110により撮影された画像にヘルメット着用と判断する第2のヘルメット検出領域を設定する。CPU103は、第2のヘルメット検出領域を、第1の画像撮影装置101で撮影された顔情報に基づいて設定しても良い。例えば、第1の画像撮影装置101により撮影された画像において、画像の右側に人物がいるものと判定された場合に、第2のヘルメット検出領域を画像の右側とするようにしても良い。また、第1の画像撮影装置101で撮影された顔の大きさに基づいて、第2のヘルメット検出領域を上下方向に動かしても良い。
The second image capturing device 110 captures an image from above a person. FIG. 14 is a diagram when the second image capturing device 110 captures a person from above, and the upper part of the helmet is captured. Here, it is assumed that when a person approaches the first image capturing apparatus 101, the person moves downward in the captured image of the second image capturing apparatus 110.
The CPU 103 sets a second helmet detection area for determining that the helmet is worn on the image captured by the second image capturing device 110. The CPU 103 may set the second helmet detection area based on the face information photographed by the first image photographing device 101. For example, in the image captured by the first image capturing apparatus 101, when it is determined that there is a person on the right side of the image, the second helmet detection area may be set on the right side of the image. Further, the second helmet detection area may be moved in the vertical direction based on the size of the face photographed by the first image photographing device 101.

CPU103は、第2のヘルメット検出領域においてヘルメットが検出された場合には、第1のヘルメット検出領域においてヘルメットが検出されたか否かを確認する。CPU103は、第1のヘルメット検出領域および第2のヘルメット検出領域の両方でヘルメットが検出されていれば、ヘルメットが適切に装備されているものと判定し、入退出制御装置109に入退出を許可する旨の制御信号を出力する。入退出制御装置109は、CPU103から受信した制御信号に基づいて開扉の制御を行う。   CPU103 confirms whether the helmet was detected in the 1st helmet detection area, when a helmet is detected in the 2nd helmet detection area. If the helmet is detected in both the first helmet detection area and the second helmet detection area, the CPU 103 determines that the helmet is properly equipped and allows the entry / exit control device 109 to enter / exit. A control signal to that effect is output. The entrance / exit control device 109 controls the opening of the door based on the control signal received from the CPU 103.

第1のヘルメット検出領域と、第2のヘルメット検出領域の少なくとも一方において、ヘルメットを検出できなかった場合には、ヘルメットが適切に装備されていないものと判定する。
ヘルメットが適切されていないものと判定された場合には、警告装置108は、ヘルメットの装備が不適当である旨の警告を発する。また、記憶装置102の警告履歴ファイル22には、ヘルメットの装備が不適当である旨が記録される。その後は待機状態に戻り、新規の画像が取得された場合には同様の動作を行う。
If a helmet cannot be detected in at least one of the first helmet detection area and the second helmet detection area, it is determined that the helmet is not properly equipped.
If it is determined that the helmet is not suitable, the warning device 108 issues a warning that the helmet is not properly equipped. Further, the warning history file 22 of the storage device 102 records that the helmet equipment is inappropriate. Thereafter, the process returns to the standby state, and the same operation is performed when a new image is acquired.

これにより、同時刻に頭上からの画像を取得し、「上から見た安全ヘルメット」画像の検出も判断条件に加えることで確実にヘルメットを着用していると判断し、確実に入退出を管理することができる。   By acquiring an overhead image at the same time and adding the detection of the “safety helmet seen from above” image to the determination condition, it is determined that the helmet is being worn reliably, and entry / exit is reliably managed can do.

なお、本発明は上記実施の形態に限られたものではなく、趣旨を逸脱しない範囲で適宜変更することが可能である。
第2の画像撮影装置110は、人物の真上から撮影するものとして説明したが、他のアングルからの撮影であってもよい。
CPU103は、1つのCPUではなく、複数のCPUであっても良い。例えば、第1のCPUによって人物の身なりが基準に合っているか否かを判定し、第2のCPUによって警告装置108や入退出制御装置109の動作を制御してもよい。
また、検査対象物をヘルメットとして説明をしてきたが、例えば上腕部に装備する計測機など、他の装備品にも適用可能である。
また、入退出の管理に用いる場合について述べたが、入退出の管理以外の場面で用いても良い。例えば、工事現場での安全ヘルメット着用の監視に用いることで、安全性の向上の効果が期待できる。
Note that the present invention is not limited to the above-described embodiment, and can be changed as appropriate without departing from the spirit of the present invention.
Although the second image capturing apparatus 110 has been described as capturing from directly above a person, it may be capturing from another angle.
The CPU 103 may be a plurality of CPUs instead of a single CPU. For example, the first CPU may determine whether or not the person's appearance meets a standard, and the second CPU may control the operations of the warning device 108 and the entry / exit control device 109.
Further, although the inspection object has been described as a helmet, it can also be applied to other equipment such as a measuring machine equipped on the upper arm.
Moreover, although the case where it uses for management of entrance / exit was described, you may use in scenes other than management of entrance / exit. For example, the effect of improving safety can be expected by using it for monitoring the wearing of a safety helmet at a construction site.

1 人物管理装置
2 人物管理装置
11 画像撮影手段
12 記憶手段
13 顔検出手段
14 領域設定手段
15 判定手段
16 制御手段
21 装備画像データベース
22 警告履歴ファイル
23 顔検出履歴ファイル
101 画像撮影装置
102 記憶装置
103 CPU
104 RAM
105 入力装置
106 表示装置
107 通信装置
108 警告装置
109 入退出制御装置
110 画像撮影装置
DESCRIPTION OF SYMBOLS 1 Person management apparatus 2 Person management apparatus 11 Image photographing means 12 Storage means 13 Face detection means 14 Area setting means 15 Determination means 16 Control means 21 Equipment image database 22 Warning history file 23 Face detection history file 101 Image photographing apparatus 102 Storage apparatus 103 CPU
104 RAM
105 Input Device 106 Display Device 107 Communication Device 108 Warning Device 109 Entry / Exit Control Device 110 Image Shooting Device

Claims (6)

人物を撮影した撮影画像に基づいて検出対象物が適切に装備されているか否かのチェックを行う人物管理装置であって、
前記撮影画像を取得する画像取得手段と、
前記検出対象物の情報を記憶する記憶手段と、
前記画像取得手段により取得された前記撮影画像から人物の顔を検出する顔検出手段と、
前記顔検出手段により検出された顔の座標に基づいて、前記検出対象物が存在すべき領域を設定する領域設定手段と、
前記領域設定手段で設定された領域に前記検出対象物が存在しているか否かを判定する判定手段と、
前記判定手段の判定結果に応じた処理を行う制御手段と、を備える、
人物管理装置。
A person management device that checks whether a detection target is appropriately equipped based on a photographed image of a person,
Image acquisition means for acquiring the captured image;
Storage means for storing information of the detection object;
Face detection means for detecting a human face from the captured image acquired by the image acquisition means;
An area setting means for setting an area where the detection object should exist based on the coordinates of the face detected by the face detection means;
Determination means for determining whether or not the detection object is present in the area set by the area setting means;
Control means for performing processing according to the determination result of the determination means,
Person management device.
前記画像取得手段は、異なるアングルで人物を撮影する複数の撮影装置を備えており、
前記判定手段は、前記複数の撮影装置により取得されたそれぞれの画像に基づいて判定を行う、
請求項1に記載の人物管理装置。
The image acquisition means includes a plurality of photographing devices for photographing a person at different angles,
The determination unit performs determination based on each image acquired by the plurality of imaging devices.
The person management device according to claim 1.
前記画像取得手段は、人物の正面から撮影する第1の撮影装置と、人物の頭上から撮影を行う第2の撮影装置とを備える、
請求項2に記載の人物管理装置。
The image acquisition means includes a first imaging device that captures images from the front of a person and a second imaging device that captures images from above the person.
The person management device according to claim 2.
前記制御手段は、判定結果に応じて警告を発し、
前記記憶手段は、
前記検出対象物に関する情報を記憶する装備画像データベースと、
前記警告の履歴を記憶する警告履歴ファイルと、
前記顔検出手段により検出された顔の検出履歴を記憶する顔検出履歴ファイルと、を備える、
請求項1乃至請求項3のいずれか1項に記載の人物管理装置。
The control means issues a warning according to the determination result,
The storage means
Equipment image database for storing information on the detection object;
A warning history file for storing the warning history;
A face detection history file that stores a face detection history detected by the face detection means,
The person management device according to any one of claims 1 to 3.
前記制御手段は、前記判定手段の判定結果に基づいて、人物が入退出する入退出ゲートの開閉を制御する、
請求項1乃至請求項4のいずれか1項に記載の人物管理装置。
The control means controls opening and closing of an entrance / exit gate where a person enters and exits based on a determination result of the determination means.
The person management device according to any one of claims 1 to 4.
人物が含まれる撮影画像を取得し、
取得された前記撮影画像から人物の顔を検出し、
検出された顔の座標に基づいて、あらかじめ情報が記憶されている検出対象物が存在すべき領域を設定し、
前記設定された領域に前記検出対象物が存在しているか否かを判定し、
前記判定結果に応じた処理を行う、
人物管理方法。
Get a shot image that includes people
A human face is detected from the acquired image,
Based on the coordinates of the detected face, set a region where the detection target for which information is stored in advance should exist,
Determine whether the detection object is present in the set area;
Processing according to the determination result;
Person management method.
JP2011104960A 2011-05-10 2011-05-10 Person management device and person management method Withdrawn JP2012237569A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011104960A JP2012237569A (en) 2011-05-10 2011-05-10 Person management device and person management method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011104960A JP2012237569A (en) 2011-05-10 2011-05-10 Person management device and person management method

Publications (1)

Publication Number Publication Date
JP2012237569A true JP2012237569A (en) 2012-12-06

Family

ID=47460600

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011104960A Withdrawn JP2012237569A (en) 2011-05-10 2011-05-10 Person management device and person management method

Country Status (1)

Country Link
JP (1) JP2012237569A (en)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015095209A (en) * 2013-11-14 2015-05-18 オムロン株式会社 Monitoring device and monitoring method
JP2015109035A (en) * 2013-12-05 2015-06-11 アマノ株式会社 Employment management apparatus and employment management system
JP2016105261A (en) * 2014-12-01 2016-06-09 株式会社DSi Attendance monitor device, attendance management method, attendance management system and program
JP2018018535A (en) * 2017-09-27 2018-02-01 アマノ株式会社 Employment management device, employment management system and program
WO2018109048A1 (en) * 2016-12-16 2018-06-21 Glaxosmithkline Intellectual Property Development Limited A clothing compliance detection apparatus, and associated clothing standard enforcement apparatus
WO2018220710A1 (en) * 2017-05-30 2018-12-06 三菱電機株式会社 System for managing management area users
JP2019219721A (en) * 2018-06-15 2019-12-26 パナソニック株式会社 Entry/exit authentication system and entry/exit authentication method
KR102403242B1 (en) * 2021-08-23 2022-05-30 (주)그린아이티코리아 Service providing apparatus and method for identifying object characteristic

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015095209A (en) * 2013-11-14 2015-05-18 オムロン株式会社 Monitoring device and monitoring method
JP2015109035A (en) * 2013-12-05 2015-06-11 アマノ株式会社 Employment management apparatus and employment management system
JP2016105261A (en) * 2014-12-01 2016-06-09 株式会社DSi Attendance monitor device, attendance management method, attendance management system and program
WO2018109048A1 (en) * 2016-12-16 2018-06-21 Glaxosmithkline Intellectual Property Development Limited A clothing compliance detection apparatus, and associated clothing standard enforcement apparatus
WO2018220710A1 (en) * 2017-05-30 2018-12-06 三菱電機株式会社 System for managing management area users
JPWO2018220710A1 (en) * 2017-05-30 2019-11-07 三菱電機株式会社 Management area user management system
JP2018018535A (en) * 2017-09-27 2018-02-01 アマノ株式会社 Employment management device, employment management system and program
JP2019219721A (en) * 2018-06-15 2019-12-26 パナソニック株式会社 Entry/exit authentication system and entry/exit authentication method
JP7075702B2 (en) 2018-06-15 2022-05-26 i-PRO株式会社 Entry / exit authentication system and entry / exit authentication method
KR102403242B1 (en) * 2021-08-23 2022-05-30 (주)그린아이티코리아 Service providing apparatus and method for identifying object characteristic

Similar Documents

Publication Publication Date Title
JP2012237569A (en) Person management device and person management method
WO2020125406A1 (en) Safety guardianship method, apparatus, terminal and computer readable storage medium
CN101763671B (en) System for monitoring persons by using cameras
CN110968855B (en) Occlusion detection during a facial recognition process
JP6674584B2 (en) Video surveillance system
JP5523900B2 (en) Person search device, person search method, and person search program
US9298987B2 (en) Information processing apparatus, information processing method, program, and information processing system
JP2018160219A (en) Moving route prediction device and method for predicting moving route
CN102236413A (en) Interface apparatus and gesture recognition method
KR102317429B1 (en) Electronic access list creation and order payment system with temperature check
RU2713876C1 (en) Method and system for detecting alarm events when interacting with self-service device
JP2018018150A (en) Crime prevention system, crime prevention method, and robot
US20210090611A1 (en) Information processing apparatus, control method, and program
KR20180096038A (en) Crime prediction system based on moving behavior pattern
KR20180058599A (en) Apparatus and method for providing density
JP2021196741A (en) Image processing device, image processing method and program
JP6206627B1 (en) Information processing apparatus, control method, and program
US10783365B2 (en) Image processing device and image processing system
CN107301373B (en) Data processing method, device and storage medium
JP2019176380A (en) Control unit and monitoring system
JP2012124658A (en) System and method for detecting specific person
Tay et al. Application of computer vision in the construction industry
JP2018092599A (en) Information processing device, control method and program
JP6648923B2 (en) Control device, control method, and program
JP2010282488A (en) Atm periphery situation detection system, atm periphery situation detection method, and program for detecting atm periphery situation

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20140805