JP7247310B2 - CONTROL DEVICE, CONTROL METHOD, PROGRAM AND SYSTEM - Google Patents

CONTROL DEVICE, CONTROL METHOD, PROGRAM AND SYSTEM Download PDF

Info

Publication number
JP7247310B2
JP7247310B2 JP2021191913A JP2021191913A JP7247310B2 JP 7247310 B2 JP7247310 B2 JP 7247310B2 JP 2021191913 A JP2021191913 A JP 2021191913A JP 2021191913 A JP2021191913 A JP 2021191913A JP 7247310 B2 JP7247310 B2 JP 7247310B2
Authority
JP
Japan
Prior art keywords
person
area
working alone
detected
display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021191913A
Other languages
Japanese (ja)
Other versions
JP2022037001A (en
Inventor
吉孝 長尾
和成 岩本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP2015215053A external-priority patent/JP6648923B2/en
Priority claimed from JP2020004940A external-priority patent/JP6987902B2/en
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2021191913A priority Critical patent/JP7247310B2/en
Publication of JP2022037001A publication Critical patent/JP2022037001A/en
Application granted granted Critical
Publication of JP7247310B2 publication Critical patent/JP7247310B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Closed-Circuit Television Systems (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Image Analysis (AREA)

Description

本発明は、人物を検出し、表示装置に表示させる制御装置、制御方法、プログラム、及びシステムに関する。 The present invention relates to a control device, a control method, a program, and a system for detecting a person and displaying it on a display device.

従来、画像から人物を検出する方法が知られている。特許文献1では画像から遮蔽された人物を検出する方法が開示されている。 Conventionally, a method for detecting a person from an image is known. Japanese Patent Application Laid-Open No. 2002-200001 discloses a method of detecting a person who is hidden from an image.

特開2014-199506号公報JP 2014-199506 A

上述の特許文献1に開示された技術では、画像中の人物の位置を知らせることが可能である。例えば、前記技術では、画像中に存在する人物を丸で囲み、ユーザーに人物の位置を提示することができる。しかし、前記技術に基づいて人物の位置を示すのみでは、ユーザーは、検出された人物が集団から孤立して単独で作業を行っているか、それとも他の人物と近い位置で共同作業を行っているかを一目で判断できない課題があった。例えば、漏えいを防止すべきデータを扱っている現場では、単独で作業をすることを禁止するルールを課していることがあり、作業監視員が撮像装置を介して作業者らを監視し、集団から孤立して単独で作業を行っている単独作業者に対して注意を促したい場合がある。しかし、撮像画像を見るのみでは、作業監視員は撮像画像中の作業者らそれぞれが、単独で作業を行っているのか、それとも複数で作業を行っているのか、を一目で判断できない。また、作業監視員が常に作業者を監視し続けることは負担も大きい。
本発明は、人物が、単独かを提示することを目的とする。
With the technique disclosed in the above-mentioned Patent Document 1, it is possible to notify the position of the person in the image. For example, the technique can circle a person present in the image and present the location of the person to the user. However, only indicating the position of the person based on the above technology does not allow the user to determine whether the detected person is isolated from the group and works alone, or whether the detected person is working in close proximity with other people. There was a problem that could not be judged at a glance. For example, at sites that handle data that should be prevented from leaking, there are rules that prohibit working alone. There are cases where it is desirable to call attention to a lone worker who is isolated from a group and is working alone. However, just by looking at the captured image, the work supervisor cannot determine at a glance whether each of the workers in the captured image is working alone or in groups. In addition, it is a heavy burden for work supervisors to constantly monitor workers.
An object of the present invention is to present whether a person is alone.

そこで、本発明の制御装置は、人物が作業を行うエリアの人物を検出する検出手段により検出された人物が、単独で作業を行っている人物かを特定する特定手段と、前記特定手段により、前記エリアにおいて前記検出手段により検出された人物が、単独で作業を行っている人物であると特定されたことを条件として、複数人で作業を行わなければならない前記エリアにおいて単独で作業を行っている人物が存在することに関する情報を表示手段に表示させるように制御する表示制御手段と、を有することを特徴とする。 Therefore, in the control device of the present invention, the person detected by the detection means for detecting the person in the area where the person works is a person who is working alone. On the condition that the person detected by the detection means in the area is specified as a person working alone, the person working alone in the area where the work must be done by a plurality of people. and display control means for controlling the display means to display information relating to the presence of the person.

本発明によれば、人物が、単独かを提示することができる。 According to the present invention, it is possible to present whether a person is alone.

システムのシステム構成及びハードウェア構成の一例を示す図である。It is a figure which shows an example of the system configuration|structure of a system, and a hardware configuration. 撮像装置及びクライアント装置の機能構成等の一例を示す図である。1 is a diagram illustrating an example of functional configurations of an imaging device and a client device; FIG. 通知制御の処理の一例を示すフローチャートである。6 is a flowchart illustrating an example of notification control processing; 撮像画像の一例を示す図である。It is a figure which shows an example of a captured image. 人物検出を行った結果を示す画像の一例を示す図である。It is a figure which shows an example of the image which shows the result of having performed the person detection. 水平面画像の一例を示す図である。It is a figure which shows an example of a horizontal plane image. 作業エリア枠の一例を示す図である。FIG. 4 is a diagram showing an example of a work area frame; 表示画面の一例を示す図である。It is a figure which shows an example of a display screen. 表示画面の一例を示す図である。It is a figure which shows an example of a display screen. 表示画面の一例を示す図である。It is a figure which shows an example of a display screen. 入退室管理システムと連携した一例を示す図である。It is a figure which shows an example linked with an entrance/exit management system. 通知制御の処理の一例を示すフローチャートである。6 is a flowchart illustrating an example of notification control processing; 判定の一例を説明する図である。It is a figure explaining an example of determination.

以下、本発明の実施形態について図面に基づいて説明する。 BEST MODE FOR CARRYING OUT THE INVENTION An embodiment of the present invention will be described below with reference to the drawings.

<実施形態1>
本実施形態では、作業者に対して二人以上で作業を行うことが義務付けられている漏えいを防止すべきデータを扱う現場において、作業監視員に単独作業者(他の人物と関連付けられない人物)が含まれる画像か、共同作業者(他の人物と関連付けられる人物)が含まれる画像か、を提示する処理について説明する。このような状況は、本実施形態を用いることができる状況の一例であり、人物が単独であるか、複数であるかを判断したい種々の状況で用いることができる。例えば、本発明は、通行人や入場者等が単独であるかグループであるかを判断して、マーケティングや、社会問題の解決等に利用する状況にも用いることができる。
本実施形態におけるシステムのシステム構成及びハードウェア構成の一例を図1に示す。図1において、撮像装置110は、撮像を行う。クライアント装置120は、撮像装置110の駆動、撮像装置110で撮像された撮像画像の表示を行う。入力装置130は、マウスやキーボード等から構成され、クライアント装置120へのユーザー入力を行う。表示装置140は、ディスプレイ等から構成され、クライアント装置120が出力した画像の表示を行う。図1ではクライアント装置120と表示装置140とを各々独立した装置として示したが、クライアント装置120と表示装置140とを一体化して構成してもよい。また、入力装置130と表示装置140とを一体化して構成してもよいし、クライアント装置120と入力装置130と表示装置140とを一体化して構成してもよい。ネットワーク150は撮像装置110とクライアント装置120とを接続する。ネットワーク150は、例えばローカルネットワーク等の通信規格を満たす複数のルータ、スイッチ、ケーブル等から構成される。本実施形態においては撮像装置、クライアント間の通信を行うことができるものであればその通信規格、規模、構成を問わない。例えば、ネットワーク150は、インターネットや有線LAN(Local Area Network)、無線LAN(Wireless LAN)、WAN(Wide Area Network)等により構成されてもよい。また、クライアント装置120に接続される撮像装置の数は1台に限られず、複数台であってもよい。
<Embodiment 1>
In this embodiment, at a site where data to be leak-prevented is handled, where two or more workers are obliged to work together, the work inspector is a single worker (a person who cannot be associated with other people). ) or a collaborator (a person associated with another person) is presented. Such a situation is an example of a situation in which the present embodiment can be used, and can be used in various situations in which it is desired to determine whether a person is single or plural. For example, the present invention can be used for marketing, solving social problems, etc. by determining whether a passerby or a visitor is alone or in a group.
FIG. 1 shows an example of the system configuration and hardware configuration of the system according to this embodiment. In FIG. 1, an imaging device 110 performs imaging. The client device 120 drives the imaging device 110 and displays a captured image captured by the imaging device 110 . The input device 130 includes a mouse, keyboard, etc., and performs user input to the client device 120 . The display device 140 includes a display or the like, and displays images output by the client device 120 . Although the client device 120 and the display device 140 are shown as independent devices in FIG. 1, the client device 120 and the display device 140 may be integrated. Further, the input device 130 and the display device 140 may be integrated, or the client device 120, the input device 130 and the display device 140 may be integrated. A network 150 connects the imaging device 110 and the client device 120 . The network 150 is composed of a plurality of routers, switches, cables, etc. that satisfy communication standards such as a local network. In this embodiment, the communication standard, scale, and configuration are not limited as long as communication between the imaging device and the client can be performed. For example, the network 150 may be configured by the Internet, a wired LAN (Local Area Network), a wireless LAN (Wireless LAN), a WAN (Wide Area Network), or the like. Also, the number of imaging devices connected to the client device 120 is not limited to one, and may be multiple.

撮像装置110のハードウェア構成について説明する。撮像装置110は、ハードウェア構成として、撮像部11と、CPU12と、メモリ13と、通信I/F14と、を含む。撮像部11は、撮像素子と撮像素子上に被写体の工学系とを有し、CPU12の制御に基づき光学系の光軸と撮像素子との交点を撮像中心として撮像素子上に撮像を行う。撮像素子は、CMOS(ComplementaryMetal-Oxide Semiconductor)又はCCD(Charged Coupled Device)等の撮像素子である。CPU12は、撮像装置110の全体を制御する。メモリ13は、プログラムや撮像部11で撮像された画像、CPU12が処理を実行する際に利用するデータ等を記憶する。通信I/F14は、CPU12の制御に基づきネットワーク150を介したクライアント装置120との通信を制御する。CPU12がメモリ13に記憶されたプログラムに基づき処理を実行することにより、撮像装置110の機能等が実現される。なお、CPU以外の他のプロセッサーを用いてもよい。
クライアント装置120のハードウェア構成について説明する。クライアント装置120は、ハードウェア構成として、メモリ21と、CPU22と、通信I/F23と、入力I/F24と、表示I/F25と、を含む。CPU22は、クライアント装置120の全体を制御する。メモリ21は、プログラムや撮像装置110から送信された撮像画像、CPU22が処理を実行する際に利用するデータ等を記憶する。通信I/F23は、CPU22の制御に基づきネットワーク150を介した撮像装置110との通信を制御する。入力I/F24は、クライアント装置120と入力装置130とを接続し、入力装置130からの情報の入力を制御する。表示I/F25は、クライアント装置120と表示装置140とを接続し、表示装置140への情報の出力を制御する。CPU22がメモリ21に記憶されたプログラムに基づき処理を実行することにより、クライアント装置120の機能及び後述する図3、図12のフローチャートの処理等が実現される。
A hardware configuration of the imaging device 110 will be described. The imaging device 110 includes an imaging unit 11, a CPU 12, a memory 13, and a communication I/F 14 as a hardware configuration. The imaging unit 11 has an imaging device and an optical system of a subject on the imaging device, and performs imaging on the imaging device with the intersection of the optical axis of the optical system and the imaging device as the imaging center under the control of the CPU 12 . The imaging element is an imaging element such as a CMOS (Complementary Metal-Oxide Semiconductor) or a CCD (Charged Coupled Device). The CPU 12 controls the imaging device 110 as a whole. The memory 13 stores programs, images captured by the imaging unit 11, data used when the CPU 12 executes processing, and the like. The communication I/F 14 controls communication with the client device 120 via the network 150 under the control of the CPU 12 . The functions of the imaging device 110 and the like are realized by the CPU 12 executing processes based on the programs stored in the memory 13 . Note that a processor other than the CPU may be used.
A hardware configuration of the client device 120 will be described. The client device 120 includes a memory 21, a CPU 22, a communication I/F 23, an input I/F 24, and a display I/F 25 as a hardware configuration. The CPU 22 controls the client device 120 as a whole. The memory 21 stores programs, captured images transmitted from the imaging device 110, data used when the CPU 22 executes processing, and the like. The communication I/F 23 controls communication with the imaging device 110 via the network 150 based on the control of the CPU 22 . The input I/F 24 connects the client device 120 and the input device 130 and controls input of information from the input device 130 . The display I/F 25 connects the client device 120 and the display device 140 and controls output of information to the display device 140 . The CPU 22 executes processing based on the programs stored in the memory 21 to implement the functions of the client device 120 and the processing of flowcharts shown in FIGS. 3 and 12, which will be described later.

図2は、撮像装置110及びクライアント装置120の機能構成の一例を示す図である。撮像装置110は、機能構成として、制御部111と、信号処理部112と、駆動制御部113と、通信制御部114と、を含む。制御部111は、撮像装置110を制御する。信号処理部112は、撮像部11によって撮像された画像信号の処理を行う。例えば、信号処理部112は、撮像部11によって撮像された画像の符号化を行う。信号処理部112は、符号化方式として、例えば、JPEG(Joint Photographic
Experts Group)を用いることができる。又は、信号処理部112は、符号化方式として、H.264/MPEG-4 AVC(以下H.264)を用いることができる。又は、信号処理部112は、符号化方式として、HEVC(High Efficiency Video Coding符号化方式)を用いることができる。但し符号化方式はこれらに限らない。また、信号処理部112は、複数の符号化方式の中から符号化方式を選択して符号化を行うようにしてもよい。
駆動制御部113は、撮像部11の撮像方向、及び画角を変更させる制御を行う。本実施形態では、撮像部11は、パン方向、チルト方向に撮像方向を変更でき、撮像画角を変更することができる場合について説明するが、これに限らない。撮像装置110は、パン方向、チルト方向に撮像方向を変更する機能を有さなくてもよいし、画角を変更する機能を有さなくてもよい。通信制御部114は、信号処理部112で処理が行われた撮像画像をクライアント装置120に送信する。更に通信制御部114は、クライアント装置120から撮像装置110に対する制御命令を受信する。
クライアント装置120は、機能構成として、制御部121と、通信制御部123と、情報取得部124と、表示制御部125と、を含む。制御部121は、クライアント装置120を制御する。通信制御部123は、撮像画像をクライアント装置120から受信する。情報取得部124は、入力装置130によるユーザー入力を受け付け、入力装置130より入力情報を取得する。表示制御部125は、映像を表示装置140へ出力し、後述する表示処理を表示装置140に実行させる。
FIG. 2 is a diagram showing an example of functional configurations of the imaging device 110 and the client device 120. As shown in FIG. The imaging device 110 includes a control unit 111, a signal processing unit 112, a drive control unit 113, and a communication control unit 114 as functional configurations. The control unit 111 controls the imaging device 110 . The signal processing unit 112 processes image signals captured by the imaging unit 11 . For example, the signal processing unit 112 encodes the image captured by the imaging unit 11 . The signal processing unit 112 uses, for example, JPEG (Joint Photographic
Experts Group) can be used. Alternatively, the signal processing unit 112 uses H.264 as an encoding method. H.264/MPEG-4 AVC (hereinafter H.264) can be used. Alternatively, the signal processing unit 112 can use HEVC (High Efficiency Video Coding encoding scheme) as the encoding scheme. However, the encoding method is not limited to these. Also, the signal processing unit 112 may select an encoding method from among a plurality of encoding methods and perform encoding.
The drive control unit 113 performs control to change the imaging direction and the angle of view of the imaging unit 11 . In the present embodiment, the imaging unit 11 can change the imaging direction in the pan direction and the tilt direction, and change the imaging angle of view. However, the present invention is not limited to this. The imaging device 110 may not have the function of changing the imaging direction in the pan direction or the tilt direction, or the function of changing the angle of view. The communication control unit 114 transmits the captured image processed by the signal processing unit 112 to the client device 120 . Furthermore, the communication control unit 114 receives a control command for the imaging device 110 from the client device 120 .
The client device 120 includes a control unit 121, a communication control unit 123, an information acquisition unit 124, and a display control unit 125 as functional configurations. The control unit 121 controls the client device 120 . The communication control unit 123 receives the captured image from the client device 120 . The information acquisition unit 124 receives user input from the input device 130 and acquires input information from the input device 130 . The display control unit 125 outputs the image to the display device 140 and causes the display device 140 to execute display processing, which will be described later.

次に、本実施形態における処理の流れを、図3を用いて説明する。図3は、クライアント装置120における表示制御の処理の一例を示すフローチャートである。クライアント装置120は、撮像装置110から繰り返し、撮像画像、即ち動画像、を取得し、取得した撮像画像中に単独作業者が含まれるか否かを識別可能に提示する処理を表示装置140に実行させる。
制御部121は、撮像装置110から撮像画像を取得する(S200)。図4は、クライアント装置120が撮像装置110から取得した撮像画像300の一例を示す図である。図4において作業者301、302及び作業者303、304は二人一組で作業を行っている共同作業者を表す。一方、作業者305は一人で作業を行っている単独作業者を表す。また、作業台306は撮像装置110から遠い位置に存在する作業台を表わす。作業台307は撮像装置110に近い位置に存在する作業台を表す。
このとき、クライアント装置120が取得する撮像画像は、作業者ができるだけ重ならないように撮像装置110の撮像部11の位置や取り付け角度、画角を予め調整しておくことが好ましい。本実施形態ではクライアント装置120は、撮像装置110から取得し
た撮像画像に対し処理を行う。これによって、リアルタイムのライブ映像に対して処理を行うことができる。しかしながらこれに限らない。例えば、クライアント装置120は、撮像装置110内に保存されている動画を取得し、各フレームに対し処理を行ってもよいし、クライアント装置120内に保存されている動画の各フレームに対して処理を行ってもよい。又はクライアント装置120は、録画サーバ等にアクセスし、録画サーバ内に保存されている動画の各フレームに対して処理を行ってもよい。また本実施形態では、共同作業者を二人一組としたが、これに限らない。クライアント装置120は、三人以上を共同作業者としてもよい。
Next, the flow of processing in this embodiment will be described with reference to FIG. FIG. 3 is a flow chart showing an example of display control processing in the client device 120 . The client device 120 repeatedly acquires a captured image, that is, a moving image from the imaging device 110, and executes a process of presenting on the display device 140 whether or not the single worker is included in the acquired captured image so as to be identifiable. Let
The control unit 121 acquires a captured image from the imaging device 110 (S200). FIG. 4 is a diagram showing an example of a captured image 300 acquired by the client device 120 from the imaging device 110. As shown in FIG. In FIG. 4, workers 301 and 302 and workers 303 and 304 represent co-workers working in pairs. On the other hand, the worker 305 represents a lone worker who works alone. A workbench 306 represents a workbench located far from the imaging device 110 . A workbench 307 represents a workbench that is located near the imaging device 110 .
At this time, it is preferable to previously adjust the position, mounting angle, and angle of view of the imaging unit 11 of the imaging device 110 so that the captured images acquired by the client device 120 do not overlap with each other as much as possible. In this embodiment, the client device 120 processes the captured image acquired from the imaging device 110 . This makes it possible to process real-time live video. However, it is not limited to this. For example, the client device 120 may acquire a moving image stored in the imaging device 110 and process each frame, or may process each frame of the moving image stored in the client device 120. may be performed. Alternatively, the client device 120 may access a recording server or the like and process each frame of a moving image stored in the recording server. Also, in the present embodiment, the co-workers are in pairs, but the invention is not limited to this. The client device 120 may have three or more collaborators.

次に、制御部121は、S200で取得した撮像画像300に対し、人物検出処理を行う(S201)。制御部121は、人物検出処理を行うため、本実施形態ではまず、撮像画像300に対し、様々なサイズでスケーリングを行う。スケーリングを行うことで、様々なサイズの人物を検出することができる。次に、制御部121は、各スケールの撮像画像に対し、特定のサイズの検出窓を用いてラスタースキャンする。このとき、制御部121は、予め学習データを用いて人物の特徴量を計算しておき、スキャン時に検出窓内で計算された特徴量と、前述の学習データに基づく特徴量との誤差が閾値よりも小さい場合に人物であると判断する。人物検出処理はこのようなパターンマッチング処理等の種々の方法を用いることができる。図5は、撮像画像300に対して人物検出を行った結果を示す画像400の一例を示す図である。図5の(A)において楕円401~405はそれぞれ、作業者301~305を検出した位置を表す。 Next, the control unit 121 performs person detection processing on the captured image 300 acquired in S200 (S201). In order to perform person detection processing, the control unit 121 first scales the captured image 300 in various sizes in this embodiment. By performing scaling, people of various sizes can be detected. Next, the control unit 121 raster scans the captured image of each scale using a detection window of a specific size. At this time, the control unit 121 calculates the feature amount of the person in advance using learning data, and the error between the feature amount calculated within the detection window during scanning and the feature amount based on the learning data is the threshold value. If it is smaller than , it is judged to be a person. Person detection processing can use various methods such as pattern matching processing. FIG. 5 is a diagram showing an example of an image 400 showing the result of performing person detection on the captured image 300. As shown in FIG. In FIG. 5A, ellipses 401-405 represent the positions at which workers 301-305 are detected, respectively.

次に、制御部121は、S200で取得した撮像画像300に対し、人物検出処理を行う(S201)。制御部121は、人物検出処理を行うため、本実施形態ではまず、撮像画像300に対し、様々なサイズでスケーリングを行う。スケーリングを行うことで、様々なサイズの人物を検出することができる。次に、制御部121は、各スケールの撮像画像に対し、特定のサイズの検出窓を用いてラスタースキャンする。このとき、制御部121は、予め学習データを用いて人物の特徴量を計算しておき、スキャン時に検出窓内で計算された特徴量と、前述の学習データに基づく特徴量との誤差が閾値よりも小さい場合に人物であると判断する。
図5は、撮像画像300に対して人物検出を行った結果を示す画像400の一例を示す図である。図5の(A)において楕円401~405はそれぞれ、作業者301~305を検出した位置を表す。また、矢印406~408は各人物の顔の向き表現するための、矢印の末尾側を基点、頭部側を無限に伸ばすとする半直線である。また、上記のように、人物の特徴量を使用する検出方法の他、図5の(B)のように、作業者のルールとして、予め定められた制服、ビブス、帽子の内の少なくとも何れかを着用することを決める等するようにしてもよい。即ち、作業者として検出すべき人物が身につけた物の特徴量を予めルールを設定ファイルとしてクライアント装置120のメモリ21等に記憶しておくようにしてもよい。このようにすれば、制御部121は、設定ファイルのルール及び撮像画像の処理対象の人物が身につけた物の色・形状等の特徴量に基づいて、ルールに合致した特徴量の制服等を身につけた作業者を検出することもできる。
Next, the control unit 121 performs person detection processing on the captured image 300 acquired in S200 (S201). In order to perform person detection processing, the control unit 121 first scales the captured image 300 in various sizes in this embodiment. By performing scaling, people of various sizes can be detected. Next, the control unit 121 raster scans the captured image of each scale using a detection window of a specific size. At this time, the control unit 121 calculates the feature amount of the person in advance using learning data, and the error between the feature amount calculated within the detection window during scanning and the feature amount based on the learning data is the threshold value. If it is smaller than , it is judged to be a person.
FIG. 5 is a diagram showing an example of an image 400 showing the result of performing person detection on the captured image 300. As shown in FIG. In FIG. 5A, ellipses 401-405 represent the positions at which workers 301-305 are detected, respectively. Arrows 406 to 408 are half straight lines extending infinitely from the tail side of the arrow to the head side for expressing the orientation of each person's face. In addition to the detection method using the feature amount of a person as described above, at least one of a predetermined uniform, bibs, and hat is used as a worker rule, as shown in FIG. 5B. may decide to wear That is, it is also possible to store in the memory 21 or the like of the client device 120 in advance a rule for the feature amount of an object worn by a person to be detected as a worker as a setting file. In this way, the control unit 121 selects a uniform or the like having a feature amount that matches the rule based on the rule of the setting file and the feature amount such as the color and shape of the object worn by the person whose captured image is to be processed. It is also possible to detect workers wearing them.

次に、制御部121は、S101で検出した人物の位置を、撮像画像の撮影範囲を真上から平画面投影した水平面画像上の座標へ変換する(S202)。本実施形態では、撮像画像上の各点が、水平面画像上のどの点と対応付くか、予め決定されているものとする。例えば、ユーザーは、表示装置140等に表示された撮像画像上の四点と、水平面画像上の四点とを、入力装置130等を操作して指定する。制御部121は、ユーザーによって入力された撮像画像上の四点と、水平面画像上の四点と、以下に示す式(1)、(2)等に基づき予めホモグラフィ行列Hを計算しておく。

Figure 0007247310000001
Figure 0007247310000002
ここで、式(2)中のpx1、px2、...、px4、py4、及びqx1、qx2、...、qx4、qy4は、ユーザーによって指定された撮像画像上の四点のx、y座標、及び水平面画像上の四点のx、y座標をそれぞれ表す。
次に制御部121は、撮像画像上のx座標px、Y座標pyとホモグラフィ行列Hとに対し、以下の式(3)を適用することにより、px、pyに対応する水平面画像上のX座標qxと、Y座標qyとを計算することができる。
Figure 0007247310000003
Next, the control unit 121 converts the position of the person detected in S101 into coordinates on a horizontal plane image obtained by projecting the imaging range of the captured image from directly above (S202). In the present embodiment, it is assumed that each point on the captured image corresponds to a point on the horizontal plane image, which is determined in advance. For example, the user operates the input device 130 or the like to designate four points on the captured image displayed on the display device 140 or the like and four points on the horizontal plane image. The control unit 121 calculates the homography matrix H in advance based on the four points on the captured image input by the user, the four points on the horizontal plane image, and the following equations (1) and (2). .
Figure 0007247310000001
Figure 0007247310000002
Here, px1, px2, . . . , px4, py4, and qx1, qx2, . . . , qx4, qy4 respectively represent the x, y coordinates of four points on the captured image and the x, y coordinates of four points on the horizontal plane image designated by the user.
Next, the control unit 121 applies the following equation (3) to the x-coordinate px, the Y-coordinate py on the captured image, and the homography matrix H, so that the X on the horizontal plane image corresponding to px, py A coordinate qx and a Y coordinate qy can be calculated.
Figure 0007247310000003

図6は、作業現場の水平面画像500の一例を示す図である。図6において座標501~505はそれぞれ人物検出位置である楕円401~405の代表点を水平面画像上の座標へ変換した結果を表す。本実施形態では、代表点は一例として人物検出位置の中心とした。代表点は人物の頭に対応する領域の中心としてもよい。また、領域506、507はそれぞれ、作業台306、307を水平面画像上で表現した場合の領域を表す。本実施形態では、水平面画像としてCAD等で作成された作業現場の見取り図を使用したものとするが、この限りではない。例えば、撮像画像を変形させた画像を用いてもよいし、手書きの画像でもよい。また、画像がなくてもよく、プログラム内部で前述の座標の情報を持つだけでもよい。つまり、水平面画像500は生成しなくてもよく、水平面画像500上の座標位置の算出だけを行ってもよい。また、水平面画像500に近い構図(俯瞰等)で撮像すれば、必ずしもS203の処理を行わなくてもよい。この場合は撮像した画像上の距離を用いて単独作業者か共同作業者かを判断できる。また、水平面画像500の生成方法はその他の種々の方法を用いてもよい。 FIG. 6 is a diagram showing an example of a horizontal plane image 500 of a work site. In FIG. 6, coordinates 501 to 505 represent results of transforming representative points of ellipses 401 to 405, which are human detection positions, into coordinates on the horizontal plane image. In this embodiment, the representative point is the center of the person detection position as an example. The representative point may be the center of the area corresponding to the person's head. Areas 506 and 507 respectively represent areas when the workbenches 306 and 307 are represented on the horizontal plane image. In this embodiment, it is assumed that a floor plan of the work site created by CAD or the like is used as the horizontal plane image, but this is not the only option. For example, an image obtained by deforming a captured image may be used, or a handwritten image may be used. Alternatively, the image may not be included, and the program may simply have the aforementioned coordinate information. That is, the horizontal plane image 500 may not be generated, and only the coordinate position on the horizontal plane image 500 may be calculated. Also, if an image is captured with a composition close to the horizontal plane image 500 (such as a bird's-eye view), the process of S203 does not necessarily have to be performed. In this case, it is possible to determine whether the worker is a single worker or a joint worker by using the distance on the captured image. Also, various other methods may be used for generating the horizontal plane image 500 .

次に、制御部121は、検出された人物のリストを更新する(S203)。繰り返し処理の最初であれば、制御部121は、検出された人物全てをリスト化する。このとき、制御部121は、リスト内の各ノードに、人物が検出された撮像画像上の代表点の座標と、水平面画像上の代表点の座標と、を格納する。繰り返し処理の二回目以降であれば、制御部121は、検出された全ての人物に対して以下の処理を行う。
(処理1).制御部121は、リスト内の各ノードに保存されている人物の撮像画像上の座標と、自身の撮像画像上の座標と、の距離を計算し、閾値以下であれば対象のノードを自身のデータで置き換える。このとき、制御部121は、今までノード内に保存された座標の履歴を保存する。
(処理2).制御部121は、(処理1)内の条件を満たすノードが無ければリストの末尾に自身のデータを追加する。
また、制御部121は、検出された全ての人物に対し上記の処理を終えた後は以下の処理を行う。
(処理3).制御部121は、更新されなかったノードを削除する。
Next, the control unit 121 updates the list of detected persons (S203). If it is the beginning of the repetition process, the control unit 121 lists all the detected persons. At this time, the control unit 121 stores the coordinates of the representative point on the captured image where the person is detected and the coordinates of the representative point on the horizontal plane image in each node in the list. If it is the second or later repetition process, the control unit 121 performs the following process on all detected persons.
(Processing 1). The control unit 121 calculates the distance between the coordinates on the captured image of the person stored in each node in the list and the coordinates on the captured image of itself. Replace with data. At this time, the control unit 121 saves the history of the coordinates saved in the node until now.
(Processing 2). If there is no node that satisfies the conditions in (process 1), the control unit 121 adds its own data to the end of the list.
Further, the control unit 121 performs the following processing after completing the above processing for all the detected persons.
(Processing 3). The control unit 121 deletes nodes that have not been updated.

次に制御部121は、撮像画像内に単独作業者が存在するか否かを判断する(S204~S206)。本実施形態では、図7(A)のように、制御部121は、ユーザー操作等に基づき、作業エリア枠(01~06)を撮像画像表示内に設定するものとする。処理の流れは以下の通りである。
(処理4).制御部121は、リストの先頭から順に処理対象としている人物の撮像画像上の座標が、作業エリア枠の中に入っているか確認し、作業エリア枠に入っていた場合には、リストに作業枠に入っていることを示すフラグを格納する。このとき、制御部121は、作業エリアが複数の場合には、それぞれの作業エリア枠ごとに付された重複しないID番号を、リストに格納する(S204)。
(処理5).制御部121は、リストを探索し、作業エリア枠ごとに、そのエリアに属する作業者が何名いるか確認する(S205)。制御部121は、作業エリア枠に作業者が1である場合、そのエリアでは単独作業が行われていると判定し、それ以外の場合には単独作業が行われていないと判定する(S206)。つまり、制御部121は、作業エリア枠に作業者が1である場合、そのエリアの作業者を、他の人物と関連付けられない単独作業者であると判定する。制御部121は、作業エリア枠に作業者が2以上である場合、そのエリアの作業者同士を関連付けて、共同独作業者であると判定する。このように、制御部121は関連付け部としての機能を有している。
本実施形態では、制御部121は、まず検出した人物のリストを基準に作業エリア枠内かどうかを判定したが、それぞれの作業エリア枠を基準にして、それぞれの人物が作業エリア枠内かどうか確認して、作業エリア内の人数だけで判定してもよい。
また、作業エリア枠が撮像画像表示内に設定されているものとして説明を行ったが、図7(B)のように制御部121は、ユーザー操作に基づき、水平面画像に作業エリア枠を設定してもよい。
Next, the control unit 121 determines whether or not the lone worker exists in the captured image (S204 to S206). In this embodiment, as shown in FIG. 7A, the control unit 121 sets work area frames ( 601 to 606 ) within the captured image display based on user operation or the like. The flow of processing is as follows.
(Processing 4). The control unit 121 checks whether the coordinates of the person to be processed on the captured image are within the work area frame, starting from the top of the list. Stores a flag indicating that the At this time, if there are a plurality of work areas, the control unit 121 stores a unique ID number assigned to each work area frame in a list (S204).
(Processing 5). The control unit 121 searches the list and confirms how many workers belong to each work area frame (S205). When the number of workers in the work area frame is 1, the control unit 121 determines that an individual work is being performed in that area, and otherwise determines that an individual work is not being performed (S206). . That is, when there is one worker in the work area frame, the control unit 121 determines that the worker in that area is a single worker who is not associated with another person. When there are two or more workers in the work area frame, the control unit 121 associates the workers in the area with each other and determines that they are joint workers. Thus, the control unit 121 functions as an associating unit.
In this embodiment, the control unit 121 first determines whether or not the person is within the work area frame based on the list of detected persons. It may be determined by checking and only the number of people in the work area.
Also, the description has been given assuming that the work area frame is set within the captured image display, but as shown in FIG. may

ここで、単独作業者か、共同作業者かを判断する処理は、上述した処理に限られない。例えば、制御部121は、撮像画像から検出された人物の位置、人物の顔の向き、及び人物間の距離、の内の少なくとも何れかに基づいて、人物同士を関連付けて共同作業者であると判定するようにしてもよい。例えば制御部121は、撮像画像の所定のオブジェクト、例えば作業台等、から所定の範囲の位置にいる人物同士を関連付けるようにしてもよいし、人物の顔の向き(又は目線)を推定し、顔の向き(又は目線)が交差する人物同士を関連付けるようにしてもよい。また、例えば制御部121は、人物間の距離が所定の距離以内の人物同士を関連付けるようにしてもよい。そして、制御部121は、他の人物と関連付けられる人物同士を共同作業者、他の人物と関連付けられない人物を単独作業者と判断するようにしてもよい。
また、制御部121は、更に、人物の制服、又はビブス、又は帽子の色、又は形状に基づき、人物同士を関連付けるようにしてもよい。例えば、制御部121は、人物間の距離が所定の距離以内の人物の内、制服の形状が同じ人物同士を関連付け、人物間の距離が所定の距離以内の人物であっても、制服の形状が異なる人物同士は関連付けないようにしてもよい。このように、制御部121は、人物が身につけている物の特徴量に基づき、人物の関連付けを行うようにしてもよい。
また、制御部121は、作業エリア枠内に複数の作業者が存在していた場合であっても、作業エリア枠内の複数の作業者の顔の向き、又は作業者の間の距離によっては、単独作業者であると判断するようにしてもよい。
Here, the processing for determining whether the worker is a single worker or a joint worker is not limited to the processing described above. For example, the control unit 121 associates the persons with each other based on at least one of the positions of the persons detected from the captured image, the orientation of the faces of the persons, and the distance between the persons, and identifies them as collaborators. You may make it judge. For example, the control unit 121 may associate people in positions within a predetermined range from a predetermined object in the captured image, such as a workbench, etc., or estimate the face direction (or line of sight) of the person, It is also possible to associate persons whose face directions (or line of sight) intersect with each other. Further, for example, the control unit 121 may associate persons whose distance between them is within a predetermined distance. Then, the control unit 121 may determine that persons who are associated with other persons are joint workers, and persons who are not associated with other persons are independent workers.
In addition, the control unit 121 may further associate persons with each other based on the uniforms, bibs, or hat colors or shapes of the persons. For example, the control unit 121 associates persons whose uniform shape is the same among persons whose distance between them is within a predetermined distance, and even if the persons whose distance is within a predetermined distance may not be associated with each other. In this way, the control unit 121 may associate the person based on the feature amount of the object worn by the person.
In addition, even when a plurality of workers are present within the work area frame, the control unit 121 can determine whether the face direction of the plurality of workers within the work area frame or the distance between the workers is different. , may be determined to be a single worker.

次に制御部121は、単独作業中であるか否かを判断し、条件を満たしていた場合は単独作業としてそのログを記録し、通知する(S207~S209)。処理の流れは以下の通りである。
(処理6).制御部121は、(処理5)で単独作業が行われている作業エリア枠が存在していた場合には、単独作業累積フレーム数をインクリメントする、即ち変数の値を1増やす、と同時に、その作業エリアに属する人物をリストから抽出する(S207)。制御部121は、単独作業が行われていない場合には、単独作業累積フレーム数を0にする(S208)。
(処理7).制御部121は、単独作業累積フレーム数が閾値を超えた場合、単独作業中であると判定する(S209)。この判断条件を用いることで、例えば共同作業者であるにもかかわらず、一瞬人物の検出に失敗したことによって単独作業者であると誤通知することを抑制することが可能になる。
制御部121は、単独作業と判定された場合には、その発生時刻や継続時間、発生している撮像装置110や例えば撮像画像のうち単独作業が行われている場所がわかるように表示装置140の画面上に表示する(S210)。図8(A)の画面は、単独作業を検出した時間帯の動画像の一覧を示す画面の一例である。図8(A)の「単独作業検出一覧」というテキスト情報や、時刻、継続時間、場所の情報は、他の人物と関連付けられない人物が含まれる動画像であることが識別可能な情報の例である。なお、用途によっては、他の人物と関連付けられない人物が含まれない時間体の動画像を一覧として表示するようにしてもよい。その場合は、例えば、「共同作業検出一覧」というテキスト情報が表示される。
次に制御部121は、撮像画像の取得(S200)からユーザーへ単独者業者の有無を通知するかどうかの判断(S210、S211)までの処理を繰り返すかどうかを判断する(S212)。制御部121は、撮像装置からの撮像画像の取得が不可能になった場合、又はユーザーによる繰り返し処理中断の指示が有った場合に、繰り返し処理を終了すると判断する。
Next, the control unit 121 determines whether or not the individual work is being performed, and if the conditions are satisfied, records the log as the independent work and notifies (S207 to S209). The flow of processing is as follows.
(process 6). If there is a work area frame in which independent work is being performed in (process 5), the control unit 121 increments the single work accumulated frame count, that is, increases the value of the variable by 1, and at the same time A person belonging to the work area is extracted from the list (S207). When the independent work is not performed, the control unit 121 sets the number of frames accumulated for the independent work to 0 (S208).
(process 7). The control unit 121 determines that the single work is being performed when the single work accumulated frame count exceeds the threshold (S209). By using this determination condition, it is possible to suppress false notification that the worker is a single worker due to a momentary failure to detect a person despite the fact that the worker is a co-worker.
When the control unit 121 determines that it is an independent work, the control unit 121 displays the occurrence time and duration of the work, the imaging device 110 where the work is occurring, and the display device 140 so that the location of the individual work in the captured image can be known. is displayed on the screen (S210). The screen of FIG. 8(A) is an example of a screen showing a list of moving images in the time zone in which the single work was detected. The text information "Individual work detection list" and the time, duration, and location information shown in FIG. is. It should be noted that, depending on the application, it is also possible to display a list of time-framed moving images that do not include a person who is not associated with another person. In that case, for example, text information such as "list of joint work detections" is displayed.
Next, the control unit 121 determines whether or not to repeat the processing from acquiring the captured image (S200) to determining whether or not to notify the user of the existence of a single trader (S210, S211) (S212). The control unit 121 determines to end the repetitive processing when acquisition of the captured image from the imaging device becomes impossible or when the user gives an instruction to interrupt the repetitive processing.

制御部121は、S210での表示では、図8(A)のようにサムネイル画像と共に単独作業に関する情報(一覧)を表示するものとしたが、リスト形式(一覧)のみで表示してもよい。また、制御部121は、図8(B)のように録画映像の表示と共にタイムライン表示を行い、そのタイムライン上に単独作業の時間帯を表す表示を行ってもよい。図8(B)の単独作業の時間帯として表されているタイムラインの部分(黒塗りや斜線部分)は、他の人物と関連付けられない人物が含まれることが識別可能な情報の一例である。なお、例えば、黒塗りの部分は、単独作業者が1人いる時間帯であり、斜線部分は単独作業者が複数いる時間帯である。また、「A-1」は撮像装置を特定するためのID等を示す情報である。図8(B)の例では、「A-1」と「B-1」の2つの撮像装置におけるタイムラインを示している。
一方、図8(B)の単独作業の時間帯ではない時間帯として表されているタイムラインの部分(白の部分)は、他の人物と関連付けられない人物が含まれないことが識別可能な情報の一例である。また、制御部121は、1本のタイムライン上に複数のカメラで検出した単独作業の時間帯を表示してもよい。以上のように、少なくとも、タイムライン上で、他の人物と関連付けられない人物が含まれることが識別可能な情報と、他の人物と関連付けられない人物が含まれないことが識別可能な情報との内の少なくとも何れかを表示させるようにすればよい。動画像における、他の人物と関連付けられない人物が含まれる時間帯と、他の人物と関連付けられない人物が含まれない時間帯とが識別可能であればよい。
また、例えば、ユーザーが、図9(A)のように、それぞれの単独作業の表示をマウスや指等で指定する。すると、制御部121は、表示制御部125を介して表示装置140に図9(B)のように、該当する撮像装置の録画された映像を再生して、そのときの撮影画像を表示させ、確認できるようにしてもよい。このようにすることによりユーザーの利便性が高まる。このとき、制御部121は、単独作業発生時の録画映像のみを再生してもよいが、単独作業が発生時刻より所定時間(例えば数十秒)前の映像から再生したり、単独作業の継続時間より長く再生したりすると、その前後の状況を容易に確認することができ、より好ましい。
また、制御部121は、単独作業として検出した時間帯の録画映像をつなぎ合わせ、ダイジェスト映像として再生するようにしてもよい。つまり、図9(A)に示す一覧の動画像を連続で再生するようにしてもよい。そのとき、数秒程度の単独作業の時間帯の動画像はダイジェスト映像に含めないようにしてもよい。
単独作業の通知は誤検知等を防ぐために、単独作業が予め定めた時間続いたら警報を出すことになるが、単独作業の継続時間としては、検出した最初のフレームからの時間となる。したがって、制御部121は、タイムラインにおいて単独作業として表示する区間や、録画又は再生の開始を、警報が出た時刻ではなく、単独作業を検知し始めた時刻とするようにしてもよい。
In the display at S210, the control unit 121 displays the information (list) about the independent work together with the thumbnail image as shown in FIG. In addition, the control unit 121 may display a timeline together with the display of the recorded video as shown in FIG. 8B, and display the time zone of the independent work on the timeline. The portion of the timeline represented as the time zone of independent work in FIG. 8B (blacked out and hatched portions) is an example of information that can be identified as including a person who is not associated with another person. . In addition, for example, the black-painted portion is a time period in which there is one single worker, and the shaded portion is a time period in which a plurality of single workers are present. Also, "A-1" is information indicating an ID or the like for specifying the imaging device. The example of FIG. 8B shows timelines for two imaging devices "A-1" and "B-1".
On the other hand, it is identifiable that a person who is not associated with another person is not included in the portion (white portion) of the timeline represented as the time period that is not the time period for working alone in FIG. 8B. It is an example of information. In addition, the control unit 121 may display the time zones of independent work detected by a plurality of cameras on one timeline. As described above, at least on the timeline, information that can identify that a person who is not associated with other persons is included and information that can be identified that a person who is not associated with other persons is not included At least one of the above may be displayed. It suffices if, in the moving image, it is possible to distinguish between a time period in which a person who is not associated with another person is included and a time period in which a person who is not associated with another person is not included.
Also, for example, the user designates the display of each independent work with a mouse, finger, or the like, as shown in FIG. 9A. Then, the control unit 121 causes the display device 140 via the display control unit 125 to reproduce the video recorded by the corresponding imaging device and display the captured image at that time, as shown in FIG. You may enable it to confirm. By doing so, user convenience is enhanced. At this time, the control unit 121 may reproduce only the recorded video at the time of occurrence of the independent work. Replaying for a longer time than the time is more preferable because the situation before and after can be easily confirmed.
In addition, the control unit 121 may connect the recorded images of the time period detected as the independent work and reproduce them as a digest image. In other words, the moving images in the list shown in FIG. 9A may be reproduced continuously. In this case, the digest video may not include a moving image of a time period during which the worker works alone for several seconds.
In order to prevent erroneous detection and the like, the notification of the single work will issue an alarm if the single work continues for a predetermined time, but the duration of the single work is the time from the first frame detected. Therefore, the control unit 121 may set the section displayed as an independent work on the timeline or the start of recording or playback to be the time when the independent work is detected instead of the time when the alarm is issued.

また、制御部121は、タイムライン表示には、単独作業者が存在する累積フレーム数が閾値を超えて警報が出た場合の単独作業時間帯だけでなく、以下の様にしてもよい。即ち、制御部121は、警報を出さないような短い期間、単独作業と判断した場合にも、警報が出た単独作業時間帯と異なる色や形状、模様で表示する等して、両方を確認可能とするようにしてもよい。この場合、一瞬だけ検知された単独作業は、実際には一時的に共同作業者の内のいずれかの人物が遮蔽物に隠れただけの可能性があるので、単独作業の判定に2つの閾値を設けるとよい。このとき、制御部121は、警報を、2つの閾値のうち、値が大きい方の閾値に基づき行うものとする。例えば、他の人物と関連付けられない人物が含まれることが識別可能な情報において、第1の閾値を使う。そして、警報を出すか判定するためには、第1の閾値よりも大きい第2の閾値を使う。
また、制御部121は、単独作業が検出された撮像装置やエリア、時間情報についてのリストをCSVファイルで保存してもよく、サムネイル画像つきのリスト、録画映像のスクリーンショット等を、レポートとして貼り付け、印刷できるようにしてもよい。
また、制御部121は、単独作業検出のための撮像画像の他に、同じようにエリアを別アングルで撮影したり、周辺エリアを撮影したりしている撮像装置がある場合には、以下の処理を行うようにしてもよい。即ち、制御部121は、予め関連付けの設定が行われた撮像装置で撮影され、録画された映像を表示してもよい。
更に、図10(A)のように、ライブ映像で単独作業を検出し、その単独作業と判断したら、リアルタイムに警報を発するシステムの場合には、作業監視員が、現在の状況を確認しつつ、過去の状況を確認する必要がある。そのため、制御部121は、ライブ映像と録画映像との両方を表示するよう制御してもよい。図10(A)において、A室の映像において、右上の指標を変化させることによって、他の人物と関連付けられない人物が含まれることが識別可能な情報を表示させている。
制御部121は、図10(B)のように、作業監視員によって、誤報や問題がないと判断され、選択された画像等を一連の表示から削除するようにしてもよい。
In addition, the control unit 121 may display the timeline as follows, in addition to the single work time zone when the cumulative number of frames in which the single worker exists exceeds the threshold value and an alarm is issued. That is, even if the control unit 121 determines that the work is performed alone for a short period of time during which the warning is not issued, the control unit 121 confirms both by displaying in a different color, shape, or pattern from the time zone for the single work in which the warning was issued. It may be made possible. In this case, there is a possibility that the lone work detected only for a moment may actually be caused by one of the co-workers temporarily hiding behind a shield. should be provided. At this time, the control unit 121 issues an alarm based on the larger one of the two thresholds. For example, the first threshold is used for information that can be identified as containing a person who is not associated with another person. Then, a second threshold, which is larger than the first threshold, is used to determine whether to issue an alarm.
In addition, the control unit 121 may save a list of imaging devices, areas, and time information in which independent work has been detected as a CSV file, and paste the list with thumbnail images, screen shots of recorded videos, etc. as a report. , may be made printable.
In addition to the captured image for detecting the independent work, if there is an image capturing device that similarly captures an area at a different angle or captures a surrounding area, the control unit 121 performs the following operations. You may make it process. In other words, the control unit 121 may display a video that has been captured and recorded by an imaging device that has been set to be associated in advance.
Furthermore, as shown in FIG. 10(A), in the case of a system that detects independent work in live video and issues a warning in real time if it is determined that it is a single work, the work supervisor can check the current situation and , it is necessary to check the past situation. Therefore, the control unit 121 may control to display both the live video and the recorded video. In FIG. 10A, by changing the index on the upper right in the image of room A, information is displayed that makes it possible to identify that a person who is not associated with another person is included.
As shown in FIG. 10B, the control unit 121 may delete the selected image or the like from the series of displays when the work supervisor determines that there is no false alarm or problem.

本実施形態では、制御部121は、作業エリア枠を設定する例を用いて主に説明を行った。制御部121は、単独作業を検知したときに、単独作業を検知した際の作業エリア枠を映像に重畳して表示装置140に表示させるようにしてもよい。また、制御部121は、全ての作業エリア枠を映像に重畳して表示させておき、単独作業が行われた場合に、単独作業が行われた作業エリア枠を他の作業エリア枠と異なる色に変える、点滅表示にする等、明示、又は強調的に表示するようにしてもよい。このようにすることにより、作業監視員は視認性よく、映像中の人物が、単独か複数かを把握することができる。
また、本実施形態では、1台のクライアント装置で人物等を検出して表示する例を示したが、複数のクライアント装置で処理を行うようにしてもよい。例えば、映像が入力され、単独作業等を検知し、通知するための第1のクライアント装置と、前記通知を受けて警報を出力したり、リスト表示やタイムライン上の表示を行ったりする第2のクライアント装置と、で処理を行うようにしてもよい。第1のクライアント装置の一例は、VCA(Video Content Analysis)装置である。第2のクライアント装置の一例は、VMS(Video Management System)装置である。第1のクライアント装置と、第2のクライアント装置とのハードウェア構成は、図1のクライアント装置120のハードウェア構成と同様である。それぞれのクライアント装置のCPUがそれぞれのクライアント装置のメモリに記憶されているプログラムに基づき処理を実行することによりそれぞれのクライアント装置の機能が実現される。
In this embodiment, the control unit 121 has mainly been described using an example of setting the work area frame. When the control unit 121 detects the independent work, the control unit 121 may display the work area frame when the independent work is detected on the display device 140 by superimposing it on the image. In addition, the control unit 121 superimposes and displays all the work area frames on the image, and when the independent work is performed, the work area frame where the independent work is performed is displayed in a different color from the other work area frames. It may be displayed explicitly or emphatically, such as by changing to , blinking, or the like. By doing so, the work supervisor can grasp with good visibility whether the person in the video is single or plural.
Also, in the present embodiment, an example in which a person or the like is detected and displayed by one client device has been described, but processing may be performed by a plurality of client devices. For example, a first client device receives video input, detects and notifies independent work, etc., and a second client device receives the notification, outputs an alarm, displays a list, or displays on a timeline. , and the client device may perform the processing. An example of the first client device is a VCA (Video Content Analysis) device. An example of the second client device is a VMS (Video Management System) device. The hardware configurations of the first client device and the second client device are the same as the hardware configuration of the client device 120 in FIG. The functions of each client device are realized by the CPU of each client device executing processing based on a program stored in the memory of each client device.

図11(A)では、本実施形態のシステムと入退室管理システム160とが連携した場合の一例を表している。入退室管理システムでは、作業者が作業室に入室及び退室した時刻が記録されている。したがって、図11(B)のように、制御部121は、入退室管理システム160から作業者毎の入出及び退出した時刻の情報を取得し、取得した情報から、作業室に入室している作業者を抽出する。そして、制御部121は、抽出した作業者名の一覧を、単独作業の発生一覧の情報の一部として記録したり、画面上に表示したりするようにしてもよい。しかしながらこの限りではなく、制御部121は、ユーザーにメール送信を行ってもよい。この記録や表示については、本実施形態のシステムで実現してもよいし、入退室管理システム等に組み込んでもよい。抽出した作業者名の一覧は、入退室情報の一例である。 FIG. 11A shows an example of cooperation between the system of this embodiment and the entry/exit management system 160 . In the entry/exit management system, the times when workers enter and leave the work room are recorded. Therefore, as shown in FIG. 11(B), the control unit 121 acquires information on the entry and exit times of each worker from the entry/exit management system 160, and based on the acquired information, the work entered into the work room is determined. extract the person Then, the control unit 121 may record the list of the extracted worker names as a part of the information of the single work occurrence list or display it on the screen. However, this is not the only option, and the control unit 121 may send an email to the user. This recording and display may be realized by the system of the present embodiment, or may be incorporated into an entrance/exit management system or the like. The list of extracted worker names is an example of room entry/exit information.

<実施形態2>
本実施形態では、実施形態1と構成は同じで、単独作業者が存在するか否かの判断を、作業エリア枠による検出ではなく、距離によって行う例を用いて説明を行う。本実施形態の処理の流れを図12で説明する。
制御部121が撮像装置110から撮像画像を取得して(S1101)から、検出された人物のリストを更新する(S1103)までの処理は、実施形態1で説明した処理と同様である。
次に制御部121は、撮像画像内に単独作業者が存在するか否かを判断する(S1104~S1106)。処理の流れは以下の通りである。
(処理1).制御部121は、リストの先頭の人物を処理対象とする(S1104)。
(処理2).制御部121は、処理対象としている人物が単独作業者かどうかを判断する(S1105)。本実施形態では、制御部121は、単独作業者かどうか判断するため、処理対象としている人物に対して以下の項目を確認する。
<Embodiment 2>
In the present embodiment, the configuration is the same as that of the first embodiment, and the determination of whether or not there is a lone worker is performed based on the distance instead of the detection based on the work area frame. The flow of processing in this embodiment will be described with reference to FIG.
The processing from when the control unit 121 acquires a captured image from the imaging device 110 (S1101) to when the list of detected persons is updated (S1103) is the same as the processing described in the first embodiment.
Next, the control unit 121 determines whether or not the lone worker exists in the captured image (S1104 to S1106). The flow of processing is as follows.
(Processing 1). The control unit 121 treats the person at the top of the list as a processing target (S1104).
(Processing 2). The control unit 121 determines whether the person to be processed is a single worker (S1105). In this embodiment, the control unit 121 confirms the following items for a person to be processed in order to determine whether the person is a single worker.

(項目1).制御部121は、処理対象としている人物の水平面画像上の座標を中心として、半径R以内に検出された人物が存在するかを判断する。
この半径Rは本実施形態が適用される状況に応じて適宜設定すればよい。例えば、室内での作業を監視する場合、半径Rは2mに相当する距離とすることができる。但しこのとき、制御部121は、処理対象としている人物のノードに保存されている座標履歴を参照し、処理対象としている人物が移動中であると判断した場合、移動中ではないと判断したときよりも、閾値であるRの値を大きくする。またこのとき、制御部121は、共同作業者同士が水平面画像上のx軸方向に並んで作業を行うのであれば、半径Rの円をy軸方向に縮めた楕円を用いてもよい。同様に、制御部121は、共同作業者同士が水平面画像上のy軸方向に並んで作業を行うのであれば、半径Rの円をx軸方向に縮めた楕円を用いてもよい。
(項目2).制御部121は、(項目1)を満たす人物存在した場合、その人物は検知領域(作業エリア枠)内に存在するか否かを判定する。
本実施形態では、制御部121は、入力装置130等を操作してユーザーによって指定された領域を作業者が存在する検知領域として設定する。これにより、例えばガラス張りの壁の向こう側を移動する非作業者、及び机の上に置かれたポスター等に映る人物を共同作業者と誤検知することを抑制することができる。しかしながら検知領域の設定はユーザーによる入力装置130等を介した入力に限られない。制御部121は、撮像画像上に配置されたマーカーで囲まれた領域を検知領域として自動で設定してもよい。マーカーを用いて検出する方法としては、例えば、検知領域の四隅に設置された二次元のマーカーを、撮像画像をラスタースキャンすることで予めクライアント装置120に登録してある前述の二次元のマーカーの情報とパターンマッチングする方法がある。
制御部121は、上記(項目1)、(項目2)の全てを満たす場合は共同作業者であると判断し、(処理3-1)へ進む。つまり、制御部121は、上記(項目1)、(項目2)の全てを満たす作業者同士を関連付けて、共同独作業者であると判定する。また、制御部121は、少なくとも一つを満たさない場合、処理対象としている人物は単独作業者であると判断し、(処理3-2)へ進む。
(Item 1). The control unit 121 determines whether there is a person detected within a radius R centered on the coordinates of the person to be processed on the horizontal plane image.
This radius R may be appropriately set according to the situation to which the present embodiment is applied. For example, when monitoring indoor work, the radius R can be a distance corresponding to 2 m. However, at this time, the control unit 121 refers to the coordinate history stored in the node of the person to be processed, and determines that the person to be processed is moving. The value of R, which is the threshold value, is increased. Further, at this time, the control unit 121 may use an ellipse obtained by contracting a circle with a radius R in the y-axis direction if co-workers work side by side in the x-axis direction on the horizontal plane image. Similarly, the control unit 121 may use an ellipse obtained by contracting a circle with a radius R in the x-axis direction if co-workers work side by side in the y-axis direction on the horizontal plane image.
(Item 2). When a person satisfying (item 1) exists, the control unit 121 determines whether or not the person exists within the detection area (work area frame).
In this embodiment, the control unit 121 sets an area designated by the user by operating the input device 130 or the like as the detection area where the worker exists. As a result, for example, it is possible to prevent a non-worker moving behind a glass wall and a person appearing on a poster placed on a desk from being erroneously detected as a co-worker. However, the setting of the detection area is not limited to input by the user via the input device 130 or the like. The control unit 121 may automatically set an area surrounded by markers placed on the captured image as the detection area. As a method of detecting using a marker, for example, two-dimensional markers placed at the four corners of the detection area are raster-scanned in the captured image, thereby detecting the above-described two-dimensional markers registered in the client device 120 in advance. There are ways to pattern match information.
If both (item 1) and (item 2) above are satisfied, the control unit 121 determines that the person is a collaborator, and proceeds to (process 3-1). That is, the control unit 121 associates workers who satisfy all of the above (item 1) and (item 2) with each other and determines that they are joint workers. If at least one condition is not satisfied, the control unit 121 determines that the person to be processed is a single worker, and proceeds to (processing 3-2).

ここで、単独作業者か、共同作業者かを判断する処理は、上述した処理に限られない。例えば、制御部121は、撮像画像から検出された人物の位置、人物の顔の向き、及び人物間の距離、の内の少なくとも何れかに基づいて、人物同士を関連付けるようにしてもよい。例えば制御部121は、撮像画像の所定のオブジェクト、例えば作業台等、から所定の範囲の位置にいる人物同士を関連付けるようにしてもよいし、人物の顔の向き(又は目線)を推定し、顔の向き(又は目線)が交差する人物同士を関連付けるようにしてもよい。また、例えば制御部121は、人物間の距離が所定の距離以内の人物同士を関連付けるようにしてもよい。そして、制御部121は、他の人物と関連付けられる人物同士を共同作業者、他の人物と関連付けられない人物を単独作業者と判断するようにしてもよい。また、制御部121は、更に、人物の制服、又はビブス(ベスト状の衣服)、又は帽子の色、又は形状に基づき、人物同士を関連付けるようにしてもよい。例えば、制御部121は、人物間の距離が所定の距離以内の人物の内、制服の形状が同じ人物同士を関連付け、人物間の距離が所定の距離以内の人物であっても、制服の形状が異なる人物同士は関連付けないようにしてもよいし、所定の距離以内でかつビブスの色が異なる組み合わせを共同作業者で、それ以外を単独作業者といった複数の条件で判定してもよい。 Here, the processing for determining whether the worker is a single worker or a joint worker is not limited to the processing described above. For example, the control unit 121 may associate persons with each other based on at least one of the positions of the persons detected from the captured image, the orientation of the faces of the persons, and the distance between the persons. For example, the control unit 121 may associate people in positions within a predetermined range from a predetermined object in the captured image, such as a workbench, etc., or estimate the face direction (or line of sight) of the person, It is also possible to associate persons whose face directions (or line of sight) intersect with each other. Further, for example, the control unit 121 may associate persons whose distance between them is within a predetermined distance. Then, the control unit 121 may determine that persons who are associated with other persons are joint workers, and persons who are not associated with other persons are independent workers. In addition, the control unit 121 may further associate persons with each other based on the color or shape of their uniforms, bibs (vest-like clothing), or hats. For example, the control unit 121 associates persons whose uniform shape is the same among persons whose distance between them is within a predetermined distance, and even if the persons whose distance is within a predetermined distance It is also possible to make judgments based on a plurality of conditions such that persons with different distances are not associated with each other, or a combination of different colors of bibs within a predetermined distance is a collaborator, and others are a single worker.

上記(項目1)と(項目2)とにおける判定について図13を用いて説明する。図13において、楕円1201~1205は人物検出位置である楕円401~405の中心を水平面画像上の座標へ変換した結果を表す。また、領域1206はユーザーによって指定された検知領域を表す。また、楕円1200は以下の式(4)を満たすx、yから成る楕円を表す。

Figure 0007247310000004
式(4)中のqx、qyはそれぞれ、処理対象としている人物の、水平面画像上でのx座標、及びy座標を表す。図13では、qx、qyはそれぞれ楕円1202のx座標、及びy座標を表す。式(4)中のa、bは楕円の変換パラメータである。例えば、a=1、b=1とすると、楕円は半径R、中心(qx、qy)の円となる。また、a=1、b=1/2とすると、x軸方向の長さがR、y軸方向の長さがR/2となる楕円となる。本実施形態では共同作業者同士が水平面画像上のx軸方向に並んで作業を行うため、a>bとなる値を用いることとする。 Determinations in the above (item 1) and (item 2) will be described with reference to FIG. In FIG. 13, ellipses 1201 to 1205 represent results of transforming the centers of ellipses 401 to 405, which are human detection positions, into coordinates on the horizontal plane image. Also, area 1206 represents the detection area specified by the user. Also, an ellipse 1200 represents an ellipse composed of x and y that satisfies the following equation (4).
Figure 0007247310000004
qx and qy in Equation (4) respectively represent the x-coordinate and y-coordinate of the person to be processed on the horizontal plane image. In FIG. 13, qx and qy represent the x- and y-coordinates of the ellipse 1202, respectively. a and b in Equation (4) are ellipse transformation parameters. For example, if a=1 and b=1, the ellipse is a circle with radius R and center (qx, qy). Further, when a=1 and b=1/2, the ellipse has a length of R in the x-axis direction and a length of R/2 in the y-axis direction. In the present embodiment, co-workers work side by side in the x-axis direction on the horizontal plane image, so a value that satisfies a>b is used.

例えば、制御部121は、リストの走査の最中、人物検出位置の楕円402の人物を処理対象としたとする。このとき、制御部121は、人物検出位置の楕円402に対応する水平面画像上の楕円1202の座標に関して、上記(項目1)~(項目2)の判定を行う。まず(項目1)では、制御部121は、楕円1200の内部に検出された人物が存在するか否かを判定する。図13で表す状況においては、人物検出位置の楕円401に対応した水平面画像上の楕円1201の座標が楕円内に含まれているため、制御部121は、判定を満たすと判断する。次に(項目2)では、制御部121は、(項目1)の条件を満たした人物の検出位置の楕円401に対応した水平面画像上の座標601が、領域1206に含まれているかを判定する。本実施形態の例で説明する状況下では、楕円1201の座標が、領域1206に含まれているため、制御部121は、判定を満たすと判断する。以上、(項目1)と(項目2)と、を全て満たしていたため、制御部121は、楕円402の人物を共同作業者であると判断する。 For example, it is assumed that the control unit 121 sets the person in the ellipse 402 of the person detection position as the processing target during scanning of the list. At this time, the control unit 121 makes the above (item 1) to (item 2) determinations with respect to the coordinates of the ellipse 1202 on the horizontal plane image corresponding to the ellipse 402 of the human detection position. First, in (item 1), the control unit 121 determines whether or not the detected person exists inside the ellipse 1200 . In the situation shown in FIG. 13, the coordinates of the ellipse 1201 on the horizontal plane image corresponding to the ellipse 401 of the person detection position are included in the ellipse, so the control unit 121 determines that the determination is satisfied. Next, in (item 2), the control unit 121 determines whether the coordinate 601 on the horizontal plane image corresponding to the ellipse 401 of the detection position of the person who satisfies the condition of (item 1) is included in the area 1206. . Under the circumstances described in the example of this embodiment, the coordinates of the ellipse 1201 are included in the area 1206, so the control unit 121 determines that the determination is satisfied. Since both (item 1) and (item 2) are satisfied, the control unit 121 determines that the person in the ellipse 402 is a co-worker.

(処理3-1).制御部121は、リストの末尾の人物を処理対象としているか否かを判断する(S1106)。制御部121は、リストの末尾で無ければ次の人物を処理対象とし、(処理2)へ戻る(S1107)。制御部121は、リストの末尾であればリスト内の走査を終了し、単独作業者が存在する累積フレーム数を0にする(S1108)。
(処理3-2).制御部121は、単独作業者が存在する累積フレーム数をインクリメントする(S1109)。
次に制御部121は、ユーザーに単独作業者が存在する旨をユーザーへ通知するか否かを判断し、条件を満たしていた場合は通知を行う(S1110、S1111)。
制御部121は、通知する際の表示処理等については、実施形態1と同様の処理を行う。
また、本実施形態では、制御部121は、単独作業者が存在することをユーザーへ通知する方法として、表示装置140へ単独作業者が存在する旨を表すUIを表示する。例えば、制御部121は、撮像画像300、又は水平面画像500上の単独作業者の位置に二重丸を重畳させる、赤丸を重畳させる等である。しかしながらこの限りでは無く、制御部121は、ユーザーにメールを送信してもよいし、外部出力へ出力を行いスピーカーからアラートを発する等を行ってもよい。
(Processing 3-1). The control unit 121 determines whether or not the person at the end of the list is to be processed (S1106). If the person is not at the end of the list, the control unit 121 sets the next person as the processing target, and returns to (processing 2) (S1107). If it is the end of the list, the control unit 121 ends the scanning in the list and sets the cumulative number of frames in which the lone worker exists to 0 (S1108).
(processing 3-2). The control unit 121 increments the cumulative number of frames in which the lone worker exists (S1109).
Next, the control unit 121 determines whether or not to notify the user of the existence of the lone worker, and notifies the user if the conditions are satisfied (S1110, S1111).
The control unit 121 performs the same processing as in the first embodiment regarding the display processing and the like at the time of notification.
Further, in the present embodiment, the control unit 121 displays a UI indicating the existence of the lone worker on the display device 140 as a method of notifying the user of the existence of the lone worker. For example, the control unit 121 superimposes a double circle or a red circle on the position of the lone worker on the captured image 300 or the horizontal plane image 500 . However, this is not the only option, and the control unit 121 may send an e-mail to the user, or output to an external output and issue an alert from a speaker.

<その他の実施形態>
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給する。そして、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読み出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
<Other embodiments>
The present invention supplies a program that implements one or more functions of the above-described embodiments to a system or device via a network or storage medium. It can also be realized by a process in which one or more processors in the computer of the system or device reads and executes the program. It can also be implemented by a circuit (for example, ASIC) that implements one or more functions.

以上、本発明の好ましい実施形態について詳述したが、本発明は係る特定の実施形態に限定されるものではない。撮像装置110の機能構成は、CPU12がメモリ13に記憶されたプログラムに基づき処理を実行することにより実現されるソフトウェア構成として撮像装置に実装されてもよい。また、撮像装置110の機能構成の一部又は全てはハードウェア構成として撮像装置110に実装されてもよい。同様に、クライアント装置120の機能構成はCPU22がメモリ21に記憶されたプログラムに基づき処理を実行することにより実現されるソフトウェア構成としてクライアント装置120に実装されてもよい。また、クライアント装置120の機能構成の一部又は全てはハードウェア構成としてクライアント装置120に実装されてもよい。
また、単独作業者の位置に二重丸を重畳する、赤丸を重畳する以外に、単独作業者に「単独作業者」と文字列を重畳させるようにしてもよいし、赤色等の警告色を撮像画像上の単独作業者に重畳させるようにしてもよい。また、これらを任意に組み合わせて重畳表示させるようにしてもよい。
また、上述したクライアント装置や撮像装置のハードウェア構成は一例であり、例えば、CPUやメモリ、通信I/F等は複数有していてもよい。
Although preferred embodiments of the invention have been described in detail above, the invention is not limited to such specific embodiments. The functional configuration of the image capturing apparatus 110 may be implemented in the image capturing apparatus as a software configuration realized by executing processing based on programs stored in the memory 13 by the CPU 12 . Also, part or all of the functional configuration of the imaging device 110 may be implemented in the imaging device 110 as a hardware configuration. Similarly, the functional configuration of the client device 120 may be implemented in the client device 120 as a software configuration realized by the CPU 22 executing processing based on the programs stored in the memory 21 . Also, part or all of the functional configuration of the client device 120 may be implemented in the client device 120 as a hardware configuration.
In addition to superimposing a double circle or a red circle on the position of the lone worker, it is also possible to superimpose a character string such as "lone worker" on the position of the lone worker, or use a warning color such as red. It may be superimposed on the single worker on the captured image. Alternatively, these may be combined arbitrarily and displayed in a superimposed manner.
Moreover, the hardware configurations of the client device and the imaging device described above are examples, and for example, a plurality of CPUs, memories, communication I/Fs, and the like may be provided.

以上、上述した各実施形態の処理によれば、画像中の人物が、単独か複数かを適切に提示することができる。作業現場内に単独作業者が存在する旨の通知を受け取り、その映像を容易に確認できることで、作業監視員は、ルールに違反している作業者を見つけることができ、その作業者へ注意を促すことが可能になる。 As described above, according to the processing of each embodiment described above, it is possible to appropriately present whether the person in the image is single or plural. By receiving a notification that there is a lone worker in the work site and easily checking the video, the work inspector can find the worker who is violating the rules and warn the worker. can be encouraged.

21 メモリ
22 CPU
120 クライアント装置
140 表示装置
21 memory 22 CPU
120 client device 140 display device

Claims (20)

人物が作業を行うエリアの人物を検出する検出手段により検出された人物が、単独で作業を行っている人物かを特定する特定手段と、
前記特定手段により、前記エリアにおいて前記検出手段により検出された人物が、単独で作業を行っている人物であると特定されたことを条件として、複数人で作業を行わなければならない前記エリアにおいて単独で作業を行っている人物が存在することに関する情報を表示手段に表示させるように制御する表示制御手段と、
を有することを特徴とする制御装置。
an identifying means for identifying whether a person detected by a detecting means for detecting a person in an area where a person works is a person working alone;
On the condition that the person detected by the detection means in the area is specified by the specifying means as a person who is working alone, in the area where a plurality of people must work a display control means for controlling the display means to display information about the presence of a person working in the
A control device comprising:
前記特定手段は、前記エリアにおいて前記検出手段により検出された人物が単独で作業を行っている継続時間が所定時間を超えるかを特定し、
前記表示制御手段は、前記特定手段により、前記エリアにおいて前記検出手段により検出された人物が単独で作業を行っている継続時間が所定時間を超えると特定されたことを条件として、前記エリアにおいて単独で作業を行っている人物が存在することに関する前記情報を前記表示手段に表示させるように制御することを特徴とする請求項1に記載の制御装置。
The identifying means identifies whether the duration of the person detected by the detecting means working alone in the area exceeds a predetermined time,
The display control means, on the condition that the specifying means specifies that the person detected by the detecting means in the area has been working alone for a duration exceeding a predetermined time, 2. The control device according to claim 1, wherein said information relating to the presence of a person working in said room is displayed on said display means.
前記検出手段は、人物が作業を行うエリアを撮像した動画像から人物を検出することを特徴とする請求項1又は2に記載の制御装置。 3. The control device according to claim 1, wherein the detection means detects a person from a moving image of an area in which the person works. 前記検出手段は、人物が作業を行うエリアを撮像した動画像から人物を検出し、
前記表示制御手段は、前記特定手段により、前記エリアにおいて前記検出手段により検出された人物が、単独で作業を行っている人物であると特定された累積のフレームの数が閾値を超えたことを条件として、前記エリアにおいて単独で作業を行っている人物が存在することに関する前記情報を前記表示手段に表示させるように制御する請求項1又は2に記載の制御装置。
The detection means detects a person from a moving image of an area in which the person works,
The display control means detects that the cumulative number of frames in which the identifying means identifies the person detected by the detecting means in the area as a person working alone exceeds a threshold. 3. The control device according to claim 1, wherein, as a condition, said information relating to the presence of a person working alone in said area is controlled to be displayed on said display means.
前記表示制御手段は、前記情報として、撮像された動画像に重畳して表示される前記エリアを強調表示するように制御することを特徴とする請求項1乃至4の何れか1項に記載の制御装置。 5. The display control means according to claim 1, wherein the display control means performs control so as to highlight, as the information, the area superimposed and displayed on the captured moving image. Control device. 前記表示制御手段は、前記エリアの枠の色を変えることにより、前記エリアを強調表示するように制御することを特徴とする請求項5に記載の制御装置。 6. The control device according to claim 5, wherein the display control means performs control so as to highlight the area by changing the color of the frame of the area. 前記特定手段は、前記エリアごとに、前記検出手段により検出された人物が、単独で作業を行っている人物かを特定することを特徴とする請求項1乃至6の何れか1項に記載の制御装置。 7. The specifying unit according to any one of claims 1 to 6, wherein the specifying unit specifies whether the person detected by the detecting unit is a person working alone for each area. Control device. 撮像された画像上に、ユーザーにより入力された前記エリアを設定する設定手段を備え、
前記特定手段は、前記設定手段により設定された前記エリアにおいて、前記検出手段により検出された人物が単独で作業を行っている人物かを特定することを特徴とする請求項1乃至7の何れか1項に記載の制御装置。
A setting means for setting the area input by the user on the captured image,
8. The identifying means identifies whether the person detected by the detecting means is working alone in the area set by the setting means. 2. The control device according to item 1.
前記特定手段は、前記エリアにおいて、前記検出手段により検出された人物が1人である場合に、当該人物を単独で作業を行っている人物と特定することを特徴とする請求項1乃至8の何れか1項に記載の制御装置。 9. The method according to any one of claims 1 to 8, wherein, when the person detected by the detecting means is one person in the area, the identifying means identifies the person as a person working alone. The control device according to any one of claims 1 to 3. 前記特定手段は、前記検出手段により複数の人物が検出され、当該複数の人物間の距離が所定の距離よりも離れている場合に、当該人物を単独で作業を行っている人物と特定することを特徴とする請求項1乃至9の何れか1項に記載の制御装置。 When the detection means detects a plurality of persons and the distance between the plurality of persons is greater than a predetermined distance, the identification means identifies the person as a person working alone. The control device according to any one of claims 1 to 9, characterized by: 前記特定手段は、前記検出手段により複数の人物が検出され、当該複数の人物の顔の向き、または視線が、交差していない場合に、当該人物を単独で作業を行っている人物と特定することを特徴とする請求項1乃至10の何れか1項に記載の制御装置。 The identifying means identifies the person as a person working alone when a plurality of persons are detected by the detecting means and the face orientations or lines of sight of the plurality of persons do not intersect. The control device according to any one of claims 1 to 10, characterized in that: 前記表示制御手段は、前記特定手段により、前記エリアにおいて前記検出手段により検出された人物が単独で作業を行っている人物ではないと特定されたことを条件に、前記情報を表示しないように制御することを特徴とする請求項1乃至11の何れか1項に記載の制御装置。 The display control means controls not to display the information on condition that the person detected by the detection means in the area is specified by the specifying means as not a person working alone. 12. The control device according to any one of claims 1 to 11, characterized in that: ユーザーによる指定を受け付ける入力手段と、
撮像画像のうち、前記入力手段によりユーザーにより指定されたエリアを、撮像画像から人物を検出する検出手段により検出され人物が単独で作業を行っている人物かを特定するためのエリアとして設定する設定手段と、
前記設定手段により設定された前記エリアにおいて、前記検出手段により検出された人物が単独で作業を行っている人物かを特定する特定手段と、
前記撮像画像に係るタイムラインを表示するように制御する表示制御手段と、
を有し、
前記特定手段は、更に、前記エリアにおいて前記検出手段により検出された人物が単独で作業を行っている継続時間が所定時間を超えるか否かを特定し、
前記表示制御手段は、前記特定手段により前記所定時間を超えると特定された前記継続時間の時間帯と、前記特定手段により前記所定時間を超えていないと特定された前記継続時間の時間帯と、を識別可能な情報を前記タイムライン上に表示するよう制御することを特徴とする制御装置。
an input means for accepting a specification by a user;
An area specified by the user through the input means in the captured image is set as an area for identifying whether the person detected by the detection means for detecting a person from the captured image is a person working alone. setting means;
a specifying means for specifying whether the person detected by the detecting means is a person working alone in the area set by the setting means;
display control means for controlling to display a timeline related to the captured image;
has
The identifying means further identifies whether or not the duration of the person detected by the detecting means working alone in the area exceeds a predetermined time,
The display control means includes a time zone of the duration specified by the specifying means as exceeding the predetermined time, a time zone of the duration specified by the specifying means as not exceeding the predetermined time, A control device that controls to display information that can identify the on the timeline.
ユーザーによる指定を受け付ける入力手段と、
撮像画像のうち、前記入力手段によりユーザーにより指定されたエリアを、撮像画像から人物を検出する検出手段により検出され人物が単独で作業を行っている人物かを特定するためのエリアとして設定する設定手段と、
前記設定手段により設定された前記エリアにおいて、前記検出手段により検出された人物が単独で作業を行っている人物かを特定する特定手段と、
前記撮像画像に係るタイムラインを表示するように制御する表示制御手段と
を有し、
前記設定手段は、前記エリアを撮像画像上に複数設定可能であり、
前記表示制御手段は、前記検出手段により検出された人物が単独で作業を行っている人物であると前記特定手段により特定されたエリアが複数存在する時間帯と、前記検出手段により検出された人物が単独で作業を行っている人物であると前記特定手段により特定されたエリアが単数存在する時間帯と、を識別可能な情報を前記タイムライン上に表示するように制御することを特徴とする制御装置。
an input means for accepting a specification by a user;
An area specified by the user through the input means in the captured image is set as an area for identifying whether the person detected by the detection means for detecting a person from the captured image is a person working alone. setting means;
a specifying means for specifying whether the person detected by the detecting means is a person working alone in the area set by the setting means;
and display control means for controlling to display a timeline related to the captured image,
The setting means can set a plurality of the areas on the captured image,
The display control means controls a time period in which there are a plurality of areas specified by the specifying means that the person detected by the detection means is a person working alone, and is a person working alone, and a time period in which there is a single area specified by the specifying means, and information that can be identified is displayed on the timeline. Control device.
制御装置が実行する制御方法であって、
人物が作業を行うエリアの人物を検出する検出手段により検出された人物が、単独で作業を行っている人物かを特定する特定ステップと、
前記特定ステップで、前記エリアにおいて前記検出手段で検出された人物が、単独で作業を行っている人物であると特定されたことを条件として、複数人で作業を行わなければならない前記エリアにおいて単独で作業を行っている人物が存在することに関する情報を表示させるように制御する表示制御ステップと、を含むことを特徴とする制御方法。
A control method executed by a control device,
an identification step of identifying whether the person detected by the detection means for detecting the person in the area where the person works is a person working alone;
In the identification step, on the condition that the person detected by the detection means in the area is identified as a person working alone, a person working alone in the area where a plurality of people must work and a display control step of controlling to display information about the presence of a person working in the .
ユーザーによる指定を受け付ける入力ステップと、
撮像画像のうち、前記入力ステップにおいてユーザーにより指定されたエリアを、撮像画像から人物を検出する検出手段により検出され人物が単独で作業を行っている人物かを特定するためのエリアとして設定する設定ステップと、
前記設定ステップで設定された前記エリアにおいて、前記検出手段で検出された人物が単独で作業を行っている人物かを特定する特定ステップと、
前記撮像画像に係るタイムラインを表示するように制御する表示制御ステップと、
を含み、
前記特定ステップにおいて、更に、前記エリアにおいて前記検出手段により検出された人物が単独で作業を行っている人物である継続時間が所定時間を超えるか否かが特定され、
前記表示制御ステップにおいて、前記特定ステップにおいて前記所定時間を超えると特定された前記継続時間の時間帯と、前記特定ステップにおいて前記所定時間を超えていないと特定された前記継続時間の時間帯と、を識別可能な情報が前記タイムライン上に表示されるよう制御されることを特徴とする制御方法。
an input step that accepts user specifications;
The area specified by the user in the input step in the captured image is set as an area for identifying whether the person detected by the detection means for detecting a person from the captured image is a person working alone. a configuration step;
a specifying step of specifying whether the person detected by the detecting means is a person working alone in the area set in the setting step;
a display control step of controlling to display a timeline related to the captured image;
including
In the identifying step, it is further identified whether or not the duration of the person detected by the detecting means in the area being a person working alone exceeds a predetermined time,
In the display control step, the time zone of the duration specified in the specifying step as exceeding the predetermined time, and the time zone of the duration specified in the specifying step as not exceeding the predetermined time; A control method characterized in that information capable of identifying a is controlled to be displayed on the timeline.
ユーザーによる指定を受け付ける入力ステップと、
撮像画像のうち、前記入力ステップにおいてユーザーにより指定されたエリアを、撮像画像から人物を検出する検出手段により検出され人物が単独で作業を行っている人物かを特定するためのエリアとして設定する設定ステップと、
前記設定ステップにより設定された前記エリアにおいて、前記検出手段により検出された人物が単独で作業を行っている人物かを特定する特定ステップと、
前記撮像画像に係るタイムラインを表示するように制御する表示制御ステップと
を含み、
前記設定ステップにおいて、前記エリアを撮像画像上に複数設定可能であり、
前記表示制御ステップにおいて、前記検出手段において検出された人物が単独で作業を行っている人物であると前記特定ステップにおいて特定されたエリアが複数存在する時間帯と、前記検出手段において検出された人物が単独で作業を行っている人物であると前記特定ステップにおいて特定されたエリアが単数存在する時間帯と、を識別可能な情報が前記タイムライン上に表示されるように制御されることを特徴とする制御方法。
an input step that accepts user specifications;
The area specified by the user in the input step in the captured image is set as an area for identifying whether the person detected by the detection means for detecting a person from the captured image is a person working alone. a configuration step;
a specifying step of specifying whether the person detected by the detecting means is a person working alone in the area set by the setting step;
a display control step of controlling to display a timeline related to the captured image;
In the setting step, a plurality of areas can be set on the captured image,
In the display control step, a time zone in which a plurality of areas are specified in the specifying step as the person detected by the detecting means as a person working alone, and the person detected by the detecting means. is a person who is working alone, and a time period in which there is a single area specified in the specifying step, and information that can be identified is displayed on the timeline. control method.
コンピュータを、請求項1乃至14の何れか1項に記載の制御装置として機能させるためのプログラム。 A program for causing a computer to function as the control device according to any one of claims 1 to 14. 人物が作業を行うエリアの人物を検出する検出手段により検出された人物が、単独で作業を行っている人物かを特定する特定手段と、
前記特定手段により、前記エリアにおいて前記検出手段により検出された人物が、単独で作業を行っている人物であると特定されたことを条件として、複数人で作業を行わなければならない前記エリアにおいて単独で作業を行っている人物が存在することに関する情報を表示手段に表示させるように制御する表示制御手段と、
を有することを特徴とするシステム。
an identifying means for identifying whether a person detected by a detecting means for detecting a person in an area where a person works is a person working alone;
On the condition that the person detected by the detection means in the area is specified by the specifying means as a person who is working alone, in the area where a plurality of people must work a display control means for controlling the display means to display information about the presence of a person working in the
A system characterized by comprising:
システムが実行する制御方法であって、
人物が作業を行うエリアの人物を検出する検出手段により検出された人物が、単独で作業を行っている人物かを特定する特定ステップと、
前記特定ステップで、前記エリアにおいて前記検出手段で検出された人物が、単独で作業を行っている人物であると特定されたことを条件として、複数人で作業を行わなければならない前記エリアにおいて単独で作業を行っている人物が存在することに関する情報を表示させるように制御する表示制御ステップと、
を含むことを特徴とする制御方法。
A control method implemented by a system comprising:
an identification step of identifying whether the person detected by the detection means for detecting the person in the area where the person works is a person working alone;
In the identification step, on the condition that the person detected by the detection means in the area is identified as a person working alone, a person working alone in the area where a plurality of people must work a display control step for controlling to display information about the presence of a person working in
A control method comprising:
JP2021191913A 2015-10-30 2021-11-26 CONTROL DEVICE, CONTROL METHOD, PROGRAM AND SYSTEM Active JP7247310B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021191913A JP7247310B2 (en) 2015-10-30 2021-11-26 CONTROL DEVICE, CONTROL METHOD, PROGRAM AND SYSTEM

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2015215053A JP6648923B2 (en) 2015-10-30 2015-10-30 Control device, control method, and program
JP2020004940A JP6987902B2 (en) 2015-10-30 2020-01-16 Controls, control methods and programs
JP2021191913A JP7247310B2 (en) 2015-10-30 2021-11-26 CONTROL DEVICE, CONTROL METHOD, PROGRAM AND SYSTEM

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2020004940A Division JP6987902B2 (en) 2015-10-30 2020-01-16 Controls, control methods and programs

Publications (2)

Publication Number Publication Date
JP2022037001A JP2022037001A (en) 2022-03-08
JP7247310B2 true JP7247310B2 (en) 2023-03-28

Family

ID=87885134

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021191913A Active JP7247310B2 (en) 2015-10-30 2021-11-26 CONTROL DEVICE, CONTROL METHOD, PROGRAM AND SYSTEM

Country Status (1)

Country Link
JP (1) JP7247310B2 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006092396A (en) 2004-09-27 2006-04-06 Oki Electric Ind Co Ltd Apparatus for detecting lone person and person in group
JP2010154134A (en) 2008-12-24 2010-07-08 Toshiba Corp Video monitoring system
JP2012174223A (en) 2011-02-24 2012-09-10 Nippon Steel Corp Person monitoring device, person monitoring method, and computer program
JP2014192776A (en) 2013-03-28 2014-10-06 Japan Advanced Institute Of Science & Technology Hokuriku Video monitoring system, video processing server, and method for browsing and delivering monitored video
JP2015176198A (en) 2014-03-13 2015-10-05 大和ハウス工業株式会社 Monitor system

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6987902B2 (en) * 2015-10-30 2022-01-05 キヤノン株式会社 Controls, control methods and programs

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006092396A (en) 2004-09-27 2006-04-06 Oki Electric Ind Co Ltd Apparatus for detecting lone person and person in group
JP2010154134A (en) 2008-12-24 2010-07-08 Toshiba Corp Video monitoring system
JP2012174223A (en) 2011-02-24 2012-09-10 Nippon Steel Corp Person monitoring device, person monitoring method, and computer program
JP2014192776A (en) 2013-03-28 2014-10-06 Japan Advanced Institute Of Science & Technology Hokuriku Video monitoring system, video processing server, and method for browsing and delivering monitored video
JP2015176198A (en) 2014-03-13 2015-10-05 大和ハウス工業株式会社 Monitor system

Also Published As

Publication number Publication date
JP2022037001A (en) 2022-03-08

Similar Documents

Publication Publication Date Title
US10970551B2 (en) Control apparatus and control method for determining relation of persons included in an image, and storage medium storing a program therefor
CN105794191B (en) Identify data transmission device and method and identification data recording equipment and method
US10956722B2 (en) Moving information analyzing system and moving information analyzing method
JP5227911B2 (en) Surveillance video retrieval device and surveillance system
EP3016382B1 (en) Monitoring methods and devices
JP2019186777A (en) Video processing apparatus, video processing system and video processing method
US20150016671A1 (en) Setting apparatus, output method, and non-transitory computer-readable storage medium
JP6712778B2 (en) Object detection device, object detection system, and object detection method
JP2018085597A (en) Person behavior monitoring device and person behavior monitoring system
KR102249498B1 (en) The Apparatus And System For Searching
JP2010206475A (en) Monitoring support device, method thereof, and program
US20190246048A1 (en) Image processing apparatus, image processing method, and storage medium
CN113347387A (en) Image monitoring system and image monitoring method
JP2019200715A (en) Image processing apparatus, image processing method, and program
JP6648923B2 (en) Control device, control method, and program
JP2018005752A (en) Behavior detection system
JP5088463B2 (en) Monitoring system
JP6987902B2 (en) Controls, control methods and programs
JP2007018324A (en) Apparatus, method and program for detecting intruding object by image processing
JP7247310B2 (en) CONTROL DEVICE, CONTROL METHOD, PROGRAM AND SYSTEM
CN106797431A (en) Image processing method and program in display picture
US20200311438A1 (en) Representative image generation device and representative image generation method
JP5712401B2 (en) Behavior monitoring system, behavior monitoring program, and behavior monitoring method
JP7081659B2 (en) Information processing equipment, data generation method, and program
JP5188840B2 (en) Security device and update method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211126

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221004

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221130

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230214

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230315

R151 Written notification of patent or utility model registration

Ref document number: 7247310

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151