JP6562437B1 - Monitoring device and monitoring method - Google Patents

Monitoring device and monitoring method Download PDF

Info

Publication number
JP6562437B1
JP6562437B1 JP2019085176A JP2019085176A JP6562437B1 JP 6562437 B1 JP6562437 B1 JP 6562437B1 JP 2019085176 A JP2019085176 A JP 2019085176A JP 2019085176 A JP2019085176 A JP 2019085176A JP 6562437 B1 JP6562437 B1 JP 6562437B1
Authority
JP
Japan
Prior art keywords
monitoring
person
unit
line
monitoring target
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019085176A
Other languages
Japanese (ja)
Other versions
JP2020182146A (en
Inventor
三郎 山内
三郎 山内
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Earth Eyes Co Ltd
Original Assignee
Earth Eyes Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Earth Eyes Co Ltd filed Critical Earth Eyes Co Ltd
Priority to JP2019085176A priority Critical patent/JP6562437B1/en
Application granted granted Critical
Publication of JP6562437B1 publication Critical patent/JP6562437B1/en
Publication of JP2020182146A publication Critical patent/JP2020182146A/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

【課題】従来よりも簡易な測定手段によって、監視対象人物の「視線方向」をより正確に検知することができる監視装置を提供すること。【解決手段】撮影部110と、監視対象人物を認識して特定することができる監視対象特定部123と、監視対象人物の骨格を抽出する骨格抽出部124と、各特徴点の監視対象領域内での3次元位置を特定する、特徴点位置特定部125と、監視対象人物の視線方向を検知する、視線方向検知部126と、を備え、視線方向検知部126は、監視対象人物の両耳及び鼻の位置に対応する3か所の視線方向検知用特徴点を結んで形成される三角形の両耳の位置に対応する点を結んでなる底辺の中点から、鼻の位置に対応する点である三角形の頂点に向かう方向を、監視対象人物の3次元空間内での視線方向として検知する、監視装置100とする。【選択図】図7To provide a monitoring apparatus capable of more accurately detecting the “line-of-sight direction” of a person to be monitored by means of a simpler measuring means than before. An imaging unit, a monitoring target specifying unit that can recognize and specify a monitoring target person, a skeleton extracting unit that extracts a skeleton of the monitoring target person, and a monitoring target area within each feature point A feature point position specifying unit 125 that specifies a three-dimensional position in the image, and a line-of-sight direction detection unit 126 that detects the line-of-sight direction of the person to be monitored. And a point corresponding to the position of the nose from the midpoint of the base connecting the points corresponding to the positions of both ears of the triangle formed by connecting the three gaze direction detection feature points corresponding to the position of the nose It is assumed that the monitoring device 100 detects the direction toward the apex of the triangle as the line-of-sight direction of the monitoring target person in the three-dimensional space. [Selection] Figure 7

Description

本発明は、監視装置、及び、監視方法に関する。   The present invention relates to a monitoring device and a monitoring method.

従来、防犯や防災等の目的、或いは、看護や介護の目的で、監視カメラを用いた監視装置が利用されている。この種の監視装置は、一般に、監視カメラと情報処理装置と、を含んで構成されている。そして、例えば、店舗や商業施設、或いは病院や介護施設等の所定の監視対象領域内に設置した監視カメラによって撮影された画像を用いて監視対象の監視を行っている。   Conventionally, a monitoring device using a monitoring camera has been used for the purpose of crime prevention and disaster prevention, or for the purpose of nursing or nursing care. This type of monitoring device is generally configured to include a monitoring camera and an information processing device. Then, for example, the monitoring target is monitored using an image taken by a monitoring camera installed in a predetermined monitoring target area such as a store, a commercial facility, or a hospital or a nursing facility.

このような監視装置によって、画像内の「監視対象人物」の頭部、胴体、及び四肢の動き等からなる「得意的な動作」を、画像データから検知して、「監視対象人物」に対する対応の要否を機械的に判断することが行われている(特許文献1参照)。   With such a monitoring device, the “special motion” consisting of the movement of the head, torso, and limbs of the “monitoring person” in the image is detected from the image data, and the response to the “monitoring person” Whether or not is necessary is determined mechanically (see Patent Document 1).

そして、このような監視装置による監視作業においては、「特異的な動作」を構成する身体各部の動きの中でも、特に監視対象人物の「視線方向」を検知することが、監視対象に対する対応の必要度の判定において有用である場合が多い。   In such a monitoring operation by the monitoring device, it is necessary to deal with the monitoring target in particular by detecting the “sight line direction” of the person to be monitored among the movements of the body parts constituting the “specific motion”. Often useful in determining the degree.

監視装置によって、画像内の「監視対象人物」の「視線方向」を検知する手段として、例えば、「様々な角度の顔部のテンプレート」と監視画像における監視対象人物の顔部とを「マッチング」させることにより、当該顔部に近似するテンプレートから視線方向を検知する視線方向検知手段(特許文献2参照)や、或いは、監視対象人物の「人物の頭部全体」と「目や鼻の位置」を検知し、これらの「位置関係」から顔の向きを求め、これを視線方向とする視線方向検知手段(特許文献3)等が提案されている。   As a means for detecting the “line-of-sight direction” of the “person to be monitored” in the image by the monitoring device, for example, “matching” the “face template of various angles” and the face of the person to be monitored in the monitoring image By doing so, the gaze direction detecting means (see Patent Document 2) for detecting the gaze direction from the template that approximates the face, or “the whole head of the person” and “the position of the eyes and nose” of the person to be monitored A gaze direction detecting means (Patent Document 3) and the like are proposed in which the direction of the face is obtained from these “positional relationships” and the gaze direction is determined from this.

特許第5899506号公報Japanese Patent No. 5899506 特開2008−288707号公報JP 2008-288707 A 特開2018−148402号公報JP 2018-148402 A

しかしながら、特許文献2の視線方向検知手段は、膨大な基礎データ(「様々な角度の顔部のテンプレート」)を予め準備する必要がある。   However, it is necessary for the gaze direction detection means of Patent Document 2 to prepare a large amount of basic data (“face templates of various angles”) in advance.

一方、特許文献3の視線方向検知手段は、視線方向を正確に検知するために、「人物の頭部全体」の輪郭全体の3次元位置情報と、「目や鼻の位置」3次元情報の両方を、把握する必要があり、3Dカメラや精度の高い距離センサー等の高価な距離測定手段の設置が必須である。   On the other hand, the gaze direction detecting means of Patent Document 3 includes the three-dimensional position information of the entire outline of “the whole head of a person” and the three-dimensional information of “the position of eyes and nose” in order to accurately detect the gaze direction. It is necessary to grasp both, and it is essential to install expensive distance measuring means such as a 3D camera and a high-precision distance sensor.

本発明は、従来よりも簡易な測定手段によって、最小限の情報処理量により、監視対象人物の「視線方向」を、正確に検知することができる監視装置を提供することを目的とする。   It is an object of the present invention to provide a monitoring apparatus that can accurately detect the “line-of-sight direction” of a person to be monitored with a minimum amount of information processing by a simpler measuring means than before.

本発明は、以下のような解決手段により、前記課題を解決する。   The present invention solves the above problems by the following means.

(1) 監視対象領域を撮影する撮影部と、前記撮影部が撮影した監視画像中の監視対象人物を認識して特定することができる監視対象特定部と、前記監視対象人物の両耳及び鼻の位置に対応する3か所の視線方向検知用特徴点を含んでなる複数の特徴点を連接する骨格線で構成される前記監視対象人物の骨格を抽出する骨格抽出部と、前記骨格抽出部が抽出した前記特徴点の前記監視対象領域内での3次元位置を特定する、特徴点位置特定部と、前記監視対象人物の視線方向を検知する、視線方向検知部と、を備え、前記視線方向検知部は、前記視線方向検知用特徴点を結んで形成される三角形の両耳の位置に対応する点を結んでなる底辺の中点から、鼻の位置に対応する点である前記三角形の頂点に向かう方向を、前記監視対象人物の3次元空間内での視線方向として検知する、監視装置。   (1) An imaging unit that captures a monitoring target area, a monitoring target identification unit that can recognize and identify a monitoring target person in a monitoring image captured by the imaging unit, and both ears and nose of the monitoring target person A skeleton extraction unit that extracts the skeleton of the person to be monitored, which is composed of skeleton lines that connect a plurality of feature points including three gaze direction detection feature points corresponding to the position of the skeleton, and the skeleton extraction unit A feature point position identifying unit that identifies a three-dimensional position of the feature point extracted in the monitoring target area, and a gaze direction detecting unit that detects a gaze direction of the monitoring target person. The direction detection unit is a point corresponding to the position of the nose from the midpoint of the base connecting the points corresponding to the positions of both ears of the triangle formed by connecting the characteristic points for detecting the gaze direction. The direction toward the apex is set to 3 of the monitored person. Detecting a gaze direction in the original space, the monitoring device.

(2) 特定動作検知部と、不審動作判定部と、を更に備え、前記特定動作検知部は、前記視線方向の変動量から、前記監視対象人物の特定動作を検知し、前記不審動作判定部は、前記特定動作検知部により検知された前記特定動作と、予め登録されている基準不審動作とを比較して、前記監視対象人物の特定動作の不審度を判定して出力する、(1)に記載の監視装置。   (2) A specific motion detection unit and a suspicious motion determination unit are further provided, wherein the specific motion detection unit detects the specific motion of the person to be monitored from the amount of change in the line-of-sight direction, and the suspicious motion determination unit Compares the specific action detected by the specific action detector with a reference suspicious action registered in advance, and determines and outputs the suspicious degree of the specific action of the person to be monitored, (1) The monitoring device described in 1.

(3) 特定動作検知部と、不審動作判定部と、胴体方向検知部と、を更に備え、前記特徴点には、更に前記監視対象人物の右肩、左肩の位置に対応する2か所の胴体方向検知用特徴点が含まれていて、前記胴体方向検知部は、2か所の前記胴体方向検知用特徴点を結ぶ直線に直交する2方向のうち、前記視線方向との角度差のより小さい方向を、前記監視対象人物の3次元空間内での胴体方向として検知し、前記特定動作検知部は、前記視線方向の変動量、又は、前記視線方向と前記胴体方向との差分の変動量から、前記特定動作を検知し、前記不審動作判定部は、前記特定動作検知部により検知された前記特定動作と、予め登録されている基準不審動作とを比較して、前記監視対象人物の特定動作の不審度を判定して出力する、(1)に記載の監視装置。   (3) A specific motion detection unit, a suspicious motion determination unit, and a torso direction detection unit are further provided, and the feature point further includes two locations corresponding to the positions of the right shoulder and the left shoulder of the person to be monitored. A fuselage direction detection feature point is included, and the fuselage direction detection unit is based on an angle difference from the line-of-sight direction among two directions orthogonal to a straight line connecting the two fuselage direction detection feature points. A small direction is detected as a trunk direction in the three-dimensional space of the person to be monitored, and the specific motion detection unit is a fluctuation amount of the gaze direction or a fluctuation amount of a difference between the gaze direction and the trunk direction. The suspicious operation determination unit compares the specific operation detected by the specific operation detection unit with a pre-registered reference suspicious operation to identify the person to be monitored. Determine and output the suspicious degree of movement, (1) The placement of the monitoring device.

(4) 前記監視画像中の床面又は地面に相当する位置を前記監視対象領域を構成する3次元空間内における実寸法と関連付けて特定可能な座標を、前記監視画像に基づいて設定する座標設定部を更に備え、前記特徴点位置特定部は、前記座標設定部が設定した前記座標に基づいて前記特徴点の前記3次元空間内における位置を特定する、(1)から(3)の何れかに記載の監視装置。   (4) Coordinate setting for setting, based on the monitoring image, coordinates that can be specified by associating a position corresponding to the floor or ground in the monitoring image with an actual dimension in the three-dimensional space constituting the monitoring target area Any one of (1) to (3), wherein the feature point position specifying unit specifies the position of the feature point in the three-dimensional space based on the coordinates set by the coordinate setting unit. The monitoring device described in 1.

(5) 前記監視画像を表示する監視画像表示装置を更に備え、前記監視画像表示装置は、前記監視対象人物の前記視線方向を示す図形を前記監視画像内において表示する、(1)から(4)の何れかに記載の監視装置。   (5) A monitoring image display device that displays the monitoring image is further provided, and the monitoring image display device displays a graphic indicating the line-of-sight direction of the monitoring target person in the monitoring image. ).

(6) 撮影部が、監視対象領域を撮影する監視撮影ステップと、監視対象特定部が、前記撮影部が撮影した監視画像中の監視対象人物を認識して特定する監視対象特定ステップと、骨格抽出部が、前記監視対象人物の鼻、右耳、左耳の位置に対応する3か所の視線方向検知用特徴点を含む複数の特徴点を連接する骨格線で構成される監視対象人物の骨格を抽出する監視対象人物の骨格抽出ステップと、特徴点位置特定部が、前記骨格抽出部が抽出した前記特徴点の前記監視対象領域内での3次元位置を特定する特徴点位置特定ステップと、視線方向検知部が、3か所の前記視線方向検知用特徴点によって形成される三角形の両耳の位置に対応する点を結んでなる底辺の中点から、鼻の位置に対応する点である前記三角形の頂点に向かう方向を、前記監視対象人物の3次元空間内での視線方向として検知する、視線方向検知ステップと、を含んでなる、監視方法。   (6) A monitoring imaging step in which the imaging unit images the monitoring target region, a monitoring target specifying step in which the monitoring target specifying unit recognizes and specifies a monitoring target person in the monitoring image captured by the imaging unit, and a skeleton The extraction unit includes a skeleton line connecting a plurality of feature points including three gaze direction detection feature points corresponding to the positions of the nose, right ear, and left ear of the person to be monitored. A skeleton extraction step of a person to be monitored for extracting a skeleton, and a feature point position specifying step in which a feature point position specifying unit specifies a three-dimensional position in the monitoring target region of the feature points extracted by the skeleton extraction unit; The line-of-sight direction detection unit corresponds to the position of the nose from the midpoint of the base formed by connecting points corresponding to the positions of both ears of the triangle formed by the three characteristic points for line-of-sight detection. Direction toward the apex of a certain triangle The detected as line-of-sight direction in the three-dimensional space monitored person, comprising a line-of-sight direction sensing step, the monitoring method.

(7) 前記視線方向の変動量から、前記監視対象人物の特定動作を検知する特定動作検知ステップと、検知された前記特定動作と、予め登録されている基準不審動作とを比較して、前記監視対象人物の特定動作の不審度を判定する不審動作判定ステップと、を、更に含んでなる(6)に記載の監視方法。   (7) The specific action detecting step for detecting the specific action of the person to be monitored from the amount of change in the line-of-sight direction is compared with the detected specific action and a reference suspicious action registered in advance. The monitoring method according to (6), further comprising: a suspicious action determination step of determining a suspicious degree of the specific action of the person to be monitored.

(8) 前記特徴点には、前記監視対象人物の右肩、左肩の位置に対応する2か所の胴体方向検知用特徴点が含まれていて、2か所の前記胴体方向検知用特徴点を結ぶ直線に直交する2方向のうち、前記視線方向との角度差のより小さい方向を、前記監視対象人物の3次元空間内での胴体方向として検知する胴体方向検知ステップと、前記視線方向の変動量、又は、前記視線方向と前記胴体方向との差分の変動量から、前記監視対象人物の特定動作を検知する特定動作検知ステップと、検知された前記特定動作と、予め登録されている基準不審動作とを比較して、前記監視対象人物の特定動作の不審度を判定する不審動作判定ステップと、を、更に含んでなる(6)に記載の監視方法。   (8) The feature points include two trunk direction detection feature points corresponding to the positions of the right shoulder and the left shoulder of the person to be monitored, and the two trunk direction detection feature points. A body direction detecting step of detecting a direction having a smaller angle difference from the line-of-sight direction as a body direction in the three-dimensional space of the person to be monitored, A specific action detecting step for detecting a specific action of the person to be monitored from a fluctuation quantity or a difference quantity of difference between the line-of-sight direction and the body direction, the detected specific action, and a pre-registered reference (6) The monitoring method according to (6), further including a suspicious operation determination step of comparing a suspicious operation and determining a suspicious degree of the specific operation of the person to be monitored.

(9) 座標設定部が、前記監視画像中の床面又は地面に相当する位置を前記監視対象領域を構成する3次元空間内における実寸法と関連付けて特定可能な座標を、前記監視画像に基づいて設定する座標設定ステップを更に含んでなる、(6)から(8)の何れかに記載の監視方法。   (9) Based on the monitoring image, the coordinate setting unit can specify the coordinates that can be specified by associating the position corresponding to the floor surface or the ground in the monitoring image with the actual dimension in the three-dimensional space constituting the monitoring target area. The monitoring method according to any one of (6) to (8), further including a coordinate setting step for setting.

本発明によれば、従来よりも簡易な測定手段によって、最小限の情報処理量により、監視対象人物の「視線方向」を、正確に検知することができる監視装置を提供することができる。   According to the present invention, it is possible to provide a monitoring device that can accurately detect the “line-of-sight direction” of a person to be monitored with a minimum amount of information processing by a simpler measuring means than before.

本発明の監視装置の構成を示すブロック図である。It is a block diagram which shows the structure of the monitoring apparatus of this invention. 本発明の監視方法の流れを示すフローチャートである。It is a flowchart which shows the flow of the monitoring method of this invention. 本発明の監視装置が備える監視対象特定部によって、監視画像中の監視対人物が認識されている状態を示す図である。It is a figure which shows the state in which the monitoring person in a monitoring image is recognized by the monitoring object specific | specification part with which the monitoring apparatus of this invention is provided. 本発明の監視装置が備える骨格抽出部によって、図3の監視対象人物から骨格が抽出されている状態を示す図である。It is a figure which shows the state in which the skeleton is extracted from the monitoring subject person of FIG. 3 by the skeleton extraction part with which the monitoring apparatus of this invention is provided. 本発明の監視装置が備える特徴点位置特定部によって、上記の骨格の特徴点が、3次元情報(奥行情報)を含む座標上に重ね合わされている状態を示す図である。It is a figure which shows the state in which the feature point of said frame | skeleton is overlaid on the coordinate containing three-dimensional information (depth information) by the feature point position specific | specification part with which the monitoring apparatus of this invention is provided. 鼻、右耳、左耳の位置に対応する3か所の視線方向検知用特徴点、及び、右肩、左肩の位置に対応する2か所の胴体方向検知用特徴点の基本的な位置関係の説明に供する図面である。Basic positional relationship between three gaze direction detection feature points corresponding to the nose, right ear, and left ear positions, and two trunk direction detection feature points corresponding to the right shoulder and left shoulder positions It is drawing used for description. 視線方向検知用特徴点、及び、胴体方向検知用特徴点と、視線方向、及び、胴体方向との基本的な位置関係について説明する図面である。It is drawing explaining the basic positional relationship between the gaze direction detection feature point, the body direction detection feature point, the gaze direction, and the body direction. 視線方向検知用特徴点、及び、胴体方向検知用特徴点と、視線方向、及び、胴体方向との位置関係の変動の態様について説明する図面である。It is drawing explaining the aspect of the positional relationship of the gaze direction detection feature point, the fuselage direction detection feature point, the gaze direction, and the fuselage direction. 本発明の監視装置を構成する撮影部の取り付け態様の一例を示す図である。It is a figure which shows an example of the attachment aspect of the imaging | photography part which comprises the monitoring apparatus of this invention. 本発明の監視装置が備える座標設定部が座標設定を行うために用いる背景画像の一例を示す図である。It is a figure which shows an example of the background image used in order that a coordinate setting part with which the monitoring apparatus of this invention is provided performs a coordinate setting. 上記の座標設定部が設定した座標の一例を示す図である。It is a figure which shows an example of the coordinate which said coordinate setting part set.

以下、本発明を実施するための最良の形態について図面等を参照して説明する。   The best mode for carrying out the present invention will be described below with reference to the drawings.

<監視装置>
図1は、本発明の監視装置100の構成を示すブロック図である。以下の説明では、具体的な構成の一例を示して説明を行うが、これらは、本発明の技術的範囲内において適宜変更して実施することができる。
<Monitoring device>
FIG. 1 is a block diagram showing the configuration of the monitoring apparatus 100 of the present invention. In the following description, an example of a specific configuration is shown and described. However, these can be implemented with appropriate modifications within the technical scope of the present invention.

[全体構成]
監視装置100は、撮影部110と、演算処理部120とを備えている。又、監視画像を表示する監視画像表示装置130を更に含んで構成されていることが好ましい。監視装置100は、撮影部110、演算処理部120、及び、監視画像表示装置130を、それぞれ離れた位置に別々に配置して構成することもできる。又、監視装置100は、撮影部110と演算処理部120、若しくは、撮影部110と演算処理部120の一部のみと、を1つの監視装置として一体化し、これらの装置と、監視画像表示装置130とを、有線或いは無線で接続した構成とすることもできる。
[overall structure]
The monitoring device 100 includes an imaging unit 110 and an arithmetic processing unit 120. Moreover, it is preferable to further include a monitoring image display device 130 for displaying a monitoring image. The monitoring device 100 can also be configured by separately arranging the photographing unit 110, the arithmetic processing unit 120, and the monitoring image display device 130 at positions separated from each other. Further, the monitoring device 100 integrates the photographing unit 110 and the arithmetic processing unit 120, or only a part of the photographing unit 110 and the arithmetic processing unit 120 as one monitoring device, and these devices and the monitoring image display device 130 may be connected by wire or wirelessly.

[撮影部]
撮影部110は、所謂、監視カメラである。そして、この撮影部110は、監視対象領域を構成する3次元空間を撮影する監視撮影ステップ(S12)を行う。
[Shooting Department]
The imaging unit 110 is a so-called surveillance camera. And this imaging | photography part 110 performs the monitoring imaging | photography step (S12) which image | photographs the three-dimensional space which comprises the monitoring object area | region.

尚、撮影部110を構成する監視カメラは、例えば、監視装置100に後述する座標設定部121を備えさせることにより、監視対象領域を構成する3次元空間を2次元の画像として撮影する単眼のカメラで構成することができる。この場合、高価な3Dカメラを導入する必要はなく、監視装置100の導入コストを大幅に低減させることができる。   Note that the monitoring camera constituting the photographing unit 110 is a monocular camera that photographs a three-dimensional space constituting a monitoring target area as a two-dimensional image, for example, by providing the monitoring apparatus 100 with a coordinate setting unit 121 described later. Can be configured. In this case, it is not necessary to introduce an expensive 3D camera, and the introduction cost of the monitoring device 100 can be significantly reduced.

撮影部110を構成する監視カメラの設置方法については、例えば、図9に図示したように、監視対象領域となる室内の天井部分の端部位置に取り付ければよい。但し、監視かメラの取り付け場所は、監視対象領域の広さやカメラのレンズの画角等に応じて適宜変更可能である。   For example, as shown in FIG. 9, the installation method of the monitoring camera that constitutes the imaging unit 110 may be attached to the end position of the indoor ceiling portion that becomes the monitoring target area. However, the location where the surveillance or the camera is attached can be changed as appropriate according to the size of the surveillance area, the angle of view of the camera lens, and the like.

又、撮影部110は、撮像素子111と、撮影レンズ112と、画像処理部113とを備える構成とすることができる。撮像素子111は、撮影レンズ112が結像する像を撮像して、画像処理部113へ送る。又、図9には、撮影レンズ112の光軸(映像光の光軸)O、及び、撮影範囲(角度θの範囲)を模式的に示した。尚、撮影範囲は、アスペクト比に応じて、上下、左右の各方向における実撮影範囲が異なるので、ここでは、理解を容易にするために図示したような撮影画面における上下方向の撮影範囲を角度θ(垂直方向画角)の範囲として示した。画像処理部113は、撮像素子111から出力されるデータを処理して画像データ化して、演算処理部120へ送信する。 Further, the photographing unit 110 can be configured to include an imaging element 111, a photographing lens 112, and an image processing unit 113. The image sensor 111 captures an image formed by the photographing lens 112 and sends it to the image processing unit 113. FIG. 9 schematically shows the optical axis (optical axis of image light) O of the photographing lens 112 and the photographing range (angle θ 0 range). Note that the actual shooting range in each of the vertical and horizontal directions differs depending on the aspect ratio, so here the vertical shooting range on the shooting screen as shown in FIG. It was shown as a range of θ 0 (vertical angle of view). The image processing unit 113 processes the data output from the image sensor 111 to form image data, and transmits the image data to the arithmetic processing unit 120.

[演算処理部]
演算処理部120は、撮影部110から送信された画像データに対して、監視に必要な演算処理を行う。演算処理部120は、例えば、パーソナルコンピュータやタブレット端末、スマートフォン等を利用して構成することができる。或いは、演算処理部120は、監視動作に特化した専用の装置として構成することもできる。これらの何れの構成においても、演算処理部120は、CPU、メモリ、通信部等のハードウェアを備えている。そして、このような構成からなる演算処理部120は、コンピュータプログラム(監視プログラム)を実行することにより、以下に説明する各種動作、及び、監視方法を具体的に実行することができる。
[Operation processing unit]
The arithmetic processing unit 120 performs arithmetic processing necessary for monitoring the image data transmitted from the photographing unit 110. The arithmetic processing unit 120 can be configured using, for example, a personal computer, a tablet terminal, a smartphone, or the like. Alternatively, the arithmetic processing unit 120 can be configured as a dedicated device specialized for the monitoring operation. In any of these configurations, the arithmetic processing unit 120 includes hardware such as a CPU, a memory, and a communication unit. And the arithmetic processing part 120 which consists of such a structure can specifically perform the various operation | movement demonstrated below and the monitoring method by running a computer program (monitoring program).

演算処理部120は、撮影部110から画像データを受信することができるように撮影部110と接続されている。この接続は、専用の通信ケーブルを利用した有線接続、或いは、有線LANによる接続とすることができる。又、有線接続に限らず、無線LANや近距離無線通信、携帯電話回線等の各種無線通信を用いた接続としてもよい。尚、演算処理部120は、撮影部110の近傍に配置せずに、撮影部110から離れた遠隔地に配置してもよい。   The arithmetic processing unit 120 is connected to the photographing unit 110 so that image data can be received from the photographing unit 110. This connection can be a wired connection using a dedicated communication cable or a connection by a wired LAN. Further, the connection is not limited to a wired connection, and may be a connection using various wireless communications such as a wireless LAN, a short-range wireless communication, and a mobile phone line. Note that the arithmetic processing unit 120 may be disposed in a remote place away from the image capturing unit 110 without being disposed in the vicinity of the image capturing unit 110.

演算処理部120は、少なくとも監視対象特定部123、骨格抽出部124、特徴点位置特定部125、視線方向検知部126を含んで構成される。この最小限の構成により、監視対象人物の視線方向に係る情報を、任意の監視装置に有用な情報として出力することができる。   The arithmetic processing unit 120 includes at least a monitoring target specifying unit 123, a skeleton extracting unit 124, a feature point position specifying unit 125, and a gaze direction detecting unit 126. With this minimum configuration, it is possible to output information related to the line-of-sight direction of the person to be monitored as useful information for any monitoring device.

又、演算処理部120は、必要に応じて、更に、座標設定部121、入力部122、胴体方向検知部127、特定動作検知部128、不審動作判定部129を含んで構成されることが好ましい。   The arithmetic processing unit 120 preferably further includes a coordinate setting unit 121, an input unit 122, a body direction detection unit 127, a specific motion detection unit 128, and a suspicious motion determination unit 129 as necessary. .

(座標設定部)
座標設定部121は、撮影部110が撮影した撮影画像である監視画像中の床面又は地面に相当する位置を監視対象領域3次元空間内における実寸法と関連付けて特定可能な座標を設定する座標設定ステップ(S11)を行う。尚、以下においては監視対象物までの距離測定を要せずに上記座標を設定する実施形態を好ましい実施形態の具体例として説明するが、撮影部110に3Dカメラや各種の距離センサー等を備えさせ、これにより監視対象領域内の奥行情報を得ることによっても上記座標を設定することは勿論可能であり、この場合は、独立した座標設定部121は、必ずしも必須の構成要件ではない。
(Coordinate setting part)
The coordinate setting unit 121 is a coordinate that sets a identifiable coordinate by associating a position corresponding to the floor or ground in the monitoring image, which is a captured image captured by the imaging unit 110, with an actual dimension in the monitoring target region three-dimensional space. A setting step (S11) is performed. In the following, an embodiment in which the coordinates are set without requiring measurement of the distance to the monitoring object will be described as a specific example of the preferred embodiment. However, the photographing unit 110 includes a 3D camera, various distance sensors, and the like. Thus, it is possible to set the coordinates by obtaining the depth information in the monitoring target area, and in this case, the independent coordinate setting unit 121 is not necessarily an essential component.

(入力部)
入力部122は、座標設定部121の機能の発現を補助する。入力部122は、撮影部110から床面又は地面までの距離(高さh)について、外部からの入力を受け付ける。又、入力部122は、撮影部110が撮影する映像光の光軸の向き(鉛直方向(Z方向)に対する角度α)の入力を受け付ける。入力部122は、演算処理部120に設けられたキーボード等の汎用の入力装置を介して入力される値を受け付けてもよいし、設定値が保存された記憶媒体を介して入力される値を受け付けてもよいし、ネットワーク等を介して入力される値を受け付けてもよい。
(Input section)
The input unit 122 assists the function of the coordinate setting unit 121. The input unit 122 receives an external input regarding the distance (height h) from the imaging unit 110 to the floor or the ground. Further, the input unit 122 receives an input of the direction of the optical axis of the image light imaged by the imaging unit 110 (angle α with respect to the vertical direction (Z direction)). The input unit 122 may accept a value input via a general-purpose input device such as a keyboard provided in the arithmetic processing unit 120, or input a value input via a storage medium in which a setting value is stored. You may receive and the value input via a network etc. may be received.

(監視対象特定部)
監視対象特定部123は、監視動作中に、監視画像中の任意の「人(監視対象人物)」を認識して、これを監視対象人物として特定する監視対象特定ステップ(S13)を行う。又、監視対象特定部123は、複数の監視対象人物を同時に並行して個別に特定する機能を有する。
(Monitoring target identification part)
During the monitoring operation, the monitoring target specifying unit 123 recognizes an arbitrary “person (monitoring target person)” in the monitoring image and performs a monitoring target specifying step (S13) for specifying this as a monitoring target person. Further, the monitoring target specifying unit 123 has a function of specifying a plurality of monitoring target persons individually in parallel at the same time.

(骨格抽出部)
骨格抽出部124は、複数の特徴点を連接する骨格線で構成される監視対象人物の骨格を抽出する骨格抽出ステップ(S14)を行う(図4参照)。
(Skeleton extractor)
The skeleton extraction unit 124 performs a skeleton extraction step (S14) for extracting the skeleton of the monitoring target person composed of skeleton lines connecting a plurality of feature points (see FIG. 4).

(特徴点位置特定部)
特徴点位置特定部125は、骨格抽出部124が抽出した骨格を構成する特徴点の「監視対象領域3次元空間内における位置」を特定する特徴点位置特定ステップ(S15)を行う(図5参照)。この「監視対象領域3次元空間内における位置」とは、各特徴点が現実の監視対象領域を構成する3次元空間内で実際に占める位置である。この位置は、各特徴点が、上記の座標上に占める位置から得ることができる「3次元位置情報」に基づいて特定することができる。
(Feature point location)
The feature point position specifying unit 125 performs a feature point position specifying step (S15) for specifying the “position in the monitoring target region three-dimensional space” of the feature points constituting the skeleton extracted by the skeleton extracting unit 124 (see FIG. 5). ). The “position in the monitoring target area in the three-dimensional space” is a position that each feature point actually occupies in the three-dimensional space constituting the actual monitoring target area. This position can be specified based on the “three-dimensional position information” that can be obtained from the position that each feature point occupies on the coordinates.

(視線方向検知部)
視線方向検知部126は、「監視対象人物」に係る両耳と鼻の位置に対応する「3か所の視線方向検知用特徴点」を結んで形成される三角形の「3次元位置情報」から、当該監視対象の視線方向を検知する視線方向検知ステップ(S16)を行う(図6〜8参照)。具体的には、上記の三角形において両耳の位置に対応する点を結んでなる底辺の中点から、鼻の位置に対応する点である頂点に向かう方向を、監視対象人物の3次元空間内での視線方向として検知する。
(Gaze direction detector)
The line-of-sight direction detection unit 126 is based on the triangular “three-dimensional position information” formed by connecting “three gaze direction detection feature points” corresponding to the positions of both ears and nose of the “monitoring person”. Then, a gaze direction detection step (S16) for detecting the gaze direction of the monitoring target is performed (see FIGS. 6 to 8). Specifically, the direction from the midpoint of the base connecting the points corresponding to the positions of both ears in the above triangle to the apex, which is the point corresponding to the position of the nose, is set in the three-dimensional space of the monitored person. Detected as the line of sight direction.

(胴体方向検知部)
胴体方向検知部127は、「監視対象人物」に係る両肩の位置に対応する「2か所の胴体方向検知用特徴点」を結ぶ直線の「3次元位置情報」から、当該監視対象の胴体方向を検知する胴体方向検知ステップ(S17)を行う(図6〜8参照)。具体的には、上記の直線に直交する2方向のうち、前記視線方向との角度差のより小さい方向を、監視対象人物の3次元空間内での視線方向として検知する。
(Body direction detector)
The torso direction detection unit 127 calculates the torso of the monitoring target from the “three-dimensional position information” of the straight line connecting “two torso direction detection feature points” corresponding to the positions of the shoulders of the “monitoring person”. A trunk direction detection step (S17) for detecting the direction is performed (see FIGS. 6 to 8). Specifically, a direction having a smaller angle difference from the line-of-sight direction among the two directions orthogonal to the straight line is detected as the line-of-sight direction in the three-dimensional space of the person to be monitored.

(特定動作検知部)
特定動作検知部128は、視線方向検知部126が検知した「視線方向」の変動量や、或いは、「視線方向」と胴体方向検知部127が検知した「胴体方向」の差分の変動量から、「監視対象人物」の「特定動作」を検知する特定動作検知ステップ(S18)を行う。「特定動作」は、例えば、「視線方向」や、「視線方向」と「胴体方向」の差分が、特定の短時間内に周期的に変動する動作であり、この動作を「視線方向」ベクトルと「胴体方向」ベクトルの差分として数値化して把握することができる。
(Specific motion detector)
The specific motion detection unit 128 is based on the variation amount of the “line-of-sight direction” detected by the line-of-sight direction detection unit 126 or the variation amount of the difference between the “line-of-sight direction” and the “body direction” detected by the body direction detection unit 127. A specific operation detecting step (S18) for detecting the “specific operation” of the “monitoring person” is performed. The “specific motion” is, for example, an operation in which the “line-of-sight direction” or the difference between the “line-of-sight direction” and the “body direction” fluctuates periodically within a specific short time. And the “body direction” vector can be quantified and grasped.

(不審動作判定部)
不審動作判定部129は、特定動作検知部128により検知された監視対象人物の特定動作に係る数値(例えば、上記のようにして数値かされた特定動作に係る数値)を、入力し、予め登録されている基準不審動作に係る数値と比較して、監視対象人物の特定動作の不審度を判定する。そして、監視対象人物の動作の不審度を判定して監視画像表示装置130等に出力する。
(Suspicious motion determination unit)
The suspicious action determination unit 129 inputs a numerical value related to the specific action of the monitoring target person detected by the specific action detection part 128 (for example, a numerical value related to the specific action determined as described above), and is registered in advance. The suspicious degree of the specific action of the person to be monitored is determined by comparing with the numerical value related to the reference suspicious action. Then, the suspicious degree of the operation of the monitoring target person is determined and output to the monitoring image display device 130 or the like.

[監視画像表示装置]
監視画像表示装置130は、撮影部110によって撮影された監視画像に、演算処理部120で得た監視情報、具体的には監視対象人物の視線方向を示す矢印等、を付加して視認可能に表示できる装置であれば、従来の公知の各種の画像表示装置を適宜用いることができる。この監視画像表示装置130は管理者の作業領域に据え置かれる据え置き型のモニターであってもよいし、管理者が持ち運ぶことができる携帯端末型のモニターであってもよい。
[Monitoring image display device]
The monitoring image display device 130 can be visually recognized by adding monitoring information acquired by the arithmetic processing unit 120 to the monitoring image captured by the imaging unit 110, specifically, an arrow indicating the line-of-sight direction of the person to be monitored. Any known various image display devices can be used as long as they can display. The monitoring image display device 130 may be a stationary monitor that is stationary in the administrator's work area, or may be a portable terminal monitor that can be carried by the administrator.

[監視方法]
図2は、監視装置100を用いて実行することができる本発明の監視方法の流れを示すフローチャートである。
[Monitoring method]
FIG. 2 is a flowchart showing the flow of the monitoring method of the present invention that can be executed using the monitoring device 100.

(座標設定ステップ)
座標設定ステップ(S11)では、座標設定部121が、座標設定処理を行う。この座標設定ステップ(S11)で行われる座標設定処理とは、好ましくは、座標設定部121が、撮影部110が撮影した撮影画像である監視画像中の床面又は地面に相当する位置を監視対象領域3次元空間内における実寸法と関連付けて特定可能な座標、即ち、監視対象領域についての奥行き情報も有する3次元座標を設定する処理である。
(Coordinate setting step)
In the coordinate setting step (S11), the coordinate setting unit 121 performs a coordinate setting process. In the coordinate setting process performed in this coordinate setting step (S11), preferably, the coordinate setting unit 121 determines a position corresponding to the floor surface or the ground in the monitoring image that is a captured image captured by the imaging unit 110 as a monitoring target. This is a process for setting coordinates that can be specified in association with actual dimensions in the area three-dimensional space, that is, three-dimensional coordinates that also have depth information about the monitoring target area.

尚、この座標設定ステップ(S11)は、監視領域を監視するための事前準備であって、これ以降のステップにより本稼働としての実際の監視が開始される。換言すると、座標設定ステップ(S11)は、監視の本稼働の開始に先行して、撮影部110の設置後に少なくとも1回行われればよい。例えば、監視装置100を設置したときに適切に上記の座標を設定しておけば、その後、撮影部110の配置の変更等、監視画像の撮影条件に特段の変更がない限り、監視システムの稼働中における再度の座標設定を不要とすることができる。   This coordinate setting step (S11) is a preliminary preparation for monitoring the monitoring area, and the actual monitoring as the actual operation is started by the subsequent steps. In other words, the coordinate setting step (S11) may be performed at least once after the installation of the photographing unit 110, prior to the start of the monitoring operation. For example, if the above coordinates are appropriately set when the monitoring device 100 is installed, the monitoring system is operated as long as there is no particular change in the shooting conditions of the monitoring image, such as a change in the arrangement of the shooting unit 110. It is possible to eliminate the need for setting coordinates again.

この座標設定部121が設定する座標とは、撮影部110が撮影する監視画像中において、ある任意の位置を特定し、その位置が床面又は地面にあるとしたときに、その床面又は地面が、実際の監視対象領域の空間においてどの位置に相当するのか特定可能な座標である。即ち、この設定される座標上の位置は、監視対象領域を構成する3次元空間内における実寸法と関連付けて設定される。   The coordinates set by the coordinate setting unit 121 are specified when a certain arbitrary position is specified in the monitoring image photographed by the photographing unit 110 and the position is on the floor surface or the ground surface. Are coordinates that can specify which position corresponds to the space of the actual monitoring target area. That is, the position on the set coordinates is set in association with the actual dimension in the three-dimensional space constituting the monitoring target area.

図10は、座標設定部121が座標設定を行うときに撮影される背景画像の一例を示す図である。図10に示した例では、床面501と、壁面502と、陳列棚503とが撮影された監視画像中に含まれている。図10及び図11において、床面に平行な面をXY平面とし、XY平面のうち図3中の左右方向をX方向とし、左右方向に直交する奥行方向をY方向とする。又、床面に垂直な鉛直方向をZ方向とする。   FIG. 10 is a diagram illustrating an example of a background image captured when the coordinate setting unit 121 performs coordinate setting. In the example illustrated in FIG. 10, the floor surface 501, the wall surface 502, and the display shelf 503 are included in the captured monitoring image. 10 and 11, the plane parallel to the floor is defined as the XY plane, and the left-right direction in FIG. 3 of the XY plane is defined as the X direction, and the depth direction orthogonal to the left-right direction is defined as the Y direction. The vertical direction perpendicular to the floor is defined as the Z direction.

撮影部110が撮影する監視画像が2次元の画像情報である場合、監視画像中である位置を選択(特定)したとしても、それだけでは、選択(特定された)位置(2次元位置)が、実際の3次元空間上におけるいかなる位置(3次元位置)であるのかを特定することができない。しかし、床面、又は、地面上に、「監視対象領域3次元空間内における実寸法」と関連付けた座標を設定した上で、監視画像中で選択(特定)する位置を、床面又は地面であると限定すれば、監視画像中で選択(特定)された位置が監視対象領域3次元空間内におけるどの位置の床面又は地面であるのかを特定することが可能となる。そこで、座標設定部121は床面又は地面に対応させた座標を設定する。   When the monitoring image captured by the imaging unit 110 is two-dimensional image information, even if a position in the monitoring image is selected (specified), the selected (specified) position (two-dimensional position) alone is It is impossible to specify what position (three-dimensional position) is in the actual three-dimensional space. However, on the floor surface or the ground, the coordinates associated with the “actual dimensions in the monitoring target area three-dimensional space” are set, and the position to be selected (specified) in the monitoring image is determined on the floor surface or the ground. If it is limited, it becomes possible to specify the position of the floor or the ground in the monitoring target area three-dimensional space that is selected (specified) in the monitoring image. Therefore, the coordinate setting unit 121 sets coordinates corresponding to the floor surface or the ground.

座標設定部121は、撮影部110から床面又は地面までの距離hと、撮影部110が撮影する映像光の光軸Oの向き(角度α)と、撮影部110が撮影する監視画像の画角(θ)とを用いて座標を設定する。 The coordinate setting unit 121 includes a distance h from the image capturing unit 110 to the floor or the ground, the direction (angle α) of the optical axis O of the image light captured by the image capturing unit 110, and an image of the monitoring image captured by the image capturing unit 110. Coordinates are set using the angle (θ 0 ).

図9に示すように、撮影部110が撮影する監視画像中における、中心位置に存在する床面又は地面の実際の中心位置PO、即ち、撮影レンズ112の光軸Oが床面又は地面と交わる中心位置POは、幾何学的に特定可能である。具体的には、撮影部110が設置されている位置の床面又は地面からの高さhと、光軸Oの向きを特定可能な角度α(光軸Oと鉛直方向Gとのなす角度)とを取得できれば、撮影部110の真下の位置から位置POまでの距離LOを求めることができる。   As shown in FIG. 9, the actual center position PO of the floor surface or the ground existing at the center position, that is, the optical axis O of the photographing lens 112 intersects the floor surface or the ground in the monitoring image captured by the imaging unit 110. The center position PO can be specified geometrically. Specifically, an angle α (an angle formed between the optical axis O and the vertical direction G) that can specify the height h from the floor surface or the ground at the position where the photographing unit 110 is installed and the direction of the optical axis O. Can be obtained, the distance LO from the position directly below the photographing unit 110 to the position PO can be obtained.

又、垂直方向画角θは、撮像素子111のサイズと撮影レンズ112の諸元から一義的に決まる既知の値であるので、中心位置POから撮影範囲の最近点P1までの距離L1と、中心位置POから撮影範囲の最遠点P2までの距離L2とについても、幾何学的に求めることができる。同様に、これらの中間の任意の位置についても、画像中の位置と監視対象領域3次元空間内における実際の位置(実寸法、実距離)とを関連付けることができる。又、上述した奥行方向(図中のY方向)と同様に、左右方向(図中のX方向)についても、画像中の位置と監視対象領域3次元空間内における実際の位置(実寸法、実距離)とを関連付けることができる。 Since the vertical angle of view θ 0 is a known value that is uniquely determined from the size of the image sensor 111 and the specifications of the photographing lens 112, the distance L1 from the center position PO to the closest point P1 of the photographing range, The distance L2 from the center position PO to the farthest point P2 in the photographing range can also be obtained geometrically. Similarly, the position in the image and the actual position (actual dimension, actual distance) in the monitoring target area three-dimensional space can be associated with any of these intermediate positions. Similarly to the depth direction (Y direction in the figure) described above, the position in the image and the actual position in the monitoring target area three-dimensional space (actual dimensions, actual dimensions) in the left-right direction (X direction in the figure) are also described. Distance).

以上のようにして、座標設定部121は、監視画像中に、「監視対象領域3次元空間内における位置」と関連付けされた座標を設定することができる。   As described above, the coordinate setting unit 121 can set the coordinates associated with the “position in the monitoring target region three-dimensional space” in the monitoring image.

図11は、座標設定部121が設定した座標の一例を示す図である。図11では、説明のために、図10の監視画像にY方向及びX方向に、監視対象領域3次元空間内における実寸法において等間隔となるグリッドを重ねて示した。尚、このようにグリッドで領域を分割することは、一例であって、グリッド分けをせずに連続した座標が設定されていてもよい。尚、座標設定部121が設定する座標は、床面501(又は地面)が無限に広がっていると仮定して設定されるので、これを説明するために、あえて壁面502や陳列棚503等に対してもグリッドを重ねて表示した。   FIG. 11 is a diagram illustrating an example of coordinates set by the coordinate setting unit 121. In FIG. 11, for the sake of explanation, grids that are equally spaced in the actual dimensions in the monitoring target area three-dimensional space are superimposed on the monitoring image of FIG. 10 in the Y direction and the X direction. In addition, dividing the area with the grid in this way is an example, and continuous coordinates may be set without dividing the grid. Note that the coordinates set by the coordinate setting unit 121 are set on the assumption that the floor surface 501 (or the ground) is infinitely spread. To explain this, the walls 502, the display shelves 503, etc. The grid was overlaid on the display.

ここで、撮影された監視画像では、監視対象領域3次元空間内における実寸法が同じであっても、近くの位置よりも遠くの位置の方が小さく見える。よって、設定された座標において、上記実寸法上で等間隔のグリッドは、遠方の方が小さくなるように設定される。このように、座標設定部121が設定する座標は、監視対象領域3次元空間内における実際の位置(実寸法、実距離)と関連付けられている。   Here, in the captured monitoring image, even if the actual size in the monitoring target region three-dimensional space is the same, the position far from the near position appears smaller. Therefore, in the set coordinates, the grids that are equally spaced on the actual dimensions are set so that the far side becomes smaller. As described above, the coordinates set by the coordinate setting unit 121 are associated with the actual position (actual dimension, actual distance) in the monitoring target region three-dimensional space.

座標設定部121が設定する座標が、上述の通り、監視対象領域3次元空間内における実際の位置(実寸法、実距離)と関連付けられているということは、換言すれば、座標設定部121が設定する上記座標上の各グリッド、或いは、各点は、撮影部110からの距離情報を含んでいるということでもある。そうすると、所定領域内の監視対象がどのグリッドに位置しているかを把握することで、当該監視対象の大きさや立体形状に係る3次元情報を取得することが可能である。   As described above, the coordinates set by the coordinate setting unit 121 are associated with the actual position (actual dimension, actual distance) in the monitoring target region three-dimensional space. This also means that each grid or each point on the coordinates to be set includes distance information from the imaging unit 110. Then, it is possible to acquire the three-dimensional information related to the size and the three-dimensional shape of the monitoring target by grasping in which grid the monitoring target in the predetermined area is located.

尚、本発明の監視装置100においては、撮影部110が設置されている位置の床面又は地面からの高さhと、光軸Oの向きを特定可能な角度α(光軸Oと鉛直方向Gとのなす角度)とを取得できれば、撮影部110の真下の位置から位置POまでの距離LOを求めることができる。一方で、監視装置100を構成する撮影部110は、赤外線等を照射して距離測定を行う距離測定部に相当する構成を必須の構成としてはいない。上記のように幾何学的に監視対象領域3次元空間の位置を特定する前提として必要な初期情報となる「高さh」に関しては、監視装置100が自動的に得られる値ではない。撮影部110が設置される高さは、監視を行う現場に応じて様々である。監視装置100では、入力部122が高さhの入力を受け付けることで、適切な高さhを取得する。   In the monitoring apparatus 100 of the present invention, the height h from the floor surface or the ground at the position where the photographing unit 110 is installed and the angle α that can specify the direction of the optical axis O (the optical axis O and the vertical direction). Can be obtained, the distance LO from the position directly below the photographing unit 110 to the position PO can be obtained. On the other hand, the imaging unit 110 configuring the monitoring device 100 does not have a configuration corresponding to a distance measuring unit that performs distance measurement by irradiating infrared rays or the like as an essential configuration. As described above, the “height h” that is the initial information necessary for geometrically specifying the position of the monitoring target region three-dimensional space is not a value automatically obtained by the monitoring device 100. The height at which the imaging unit 110 is installed varies depending on the site where monitoring is performed. In the monitoring apparatus 100, the input unit 122 receives an input of the height h, and acquires an appropriate height h.

又、光軸Oの向きを特定可能な角度αについても、正しい値を取得する必要がある。ここで説明する撮影部110は、光軸Oの向きを任意の向きに向けて設置が可能なように構成されているが、設置後は、光軸Oの向きに変化はない。そこで、本実施形態の監視装置100では、角度αについても、入力部122が入力を受け付けることで、適切な角度αを取得する。尚、角度αについては、撮影部110の設置工事時に調整されるので、設置工事完了後に入力が行われる。その際、最終的な調整値を得ることができるように、例えば、撮影部110の向き調整機構に目盛を設けておけば、この目盛に応じた値を入力部122に入力することにより、適切な値を簡単に入力可能である。尚、光軸Oの向きを変更できない簡素な構成の撮影部110の場合に、この角度αは、その規定値を用いればよいので、入力部122による角度αの入力を省略可能である。   Also, it is necessary to obtain a correct value for the angle α that can specify the direction of the optical axis O. The photographing unit 110 described here is configured so that the direction of the optical axis O can be set to an arbitrary direction, but the direction of the optical axis O does not change after the setting. Therefore, in the monitoring apparatus 100 of the present embodiment, the appropriate angle α is acquired when the input unit 122 receives input for the angle α. Note that the angle α is adjusted at the time of installation work of the photographing unit 110, and therefore input is performed after the installation work is completed. At that time, for example, if a scale is provided in the orientation adjustment mechanism of the photographing unit 110 so that a final adjustment value can be obtained, an appropriate value can be obtained by inputting a value corresponding to the scale to the input unit 122. It is possible to input a simple value. Note that in the case of the photographing unit 110 having a simple configuration in which the direction of the optical axis O cannot be changed, the angle α may be used as the angle α, so that the input of the angle α by the input unit 122 can be omitted.

尚、撮影部110が、赤外線等を照射して距離測定を行う距離測定部に相当する構成を有する場合においては、距離測定部によって先ず撮影部から監視画像の背景に対応する実際の各点までの距離を実測し、この実測値に基づいて、上記同様、監視対象領域3次元空間内における実際の位置(実寸法、実距離)と関連付けられている座標を設定することができる。本発明の好ましい実施形態によれば、特許文献2に開示されている監視システム等において座標設定のための初期情報を得るために必須とされている撮影部から監視対象等までの距離の測定は不要ではあるが、上記文献に開示されているような方法によって座標設定を行ってもよい。   In the case where the photographing unit 110 has a configuration corresponding to a distance measuring unit that performs distance measurement by irradiating infrared rays or the like, the distance measuring unit firstly takes from the photographing unit to actual points corresponding to the background of the monitoring image. And the coordinates associated with the actual position (actual dimension, actual distance) in the monitoring target area three-dimensional space can be set based on the actually measured value. According to a preferred embodiment of the present invention, the measurement of the distance from the imaging unit to the monitoring target, which is essential for obtaining initial information for coordinate setting in the monitoring system disclosed in Patent Document 2, is performed. Although not necessary, the coordinates may be set by a method as disclosed in the above document.

(監視撮影ステップ)
監視撮影ステップ(S12)では、撮影部110が、監視撮影を行う。ここで、監視撮影は、静止画の撮影を所定間隔で連続して行い、撮影される画像の連続として後述する監視動作を行うが、撮影間隔を非常に短くすることにより、実質的には、動画撮影として、監視動作を行っているものと捉えることもできる。
(Monitoring shooting step)
In the monitoring imaging step (S12), the imaging unit 110 performs monitoring imaging. Here, the monitoring shooting is performed by continuously shooting still images at a predetermined interval, and performing a monitoring operation described later as a sequence of images to be shot, but by making the shooting interval very short, It can also be understood that a surveillance operation is performed as a moving image shooting.

(監視対象特定ステップ)
監視対象特定ステップ(S13)では、監視撮影ステップ(S12)で取得した監視画像中の監視対象人物を認識して特定する処理を行う。より具体的には、監視対象特定部123が、撮影部110が撮影した監視画像中の監視対象を認識して特定したか否かについて判断を行う。監視対象人物を検知して特定した場合(S13、Yes)には、骨格抽出ステップ(S14)へ進み、監視対象が特定されていない場合(S13、No)には、監視撮影ステップ(S12)へ戻り、監視撮影を継続する。
(Monitoring target identification step)
In the monitoring target specifying step (S13), processing for recognizing and specifying the monitoring target person in the monitoring image acquired in the monitoring photographing step (S12) is performed. More specifically, the monitoring target specifying unit 123 determines whether or not the monitoring target in the monitoring image captured by the imaging unit 110 is recognized and specified. When the person to be monitored is detected and identified (S13, Yes), the process proceeds to the skeleton extraction step (S14). When the person to be monitored is not identified (S13, No), the process proceeds to the monitoring photographing step (S12). Return and continue surveillance shooting.

監視対象人物の検知は、具体的には、従来公知の様々な手法の何れか、又は、それらを組合せて行うことができる。例えば、背景差分によって監視領域内の「人」を認識することができる。この背景差分は公知の技術であり、監視カメラで取得された画像データと、事前に取得しておいた監視領域の背景画像との差分をとることで、動きのある監視対象人物を認識する技術である。   Specifically, the person to be monitored can be detected by any one of various conventionally known methods or a combination thereof. For example, “person” in the monitoring area can be recognized by the background difference. This background difference is a known technique, and a technique for recognizing a person to be monitored by taking a difference between image data acquired by a monitoring camera and a background image of a monitoring area acquired in advance. It is.

又、検知した監視対象人物の特定については、近年、画像認識分野において、認識率の飛躍的向上が注目を集めているディープラーニングを用いた画像認識技術と本発明との組合せが有効である。このような画像認識技術と組合せることにより、撮影された監視画像中の「人」や物を自動的に、且つ、極めて高い認識正解率で検知して特定することができる。又、多数の監視対象人物をカテゴリーや種類毎に分類認識して、同時並行的に検知して特定することもできる。   In addition, for the identification of the detected person to be monitored, the combination of the present invention with an image recognition technique using deep learning, which has been attracting attention in recent years in the field of image recognition, has been effective. By combining with such an image recognition technique, it is possible to automatically detect and specify “people” and objects in the captured surveillance image with a very high recognition accuracy rate. It is also possible to classify and recognize a large number of persons to be monitored for each category and type, and to detect and identify them in parallel.

尚、ディープランニングを用いた画像認識技術については、例えば、下記に公開されている。
「ディープラーニングと画像認識、オペレーションズ・リサーチ」
(http://www.orsj.o.jp/archive2/or60−4/or60_4_198.pdf))
For example, the image recognition technique using deep running is disclosed below.
"Deep learning and image recognition, operations research"
(Http://www.orsj.o.jp/archive2/or60-4/or60_4_198.pdf))

(骨格抽出ステップ)
骨格抽出ステップ(S14)では、図4に示すように、骨格抽出部124が、監視対象特定ステップ(S13)で検知され特定された監視対象人物Hについて、複数の特徴点とそれらの複数の特徴点を連接する骨格線とで構成される各監視対象人物の骨格を抽出する。
(Skeleton extraction step)
In the skeleton extraction step (S14), as shown in FIG. 4, the skeleton extraction unit 124 has a plurality of feature points and a plurality of features of the monitoring target person H detected and specified in the monitoring target specifying step (S13). A skeleton of each person to be monitored, which is composed of skeleton lines connecting points, is extracted.

本明細書において、監視対象人物の「骨格」とは、監視対象人物の複数の特徴点とこれらを連接してなる線状の図形である。図5は、骨格抽出部124によって、監視対象人物Hから骨格が抽出されている状態を示す図である。図5において、監視対象人物Hの頭頂部、左手H、及び、その他の四肢の先端や主たる関節部分に対応する位置が特徴点(h、・・・、h)として把握されており、これらの複数の特徴点と、それらを連接する線分とによって形成される監視対象人物Hの「骨格」が、2次元の撮影画像である監視画像内の図形として認識されている。 In this specification, the “skeleton” of a monitoring target person is a linear figure formed by connecting a plurality of feature points of the monitoring target person and connecting them. FIG. 5 is a diagram illustrating a state in which a skeleton is extracted from the monitoring target person H by the skeleton extraction unit 124. In FIG. 5, the positions corresponding to the top of the person H to be monitored, the left hand H 2 , the tips of the other limbs and the main joints are recognized as feature points (h 1 ,..., H n ). The “skeleton” of the monitoring target person H formed by the plurality of feature points and the line segments connecting them is recognized as a figure in the monitoring image that is a two-dimensional captured image.

骨格抽出ステップ(S14)で骨格を抽出する監視対象人物をどの程度の数の特徴点で区切って動作解析の単位となる各部分に細分化するかは、監視目的に応じて、どのような行動の差異を峻別して判定する必要があるかを考慮して適宜設計すればよい。但し、本発明の監視装置、監視方法の有利な効果を享受するための最小限の構成として、複数の上記特徴点が、少なくとも、図6に示す特徴点(h1、h2、h3)、即ち、監視対象人物の鼻、右耳、左耳の位置に対応する3か所の「視線方向検知用特徴点(h1、h2、h3)を含んで構成されていることが必須である。又、本発明の更に有利な効果を享受するために、複数の上記特徴点が、図6に示す特徴点(h4、h5)、即ち、監視対象人物の右肩、左肩の位置に対応する2か所の胴体方向検知用特徴点(h4、h5)を含んで構成されていることが好ましい。   The number of feature points that divide the person to be monitored from which the skeleton is extracted in the skeleton extraction step (S14) is subdivided into parts that are units of motion analysis. It may be designed as appropriate in consideration of whether it is necessary to distinguish and distinguish between the differences. However, as a minimum configuration for enjoying the advantageous effects of the monitoring device and the monitoring method of the present invention, the plurality of feature points are at least the feature points (h1, h2, h3) shown in FIG. It is indispensable that it is configured to include “three gaze direction detection feature points (h1, h2, h3) corresponding to the positions of the nose, right ear, and left ear of the person to be monitored. In order to enjoy a further advantageous effect of the invention, a plurality of the above feature points correspond to the feature points (h4, h5) shown in FIG. 6, that is, two positions corresponding to the positions of the right shoulder and the left shoulder of the person to be monitored. It is preferable that the fuselage direction detection feature points (h4, h5) are included.

監視対象人物の骨格の抽出は、具体的には、従来公知の様々な手法の何れか、又は、それらを組合せて行うことができる。一例として、下記文献に開示されている「OpenPose」と称される技術を用いることにより、2次元の撮影画像から任意の特徴点を結んで形成される監視対象人物の骨格を抽出することができる。
「Zhe Cao 他 Realtime Multi−Person 2D Human Pose Estimation using Part Affinity Fields, CVPR 2017」
Specifically, the skeleton of the person to be monitored can be extracted by any one of various conventionally known methods or a combination thereof. As an example, by using a technique called “OpenPose” disclosed in the following document, a skeleton of a monitoring target person formed by connecting arbitrary feature points from a two-dimensional captured image can be extracted. .
"Zhe Cao et al. Realtime Multi-Person 2D Human Pose Estimating using Part Affinity Fields, CVPR 2017"

(特徴点位置特定ステップ)
特徴点位置特定ステップ(S15)では、骨格抽出ステップ(S14)で2次元の図形として抽出した監視対象人物の骨格の位置情報から、これを構成する各特徴点の監視対象領域を構成する3次元空間内における位置を特定する。
(Feature point location step)
In the feature point position specifying step (S15), the three-dimensional configuration of the monitoring target region of each feature point constituting the monitoring target person's skeleton position information extracted as a two-dimensional figure in the skeleton extraction step (S14) Specify a position in space.

図5は、特徴点位置特定部125によって、監視対象特定ステップ(S13)で監視対象人物として検知された人Hについて、骨格抽出ステップ(S14)で抽出されたそれぞれの骨格の特徴点(h1、h2、・・・h11)が、座標設定ステップ(S11)において予め設定されている3次元情報(奥行情報)を含む座標上に重ね合わされている状態を示す図である。   FIG. 5 shows the feature points (h1,...) Of each skeleton extracted in the skeleton extraction step (S14) for the person H detected as the monitoring target person in the monitoring target specifying step (S13) by the feature point position specifying unit 125. h2... h11) are superimposed on coordinates including three-dimensional information (depth information) preset in the coordinate setting step (S11).

図5に示すように、特徴点位置特定部125の動作により、監視対象人物の人Hの骨格の脚部先端近傍の特徴点(h10、h11)の位置が、3次元情報(奥行情報)を含む座標上におけるどの位置を占めているか(どのグリッド内にあるか)によって、監視対象人物の人Hの立ち位置が斜線部分のグリッド内であることを特定することができる。   As shown in FIG. 5, by the operation of the feature point position specifying unit 125, the position of the feature point (h10, h11) in the vicinity of the leg tip end of the skeleton of the person H to be monitored is converted into three-dimensional information (depth information). It is possible to specify that the standing position of the person H to be monitored is in the hatched part of the grid depending on which position on which the coordinates are occupied (in which grid).

そして、人Hの立ち位置が、3次元情報(奥行情報)を含む座標上で特定できれば、例えば、監視画像内での人Hのサイズや形状から、監視対象領域3次元空間内における人Hの実際のサイズや立体形状を算出して把握することができる。つまり、2次元の画像データ(監視画像内の座標上に重ね合わされた特徴点の位置情報)から、人Hの位置や動作に係る三次元データを取得することができる。   If the standing position of the person H can be specified on coordinates including three-dimensional information (depth information), for example, the size and shape of the person H in the monitoring image can be used to determine the person H's position in the monitoring target area three-dimensional space. The actual size and solid shape can be calculated and grasped. That is, three-dimensional data relating to the position and motion of the person H can be acquired from two-dimensional image data (position information of feature points superimposed on coordinates in the monitoring image).

上記原理により、特徴点位置特定ステップ(S15)では、監視対象人物の骨格を構成する特徴点について「監視対象領域3次元空間内における位置」が特定される。又、「監視対象領域3次元空間内における位置」を特定することができれば、上述の通り、当該監視対象人物の大きさや立体形状に係る3次元情報を取得することもできる。   Based on the above principle, in the feature point position specifying step (S15), “positions in the monitoring target region in the three-dimensional space” are specified for the feature points constituting the skeleton of the monitoring target person. If the “position in the monitoring target area in the three-dimensional space” can be specified, the three-dimensional information related to the size or three-dimensional shape of the monitoring target person can be acquired as described above.

例えば、上述の「OpenPose」を用いることにより、監視対象人物となる「人H」の2次元の撮影画像から、複数の特徴点(h1〜h11で構成される複数の特徴点)が連接されてなる骨格を抽出することが可能である。そして、これら各特徴点の上記座標上の位置から、各特徴点の「監視対象領域3次元空間内における位置」を特定することができる。   For example, by using the above-described “OpenPose”, a plurality of feature points (a plurality of feature points composed of h1 to h11) are concatenated from the two-dimensional captured image of “person H” to be a monitoring target person. It is possible to extract a skeleton. Then, from the position on the coordinates of each feature point, the “position in the monitoring target region three-dimensional space” of each feature point can be specified.

(視線方向検知ステップ)
視線方向検知ステップ(S16)では、特徴点位置特定ステップ(S15)で取得した3か所の視線方向検知用特徴点(h1、h2、h3)の位置情報から、これら3点を結んで形成される三角形の位置情報を更に取得し、当該三角形の両耳の位置に対応する点(h2、h3)を結んでなる底辺の中点から、鼻の位置に対応する点(h1)である三角形の頂点に向かう方向を、監視対象人物の3次元空間内での視線方向Eとして検知する(図7参照)。
(Gaze direction detection step)
In the line-of-sight direction detection step (S16), these three points are formed from the position information of the three line-of-sight direction detection feature points (h1, h2, h3) acquired in the feature point position specifying step (S15). The position information of the triangle that is the point (h1) corresponding to the position of the nose from the midpoint of the base connecting the points (h2, h3) corresponding to the positions of both ears of the triangle is acquired. The direction toward the apex is detected as the line-of-sight direction E in the three-dimensional space of the person to be monitored (see FIG. 7).

監視対象人物について、上述の通り、「OpenPose」等を用いれば、3か所の視線方向検知用特徴点(h1、h2、h3)を、先ずは監視画像内の二次元情報として容易に抽出することができる。そして、当該二次元情報から上記原理により算出可能な三次元情報に基づいて、三次元座標における視線方向を正確に検知することが可能である。つまり、全ての人物において概ね共通の位置関係にある3点の位置情報のみから、当該人物の視線方向を正確に検知することができる。尚、監視画像内において上記3点のうち1点が画像内において死角にあって直接視認できない場合であっても視認可能な2点から残りの1点の位置を一定以上の精度で推定することは可能であり、この推定値を用いることにより、監視画像内での監視画像対象人物の姿勢や顔の向きにかかわらず、十分に高い精度で、当該監視対象人物の視線方向を検知することができる。   As described above, if “OpenPose” or the like is used for the monitoring target person, three gaze direction detection feature points (h1, h2, h3) are first easily extracted as two-dimensional information in the monitoring image. be able to. Based on the three-dimensional information that can be calculated from the two-dimensional information according to the above principle, it is possible to accurately detect the line-of-sight direction in the three-dimensional coordinates. That is, the line-of-sight direction of the person can be accurately detected from only the position information of the three points that have a substantially common positional relationship among all the persons. In addition, even if one of the above three points in the monitoring image is in a blind spot in the image and is not directly visible, the position of the remaining one point is estimated with a certain degree of accuracy from the two visible points. By using this estimated value, the gaze direction of the monitoring target person can be detected with sufficiently high accuracy regardless of the posture of the monitoring image target person and the face direction in the monitoring image. it can.

尚、このようにして検知された監視対象人物の「視線方向」は、例えば、当該方向を表す矢印等、分かりやすい図形情報として、必要に応じて、上述の監視画像表示装置にも表示させることが好ましい。この点は、「胴体方向」についても同様である。   The “sight line direction” of the person to be monitored detected in this way is displayed on the above-described monitoring image display device as necessary, for example, as easy-to-understand graphic information such as an arrow indicating the direction. Is preferred. The same applies to the “body direction”.

(胴体方向検知ステップ)
胴体方向検知ステップ(S17)では、特徴点位置特定ステップ(S15)で取得した2か所の胴体視線方向検知用特徴点(h4、h5)の位置情報から、これら2点を結んで形成される直線の位置情報を更に取得し、当該直線に直交する2方向のうち、視線方向検知ステップ(S16)で得た視線方向Eとの角度差のより小さい方向を、監視対象人物の3次元空間内での胴体方向Bとして検知する(図7参照)。
(Body direction detection step)
In the trunk direction detection step (S17), the two points are formed from the positional information of the two trunk line-of-sight direction detection feature points (h4, h5) acquired in the feature point position specifying step (S15). Further, the position information of the straight line is acquired, and a direction having a smaller angle difference from the visual line direction E obtained in the visual line direction detection step (S16) is selected from the two directions orthogonal to the straight line in the three-dimensional space of the monitoring target person. It is detected as the body direction B at (see FIG. 7).

監視対象人物について、上記同様に「OpenPose」等を用いれば、2か所の胴体方向検知用特徴点(h4、h5)を容易に抽出することができる。そして、監視対象人物の両肩を結ぶ直線の位置情報のみから、当該人物の胴体方向を正確に検知することができる。   If “OpenPose” or the like is used for the person to be monitored in the same manner as described above, the two body direction detection feature points (h4, h5) can be easily extracted. The body direction of the person can be accurately detected from only the position information of the straight line connecting the shoulders of the person to be monitored.

(特定動作検知ステップ)
特定動作検知ステップ(S18)では、視線方向検知ステップ(S16)において検知した視線方向Eの変動量から、監視対象領域内における監視対象人物の特定動作を検知する。又、特定動作検知ステップ(S18)では、「視線方向」と胴体方向検知部127が検知した「胴体方向」の差分の変動量からも、同様に、監視対象人物の特定動作を検知する。
(Specific motion detection step)
In the specific operation detection step (S18), the specific operation of the monitoring target person in the monitoring target region is detected from the variation amount of the visual direction E detected in the visual direction detection step (S16). In the specific motion detection step (S18), the specific motion of the person to be monitored is similarly detected from the amount of change in the difference between the “line of sight” and the “body direction” detected by the body direction detector 127.

図8は、特定動作検知部128によって、視線方向Eと胴体方向Bの差分(角度θ)或いは、その変動量として、監視対象人物Hの「特定動作」が認識される状態を示す図である。ここでは、監視対象人物として特定された人Hが、胴体方向Bとは角度θ分だけ異なる方向に視線を向けていることが、特定動作検知部128によって認識されている。又、単位時間当たりの上記の角度θの変動から、不審な首振り動作等を検知することもできる。 FIG. 8 is a diagram illustrating a state in which the specific motion detection unit 128 recognizes the “specific motion” of the person H to be monitored as the difference (angle θ 1 ) between the line-of-sight direction E and the body direction B or the amount of variation thereof. is there. Here, human H identified as monitored person, the body direction B that has towards the line of sight only in different directions the angle theta 1 minute, and is recognized by a particular operation detection unit 128. Further, from the angle theta 1 of the variation per unit time, it is also possible to detect suspicious swinging operation and the like.

(不審動作判定ステップ)
不審動作判定ステップ(S19)では、不審動作判定部(129)が、特定動作検知ステップ(S18)において検知された監視対象の「特定動作」を、予め登録されている基準不審動作と比較して、監視対象人物の特定動作の不審度を判定する。この不審動作判定ステップ(S19)において、監視対象人物の動作の不審度が高い(異常な動作を行っている)と判断した場合(S19、Yes)には、監視者に対して警告を発信する警告ステップ(S20)行った後、監視を終了する。一方、監視対象人物の動作の不審度が低い(異常な動作を行っていない)と判断した場合(S19、No)には、監視撮影ステップ(S12)へ戻る。
(Suspicious action judgment step)
In the suspicious operation determination step (S19), the suspicious operation determination unit (129) compares the “specific operation” of the monitoring target detected in the specific operation detection step (S18) with the reference suspicious operation registered in advance. The suspicious degree of the specific operation of the monitoring target person is determined. In this suspicious operation determination step (S19), when it is determined that the suspicious degree of the operation of the monitoring target person is high (abnormal operation is performed) (S19, Yes), a warning is sent to the monitoring person. After performing the warning step (S20), the monitoring is terminated. On the other hand, when it is determined that the suspicious degree of the motion of the person to be monitored is low (no abnormal motion is performed) (S19, No), the process returns to the monitoring photographing step (S12).

不審動作判定ステップ(S19)で行う警告の発信の態様は特定態様に限定されず、例えば、警告音を発したり、警告表示を行ったりするといった簡単な処理であってもよいし、管理者や警備会社等への通報を更に行ってもよい。   The manner in which the warning is transmitted in the suspicious operation determination step (S19) is not limited to a specific mode, and may be a simple process such as generating a warning sound or displaying a warning, You may further report to a security company.

不審動作判定ステップ(S19)においては、「視線方向」の変動や、或いは、「視線方向」と「胴体方向」との差分の変動から、監視対象人物の「特定動作」を検知し、この「特定動作」が不審度の高い「動作」であるか否かを判断する。一例として、監視対象人物が、一定の位置に所定時間以上留まっていて、且つ、短時間のうちに首振り動作を所定回数以上繰り返す行動等を検知した場合に、そのような「動作」を不審度の高い動作と判断する。又、その場合において、視線方向の座標上にある物品を画像認識によって特定し、当該物品の種類等によって、上記判定の基準を変更することもできる。   In the suspicious motion determination step (S19), the “specific motion” of the person to be monitored is detected from the variation in the “line of sight” or the variation in the difference between the “line of sight” and the “body direction”. It is determined whether or not the “specific action” is an “action” having a high suspicious degree. As an example, if a monitored person stays at a certain position for a predetermined time or more and detects an action that repeats the swing motion for a predetermined number of times within a short time, such a “motion” is suspicious. Judged as a high degree of movement. In that case, the article on the coordinates in the line-of-sight direction can be identified by image recognition, and the determination criterion can be changed depending on the type of the article.

又、不審動作判定ステップ(S19)においては、視線方向検知部126によって検知された視線方向と、骨格抽出部124の機能によって抽出可能な両手の動きとの組合せにより、より高度な不審動作の判定を行うことが可能である。例えば、視線方向Eの延長線上で激しく手が動く場合や、或いは視線方向の延長線上からはずれた位置で手が激しく動く場合等、様々な監視対象に応じて、検知すべき「特定動作」を適切に設定しておくことで、適切な監視を機械的判断に基づいて効率よく行うことができる。   Further, in the suspicious motion determination step (S19), a more advanced suspicious motion determination is performed by combining the gaze direction detected by the gaze direction detection unit 126 and the movements of both hands that can be extracted by the function of the skeleton extraction unit 124. Can be done. For example, when the hand moves violently on the extension line of the sight line direction E, or when the hand moves violently at a position deviated from the extension line of the sight line direction, the “specific action” to be detected is determined according to various monitoring targets. By appropriately setting, appropriate monitoring can be efficiently performed based on mechanical judgment.

100 監視装置
110 撮影部
111 撮像素子
112 撮影レンズ
120 演算処理部
121 座標設定部
221 条件設定部
122 入力部
123 監視対象特定部
124 骨格抽出部
125 特徴点位置特定部
126 視線方向検知部
127 胴体方向検知部
128 特定動作検知部
129 不審動作判定部
130 監視画像表示装置
501 床面
502 壁面
503 陳列棚
S11 座標設定ステップ
S12 監視撮影ステップ
S13 監視対象特定ステップ
S14 骨格抽出ステップ
S15 特徴点位置特定ステップ
S16 視線方向検知ステップ
S17 胴体方向検知ステップ
S18 特定動作検知ステップ
S19 不審動作判定ステップ
S20 警告ステップ
DESCRIPTION OF SYMBOLS 100 Monitoring apparatus 110 Image pick-up part 111 Image pick-up element 112 Shooting lens 120 Calculation processing part 121 Coordinate setting part 221 Condition setting part 122 Input part 123 Monitoring object specific | specification part 124 Skeletal extraction part 125 Feature point position specific part 126 Eye-gaze direction detection part 127 Body direction Detection unit 128 Specific motion detection unit 129 Suspicious motion determination unit 130 Monitoring image display device 501 Floor surface 502 Wall surface 503 Display shelf S11 Coordinate setting step S12 Monitoring imaging step S13 Monitoring target specifying step S14 Skeletal extraction step S15 Feature point position specifying step S16 Line of sight Direction detection step S17 Body direction detection step S18 Specific motion detection step S19 Suspicious motion determination step S20 Warning step

Claims (5)

監視対象領域を撮影する撮影部と、
前記撮影部が撮影した監視画像中の監視対象人物を認識して特定することができる監視対象特定部と、
前記監視対象人物の両耳及び鼻の位置に対応する3か所の視線方向検知用特徴点、及び、前記監視対象人物の右肩、左肩の位置に対応する2か所の胴体方向検知用特徴点を含んでなる複数の特徴点を連接する骨格線で構成される前記監視対象人物の骨格を抽出する骨格抽出部と、
前記骨格抽出部が抽出した前記特徴点の前記監視対象領域内での3次元位置を特定する、特徴点位置特定部と、
前記監視対象人物の視線方向を検知する、視線方向検知部と、
胴体方向検知部と、
特定動作検知部と、
不審動作判定部と、を備え、
前記視線方向検知部は、前記視線方向検知用特徴点を結んで形成される三角形の両耳の位置に対応する点を結んでなる底辺の中点から、鼻の位置に対応する点である前記三角形の頂点に向かう方向を、前記監視対象人物の3次元空間内での視線方向として検知し、
前記胴体方向検知部は、2か所の前記胴体方向検知用特徴点を結ぶ直線に直交する2方向のうち、前記視線方向との角度差のより小さい方向を、前記監視対象人物の3次元空間内での胴体方向として検知し、
前記特定動作検知部は、前記視線方向の変動量、又は、前記視線方向と前記胴体方向との差分の変動量から、特定動作を検知し、
前記不審動作判定部は、前記特定動作検知部により検知された前記特定動作と、予め登録されている基準不審動作とを比較して、前記監視対象人物の前記特定動作の不審度を判定して出力する、
監視装置。
An imaging unit for imaging the monitored area;
A monitoring target specifying unit capable of recognizing and specifying a monitoring target person in a monitoring image captured by the shooting unit;
Three gaze direction detection feature points corresponding to the positions of both ears and nose of the monitoring target person, and two torso direction detection characteristics corresponding to the right shoulder and left shoulder positions of the monitoring target person a skeleton extraction unit for extracting the skeleton of the monitored person consists of skeleton line for connecting a plurality of feature points comprising point,
A feature point position specifying unit for specifying a three-dimensional position in the monitoring target area of the feature point extracted by the skeleton extracting unit;
A line-of-sight direction detector that detects the line-of-sight direction of the person to be monitored;
A fuselage direction detection unit;
A specific motion detector,
A suspicious action determination unit,
The line-of-sight direction detection unit is a point corresponding to the position of the nose from a midpoint of a base formed by connecting points corresponding to positions of both ears of a triangle formed by connecting the characteristic points for detecting the line-of-sight direction. Detecting the direction toward the apex of the triangle as the line-of-sight direction in the three-dimensional space of the person to be monitored ;
The torso direction detection unit is configured to select a direction having a smaller angle difference from the line-of-sight direction among two directions orthogonal to a straight line connecting the two torso direction detection feature points. Detected as the body direction in the
The specific motion detection unit detects a specific motion from the amount of change in the line-of-sight direction or the amount of change in the difference between the line-of-sight direction and the body direction,
The suspicious operation determination unit compares the specific operation detected by the specific operation detection unit with a reference suspicious operation registered in advance, and determines the suspicious degree of the specific operation of the person to be monitored. Output,
Monitoring device.
前記監視画像中の床面又は地面に相当する位置を前記監視対象領域を構成する3次元空間内における実寸法と関連付けて特定可能な座標を、前記監視画像に基づいて設定する座標設定部を更に備え、
前記特徴点位置特定部は、前記座標設定部が設定した前記座標に基づいて前記特徴点の前記3次元空間内における位置を特定する、
請求項1記載の監視装置。
A coordinate setting unit configured to set, based on the monitoring image, coordinates that can be specified by associating a position corresponding to the floor surface or the ground in the monitoring image with an actual dimension in a three-dimensional space constituting the monitoring target area; Prepared,
The feature point position specifying unit specifies the position of the feature point in the three-dimensional space based on the coordinates set by the coordinate setting unit.
The monitoring apparatus according to claim 1.
前記監視画像を表示する監視画像表示装置を更に備え、
前記監視画像表示装置は、前記監視対象人物の前記視線方向を示す図形を前記監視画像内において表示する、請求項1又は2に記載の監視装置。
A monitoring image display device for displaying the monitoring image;
The monitoring image display device displays the figure indicating the viewing direction of the monitored person in said monitored image A monitoring device as claimed in claim 1 or 2.
撮影部が、監視対象領域を撮影する監視撮影ステップと、
監視対象特定部が、前記撮影部が撮影した監視画像中の監視対象人物を認識して特定する監視対象特定ステップと、
骨格抽出部が、前記監視対象人物の鼻、右耳、左耳の位置に対応する3か所の視線方向検知用特徴点、及び、前記監視対象人物の右肩、左肩の位置に対応する2か所の胴体方向検知用特徴点を含む複数の特徴点を連接する骨格線で構成される監視対象人物の骨格を抽出する監視対象人物の骨格抽出ステップと、
特徴点位置特定部が、前記骨格抽出部が抽出した前記特徴点の前記監視対象領域内での3次元位置を特定する特徴点位置特定ステップと、
視線方向検知部が、3か所の前記視線方向検知用特徴点によって形成される三角形の両耳の位置に対応する点を結んでなる底辺の中点から、鼻の位置に対応する点である前記三角形の頂点に向かう方向を、前記監視対象人物の3次元空間内での視線方向として検知する、視線方向検知ステップと、
2か所の前記胴体方向検知用特徴点を結ぶ直線に直交する2方向のうち、前記視線方向との角度差のより小さい方向を、前記監視対象人物の3次元空間内での胴体方向として検知する胴体方向検知ステップと、
前記視線方向の変動量、又は、前記視線方向と前記胴体方向との差分の変動量から、前記監視対象人物の特定動作を検知する特定動作検知ステップと、
検知された前記特定動作と、予め登録されている基準不審動作とを比較して、前記監視対象人物の前記特定動作の不審度を判定する不審動作判定ステップと、
を、含んでなる監視方法。
A monitoring shooting step in which the imaging unit images the monitoring target area; and
A monitoring target specifying step in which a monitoring target specifying unit recognizes and specifies a monitoring target person in a monitoring image taken by the shooting unit;
The skeleton extraction unit has three gaze direction detection feature points corresponding to the positions of the nose, right ear, and left ear of the person to be monitored, and 2 corresponding to the positions of the right shoulder and left shoulder of the person to be monitored. A skeleton extraction step of a monitoring target person that extracts a skeleton of the monitoring target person composed of a skeleton line that connects a plurality of feature points including feature points for detecting the body direction of the place ;
A feature point position specifying unit for specifying a three-dimensional position in the monitoring target region of the feature point extracted by the skeleton extracting unit;
The line-of-sight detection unit is a point corresponding to the position of the nose from the midpoint of the base connecting the points corresponding to the positions of both ears of the triangle formed by the three feature points for detecting the line-of-sight direction. A line-of-sight direction detecting step of detecting a direction toward the apex of the triangle as a line-of-sight direction in the three-dimensional space of the person to be monitored;
Of two directions orthogonal to the straight line connecting the two body direction detection feature points, a direction having a smaller angle difference from the line-of-sight direction is detected as the body direction in the three-dimensional space of the person to be monitored. A torso direction detecting step,
A specific action detecting step of detecting a specific action of the person to be monitored from a fluctuation amount of the gaze direction or a fluctuation amount of a difference between the gaze direction and the trunk direction;
A suspicious action determination step for comparing the detected specific action with a reference suspicious action registered in advance to determine a suspicious degree of the specific action of the person to be monitored;
Monitoring method, comprising.
座標設定部が、前記監視画像中の床面又は地面に相当する位置を前記監視対象領域を構成する3次元空間内における実寸法と関連付けて特定可能な座標を、前記監視画像に基づいて設定する座標設定ステップを更に含んでなる、
請求項に記載の監視方法。
The coordinate setting unit sets coordinates that can be specified by associating a position corresponding to the floor surface or the ground in the monitoring image with an actual dimension in the three-dimensional space constituting the monitoring target area based on the monitoring image. A coordinate setting step;
The monitoring method according to claim 4 .
JP2019085176A 2019-04-26 2019-04-26 Monitoring device and monitoring method Active JP6562437B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019085176A JP6562437B1 (en) 2019-04-26 2019-04-26 Monitoring device and monitoring method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019085176A JP6562437B1 (en) 2019-04-26 2019-04-26 Monitoring device and monitoring method

Publications (2)

Publication Number Publication Date
JP6562437B1 true JP6562437B1 (en) 2019-08-21
JP2020182146A JP2020182146A (en) 2020-11-05

Family

ID=67692116

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019085176A Active JP6562437B1 (en) 2019-04-26 2019-04-26 Monitoring device and monitoring method

Country Status (1)

Country Link
JP (1) JP6562437B1 (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6644327B1 (en) * 2019-09-13 2020-02-12 ニューラルポケット株式会社 Information processing system, information processing device, server device, program, or method
JP6744652B1 (en) * 2020-04-30 2020-08-19 アースアイズ株式会社 Congestion information notification system
JP6764214B1 (en) * 2020-07-21 2020-09-30 アースアイズ株式会社 Congestion information notification system
JP2021043932A (en) * 2019-12-19 2021-03-18 ニューラルポケット株式会社 Information process system, information processing device, server device, program, or method
WO2021070611A1 (en) * 2019-10-07 2021-04-15 株式会社東海理化電機製作所 Image processing device and non-transitory computer-readable medium
JP7419090B2 (en) 2020-02-06 2024-01-22 キヤノン株式会社 Image processing device, image processing method and program

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102558976B1 (en) * 2021-01-29 2023-07-24 라온피플 주식회사 Method for recognizing writing motion from image using afticial intelligence and aparatus therefor

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007257333A (en) * 2006-03-23 2007-10-04 Nissan Motor Co Ltd Vehicle occupant facing direction detection device and vehicle occupant facing direction detection method
WO2015033576A1 (en) * 2013-09-06 2015-03-12 日本電気株式会社 Security system, security method, and non-temporary computer-readable medium
JP2017085519A (en) * 2015-10-30 2017-05-18 キヤノン株式会社 Display control device, display control method, and program
JP2017199303A (en) * 2016-04-28 2017-11-02 パナソニックIpマネジメント株式会社 Identification device, identification method, identification program and storage medium
JP2018160853A (en) * 2017-03-23 2018-10-11 直人 横内 Video conversion system, video conversion method, and video conversion program

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007257333A (en) * 2006-03-23 2007-10-04 Nissan Motor Co Ltd Vehicle occupant facing direction detection device and vehicle occupant facing direction detection method
WO2015033576A1 (en) * 2013-09-06 2015-03-12 日本電気株式会社 Security system, security method, and non-temporary computer-readable medium
JP2017085519A (en) * 2015-10-30 2017-05-18 キヤノン株式会社 Display control device, display control method, and program
JP2017199303A (en) * 2016-04-28 2017-11-02 パナソニックIpマネジメント株式会社 Identification device, identification method, identification program and storage medium
JP2018160853A (en) * 2017-03-23 2018-10-11 直人 横内 Video conversion system, video conversion method, and video conversion program

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6644327B1 (en) * 2019-09-13 2020-02-12 ニューラルポケット株式会社 Information processing system, information processing device, server device, program, or method
WO2021070611A1 (en) * 2019-10-07 2021-04-15 株式会社東海理化電機製作所 Image processing device and non-transitory computer-readable medium
JP2021060815A (en) * 2019-10-07 2021-04-15 株式会社東海理化電機製作所 Image processing apparatus and computer program
JP7312079B2 (en) 2019-10-07 2023-07-20 株式会社東海理化電機製作所 Image processing device and computer program
JP2021043932A (en) * 2019-12-19 2021-03-18 ニューラルポケット株式会社 Information process system, information processing device, server device, program, or method
JP7042508B2 (en) 2019-12-19 2022-03-28 ニューラルポケット株式会社 Information processing system, information processing device, server device, program, or method
JP7419090B2 (en) 2020-02-06 2024-01-22 キヤノン株式会社 Image processing device, image processing method and program
JP6744652B1 (en) * 2020-04-30 2020-08-19 アースアイズ株式会社 Congestion information notification system
JP2021175153A (en) * 2020-04-30 2021-11-01 アースアイズ株式会社 Congestion information notification system
JP6764214B1 (en) * 2020-07-21 2020-09-30 アースアイズ株式会社 Congestion information notification system
JP2022020891A (en) * 2020-07-21 2022-02-02 アースアイズ株式会社 Congestion information notification system

Also Published As

Publication number Publication date
JP2020182146A (en) 2020-11-05

Similar Documents

Publication Publication Date Title
JP6562437B1 (en) Monitoring device and monitoring method
WO2020189313A1 (en) Monitoring device, monitoring system, and monitoring method
JP6055823B2 (en) Surveillance camera control device and video surveillance system
CN107273846B (en) Human body shape parameter determination method and device
JP6587489B2 (en) Image processing apparatus, image processing method, and image processing system
CN107079093B (en) Calibration device
JP6062039B2 (en) Image processing system and image processing program
JP5613741B2 (en) Image processing apparatus, method, and program
CN106937532B (en) System and method for detecting actual user
KR20120104711A (en) Stereo camera apparatus capable of tracking object at detecting zone, surveillance system and method thereof
JP2017059945A (en) Device and method for image analysis
JP6712778B2 (en) Object detection device, object detection system, and object detection method
JP7419999B2 (en) Information processing device and information processing method
JP2021067469A (en) Distance estimation device and method
JP6579411B1 (en) Monitoring system and monitoring method for care facility or hospital
US20190095718A1 (en) Information processing apparatus
JP2014164374A (en) Information display system, information terminal, server device, control method of information terminal, control method of server device, and program
JP2020088840A (en) Monitoring device, monitoring system, monitoring method, and monitoring program
CN113228117A (en) Authoring apparatus, authoring method, and authoring program
WO2020241034A1 (en) Monitoring system and monitoring method
KR102374357B1 (en) Video Surveillance Apparatus for Congestion Control
JP2019185475A (en) Specification program, specification method, and information processing device
JP6581280B1 (en) Monitoring device, monitoring system, monitoring method, monitoring program
JP6621127B1 (en) Self-extraction monitoring system for medical accessories and self-extraction monitoring method for medical accessories
WO2020158035A1 (en) Object position estimation device and method therefor

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190426

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20190426

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20190514

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190521

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190530

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190618

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190717

R150 Certificate of patent or registration of utility model

Ref document number: 6562437

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250