JP2015179439A - Imaging processing device, tracing method and tracing program - Google Patents

Imaging processing device, tracing method and tracing program Download PDF

Info

Publication number
JP2015179439A
JP2015179439A JP2014056996A JP2014056996A JP2015179439A JP 2015179439 A JP2015179439 A JP 2015179439A JP 2014056996 A JP2014056996 A JP 2014056996A JP 2014056996 A JP2014056996 A JP 2014056996A JP 2015179439 A JP2015179439 A JP 2015179439A
Authority
JP
Japan
Prior art keywords
target frame
person
processing target
image
frame image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014056996A
Other languages
Japanese (ja)
Other versions
JP6337545B2 (en
Inventor
海虹 張
Haihong Zhang
海虹 張
世紅 労
Shihong Lao
世紅 労
広太郎 吉野
Kotaro Yoshino
広太郎 吉野
剛 倉田
Tsuyoshi Kurata
剛 倉田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Omron Corp
Original Assignee
Omron Corp
Omron Tateisi Electronics Co
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Omron Corp, Omron Tateisi Electronics Co filed Critical Omron Corp
Priority to JP2014056996A priority Critical patent/JP6337545B2/en
Publication of JP2015179439A publication Critical patent/JP2015179439A/en
Application granted granted Critical
Publication of JP6337545B2 publication Critical patent/JP6337545B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Alarm Systems (AREA)
  • Image Analysis (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

PROBLEM TO BE SOLVED: To improve mapping accuracy of mapping photographed objects between frame images, and to enable implementation of an appropriate tracing of the photographed object.SOLUTION: An image processing device 1 has: a video image input unit 2 into which a video image having an area of object photographed by an imaging device 10 is input; and an image processing unit 3 that processes a frame image extracted at a predetermined interval from the video image input into the video image input unit 2 as a frame image of a processing object, detects the objects photographed in the frame image of the processing object, and detects a position of the detected object. Further, the image processing unit 3 is configured to map the detected objects between the frame images of the processing object, and the mapping is configured to use continuous three frame images of the processing object timewise to perform mapping of these objects photographed between three frame images of the processing object.

Description

この発明は、防犯カメラ等で撮像した動画像に撮像されているオブジェクトの移動を追跡する技術に関する。   The present invention relates to a technique for tracking the movement of an object captured in a moving image captured by a security camera or the like.

従来、空港、駅、ショッピングセンター、街角等、不特定多数の人が集まる様々な場所に防犯カメラが設置されている。   Conventionally, security cameras are installed in various places where an unspecified number of people gather, such as airports, stations, shopping centers, street corners, and the like.

また、カメラで撮像した動画像を処理し、特異な行動をとった不審者等の人物(以下、単に不審者と言う。)を検出することも検討されている。例えば、カメラで撮像した動画像を処理し、撮像されている人の行動の特徴量として、その人の移動速度、移動方向、頭の高さ等を検出し、その人が不審者であるかどうかを判定するものがある(特許文献1参照)。   In addition, it is also considered to detect a person such as a suspicious person (hereinafter simply referred to as a suspicious person) who has taken a unique action by processing a moving image captured by a camera. For example, by processing a moving image captured by a camera, detecting the movement speed, movement direction, head height, etc. of the person as a feature amount of the person being imaged, whether the person is a suspicious person There is one that determines whether or not (see Patent Document 1).

なお、特許文献1は、処理対象のカメラ画像(動画像)が、防犯カメラの撮像画像ではなく、車載カメラである。   In Patent Document 1, a camera image (moving image) to be processed is not a captured image of a security camera but an in-vehicle camera.

特開2013− 88870号公報JP2013-88870A

しかしながら、防犯カメラで撮像した動画像を処理し、撮像されている人(以下、対象者と言う。)の移動速度、移動方向を得るには、その人を追跡しなければならない。そして、フレーム画像に撮像されている人を追跡するには、フレーム画像間において、撮像されている同一人物を対応付ける同定を精度よく行う必要がある。   However, in order to process a moving image captured by a security camera and obtain the moving speed and moving direction of the imaged person (hereinafter referred to as a target person), the person must be tracked. In order to track the person imaged in the frame image, it is necessary to accurately identify the same person imaged between the frame images.

特に、何らかの原因で、フレーム画像に撮像されている人(追跡している人)が検出できない検出漏れが生じると、そのフレーム画像において追跡が途切れる。また、複数の人がフレーム画像上で重なると、フレーム画像間での同定が行えずに追跡が途切れたり、フレーム画像上で重なった人を誤って対応付けて別の人を追跡したりすることがある。   In particular, when a detection omission that cannot be detected by a person captured in the frame image (the person being tracked) occurs for some reason, tracking is interrupted in the frame image. Also, when multiple people overlap on the frame image, tracking cannot be performed because the identification between the frame images cannot be performed, or another person can be tracked by incorrectly associating the overlapping people on the frame image. There is.

この発明の目的は、撮像されているオブジェクトをフレーム画像間で対応付ける同定の精度を向上させ、撮像されているオブジェクトの追跡が適正に行える技術を提供することにある。   An object of the present invention is to provide a technique capable of improving the accuracy of identification for associating an imaged object between frame images and appropriately tracking the imaged object.

この発明の動画像処理装置は、上記目的を達するために、以下のように構成している。   In order to achieve the above object, the moving image processing apparatus of the present invention is configured as follows.

動画像入力部には、撮像装置が対象エリアを撮像した動画像が入力される。オブジェクト検出部は、動画像入力部に入力された動画像から、予め定めた間隔で抽出したフレーム画像を処理対象フレーム画像として処理し、この処理対象フレーム画像に撮像されているオブジェクトを検出するとともに、検出したオブジェクトの位置を検出する。オブジェクト検出部は、動画像入力部に入力された動画像にかかる全てのフレーム画像を処理対象フレーム画像として、撮像されているオブジェクトの検出を行ってもよいし、動画像入力部に入力された動画像から、予め定めた間隔で抽出したフレーム画像を処理対象フレーム画像として、撮像されているオブジェクトの検出を行ってもよい。処理対象フレーム画像を抽出する間隔については、動画像入力部に入力された動画像のフレームレートに応じて定めればよい。また、この間隔は、時間間隔で定めてもよいし、フレーム間隔で定めてもよい。   A moving image obtained by capturing an image of the target area by the imaging device is input to the moving image input unit. The object detection unit processes a frame image extracted at a predetermined interval from the moving image input to the moving image input unit as a processing target frame image, and detects an object captured in the processing target frame image. The position of the detected object is detected. The object detection unit may detect a captured object using all frame images related to the moving image input to the moving image input unit as processing target frame images, or may be input to the moving image input unit. Detection of a captured object may be performed using a frame image extracted at a predetermined interval from a moving image as a processing target frame image. What is necessary is just to determine the space | interval which extracts a process target frame image according to the frame rate of the moving image input into the moving image input part. Further, this interval may be determined as a time interval or a frame interval.

また、同定部は、オブジェクト検出部が検出したオブジェクトを、処理対象フレーム画像間で対応付ける。この同定部は、時間的に連続する3つの処理対象フレーム画像を用い、これら3つの処理対象フレーム画像間で撮像されているオブジェクトを対応付ける。   The identification unit associates the object detected by the object detection unit between the processing target frame images. The identification unit uses three processing target frame images that are temporally continuous, and associates an object captured between the three processing target frame images.

この構成では、例えば、時間的に連続する3つの処理対象フレーム画像の中で、時間的に中間に位置しない2つの処理対象フレーム画像間における、撮像されているオブジェクトの類似度に基づいて、これら3つの処理対象フレーム画像間で撮像されているオブジェクトを対応付けることができる。このため、オブジェクト検出部が、何らかの原因で、時間的に連続する3つの処理対象フレーム画像の中で、時間的に中間に位置する処理対象フレーム画像に撮像されているオブジェクト(追跡しているオブジェクト)が検出できない検出漏れが生じても、時間的に中間に位置しない2つの処理対象フレーム画像間における、撮像されているオブジェクトの類似度に基づいて、これら3つの処理対象フレーム画像間で撮像されているオブジェクトを対応付ける同定が精度よく行える。   In this configuration, for example, among the three processing target frame images that are temporally continuous, based on the similarity of the imaged object between two processing target frame images that are not positioned temporally in the middle. Objects captured between the three processing target frame images can be associated with each other. For this reason, the object detection unit detects, for some reason, an object (tracked object) captured in the processing target frame image that is temporally intermediate among the three temporal processing target frame images. ) Is detected between these three processing target frame images based on the similarity of the imaged object between the two processing target frame images that are not positioned in the middle in time. Can be identified with high accuracy.

また、時間的に連続する3つの処理対象フレーム画像の中で、時間的に中間に位置する処理対象フレーム画像に撮像されているオブジェクトが重なっても、時間的に中間に位置しない2つの処理対象フレーム画像間における、撮像されているオブジェクトの類似度に基づいて、これら3つの処理対象フレーム画像間で撮像されているオブジェクトを対応付ける同定が精度よく行える。   In addition, among the three processing target frame images that are temporally continuous, two processing targets that are not positioned in the middle in time even if the captured object overlaps the processing target frame image that is positioned in the middle in time Based on the similarity of the imaged object between the frame images, identification that associates the imaged object between the three processing target frame images can be performed with high accuracy.

したがって、処理対象フレーム画像間において、撮像されているオブジェクトを対応付ける同定の精度を向上させることができ、撮像されているオブジェクトの追跡が適正に行える。   Therefore, the accuracy of identification for associating the captured object between the processing target frame images can be improved, and the captured object can be properly tracked.

この発明によれば、撮像されているオブジェクトを処理対象フレーム画像間で対応付ける同定の精度を向上させ、撮像されているオブジェクトの追跡が適正に行える。   According to the present invention, the accuracy of identification for associating the imaged object between the processing target frame images is improved, and the imaged object can be properly tracked.

画像処理装置の主要部の構成を示すブロック図である。It is a block diagram which shows the structure of the principal part of an image processing apparatus. 画像処理部の機能構成を示す図である。It is a figure which shows the function structure of an image process part. オブジェクトマップを示す図である。It is a figure which shows an object map. 処理対象フレーム画像上におけるオブジェクトの大きさ、および位置を説明する図である。It is a figure explaining the magnitude | size and position of an object on a process target frame image. 判定基準テーブルを示す図である。It is a figure which shows the criteria table. 追跡処理を示すフローチャートである。It is a flowchart which shows a tracking process. 同定処理を示すフローチャートである。It is a flowchart which shows an identification process. 時間的に連続する処理対象フレーム画像に撮像されている人を対応付ける処理を説明する図である。It is a figure explaining the process which matches the person currently imaged to the process target frame image continuous in time. 時間的に連続する3つの処理対象フレーム画像に撮像されている人を対応付ける処理を説明する図である。It is a figure explaining the process which matches the person currently imaged to three process target frame images continuous in time. 時間的に連続する3つの処理対象フレーム画像に撮像されている人を対応付ける処理を説明する図である。It is a figure explaining the process which matches the person currently imaged to three process target frame images continuous in time. 時間的に連続する3つの処理対象フレーム画像に撮像されている人を対応付ける処理を説明する図である。It is a figure explaining the process which matches the person currently imaged to three process target frame images continuous in time. 時間的に連続する3つの処理対象フレーム画像に撮像されている人を対応付ける処理を説明する図である。It is a figure explaining the process which matches the person currently imaged to three process target frame images continuous in time. 判定基準設定処理を示すフローチャートである。It is a flowchart which shows a criterion setting process. 処理対象フレーム画像上における水平方向の変化量を集計した頻度分布を示す図である。It is a figure which shows the frequency distribution which totaled the variation | change_quantity of the horizontal direction on a process target frame image. 速度異常者検出処理を示すフローチャートである。It is a flowchart which shows a speed abnormal person detection process.

以下、この発明の実施形態である画像処理装置について説明する。   Hereinafter, an image processing apparatus according to an embodiment of the present invention will be described.

図1は、この例にかかる画像処理装置の主要部の構成を示すブロック図である。この例にかかる画像処理装置1は、動画像入力部2と、画像処理部3と、出力部4と、を備えている。この例にかかる画像処理装置1は、防犯カメラ等の撮像装置10で撮像した動画像を処理し、この動画像に撮像されている人の移動速度が正常であるか、異常であるかを判定するとともに、その判定結果を上位装置に出力する。   FIG. 1 is a block diagram showing the configuration of the main part of the image processing apparatus according to this example. The image processing apparatus 1 according to this example includes a moving image input unit 2, an image processing unit 3, and an output unit 4. The image processing apparatus 1 according to this example processes a moving image captured by the imaging device 10 such as a security camera, and determines whether the moving speed of the person captured in the moving image is normal or abnormal. At the same time, the determination result is output to the host device.

動画像入力部2には、撮像装置10が接続されている。撮像装置10は、動画像を撮像するビデオカメラである。撮像装置10は、例えば不特定多数の人が集まる場所(空港、駅、ショッピングセンター、街角等)に設置された防犯カメラである。動画像入力部2には、撮像装置10が撮像した動画像にかかるフレーム画像が時系列に入力される。撮像装置10のフレームレートは、数フレーム/sec(3〜5フレーム/sec)の比較的低いものであってもよい。撮像装置10の撮像エリアが、この発明で言う対象エリアに相当する。   An imaging device 10 is connected to the moving image input unit 2. The imaging device 10 is a video camera that captures moving images. The imaging device 10 is a security camera installed at a place (an airport, a station, a shopping center, a street corner, etc.) where, for example, an unspecified number of people gather. A frame image related to a moving image captured by the imaging device 10 is input to the moving image input unit 2 in time series. The frame rate of the imaging device 10 may be a relatively low one of several frames / sec (3 to 5 frames / sec). The imaging area of the imaging device 10 corresponds to the target area referred to in the present invention.

なお、動画像入力部2は、USBメモリや、SDメモリカード、DVD等のメディアに記録されている動画像ファイルを入力する構成であってもよい。この場合、撮像装置10が撮像した動画像を一旦メディアに記録し、そのメディアに記録した動画像ファイルを動画像入力部2に入力する。   The moving image input unit 2 may be configured to input a moving image file recorded on a medium such as a USB memory, an SD memory card, or a DVD. In this case, the moving image captured by the imaging device 10 is temporarily recorded on a medium, and the moving image file recorded on the medium is input to the moving image input unit 2.

画像処理部3は、動画像入力部2に入力された動画像にかかるフレーム画像を処理し、撮像されている人(オブジェクト)の移動を追跡するとともに、この追跡した人の移動速度が正常であるか、異常であるかを判定する。また、画像処理部3は、移動速度が正常であるか、異常であるかの判定に用いる判定基準の設定を行う。画像処理部3の詳細については、後述する。   The image processing unit 3 processes the frame image applied to the moving image input to the moving image input unit 2, tracks the movement of the person (object) being imaged, and the movement speed of the tracked person is normal. It is determined whether there is an abnormality. Further, the image processing unit 3 sets a determination criterion used for determining whether the moving speed is normal or abnormal. Details of the image processing unit 3 will be described later.

なお、画像処理部3が処理するフレーム画像(以下、処理対象フレーム画像と言う。)は、動画像入力部2に入力された動画像にかかる全てのフレーム画像でなくてもよい。具体的には、画像処理部3は、動画像入力部2に入力された動画像にかかる全てのフレーム画像を処理対象フレーム画像として処理してもよいし、動画像入力部2に入力された動画像から予め定めた間隔で抽出したフレーム画像を処理対象フレーム画像として処理してもよい(ここで抽出しなかったフレーム画像については後述する処理を行わない。)。また、この処理対象フレーム画像を抽出する間隔は、動画像入力部2に入力された動画像のフレームレートに応じて定めればよく、時間間隔で設定してもよいし、フレーム間隔で設定してもよい。   Note that the frame images processed by the image processing unit 3 (hereinafter referred to as processing target frame images) may not be all frame images related to the moving image input to the moving image input unit 2. Specifically, the image processing unit 3 may process all frame images related to the moving image input to the moving image input unit 2 as processing target frame images, or input to the moving image input unit 2. Frame images extracted from moving images at predetermined intervals may be processed as processing target frame images (frame images not extracted here are not subjected to processing described later). The interval for extracting the processing target frame image may be determined according to the frame rate of the moving image input to the moving image input unit 2, and may be set at a time interval or a frame interval. May be.

この画像処理部3が、この発明にかかる追跡方法を実行するコンピュータを備える。また、この発明にかかる追跡プログラムは、画像処理部3が備えるコンピュータにインストールされる。   The image processing unit 3 includes a computer that executes the tracking method according to the present invention. The tracking program according to the present invention is installed in a computer included in the image processing unit 3.

出力部4は、画像処理部3において移動速度が異常であると判定された人を上位装置に通知する。具体的には、画像処理部3が追跡した人の移動速度が異常であると判定すると、出力部4が上位装置に対してその旨を通知する。上位装置は、例えば警備室等に設置された表示灯やスピーカによって、移動速度が異常である人が検出されたことを警備員等に報知する。   The output unit 4 notifies the host device of the person whose moving speed is determined to be abnormal by the image processing unit 3. Specifically, when it is determined that the movement speed of the person tracked by the image processing unit 3 is abnormal, the output unit 4 notifies the higher-level device to that effect. The host device notifies a guard or the like that a person having an abnormal movement speed has been detected, for example, by an indicator lamp or speaker installed in a security room or the like.

図2は、画像処理部の機能構成を示すブロック図である。画像処理部3は、オブジェクト検出機能部31と、オブジェクト同定機能部32と、オブジェクトマップ作成機能部33と、移動速度判定機能部34と、集計機能部35と、判定基準設定機能部36と、を備えている。   FIG. 2 is a block diagram illustrating a functional configuration of the image processing unit. The image processing unit 3 includes an object detection function unit 31, an object identification function unit 32, an object map creation function unit 33, a moving speed determination function unit 34, a tabulation function unit 35, a determination criterion setting function unit 36, It has.

オブジェクト検出機能部31は、撮像装置10が撮像した動画像にかかるフレーム画像から抽出した処理対象フレーム画像毎に、その処理対象フレーム画像に撮像されている人をオブジェクトとして検出する。上述したように、処理対象フレーム画像は、動画像入力部2に入力された動画像にかかる全てのフレーム画像であってもよいし、動画像入力部2に入力された動画像から予め定めた間隔で抽出したフレーム画像であってもよい。オブジェクト検出機能部31は、例えば公知の背景差分方式、フレーム画像間差分方式により、撮像されている人を検出する。背景差分方式や、フレーム画像間差分方式によるオブジェクトの検出については公知であるので、ここでは説明を省略する。オブジェクト検出機能部31は、検出した人に仮IDを付与する。   The object detection function unit 31 detects a person captured in the processing target frame image as an object for each processing target frame image extracted from the frame image of the moving image captured by the imaging device 10. As described above, the processing target frame image may be all frame images related to the moving image input to the moving image input unit 2 or may be determined in advance from the moving image input to the moving image input unit 2. Frame images extracted at intervals may be used. The object detection function unit 31 detects a person being imaged by, for example, a known background difference method or frame image difference method. Since detection of objects by the background difference method or the inter-frame image difference method is known, the description thereof is omitted here. The object detection function unit 31 assigns a temporary ID to the detected person.

オブジェクト同定機能部32は、時間的に連続する複数の処理対象フレーム画像を用いて、これらの処理対象フレーム画像に撮像されている人を対応付ける同定処理を行う。この同定処理の詳細については、後述する。オブジェクト同定機能部32は、この同定により、オブジェクト検出機能部31が仮IDを付与した人が、すでに本IDを付与した人であるか、この時点では本IDを付与していない人であるかを判断する。オブジェクト同定機能部32は、すでに本IDを付与している人であれば、仮IDを本IDに置き換える。一方、オブジェクト同定機能部32は、本IDを付与していない人であれば、仮IDを新たに付与する本IDに置き換える。この場合、実質的に仮IDを本IDに置き換えてもよいし、この仮IDを本IDにしてもよい。   The object identification function part 32 performs the identification process which matches the person imaged to these process target frame images using several process target frame images continuous in time. Details of this identification process will be described later. Based on this identification, the object identification function unit 32 determines whether the person to whom the object detection function unit 31 has given a temporary ID has already been given the real ID, or is the person who has not given the real ID at this time. Judging. The object identification function unit 32 replaces the temporary ID with the real ID if the person has already been given the real ID. On the other hand, if the person identification function unit 32 is a person who has not been given a real ID, the object identification function unit 32 replaces the temporary ID with a new real ID. In this case, the temporary ID may be substantially replaced with the real ID, or the temporary ID may be the real ID.

オブジェクトマップ作成機能部33は、図3に示すオブジェクトマップを生成する。オブジェクトマップは、図3に示すように、処理対象フレーム画像毎に、オブジェクト検出機能部31が検出した人の本IDに、その処理対象フレーム画像上における大きさSと、その処理対象フレーム画像における位置(x,y)とを対応付けて登録したものである。例えば、図3に示すオブジェクトマップの例では、処理対象フレーム画像No.tn-1である処理対象フレーム画像に、本IDがA123456である人と、A123457である人が撮像されていたことを示している。また、本IDがA123456である人は、処理対象フレーム画像上における大きさSがSa1であり、処理対象フレーム画像上における位置(x,y)が(xa1,ya1)であったことを示している。また、本IDがA123457である人は、処理対象フレーム画像上における大きさSがSb1であり、処理対象フレーム画像上における位置(x,y)が(xb1,yb1)であったことを示している。 The object map creation function unit 33 generates the object map shown in FIG. As shown in FIG. 3, the object map includes, for each processing target frame image, the person ID detected by the object detection function unit 31, the size S on the processing target frame image, and the processing target frame image. The position (x, y) is registered in association with each other. For example, in the example of the object map shown in FIG. This shows that the person whose real ID is A123456 and the person whose A123457 are captured in the processing target frame image at t n−1 . In addition, the person whose main ID is A123456 is that the size S on the processing target frame image is Sa1 and the position (x, y) on the processing target frame image is (x a1 , y a1 ). Show. Moreover, people present ID is A123457, the size S on the processing target frame image is Sb1, position on the processing target frame image (x, y) is that it was a (x b1, y b1) Show.

なお、撮像装置10が撮像した動画像にかかるフレーム画像(処理対象フレーム画像として抽出されなかったフレーム画像)が、時間的に連続する処理対象フレーム画像の間、例えば、処理対象フレーム画像No.tn-1と、処理対象フレーム画像No.tnと、の間に存在することもある。 It should be noted that a frame image (a frame image that has not been extracted as a processing target frame image) related to a moving image captured by the imaging apparatus 10 is between temporally continuous processing target frame images. t n−1 and the processing target frame image No. and t n, it may exist between.

また、他の処理対象フレーム画像No.tn、処理対象フレーム画像No.tn+1、処理対象フレーム画像No.tn+2についても、オブジェクト検出機能部31が検出した人の本IDに、その処理対象フレーム画像上における大きさSと、その処理対象フレーム画像上における位置とが対応付けて登録されている。 In addition, other processing target frame images No. t n , the processing target frame image No. t n + 1 , the processing target frame image No. Also for t n + 2 , the person ID detected by the object detection function unit 31 is registered in association with the size S on the processing target frame image and the position on the processing target frame image. .

図4は、人A,および人Bが撮像されている処理対象フレーム画像を示す図である。図4に示すように、この例では、オブジェクト検出機能部31によって検出された人を囲む矩形領域の高さ(処理対象フレーム画像上における垂直方向の長さSA、SB)を、検出された人の大きさSとしてオブジェクトマップに登録している。また、図4に示すように、この矩形領域(検出された人を囲む矩形領域)の左下の角を、検出された人の位置(x,y)にしてオブジェクトマップに登録している。検出された人の位置は、処理対象フレーム画像上における水平方向の位置Xa、Xbと、処理対象フレーム画像上における垂直方向の位置Ya、Ybと、で示される。   FIG. 4 is a diagram illustrating a processing target frame image in which the person A and the person B are captured. As shown in FIG. 4, in this example, the height of the rectangular area surrounding the person detected by the object detection function unit 31 (vertical lengths SA and SB on the processing target frame image) is detected. Is registered in the object map as size S. Also, as shown in FIG. 4, the lower left corner of this rectangular area (the rectangular area surrounding the detected person) is registered in the object map with the detected person's position (x, y). The detected position of the person is indicated by horizontal positions Xa and Xb on the processing target frame image and vertical positions Ya and Yb on the processing target frame image.

なお、検出された人を囲む矩形領域の面積を、検出された人の大きさにしてもよいし、処理対象フレーム画像上における、この矩形領域の右下の角や重心を検出された人の位置にしてもよい。   The area of the rectangular area surrounding the detected person may be the size of the detected person, or the lower right corner or the center of gravity of the rectangular area on the processing target frame image is detected. It may be a position.

したがって、本IDが付与された人は、このオブジェクトマップにより、処理対象フレーム画像上における大きさSが得られるとともに、時間経過にともなう位置(x,y)の変化が得られる。すなわち、本IDが付与された人については、処理対象フレーム画像上における移動経路(すなわち撮像装置10の撮像エリア内における移動経路)をオブジェクトマップから得ることができ、オブジェクトの追跡が行える。   Therefore, the person to whom the real ID is assigned can obtain the size S on the processing target frame image and the change of the position (x, y) with the lapse of time by this object map. That is, for a person to whom this ID is assigned, the movement path on the processing target frame image (that is, the movement path in the imaging area of the imaging device 10) can be obtained from the object map, and the object can be tracked.

オブジェクト検出機能部31がこの発明で言うオブジェクト検出部に相当し、オブジェクト同定機能部32が、この発明で言う同定部に相当する構成である。   The object detection function unit 31 corresponds to the object detection unit referred to in the present invention, and the object identification function unit 32 corresponds to the identification unit referred to in the present invention.

移動速度判定機能部34は、後述する判定基準設定機能部36により設定された判定基準を用い、追跡している人の移動速度が正常であるか、異常であるかを判定する。   The movement speed determination function unit 34 determines whether the movement speed of the person being tracked is normal or abnormal by using the determination criterion set by the determination criterion setting function unit 36 described later.

なお、ここで言う、移動速度が異常であるとは、一般的な人に比べて移動速度がある程度以上速い人だけでなく、一般的な人に比べて移動速度がある程度以上遅い人も含まれる。   Note that the abnormal movement speed mentioned here includes not only a person whose movement speed is higher than a certain level compared to a general person but also a person whose movement speed is a certain degree slower than a general person. .

集計機能部35は、上述のオブジェクトマップを用いて、時間的に連続する処理対象フレーム画像間において、処理対象フレーム画像上における人の位置の変化量を集計する。この集計は、処理対象フレーム画像上における人の大きさSで複数段階に区分して行う。   The tabulation function unit 35 tabulates the amount of change in the position of the person on the processing target frame image between temporally continuous processing target frame images using the above-described object map. This aggregation is performed in a plurality of stages according to the size S of the person on the processing target frame image.

同じ人であっても、その人と、撮像装置10との距離が短くなるにつれて、処理対象フレーム画像上における大きさSが大きくなる。また、実空間上における移動距離が同じであっても、その移動場所と、撮像装置10との距離が短くなるにつれて、処理対象フレーム画像上における変化量が大きくなる。すなわち、集計機能部35は、処理対象フレーム画像上での人の大きさSを複数段階に区分して集計することによって、処理対象フレーム画像上における人の位置の変化量の集計を撮像装置10と人との距離で区分して行う。   Even for the same person, the size S on the processing target frame image increases as the distance between the person and the imaging device 10 decreases. Even if the moving distance in the real space is the same, the amount of change on the processing target frame image increases as the distance between the moving location and the imaging device 10 decreases. That is, the totaling function unit 35 calculates the total amount of change in the position of the person on the processing target frame image by classifying the size S of the person on the processing target frame image in a plurality of stages. It is divided according to the distance between people and people.

集計機能部35は、検出された人の大きさSで区分した段階毎に、オブジェクトマップを参照して、時間的に連続する2つの処理対象フレーム画像間における、処理対象フレーム画像上での人の水平方向の変化量の分布、および処理対象フレーム画像上での人の垂直方向の変化量の分布を集計する。水平方向の変化量は、時間的に連続する2つの処理対象フレーム画像において、人の水平方向の検出位置の差分の絶対値である。また、垂直方向の変化量は、時間的に連続する2つの処理対象フレーム画像において、人の垂直方向の検出位置の差分の絶対値である。   The tabulation function unit 35 refers to the object map for each stage divided by the detected human size S, and the person on the processing target frame image between two processing target frame images that are temporally continuous. The distribution of the amount of change in the horizontal direction and the distribution of the amount of change in the vertical direction of the person on the processing target frame image are tabulated. The amount of change in the horizontal direction is an absolute value of the difference between the detection positions in the horizontal direction of a person in two temporally continuous frame images to be processed. Further, the amount of change in the vertical direction is the absolute value of the difference between the detection positions in the vertical direction of a person in two temporally continuous frame images to be processed.

判定基準設定機能部36は、集計機能部35の集計結果に基づき、処理対象フレーム画像上における人の大きさ別に、処理対象フレーム画像上における水平方向の正常変化量の範囲、および処理対象フレーム画像上における水平方向の正常変化量の範囲を対応付けた判定基準を設定する。図5は、判定基準設定機能部36により判定基準が設定された判定基準テーブルを示す図である。図5に示す判定基準テーブルの例では、処理対象フレーム画像上における大きさSの範囲がS0〜S1である人にかかる判定基準は、水平方向の変化量がX1〜X2の範囲であり、且つ垂直方向の変化量がY1〜Y2の範囲である人について、移動速度が正常であると判定する設定である。図5において示す、処理対象フレーム画像上における大きさSの範囲の他の例についても、同様である。   The determination criterion setting function unit 36, based on the totaling result of the totaling function unit 35, the range of the normal change amount in the horizontal direction on the processing target frame image and the processing target frame image according to the size of the person on the processing target frame image. A criterion for associating the range of the normal change amount in the horizontal direction is set. FIG. 5 is a diagram showing a determination criterion table in which the determination criterion is set by the determination criterion setting function unit 36. In the example of the determination criterion table shown in FIG. 5, the determination criterion for a person whose size S range on the processing target frame image is S0 to S1 is a range where the horizontal change amount is X1 to X2, and This is a setting for determining that the movement speed is normal for a person whose vertical variation is in the range of Y1 to Y2. The same applies to other examples of the range of the size S on the processing target frame image shown in FIG.

なお、画像処理部3は、特に図示していないが、上述のオブジェクト検出処理を行うための画像メモリや、図3に示したオブジェクトマップ、および図5に示した判定基準テーブルを記憶するメモリを有している。   Although not specifically shown, the image processing unit 3 includes an image memory for performing the above-described object detection processing, a memory for storing the object map shown in FIG. 3, and the determination criterion table shown in FIG. Have.

次に、この例にかかる画像処理装置1の動作について説明する。この例にかかる画像処理装置1は、以下に示す追跡処理、判定基準設定処理、および速度異常者検出処理を行う。追跡処理は、図3に示したオブジェクトマップに、処理対象フレーム画像に撮像されていた人について、この処理対象フレーム画像上における大きさS、および位置(x、y)を登録する処理である。判定基準設定処理は、図5に示した判定基準テーブルを設定する処理である。速度異常者検出処理は、撮像装置10の撮像エリア内における移動速度が異常である人を検出する処理である。   Next, the operation of the image processing apparatus 1 according to this example will be described. The image processing apparatus 1 according to this example performs the following tracking process, determination criterion setting process, and speed abnormality person detection process. The tracking process is a process of registering the size S and the position (x, y) on the processing target frame image for the person captured in the processing target frame image in the object map shown in FIG. The criterion setting process is a process for setting the criterion table shown in FIG. The abnormal speed person detection process is a process for detecting a person whose movement speed in the imaging area of the imaging apparatus 10 is abnormal.

図6は、追跡処理を示すフローチャートである。画像処理装置1は、画像処理部3が今回処理する処理対象フレーム画像を決定する(s1)。s1では、動画像入力部2に入力された動画像(撮像装置10が撮像した動画像)から、予め定められている間隔に基づいて抽出した処理対象フレーム画像であって、その時点において未処理である時間的に最もはやい処理対象フレーム画像(直前に処理した処理対象フレーム画像に対して、時間的に直後に位置する処理対象フレーム画像)を、今回処理する処理対象フレーム画像に決定する。   FIG. 6 is a flowchart showing the tracking process. The image processing apparatus 1 determines a processing target frame image to be processed this time by the image processing unit 3 (s1). In s1, a processing target frame image extracted based on a predetermined interval from a moving image (moving image captured by the imaging device 10) input to the moving image input unit 2, and is unprocessed at that time The processing target frame image that is the fastest in terms of time (the processing target frame image positioned immediately after the processing target frame image processed immediately before) is determined as the processing target frame image to be processed this time.

画像処理部3は、オブジェクト検出機能部31において、s1で決定した処理対象フレーム画像に撮像されているオブジェクト(人)を検出する(s2)。s2では、公知の背景差分方式や、フレーム間差分方式により撮像されている人を検出し、検出した人に対して仮IDを付与する。画像処理部3は、オブジェクト同定機能部32において、s2で検出した人と、この時点ですでに検出されていた人と対応づける同定処理を行う(s3)。   In the object detection function unit 31, the image processing unit 3 detects an object (person) captured in the processing target frame image determined in s1 (s2). In s2, a person imaged by a known background difference method or inter-frame difference method is detected, and a temporary ID is assigned to the detected person. The image processing unit 3 performs identification processing in the object identification function unit 32 to associate the person detected in s2 with the person already detected at this time (s3).

図7は、このs3にかかる同定処理を示すフローチャートである。オブジェクト同定機能部32は、s2で検出した人毎に、その特徴量を抽出する(s11)。s11では、処理対象フレーム画像上における検出した人のRGBの輝度値を特徴量として抽出してもよいし、目、鼻、口等の顔部品の形状や色等を特徴量として抽出してもよい。   FIG. 7 is a flowchart showing the identification processing according to s3. The object identification function part 32 extracts the feature-value for every person detected by s2 (s11). In s11, the detected RGB brightness value of the person on the processing target frame image may be extracted as a feature amount, or the shape or color of a face part such as an eye, nose, or mouth may be extracted as a feature amount. Good.

オブジェクト同定機能部32は、前回の処理対象フレーム画像(すなわち、今回の処理対象フレーム画像に対して、時間的に直前の処理対象フレーム画像)に撮像されていた人と、s2で検出した人と、の対応付けを行う(s12)。s12では、s2で検出した人毎に、その人についてs11で抽出した特徴量と、前回の処理対象フレーム画像に撮像されていたそれぞれの人の特徴量(この特徴量は、前回の処理対象フレーム画像における同定処理で検出されている。)と、の類似度を算出する。例えば、図8に示すように、前回の処理対象フレーム画像において、人A,人B、および人Cが検出されており、今回の処理対象フレーム画像において、人a、人b、および人cが検出された場合、人aについて、人A,人B、および人Cのそれぞれについて特徴量の類似度を算出する。同様に、人bについても、人A,人B、および人Cのそれぞれについて特徴量の類似度を算出し、人cについても、人A,人B、および人Cのそれぞれについて特徴量の類似度を算出する。   The object identification function unit 32 includes the person imaged in the previous processing target frame image (that is, the processing target frame image immediately before the current processing target frame image), and the person detected in s2. Are associated (s12). In s12, for each person detected in s2, the feature amount extracted in s11 for that person and the feature amount of each person captured in the previous processing target frame image (this feature amount is determined based on the previous processing target frame). The degree of similarity is calculated. For example, as shown in FIG. 8, person A, person B, and person C are detected in the previous process target frame image, and person a, person b, and person c are detected in the current process target frame image. If detected, the similarity of the feature quantity is calculated for each of the person A, person B, and person C for the person a. Similarly, with respect to the person b, the similarity of the feature quantity is calculated for each of the person A, the person B, and the person C, and the similarity of the feature quantity is also obtained for each of the person A, the person B, and the person C. Calculate the degree.

オブジェクト同定機能部32は、s2で検出した人毎に、特徴量の類似度が予め定めた閾値よりも大きい人に対応付ける。このとき、特徴量の類似度が予め定めた閾値よりも大きい人が複数人いれば、その類似度が最大であった人に対応付ける。また、特徴量の類似度が予め定めた閾値よりも大きい人がいなければ、その人については前回の処理対象フレーム画像に撮像されていた人と対応付けない。   The object identification function unit 32 associates each person detected in s2 with a person whose feature value similarity is greater than a predetermined threshold. At this time, if there are a plurality of people whose feature amount similarity is greater than a predetermined threshold, the feature amount is associated with the person with the maximum similarity. If there is no person whose feature quantity similarity is greater than a predetermined threshold, the person is not associated with the person imaged in the previous processing target frame image.

s12で前回の処理対象フレーム画像に撮像されていた人に対応付けた人は、仮IDを破棄し、今回対応付けた人に付与されている本IDを設定する。また、s12で対応付けた前回の処理対象フレーム画像に撮像されていた人に本IDが付与されていなければ(仮IDを保持していれば)、これらの仮IDを破棄して、新たに生成した本IDを設定する。また、s12で前回の処理対象フレーム画像に撮像されていた人と対応付けられなかった人は、その人に付与されている仮IDを保持する。仮IDを保持する人は、前回の処理対象フレーム画像の撮像タイミングから、今回の処理対象フレーム画像の撮像タイミングまでの間に、撮像装置10の撮像エリア内に進入した人や、前回の処理対象フレーム画像に対する処理で適正に検出されなかった人等である。   The person associated with the person imaged in the previous processing target frame image in s12 discards the temporary ID and sets the real ID assigned to the person associated this time. Also, if the real ID is not given to the person captured in the previous processing target frame image associated in s12 (if the temporary ID is held), these temporary IDs are discarded and newly added. Set the generated book ID. Moreover, the person who was not matched with the person imaged by the last process target frame image by s12 hold | maintains temporary ID provided to the person. The person holding the temporary ID is the person who entered the imaging area of the imaging device 10 between the imaging timing of the previous processing target frame image and the imaging timing of the current processing target frame image, or the previous processing target. For example, a person who has not been properly detected by processing the frame image.

オブジェクト同定機能部32は、2段階同定フラグがオンされているか、オフされているかを判定する(s13)。この2段階同定フラグは、後述するように、前回の処理対象フレーム画像に撮像されていた人の中に、本IDが付与されていない(仮IDを保持している。)人がいる場合や、前々回の処理対象フレーム画像に撮像されていた人の中に、前回の処理対象フレーム画像に撮像されていた人に対応付けられなかった人がいる場合にオンされている。   The object identification function unit 32 determines whether the two-stage identification flag is turned on or off (s13). As will be described later, this two-stage identification flag may be used when there is a person who has not been given the real ID (has a temporary ID) among those who have been captured in the previous processing target frame image. This is turned on when there is a person who has not been associated with the person imaged in the previous process target frame image among the persons imaged in the previous process target frame image.

オブジェクト同定機能部32は、2段階同定フラグがオンされていると、今回の処理対象フレーム画像に撮像されていた人であって、この時点において本IDが付与されていない人(s12で前回の処理対象フレーム画像に撮像されていた人に対応付けされなかった人)について、前々回の処理対象フレーム画像に撮像されていた人との対応付けを行う(s14)。s14では、前々回の処理対象フレーム画像に撮像されていた人であっても、前回の処理対象フレーム画像に撮像されていた人と対応付けされている人については、このs14にかかる処理の対象外である。言い換えれば、前々回の処理対象フレーム画像に撮像されていた人であって、前回の処理対象フレーム画像に撮像されていた人と対応付けされなかった人が対象である。このs14にかかる処理も、上述したs12と同様に、特徴量の類似度を算出し、対応付けを行う。   When the two-stage identification flag is turned on, the object identification function unit 32 is a person who has been imaged in the current processing target frame image and has not been given this ID at this time (the previous one in s12) The person who has not been associated with the person captured in the processing target frame image is associated with the person who has been captured in the previous processing target frame image (s14). In s14, even if the person is captured in the previous processing target frame image, the person associated with the person captured in the previous processing target frame image is not subject to the processing related to s14. It is. In other words, a person who has been captured in the previous processing target frame image and is not associated with a person who has been captured in the previous processing target frame image is the target. Also in the processing related to s14, similar to s12 described above, the similarity of the feature amount is calculated and associated.

オブジェクト同定機能部32は、今回の処理対象フレーム画像に撮像されている人の中に、仮IDを保持している人がいるかどうか、および、前回の処理対象フレーム画像に撮像されていた人の中に、今回の処理対象フレーム画像に撮像されていた人が対応付けられなかった人がいるかどうかを判定する(s15、s16)。   The object identification function unit 32 determines whether there is a person holding a temporary ID among the people imaged in the current processing target frame image, and the information of the person imaged in the previous processing target frame image. It is determined whether there is a person who has not been associated with the person captured in the current processing target frame image (s15, s16).

オブジェクト同定機能部32は、今回の処理対象フレーム画像に撮像されている人の中に、仮IDを保持している人がおらず、且つ、前回の処理対象フレーム画像に撮像されていた人の中に、今回の処理対象フレーム画像に撮像されていた人に対応付けられなかった人がいなければ、2段階同定フラグをオフに設定し(s17)、その他の場合に、2段階同定フラグをオンに設定し(s18)、この同定処理を終了する。   The object identification function unit 32 does not have a person who holds the temporary ID among the people imaged in the current processing target frame image and the person who has been imaged in the previous processing target frame image. If there is no person who is not associated with the person imaged in the current processing target frame image, the two-stage identification flag is set to off (s17). In other cases, the two-stage identification flag is turned on. (S18), and the identification process is terminated.

上述の同定処理を、具体的な例で説明する。まず、前々回の処理対象フレーム画像の撮像タイミングから、前回の処理対象フレーム画像の撮像タイミングまでの間に、撮像装置10の撮像エリア内に人Cが進入した図9に示す場合を例にして説明する。図9に示す各処理対象フレーム画像に撮像されている、人Aは同一人物である。同様に、人Bも同一人物であり、人Cも同一人物である。   The above identification process will be described with a specific example. First, the case illustrated in FIG. 9 in which the person C enters the imaging area of the imaging apparatus 10 between the imaging timing of the processing target frame image two times before and the imaging timing of the previous processing target frame image will be described as an example. To do. The person A captured in each processing target frame image shown in FIG. 9 is the same person. Similarly, person B is the same person, and person C is also the same person.

図9において、人Cは前回の処理対象フレーム画像に対する同定処理で前々回の処理対象フレーム画像に撮像されていたいずれの人にも対応付けられない。したがって、前回の処理対象フレーム画像に対する同定処理が完了した時点で、人Cは仮IDを保持した状態(本IDが付与されていない状態)である。すなわち、前回の処理対象フレーム画像に対する同定処理のs18で2段階同定フラグがオンに設定される。   In FIG. 9, the person C is not associated with any person captured in the previous processing target frame image in the identification processing for the previous processing target frame image. Therefore, at the time when the identification process for the previous processing target frame image is completed, the person C is in a state of holding the temporary ID (a state in which the real ID is not assigned). That is, the two-stage identification flag is set to ON in s18 of the identification process for the previous processing target frame image.

図9に示す今回の処理対象フレーム画像に対する同定処理のs12で、今回の処理対象フレーム画像に撮像されている人Cが、前回の処理対象フレーム画像に撮像されている人Cに対応付けられた時点で、この人Cに対して本IDが付与される。   In s12 of the identification process for the current process target frame image shown in FIG. 9, the person C imaged in the current process target frame image is associated with the person C imaged in the previous process target frame image. At this point, this person C is given a real ID.

したがって、任意のタイミングで撮像装置10の撮像エリア内に進入してきた人Cに対して本IDを付与し、追跡処理を適正に開始できる。   Therefore, the real ID can be given to the person C who has entered the imaging area of the imaging device 10 at an arbitrary timing, and the tracking process can be started appropriately.

なお、図9に示す例では、今回の処理対象フレーム画像に撮像されている人Aは、前回の処理対象フレーム画像に撮像されている人Aに対応付けられ、今回の処理対象フレーム画像に撮像されている人Bは、前回の処理対象フレーム画像に撮像されている人Bに対応付けられる。   In the example illustrated in FIG. 9, the person A captured in the current processing target frame image is associated with the person A captured in the previous processing target frame image, and is captured in the current processing target frame image. The person B who is being associated is associated with the person B imaged in the previous processing target frame image.

次に、図10に示す、前々回の処理対象フレーム画像の撮像タイミングから、前回の処理対象フレーム画像の撮像タイミングまでの間に、撮像装置10の撮像エリア内から撮像エリア外へ、人Cが退出した場合を例にして説明する。図10に示す各処理対象フレーム画像に撮像されている、人Aは同一人物である。同様に、人Bも同一人物であり、人Cも同一人物である。   Next, the person C leaves the imaging area of the imaging apparatus 10 from the imaging area to the outside of the imaging area between the imaging timing of the previous processing target frame image shown in FIG. 10 and the imaging timing of the previous processing target frame image. This will be described as an example. The person A captured in each processing target frame image shown in FIG. 10 is the same person. Similarly, person B is the same person, and person C is also the same person.

図10において、前々回の処理対象フレーム画像に撮像されている人Cは、前回の処理対象フレーム画像に対する同定処理で前回の処理対象フレーム画像に撮像されていた人に対応付けられない。このため、前回の同定処理のs18で2段階同定フラグがオンに設定される。そして、図10に示す今回の処理対象フレーム画像に対する同定処理のs12で、今回の処理対象フレーム画像に撮像されている人Aは、前回の処理対象フレーム画像に撮像されている人Aに対応付けられ、今回の処理対象フレーム画像に撮像されている人Bは、前回の処理対象フレーム画像に撮像されている人Bに対応付けられる。一方、同定処理のs14で、前々回の処理対象フレーム画像に撮像されている人Cは、今回の処理対象フレーム画像に撮像されている人と対応付けられない。   In FIG. 10, the person C captured in the previous processing target frame image is not associated with the person captured in the previous processing target frame image in the identification processing for the previous processing target frame image. For this reason, the two-stage identification flag is set to ON in s18 of the previous identification process. Then, in s12 of the identification process for the current processing target frame image shown in FIG. 10, the person A captured in the current processing target frame image is associated with the person A captured in the previous processing target frame image. The person B captured in the current processing target frame image is associated with the person B captured in the previous processing target frame image. On the other hand, in the identification process s14, the person C captured in the previous processing target frame image is not associated with the person captured in the current processing target frame image.

したがって、撮像装置10の撮像エリア内から撮像エリア外へ退出した人Cに対する追跡処理が適正に終了できる。   Therefore, the tracking process for the person C who has left the imaging area of the imaging device 10 out of the imaging area can be properly terminated.

一方で、上述の図10の説明において、撮像装置10の撮像エリア内から退出したとした、人Cが実際には撮像エリア内から退出しておらず、図11に示すように、前回の処理対象フレーム画像に対するオブジェクト検出処理において、何らかの原因で人Cが適正に検出されていなかった場合、この人Cは、今回の処理対象フレーム画像に撮像されているので、今回の処理対象フレーム画像に対する同定処理のs12で、前回の処理対象フレーム画像に撮像されていたいずれの人にも対応付けられない。しかし、この人Cは、今回の処理対象フレーム画像に対する同定処理のs14で、前々回の処理対象フレーム画像に撮像されていた人Cに対応付けられる。したがって、一時的に見失った人(s2のオブジェクト検出処理において、何らかの原因で適正に検出できなかった人)に対する追跡処理を適正に継続できる。   On the other hand, in the description of FIG. 10 described above, the person C who has left the imaging area of the imaging device 10 does not actually leave the imaging area, and as shown in FIG. In the object detection processing for the target frame image, if the person C is not properly detected for some reason, the person C is captured in the current processing target frame image, and thus is identified for the current processing target frame image. In s12 of the process, it is not associated with any person imaged in the previous process target frame image. However, this person C is associated with the person C who has been captured in the previous processing target frame image in s14 of the identification processing for the current processing target frame image. Therefore, it is possible to properly continue the tracking process for a person who has lost his sight temporarily (a person who cannot be properly detected for some reason in the object detection process of s2).

さらに、図12に示すように、前回の処理対象フレーム画像において、人Aと人Bとが重なったため、前回の処理対象フレーム画像に対する同定処理で、前回の処理対象フレーム画像に重なって撮像されている人A、人Bを、前々回の処理対象フレーム画像に撮像されていた人A、および人Bに対応付けられなかった場合について説明する。この場合、前回の同定処理のs18で2段階同定フラグがオンに設定される。   Further, as shown in FIG. 12, since the person A and the person B overlap in the previous process target frame image, the identification process for the previous process target frame image overlaps the previous process target frame image. A case will be described in which the person A and the person B are not associated with the person A and the person B captured in the previous processing target frame image. In this case, the two-stage identification flag is set to ON in s18 of the previous identification process.

図12に示す例では、今回の処理対象フレーム画像に対する同定処理のs14で、今回の処理対象フレーム画像に撮像されている人Aが、前々回の処理対象フレーム画像に撮像されている人Aに対応付けられ、且つ今回の処理対象フレーム画像に撮像されている人Bが、前々回の処理対象フレーム画像に撮像されている人Bに対応付けられる。   In the example shown in FIG. 12, the person A captured in the current processing target frame image corresponds to the person A captured in the previous processing target frame image in s14 of the identification process for the current processing target frame image. The person B that is attached and is captured in the current processing target frame image is associated with the person B that is captured in the previous processing target frame image.

したがって、人が処理対象フレーム画像上で重なる等して、前回の処理対象フレーム画像に撮像されていた人との対応付けが適正に行えない状態が生じても、それらの人に対する追跡処理を適正に継続できる。   Therefore, even if a person overlaps on the processing target frame image, for example, a situation in which it is impossible to properly associate with the person captured in the previous processing target frame image, the tracking process for those persons is performed appropriately. Can continue.

なお、図9〜図12において示す3つの処理対象フレーム画像は、時間的に連続する3つの処理対象フレーム画像である。   The three processing target frame images shown in FIGS. 9 to 12 are three processing target frame images that are temporally continuous.

また、上記の例では、処理対象フレーム画像間における、検出した人の対応付けを、検出した人の特徴量を用いて行うとしたが、移動方向等を用いて行うようにしてもよい。   Further, in the above example, the detected person is associated with each other between the processing target frame images using the detected person's feature amount, but may be performed using the moving direction or the like.

画像処理部3のオブジェクトマップ作成機能部33が、s3にかかる同定処理を完了すると、今回検出した人毎に、図3に示したオブジェクトマップに処理対象フレーム画像上の大きさS、および処理対象フレーム画像の位置を登録し(s4)、s1に戻る。   When the object map creation function unit 33 of the image processing unit 3 completes the identification processing related to s3, the size S on the processing target frame image and the processing target are displayed on the object map shown in FIG. The position of the frame image is registered (s4), and the process returns to s1.

このように、この例にかかる画像処理装置1では、図7に示した同定処理、特にs14にかかる処理を実行することによって、一時的に見失ったオブジェクト(この例では、人)や、処理対象フレーム画像上で重なったオブジェクトについても、適正に追跡できる。   As described above, in the image processing apparatus 1 according to this example, the identification process shown in FIG. 7, particularly the process according to s <b> 14, is executed, thereby temporarily losing an object (in this example, a person) or a processing target. Objects that overlap on the frame image can also be properly tracked.

次に、この例にかかる画像処理装置1の判定基準設定処理について説明する。この判定基準設定処理は、毎日午前0時等の適当なタイミングで実行する。図13は、判定基準設定処理を示すフローチャートである。   Next, determination criterion setting processing of the image processing apparatus 1 according to this example will be described. This determination criterion setting process is executed every day at an appropriate timing such as midnight. FIG. 13 is a flowchart showing determination criterion setting processing.

集計機能部35は、オブジェクトマップ作成機能部33が作成したオブジェクトマップを参照し、処理対象フレーム画像上おける検出された人の大きさSを区分した段階毎に、時間的に連続する2つの処理対象フレーム画像間における検出された人の処理対象フレーム画像上における水平方向の変化量の分布、および検出された人の処理対象フレーム画像上における垂直方向の変化量の分布を集計する(s21)。図14は、ある大きさSについて、水平方向の変化量を集計した集計結果を示す図である。図14における横軸が水平方向の変化量であり、縦軸が頻度(オブジェクトマップから抽出された抽出数)である。   The counting function unit 35 refers to the object map created by the object map creation function unit 33, and performs two processes that are continuous in time for each stage in which the detected human size S on the processing target frame image is divided. The distribution of the variation in the horizontal direction on the processing target frame image of the detected person between the target frame images and the distribution of the variation in the vertical direction on the processing target frame image of the detected person are tabulated (s21). FIG. 14 is a diagram illustrating a totaling result of totaling the amount of change in the horizontal direction for a certain size S. The horizontal axis in FIG. 14 is the amount of change in the horizontal direction, and the vertical axis is the frequency (the number of extractions extracted from the object map).

判定基準設定機能部36は、集計機能部35の集計結果に基づき、処理対象フレーム画像上おける検出された人の大きさSを区分した段階毎に、時間的に連続する2つの処理対象フレーム画像間における検出された人の処理対象フレーム画像上における水平方向の変化量の正常範囲、および検出された人の処理対象フレーム画像上における垂直方向の変化量の正常範囲を決定する(s22)。s22で決定する正常範囲は、図14に示すように、ピークを略中心にして、60%〜70%の変化量が含まれる範囲を正常範囲に決定する。   The determination criterion setting function unit 36, based on the counting result of the counting function unit 35, has two processing target frame images that are temporally continuous at each stage where the detected human size S on the processing target frame image is divided. The normal range of the amount of change in the horizontal direction on the processing target frame image of the detected person and the normal range of the amount of change in the vertical direction on the processing target frame image of the detected person are determined (s22). As shown in FIG. 14, the normal range determined in s22 is determined as a normal range including a change amount of 60% to 70% with the peak at approximately the center.

判定基準設定機能部36は、s22で処理対象フレーム画像上おける検出された人の大きさSを区分した段階毎に、時間的に連続する2つの処理対象フレーム画像間における検出された人の処理対象フレーム画像上における水平方向の変化量の正常範囲、および検出された人の処理対象フレーム画像上における垂直方向の変化量の正常範囲を決定すると、これを図5に示した判定基準テーブルに設定し(s23)、本処理を終了する。   The determination criterion setting function unit 36 processes the detected person between two processing target frame images that are temporally continuous at each stage in which the size S of the detected person on the processing target frame image is divided in s22. When the normal range of the amount of change in the horizontal direction on the target frame image and the normal range of the amount of change in the vertical direction on the detected processing target frame image of the person are determined, these are set in the determination criterion table shown in FIG. (S23), and this process ends.

なお、この例では、判定基準テーブルに、水平方向の変化量、および垂直方向の変化量を個別に設定するとしたが、時間的に連続する2つの処理対象フレーム画像間における検出された人の位置の変化量である、
((水平方向の変化量)2+(垂直方向の変化量)21/2
を設定する構成にしてもよい。
In this example, the amount of change in the horizontal direction and the amount of change in the vertical direction are individually set in the determination criterion table. However, the position of the detected person between two temporally consecutive frame images to be processed is determined. The amount of change
((Horizontal change amount) 2 + (Vertical change amount) 2 ) 1/2
It may be configured to set.

次に、速度異常者検出処理について説明する。図15は、速度異常者検出処理を示すフローチャートである。この速度異常者検出処理は、オブジェクトマップ作成機能部33が上述の追跡処理でs4を実行する毎に行う。具体的には、移動速度判定機能部34は、オブジェクトマップ作成機能部33が上述の追跡処理のs4で、図3に示したオブジェクトマップに処理対象フレーム画像上の大きさS、および処理対象フレーム画像上の位置を登録した人(以下、判定対象者と言う。)について、この速度異常者検出処理を実行する。   Next, speed abnormality person detection processing will be described. FIG. 15 is a flowchart showing a speed abnormality person detection process. This speed abnormality person detection process is performed every time the object map creation function unit 33 executes s4 in the tracking process described above. Specifically, the moving speed determination function unit 34 determines that the object map creation function unit 33 performs the tracking process s4 described above, and the object map shown in FIG. This speed abnormality person detection process is executed for a person who registers a position on the image (hereinafter referred to as a determination target person).

移動速度判定機能部34は,図5に示した判定基準テーブルから、判定対象者の処理対象フレーム画像上の大きさSに応じた水平方向の変化量の正常範囲、および垂直方向の変化量の正常範囲を読み出す(s31)。   The moving speed determination function unit 34 determines the normal range of the horizontal change amount and the vertical change amount according to the size S on the processing target frame image of the determination target person from the determination reference table shown in FIG. The normal range is read (s31).

移動速度判定機能部34は、判定対象者について、オブジェクトマップを参照し、処理対象フレーム画像上における水平方向変化量、および処理対象フレーム画像上における垂直方向の変化量を算出する(s32)。s32では、この判定対象者について、時間的に最新の2つの処理対象フレーム画像上における位置を用いる。   The moving speed determination function unit 34 refers to the object map for the determination target person, and calculates the horizontal direction change amount on the processing target frame image and the vertical direction change amount on the processing target frame image (s32). In s32, the position on the two latest processing target frame images is used for this determination target person.

移動速度判定機能部34は、s32で算出した処理対象フレーム画像上における水平方向の変化量が正常範囲であるか、およびs32で算出した処理対象フレーム画像上における垂直方向の変化量が正常範囲であるかを判定する(s33、s34)。移動速度判定機能部34は、s32で算出した処理対象フレーム画像上における水平方向の変化量が正常範囲であり、且つ、s32で算出した処理対象フレーム画像上における垂直方向の変化量が正常範囲であれば、速度異常者でないと判定する(s35)。一方、移動速度判定機能部34は、s32で算出した処理対象フレーム画像上における水平方向の変化量、または処理対象フレーム画像上における垂直方向の変化量の少なくとも一方が正常範囲でなければ、速度異常者であると判定する(s36)。   The moving speed determination function unit 34 determines whether the amount of change in the horizontal direction on the processing target frame image calculated in s32 is in the normal range, and the amount of change in the vertical direction on the processing target frame image calculated in s32 is in the normal range. It is determined whether there is (s33, s34). In the moving speed determination function unit 34, the amount of change in the horizontal direction on the processing target frame image calculated in s32 is in the normal range, and the amount of change in the vertical direction on the processing target frame image calculated in s32 is in the normal range. If there is, it is determined that the speed is not abnormal (s35). On the other hand, if at least one of the horizontal change amount on the processing target frame image or the vertical change amount on the processing target frame image calculated in s32 is not within the normal range, the moving speed determination function unit 34 determines that the speed is abnormal. (S36).

なお、図15は、1人の判定対象者に対して速度異常者であるかどうかを判定する処理を示しており、判定対象者が複数人存在するときには、判定対象者毎に、図15に示す処理を繰り返す。   FIG. 15 shows a process for determining whether or not a single determination target person is a speed abnormality person. When there are a plurality of determination target persons, FIG. Repeat the process shown.

画像処理装置1は、移動速度判定機能部34が判定対象者について、s36で速度異常者であると判定すると、出力部4からその旨を上位装置に通知する。   When the movement speed determination function unit 34 determines that the person to be determined is a speed abnormality person in s36, the image processing apparatus 1 notifies the higher-level apparatus to that effect from the output unit 4.

このように、この画像処理装置1は、撮像装置10が撮像した動画像から抽出した処理対象フレーム画像を処理して検出した人について、その人の実空間上の位置を算出することなく、速度異常者であるかどうかを判定する。したがって、画像処理装置の処理負荷が大幅に低減でき、装置本体のコストダウンが図れる。また、撮像装置10の設置時に、撮像される処理対象フレーム画像上の位置と、実空間上の位置と、を対応付けるパラメータを設定する必要が無く、撮像装置10の設置作業が簡単に行える。   As described above, the image processing apparatus 1 can calculate the speed of a person detected by processing the processing target frame image extracted from the moving image captured by the imaging apparatus 10 without calculating the position of the person in the real space. Determine if you are an abnormal person. Therefore, the processing load of the image processing apparatus can be greatly reduced, and the cost of the apparatus main body can be reduced. Further, when installing the imaging apparatus 10, it is not necessary to set parameters for associating the position on the processing target frame image to be imaged with the position in the real space, and the installation operation of the imaging apparatus 10 can be easily performed.

また、この画像処理装置1は、図13に示した判定基準設定処理により、図5に示した判定基準テーブルに設定された判定基準を用いて、速度異常者であるかどうかを判定する。したがって、撮像装置10の撮像エリアの環境に応じて、速度異常者であるかどうかを適正に判定することができる。   Further, the image processing apparatus 1 determines whether or not the person is an abnormal speed by using the determination criterion set in the determination criterion table shown in FIG. 5 by the determination criterion setting process shown in FIG. Therefore, according to the environment of the imaging area of the imaging device 10, it can be determined appropriately whether it is a speed abnormal person.

また、上記の例では、画像処理装置1は、移動速度判定機能部34が判定対象者について、s36で速度異常者であると判定すると、出力部4からその旨を上位装置に通知するとしたが、端末装置からの要求に応じて、s36で速度異常者であると判定した判定対象者が撮像されている部分の動画像を端末装置に送信するようにしてもよい。動画像入力部2に入力された動画像において、s36で速度異常者であると判定した判定対象者が撮像されている部分は、図3に示したオブジェクトマップから得られる。具体的には、s36で速度異常者であると判定した判定対象者の本IDを用いて、オブジェクトマップを検索することにより、この本IDにかかる判定対象者が最初に撮像されていた処理対象フレーム画像と、最後に撮像されていた処理対象フレーム画像とを特定することができる。画像処理装置1は、速度異常者であると判定した判定対象者が最初に撮像されていた処理対象フレーム画像の直前の処理フレーム画像から、最後に撮像されていた処理対象フレーム画像の直後の処理対象フレーム画像までの動画部分(この間に位置する全てのフレーム画像)を端末装置に送信する。   Further, in the above example, when the moving speed determination function unit 34 determines that the determination target person is a speed abnormality person in s36, the image processing apparatus 1 notifies the higher-level apparatus to that effect from the output unit 4. In response to a request from the terminal device, a moving image of a portion where the determination target person who has been determined to be a speed abnormality person in s36 is captured may be transmitted to the terminal apparatus. In the moving image input to the moving image input unit 2, the part where the determination target person determined to be a speed abnormality person in s 36 is captured is obtained from the object map shown in FIG. 3. Specifically, by searching the object map using the main ID of the determination target person determined to be a speed abnormality person in s36, the processing target from which the determination target person related to this main ID was first imaged It is possible to identify the frame image and the processing target frame image that was captured last. The image processing apparatus 1 performs processing immediately after the processing target frame image captured last from the processing frame image immediately before the processing target frame image captured first by the determination target person determined to be a speed abnormality person. The moving image part up to the target frame image (all the frame images located in the meantime) is transmitted to the terminal device.

また、画像処理装置1は、s36で速度異常者であると判定した判定対象者毎に、その判定対象者(速度異常者)が撮像されているフレーム画像を端末装置に送信し、端末装置において、動画像の送信を画像処理装置1に要求する速度異常者の選択が簡単に行えるようにしてもよい。具体的には、オペレータが、端末装置において速度異常者が撮像されているいずれかのフレーム画像を選択すると、端末装置が選択されたフレーム画像に撮像されている速度異常者が撮像されている動画像の送信を画像処理装置1に要求する構成にしてもよい。   Further, the image processing apparatus 1 transmits, to the terminal device, a frame image in which the determination target person (speed abnormal person) is captured for each determination target person determined to be a speed abnormal person in s36. Alternatively, it may be possible to easily select a speed abnormal person who requests the image processing apparatus 1 to transmit a moving image. Specifically, when the operator selects any one of the frame images in which the speed abnormality person is captured in the terminal device, the moving image in which the speed abnormality person is captured in the selected frame image of the terminal device. The image processing apparatus 1 may be requested to transmit an image.

また、上記の例では、検出対象のオブジェクトを人としたが、車両等の他の種類の移動体であってもよい。   In the above example, the object to be detected is a person, but other types of moving bodies such as vehicles may be used.

1−画像処理装置
2−動画像入力部
3−画像処理部
4−出力部
10−撮像装置
31−オブジェクト検出機能部
32−オブジェクト同定機能部
33−オブジェクトマップ作成機能部
34−移動速度判定機能部
35−集計機能部
36−判定基準設定機能部
1-Image processing device 2-Moving image input unit 3-Image processing unit 4-Output unit 10-Imaging device 31-Object detection function unit 32-Object identification function unit 33-Object map creation function unit 34-Movement speed determination function unit 35-Aggregating function unit 36-Criteria setting function unit

Claims (5)

撮像装置が対象エリアを撮像した動画像が入力される動画像入力部と、
前記動画像入力部に入力された動画像から、予め定めた間隔で抽出したフレーム画像を処理対象フレーム画像として処理し、この処理対象フレーム画像に撮像されているオブジェクトを検出するとともに、検出したオブジェクトの位置を検出するオブジェクト検出部と、
前記オブジェクト検出部が検出したオブジェクトを、処理対象フレーム画像間で対応付ける同定部と、を備え、
前記同定部は、時間的に連続する3つの処理対象フレーム画像を用い、これら3つの処理対象フレーム画像間で撮像されているオブジェクトを対応付ける、画像処理装置。
A moving image input unit to which a moving image in which the imaging device captures the target area is input;
A frame image extracted at a predetermined interval from the moving image input to the moving image input unit is processed as a processing target frame image, an object captured in the processing target frame image is detected, and the detected object An object detection unit for detecting the position of
An identification unit that associates the object detected by the object detection unit between processing target frame images,
The identification unit is an image processing apparatus that uses three processing target frame images that are temporally continuous and associates an object captured between the three processing target frame images.
前記同定部は、時間的に連続する3つの処理対象フレーム画像の中で、時間的に中間に位置しない2つの処理対象フレーム画像間における、撮像されているオブジェクトの類似度に基づいて、これら3つの処理対象フレーム画像間で撮像されているオブジェクトを対応付ける、請求項1に記載の画像処理装置。   Based on the similarity of the imaged object between two processing target frame images that are not temporally intermediate among the three processing target frame images that are temporally continuous, The image processing apparatus according to claim 1, wherein an object captured between two processing target frame images is associated. 前記同定部は、時間的に連続する3つの処理対象フレーム画像の中で、時間的に中間に位置する処理対象フレーム画像上で複数のオブジェクトが重なっているとき、時間的に中間に位置しない2つの処理対象フレーム画像間における、撮像されているオブジェクトの類似度に基づいて、これら3つの処理対象フレーム画像間で撮像されているオブジェクトを対応付ける、請求項1に記載の画像処理装置。   The identification unit is not positioned in the middle in time when a plurality of objects are overlapped on the processing target frame image in the middle in time among the three processing target frame images in time. The image processing apparatus according to claim 1, wherein objects captured between these three processing target frame images are associated with each other based on the similarity of the captured object between the two processing target frame images. 動画像入力部に入力された、対象エリアを撮像装置で撮像した動画像から、予め定めた間隔で抽出したフレーム画像を処理対象フレーム画像として処理し、この処理対象フレーム画像に撮像されているオブジェクトを検出するとともに、検出したオブジェクトの位置を検出するオブジェクト検出ステップと、
前記オブジェクト検出ステップが検出したオブジェクトを、前記処理対象フレーム画像間で対応付ける同定ステップと、を備え、
前記同定ステップは、時間的に連続する3つの前記処理対象フレーム画像を用い、これら3つの前記処理対象フレーム画像間で撮像されているオブジェクトを対応付ける、追跡方法。
An object captured in the processing target frame image by processing a frame image extracted at a predetermined interval from a moving image in which the target area is captured by the imaging device and input to the moving image input unit. And an object detection step for detecting the position of the detected object,
An identification step of associating the object detected in the object detection step between the processing target frame images,
The tracking method, wherein the identifying step uses the three processing target frame images that are temporally continuous, and associates the imaged object between the three processing target frame images.
動画像入力部に入力された、対象エリアを撮像装置で撮像した動画像から、予め定めた間隔で抽出したフレーム画像を処理対象フレーム画像として処理し、この処理対象フレーム画像に撮像されているオブジェクトを検出するとともに、検出したオブジェクトの位置を検出するオブジェクト検出ステップと、
前記オブジェクト検出ステップが検出したオブジェクトを、前記処理対象フレーム画像間で対応付ける同定ステップと、をコンピュータに実行させる追跡プログラムであって、
前記同定ステップは、時間的に連続する3つの前記処理対象フレーム画像を用い、これら3つの前記処理対象フレーム画像間で撮像されているオブジェクトを対応付ける、追跡プログラム。
An object captured in the processing target frame image by processing a frame image extracted at a predetermined interval from a moving image in which the target area is captured by the imaging device and input to the moving image input unit. And an object detection step for detecting the position of the detected object,
An identification step for associating the object detected in the object detection step between the processing target frame images, and a tracking program for causing a computer to execute the identification step,
In the tracking program, the identification step uses the three processing target frame images that are temporally continuous, and associates an object captured between the three processing target frame images.
JP2014056996A 2014-03-19 2014-03-19 Image processing apparatus, tracking method, and tracking program Active JP6337545B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014056996A JP6337545B2 (en) 2014-03-19 2014-03-19 Image processing apparatus, tracking method, and tracking program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014056996A JP6337545B2 (en) 2014-03-19 2014-03-19 Image processing apparatus, tracking method, and tracking program

Publications (2)

Publication Number Publication Date
JP2015179439A true JP2015179439A (en) 2015-10-08
JP6337545B2 JP6337545B2 (en) 2018-06-06

Family

ID=54263423

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014056996A Active JP6337545B2 (en) 2014-03-19 2014-03-19 Image processing apparatus, tracking method, and tracking program

Country Status (1)

Country Link
JP (1) JP6337545B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021124959A1 (en) * 2019-12-16 2021-06-24 オムロン株式会社 Abnormal movement detection device and abnormal movement detection method

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07192136A (en) * 1993-11-22 1995-07-28 Nippon Telegr & Teleph Corp <Ntt> Object tracking method and device
JP2013210705A (en) * 2012-03-30 2013-10-10 Mega Chips Corp Object detector

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07192136A (en) * 1993-11-22 1995-07-28 Nippon Telegr & Teleph Corp <Ntt> Object tracking method and device
JP2013210705A (en) * 2012-03-30 2013-10-10 Mega Chips Corp Object detector

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
川村 秀男、外2名: ""移動物体検出法の検討"", 第56回(平成10年前期)全国大会講演論文集(2), JPN6017046451, 19 March 1998 (1998-03-19), JP, pages 1 - 2, ISSN: 0003696225 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021124959A1 (en) * 2019-12-16 2021-06-24 オムロン株式会社 Abnormal movement detection device and abnormal movement detection method

Also Published As

Publication number Publication date
JP6337545B2 (en) 2018-06-06

Similar Documents

Publication Publication Date Title
US20190347528A1 (en) Image analysis system, image analysis method, and storage medium
US20190325229A1 (en) Target object identifying device, target object identifying method and target object identifying program
US20180115749A1 (en) Surveillance system and surveillance method
JP6233624B2 (en) Information processing system, information processing method, and program
US9621857B2 (en) Setting apparatus, method, and storage medium
CN112150514A (en) Pedestrian trajectory tracking method, device and equipment of video and storage medium
JP2013240013A (en) Video processing device, management method for tracking object, and program
WO2017064838A1 (en) Facial detection device, facial detection system provided with same, and facial detection method
JP6769475B2 (en) Information processing system, management method for authentication, and program
US10659680B2 (en) Method of processing object in image and apparatus for same
JP2017220151A (en) Information processing unit, information processing method, and program
US10783365B2 (en) Image processing device and image processing system
JP6337545B2 (en) Image processing apparatus, tracking method, and tracking program
WO2020179730A1 (en) Information processing device, information processing method, and program
JP2016207185A (en) Movement determination device, movement determination method, and movement determination program
JP6098631B2 (en) Analysis processing device
US11074696B2 (en) Image processing device, image processing method, and recording medium storing program
KR20150071920A (en) Apparatus and method for counting person number using face identification
JP7327923B2 (en) Information processing device, information processing method, system and program
JP6301759B2 (en) Face identification device and program
JP6337544B2 (en) Image processing apparatus, moving speed determination method, and moving speed determination program
US10839552B2 (en) Image processing apparatus, tracking method, and program
JP7067593B2 (en) Information processing system, management method for authentication, and program
JP2014191479A (en) Face recognition device, image pickup device, control method, and program
US20170163868A1 (en) Apparatus and method for controlling network camera

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20161209

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20171128

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20171205

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180125

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180410

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180423

R150 Certificate of patent or registration of utility model

Ref document number: 6337545

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150