JP2019204374A - Object detecting apparatus - Google Patents

Object detecting apparatus Download PDF

Info

Publication number
JP2019204374A
JP2019204374A JP2018100067A JP2018100067A JP2019204374A JP 2019204374 A JP2019204374 A JP 2019204374A JP 2018100067 A JP2018100067 A JP 2018100067A JP 2018100067 A JP2018100067 A JP 2018100067A JP 2019204374 A JP2019204374 A JP 2019204374A
Authority
JP
Japan
Prior art keywords
frame
image
detection
unit
person
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018100067A
Other languages
Japanese (ja)
Other versions
JP7146450B2 (en
Inventor
栗原 正和
Masakazu Kurihara
正和 栗原
翠 勝俣
Akira Katsumata
翠 勝俣
川崎 栄嗣
Eiji Kawasaki
栄嗣 川崎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Signal Co Ltd
Original Assignee
Nippon Signal Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Signal Co Ltd filed Critical Nippon Signal Co Ltd
Priority to JP2018100067A priority Critical patent/JP7146450B2/en
Publication of JP2019204374A publication Critical patent/JP2019204374A/en
Application granted granted Critical
Publication of JP7146450B2 publication Critical patent/JP7146450B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Closed-Circuit Television Systems (AREA)
  • Image Analysis (AREA)

Abstract

To provide an object detecting apparatus which can increase visibility of a detection target in captured continuous images.SOLUTION: As to a detection target in captured continuous images, a frame with a size determined based upon a position of an image region is drawn in an image of each frame by setting, as a start point, a reference position for use in determination of a position of a detected object. Thus, fluctuations in position and size of a frame drawn in the captured continuous images are inhibited so as to allow the detection object as an image with a frame to have high visibility.SELECTED DRAWING: Figure 6

Description

本発明は、撮像した画像に基づいて検出対象の物体について検出を行う物体検出装置に関する。   The present invention relates to an object detection apparatus that detects an object to be detected based on a captured image.

例えば撮像した画像から、人体やその一部である顔の画像を検出して画像処理を行うものとして、検出した顔(顔画像)について顔検出枠あるいは顔検出枠データを出力するもの(特許文献1、2参照)が知られている。   For example, a face detection frame or face detection frame data is output for a detected face (face image) on the assumption that an image of a human body or a part of the face is detected from the captured image and image processing is performed (Patent Document) 1 and 2) are known.

例えば、上記特許文献1では、顔検出枠データについて、映像のフレーム間での対応付けをしており、上記特許文献2では、切り出した顔画像のサイズを変更してコンテンツ画像との合成をしている。   For example, in Patent Document 1, the face detection frame data is associated between video frames, and in Patent Document 2, the size of the cut face image is changed and combined with the content image. ing.

上記特許文献1、2での顔検出や人物検出に関しては、例えば、画面上をスキャンし、人検出器のスコアを基に人を特定するといった態様になっていると考えられるが、このような方法を採用した場合、例えば、日照条件や撮像位置から検出対象までの距離等の各種撮像状況によっては、撮像した連続画像中において検出対象に応じて出力される枠の位置や大きさに変動が生じ、視認性が悪くなる可能性がある。   Regarding the face detection and person detection in Patent Documents 1 and 2, for example, it is considered that the screen is scanned and the person is identified based on the score of the human detector. When the method is adopted, for example, depending on various imaging conditions such as the sunshine conditions and the distance from the imaging position to the detection target, the position and size of the frame output according to the detection target in the captured continuous image varies. May occur and visibility may deteriorate.

特開2012−94103号公報JP 2012-94103 A 特開2014−67117号公報JP 2014-67117 A

本発明は上記した点に鑑みてなされたものであり、撮像した連続画像中における検出対象について視認性を高くすることができる物体検出装置を提供することを目的とする。   The present invention has been made in view of the above points, and an object of the present invention is to provide an object detection device that can increase the visibility of a detection target in a captured continuous image.

上記目的を達成するための物体検出装置は、連続画像中における検出対象の部分画像について基準位置を決定する基準位置決定部と、画像中の位置ごとに定めたスケール換算により、検出対象の部分画像を囲う枠のサイズを定めるスケール換算枠設定部と、基準位置決定部で決定された基準位置を基点として、スケール換算枠設定部での設定により定まる枠を、連続画像を構成するフレームごとの画像に描画する枠描画部とを備える。   An object detection apparatus for achieving the above object includes a reference position determination unit that determines a reference position for a partial image to be detected in a continuous image, and a partial image to be detected by scale conversion determined for each position in the image. The frame conversion frame setting unit that determines the size of the frame that surrounds the frame, and the frame determined by the setting in the scale conversion frame setting unit with the reference position determined by the reference position determination unit as the base image And a frame drawing unit for drawing.

上記物体検出装置では、連続画像中における検出対象の部分画像の基準位置を基点として、画像範囲の位置ごとにサイズを定めた枠を、フレームごとの画像に描画することで、撮像した連続画像中において描画される枠の位置や大きさの変動を抑え、枠付きの画像としての検出対象を、視認性の高いものにできる。   In the above object detection apparatus, a frame whose size is determined for each position of the image range is drawn on the image for each frame from the reference position of the partial image to be detected in the continuous image as a base point. The variation of the position and size of the frame drawn in FIG. 3 can be suppressed, and the detection target as an image with a frame can be made highly visible.

本発明の具体的な側面では、スケール換算枠設定部は、定位置から撮像された画像において、画像中の各位置での枠のサイズを、対応する実際の各位置から撮像位置までの距離に基づいて定める。この場合、距離に応じた適正サイズの枠を画像内に表示できる。   In a specific aspect of the present invention, the scale conversion frame setting unit sets the frame size at each position in the image to the distance from the corresponding actual position to the imaging position in the image captured from the fixed position. Determine based on. In this case, a frame of an appropriate size according to the distance can be displayed in the image.

本発明の別の側面では、人物画像の抽出により、検出対象を人とする人検出を行う人検出部を備え、基準位置決定部は、人検出部において特定された人物画像の足元の位置を、決定すべき基準位置とする。この場合、人を検出対象の物体とすることができ、例えば駅の構内にいる人の動きについて視認性を高められる。   In another aspect of the present invention, a human detection unit that performs human detection using a human image as a detection target is provided, and the reference position determination unit determines the position of the foot of the human image specified by the human detection unit. The reference position to be determined. In this case, a person can be set as an object to be detected. For example, the visibility of the movement of a person on the station premises can be improved.

本発明のさらに別の側面では、スケール換算枠設定部において設定される枠は、検出対象としての人の比率に対応した矩形状である。この場合、検出対象である人を捉える枠としてのサイズや形状を適正なものにできる。   In still another aspect of the present invention, the frame set in the scale conversion frame setting unit has a rectangular shape corresponding to the ratio of people as detection targets. In this case, the size and shape as a frame for capturing the person who is the detection target can be made appropriate.

本発明のさらに別の側面では、連続画像データ中のフレーム間で画像を関連付けて同一物体をトラッキングするトラッキング処理部を有し、枠描画部は、トラッキング処理部での同一物体の関連付けに応じて、枠の描画を行うか否かを決定する。この場合、トラッキング処理部により撮像された物体の識別を確実に行いつつ、これに応じて適切な枠の描画が可能になる。   In still another aspect of the present invention, the image processing apparatus includes a tracking processing unit that associates images between frames in continuous image data and tracks the same object, and the frame drawing unit responds to the association of the same object in the tracking processing unit. Then, it is determined whether or not to draw a frame. In this case, the object captured by the tracking processing unit can be reliably identified, and an appropriate frame can be drawn accordingly.

本発明のさらに別の側面では、枠描画部は、新規の検出対象について枠の描画を行わない。この場合、誤検出により対象とする物体以外のものを捉えてしまった場合であっても、誤検出したものに対して枠の描画をしてしまうことを抑制できる。   In still another aspect of the present invention, the frame drawing unit does not draw a frame for a new detection target. In this case, even if the object other than the target object is caught due to erroneous detection, it is possible to prevent the frame from being drawn on the erroneously detected object.

本発明のさらに別の側面では、トラッキング処理部は、検出対象についての部分画像に関して、連続画像中のフレーム間において一時的に未検出となっても、所定フレーム数内に対応する部分画像を再度検出した場合には、関連付けて同一物体として取り扱う。この場合、一時的に未検出となってしまった場合でも、検出された物体に対する枠の描画を継続できる。   In yet another aspect of the present invention, the tracking processing unit re-submits a partial image corresponding to a predetermined number of frames even if the partial image of the detection target is temporarily undetected between frames in the continuous image. If detected, they are associated and handled as the same object. In this case, it is possible to continue drawing the frame on the detected object even if it is temporarily undetected.

本発明のさらに別の側面では、枠描画部は、トラッキング処理部で同一物体として関連付けられた検出対象のフレーム間における連続検出数、累積検出数及び連続未検出数の少なくともいずれかに基づいて、枠の描画を行うか否かを決定する。物体に対する枠の描画について適正な状態に維持できる。   In still another aspect of the present invention, the frame drawing unit is based on at least one of the continuous detection number, the cumulative detection number, and the continuous non-detection number between detection target frames associated as the same object in the tracking processing unit. Decide whether to draw a frame. It is possible to maintain an appropriate state for drawing the frame on the object.

実施形態に係る物体検出装置を概念的に示すブロック図である。1 is a block diagram conceptually showing an object detection apparatus according to an embodiment. 物体検出装置を配備した駅の様子を示す概念図である。It is a conceptual diagram which shows the mode of the station which deployed the object detection apparatus. 物体検出装置を配備した駅の様子を示す概念的な平面図である。It is a conceptual top view which shows the mode of the station which provided the object detection apparatus. (A)〜(C)は、トラッキングされる人物の様子について一例を示す概念的な画像図である。(A)-(C) are conceptual image figures which show an example about the mode of the person tracked. 人検知部での検知に関して説明するための概念的な画像図である。It is a conceptual image figure for demonstrating regarding the detection in a person detection part. (A)及び(B)は、枠の設定について一例を説明するための概念的な画像図であり、(C)は、枠のサイズと画像上の位置との関係を示す概念図であり、(D)は、枠のサイズと画像上の位置との設定方法について概念的に説明するためのグラフである。(A) And (B) is a conceptual image figure for demonstrating an example about the setting of a frame, (C) is a conceptual diagram which shows the relationship between the size of a frame, and the position on an image, (D) is a graph for conceptually explaining a method for setting the frame size and the position on the image. 物体検出装置の全体動作の一例を説明するためのフローチャートである。It is a flowchart for demonstrating an example of the whole operation | movement of an object detection apparatus. (A)〜(C)は、フレーム間での関連付けの各態様について説明するための概念的な画像図である。(A)-(C) is a conceptual image figure for demonstrating each aspect of the correlation between frames. トラッキング処理の一例について説明するための概念的な画像図である。It is a conceptual image figure for demonstrating an example of a tracking process. 図9に示すトラッキング処理におけるフレーム間での関連付けの結果について他の一例を示すタイムチャートである。10 is a time chart showing another example of the result of association between frames in the tracking process shown in FIG. 9. データ管理の処理について一例を説明するためのフローチャートである。It is a flowchart for demonstrating an example about the process of data management.

以下、図1等を参照して、本実施形態に係る物体検出装置について一例を説明する。図1は、本実施形態に係る物体検出装置100を概念的に示すブロック図であり、図2及び図3は、物体検出装置100を配備した駅STの様子を示す概念的な図である。なお、図2では、列車TRが線路TKに停車した状態を示しており、図3では、線路TKにおいて列車の描画を省略している。ここでは、一例として、列車TRが発着可能な駅STのホーム(プラットホーム)PFを物体検出装置100による監視対象エリアとしている。すなわち、駅STのホームPFにいる利用者HUを物体検出の対象とし、ホームPFにおける利用者HUの位置が分かるように、検出対象である利用者HUを撮像した部分画像を抽出するとともに、当該部分画像すなわち画像中の人物を囲う枠FRの表示(図4参照)を行っている。これにより、例えば利用者HUの列車TRへの乗り降り等に際して、乗務員や駅員が表示画像を介して安全確認を行う上で、人すなわち利用者HUの存在位置を枠に基づいてより認識しやすいようにしている。なお、図2及び図3では、列車TRの進行方向を+Z方向とし、Z方向に垂直な面内において、垂直方向すなわち上下方向をY方向とし、Z方向及びY方向の双方に直交する方向である水平方向をX方向とする。   Hereinafter, an example of the object detection apparatus according to the present embodiment will be described with reference to FIG. FIG. 1 is a block diagram conceptually showing an object detection device 100 according to the present embodiment, and FIGS. 2 and 3 are conceptual diagrams showing a state of a station ST in which the object detection device 100 is provided. FIG. 2 shows a state where the train TR has stopped on the track TK, and FIG. 3 omits drawing of the train on the track TK. Here, as an example, the platform (platform) PF of the station ST where the train TR can arrive and depart is set as the monitoring target area by the object detection device 100. That is, the user HU in the station PF's home PF is set as an object detection target, and a partial image obtained by capturing the user HU as the detection target is extracted so that the position of the user HU in the home PF can be understood. A partial image, that is, a frame FR surrounding a person in the image is displayed (see FIG. 4). Thus, for example, when a passenger HU gets on and off the train TR, etc., the crew member or station staff can more easily recognize the presence position of the person, that is, the user HU based on the frame when performing safety confirmation via the display image. I have to. 2 and 3, the traveling direction of the train TR is the + Z direction, and in the plane perpendicular to the Z direction, the vertical direction, that is, the vertical direction is the Y direction, and the direction is perpendicular to both the Z direction and the Y direction. Let a certain horizontal direction be the X direction.

上記目的を達成するため、物体検出装置100は、利用者HUの駅構内(特にホームPF上)における検出対象たる人の検出を撮像した画像に基づいて行うとともに、検出された人の位置を的確に捉え、さらに、検出された人の画像上の大きさや位置に合わせた枠FR(図4参照)の設定や表示といった各種処理あるいは画像の加工を行っている。ここでは、代表例として、図2や図3に示すように、ホームPF上にいる利用者HUの存在を確認し、各種処理を行った画像を表示することで、駅員SAによって監視可能な状態にしている。なお、ここでの一例では、図2に示すように、列車TRの乗務員(運転士や車掌)によって確認可能なように、列車TRの停止位置の近傍にモニター等のディスプレイ表示部DAを設けている。   In order to achieve the above object, the object detection apparatus 100 performs detection of a person who is a detection target in the station premises of the user HU (particularly on the home PF) based on the captured image, and accurately detects the position of the detected person. In addition, various processes such as setting and display of a frame FR (see FIG. 4) according to the size and position of the detected person on the image and processing of the image are performed. Here, as a representative example, as shown in FIG. 2 and FIG. 3, a state that can be monitored by the station clerk SA by confirming the presence of the user HU on the home PF and displaying various processed images. I have to. In an example here, as shown in FIG. 2, a display unit DA such as a monitor is provided in the vicinity of the stop position of the train TR so that it can be confirmed by a crew member (driver or conductor) of the train TR. Yes.

以下、図1等を参照して、本実施形態における物体検出装置100の構成等について具体的に説明する。本実施形態に係る物体検出装置100は、利用者HUすなわちホームPF上を移動する人を検知するために監視対象エリアを撮像する撮像部(撮像カメラ)10と、撮像部10で取得した画像データに基づいて視覚障碍者を検出すべく各種処理及び制御を行う制御装置50と、制御装置50での処理結果に基づき画像表示を行うディスプレイ表示部DAとを備える。   Hereinafter, with reference to FIG. 1 etc., the structure of the object detection apparatus 100 in this embodiment, etc. are demonstrated concretely. The object detection apparatus 100 according to the present embodiment includes an imaging unit (imaging camera) 10 that images a monitoring target area in order to detect a user HU, that is, a person moving on a home PF, and image data acquired by the imaging unit 10. The control device 50 that performs various processes and controls to detect a visually impaired person based on the above, and the display display unit DA that performs image display based on the processing results in the control device 50 are provided.

撮像部10は、例えばCCDやCMOS等の個体撮像素子で構成される撮像カメラであり、図2及び図3に例示するように、ホームPFの上方側(+Y側)に固定的に設置され、下方側(−Y側に成分を有する方向)を撮像する。すなわち、撮像部10により上方側からホームPFの床面FLに向けて監視対象エリアについての定点観測のための撮像が行われる。また、ここでは、連続画像データ中のフレーム間で画像を関連付けて同一人物をトラッキングするトラッキング処理を可能とすべく、連続画像データとして、例えば30fpsのフレームレートで2次元画像データを取得している。なお、撮像部10については、ホームPF全体についての撮像を可能とすべく、設置位置やホームPFの形状等に応じて、単数又は複数設けられている。   The imaging unit 10 is an imaging camera composed of an individual imaging element such as a CCD or a CMOS, for example, and is fixedly installed on the upper side (+ Y side) of the home PF as illustrated in FIGS. 2 and 3. The lower side (the direction having a component on the −Y side) is imaged. That is, the imaging unit 10 performs imaging for fixed point observation of the monitoring target area from the upper side toward the floor surface FL of the home PF. Here, in order to enable tracking processing for associating images between frames in continuous image data and tracking the same person, two-dimensional image data is acquired as continuous image data, for example, at a frame rate of 30 fps. . Note that one or more imaging units 10 are provided depending on the installation position, the shape of the home PF, and the like so as to enable imaging of the entire home PF.

制御装置50は、例えばCPUや記憶装置等により構成され、撮像部10により取得された連続画像データについての各種処理を行い、処理結果としての画像をディスプレイ表示部DAに表示している。上記処理を可能とするため、図1に例示するように、制御装置50は、主制御部60と、記憶部70と、画像処理部80とを備える。   The control device 50 is configured by, for example, a CPU, a storage device, and the like, performs various processes on the continuous image data acquired by the imaging unit 10, and displays an image as a processing result on the display display unit DA. In order to enable the above processing, as illustrated in FIG. 1, the control device 50 includes a main control unit 60, a storage unit 70, and an image processing unit 80.

主制御部60は、例えばCPU等で構成され、人の存在を検出する人検出部61や、同一人物をトラッキングするトラッキング処理部62、あるいは検出された人の部分画像について基準位置を決定する基準位置決定部63、さらには、検出された人の部分画像を囲う枠のサイズを定めるスケール換算枠設定部64や、スケール換算枠設定部64での設定により定まる枠を画像処理部80により描画させる枠描画部65として機能する。   The main control unit 60 includes, for example, a CPU and the like, and includes a human detection unit 61 that detects the presence of a person, a tracking processing unit 62 that tracks the same person, or a reference that determines a reference position for a detected partial image of the person. The position determination unit 63, and further, the scale conversion frame setting unit 64 that determines the size of a frame that surrounds the detected partial image of the person, and the image processing unit 80 draw a frame determined by the setting in the scale conversion frame setting unit 64. It functions as a frame drawing unit 65.

人検出部61は、各種情報処理を行うことにより、撮像部10で取得された2次元画像である連続画像データから機械学習による形状抽出によって人物画像(画像中の部分画像)を抽出する。   The human detection unit 61 performs various types of information processing to extract a human image (partial image in the image) from the continuous image data that is a two-dimensional image acquired by the imaging unit 10 by shape extraction by machine learning.

トラッキング処理部62は、撮像部10から取得した連続画像データ中のフレーム間で画像を関連付けることで、人検出部61によって抽出された人物画像について同一人物のトラッキングを可能にしている。このため、トラッキング処理部62は、記憶部70から適宜プログラムを読み出して、人検出部61において検出あるいは抽出された各人物画像について、連続画像データ中のフレーム間で画像を関連付けする処理を行う。   The tracking processing unit 62 associates images between frames in the continuous image data acquired from the imaging unit 10, thereby enabling tracking of the same person with respect to the person image extracted by the person detection unit 61. For this reason, the tracking processing unit 62 reads out a program from the storage unit 70 as appropriate, and performs processing for associating images between frames in the continuous image data for each human image detected or extracted by the human detection unit 61.

基準位置決定部63は、人検出部61で検出された連続画像中における検出対象である人の部分画像について、基準位置を決定する。ここでは、基準位置の一例として、人検出部61において特定された人物画像の足元の位置を採用する。すなわち、本実施形態では、2次元平面の画像中における足元の位置を示す1点(一画素)の座標を、検出された人が存在する位置を示す基準位置とすることで、人の存在位置を特定する。   The reference position determination unit 63 determines a reference position for a partial image of a person who is a detection target in the continuous images detected by the person detection unit 61. Here, as an example of the reference position, the position of the foot of the person image specified by the person detection unit 61 is employed. That is, in the present embodiment, the position of the person is obtained by setting the coordinates of one point (one pixel) indicating the position of the foot in the two-dimensional plane image as a reference position indicating the position where the detected person exists. Is identified.

スケール換算枠設定部64は、人検出部61で検出された人の部分画像について、図4等に例示するように、人の部分画像を囲う枠FRの形状やサイズを定めている。ここでの一例では、基準位置決定部63で決定された人物画像の足元の位置を基点として、人の比率に対応した矩形状の枠FRの画像を表示可能にしている。すなわち、本実施形態では、足元の位置に基づいて、矩形状の枠のサイズを決定する。   The scale conversion frame setting unit 64 determines the shape and size of the frame FR that surrounds the partial human image as illustrated in FIG. 4 and the like for the partial human image detected by the human detection unit 61. In this example, an image of a rectangular frame FR corresponding to the ratio of people can be displayed with the position of the foot of the person image determined by the reference position determination unit 63 as a base point. That is, in this embodiment, the size of the rectangular frame is determined based on the position of the foot.

ここで、スケール換算枠設定部64において枠FRの形状やサイズを定めるための前提として、本実施形態では、撮像部10により定位置から撮像された画像中の位置ごとに予め定めたスケール換算がなされている。例えば、駅STのホームPFにおいて、撮像部10が撮像した定位置からの一定範囲の画像について人検出に関する解析を行う場合、撮像位置すなわち撮像部10の設置位置から撮像されたホームPFの床面FLまでの距離は、画像中の位置ごとに定まっている。見方を換えると、この場合、撮像された各画像を構成するピクセル単位で(画像中の平面座標ごとに)、床面FLまでの撮像距離を予め決定しておくことができる。このような距離に関する情報を利用することで、スケール換算枠設定部64では、撮像部10により定位置から撮像された画像において、画像中の各位置において表示させる枠FRのサイズを、対応する実際の撮像距離に応じて予め定めておくことができる。これにより、実際の距離に応じて適正サイズの枠FRを画像内に表示できる。なお、以上のようなスケール換算の具体的手法の一例については、図6を参照して後述する。   Here, as a premise for determining the shape and size of the frame FR in the scale conversion frame setting unit 64, in the present embodiment, a predetermined scale conversion is performed for each position in the image captured from the fixed position by the imaging unit 10. Has been made. For example, in the home PF of the station ST, when performing analysis related to human detection for an image in a certain range from a fixed position captured by the imaging unit 10, the floor surface of the home PF captured from the imaging position, that is, the installation position of the imaging unit 10 The distance to the FL is determined for each position in the image. In other words, in this case, the imaging distance to the floor surface FL can be determined in advance in units of pixels constituting each captured image (for each plane coordinate in the image). By using such information related to the distance, the scale conversion frame setting unit 64 sets the size of the frame FR to be displayed at each position in the image in the image captured from the fixed position by the imaging unit 10. Can be determined in advance according to the imaging distance. As a result, a frame FR of an appropriate size can be displayed in the image according to the actual distance. An example of a specific method for scale conversion as described above will be described later with reference to FIG.

枠描画部65は、基準位置決定部63で決定された基準位置すなわち人の足元の位置を基点として、スケール換算枠設定部64での設定により定まる枠を、連続画像を構成するフレームごとの画像に描画する。すなわち、各画像上における人物画像に対して、画像処理部80により当該枠を描画させるための各種処理を行う。なお、枠描画部65においてなされる枠の描画を行うか否かの決定等、枠描画に関する詳細については、一例を後述する。   The frame drawing unit 65 uses the reference position determined by the reference position determination unit 63, that is, the position of a person's foot as a base point, and the frame determined by the setting in the scale conversion frame setting unit 64 is an image for each frame constituting the continuous image. To draw. That is, various processes for drawing the frame are performed by the image processing unit 80 on the human image on each image. Note that details regarding frame drawing, such as determination of whether or not to perform frame drawing performed in the frame drawing unit 65, will be described later with an example.

次に、制御装置50のうち、記憶部70は、記憶装置等により構成され、各種データやプログラムを格納しており、主制御部60によりこれらのデータ等が、適宜読み出される。このため、記憶部70は、トラッキング処理部62で同一人物とされる者に関するデータを格納するトラッキングデータ記憶部71のほか、人特徴量情報記憶部72や、スケール換算情報記憶部73等を備えて構成されている。   Next, in the control device 50, the storage unit 70 is configured by a storage device or the like, stores various data and programs, and the main control unit 60 reads out these data and the like as appropriate. For this reason, the storage unit 70 includes a human feature amount information storage unit 72, a scale conversion information storage unit 73, and the like in addition to a tracking data storage unit 71 that stores data related to the same person in the tracking processing unit 62. Configured.

記憶部70のうち、トラッキングデータ記憶部71は、検出された複数の人を識別すべく検出された人ごとにIDを割り振るとともに画像データ等をIDごとに管理する人記憶部71aを備える。さらに、人記憶部71aには、人の部分画像データごとに基準位置に関するデータを格納する基準位置データ記憶部71bが設けられている。すなわち、基準位置データ記憶部71bには、人の部分画像についての足元の座標が、人の存在位置の基準位置として記憶されている。これにより、制御装置50は、当該基準位置に対応するサイズおよび大きさの矩形形状の枠を画像中に表示させることを可能にしている。   Of the storage unit 70, the tracking data storage unit 71 includes a person storage unit 71a that allocates an ID to each detected person to identify a plurality of detected persons and manages image data and the like for each ID. Further, the person storage section 71a is provided with a reference position data storage section 71b for storing data related to the reference position for each partial image data of the person. That is, in the reference position data storage unit 71b, the coordinates of the foot of the partial image of the person are stored as the reference position of the person's presence position. Thus, the control device 50 can display a rectangular frame having a size and size corresponding to the reference position in the image.

また、記憶部70のうち、人特徴量情報記憶部72は、人検出部61による人検出に関して、HOG特徴量等の既知の手法により機械学習による形状抽出によって人物画像を抽出するに際して必要となる各種情報を格納している。さらには、人物画像の抽出ための各種プログラムについて格納しているものとしてもよい。   Of the storage unit 70, the human feature quantity information storage unit 72 is necessary for extracting a human image by shape extraction by machine learning using a known technique such as an HOG feature quantity for human detection by the human detection unit 61. Stores various information. Furthermore, various programs for extracting person images may be stored.

また、記憶部70のうち、スケール換算情報記憶部73は、枠設定についてのスケール換算についての情報を格納する。なお、格納される情報についての具体例については後述する。   In addition, the scale conversion information storage unit 73 in the storage unit 70 stores information about scale conversion for frame setting. A specific example of stored information will be described later.

次に、制御装置50のうち、画像処理部80は、例えばGPU等で構成され、上記のような各種画像処理を可能とすべく、制御装置50からの指示に従って、撮像部10により取得された各2次元画像データについて、各種画像処理を行う。特に、本実施形態では、画像処理部80は、撮像部10により撮像された画像を、ディスプレイ表示部DAに表示すべく各種画像処理動作を行うことに加え、既述のように、枠描画部65からの指示に従って、基準位置決定部63で決定された基準位置を基点とし、スケール換算枠設定部64で定まる枠を、連続画像を構成するフレームごとの画像に描画する。   Next, in the control device 50, the image processing unit 80 is configured by, for example, a GPU or the like, and is acquired by the imaging unit 10 in accordance with an instruction from the control device 50 to enable the various image processing as described above. Various image processing is performed on each two-dimensional image data. In particular, in the present embodiment, the image processing unit 80 performs various image processing operations to display the image captured by the imaging unit 10 on the display display unit DA, and as described above, the frame drawing unit. In accordance with an instruction from 65, the frame determined by the scale conversion frame setting unit 64 is drawn on the image for each frame constituting the continuous image using the reference position determined by the reference position determination unit 63 as a base point.

最後に、制御装置50のうち、ディスプレイ表示部DAは、撮像部10により撮像された画像を映し出すモニターであり、典型例としては、既述のように、列車TRの乗務員(車掌や運転士)によって確認可能なように、ホームPFのうち列車TRが停止した際における列車TRの後端側あるいは先頭側の近傍に設けられている。つまり、列車TRが駅STに到着した後、乗客(利用者)が乗り降りし、出発するまでの間において、乗務員による乗客(利用者)の監視が可能になっている。なお、図示の場合のほか、例えば駅務室等に設置して、駅務室等にいる駅員に対して報知を行う、といった態様としてもよい。   Finally, in the control device 50, the display unit DA is a monitor that displays an image picked up by the image pickup unit 10. As a typical example, as described above, a crew member of a train TR (a conductor or a driver). As shown in FIG. 4, it is provided in the vicinity of the rear end side or the front side of the train TR when the train TR stops in the home PF. In other words, after the train TR arrives at the station ST, the passenger (user) can monitor the passenger (user) until the passenger (user) gets on and off and departs. In addition to the case of illustration, it is good also as an aspect installed in a station service room etc. and alerting | reporting with respect to the station staff in a station service room etc., for example.

以下、制御装置50を構成する上記各部のうち、主制御部60の人検出部61としての処理動作についての一例を、より詳細に説明する。   Hereinafter, an example of the processing operation as the human detection unit 61 of the main control unit 60 among the above-described units constituting the control device 50 will be described in more detail.

主制御部60は、人検出部61として、撮像部10により取得された各2次元画像データ中において、人(人物)の特徴を持った画像が存在するか否かの確認が可能となっている。例えば、既知のHOG特徴量やサポートベクターマシーン(SVM)を利用することで、2次元画像データから機械学習による形状抽出によって人物画像を抽出することを可能にしている。すなわち、人検出部61は、撮像部10により取得された各画像データから直線部分等を抽出し、抽出された直線部分の特徴量等に基づいて、画像データ中に人に固有の特徴を有したものがあるか否かを判定する。さらに言い換えると、人検出部61は、画像データ中における人と人以外とを仕分ける。これにより、人検出部61は、判定結果に基づいて人物画像の抽出をする。このため、人検出部61は、必要なプログラムを記憶部70から適宜読み出すとともに、人特徴量情報記憶部72に格納された人に関する特徴量のデータを利用して、人の存在を検出している。HOG特徴量等を利用することで、2次元的画像からであっても人検出を行うことができる。   As the human detection unit 61, the main control unit 60 can confirm whether or not there is an image having the characteristics of a person (person) in each two-dimensional image data acquired by the imaging unit 10. Yes. For example, by using a known HOG feature quantity or support vector machine (SVM), it is possible to extract a person image from a two-dimensional image data by shape extraction by machine learning. That is, the human detection unit 61 extracts a straight line portion or the like from each image data acquired by the imaging unit 10, and has a characteristic unique to the person in the image data based on the extracted feature amount or the like of the straight line portion. It is judged whether there is what has been done. In other words, the person detection unit 61 classifies persons and non-persons in the image data. Thereby, the person detection part 61 extracts a person image based on the determination result. For this reason, the person detection unit 61 reads out a necessary program from the storage unit 70 as appropriate, and detects the presence of a person using the feature quantity data stored in the person feature quantity information storage unit 72. Yes. By using the HOG feature amount or the like, human detection can be performed even from a two-dimensional image.

ここで、上記一例のような既存の手法により人検出を行う場合では、人検出器である人検出部61において、例えばHOG特徴量等に基づいて予め定めた方式に沿って、画面上をスキャンした各点や領域で人らしさを示す指標に基づいてスコアをつけ、スコアが高くなる領域を探すことで、人として検知されるべき画像領域を定め、人物画像の部分画像として抽出している。しかしながら、このような方法を採用した場合、例えば、日照条件や撮像位置から検出対象までの距離等の各種撮像状況によっては、スコアがベストとなる領域(以下、ベストスコア領域とする。)の位置や大きさ、範囲が必ずしも検出対象となる画像上の人のサイズや位置等にぴったり対応したものになるとは限らない。すなわち、画像データによっては、例えば、ベストスコア領域が、捉えるべき人の画像部分よりも大きい領域になったり、逆に小さい領域になったり、あるいは位置がずれたりする。したがって、上記のような手法で捉えたベストスコア領域をそのまま人物画像を示す枠表示として利用してしまうと、撮像した連続画像中において検出対象に応じて出力される枠の位置や大きさに変動が生じ、視認性が悪くなる可能性がある。これに対して、本実施形態では、人検出部61での人検出において特定された場合において、さらに検出された人の位置を規定する基準位置を設け、当該基準位置を基点として、画像範囲の位置ごとにサイズを定めた枠を、フレームごとの画像に描画することで、撮像した連続画像中において描画される枠の位置や大きさの変動を抑え、枠付きの画像としての検出対象である人の画像を、視認性の高いものにしている。   Here, when human detection is performed by the existing method as in the above example, the human detection unit 61 that is a human detector scans the screen according to a predetermined method based on, for example, the HOG feature amount. By assigning a score based on the index indicating humanity at each point or region and searching for a region with a high score, an image region to be detected as a person is determined and extracted as a partial image of the person image. However, when such a method is employed, for example, depending on various imaging conditions such as the sunshine conditions and the distance from the imaging position to the detection target, the position of the area having the best score (hereinafter referred to as the best score area). The size, range, and range do not necessarily correspond exactly to the size and position of a person on the image to be detected. That is, depending on the image data, for example, the best score area is larger than the image portion of the person to be captured, or on the contrary, becomes a small area, or the position is shifted. Therefore, if the best score area captured by the method as described above is used as a frame display showing a person image as it is, the position and size of the frame output depending on the detection target in the captured continuous image will fluctuate. May occur and visibility may deteriorate. On the other hand, in the present embodiment, in the case where the person detection unit 61 specifies the person detection unit 61, a reference position that defines the position of the detected person is further provided, and the reference position is used as a base point for the image range. By drawing a frame with a size defined for each position in an image for each frame, the variation in the position and size of the frame drawn in the captured continuous image is suppressed, and the detection target is an image with a frame. The human image is made highly visible.

図4(A)〜4(C)は、トラッキングされる人物の様子について一例を示す概念的に示す画像図であり、人検出によるベストスコア領域をそのまま表示した枠FRxと、本実施形態での処理を施した結果としての枠FRとの双方を示しており、これらを比較可能にしている。例えば図4(A)と図4(B)とは、数フレームの差(すなわち数百ミリ秒の差)をおいて同じ場所を撮像したものであるが、同一人物である画像上の人PE1を囲う枠FRと枠FRxを比較した場合に、人検出でのベストスコア領域をそのまま表示した枠FRxは、大きくサイズが変動しているのに対して、本実施形態での処理を施した結果としての枠FRは、サイズの変動が小さく抑えられて対象となる人PE1を的確に囲っていることが分かる。同様に、別の時刻での撮像結果を示す図4(C)においても、枠FRxは、検出すべき画像上の人PE2に対して非常に大きくなってしまっているのに対して、枠FRは、画像上の人PE2のサイズに適した大きさになっていることが分かる。   4 (A) to 4 (C) are conceptual diagrams illustrating an example of the state of a person to be tracked, and a frame FRx that displays the best score region by human detection as it is, and the present embodiment. Both the frame FR as a result of the processing are shown, and these can be compared. For example, FIG. 4A and FIG. 4B are obtained by imaging the same place with a difference of several frames (that is, a difference of several hundred milliseconds), but the person PE1 on the image of the same person. When the frame FRx that surrounds the frame FRx is compared with the frame FRx, the size of the frame FRx that displays the best score region in human detection as it is varies greatly, but the result of performing the processing in this embodiment It can be seen that the frame FR as an object accurately surrounds the target person PE1 with a small variation in size. Similarly, in FIG. 4C showing the imaging results at different times, the frame FRx is very large with respect to the person PE2 on the image to be detected, whereas the frame FR It can be seen that the size is suitable for the size of the person PE2 on the image.

以下、図5を参照して、従来の人検出器において、上記のように矩形の枠あるいは領域のサイズの変動が生じる理由について簡単に説明する。一般に、上記のような従来の人検出器では、人の画像であるか否かの指標を示すスコアの算定に際して、算定の基準となる矩形の画像サイズを予め1つに定めておき、図示のように、矩形状に切り出した算定対象の部分画像PIを、拡大あるいは縮小して基準となる画像サイズに合わせた上で、スコアを算出している。このため、切り出した画像のサイズや拡大率・縮小率、あるいは矩形に切り出した際に含まれる人以外の部分の画像の輝度等の影響で、スコアの算出結果がベストとなっている領域が、必ずしも人のみを含むように適切に抽出された領域となるとは限らず、例えば、人を含んでいるが人以外の領域も多く含んだものになってしまったり、逆に、人の一部が欠けたものになってしまったりする可能性がある。なお、場合によっては、さらに、人以外の物を人の画像として捉えてしまう可能性もある。以上に対して、本実施形態では、これらに対処すべく種々の手法を設けている。   Hereinafter, the reason why the variation in the size of the rectangular frame or region in the conventional human detector will occur will be briefly described with reference to FIG. In general, in the conventional human detector as described above, when calculating a score indicating an index of whether or not the image is a human image, a rectangular image size serving as a reference for calculation is determined in advance as one, As described above, the score is calculated after the partial image PI to be calculated cut into a rectangular shape is enlarged or reduced to match the reference image size. For this reason, the area where the score calculation result is the best due to the size and enlargement / reduction ratio of the clipped image, or the brightness of the image of the part other than the person included when cutting into a rectangle, It is not necessarily an area that is appropriately extracted so as to include only people, for example, it includes people but also includes many areas other than people. It may be missing. Depending on the case, there is a possibility that an object other than a person is captured as a human image. In contrast, in the present embodiment, various methods are provided to deal with these problems.

以下、図6を参照して、本実施形態における枠FRの設定に関して具体的一例を説明する。ここでは、撮像部10において固定位置から撮像されたホームPF(図2、図3参照)についての画像として、図6(A)に示される画像GIのうち、床面FLについての画像FLiの範囲について各点(画素)での撮像部10までの距離を設定する。これに基づき、画像FLiの各点(画素)にある基準位置すなわち足元の位置とする枠FRのサイズの設定ができる。なお、ここでは、ホームPFの床面FLは、一方の端が線路TKとの境界であり、他方の端が線路TKと反対側にある壁との境界であるものとする。つまり、図6(A)の画像GI及び6(B)の画像GIaに例示する場合において、線路TKの画像TKiとの境界BD1から壁の画像WLiとの境界BD2までの間の範囲について設定を行うことになる。   Hereinafter, a specific example of setting the frame FR in the present embodiment will be described with reference to FIG. Here, as an image of the home PF (see FIGS. 2 and 3) imaged from the fixed position in the imaging unit 10, the range of the image FLi for the floor surface FL of the image GI shown in FIG. 6 (A). The distance to the imaging unit 10 at each point (pixel) is set. Based on this, it is possible to set the size of the frame FR as the reference position at each point (pixel) of the image FLi, that is, the position of the foot. Here, it is assumed that the floor surface FL of the home PF has one end as a boundary with the line TK and the other end as a boundary with a wall opposite to the line TK. That is, in the case of illustrating the image GI of FIG. 6A and the image GIa of 6B, the setting is made for the range from the boundary BD1 with the image TKi of the line TK to the boundary BD2 with the wall image WLi. Will do.

まず、図6(A)に示すように、画像GIを撮像した撮像部10までの距離が互いに異なり、かつ、既知の位置にある既知基準位置SP1,SP2における矩形の枠FRの形状及びサイズを設定する。なお、既知基準位置SP1,SP2および既知基準位置SP1,SP2における枠FRの形状及びサイズについては、事前に取り決めておくこととしてもよいが、例えば、撮像部10から実際に測定してもよい。具体的一例としては、所定距離の位置に標準的な人間のサイズ(例えば170cm)を有する実物の人形DL1,DL2を設置し、撮像部10においてこれらを撮像し、撮像した画像を直接視認しながら、人形DL1,DL2の足元の位置を、画像上の既知基準位置SP1,SP2として定め、さらに、既知基準位置SP1,SP2を基準とする矩形の枠FRの位置、形状及びサイズを定めることができる。この場合において、例えば、足元の位置である既知基準位置SP1,SP2を、定めるべき画像上の枠FRの矩形形状における上下方向について7:1の位置、左右方向について1:1の位置となるようにしつつ、映し出された人形DL1,DL2の足元から頭頂部までを含む長さを上下方向の一辺の長さとし、さらに、人形DL1,DL2の横幅を含む長さを左右方向の一辺の長さとする矩形を描画すべき枠の形状として設定することができる。なお、矩形の縦横比については、通常の人間の標準的な直立時の状態での縦横の比率に基づいて、例えば縦:横=2:1といったように予め定めておいてもよい。   First, as shown in FIG. 6A, the shapes and sizes of the rectangular frames FR at the known reference positions SP1 and SP2 that are different from each other in the distance to the imaging unit 10 that has captured the image GI and are at known positions. Set. The shape and size of the frame FR at the known reference positions SP1 and SP2 and the known reference positions SP1 and SP2 may be determined in advance, but may be actually measured from the imaging unit 10, for example. As a specific example, real dolls DL1 and DL2 having a standard human size (for example, 170 cm) are placed at a predetermined distance, and these are picked up by the image pickup unit 10 while directly viewing the picked-up images. The positions of the feet of the dolls DL1 and DL2 can be determined as known reference positions SP1 and SP2 on the image, and further, the position, shape and size of the rectangular frame FR with reference to the known reference positions SP1 and SP2 can be determined. . In this case, for example, the known reference positions SP1 and SP2 that are the positions of the feet are set to a position of 7: 1 in the vertical direction and a position of 1: 1 in the horizontal direction in the rectangular shape of the frame FR on the image to be determined. The length including the foot to the top of the projected dolls DL1 and DL2 is defined as the length of one side in the vertical direction, and the length including the horizontal width of the dolls DL1 and DL2 is defined as the length of one side in the horizontal direction. A rectangle can be set as the shape of the frame to be drawn. Note that the aspect ratio of the rectangle may be determined in advance such as, for example, vertical: horizontal = 2: 1, based on the vertical / horizontal ratio in a normal human normal upright state.

次に、図6(B)に示すように、上記のようにして定めた互いに距離が異なる2箇所の既知基準位置SP1,SP2に基づいて、画像の解析を行い、解析結果としての画像GIaにおける奥行き方向(y方向)を定める。ここでは、説明を簡単にするため、既知基準位置SP1,SP2を結ぶ直線をy軸とし、y軸の延びる方向を、奥行き方向とする。さらに、y軸上の各点について、その点を通りかつその点から撮像部10の位置までの距離が等しい点の集まりに沿った点の集まりに沿ってx軸を定める。   Next, as shown in FIG. 6B, the image is analyzed based on the two known reference positions SP1 and SP2 that are different from each other as determined above, and an image GIa as an analysis result is analyzed. Depth direction (y direction) is defined. Here, in order to simplify the description, a straight line connecting the known reference positions SP1 and SP2 is defined as a y-axis, and a direction in which the y-axis extends is defined as a depth direction. Further, for each point on the y-axis, the x-axis is determined along a set of points that pass through the point and have a same distance from the point to the position of the imaging unit 10.

図6(C)および6(D)は、上記のようにして定められたxy座標に応じた枠のサイズについて示す概念図及びグラフであり、例えば図6(D)の横軸は、y座標すなわち撮像位置からの距離に相当するものであり、縦軸は表示すべき枠FRの高さすなわち枠FRのサイズを定める。すなわち、上記の場合、y座標が定まると、これに応じて枠FRの高さH(y)すなわち枠FRの大きさあるいは形状が定められることになる。図6(D)の例では、既知基準位置SP1,SP2のy座標の値y,y(撮像位置からの距離に相当)及びこれに対応する高さH(y),H(y)に基づいて定まる直線L1から各位置における枠FRのサイズを決定する。図6(D)では、説明を簡単にするため、値y,yに関する2点を結ぶ直線L1をもってy座標から枠FRを設定するものとしている。なお、y座標が同じであれば、x座標の値が違っても同じ大きさ・形状の枠が選択されることになる。画像GIa(特に床面FLについての画像FLiの範囲)を構成する各画素の位置を、以上のようにして定められるxy座標によって規定することで、各座標のy座標に対応する形状の枠FRを表示させる。言い換えると、以上の場合、y座標の設定によって枠設定についてのスケール換算がなされていることになる。以上が、本実施形態において枠描画を可能とするための前提となる。上記のような態様とすることにより、人検出部61での結果をそのまま用いた枠描画に比べて、枠FRの位置や大きさの変動を抑え、枠付きの画像としての検出対象である人の画像を、視認性の高いものにできる。特に、この場合、空間的変化についての視認性の向上が図られることになる。 6C and 6D are conceptual diagrams and graphs showing the frame size according to the xy coordinates determined as described above. For example, the horizontal axis of FIG. That is, it corresponds to the distance from the imaging position, and the vertical axis determines the height of the frame FR to be displayed, that is, the size of the frame FR. That is, in the above case, when the y coordinate is determined, the height H (y) of the frame FR, that is, the size or shape of the frame FR is determined accordingly. In the example of FIG. 6D, the y-coordinate values y 1 and y 2 (corresponding to the distance from the imaging position) of the known reference positions SP1 and SP2 and the corresponding heights H (y 1 ) and H (y 2 ) The size of the frame FR at each position is determined from the straight line L1 determined on the basis of 2 ). In FIG. 6D, for the sake of simplicity, the frame FR is set from the y-coordinate with a straight line L1 connecting two points relating to the values y 1 and y 2 . If the y coordinate is the same, a frame having the same size and shape is selected even if the value of the x coordinate is different. By defining the position of each pixel constituting the image GIa (particularly the range of the image FLi with respect to the floor surface FL) by the xy coordinates determined as described above, the frame FR having a shape corresponding to the y coordinate of each coordinate. Is displayed. In other words, in the above case, the scale conversion for the frame setting is performed by setting the y coordinate. The above is the premise for enabling frame drawing in the present embodiment. By adopting the above-described aspect, compared with frame drawing using the result in the human detection unit 61 as it is, the variation of the position and size of the frame FR is suppressed, and the person who is the detection target as a framed image Can be made highly visible. In particular, in this case, the visibility with respect to the spatial change is improved.

なお、図6を参照して例示した枠設定についてのスケール換算についての情報、具体的には、既知基準位置SP1,SP2に関する情報やこれに基づき定められた直線L1等の情報は、スケール換算情報記憶部73に格納される。スケール換算枠設定部64は、必要に応じてスケール換算情報記憶部73に格納されている情報を適宜読み出すことで、枠FRの形状やサイズを定めている。   Note that information on scale conversion for the frame setting exemplified with reference to FIG. 6, specifically, information on the known reference positions SP1 and SP2 and information such as the straight line L1 determined based on the information are scale conversion information. It is stored in the storage unit 73. The scale conversion frame setting unit 64 determines the shape and size of the frame FR by appropriately reading information stored in the scale conversion information storage unit 73 as necessary.

以下、図7のフローチャートを参照して、物体検出装置100の全体動作の概要についての一例を説明する。ここでは、人検出部61で抽出される人物画像について、まず、第1に、抽出された人物をIDで振り分け、さらに、各IDについてフレーム間での関連付け等を含むトラッキング処理に関する一連の処理を行う。その上で、第2に、各人物画像について枠の表示(枠描画)を行うか否かを決定している。   Hereinafter, an example of the outline of the overall operation of the object detection apparatus 100 will be described with reference to the flowchart of FIG. Here, with respect to the person image extracted by the human detection unit 61, first, a series of processes related to tracking processing including firstly assigning the extracted person by ID and further including association between frames for each ID is performed. Do. Then, secondly, it is determined whether or not to display a frame (frame drawing) for each person image.

図7において、まず、物体検出装置100の制御装置50は、物体検出の動作の開始として、撮像部10での撮像により取得した連続画像データについて人物画像の有無等について人検出部61で解析してトラッキング対象である人物画像を特定した上で、トラッキング処理部62は、トラッキング処理を行う(ステップS101)。さらに、トラッキング処理部62は、ステップS101におけるトラッキング処理から抽出した各人の画像について事象分類を行う(ステップS102)。具体的には、図8(A)及び8(B)に例示するように、各画像が、前のフレーム画像と後のフレーム画像との関係で、新規のものであるか、更新されたものであるかを判定する。さらに、図8(C)に例示するように、上記に加えて、前のフレーム画像において存在していたものが存在しなくなっている場合には、補間すべきであるか否かを判定する。   In FIG. 7, first, the control device 50 of the object detection device 100 analyzes the presence / absence of a human image in the continuous image data acquired by the imaging unit 10 by the human detection unit 61 as the start of the object detection operation. After identifying the person image that is the tracking target, the tracking processing unit 62 performs tracking processing (step S101). Furthermore, the tracking processing unit 62 performs event classification on each person's image extracted from the tracking processing in step S101 (step S102). Specifically, as illustrated in FIGS. 8A and 8B, each image is new or updated in relation to the previous frame image and the subsequent frame image. It is determined whether it is. Further, as illustrated in FIG. 8C, in addition to the above, when there is no longer what existed in the previous frame image, it is determined whether or not to interpolate.

図8(A)に例示するように、現在のフレーム画像(時刻tのフレーム画像)と過去のフレーム画像(時刻t−1のフレーム画像)すなわち1つ前のフレーム画像とを比較した場合において、現在のフレーム画像中の人物画像PG1が、トラッキングデータ記憶部71に格納されているデータに基づいてIDによる関連付けを検討しても、1つ前のフレーム画像では存在していなかった、と判断される場合、トラッキング処理部62は、新規の人物画像として登録を行う。   As illustrated in FIG. 8A, when the current frame image (frame image at time t) is compared with the past frame image (frame image at time t−1), that is, the previous frame image, It is determined that the person image PG1 in the current frame image does not exist in the previous frame image even if the association by ID is considered based on the data stored in the tracking data storage unit 71. The tracking processing unit 62 registers as a new person image.

一方、図8(B)に例示するように、現在のフレーム画像(時刻tのフレーム画像)と過去のフレーム画像(時刻t−1のフレーム画像)とを比較した場合において、IDによる関連付けの結果、フレーム画像の前後で同一であると判断される人物画像PG2が存在する場合、人物画像PG2を当該IDについての画像データである旨の紐付け処理を行う。例えば、2つのフレーム画像間での位置関係が統合範囲内にあるか等に基づき同一人物についての画像であると判断される場合にこれらの紐付けを行う。   On the other hand, as illustrated in FIG. 8B, when the current frame image (the frame image at time t) is compared with the past frame image (the frame image at time t−1), the result of association by ID When there is a person image PG2 that is determined to be the same before and after the frame image, a linking process is performed to indicate that the person image PG2 is image data for the ID. For example, when it is determined that the images are for the same person based on whether the positional relationship between the two frame images is within the integrated range, these links are performed.

また、図8(C)に例示するように、現在のフレーム画像(時刻tのフレーム画像)と過去のフレーム画像(時刻t−1のフレーム画像)とを比較した場合において、過去のフレーム画像においてID登録されているものに該当する人物画像PG3が、現在のフレーム画像において見つからなくても、直ちに不存在とはせず、所定条件を満たせば、過去のフレーム画像におけるIDの情報を存続させるようにしている。すなわち、情報を削除せず、保存する。すなわち、トラッキング処理部62は、検出対象である人についての部分画像に関して、連続画像中のフレーム間において一時的に未検出となっても、所定フレーム数内に対応する部分画像を再度検出した場合には、関連付けて同一物体として取り扱うようにしている。   Further, as illustrated in FIG. 8C, when the current frame image (the frame image at time t) and the past frame image (the frame image at time t−1) are compared, Even if the person image PG3 corresponding to the ID registered is not found in the current frame image, the person image PG3 is not immediately absent, and if the predetermined condition is satisfied, the ID information in the past frame image is continued. I have to. That is, the information is stored without being deleted. In other words, regarding the partial image of the person who is the detection target, the tracking processing unit 62 detects the corresponding partial image again within the predetermined number of frames even if it is temporarily undetected between frames in the continuous image. Are associated with each other and handled as the same object.

図7に戻って、ステップS102における事象分類の結果に応じて、制御装置50は、必要なID管理処理を行う(ステップS103)。すなわち、トラッキングデータ記憶部71に格納すべきID管理データについて、新規、更新あるいは補間といった保管する情報の変更等を行う。ステップS103での処理結果に基づいて、制御装置50は、枠描画を含めた描画動作を画像処理部80において行う(ステップS104)。   Returning to FIG. 7, according to the event classification result in step S102, the control device 50 performs the necessary ID management processing (step S103). That is, for the ID management data to be stored in the tracking data storage unit 71, the information to be stored is changed such as new, updated, or interpolated. Based on the processing result in step S103, the control device 50 performs a drawing operation including frame drawing in the image processing unit 80 (step S104).

以下、上記において、図8等で具体例を挙げつつ説明した図7での各ステップS101〜S104での一連の処理について、適宜補足を付加しつつ簡潔にまとめ直して、一般的な処理内容の一例として説明する。   Hereinafter, a series of processes in steps S101 to S104 in FIG. 7 described with reference to specific examples in FIG. 8 and the like will be briefly summarized with appropriate supplements, and general processing contents will be described. This will be described as an example.

まず、ステップS101では、検出対象である人の現在の足元座標と過去の検出対象の足元座標の距離を比較するための準備がなされる。なお、この比較において、予め定めた統合範囲内にあるものに関して、最短の検出対象を同一として更新する一方、当該統合範囲外のものについては、新規の対象と判断することになる。このような処理を検出対象として抽出された人物画像の数だけ行う。   First, in step S101, preparations are made for comparing the distance between the current foot coordinates of the detection target person and the previous foot coordinates of the detection target. In this comparison, the shortest detection target is updated as the same for those within the predetermined integration range, while those outside the integration range are determined as new targets. Such processing is performed for the number of person images extracted as detection targets.

次に、ステップS102では、検出対象である人物画像を、新規、更新、補間の3パターンに分類する。すなわち、ステップS101での抽出結果をもとに、検出対象を新規と更新に分類する。また、ステップS101での抽出結果において、未使用であった過去の人物画像がある場合、これについて補間と分類すべきか否かを判断する。例えば、補間では、ある一定数更新されないものである場合、検出対象から除外されることになる。   Next, in step S102, the human image to be detected is classified into three patterns of new, update, and interpolation. That is, based on the extraction result in step S101, the detection target is classified into new and updated. If there is a past person image that has not been used in the extraction result in step S101, it is determined whether or not this should be classified as interpolation. For example, in the interpolation, if a certain number is not updated, it is excluded from the detection target.

次に、ステップS103では、ID管理がなされる。すなわち、検出対象である人物に関するステップS102での状態(新規、更新、補間)に応じて、IDの追加・削除・更新を行う。各IDは、例えば、設定されている座標情報、検出情報(連続検出数、累積検出数、連続未検出数)の情報を保持する。なお、これらに関しては、具体的一例を後述する。   Next, in step S103, ID management is performed. In other words, the ID is added / deleted / updated according to the state (new, updated, interpolated) in step S102 regarding the person to be detected. Each ID holds, for example, information on set coordinate information and detection information (continuous detection number, cumulative detection number, continuous non-detection number). A specific example of these will be described later.

最後に、ステップS104では、ステップS103でのID管理の検出情報に基づくことで、枠の描画に際して、誤検出の抑制と検出の信頼性を高め、さらに、未検出を補間している。また、描画に際しては、上述したスケール換算から、検出対象である人物画像に応じた矩形を描画できる。   Lastly, in step S104, based on the ID management detection information in step S103, the detection of false detection and the reliability of detection are improved when drawing a frame, and non-detection is interpolated. In drawing, a rectangle corresponding to the person image to be detected can be drawn from the scale conversion described above.

ここで、上記のうち、例えばステップS102の事象分類に際して、現在のフレーム画像において、過去のフレーム画像でID登録されているものに該当する人物画像が無くても、直ちに不存在とはせず、所定条件を満たせば、過去のフレーム画像におけるIDの情報を存続させている。この処理に関して、例えばステップS104の枠描画の処理においては、過去のフレーム画像において描画した枠をそのまま次のフレーム画像上においても同じ位置に描画させる等の処理を施す態様とすることが考えられる。さらに、本実施形態では、新規の場合においては、人としての部分画像が検出されても、これに対応する枠描画を行わないようにしている。つまり、人が検出されても、最初の1枚目については枠描画を行わないようにしている。以上のような態様とすることで、人検出において未検出や誤検出があっても、これに伴って不適切な枠描画がなされてしまうことを抑制している。   Here, for example, in the event classification in step S102 among the above, even if there is no person image corresponding to the ID registered in the past frame image in the current frame image, it is not immediately absent, If the predetermined condition is satisfied, the ID information in the past frame image is continued. With regard to this processing, for example, in the frame drawing processing in step S104, it is conceivable to perform processing such as drawing a frame drawn in a past frame image as it is on the next frame image as it is. Furthermore, in the present embodiment, in the case of a new case, even if a partial image as a person is detected, the corresponding frame drawing is not performed. That is, even if a person is detected, the frame drawing is not performed for the first sheet. By setting it as the above aspects, even if there is no detection or a false detection in human detection, it is suppressed that improper frame drawing is made in connection with this.

既述のように、人物画像の抽出に際して、画像データの状況や適用する人検出の手法(スコアを決定するエンジンの種類)等によっては、人でない物体を検出対象として捉えてしまったりする場合(誤検出)や、捉えるべき人を検出できず不存在としてしまったりする場合(未検出)が生じ得る。誤検出の典型例としては、例えば図4(C)に例示した人検出によるベストスコア領域をそのまま表示した枠FRxのように、列車の窓部分の画像や電柱の画像等を誤って人として検出してしまう、といったことが生じる場合がある。このような誤検出は、連続する画像(フレーム画像)のうちの1フレームだけに生じるといった瞬間的なものであり、誤検出の状態が継続するといった事態は発生しにくい。また、未検出の典型例としては、例えば連続する画像(フレーム画像)のうちの1フレームだけ検出がなされないといったことが瞬間的に生じる場合がある。ただし、これについても、未検出の状態が継続するといった事態は発生しにくい。上記のような事態が生じるのは、例えば瞬間的な明るさが変化したとか、一時的な形状の状態がたまたま人検出のスコアが高いものになってしまった、といったことに起因していると考えられる。   As described above, when extracting a human image, depending on the situation of the image data and the human detection method applied (type of engine that determines the score), non-human objects may be detected as detection targets ( Erroneous detection), or a case where a person to be captured cannot be detected and is absent (not detected). As a typical example of erroneous detection, for example, an image of a train window part or an image of a utility pole is erroneously detected as a person, such as a frame FRx in which the best score area by human detection illustrated in FIG. 4C is displayed as it is. May occur. Such erroneous detection is instantaneous such that it occurs only in one frame of consecutive images (frame images), and it is difficult for a situation in which the erroneous detection state continues. In addition, as a typical example of non-detection, for example, a case where only one frame of continuous images (frame images) is not detected may occur instantaneously. However, even in this case, it is unlikely that an undetected state continues. The above situation occurs because, for example, the instantaneous brightness has changed or the temporary shape has happened to have a high human detection score. Conceivable.

以上のような事実を踏まえ、本実施形態では、誤検出の場合に対応して、枠描画部65が、枠描画に際して新規の検出対象について枠の描画を行わないようにしたり、未検出の場合に対応して、トラッキング処理部62が、フレーム間での補間をしたりすることで、枠の描画について適正な状態を維持している。   Based on the above facts, in the present embodiment, in response to a case of erroneous detection, the frame drawing unit 65 prevents the frame from being drawn for a new detection target when drawing the frame, or if it is not detected. Corresponding to the above, the tracking processing unit 62 maintains an appropriate state for frame drawing by performing interpolation between frames.

ここでは、トラッキング処理部62において、同一物体として関連付けられた検出対象すなわちトラッキング対象についてのフレーム間における連続検出数、累積検出数及び連続未検出数を計数し、これらの値に基づいて、枠描画部65において枠の描画を行うか否かを決定している。ここでの一例では、フレーム間における連続検出数について、2以上であることを描画の条件とし、フレーム間における連続未検出数について、3以上であることを描画の条件としている。なお、連続検出数を2以上とすることについては、描画の開始を遅らせる立ち上がりディレイを1とすることに相当する。また、連続未検出数を3以上とすることについては、描画の停止を遅らせる立ち下がりディレイを2とすることに相当する。なお、フレーム間における累積検出数についても適宜定められるが、ここでの一例では、累積検出数について、2以上であることを描画の条件とする。なお、以上の各数値は一例であり、撮像状況等種々の要因に応じて適宜変更可能である。   Here, the tracking processing unit 62 counts the number of continuous detections, the cumulative number of detections, and the number of continuous non-detections between frames for the detection target associated with the same object, that is, the tracking target, and draws a frame based on these values. In part 65, it is determined whether or not to draw a frame. In this example, the drawing condition is that the number of consecutive detections between frames is 2 or more, and the drawing condition is that the number of consecutive undetections between frames is 3 or more. Note that setting the number of continuous detections to 2 or more corresponds to setting the rising delay for delaying the start of drawing to 1. Further, setting the number of consecutive undetected values to 3 or more corresponds to setting the falling delay for delaying the stop of drawing to 2. Note that the cumulative number of detections between frames is also determined as appropriate, but in one example here, the cumulative number of detections is 2 or more as a drawing condition. Each numerical value described above is an example, and can be appropriately changed according to various factors such as an imaging state.

以下、図9等を参照して、上記のような動作についての一例を説明する。図9は、トラッキング処理部62におけるトラッキング処理の一例について説明するための概念的な画像図である。また、図10は、図9に例示するようなトラッキング処理におけるフレーム間での関連付けでの描画に関する判定結果の他の一例を示すタイムチャートである。   Hereinafter, an example of the above operation will be described with reference to FIG. FIG. 9 is a conceptual image diagram for explaining an example of tracking processing in the tracking processing unit 62. FIG. 10 is a time chart showing another example of the determination result related to drawing in association between frames in the tracking process as exemplified in FIG.

まず、図9において、上段αは、上述したような誤検出や未検出への対応を想定せず、検出結果をそのまま反映させて枠表示を行う場合の一例を示している。この場合、図に例示する7つの連続するフレーム画像では、フレーム画像中、第3、第4及び第6フレームにおいて未検出となっており、これらにおいてフレームも表示されなくなっている。このような表示態様とした場合、一連の動画としては、枠が表示されたり消えたりすることになる。これに対して、下段βは、上段αのような状況下において、上述したような誤検出や未検出への対応の一例を施した場合について示している。ここでは、一例として、最初の1枚目については枠描画を行わないものとする(立ち上がりディレイを1とする)ことで、誤検出に伴う対象外の物体についての枠描画を抑制している。また、未検出となっても2回目の未検出までは枠描画を継続するものとする(立ち下がりディレイを2とする)ことで、未検出に伴う対象物体についての枠描画不履行を抑制している。すなわち、下段βの場合、第1フレームにおいては、新規のものとして検出されているが、敢えて枠描画を行わないようにしている一方、第3、第4及び第6フレームにおいては、未検出となっていても、枠描画を行っている。以上の結果、下段βでは、第1フレームを除く第2フレームから第7フレームの全てにおいて枠描画が継続されることになる。つまり、枠が表示されたり消えたりするといったことが無く、枠の表示が続いている状態となる。なお、上記のように、立ち上がりディレイを1とし、立ち下がりディレイを2とした場合、人物画像の検出・未検出と枠の描画を行うか否かとの関係については、例えば同様の場合の他の一例として図10に示すタイムチャートのようになる。図10のタイムチャートでは、横軸すなわち時間軸方向について連続画像のフレーム数で示しており、各フレーム画像での人物画像の検出・未検出の結果を示している。なお、各フレームにおいて枠の描画を行うか否かの基準は、上記図9において例示した場合と同様とする。つまり、図10は、図9に示すトラッキング処理におけるフレーム間での関連付けの結果について他の一例を示している。なお、図中には、第1、第3及び第12フレームでの各数値を例示として記載している。図10の場合も、図9の下段βの場合と同様に、第1フレームを除き、枠の描画が継続されている。   First, in FIG. 9, the upper stage α shows an example in which frame display is performed by reflecting the detection result as it is without assuming the correspondence to the above-described erroneous detection or non-detection. In this case, in the seven consecutive frame images illustrated in the figure, the third, fourth, and sixth frames are not detected in the frame image, and no frames are displayed in these frames. In such a display mode, a frame is displayed or disappears as a series of moving images. On the other hand, the lower stage β shows a case where an example of handling the above-described erroneous detection and non-detection as described above is performed under the situation of the upper stage α. Here, as an example, frame drawing is not performed on the first first sheet (rising delay is set to 1), thereby suppressing frame drawing on an object that is not subject to erroneous detection. In addition, even if it is not detected, the frame drawing is continued until the second non-detection (falling delay is set to 2), thereby suppressing the default of frame drawing for the target object due to the non-detection. Yes. In other words, in the case of the lower stage β, the first frame is detected as a new frame, but the frame drawing is intentionally not performed, while the third, fourth, and sixth frames are not detected. Even if it is, the frame is drawn. As a result, in the lower stage β, the frame drawing is continued in all of the second to seventh frames except the first frame. In other words, the frame is not displayed and disappears, and the display of the frame continues. As described above, when the rising delay is set to 1 and the falling delay is set to 2, the relationship between the detection / non-detection of the human image and whether or not to draw the frame is, for example, other than the same case. An example is a time chart shown in FIG. In the time chart of FIG. 10, the horizontal axis, that is, the time axis direction is indicated by the number of frames of the continuous image, and the detection result / non-detection result of the person image in each frame image is shown. Note that the criteria for determining whether or not to draw a frame in each frame is the same as in the case illustrated in FIG. That is, FIG. 10 shows another example of the result of association between frames in the tracking process shown in FIG. In the drawing, each numerical value in the first, third and twelfth frames is described as an example. In the case of FIG. 10 as well, as in the case of the lower stage β in FIG. 9, the drawing of the frame is continued except for the first frame.

ここで、図9の下段β、さらには、図10に示す場合、最初の第1フレームについては、枠の表示がなされず、図9の上段αと比べて1フレーム分枠の表示の開始が遅れることになる。しかし、例えば、撮像部10において、30fpsのフレームレートで2次元画像データを取得しているといった場合には、上記のような遅れは、1/30秒程度ということになる。この程度の遅れであれば、駅での人の乗降りの確認等において支障が出るとは考えにくい。以上のように、人物画像の誤検出や未検出に対応した枠表示を行うことで、より視認性を高めることができる。特に、この場合、時間的変化(時系列の変化)についての視認性の向上が図られることになる。   Here, in the case shown in the lower part β of FIG. 9 and further in the case of FIG. 10, the frame is not displayed for the first first frame, and the display of the frame for one frame is started as compared with the upper part α of FIG. It will be late. However, for example, when the imaging unit 10 acquires two-dimensional image data at a frame rate of 30 fps, the delay as described above is about 1/30 seconds. Such a delay is unlikely to interfere with the confirmation of people getting on and off the station. As described above, visibility can be further improved by performing frame display corresponding to erroneous detection or non-detection of a human image. In particular, in this case, the visibility with respect to temporal change (time-series change) is improved.

以下、図11のフローチャートを参照して、トラッキング処理部62におけるデータ管理の処理(ステップS103での処理の一部に相当)についての一例を説明する。   Hereinafter, an example of data management processing (corresponding to part of the processing in step S103) in the tracking processing unit 62 will be described with reference to the flowchart of FIG.

まず、トラッキング処理部62は、ID管理されている検出された一の人の画像に関して、連続未検出数が閾値(上記例の場合、立ち下がりディレイの数である2)に到達したか否かを確認する(ステップS201)。ステップS201において、連続未検出数が閾値到達していないと判断された場合(ステップS201:No)、トラッキング処理部62は、当該一の人の画像に関するIDを存続するものとして更新する(ステップS202)。一方、ステップS201において、連続未検出数が閾値到達したと判断された場合(ステップS201:Yes)、トラッキング処理部62は、当該一の人の画像に関するIDを削除する(ステップS203)。すなわち、この時点で初めて当該IDに該当する人が存在しなくなったと判断する。   First, the tracking processing unit 62 determines whether or not the number of consecutive undetected images has reached a threshold (in the above example, 2 which is the number of falling delays) for the detected image of one person whose ID is managed. Is confirmed (step S201). In step S201, when it is determined that the number of consecutive undetected values has not reached the threshold (step S201: No), the tracking processing unit 62 updates the ID related to the one person's image as continuing (step S202). ). On the other hand, when it is determined in step S201 that the consecutive undetected number has reached the threshold (step S201: Yes), the tracking processing unit 62 deletes the ID related to the image of the one person (step S203). That is, for the first time at this point, it is determined that there is no longer a person corresponding to the ID.

以上のように、人物画像についての誤検出や未検出の場合を考慮して、枠描画部65において、トラッキング処理部62での同一物体の関連付けに応じて、枠の描画を行うか否かを決定する態様とすることで、時間的変化における枠表示を適正なものとして視認性の向上を図ることができる。   As described above, in consideration of erroneous detection or non-detection of a human image, the frame drawing unit 65 determines whether to draw a frame in accordance with the association of the same object in the tracking processing unit 62. By adopting the mode of determination, visibility can be improved by making the frame display in the temporal change appropriate.

〔その他〕
この発明は、上記の実施形態に限られるものではなく、その要旨を逸脱しない範囲において種々の態様で実施することが可能である。
[Others]
The present invention is not limited to the above embodiment, and can be implemented in various modes without departing from the scope of the invention.

まず、上記実施形態では、図6を参照した枠の設定に関して、説明を簡単にするため、例えば2点の既知基準位置SP1,SP2を結ぶ直線をy軸として枠設定を行うものとしているが、これに限らず、枠の設定については、種々の態様が考えられ、例えば、2点以上の基準位置既知を抽出してこれらの二乗平均等を利用して、各基準位置での枠設定すなわち枠の形状や大きさの設定を行うものとしてもよい。   First, in the above embodiment, in order to simplify the description of the frame setting with reference to FIG. 6, for example, the frame setting is performed with the straight line connecting two known reference positions SP1 and SP2 as the y axis. However, the present invention is not limited to this, and various modes can be considered for frame setting. For example, two or more reference position known values are extracted and their root mean squares are used to set the frame at each reference position. The shape and size may be set.

また、上記では、一例として、監視対象エリアを駅STのホームPFとしているが、これに限らず的確な人検出をすることが望まれる種々の場所を監視対象とすることができる。例えばエスカレーターやエレベーター等における利用者の監視に適用することが考えられる。   In the above description, as an example, the monitoring target area is the home PF of the station ST. However, the present invention is not limited to this, and various places where accurate human detection is desired can be monitored. For example, it can be applied to user monitoring in escalators and elevators.

また、撮像部10の配置についても、上記のように、ホームPFの上方側に設置されて下方側を撮像する場合に限らず、目的とする範囲を撮像できる種々の態様とすることができる。例えば、撮像対象とすべきホームの反対側に位置するホームに撮像部を設置すること等が考えられる。   Further, the arrangement of the imaging unit 10 is not limited to the case where the imaging unit 10 is installed on the upper side of the home PF and images the lower side. For example, it is conceivable to install an imaging unit in a home located on the opposite side of the home to be imaged.

また、上記では、制御装置50での検出結果についての報知先の一例として、列車の乗務員や駅務室の駅員を挙げているが、これに限らず、種々の箇所や人へ報知することが可能である。   In the above description, train crew members and station staff members are listed as examples of notification destinations regarding the detection results of the control device 50. However, the present invention is not limited to this, and notifications may be made to various places and people. Is possible.

また、撮像部10が、複数設定されるような場合においては、例えば撮像範囲が隣接する撮像部間での情報を、データ中においてリンクさせるようにしてもよい。これにより、より広い範囲に亘って連続的に人物のトラッキングを行うことができる。   Further, when a plurality of imaging units 10 are set, for example, information between imaging units with adjacent imaging ranges may be linked in the data. As a result, it is possible to continuously track a person over a wider range.

10…撮像部、50…制御装置、60…主制御部、61…人検出部、62…トラッキング処理部、63…基準位置決定部、64…スケール換算枠設定部、65…枠描画部、70…記憶部、71…トラッキングデータ記憶部、71a…人記憶部、71b…基準位置データ記憶部、72…人特徴量情報記憶部、73…スケール換算情報記憶部、80…画像処理部、100…物体検出装置、BD1,BD2…境界、DA…ディスプレイ表示部、DL1,DL2…人形、FL…床面、FLi…画像、FR…枠、FRx…枠、GI、GIa…画像、HU…利用者、L1…直線、PE1,PE2…人(画像)、PF…ホーム、PG1−PG3…人物画像、PI…部分画像、SA…駅員、SP1,SP2…既知基準位置、ST…駅、TK…線路、TKi…画像、TR…列車、WLi…画像、y1,y2…値、α…上段、β…下段   DESCRIPTION OF SYMBOLS 10 ... Imaging part, 50 ... Control apparatus, 60 ... Main control part, 61 ... Human detection part, 62 ... Tracking processing part, 63 ... Reference position determination part, 64 ... Scale conversion frame setting part, 65 ... Frame drawing part, 70 ... storage unit 71 ... tracking data storage unit 71a ... human storage unit 71b ... reference position data storage unit 72 ... human feature quantity information storage unit 73 ... scale conversion information storage unit 80 ... image processing unit 100 ... Object detection device, BD1, BD2 ... boundary, DA ... display display unit, DL1, DL2 ... doll, FL ... floor surface, FLi ... image, FR ... frame, FRx ... frame, GI, GIa ... image, HU ... user, L1 ... straight line, PE1, PE2 ... person (image), PF ... home, PG1-PG3 ... person image, PI ... partial image, SA ... station employee, SP1, SP2 ... known reference position, ST ... station, TK ... track, TKi ... Picture , TR ... train, WLi ... image, y1, y2 ... value, α ... upper, β ... lower

Claims (8)

連続画像中における検出対象の部分画像について基準位置を決定する基準位置決定部と、
画像中の位置ごとに定めたスケール換算により、検出対象の部分画像を囲う枠のサイズを定めるスケール換算枠設定部と、
前記基準位置決定部で決定された基準位置を基点として、前記スケール換算枠設定部での設定により定まる枠を、連続画像を構成するフレームごとの画像に描画する枠描画部と
を備える物体検出装置。
A reference position determination unit that determines a reference position for a partial image to be detected in a continuous image;
A scale conversion frame setting unit that determines the size of a frame that surrounds the partial image to be detected by scale conversion determined for each position in the image;
An object detection apparatus comprising: a frame drawing unit that draws a frame determined by the setting in the scale conversion frame setting unit using the reference position determined by the reference position determination unit as a base point on an image of each frame constituting a continuous image .
前記スケール換算枠設定部は、定位置から撮像された画像において、画像中の各位置での枠のサイズを、対応する実際の各位置から撮像位置までの距離に基づいて定める、請求項1に記載の物体検出装置。   The scale conversion frame setting unit determines the size of the frame at each position in the image based on the distance from the corresponding actual position to the imaging position in an image captured from a fixed position. The object detection apparatus described. 人物画像の抽出により、検出対象を人とする人検出を行う人検出部を備え、
前記基準位置決定部は、前記人検出部において特定された人物画像の足元の位置を、決定すべき基準位置とする、請求項1及び2のいずれか一項に記載の物体検出装置。
A human detection unit that performs human detection by extracting a human image,
3. The object detection device according to claim 1, wherein the reference position determination unit sets a position of a foot of the person image specified by the person detection unit as a reference position to be determined. 4.
前記スケール換算枠設定部において設定される枠は、検出対象としての人の比率に対応した矩形状である、請求項3に記載の物体検出装置。   The object detection apparatus according to claim 3, wherein the frame set in the scale conversion frame setting unit has a rectangular shape corresponding to a ratio of persons as detection targets. 連続画像データ中のフレーム間で画像を関連付けて同一物体をトラッキングするトラッキング処理部を有し、
前記枠描画部は、前記トラッキング処理部での同一物体の関連付けに応じて、枠の描画を行うか否かを決定する、請求項1〜4のいずれか一項に記載の物体検出装置。
A tracking processing unit that tracks the same object by associating images between frames in continuous image data,
5. The object detection device according to claim 1, wherein the frame drawing unit determines whether or not to draw a frame in accordance with association of the same object in the tracking processing unit.
前記枠描画部は、新規の検出対象について枠の描画を行わない、請求項5に記載の物体検出装置。   The object detection apparatus according to claim 5, wherein the frame drawing unit does not draw a frame for a new detection target. 前記トラッキング処理部は、検出対象についての部分画像に関して、連続画像中のフレーム間において一時的に未検出となっても、所定フレーム数内に対応する部分画像を再度検出した場合には、関連付けて同一物体として取り扱う、請求項5及び6のいずれか一項に記載の物体検出装置。   The tracking processing unit relates to a partial image as a detection target, even if it is temporarily undetected between frames in a continuous image, if a corresponding partial image within a predetermined number of frames is detected again, The object detection apparatus according to claim 5, wherein the object detection apparatus handles the same object. 前記枠描画部は、前記トラッキング処理部で同一物体として関連付けられた検出対象のフレーム間における連続検出数、累積検出数及び連続未検出数の少なくともいずれかに基づいて、枠の描画を行うか否かを決定する、請求項7に記載の物体検出装置。   Whether the frame drawing unit draws a frame based on at least one of the continuous detection number, the cumulative detection number, and the continuous non-detection number between detection target frames associated as the same object in the tracking processing unit. The object detection device according to claim 7, wherein the determination is made.
JP2018100067A 2018-05-24 2018-05-24 object detector Active JP7146450B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018100067A JP7146450B2 (en) 2018-05-24 2018-05-24 object detector

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018100067A JP7146450B2 (en) 2018-05-24 2018-05-24 object detector

Publications (2)

Publication Number Publication Date
JP2019204374A true JP2019204374A (en) 2019-11-28
JP7146450B2 JP7146450B2 (en) 2022-10-04

Family

ID=68727022

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018100067A Active JP7146450B2 (en) 2018-05-24 2018-05-24 object detector

Country Status (1)

Country Link
JP (1) JP7146450B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111598006A (en) * 2020-05-18 2020-08-28 北京百度网讯科技有限公司 Method and device for labeling objects
WO2022074946A1 (en) 2020-10-07 2022-04-14 株式会社Jvcケンウッド Image recognition device, image recognition method, and program
CN114842376A (en) * 2022-04-21 2022-08-02 上海闪马智能科技有限公司 State determination method, state determination device, storage medium and electronic device

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006139361A (en) * 2004-11-10 2006-06-01 Matsushita Electric Ind Co Ltd Object detecting device and its program
JP2010068222A (en) * 2008-09-10 2010-03-25 Olympus Imaging Corp Face detection controller, face detection control program and face detection control method
JP2010081587A (en) * 2008-08-29 2010-04-08 Canon Inc Imaging apparatus, and tracking method therefor
JP2011119917A (en) * 2009-12-02 2011-06-16 Denso Corp Display device for vehicle
JP2013148989A (en) * 2012-01-18 2013-08-01 Panasonic Corp Scan window size determination device, detection frame size histogram information acquisition device, and scan window size determination method
JP2014002454A (en) * 2012-06-15 2014-01-09 Panasonic Corp Person detection device and person detection method

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006139361A (en) * 2004-11-10 2006-06-01 Matsushita Electric Ind Co Ltd Object detecting device and its program
JP2010081587A (en) * 2008-08-29 2010-04-08 Canon Inc Imaging apparatus, and tracking method therefor
JP2010068222A (en) * 2008-09-10 2010-03-25 Olympus Imaging Corp Face detection controller, face detection control program and face detection control method
JP2011119917A (en) * 2009-12-02 2011-06-16 Denso Corp Display device for vehicle
JP2013148989A (en) * 2012-01-18 2013-08-01 Panasonic Corp Scan window size determination device, detection frame size histogram information acquisition device, and scan window size determination method
JP2014002454A (en) * 2012-06-15 2014-01-09 Panasonic Corp Person detection device and person detection method

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111598006A (en) * 2020-05-18 2020-08-28 北京百度网讯科技有限公司 Method and device for labeling objects
KR20210058768A (en) * 2020-05-18 2021-05-24 베이징 바이두 넷컴 사이언스 앤 테크놀로지 코., 엘티디. Method and device for labeling objects
JP2021192223A (en) * 2020-05-18 2021-12-16 ベイジン バイドゥ ネットコム サイエンス テクノロジー カンパニー リミテッド Method and apparatus for labeling object, electronic device, computer readable storage medium and computer program
JP7249372B2 (en) 2020-05-18 2023-03-30 阿波▲羅▼智▲聯▼(北京)科技有限公司 Methods and apparatus, electronic devices, computer readable storage media and computer programs for labeling objects
CN111598006B (en) * 2020-05-18 2023-05-26 阿波罗智联(北京)科技有限公司 Method and device for labeling objects
KR102547527B1 (en) * 2020-05-18 2023-06-26 아폴로 인텔리전트 커넥티비티 (베이징) 테크놀로지 씨오., 엘티디. Method and device for labeling objects
WO2022074946A1 (en) 2020-10-07 2022-04-14 株式会社Jvcケンウッド Image recognition device, image recognition method, and program
CN114842376A (en) * 2022-04-21 2022-08-02 上海闪马智能科技有限公司 State determination method, state determination device, storage medium and electronic device

Also Published As

Publication number Publication date
JP7146450B2 (en) 2022-10-04

Similar Documents

Publication Publication Date Title
JP6115335B2 (en) Information processing apparatus, information processing method, and program
US9514541B2 (en) Image processing apparatus and image processing method
US9390334B2 (en) Number of persons measurement device
KR101788269B1 (en) Method and apparatus for sensing innormal situation
US11417134B2 (en) Image analysis device, image analysis method, and recording medium
JP2019204374A (en) Object detecting apparatus
JP6504156B2 (en) INFORMATION PROCESSING APPARATUS, INFORMATION PROCESSING METHOD, AND PROGRAM
KR101840042B1 (en) Multi-Imaginary Fence Line Setting Method and Trespassing Sensing System
JP4821355B2 (en) Person tracking device, person tracking method, and person tracking program
JP6620443B2 (en) Monitoring program, monitoring apparatus, and monitoring method
US20180307896A1 (en) Facial detection device, facial detection system provided with same, and facial detection method
JPWO2015125544A1 (en) Information processing apparatus, information processing method, and program
JP5647459B2 (en) Moving object detection device
CN113646803A (en) Human detection device and human detection method
JPH11257931A (en) Object recognizing device
JP2008035301A (en) Mobile body tracing apparatus
JP2001008197A (en) Device for analyzing human action and recording medium for recording human action analytic program
JP3857558B2 (en) Object tracking method and apparatus
JP7020931B2 (en) Target person detection device
JP5805511B2 (en) Image monitoring device
JP7214437B2 (en) Information processing device, information processing method and program
JP6831396B2 (en) Video monitoring device
US20230062785A1 (en) Estimation apparatus, estimation method, and computer program product
JP2001148077A (en) Intruder detecting device
US10922864B2 (en) Image processing device, image processing method and program, for object detection in an image

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210407

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220308

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220316

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220428

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220907

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220921

R150 Certificate of patent or registration of utility model

Ref document number: 7146450

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150