JP2018156354A - Procession length estimation apparatus, method, and program - Google Patents

Procession length estimation apparatus, method, and program Download PDF

Info

Publication number
JP2018156354A
JP2018156354A JP2017052209A JP2017052209A JP2018156354A JP 2018156354 A JP2018156354 A JP 2018156354A JP 2017052209 A JP2017052209 A JP 2017052209A JP 2017052209 A JP2017052209 A JP 2017052209A JP 2018156354 A JP2018156354 A JP 2018156354A
Authority
JP
Japan
Prior art keywords
image
matrix
small block
unit
degree
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017052209A
Other languages
Japanese (ja)
Other versions
JP6621435B2 (en
Inventor
新井 啓之
Hiroyuki Arai
啓之 新井
悠 米本
Haruka Yonemoto
悠 米本
杵渕 哲也
Tetsuya Kinebuchi
哲也 杵渕
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2017052209A priority Critical patent/JP6621435B2/en
Publication of JP2018156354A publication Critical patent/JP2018156354A/en
Application granted granted Critical
Publication of JP6621435B2 publication Critical patent/JP6621435B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To accurately estimate the length of a procession even in a camera that is almost in landscape orientation, even in a situation where the procession and passing persons are mixed, and even when the background has a complex texture.SOLUTION: A staying degree evaluation unit 30 evaluates the staying degree for each small block, and a congestion degree evaluation unit 40 evaluates the congestion degree for each small block. A small-block dedicated procession likelihood calculation unit 50 calculates an evaluation value of the procession likelihood. A procession state determination unit 60 determines whether the state is in a procession state by integrating evaluation values of the procession likelihood for each of a plurality of determination regions. A procession length estimation unit 70 determines how much the determination regions determined as being in the procession state are arranged in succession.SELECTED DRAWING: Figure 1

Description

本発明は、行列長推定装置、方法、及びプログラムに係り、特に、人物の待ち行列の長さを推定する行列長推定装置、方法、及びプログラムに関する。   The present invention relates to a matrix length estimation apparatus, method, and program, and more particularly, to a matrix length estimation apparatus, method, and program for estimating a queue length of a person.

カメラを用いてその場所における行列の状態を計測、推定する技術は、基本とする画像処理技術の点から大きく2つに分類することができる。   Techniques for measuring and estimating the state of a matrix at a location using a camera can be roughly classified into two from the viewpoint of basic image processing techniques.

一つ目は、画像中の個人を検出または追跡することで人数や待ち時間を計測する技術である。特許文献1では、カメラから入力された画像系列を用いて、前景画像(背景差分)と速度画像(オプティカルフロー)を算出し、これらに基づき個人を検出するとともに、行列長と行列内の人物の移動速度を推定している。   The first is a technique for measuring the number of people and waiting time by detecting or tracking individuals in an image. In Patent Document 1, a foreground image (background difference) and a velocity image (optical flow) are calculated using an image series input from a camera, and an individual is detected based on these images, and the matrix length and the person in the matrix are detected. The moving speed is estimated.

二つ目は、個人個人を検出することなく、画像内の所定領域内の画像特徴を計算し、これに基づき混雑度合を推定する手法である。非特許文献1では、人の密度が高まるにつれて画像のテクスチャが複雑化する(壁や床面などの背景に比べ、雑踏の画像は濃淡の空間変化が複雑になる)ことに着目し、テクスチャの複雑度を示す指標として、画像テクスチャのフラクタル次元を計算し、その値に基づき混雑度を推定している。この方法またはこのような画像のテクスチャ特徴に基づき混雑度合を推定する手法は、混雑時に発生するオクルージョンの問題に対して頑健であり、横向きに近いカメラ画像にも適用可能であるという長所を持つ。   The second method is a method for calculating the image feature in a predetermined region in the image without detecting the individual and estimating the degree of congestion based on the calculated image feature. In Non-Patent Document 1, focusing on the fact that the texture of an image becomes more complicated as the density of people increases (the image of a hustle becomes more complex in light and shade compared to the background such as walls and floors). As an index indicating complexity, the fractal dimension of the image texture is calculated, and the congestion degree is estimated based on the calculated value. This method or the method of estimating the degree of congestion based on the texture characteristics of such an image is robust against the problem of occlusion that occurs at the time of congestion, and has an advantage that it can be applied to a camera image close to the horizontal direction.

特開2007-317052号公報Japanese Unexamined Patent Publication No. 2007-317052

A.N. Marana, L.F. Costa, R.A. Lotufo, and S.A. Velastin. “On the efficacy of texture analysis for crowd monitoring”, SIBGRAPI ’98, pp.354-361, Oct. 1998.A.N.Marana, L.F.Costa, R.A.Lotufo, and S.A.Velastin. “On the efficacy of texture analysis for crowd monitoring”, SIBGRAPI '98, pp.354-361, Oct. 1998.

しかしながら、上記一つ目の技術のように個人個人を検出する手法は、カメラの撮影角度が横向きに近く画像上で人物同士が重畳する所謂オクルージョンが発生する状況においては正しい結果が得られなくなるという問題があった。   However, the method of detecting an individual person as in the first technique described above cannot obtain a correct result in a situation in which so-called occlusion occurs in which the shooting angle of the camera is close to the sideways and people are superimposed on the image. There was a problem.

上記二つ目の技術では、行列待ちによる混雑と通過者による混雑を区別することができないため、行列以外の通過者が多い場所には適用できないという問題があった。また、その場所の背景(人がいない状態の画像)に細かな構造物や模様があり複雑なテクスチャを持つ場合など、背景の状態によっては、テクスチャ特徴からだけでは、混雑しているのかどうかを正しく判断できなくなるという問題もあった。   The second technique described above has a problem that it cannot be applied to a place where there are many passers other than the queue because it cannot distinguish between congestion due to queue waiting and congestion due to passers. Also, depending on the state of the background, whether it is congested or not, depending on the state of the background, such as when there is a fine structure or pattern on the background (image without people) and there is a complicated texture, There was also a problem that it could not be judged correctly.

本発明は、上記問題点を解決するために成されたものであり、横向きに近いカメラにおいても適用可能で、かつ行列と通過者が混在するような状況、さらに背景が複雑なテクスチャを持つような場合であっても、精度良く行列長を推定することができる行列長推定装置、方法、及びプログラムを提供することを目的とする。   The present invention has been made to solve the above-described problems, and can be applied to a camera that is close to the horizontal direction, has a situation where a matrix and passers are mixed, and has a complicated background texture. Even in such a case, it is an object to provide a matrix length estimation device, method, and program capable of accurately estimating the matrix length.

上記目的を達成するために、本発明に係る行列長推定装置は、固定カメラで撮影した映像を用いて、人物の待ち行列の長さを推定する行列長推定装置であって、時系列順にフレーム画像の入力を受け付ける入力部と、時系列順に入力されたフレーム画像に基づいて、画像中の小ブロック毎に、画素値の時間変化を分析することで人物の滞留度を評価する滞留度評価部と、時系列順に入力されたフレーム画像に基づいて、画像中の小ブロック毎に、画素値の空間分布を分析することで人物の混雑度を評価する混雑度評価部と、前記小ブロック毎に、前記小ブロックについて評価された前記滞留度及び前記混雑度に基づいて、行列らしさの評価値を算出する小ブロック毎行列らしさ算出部と、画像中に設定された複数の判定用領域の各々について、前記判定用領域に含まれる小ブロックの各々について算出された前記行列らしさの評価値を統合することで、前記判定用領域が行列状態にあるかどうかを判定する行列状態判定部と、前記行列状態にあると判定された前記判定用領域がどれだけ連続して並んでいるかを判定することで、前記人物の待ち行列の長さを推定する行列長推定部と、を含んで構成されている。   In order to achieve the above object, a matrix length estimation apparatus according to the present invention is a matrix length estimation apparatus that estimates a queue length of a person using video captured by a fixed camera, and includes frames in chronological order. An input unit that accepts input of an image, and a staying degree evaluation unit that evaluates a person's staying degree by analyzing temporal changes of pixel values for each small block in the image based on frame images input in time series order And a degree-of-congestion evaluation unit that evaluates the degree of congestion of a person by analyzing the spatial distribution of pixel values for each small block in the image based on the frame images input in chronological order, and for each small block A matrix-likeness calculation unit for each small block that calculates an evaluation value of matrixiness based on the staying degree and the degree of congestion evaluated for the small block, and each of a plurality of determination areas set in the image A matrix state determination unit that determines whether or not the determination region is in a matrix state by integrating evaluation values of the matrix-likeness calculated for each of the small blocks included in the determination region; and the matrix state And a matrix length estimation unit that estimates the length of the queue of the person by determining how long the determination areas determined to be in line are arranged.

本発明に係る行列長推定方法は、固定カメラで撮影した映像を用いて、人物の待ち行列の長さを推定する行列長推定装置における行列長推定方法であって、入力部が、時系列順にフレーム画像の入力を受け付け、滞留度評価部が、時系列順に入力されたフレーム画像に基づいて、画像中の小ブロック毎に、画素値の時間変化を分析することで人物の滞留度を評価し、混雑度評価部が、時系列順に入力されたフレーム画像に基づいて、画像中の小ブロック毎に、画素値の空間分布を分析することで人物の混雑度を評価し、小ブロック毎行列らしさ算出部が、前記小ブロック毎に、前記小ブロックについて評価された前記滞留度及び前記混雑度に基づいて、行列らしさの評価値を算出し、行列状態判定部が、画像中に設定された複数の判定用領域の各々について、前記判定用領域に含まれる小ブロックの各々について算出された前記行列らしさの評価値を統合することで、前記判定用領域が行列状態にあるかどうかを判定し、行列長推定部が、前記行列状態にあると判定された前記判定用領域がどれだけ連続して並んでいるかを判定することで、前記人物の待ち行列の長さを推定する。   A matrix length estimation method according to the present invention is a matrix length estimation method in a matrix length estimation apparatus that estimates a queue length of a person using video captured by a fixed camera, and an input unit is arranged in chronological order. Accepting input of frame images, the staying degree evaluation unit evaluates the staying degree of a person by analyzing temporal changes in pixel values for each small block in the image based on the frame images input in chronological order. Based on the frame images input in chronological order, the congestion degree evaluation unit evaluates the person's congestion degree by analyzing the spatial distribution of pixel values for each small block in the image, and it is like a matrix for each small block. For each of the small blocks, the calculation unit calculates a matrix-like evaluation value based on the staying degree and the congestion degree evaluated for the small block, and the matrix state determination unit includes a plurality of matrix state determination units set in the image. Judgment area for For each, by integrating the matrix-likeness evaluation values calculated for each of the small blocks included in the determination area, it is determined whether the determination area is in a matrix state, the matrix length estimation unit is The length of the queue for the person is estimated by determining how many consecutive determination areas determined to be in the queue state are arranged.

本発明に係るプログラムは、上記発明に係る行列長推定装置の各部として機能させるためのプログラムである。   The program which concerns on this invention is a program for functioning as each part of the matrix length estimation apparatus which concerns on the said invention.

本発明の行列長推定装置、方法、及びプログラムによれば、小ブロック毎に、滞留度及び混雑度を評価して、行列らしさの評価値を算出し、複数の判定用領域の各々について、行列らしさの評価値を統合することで、行列状態にあるかどうかを判定し、行列状態にあると判定された判定用領域がどれだけ連続して並んでいるかを判定することで、人物の待ち行列の長さを推定することにより、横向きに近いカメラにおいても適用可能で、かつ行列と通過者が混在するような状況、さらに背景が複雑なテクスチャを持つような場合であっても、精度良く行列長を推定することができる、という効果が得られる。   According to the matrix length estimation apparatus, method, and program of the present invention, for each small block, the staying degree and the congestion degree are evaluated, the evaluation value of the matrix likelihood is calculated, and the matrix is determined for each of the plurality of determination areas. By integrating the evaluation values of the likelihood, it is determined whether or not it is in a matrix state, and by determining how many consecutive determination areas determined to be in the matrix state are arranged, By estimating the length of the matrix, it can be applied to cameras that are close to the side, and even in situations where the matrix and passers are mixed, and even when the background has a complex texture, the matrix is accurate. The effect that the length can be estimated is obtained.

本発明の実施の形態に係る行列長推定装置の構成を示すブロック図である。It is a block diagram which shows the structure of the matrix length estimation apparatus which concerns on embodiment of this invention. 滞留度を算出する方法を説明するための図である。It is a figure for demonstrating the method to calculate a residence degree. 混雑度を算出する方法を説明するための図である。It is a figure for demonstrating the method of calculating a congestion degree. 行列状態を判定し、行列長を推定する方法を説明するための図である。It is a figure for demonstrating the method of determining a matrix state and estimating a matrix length. 本発明の実施の形態に係る行列長推定装置における行列長推定処理ルーチンを示すフローチャートである。It is a flowchart which shows the matrix length estimation process routine in the matrix length estimation apparatus which concerns on embodiment of this invention. 本発明の実施の形態に係る行列長推定装置における滞留度を評価する処理の流れを示すフローチャートである。It is a flowchart which shows the flow of the process which evaluates the residence degree in the matrix length estimation apparatus which concerns on embodiment of this invention. 本発明の実施の形態に係る行列長推定装置における混雑度を評価する処理の流れを示すフローチャートである。It is a flowchart which shows the flow of the process which evaluates the congestion degree in the matrix length estimation apparatus which concerns on embodiment of this invention.

以下、図面を参照して本発明の実施の形態を詳細に説明する。   Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.

<本発明の実施の形態に係る行列長推定装置の構成>
次に、本発明の実施の形態に係る行列長推定装置の構成について説明する。図1に示すように、本発明の実施の形態に係る行列長推定装置100は、CPUと、RAMと、後述する行列長推定処理ルーチンを実行するためのプログラムや各種データを記憶したROMと、を含むコンピュータで構成することが出来る。この行列長推定装置100は、機能的には図1に示すように、入力部10と、演算部20と、出力部90とを備えている。
<Configuration of Matrix Length Estimation Device According to Embodiment of the Present Invention>
Next, the configuration of the matrix length estimation apparatus according to the embodiment of the present invention will be described. As shown in FIG. 1, a matrix length estimation apparatus 100 according to an embodiment of the present invention includes a CPU, a RAM, a ROM for storing a program and various data for executing a matrix length estimation processing routine described later, Can be configured with a computer including Functionally, the matrix length estimation apparatus 100 includes an input unit 10, a calculation unit 20, and an output unit 90, as shown in FIG.

入力部10は、固定カメラで撮影した映像の動画ファイル、又は静止画系列などの画像系列からフレーム画像を1枚ずつ取得する。ここでは時系列順にフレーム画像の入力を受け付ける。   The input unit 10 acquires frame images one by one from a video file captured by a fixed camera or an image sequence such as a still image sequence. Here, input of frame images is received in time series order.

なお、本実施の形態では、固定カメラで撮影された画像データ(映像データ)を計算機に入力し計算機上で画像処理を実施する場合を想定しているが、その詳細な形態は限定しない。また固定カメラから画像(映像)を逐一取得しながら処理を行うリアルタイム型の処理、一旦ハードディスクなどの記録媒体に記録された画像(映像)を読み出しながら処理していくオフライン型の処理のいずれに対しても適用可能である。   In this embodiment, it is assumed that image data (video data) captured by a fixed camera is input to a computer and image processing is performed on the computer, but the detailed form is not limited. Also, for either real-time processing that performs processing while acquiring images (video) from a fixed camera one by one, or offline processing that performs processing while reading images (video) once recorded on a recording medium such as a hard disk. Is applicable.

演算部20は、滞留度評価部30と、混雑度評価部40と、小ブロック毎行列らしさ算出部50と、行列状態判定部60と、行列長推定部70とを備えている。   The computing unit 20 includes a staying degree evaluation unit 30, a congestion degree evaluation unit 40, a small block-wise matrix likelihood calculation unit 50, a matrix state determination unit 60, and a matrix length estimation unit 70.

滞留度評価部30は、順次入力されたフレーム画像系列に対して、その画素値の時間的な変化を分析することで、画像中の小ブロック(画素もしくは小領域)毎に一時的に滞留する人物がいる可能性(ここでは滞留度と呼ぶ)を評価する。滞留度を評価する具体的な手法の一例を以下、図2を参照しながら説明する。   The staying degree evaluation unit 30 temporarily stays for each small block (pixel or small region) in the image by analyzing temporal changes in the pixel values of the sequentially input frame image series. Evaluate the possibility of a person (referred to here as the degree of stay). An example of a specific method for evaluating the staying degree will be described below with reference to FIG.

滞留度評価部30は、微分画像生成部31と、微分画像短時間平均部32と、微分画像長時間平均部33と、小ブロック毎相関値算出部34と、滞留度算出部35とを備えている。   The staying degree evaluation unit 30 includes a differential image generation unit 31, a differential image short time average unit 32, a differential image long time average unit 33, a small block correlation value calculation unit 34, and a staying degree calculation unit 35. ing.

微分画像生成部31は、フレーム画像の各々に対して、Sobelフィルタなどにより画素値の空間勾配(一次微分(または二次微分))を算出して微分画像を生成する。   The differential image generation unit 31 calculates a spatial gradient (primary differentiation (or secondary differentiation)) of pixel values for each of the frame images using a Sobel filter or the like to generate a differential image.

微分画像短時間平均部32及び微分画像長時間平均部33は、生成された微分画像を、現在から過去の一定時間(もしくは一定のフレーム枚数)に対して平均化する。この際、どの程度過去まで遡るか(平均を取る際の時間幅)については短時間のものと長時間のものとの二通りを考え、それぞれ平均化処理を行う。この平均化の際の時間幅(もしくは枚数)については経験的に設定すれば良いが、例としては、短時間の平均については、0.5秒間隔、合計2秒(4枚程度)で平均化し、長時間の平均については1秒間隔、合計3分(180枚程度)で平均化する。定性的な目安としては、図2中段の図のように、短時間平均をとることによって主として背景のエッジと滞留者のエッジが観測される(平均化により通過者のエッジは弱くなる)状態となるように(極力このような性質の画像が得られるように)、また長時間平均を取ることによって行列に並んでいる人も含めて人物のエッジがあまり観測されなくなる状態となるように(行列が進めば平均画像のエッジはボケるので、行列であっても動いていることが期待される程度の長めの時間で)、パラメータを決めれば良い(絶対的な指針はないので処理結果を見ながら試行錯誤的に決定する)。   The differential image short-time average unit 32 and the differential image long-time average unit 33 average the generated differential images for a certain period of time (or a certain number of frames) from the present to the past. At this time, with regard to how far back to the past (time width when taking an average), two types of short-time and long-time ones are considered, and averaging processing is performed respectively. The time width (or the number of sheets) at the time of averaging may be set empirically, but as an example, the average for a short time is averaged at intervals of 0.5 seconds for a total of 2 seconds (about 4 sheets) For long-term average, average every 3 seconds (about 180 sheets) at 1-second intervals. As a qualitative measure, as shown in the middle figure of FIG. 2, the background edge and the staying person's edge are mainly observed by taking a short time average (the passing person's edge becomes weaker by averaging). So that the edge of the person is not observed much (including the person who is lining up in the matrix by taking the average for a long time) If the process proceeds, the average image edge will be blurred, so even if it is a matrix, it should be long enough to be expected to move. While determining by trial and error).

小ブロック毎相関値算出部34は、前述の処理で得られた微分画像の短時間平均画像と微分画像の長時間平均画像について、画像上の同じ位置にある個々の小ブロック(例えば画像全体を20画素×20画素の矩形の小ブロックにタイル分割したもの)毎に、相関値を算出する。相関値の算出アルゴリズムとしては、正規化相関、位相限定相関など様々なものがあるが、ここではその相関算出アルゴリズムは限定せず、小ブロックの画像の輝度パターンが類似している場合に高い相関値が出力されるアルゴリズムであれば良い。
なお、二つの画像のフーリエ変換の位相成分を取り出して相関を計算する位相限定相関法は、画素値の絶対値にあまり依存せず、画像上の輝度の変化点(画素値が空間方向に対して急峻に変化する点)が同じ位置にある場合に高い相関値が出力される性質があるため、前述の微分画像の短時間平均画像、長時間平均画像に何らかのノイズや輝度変動等が加わっている場合にも比較的安定した結果を得ることができる。
The correlation value calculation unit 34 for each small block, for the short-time average image of the differential image and the long-time average image of the differential image obtained by the above-described processing, individual small blocks (for example, the entire image) at the same position on the image. Correlation values are calculated for each tile divided into rectangular small blocks of 20 pixels × 20 pixels. There are various correlation value calculation algorithms such as normalized correlation and phase-only correlation. Here, the correlation calculation algorithm is not limited, and high correlation is obtained when the luminance patterns of small block images are similar. Any algorithm that outputs a value may be used.
Note that the phase-only correlation method, which extracts the phase components of the Fourier transform of two images and calculates the correlation, does not depend much on the absolute value of the pixel value, and does not depend on the absolute value of the pixel value. If the point is a sharply changing point) at the same position, a high correlation value is output, so that the short-time average image and the long-time average image described above are subject to some noise and brightness fluctuations. Even in the case where it is, a relatively stable result can be obtained.

滞留度算出部35は、小ブロック毎に、算出された相関値に基づいて、滞留度を算出する。上記のようにして相関値を算出した場合、一定時間滞留した人物が存在している小ブロックでは、その相関値が低い値をとることが期待される。つまり相関値が小さいほど滞留度が高いという関係にある。したがって相関値が仮に−1〜+1で出力されるのであれば、以下の式によって、滞留度を算出すれば良い。   The staying degree calculation unit 35 calculates the staying degree for each small block based on the calculated correlation value. When the correlation value is calculated as described above, the correlation value is expected to be low in a small block in which a person staying for a certain period of time exists. That is, the smaller the correlation value, the higher the staying degree. Therefore, if the correlation value is output in the range of −1 to +1, the staying degree may be calculated by the following equation.

滞留度=1−(相関値+1)/2 Residence degree = 1-(correlation value + 1) / 2

混雑度評価部40は、入力されたフレーム画像の各々に対して、その画素値の空間的な変化つまり画像上のテクスチャを分析することで、画像中の小ブロック(画素もしくは小領域)毎に混雑度合(ここでは混雑度と呼ぶ)を評価する。これは、人が密集し、画像上で人の頭部や上半身が密集している状態などでは、画像のテクスチャに特徴が表れるため、個人個人の数を数えなくともテクスチャの状態から大凡の混雑状態を推定できるという知見に基づいている。混雑度を評価する具体的な手法の一例を以下、図3を参照しながら説明する。   The congestion degree evaluation unit 40 analyzes the spatial change of the pixel value, that is, the texture on the image, for each input frame image, so that each small block (pixel or small region) in the image is analyzed. Evaluate the degree of congestion (referred to here as the degree of congestion). This is because when people are crowded and people's heads and upper body are crowded on the image, the texture of the image is characteristic, so even if the number of individuals is not counted, it is roughly congested from the texture state. This is based on the knowledge that the state can be estimated. An example of a specific method for evaluating the degree of congestion will be described below with reference to FIG.

混雑度評価部40は、短時間平均部41と、二次微分算出部42と、小ブロック毎統計値算出部43と、混雑度算出部44とを備えている。   The congestion level evaluation unit 40 includes a short-time average unit 41, a secondary differential calculation unit 42, a small block statistical value calculation unit 43, and a congestion level calculation unit 44.

短時間平均部41は、フレーム画像を、現在から過去の一定の短時間(もしくは一定のフレーム枚数)に対して平均化して生成される短時間平均画像を求める。   The short-time averaging unit 41 obtains a short-time average image generated by averaging the frame images with respect to a certain short time (or a certain number of frames) from the present to the past.

二次微分算出部42は、短時間平均画像の二次微分(Laplacianフィルタなどを用いて計算できる)を計算する。   The secondary differential calculation unit 42 calculates the secondary differential (which can be calculated using a Laplacian filter or the like) of the short-time average image.

小ブロック毎統計値算出部43は、小ブロック毎に、計算された二次微分値の平均値または分散値である統計値を算出する。例えば、二次微分値の平均値は、混雑度の簡便な指標となる。   The statistical value calculation unit 43 for each small block calculates a statistical value that is an average value or a variance value of the calculated secondary differential values for each small block. For example, the average value of the secondary differential values is a simple indicator of the degree of congestion.

混雑度算出部44は、滞留度評価部30で設定した小ブロックと同じ小ブロック毎に、混雑度の指標となるテクスチャの評価値(例としては二次微分値の平均値)を算出する。なお、二次微分値の代わりにSobelフィルタ等による一次微分値を用いても類似した結果が期待できるが、ごみごみとした人ごみ特有のテクスチャと二次微分値の大きさは良く対応するため、二次微分値のほうがより良い結果が得られると期待できる。また微分値の平均値だけでなく、その分散も混雑度を示す指標として有用と考えられる。なお、このようなテクスチャの状態を表すテクスチャ特徴から混雑度を推定する手法は、上記の例の他、非特許文献1をはじめとして様々な手法が存在しているため、本発明においてはその方法は限定しないものとする。また、単にフレーム画像の微分を計算するのではなく、画像の時間平均(数秒程度の比較的に短い時間で)をとった画像について微分値を算出する方式のほうがより精度良く行列に関する混雑度を評価できると期待される。これは、行列に並んでいる人は基本は静止しつつたまに動く、という性質があるため、短時間で見るとほぼ静止していることが多く、短時間平均をとることで、通過者については輪郭がぼやけて微分値(または二次微分値)の絶対値が小さくなるが、行列中の人物からは高い微分値が出ることが期待できるためである。またテクスチャ特徴からの混雑度の算出においては、一般的な前景検出技術(動き領域の検出技術)と組み合せ、全く動きの検出されない画素や小ブロックについてはテクスチャ特徴を算出しない(先の二次微分値の例であれば二次微分値を算出しない)、評価しない等、動きの全くない領域では混雑度の値が低くなるような工夫を加えることで、複雑なテクスチャを持つ場所を誤って行列状態と判定してしまう可能性を抑制することができる。   The congestion degree calculation unit 44 calculates a texture evaluation value (for example, an average value of secondary differential values) that is an index of the congestion degree for each small block that is the same as the small block set by the staying degree evaluation unit 30. Similar results can be expected by using a primary differential value such as a Sobel filter instead of the secondary differential value. However, since the size of the secondary differential value corresponds well to the texture specific to garbage as garbage, You can expect better results with the second derivative. Further, not only the average value of the differential value but also its variance is considered useful as an index indicating the degree of congestion. In addition, in the present invention, there are various methods for estimating the degree of congestion from the texture feature representing the texture state in addition to the above example, including Non-Patent Document 1. Is not limited. Also, rather than simply calculating the derivative of the frame image, the method of calculating the derivative value for the image obtained by taking the time average of the image (with a relatively short time of about several seconds) can provide a more accurate matrix congestion degree. Expected to be evaluated. This is because people who are lined up have the property that they basically move while standing still, so they are often almost stationary when viewed in a short time, and by taking an average for a short time, This is because the contour is blurred and the absolute value of the differential value (or the secondary differential value) becomes small, but a high differential value can be expected from a person in the matrix. In addition, the calculation of the degree of congestion from the texture features is combined with a general foreground detection technology (motion region detection technology), and texture features are not calculated for pixels and small blocks in which no motion is detected (secondary differentiation described above). If the value is an example, the second derivative value is not calculated), and evaluation is not performed. For example, by adding ingenuity that lowers the degree of congestion in areas where there is no movement, a matrix with a complex texture is mistakenly displayed. The possibility of determining the state can be suppressed.

小ブロック毎行列らしさ算出部50は、前述のようにして小ブロック毎に算出された滞留度および混雑度を統合して、行列らしさの評価値を算出する。滞留度が高く、かつ混雑度が高い場合にその小ブロックは行列らしいものと考え、例えば、滞留度と混雑度の和または積を計算することで行列らしさの評価値を得ることができる。   Matrix-likeness calculation unit 50 for each small block integrates the staying degree and the congestion degree calculated for each small block as described above, and calculates an evaluation value for the matrixiness. When the staying degree is high and the degree of congestion is high, the small block is considered to be a matrix, and for example, an evaluation value of matrixiness can be obtained by calculating the sum or product of the staying degree and the degree of congestion.

行列状態判定部60は、画像中に設定された複数の判定用領域の各々について、当該判定用領域に含まれる小ブロックの各々について算出された行列らしさの評価値を統合することで、当該判定用領域が行列状態にあるかどうかを判定する。   The matrix state determination unit 60 integrates, for each of the plurality of determination areas set in the image, the evaluation value of the matrix likelihood calculated for each of the small blocks included in the determination area. It is determined whether the work area is in a matrix state.

具体的には、行列長を推定するために、図4のように画像内に複数の判定用領域を設定して、それぞれの判定用領域が行列状態にあるかどうかを判定することで、行列がどこまで伸びているのか(行列長)を推定する。なおこの判定用領域は、固定カメラを設置後、目視で、画像上で行列ができると想定される位置に設定する(典型的には、図4の例のように、想定される行列の始点から行列の伸びる方向に、少しずつずらしながら複数の判定用領域を設定していく)。それぞれの判定用領域が行列状態にあるかどうかの判定は、前述したように小ブロック毎に算出された行列らしさの評価値に基いてそれぞれの判定用領域が行列状態にあるか否かを判定する。簡便には、判定用領域毎にそこに含まれる小ブロックの行列らしさ評価値の平均値を求め、その平均値が予め経験的に設定しておいた閾値以上である場合には行列状態と判定し、閾値未満である場合には行列状態ではないと判定すれば良い。   Specifically, in order to estimate the matrix length, a plurality of determination areas are set in the image as shown in FIG. 4, and it is determined whether each determination area is in a matrix state. Estimate how far is extended (matrix length). This determination area is set at a position where a matrix is supposed to be formed on the image by visual observation after installing the fixed camera (typically, as shown in the example of FIG. 4, the starting point of the assumed matrix Set a plurality of judgment areas while shifting little by little in the direction in which the matrix extends. As described above, whether each determination area is in a matrix state is determined based on the matrix-likeness evaluation value calculated for each small block as described above. To do. For convenience, the average value of the matrix-likeness evaluation values of the small blocks included in each determination area is obtained, and if the average value is equal to or greater than a threshold set in advance, it is determined as a matrix state. If it is less than the threshold, it may be determined that the matrix state is not established.

なお、前述の小ブロック毎の行列らしさの評価値は、その場所の人の写り方や動きに応じて時々刻々一定の揺らぎ(不安定さ)を伴うことが考えられる。一方で行列が形成されている場合には、数十秒から数分程度の時間幅で行列は存在しているものと考えられるため、例えば、小ブロック毎に算出された行列らしさ評価値の時間平均(時間方向の移動平均)をとることで、最終的な判定結果を安定させることができる。   It should be noted that the matrix-like evaluation value for each small block described above may be accompanied by constant fluctuation (instability) from moment to moment depending on how the person in the place is reflected and the movement. On the other hand, when a matrix is formed, it is considered that the matrix exists with a time width of several tens of seconds to several minutes. For example, the time of the matrix evaluation value calculated for each small block By taking the average (moving average in the time direction), the final determination result can be stabilized.

行列長推定部70は、行列状態にあると判定された判定用領域がどれだけ連続して並んでいるかを判定することで、人物の待ち行列の長さを推定する。   The matrix length estimation unit 70 estimates the length of a person's queue by determining how many consecutive determination areas determined to be in a matrix state are arranged.

また、人物の待ち行列の長さと待ち時間の関係が経験的に既知である場合(例えば、判定用領域2番までの行列は15分待ちなど)、人物の待ち行列の長さの推定結果から待ち時間を推計することも可能となる。   In addition, when the relationship between the queue length of the person and the waiting time is empirically known (for example, the queue up to the determination area 2 is 15 minutes), the estimation result of the queue length of the person is used. It is also possible to estimate the waiting time.

<本発明の実施の形態に係る行列長推定装置の作用>
次に、本発明の実施の形態に係る行列長推定装置100の作用について説明する。行列長推定装置100は、入力部10によって所定時間範囲のフレーム画像を時系列順に受け付ける毎に、図5に示す行列長推定処理ルーチンを繰り返し実行する。
<Operation of Matrix Length Estimation Device According to Embodiment of the Present Invention>
Next, the operation of the matrix length estimation apparatus 100 according to the embodiment of the present invention will be described. The matrix length estimation apparatus 100 repeatedly executes the matrix length estimation processing routine shown in FIG. 5 every time the input unit 10 receives frame images in a predetermined time range in chronological order.

まず、ステップS100では、時系列順に入力されたフレーム画像に基づいて、画像中の小ブロック毎に、画素値の時間変化を分析することで人物の滞留度を評価する。   First, in step S100, based on frame images input in chronological order, a person's staying degree is evaluated by analyzing temporal changes of pixel values for each small block in the image.

ステップS102では、時系列順に入力されたフレーム画像に基づいて、画像中の小ブロック毎に、画素値の空間分布を分析することで人物の混雑度を評価する。   In step S102, the degree of congestion of the person is evaluated by analyzing the spatial distribution of pixel values for each small block in the image based on the frame images input in chronological order.

ステップS104では、小ブロック毎に、当該小ブロックについて上記ステップS100、S102で評価された滞留度及び混雑度に基づいて、行列らしさの評価値を算出する。   In step S104, for each small block, a matrix-like evaluation value is calculated based on the staying degree and the congestion degree evaluated in steps S100 and S102 for the small block.

ステップS106では、画像中に設定された複数の判定用領域の各々について、当該判定用領域に含まれる小ブロックの各々について上記ステップS104で算出された行列らしさの評価値を統合することで、当該判定用領域が行列状態にあるかどうかを判定する。   In step S106, for each of a plurality of determination areas set in the image, the matrix-likeness evaluation values calculated in step S104 are integrated for each of the small blocks included in the determination area. It is determined whether the determination area is in a matrix state.

ステップS108では、行列状態にあると判定された判定用領域がどれだけ連続して並んでいるかを判定することで、人物の待ち行列の長さを推定し、出力部90により出力し、行列長推定処理ルーチンを終了する。   In step S108, the length of a person's queue is estimated by determining how long the determination areas determined to be in a matrix state are arranged, and output by the output unit 90. The estimation processing routine is terminated.

上記ステップS100は、図6に示す処理ルーチンにより実現される。   Step S100 is realized by the processing routine shown in FIG.

ステップS110では、フレーム画像の各々に対し、当該フレーム画像の一次微分又は二次微分を算出して微分画像を生成する。   In step S110, for each frame image, a first derivative or a second derivative of the frame image is calculated to generate a differential image.

ステップS112では、微分画像を、短時間範囲に亘って平均化して、微分画像の短時間平均画像を生成する。   In step S112, the differential image is averaged over a short time range to generate a short time average image of the differential image.

ステップS114では、微分画像を、長時間範囲に亘って平均化して、微分画像の長時間平均画像を求める。   In step S114, the differential image is averaged over a long time range to obtain a long time average image of the differential image.

ステップS116では、小ブロック毎に、長時間平均画像及び短時間平均画像の当該小ブロックにおける相関値を算出する。   In step S116, the correlation value in the small block of the long time average image and the short time average image is calculated for each small block.

ステップS118では、小ブロック毎に、算出された相関値に基づいて、滞留度を算出し、処理ルーチンを終了する。   In step S118, the staying degree is calculated for each small block based on the calculated correlation value, and the processing routine is terminated.

上記ステップS102は、図7に示す処理ルーチンにより実現される。   Step S102 is realized by the processing routine shown in FIG.

ステップS120では、フレーム画像を、所定の短時間範囲に亘って平均化して、フレーム画像の短時間平均画像を生成する。   In step S120, the frame images are averaged over a predetermined short time range to generate a short time average image of the frame images.

ステップS122では、短時間平均画像について、画像の空間方向の二次微分を算出する。   In step S122, the second-order derivative in the spatial direction of the image is calculated for the short-time average image.

ステップS124では、小ブロック毎に、計算された二次微分の統計値を算出する。   In step S124, the calculated statistical value of the second derivative is calculated for each small block.

ステップS126では、小ブロック毎に、算出された二次微分の統計値に基づいて、混雑度を算出し、処理ルーチンを終了する。   In step S126, the degree of congestion is calculated for each small block based on the calculated statistical value of the second derivative, and the processing routine is terminated.

以上説明したように、本発明の実施の形態に係る行列長推定装置によれば、小ブロック毎に、滞留度及び混雑度を評価して、行列らしさの評価値を算出し、複数の判定用領域の各々について、行列らしさの評価値を統合することで、行列状態にあるかどうかを判定し、行列状態にあると判定された判定用領域がどれだけ連続して並んでいるかを判定することで、人物の待ち行列の長さを推定することにより、横向きに近いカメラにおいても適用可能で、かつ行列と通過者が混在するような状況、さらに背景が複雑なテクスチャを持つような場合であっても、精度良く行列長を推定することができる。   As described above, according to the matrix length estimation apparatus according to the embodiment of the present invention, for each small block, the staying degree and the congestion degree are evaluated, the evaluation value of the matrix likelihood is calculated, and a plurality of determination uses For each of the regions, by integrating the evaluation values of matrix-likeness, it is determined whether or not it is in the matrix state, and how long the determination regions determined to be in the matrix state are arranged side by side Therefore, by estimating the queue length of people, it can be applied to cameras that are close to landscape, and there are situations where queues and passers are mixed, and the background has a complex texture. However, the matrix length can be estimated with high accuracy.

また、本発明の実施の形態では、個人の検出を一切行うことなく、テクスチャ特徴から混雑度を算出し、また行列中の人が基本的には静止しつつたまに動くと言う動きの特徴を滞留度として積極的に評価し、最終的にこれらを総合して判定することで、オクルージョンの発生するような横向きに近いカメラにおいても適用可能で、また行列と通過者が混在するような状況、さらに背景が複雑なテクスチャを持つような場合にも精度良く行列長を推定することができるようになる。   Further, in the embodiment of the present invention, the congestion degree is calculated from the texture feature without performing any individual detection, and the feature of the movement that the person in the matrix basically moves occasionally while staying is retained. By actively evaluating as a degree, and finally determining them comprehensively, it can also be applied to cameras that are close to the side where occlusion occurs, and there are situations where queues and passers are mixed, Even when the background has a complex texture, the matrix length can be accurately estimated.

また、各種窓口、イベント会場等の行列待ちが発生しやすい場所における安全管理やオペレーション最適化のために、その場所の行列の状態をカメラ画像から計測し、特に人物の待ち行列の長さを計測、推定することができる。   In addition, for safety management and optimizing operations in places where queues are likely to occur, such as various windows and event venues, the queue status of those locations is measured from camera images, especially the length of queues for people. Can be estimated.

本発明の実施の形態では、個人の検出を一切行うことなく、テクスチャ特徴から混雑度を算出し、また行列中の人が基本的には静止しつつたまに動くと言う動きの特徴を滞留度として積極的に評価し、最終的にこれらを総合して判定することで、オクルージョンの発生するような横向きに近いカメラにおいても適用可能で、また行列と通過者が混在するような状況、さらに背景が複雑なテクスチャを持つような場合にも精度良く行列長を推定することができるようになる。   In the embodiment of the present invention, the degree of congestion is calculated from the texture features without performing any individual detection, and the feature of the movement that people in the matrix basically move from time to time is defined as the staying degree. By positively evaluating and finally judging them comprehensively, it can also be applied to cameras that are close to the side where occlusion occurs, and there are situations where there are mixed queues and passers-by, as well as background. Even in the case of having a complex texture, the matrix length can be estimated with high accuracy.

なお、本発明は、上述した実施の形態に限定されるものではなく、この発明の要旨を逸脱しない範囲内で様々な変形や応用が可能である。   The present invention is not limited to the above-described embodiment, and various modifications and applications can be made without departing from the gist of the present invention.

例えば、小ブロック毎に滞留度を評価する方法として、上述した方法とは異なる方法を用いても良い。また、小ブロック毎に混雑度を評価する方法として、上述した方法とは異なる方法を用いても良い。   For example, as a method for evaluating the staying degree for each small block, a method different from the method described above may be used. Further, as a method for evaluating the degree of congestion for each small block, a method different from the method described above may be used.

10 入力部
20 演算部
30 滞留度評価部
31 微分画像生成部
32 微分画像短時間平均部
33 微分画像長時間平均部
34 小ブロック毎相関値算出部
35 滞留度算出部
40 混雑度評価部
41 短時間平均部
42 二次微分算出部
43 小ブロック毎統計値算出部
44 混雑度算出部
50 小ブロック毎行列らしさ算出部
60 行列状態判定部
70 行列長推定部
90 出力部
100 行列長推定装置
DESCRIPTION OF SYMBOLS 10 Input part 20 Operation part 30 Residence degree evaluation part 31 Differential image generation part 32 Differential image short time average part 33 Differential image long time average part 34 Small block correlation value calculation part 35 Residence degree calculation part 40 Congestion degree evaluation part 41 Short Time average unit 42 Secondary differential calculation unit 43 Small block statistical value calculation unit 44 Congestion degree calculation unit 50 Small block matrix likelihood calculation unit 60 Matrix state determination unit 70 Matrix length estimation unit 90 Output unit 100 Matrix length estimation device

Claims (7)

固定カメラで撮影した映像を用いて、人物の待ち行列の長さを推定する行列長推定装置であって、
時系列順にフレーム画像の入力を受け付ける入力部と、
時系列順に入力されたフレーム画像に基づいて、画像中の小ブロック毎に、画素値の時間変化を分析することで人物の滞留度を評価する滞留度評価部と、
時系列順に入力されたフレーム画像に基づいて、画像中の小ブロック毎に、画素値の空間分布を分析することで人物の混雑度を評価する混雑度評価部と、
前記小ブロック毎に、前記小ブロックについて評価された前記滞留度及び前記混雑度に基づいて、行列らしさの評価値を算出する小ブロック毎行列らしさ算出部と、
画像中に設定された複数の判定用領域の各々について、前記判定用領域に含まれる小ブロックの各々について算出された前記行列らしさの評価値を統合することで、前記判定用領域が行列状態にあるかどうかを判定する行列状態判定部と、
前記行列状態にあると判定された前記判定用領域がどれだけ連続して並んでいるかを判定することで、前記人物の待ち行列の長さを推定する行列長推定部と、
を含む行列長推定装置。
A queue length estimation device that estimates the queue length of a person using video captured by a fixed camera,
An input unit that accepts input of frame images in chronological order;
Based on the frame images input in time series order, for each small block in the image, a staying degree evaluation unit that evaluates the staying degree of the person by analyzing the temporal change of the pixel value,
Based on the frame images input in chronological order, a congestion degree evaluation unit that evaluates the degree of congestion of a person by analyzing the spatial distribution of pixel values for each small block in the image,
For each small block, based on the staying degree and the congestion degree evaluated for the small block, a matrix-likeness calculating unit for each small block that calculates an evaluation value of matrixiness,
For each of the plurality of determination areas set in the image, the evaluation area is calculated into the matrix state by integrating the matrix-likeness evaluation values calculated for each of the small blocks included in the determination area. A matrix state determination unit for determining whether there is,
A matrix length estimation unit that estimates the length of the queue of the person by determining how continuously the determination areas determined to be in the matrix state are arranged;
A matrix length estimation apparatus including:
前記滞留度評価部は、
時系列順に入力されたフレーム画像の各々について、前記フレーム画像の一次微分又は二次微分を算出して微分画像を生成する微分画像生成部と、
前記微分画像を、長時間範囲に亘って平均化して生成される、微分画像の長時間平均画像を求める微分画像長時間平均部と、
前記微分画像を、短時間範囲に亘って平均化して生成される、微分画像の短時間平均画像を求める微分画像短時間平均部と、
前記小ブロック毎に、前記微分画像の長時間平均画像及び前記微分画像の短時間平均画像の前記小ブロックにおける相関値を算出する小ブロック毎相関算出部と、
前記小ブロック毎に、前記算出された相関値に基づいて、前記滞留度を算出する滞留度算出部とを含む請求項1記載の行列長推定装置。
The dwell degree evaluation unit
For each of the frame images input in chronological order, a differential image generation unit that calculates a first derivative or a second derivative of the frame image and generates a differential image;
A differential image long-time average part for obtaining a long-time average image of the differential image, which is generated by averaging the differential image over a long-time range;
The differential image is generated by averaging the differential image over a short time range, and a differential image short-time average unit for obtaining a short-time average image of the differential image;
A correlation calculation unit for each small block that calculates a correlation value in the small block of the short-time average image of the differential image and the short-time average image of the differential image for each small block;
The matrix length estimation apparatus according to claim 1, further comprising: a staying degree calculating unit that calculates the staying degree based on the calculated correlation value for each of the small blocks.
前記滞留度評価部は、
時系列順に入力されたフレーム画像を、所定の時間範囲に亘って平均化して生成される、フレーム画像の短時間平均画像を求める短時間平均部と、
前記フレーム画像の短時間平均画像について、画像の空間方向の二次微分を算出する二次微分算出部と、
前記小ブロック毎に、前記算出された二次微分の統計値を算出する小ブロック毎統計値算出部と、
前記小ブロック毎に、前記算出された二次微分の統計値に基づいて、前記混雑度を算出する混雑度算出部とを含む請求項1又は2記載の行列長推定装置。
The dwell degree evaluation unit
A short-time averaging unit for obtaining a short-time average image of the frame image, which is generated by averaging the frame images input in chronological order over a predetermined time range;
For the short-time average image of the frame image, a second derivative calculation unit that calculates a second derivative in the spatial direction of the image;
For each small block, a statistical value calculation unit for each small block that calculates a statistical value of the calculated second derivative,
The matrix length estimation apparatus according to claim 1, further comprising: a congestion degree calculation unit that calculates the congestion degree based on the calculated statistical value of the second derivative for each small block.
固定カメラで撮影した映像を用いて、人物の待ち行列の長さを推定する行列長推定装置における行列長推定方法であって、
入力部が、時系列順にフレーム画像の入力を受け付け、
滞留度評価部が、時系列順に入力されたフレーム画像に基づいて、画像中の小ブロック毎に、画素値の時間変化を分析することで人物の滞留度を評価し、
混雑度評価部が、時系列順に入力されたフレーム画像に基づいて、画像中の小ブロック毎に、画素値の空間分布を分析することで人物の混雑度を評価し、
小ブロック毎行列らしさ算出部が、前記小ブロック毎に、前記小ブロックについて評価された前記滞留度及び前記混雑度に基づいて、行列らしさの評価値を算出し、
行列状態判定部が、画像中に設定された複数の判定用領域の各々について、前記判定用領域に含まれる小ブロックの各々について算出された前記行列らしさの評価値を統合することで、前記判定用領域が行列状態にあるかどうかを判定し、
行列長推定部が、前記行列状態にあると判定された前記判定用領域がどれだけ連続して並んでいるかを判定することで、前記人物の待ち行列の長さを推定する
行列長推定方法。
A matrix length estimation method in a matrix length estimation device that estimates the queue length of a person using video captured by a fixed camera,
The input unit accepts input of frame images in chronological order,
Based on the frame images input in chronological order, the staying degree evaluation unit evaluates the staying degree of the person by analyzing the temporal change of the pixel value for each small block in the image,
Based on the frame images input in chronological order, the congestion degree evaluation unit evaluates the person's congestion degree by analyzing the spatial distribution of pixel values for each small block in the image,
A matrix-likeness calculation unit for each small block calculates an evaluation value of matrixiness based on the staying degree and the congestion degree evaluated for the small block for each of the small blocks,
The matrix state determination unit integrates the matrix-likeness evaluation values calculated for each of the small blocks included in the determination area for each of a plurality of determination areas set in the image, thereby determining the determination. Determine whether the region is in a matrix state,
A matrix length estimation method, wherein a matrix length estimation unit estimates the length of the queue of the person by determining how many consecutive determination areas determined to be in the matrix state are arranged.
前記滞留度評価部が評価することでは、
微分画像生成部が、時系列順に入力されたフレーム画像の各々について、前記フレーム画像の一次微分又は二次微分を算出して微分画像を生成し、
微分画像長時間平均部が、前記微分画像を、長時間範囲に亘って平均化して生成される、微分画像の長時間平均画像を求め、
微分画像短時間平均部が、前記微分画像を、短時間範囲に亘って平均化して生成される、微分画像の短時間平均画像を求め、
小ブロック毎相関算出部が、前記小ブロック毎に、前記微分画像の長時間平均画像及び前記微分画像の短時間平均画像の前記小ブロックにおける相関値を算出し、
滞留度算出部が、前記小ブロック毎に、前記算出された相関値に基づいて、前記滞留度を算出することを含む請求項4記載の行列長推定方法。
By evaluating the staying degree evaluation unit,
For each of the frame images input in chronological order, the differential image generation unit generates a differential image by calculating a primary differential or a secondary differential of the frame image,
A differential image long-time average part is obtained by averaging the differential image over a long-time range, and obtaining a long-time average image of the differential image,
The differential image short-time average part is obtained by averaging the differential image over a short-time range to obtain a short-time average image of the differential image,
The small block correlation calculation unit calculates, for each small block, a correlation value in the small block of the long-time average image of the differential image and the short-time average image of the differential image,
The matrix length estimation method according to claim 4, wherein the staying degree calculating unit includes calculating the staying degree based on the calculated correlation value for each of the small blocks.
前記滞留度評価部が評価することでは、
短時間平均部が、時系列順に入力されたフレーム画像を、所定の時間範囲に亘って平均化して生成される、フレーム画像の短時間平均画像を求め、
二次微分算出部が、前記フレーム画像の短時間平均画像について、画像の空間方向の二次微分を算出し、
小ブロック毎統計値算出部が、前記小ブロック毎に、前記算出された二次微分の統計値を算出し、
混雑度算出部が、前記小ブロック毎に、前記算出された二次微分の統計値に基づいて、前記混雑度を算出することを含む請求項4又は5記載の行列長推定装置。
行列長推定方法。
By evaluating the staying degree evaluation unit,
The short-time average unit obtains a short-time average image of the frame image generated by averaging the frame images input in chronological order over a predetermined time range,
The second derivative calculation unit calculates a second derivative in the spatial direction of the image for the short-time average image of the frame image,
The small block statistical value calculation unit calculates a statistical value of the calculated second derivative for each small block,
6. The matrix length estimation apparatus according to claim 4, wherein the congestion degree calculation unit includes calculating the degree of congestion on the basis of the calculated statistical value of the second derivative for each small block.
Matrix length estimation method.
コンピュータを、請求項1〜請求項3のいずれか1項に記載の行列長推定装置の各部として機能させるためのプログラム。   The program for functioning a computer as each part of the matrix length estimation apparatus of any one of Claims 1-3.
JP2017052209A 2017-03-17 2017-03-17 Matrix length estimation apparatus, method, and program Active JP6621435B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017052209A JP6621435B2 (en) 2017-03-17 2017-03-17 Matrix length estimation apparatus, method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017052209A JP6621435B2 (en) 2017-03-17 2017-03-17 Matrix length estimation apparatus, method, and program

Publications (2)

Publication Number Publication Date
JP2018156354A true JP2018156354A (en) 2018-10-04
JP6621435B2 JP6621435B2 (en) 2019-12-18

Family

ID=63718023

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017052209A Active JP6621435B2 (en) 2017-03-17 2017-03-17 Matrix length estimation apparatus, method, and program

Country Status (1)

Country Link
JP (1) JP6621435B2 (en)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002342748A (en) * 2001-05-18 2002-11-29 Av Planning Center:Kk Method and device for detecting queue

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002342748A (en) * 2001-05-18 2002-11-29 Av Planning Center:Kk Method and device for detecting queue

Also Published As

Publication number Publication date
JP6621435B2 (en) 2019-12-18

Similar Documents

Publication Publication Date Title
JP7163945B2 (en) Movement situation estimation device, movement situation estimation method, and program recording medium
US10810438B2 (en) Setting apparatus, output method, and non-transitory computer-readable storage medium
US9311719B2 (en) Image monitoring apparatus for estimating gradient of singleton, and method therefor
US8285004B2 (en) Line of sight detecting device and method
US20090175500A1 (en) Object tracking apparatus
US10621734B2 (en) Method and system of tracking an object based on multiple histograms
US10853949B2 (en) Image processing device
WO2016104395A1 (en) Crowd monitoring system
US20160205291A1 (en) System and Method for Minimizing Motion Artifacts During the Fusion of an Image Bracket Based On Preview Frame Analysis
JP2016095808A (en) Object detection device, object detection method, image recognition device and computer program
US20150146006A1 (en) Display control apparatus and display control method
US9449389B2 (en) Image processing device, image processing method, and program
JP2014006586A (en) Information processor, and control method and computer program thereof
US20210319229A1 (en) System and method for determining object distance and/or count in a video stream
CN110222616A (en) Pedestrian&#39;s anomaly detection method, image processing apparatus and storage device
US9478032B2 (en) Image monitoring apparatus for estimating size of singleton, and method therefor
JP6798609B2 (en) Video analysis device, video analysis method and program
JP6621435B2 (en) Matrix length estimation apparatus, method, and program
US9064176B2 (en) Apparatus for measuring traffic using image analysis and method thereof
JP5599228B2 (en) Busy detection system and busy detection program
KR101888495B1 (en) Pixel parallel processing method for real time motion detection
KR102315523B1 (en) Method of and system for eliminating background of image
KR20130043970A (en) Object tracking with two spatiograms for target scale estimation
Hirose et al. Foot position estimations for moving objects using a mixture model
KR100652954B1 (en) The apparatus for estimating the noise using the homogeneous region in the image

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180628

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190513

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190521

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190704

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190820

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190911

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20191112

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20191119

R150 Certificate of patent or registration of utility model

Ref document number: 6621435

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150