JP2022184576A - Image processing device, information processing method, and program - Google Patents

Image processing device, information processing method, and program Download PDF

Info

Publication number
JP2022184576A
JP2022184576A JP2021092515A JP2021092515A JP2022184576A JP 2022184576 A JP2022184576 A JP 2022184576A JP 2021092515 A JP2021092515 A JP 2021092515A JP 2021092515 A JP2021092515 A JP 2021092515A JP 2022184576 A JP2022184576 A JP 2022184576A
Authority
JP
Japan
Prior art keywords
detection line
image
upper limit
image processing
setting
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021092515A
Other languages
Japanese (ja)
Inventor
航 増子
Wataru Mashiko
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2021092515A priority Critical patent/JP2022184576A/en
Publication of JP2022184576A publication Critical patent/JP2022184576A/en
Pending legal-status Critical Current

Links

Images

Abstract

To reduce processing load when partial images are used to measure a flow of measurement objects.SOLUTION: An image processing device counts the number of objects that pass through a detection line in a moving image, and sets an upper limit of the number of a plurality of partial images set in the vicinity of the detection line and to be referred to for counting the number of objects. The image processing device sets the detection line on the moving image according to the upper limit, and extracts the plurality of partial images set in the vicinity of the detection line from respective images in the moving image. The partial images are used to count the number of the objects that pass through the detection line.SELECTED DRAWING: Figure 6

Description

本発明は、画像から物体を検出する技術に関する。 The present invention relates to technology for detecting an object from an image.

近年、カメラ等で撮像された動画像から、撮影領域における計測対象の流れ、例えば人の流れである人流を解析する装置、より詳細には人の流れの量及び方向を解析する装置が提案されている。特許文献1は、画像を複数のパッチに分割し、各々のパッチ内で人物が移動しているか滞留しているか等を判定する混雑推定装置を開示している。 In recent years, there have been proposals for devices that analyze the flow of objects to be measured, such as the flow of people, or more specifically, the amount and direction of the flow of people, in a shooting area from moving images captured by a camera or the like. ing. Patent Literature 1 discloses a congestion estimation device that divides an image into a plurality of patches and determines whether a person is moving or staying in each patch.

特開2009-110152号公報JP 2009-110152 A

解析処理を行う部分画像(パッチ)の数が増えると、増えたパッチの数だけ解析負荷が上昇して計算リソースを消費する。特許文献1に記載の手法では、画像全体からパッチを生成するため、計測対象の流れの解析において必要以上に計算リソースを消費してしまう場合があった。 As the number of partial images (patches) to be analyzed increases, the analysis load increases corresponding to the increased number of patches, consuming computational resources. In the method described in Patent Document 1, since patches are generated from the entire image, there are cases where computational resources are consumed more than necessary in analyzing the flow to be measured.

本発明は、部分画像を用いて計測対象の流れを計測する際に、処理負荷を軽減することを目的とする。 SUMMARY OF THE INVENTION An object of the present invention is to reduce the processing load when measuring the flow of a measurement target using partial images.

本発明の目的を達成するために、例えば、一実施形態に係る画像処理装置は以下の構成を備える。すなわち、動画像において検知線を通る対象の数を計測する画像処理装置であって、前記検知線の近傍に設定される、前記対象の数を計測するために参照する複数の部分画像の数の上限を設定する第1の設定手段と、前記上限に応じて、前記動画像に前記検知線を設定する第2の設定手段と、前記検知線の近傍に設定された複数の部分画像を、前記動画像における複数の画像のそれぞれから抽出する抽出手段と、前記部分画像を用いて、前記検知線を通る前記対象の数を計測する計測手段と、を備える。 In order to achieve the object of the present invention, for example, an image processing apparatus according to one embodiment has the following configuration. That is, an image processing device for measuring the number of objects passing through a detection line in a moving image, wherein the number of a plurality of partial images that are set near the detection line and referred to for measuring the number of the objects a first setting means for setting an upper limit; a second setting means for setting the detection line in the moving image in accordance with the upper limit; and a plurality of partial images set near the detection line. An extraction means for extracting from each of a plurality of images in a moving image, and a measurement means for measuring the number of the objects passing through the detection line using the partial images.

部分画像を用いて計測対象の流れを計測する際に、処理負荷を軽減できる。 The processing load can be reduced when measuring the flow to be measured using the partial images.

実施形態1に係る画像処理装置のハードウェア構成を示す図。2 is a diagram showing the hardware configuration of an image processing apparatus according to the first embodiment; FIG. 実施形態1に係る画像処理装置の機能構成図を示す図。1 is a diagram showing a functional configuration diagram of an image processing apparatus according to Embodiment 1; FIG. 実施形態1に係る画像処理装置が行う情報処理を示すフローチャート。4 is a flowchart showing information processing performed by the image processing apparatus according to the first embodiment; 実施形態1に係る画像処理装置が用いる画像群を示す図。4A and 4B are diagrams showing an image group used by the image processing apparatus according to the first embodiment; FIG. 実施形態1に係る画像処理装置が表示するパッチ数設定GUIを示す図。4 is a view showing a patch number setting GUI displayed by the image processing apparatus according to the first embodiment; FIG. 実施形態1に係る画像処理装置による検知線の設定表示を示す図。FIG. 5 is a diagram showing a setting display of detection lines by the image processing apparatus according to the first embodiment; 実施形態1に係る画像処理装置の検知線に対するパッチの表示を示す図。4A and 4B are diagrams showing the display of patches with respect to detection lines of the image processing apparatus according to the first embodiment; FIG. 実施形態1に係る画像処理装置がパッチごとの解析処理を示す図。FIG. 4 is a diagram showing analysis processing for each patch by the image processing apparatus according to the first embodiment; 実施形態1に係る画像処理装置による余分なパッチの削除処理の例を示す図。FIG. 7 is a diagram showing an example of redundant patch deletion processing by the image processing apparatus according to the first embodiment; 実施形態1に係る計測対象が複数存在する場合のGUIを示す図。FIG. 5 is a diagram showing a GUI when there are multiple measurement targets according to the first embodiment; 実施形態1に係る計算リソースに基づくパッチ数の上限を表示する図。FIG. 4 is a diagram showing the upper limit of the number of patches based on computational resources according to the first embodiment;

以下、添付図面を参照して実施形態を詳しく説明する。なお、以下の実施形態は特許請求の範囲に係る発明を限定するものではない。実施形態には複数の特徴が記載されているが、これらの複数の特徴の全てが発明に必須のものとは限らず、また、複数の特徴は任意に組み合わせられてもよい。さらに、添付図面においては、同一若しくは同様の構成に同一の参照番号を付し、重複した説明は省略する。 Hereinafter, embodiments will be described in detail with reference to the accompanying drawings. In addition, the following embodiments do not limit the invention according to the scope of claims. Although multiple features are described in the embodiments, not all of these multiple features are essential to the invention, and multiple features may be combined arbitrarily. Furthermore, in the accompanying drawings, the same or similar configurations are denoted by the same reference numerals, and redundant description is omitted.

[実施形態1]
本実施形態に係る画像処理装置は、動画像中に検知線を設定し、検知線を通る計測対象の流れを計測する。そのために、本実施形態に係る画像処理装置100は、検知線の近傍に設定される、計測対象の流れを計測するために参照する複数の部分画像の数の上限を設定し、設定した上限に応じて検知線を設定する。次いで画像処理装置100は、検知線の近傍に設定された複数の部分画像を、動画像における複数の画像のそれぞれから抽出し、抽出した部分画像を用いて検知線を通る計測対象の流れを計測する。
[Embodiment 1]
An image processing apparatus according to this embodiment sets a detection line in a moving image and measures the flow of a measurement target passing through the detection line. For this reason, the image processing apparatus 100 according to the present embodiment sets an upper limit for the number of partial images to be referred to for measuring the flow of the measurement target, which is set in the vicinity of the detection line. Set the detection line accordingly. Next, the image processing apparatus 100 extracts a plurality of partial images set near the detection line from each of the plurality of images in the moving image, and uses the extracted partial images to measure the flow of the measurement target passing through the detection line. do.

以下、本実施形態に係る、通過人数カウントシステムにおいて用いられる画像処理装置100について説明を行う。ここで、通過人数カウントシステムとは、画像解析により画像中の計測対象を検出し、画像中に設けた検知線を通過した計測対象の数のカウントを行うシステムであるものとする。計測対象は人体であるものとして説明を行うが、例えば動物又は車両など、検出可能であるならば特に限定はされず、また複数種類の計測対象への検出処理が同時に行われてもよい。 The image processing apparatus 100 used in the passing people counting system according to the present embodiment will be described below. Here, the passing people counting system is a system that detects measurement targets in an image by image analysis and counts the number of measurement targets that have passed through a detection line provided in the image. Although the object to be measured is described as a human body, it is not particularly limited as long as it can be detected, for example, an animal or a vehicle, and detection processing may be performed simultaneously on a plurality of types of objects to be measured.

ここで、検知線とは、上述した通過人数カウントシステムにおいて用いられる、計測対象の通過数(以下、単純に「数」とする)を計測するために画像中に設けられる線分又は線分状の領域であるものとする。検知線、及び検知線近傍に設定される解析用の部分領域としては一般的な交通量計測システムにおいて用いられるものを任意に利用可能であり、公知技術に関する詳細な説明は省略する。ここで、動画像に含まれる複数の画像から、部分領域における部分画像がそれぞれ抽出され、抽出した部分画像に対して解析処理が行われて計測対象の流れが計測される。以下、「解析」とは、上述の人数カウントを行う処理のことを指すものとして説明を行う。 Here, the detection line refers to a line segment or line-shaped line provided in an image for counting the number of passages of a measurement target (hereinafter simply referred to as “number”) used in the above-described passing people counting system. shall be the area of As the detection line and the partial areas for analysis set in the vicinity of the detection line, those used in a general traffic flow measurement system can be arbitrarily used, and a detailed description of known techniques will be omitted. Here, partial images in partial regions are extracted from a plurality of images included in the moving image, and analysis processing is performed on the extracted partial images to measure the flow to be measured. In the following description, "analysis" refers to the process of counting the number of people described above.

この画像処理装置は、例えば交通量計測システムによって用いられる。交通量計測システムとは、画像解析により画像中の計測対象を検出し、画像中に設けた検知線を通過した計測対象の数のカウントを行うシステムであるものとする。計測対象は人体又は車両であるものとして説明を行うが、例えば動物など、検出可能であるならば特に限定はされない。ここでは、画像解析を行う領域を、1個以上の部分領域(パッチ)にわけてそれぞれに対して処理を行うことにより、解析処理を並列させて高速な処理を実現することができる。 This image processing device is used, for example, by a traffic counting system. A traffic volume measurement system is a system that detects objects to be measured in an image by image analysis and counts the number of objects to be measured that have passed through a detection line provided in the image. Although the object to be measured is described as being a human body or a vehicle, it is not particularly limited as long as it can be detected, such as an animal. Here, by dividing the area for image analysis into one or more partial areas (patches) and performing processing on each of them, analysis processing can be performed in parallel to realize high-speed processing.

図1は、画像処理装置100のハードウェア構成の一例を示すブロック図である。画像処理装置100は、プロセッサ101、メモリ102、ネットワークインターフェース(I/F)103、表示装置104、及び入力装置105を備える。プロセッサ101は、例えばCPUであり、図2に示される画像処理装置100の有する各機能部による処理を行う。メモリ102は、例えばROM及びRAMであり、プロセッサ101が利用するデータ又はプログラム等を格納する。表示装置104は、液晶ディスプレイなどであり、プロセッサ101による処理の結果などを表示しユーザに提示する。入力装置105は、マウス及びキーボード、タッチパネル、又はボタンなどであり、ユーザの入力を取得する。I/F103は、画像処理装置100がネットワークに接続する際のインターフェースである。本実施形態においては、プロセッサ101がメモリ102に格納されたプログラムに基づいて処理を実行することにより、画像処理装置100の各機能部による機能が実現される。 FIG. 1 is a block diagram showing an example of the hardware configuration of an image processing apparatus 100. As shown in FIG. The image processing apparatus 100 includes a processor 101 , memory 102 , network interface (I/F) 103 , display device 104 and input device 105 . The processor 101 is, for example, a CPU, and performs processing by each functional unit of the image processing apparatus 100 shown in FIG. The memory 102 is, for example, ROM and RAM, and stores data or programs used by the processor 101 . The display device 104 is a liquid crystal display or the like, and displays the results of processing by the processor 101 and the like to the user. The input device 105 is a mouse and keyboard, a touch panel, buttons, or the like, and acquires user input. An I/F 103 is an interface for connecting the image processing apparatus 100 to a network. In this embodiment, the functions of the functional units of the image processing apparatus 100 are realized by the processor 101 executing processing based on the programs stored in the memory 102 .

図2は、本実施形態に係る画像処理装置100の機能構成の一例を示すブロック図である。画像処理装置100は、画像取得部201、表示部202、算出部203、設定部204、及び解析部205を有する。 FIG. 2 is a block diagram showing an example of the functional configuration of the image processing apparatus 100 according to this embodiment. The image processing apparatus 100 has an image acquisition unit 201 , a display unit 202 , a calculation unit 203 , a setting unit 204 and an analysis unit 205 .

画像取得部201は、処理対象とする画像を1つ以上取得する。画像取得部201はメモリ102に格納されている画像を取得してもよく、I/F103を介して画像を取得してもよく、不図示の撮像部を用いて画像を取得してもよい。画像取得部201は、撮像日時などの画像に関する情報を利用して、特定の条件に沿った画像の集合(例えば、同カメラによる所定時間おきの画像など)を取得することができる。 The image acquisition unit 201 acquires one or more images to be processed. The image acquisition unit 201 may acquire an image stored in the memory 102, may acquire an image via the I/F 103, or may acquire an image using an imaging unit (not shown). The image acquisition unit 201 can acquire a set of images meeting specific conditions (for example, images captured by the same camera at predetermined time intervals) by using information about images such as image capture dates and times.

設定部204は、計測対象の流れを計測するための検知線の近傍に設定される、部分画像(パッチ)の数の上限を設定し、設定した上限に基づいて検知線を設定する。ここで、検知線は、動画像中に計測対象の流れ(流量、又は流れの向き)を計測する位置を示す線分である。ここで、流量とは、設定された検知線を通過する計測対象の総数、又は所定時間当たりの数であってもよい。以下、パッチとは、上述の検知線の近傍に設定される部分領域(及び、その領域から抽出される部分画像)を指すものとする。 The setting unit 204 sets an upper limit for the number of partial images (patches) set in the vicinity of the detection line for measuring the flow to be measured, and sets the detection line based on the set upper limit. Here, the detection line is a line segment indicating the position where the flow (flow rate or direction of flow) to be measured is measured in the moving image. Here, the flow rate may be the total number of objects to be measured that pass through the set detection line, or the number per predetermined time. Hereinafter, a patch refers to a partial area (and a partial image extracted from that area) set in the vicinity of the detection line described above.

本実施形態に係る設定部204は、後述する表示部202が取得するユーザ入力に基づいて、パッチ数の上限を設定する。パッチ数の上限は、このようにユーザ入力に基づいて設定されるものとは限らず、例えば解析処理に割り当てられた計算リソースに基づいて決定されてもよい。すなわち、設定部204は、解析処理において利用可能なプロセッサ101又はメモリ102における計算リソースの量を取得し、その計算リソースに基づいて画像内に設定できるパッチの数の上限を算出することができる。 The setting unit 204 according to the present embodiment sets the upper limit of the number of patches based on user input acquired by the display unit 202, which will be described later. The upper limit of the number of patches is not limited to being set based on user input in this way, and may be determined based on computational resources allocated to analysis processing, for example. That is, the setting unit 204 can acquire the amount of computational resources in the processor 101 or memory 102 that can be used for analysis processing, and calculate the upper limit of the number of patches that can be set in an image based on the computational resources.

次いで設定部204は、後述する表示部202が取得するユーザ入力に基づいて設定された検知線の長さを制限し、画像上に表示する検知線を生成する。検知線の設定については、表示部202の説明と共に後述する。 Next, the setting unit 204 limits the length of the detection line set based on the user input acquired by the display unit 202, which will be described later, and generates the detection line to be displayed on the image. The setting of the detection line will be described later together with the description of the display unit 202 .

表示部202は、画像取得部201が取得した画像を表示する。次いで表示部202は、取得した画像上への、検知線を設定するユーザ入力を取得する。例えば、表示部202は、検知線の設定用のプレビュー画像を表示することができる。詳細な説明は図4~図8を参照して後述するが、表示部202は、画像上に、検知線を設定する際に用いる指定子を重畳して表示してもよい。その場合、表示部202は、検知線を設定する指定子を操作するユーザ入力を、マウスカーソルを介したクリック操作によって取得してもよく、タッチパネルへのタッチ操作によって取得してもよい。ここでは、ユーザ操作によって、検知線の始点と終点とが配置され、その始点から終点までの線分がユーザによって入力された検知線として設定されるものとする。この処理は検知線を設定するユーザ入力を取得するのであれば特に限定されるわけではなく、例えば表示部202は、ユーザ入力として検知線の始点及び終点の座標の指定を取得してもよい。また設定部204は、始点と終点との区別なく2点の指定を取得し、次いで検知線の向きを取得してもよく、始点、向き、及び長さの入力を取得してもよい。表示部202は、1以上の所定数(例えば、1、2、又はそれ以上)の検知線の設定を取得するものとするが、ユーザが検知線の設定の確定操作を行う前に任意の数の検知線を設定できる構成であってもよい。 The display unit 202 displays the image acquired by the image acquisition unit 201 . The display unit 202 then obtains user input to set the sensing line on the obtained image. For example, the display unit 202 can display a preview image for setting the detection line. Although detailed description will be given later with reference to FIGS. 4 to 8, the display unit 202 may superimpose and display specifiers used when setting detection lines on the image. In that case, the display unit 202 may acquire a user input for operating a specifier for setting a detection line by a click operation via a mouse cursor or by a touch operation on a touch panel. Here, it is assumed that the start point and the end point of the detection line are arranged by user operation, and the line segment from the start point to the end point is set as the detection line input by the user. This processing is not particularly limited as long as it acquires user input for setting the detection line. For example, the display unit 202 may acquire designation of the coordinates of the start point and end point of the detection line as the user input. Alternatively, the setting unit 204 may obtain designation of two points without distinction between the start point and the end point, then obtain the direction of the detection line, or may obtain inputs of the start point, direction, and length. The display unit 202 acquires a predetermined number of detection line settings equal to or greater than 1 (for example, 1, 2, or more). may be configured to set the detection line.

次いで、ユーザ入力に基づいて設定した検知線の長さを設定部204が制限し、長さを制限した検知線を表示部202が画像上に表示する。長さを制限した検知線を表示する処理については図6を参照して後述する。また、表示部202は、表示した検知線の近傍に、検知線を包含する、設定された上限以下の数のパッチを表示してもよい。設定部204は、ユーザによる検知線の再設定の入力を取得した場合には、再度同様の処理により設定された検知線(及びパッチ)を表示することができる。ここで、ユーザによる検知線の再設定の入力は、検知線の始点又は終点の位置の再設定であってもよく、向きの変更であってもよく、新規に入力される検知線の設定であってもよい。 Next, the setting unit 204 limits the length of the detection line set based on the user input, and the display unit 202 displays the detection line with the limited length on the image. Processing for displaying the detection line with the limited length will be described later with reference to FIG. In addition, the display unit 202 may display, in the vicinity of the displayed detection line, a number of patches that include the detection line and are equal to or less than the set upper limit. The setting unit 204 can display the detection lines (and patches) set by the same process again when receiving the user's input to reset the detection lines. Here, the input of resetting the detection line by the user may be resetting of the position of the starting point or the end point of the detection line, or may be a change in direction. There may be.

算出部203は、検知線の設定に基づいて、解析処理に用いるパラメータを算出することができる。例えば、算出部203は、検知線の設定に基づいて、画像中の解析を行う領域と、その領域を分割して設定されるパッチの位置及び形状と、を設定してもよい。算出部203が行う設定処理については、図7を参照して後述する。 The calculation unit 203 can calculate parameters used for analysis processing based on the setting of the detection line. For example, the calculation unit 203 may set a region to be analyzed in the image, and the positions and shapes of patches set by dividing the region, based on the setting of the detection line. The setting process performed by the calculation unit 203 will be described later with reference to FIG.

設定部204は、解析の処理に必要な設定を行う。本実施形態に係る設定部204は、人体検出、追尾、及び人数のカウント処理に用いる設定の参照、編集、並びに登録を行う。また、上述の表示部202及び算出部203が行う処理の一部又は全てを設定部204が行ってもよい。解析部205は、動画像に基づいて計測対象の流れを計測する。そのために、表示部202は、計測対象の流れを計測する位置を示す検知線の設定を画像上に行う。 A setting unit 204 performs settings required for analysis processing. The setting unit 204 according to the present embodiment refers to, edits, and registers settings used for human body detection, tracking, and number counting processing. Further, the setting unit 204 may perform part or all of the processing performed by the display unit 202 and the calculation unit 203 described above. The analysis unit 205 measures the flow to be measured based on the moving image. For this purpose, the display unit 202 sets a detection line on the image, which indicates the position at which the flow of the measurement target is to be measured.

解析部205は、画像取得部201が取得した画像に対して解析処理を行う。解析部205は、例えば検知線によって区切られる一方の領域から他方の領域へと、検知線を交差して移動した計測対象の流量、すなわち通過した計測対象の数を計測することができる。 The analysis unit 205 performs analysis processing on the image acquired by the image acquisition unit 201 . The analysis unit 205 can measure, for example, the flow rate of the measurement target that crosses the detection line and moves from one region to the other region separated by the detection line, that is, the number of measurement targets that have passed.

流れの計測のためには様々な方法を利用することができる。例えば、計測対象の人体を検出して追尾する方法や、計測対象の人体の位置、移動方向、及び移動速度などを推定して流量を直接求める方法などが挙げられる。このような計測方法を実現するためのアルゴリズムとしては、例えば、マッチング法、オプティカルフローを用いた方法、機械学習を用いた方法、及びニューラルネットワークを用いた方法が挙げられる。また、これらの方法を複数組み合わせて用いることもできる。 Various methods are available for flow measurement. For example, there are a method of detecting and tracking a human body to be measured, and a method of estimating the position, moving direction, moving speed, etc. of the human body to be measured and directly obtaining the flow rate. Algorithms for realizing such a measurement method include, for example, a matching method, a method using optical flow, a method using machine learning, and a method using neural networks. A plurality of these methods can also be used in combination.

流れの計測のためには、部分画像を単独で用いてもよいし、複数の部分画像を同時に用いてもよい。複数の部分画像を用いる場合は、同一時刻における部分画像を用いてもよいし、異なる時刻における部分画像を用いてもよい。 For flow measurement, a single partial image may be used, or a plurality of partial images may be used simultaneously. When using a plurality of partial images, partial images at the same time may be used, or partial images at different times may be used.

解析部205による具体的な処理方法としては、例えば以下の方法が挙げられる。まず、解析部205は、時刻tにおける各部分画像をニューラルネットワークに入力することにより、時刻tにおける検知線周辺の計測対象の位置を推定する。同様に、解析部205は、時刻tにおける各部分画像をこのニューラルネットワークに入力することにより、時刻tにおける検知線周辺の計測対象の位置も推定する。このニューラルネットワークは、画像から画像中の計測対象(例えば人体の頭部)の位置を推定するように学習しておくことができる。また、推定精度が向上する別の方法として、画像から画像中の計測対象の密度分布を推定するように学習されたニューラルネットワークと、密度分布から計測対象の位置を推定するように学習されたニューラルネットワークと、を組み合わせて用いてもよい。このような方法により、解析部205は、異なる領域のそれぞれについて独立に、この領域から抽出された部分画像を用いて、それぞれの領域における計測対象の位置を推定することができる。 Specific processing methods by the analysis unit 205 include, for example, the following methods. First, the analysis unit 205 estimates the position of the measurement target around the detection line at time t1 by inputting each partial image at time t1 to the neural network. Similarly, the analysis unit 205 also estimates the position of the measurement target around the detection line at time t2 by inputting each partial image at time t2 to this neural network. This neural network can be trained to estimate the position of a measurement target (for example, the head of a human body) in the image from the image. Another method for improving the estimation accuracy is a neural network trained to estimate the density distribution of the measurement target in the image, and a neural network trained to estimate the position of the measurement target from the density distribution. may be used in combination with a network. With such a method, the analysis unit 205 can independently estimate the position of the measurement target in each different area using the partial images extracted from this area.

次に、解析部205は、時刻tにおける計測対象の推定位置と、時刻tにおける計測対象の推定位置とのマッチングを行うことにより、時刻tから時刻tの間の計測対象の軌跡を推定する。マッチング手法としては、マッチングさせる計測対象間の距離に応じたコストを最小化する方法を用いることができ、例えばハンガリアンマッチング法を用いることができる。こうして推定された軌跡が検知線と交差する場合に、1つの計測対象が検知線を通過したと判定することができる。このようなマッチング処理及び軌跡の推定は、それぞれの部分画像から検出された計測対象の位置に基づいて、同時に行ってもよい。 Next, the analysis unit 205 matches the estimated position of the measurement target at time t1 with the estimated position of the measurement target at time t2 , thereby obtaining the trajectory of the measurement target from time t1 to time t2 . to estimate As a matching method, a method of minimizing the cost according to the distance between measurement objects to be matched can be used, for example, the Hungarian matching method can be used. When the trajectory thus estimated intersects the detection line, it can be determined that one measurement target has passed the detection line. Such matching processing and trajectory estimation may be performed simultaneously based on the position of the measurement target detected from each partial image.

もっとも、流れの計測方法は上記の方法には限定されない。解析部205は、異なる領域のそれぞれについて独立に、この領域から抽出された部分画像を用いて、それぞれの領域における計測対象の軌跡を推定し、又は計測対象の流れを計測してもよい。例えば、解析部205は、部分画像ごとに計測対象の位置を推定するだけでなく、部分画像ごとに計測対象の軌跡を推定してもよい。また、時刻t及び時刻tにおける同位置の部分画像をニューラルネットワークに入力し、計測対象の位置、移動方向、及び移動速度などを推定することにより、計測対象の流れを推定してもよい。 However, the flow measurement method is not limited to the above method. The analysis unit 205 may independently estimate the trajectory of the measurement target or measure the flow of the measurement target in each of the different regions using partial images extracted from this region. For example, the analysis unit 205 may estimate the trajectory of the measurement target for each partial image in addition to estimating the position of the measurement target for each partial image. Alternatively, partial images at the same position at time t1 and time t2 may be input to a neural network to estimate the position, movement direction, movement speed, etc. of the measurement target, thereby estimating the flow of the measurement target. .

図4~図8は、本実施形態に係る解析処理の説明を行うための図である。図4は、表示部202が表示するプレビュー画像の一例を示している。画像群400は、候補を指定するためにユーザに提示される複数の画像である。画像401には人体402が映っており、これが解析処理によって検出される。また、画像401には画像群400は、計測対象を写していない画像を含んでいてもよい。 4 to 8 are diagrams for explaining the analysis processing according to this embodiment. FIG. 4 shows an example of a preview image displayed by the display unit 202. As shown in FIG. Image group 400 is a plurality of images presented to the user to designate candidates. A human body 402 is shown in the image 401 and is detected by analysis processing. Also, the image group 400 may include an image that does not show the measurement target in the image 401 .

図5は、設定部204がパッチの上限を設定するためのGUIの表示の一例を示す図である。画面500には、パッチ数の上限を計算リソースから設定するためのボタン501と、パッチ数を手動で設定するためのボタン502と、が表示されている。設定部204は、ユーザがボタン501を押下するかボタン502を押下するかに応じて、パッチ数の上限の設定方法を決定することができる。また、画面500にはパッチ数の上限を手動で設定する際の設定枠503が表示されており、設定部204は、ユーザが設定枠503に入力した数をパッチ数の上限として設定するものとする。 FIG. 5 is a diagram showing an example of a GUI display for the setting unit 204 to set the upper limit of patches. A screen 500 displays a button 501 for setting the upper limit of the number of patches from computational resources and a button 502 for manually setting the number of patches. The setting unit 204 can determine a setting method for the upper limit of the number of patches depending on whether the user presses the button 501 or the button 502 . A setting frame 503 for manually setting the upper limit of the number of patches is displayed on the screen 500, and the setting unit 204 sets the number input by the user in the setting frame 503 as the upper limit of the number of patches. do.

なおここで、表示部202は、設定部204が計算リソースに基づいて算出した設定可能なパッチ数の上限を、ユーザに提示してもよい。すなわち、図5においてパッチ数の上限を計算リソースから設定すると決定したか否かに関わらず、計算リソース面での上限をユーザに提示する構成であってもよい。このような構成によれば、ユーザが手動で検知線を設定する場合に、計算リソースの面で設定可能なパッチ数を確認しながら設定処理を行うことが可能となる。 Here, the display unit 202 may present to the user the upper limit of the number of patches that can be set calculated by the setting unit 204 based on the computational resources. That is, regardless of whether or not it is decided to set the upper limit of the number of patches from the computational resources in FIG. 5, the upper limit of the computational resources may be presented to the user. According to such a configuration, when the user manually sets the detection line, it is possible to perform the setting process while confirming the number of patches that can be set in terms of computational resources.

図6は、設定部204による、パッチ数の上限に応じて検知線の長さを制限する処理の一例を説明するための図である。設定画面600にはプレビュー画面601が表示されており、検知線の指定子602、指定子602の端点である始点603及び終点604、並びに移動子605がプレビュー画面601に重畳表示されている。図6においては、ユーザが移動子605を操作することにより始点603及び終点604が移動し、検知線の指定子602が定められている。 FIG. 6 is a diagram for explaining an example of a process of limiting the length of detection lines according to the upper limit of the number of patches by the setting unit 204. In FIG. A preview screen 601 is displayed on the setting screen 600 , and a specifier 602 of the detection line, a start point 603 and an end point 604 that are end points of the specifier 602 , and a mover 605 are superimposed on the preview screen 601 . In FIG. 6, the user operates a mover 605 to move a start point 603 and an end point 604, and a designator 602 of a detection line is defined.

設定画面606では、プレビュー画面601上に、指定子602に基づいて設定された検知線が表示されている。ここで、指定子によって指定された検知線が、設定部204が設定したパッチ数の上限に基づいて制限される長さを超えている場合、表示部202は、始点603を始点として終点604方向へと制限された長さまで延びる線分を検知線として表示している。また例えば、表示部202は、指定子と中心を合わせて、設定部204に制限された長さまで指定子を縮小させた線分を、検知線として設定してもよい。 A setting screen 606 displays a detection line set based on a specifier 602 on a preview screen 601 . Here, if the detection line specified by the designator exceeds the length restricted based on the upper limit of the number of patches set by the setting unit 204, the display unit 202 displays the direction from the start point 603 to the end point 604. A line segment extending to a limited length is displayed as a detection line. Further, for example, the display unit 202 may set, as the detection line, a line segment obtained by aligning the specifier with the center and reducing the specifier to a length limited by the setting unit 204 .

設定画面607は、設定画面606と同様の検知線の表示に加えて、指定子602に対して検知線として設定されない部分を可視化して表示する画面の一例である。ここでは、検知線の終点から移動子505までの部分が点線で表示されており、終点504を移動子505の位置に決定する場合、この点線部分は検知線の長さの上限を超えるとして検知線には含まれず、実戦部分のみが検知線として設定される。 A setting screen 607 is an example of a screen that visualizes and displays a portion that is not set as a detection line with respect to the designator 602 in addition to displaying detection lines similar to the setting screen 606 . Here, the part from the end point of the detection line to the moving element 505 is indicated by a dotted line. It is not included in the line, and only the actual combat part is set as the detection line.

また、設定画面600、606、又は607上の確定ボタン610が押下された場合に、その時点で指定子602によって指定されている検知線及びその長さの上限から、解析処理に用いる検知線が設定されて画面上に表示される。また、これらの設定画面は、表示する画像を変更する画像変更ボタン609を表示している。ユーザは、異なる画像を参照して検知線を指定する場合に、画像変更ボタン609を押下することにより、表示する画像を切り替えることができる。ここでは、表示する画像を変更する前の指定子は消去され、新たに表示される画像において新規に候補の指定を行うものとするが、画像の変更後にも画像に配置された指定子が残り、複数の画像にわたって配置された指定子全てに基づいて検知線が設定されてもよい。 Also, when the confirmation button 610 on the setting screens 600, 606, or 607 is pressed, the detection line used for the analysis process is determined from the detection line specified by the specifier 602 at that time and the upper limit of its length. set and displayed on the screen. These setting screens also display an image change button 609 for changing the displayed image. When the user designates a detection line by referring to a different image, the image to be displayed can be switched by pressing the image change button 609 . Here, the specifier before the image to be displayed is changed is deleted, and a new candidate is specified in the newly displayed image, but the specifier placed in the image remains even after the image is changed. , the detection line may be set based on all the specifiers arranged across the multiple images.

図7は、設定された検知線の近傍にパッチを設定する処理を説明するための図である。画像702において、設定部204は、始点703及び終点704を有する検知線701の近傍にパッチ705を設定している。また、設定部204は、パッチ706を、パッチ705とパッチ706とで検知線を包含するように設定している。このように設定部204は、検知線を包含するようにパッチを複数設定することが可能である。 FIG. 7 is a diagram for explaining the process of setting patches in the vicinity of the set detection line. In the image 702 , the setting unit 204 sets a patch 705 near the detection line 701 having a start point 703 and an end point 704 . Also, the setting unit 204 sets the patch 706 so that the detection line is included in the patch 705 and the patch 706 . Thus, the setting unit 204 can set a plurality of patches so as to include detection lines.

各パッチの大きさは限定されないが、設定部204は、パッチの位置に応じてパッチの大きさを設定してもよい。図7の例では、設定部204は、始点703を中心とするパッチ705を設定し、次いでパッチ705と隣接し終点704を含むパッチ706を設定して、パッチの生成処理を終了している。ここで、設定部204は、各パッチ内の所定の位置(ここでは、中心の位置)における計測対象の大きさを推定し、その大きさに基づいてパッチの大きさを設定してもよい。例えば、パッチ705は、パッチ705の中心の位置から推測される人体の肩幅の定数倍(6.5倍、又は8倍など)の長さを一辺とする正方形の領域として設定されてもよい。なお、パッチの形状は正方形には限定されず、例えば長方形、又は台形などの四角形であってもよく、円形であってもよい。 The size of each patch is not limited, but the setting unit 204 may set the size of the patch according to the position of the patch. In the example of FIG. 7, the setting unit 204 sets a patch 705 centered on the start point 703, then sets a patch 706 adjacent to the patch 705 and including the end point 704, and completes the patch generation process. Here, the setting unit 204 may estimate the size of the measurement target at a predetermined position (here, center position) in each patch, and set the size of the patch based on the size. For example, the patch 705 may be set as a square area whose sides are a constant multiple (6.5 times, 8 times, etc.) of the shoulder width of the human body estimated from the position of the center of the patch 705 . Note that the shape of the patch is not limited to a square, and may be, for example, a rectangle, a quadrangle such as a trapezoid, or a circle.

そのために、算出部203は、画像中の各位置に対応する計測対象の大きさを推測する可能であってもよい。算出部203は、例えば、各位置から計測対象の大きさを算出するためのパラメータを、予め有していてもよく、画像中の少なくとも3つの被写体の位置及び大きさに基づいて算出してもよい。 Therefore, the calculation unit 203 may be capable of estimating the size of the measurement object corresponding to each position in the image. For example, the calculation unit 203 may have parameters in advance for calculating the size of the measurement object from each position, or may calculate based on the positions and sizes of at least three subjects in the image. good.

図8は、解析部205によって通過カウント処理が行われる様子を説明するための図である。画像群800は画像取得部201が取得した画像であり、画像群800に含まれる画像801及び画像802は時間的に連続している画像である。パッチ803及び804は動画像中に設定されたパッチであり、このパッチ内で通過カウントの解析処理が行われる。 FIG. 8 is a diagram for explaining how the passage counting process is performed by the analysis unit 205. As shown in FIG. An image group 800 is an image acquired by the image acquisition unit 201, and an image 801 and an image 802 included in the image group 800 are temporally continuous images. Patches 803 and 804 are patches set in the moving image, and passage count analysis processing is performed in these patches.

部分画像805及び806は、それぞれ画像801から、パッチ803及び804を用いて抽出された部分画像であり、これらを同じサイズに変換した画像が部分画像807及び808である。また、解析部205が、部分画像807と部分画像808に対して人体検出処理及び人体判別処理を行い、各画像に映る人物を判別したことを示す画像が部分画像809と部分画像810である。部分画像809及び810中の星印811及び812は、人体が検出された位置を示している。また、部分画像813及び部分画像814は、部分画像809及び810と同様の処理によって、画像802から生成された、各画像に映る人物を判別したことを示す画像である。画像813及び画像814中の星印815及び816は、それぞれ星印811及び812に対応する人体が検出された位置である。 Partial images 805 and 806 are partial images extracted from the image 801 using patches 803 and 804, respectively, and partial images 807 and 808 are converted to the same size. A partial image 809 and a partial image 810 are images showing that the analysis unit 205 has performed human body detection processing and human body discrimination processing on the partial images 807 and 808 and has discriminated the person appearing in each image. The asterisks 811 and 812 in the partial images 809 and 810 indicate positions where the human body is detected. Also, a partial image 813 and a partial image 814 are images generated from the image 802 by the same processing as the partial images 809 and 810 and indicating that the person appearing in each image has been determined. Stars 815 and 816 in image 813 and image 814 are positions where the human bodies corresponding to stars 811 and 812 are detected, respectively.

ここで、解析部205は、同じパッチを用いて抽出した部分画像(ここでは部分画像809及び813、又は810及び814)を用いて、検知線の通過を検知する処理を行う。部分画像815は、部分画像809及び813を用いて通過を検知する処理を行う様子を示す画像である。まず解析部205は、星印811と815とに基づいて人体の軌跡817を求め、軌跡817が検知線と交差しているか否かを判定する。解析部205は、ここで交差していると判定した場合には通過を検知したとし、交差していないと判定した場合には通過を検知しなかったとする。ここで解析部205は、軌跡や検知線の向きから進行方向を判別したものを、通過検知処理の結果の一つとして記録してもよい。また、解析部205は、通過を検知したパッチ、又は軌跡と通過線との交差点の位置を、通過検知処理の結果の一つとして記録してもよい。部分画像816は、部分画像810及び814を用いて、部分画像815と同様に通過を検知する処理を行う様子を示す画像である。 Here, the analysis unit 205 uses partial images extracted using the same patch (here, partial images 809 and 813 or 810 and 814) to perform processing for detecting passage of the detection line. A partial image 815 is an image showing how the partial images 809 and 813 are used to detect passage. First, the analysis unit 205 obtains a trajectory 817 of the human body based on the stars 811 and 815, and determines whether or not the trajectory 817 intersects the detection line. If the analysis unit 205 determines that there is an intersection here, it is assumed that passage has been detected, and if it is determined that there is no intersection, it is assumed that passage has not been detected. Here, the analysis unit 205 may record, as one of the results of the passage detection processing, the traveling direction determined from the trajectory or the direction of the detection line. Further, the analysis unit 205 may record the position of the intersection of the path and the passing line, or the patch where the passage is detected, as one of the results of the passage detection processing. A partial image 816 is an image showing how the partial images 810 and 814 are used to perform the passage detection process in the same manner as the partial image 815 .

ここでは、解析部205は、画像801と画像802との2つの画像に対して各処理を行ったが、処理を行う画像数は特に限定はされず、任意の数の画像に対して処理を行うことができる。また、解析部205は、人体の進行方向、又は通過を検知したパッチなどでグループ化した上で、グループごとに通過の検知数の集計を取ってもよい。解析部205による通過の検知処理は図8に示されるものには限定されず、他の公知の通過検知処理が用いられてもよい。 Here, the analysis unit 205 performs each process on two images, the image 801 and the image 802, but the number of images to be processed is not particularly limited, and any number of images can be processed. It can be carried out. Further, the analysis unit 205 may group by the traveling direction of the human body or by the patches in which the passage was detected, and then aggregate the number of detected passages for each group. The passage detection processing by the analysis unit 205 is not limited to that shown in FIG. 8, and other known passage detection processing may be used.

また、解析部205は、一定期間内に検知線を通る計測対象の通過量が閾値よりも少ないパッチが存在する場合に、そのパッチにおける解析処理を停止してもよい。例えば、解析部205は、あるパッチ内において、所定の期間内の計測対象の数の総量、又は時間当たりの量を算出し、その値が所定の閾値以下である場合に、そのパッチにおける解析処理を停止し、そのパッチの情報を削除する。この際、表示部202は、パッチを削除した(そのパッチにおける処理を停止した)旨をユーザに通知してもよい。ここで用いられる閾値は、予め設定されていてもよく、各パッチにおける通過量から算出されてもよく、ユーザが所望の条件を設定できるようにしてもよい。解析部205は、例えば、全パッチにおける通過量の5%を下回るパッチが存在する場合に、そのパッチにおける解析処理を停止することができる。また例えば、解析部205は、1時間あたりの通過人数が1人以下であるパッチが存在する場合に、そのパッチにおける解析処理を停止することができる。 Further, when there is a patch in which the passing amount of the measurement target passing through the detection line within a certain period of time is less than the threshold value, the analysis unit 205 may stop the analysis processing for that patch. For example, the analysis unit 205 calculates the total number of measurement targets within a predetermined period or the amount per hour in a certain patch, and if the value is equal to or less than a predetermined threshold, the analysis processing in the patch and delete the information for that patch. At this time, the display unit 202 may notify the user that the patch has been deleted (the process for that patch has been stopped). The threshold used here may be set in advance, may be calculated from the passing amount in each patch, or may be set by the user as a desired condition. For example, when there is a patch whose passing amount is less than 5% of all patches, the analysis unit 205 can stop the analysis processing for that patch. Further, for example, when there is a patch in which the number of passing persons per hour is one or less, the analysis unit 205 can stop the analysis processing for that patch.

図9は、上述のパッチの解析処理を停止する例を示す図である。画面900はパッチ902の削除前の画面であり、画面901はパッチ902を削除した後の画面である。検知線の終点903を含むパッチ902では、一定期間で通過を検知した数が少なかったため、解析部205によってパッチ902に関する情報が削除され、検知線もパッチ903に含まれていた箇所が削除されている。このような処理によれば、計測対象の通過量の少ないパッチを不要として処理を停止し、計算リソースの節約を行うことが可能となる。 FIG. 9 is a diagram showing an example of stopping the patch analysis process described above. A screen 900 is the screen before the patch 902 is deleted, and a screen 901 is the screen after the patch 902 is deleted. In the patch 902 including the end point 903 of the detection line, the number of passages detected in a certain period of time was small, so the information about the patch 902 was deleted by the analysis unit 205, and the location where the detection line was included in the patch 903 was also deleted. there is According to such a process, it is possible to stop the process for patches with a small passing amount to be measured and to save computational resources.

図3は、本実施形態に係る画像処理装置100が行う情報処理の一例を示すフローチャートである。S301で設定部204は、パッチ数の上限を指定するユーザ入力を取得する。S302で算出部203は、パッチ数の上限に基づいて、設定可能な検知線の長さを算出する。S303で表示部202は、検知線を指定するユーザ入力を取得する。S304で設定部204は、ユーザ入力によって指定された検知線が、S303で算出された長さ以下であるかを判定する。その長さ以下である場合には処理がS305へと進み、そうでない場合には処理がS306へと進む。 FIG. 3 is a flowchart showing an example of information processing performed by the image processing apparatus 100 according to this embodiment. In S301, the setting unit 204 acquires user input specifying the upper limit of the number of patches. In S302, the calculation unit 203 calculates the length of the detection line that can be set based on the upper limit of the number of patches. In S<b>303 , the display unit 202 acquires user input specifying a detection line. In S304, the setting unit 204 determines whether the detection line specified by the user input has a length equal to or less than that calculated in S303. If it is equal to or less than the length, the process proceeds to S305; otherwise, the process proceeds to S306.

S305で設定部204は、ユーザが指定した検知線をそのまま解析処理に用いる検知線として決定し、処理をS307へと進める。S306で設定部204は、検知線の長さをS302で設定した長さへと制限し、処理をS307へと進める。 In S305, the setting unit 204 determines the detection line specified by the user as the detection line to be used for analysis processing as it is, and advances the processing to S307. In S306, the setting unit 204 limits the length of the detection line to the length set in S302, and advances the process to S307.

S307で表示部202は、ユーザが検知線の確定処理を行ったか否かを判定する。確定処理を行っている場合には検知線の情報を格納して処理は終了し、そうでない場合には処理はS303へと戻る。 In S307, the display unit 202 determines whether or not the user has performed detection line confirmation processing. If the confirmation process is being performed, the information on the detection line is stored and the process ends. If not, the process returns to S303.

このような構成によれば、検知線を通る計測対象の流れを計測する際に、計測用に検知線の近傍に設定するパッチの上限を設定し、その上限に応じて検知線の長さを制限することができる。したがって、パッチの数が設定された上限に収まるような検知線の設定を行うことにより、利用可能な計算リソースを考慮した通過の検知処理を行うことが可能となる。 According to such a configuration, when measuring the flow of the measurement target passing through the detection line, the upper limit of the patch set near the detection line for measurement is set, and the length of the detection line is adjusted according to the upper limit. can be restricted. Therefore, by setting the detection line so that the number of patches falls within the set upper limit, it is possible to perform passage detection processing in consideration of available computational resources.

なお、設定部204は計測対象として人体を用いるものとして各種説明を行ったが、例えば計測対象として人体及び車両など異なるものが同時に用いられる場合、それらを区別せずに計測してもよく、別個に区別して検出、及び解析処理を行ってもよい。異なる計測対象を区別して解析処理を行う場合、図2に示される各機能部による処理は、異なる種類の計測対象それぞれに対して上述の処理を行うものとする。 Although the setting unit 204 has been described in various ways assuming that the human body is used as the object to be measured, for example, when different objects such as a human body and a vehicle are used as the object to be measured at the same time, the objects may be measured without distinguishing between them. detection and analysis processing may be performed separately. When performing analysis processing by distinguishing between different measurement objects, the processing by each functional unit shown in FIG. 2 shall perform the above-described processing for each of the different types of measurement objects.

図10は、本実施形態に係る係る表示部202が表示する、人体と車両との各種設定を別々に行うためのGUIの一例を示す図である。UI1000は、パッチの数を指定するためのボックス1001を表示している。ここでは、ボックス1001へユーザによって入力された数がパッチの上限として設定されるが、異なる形式でユーザの入力が行われてもよい。図10の例では、設定部204は、ボックス1001に入力された値が、人体と車両とそれぞれに設定されるパッチ数の総計の上限として設定する。 FIG. 10 is a diagram showing an example of a GUI for separately performing various settings for the human body and the vehicle, displayed by the display unit 202 according to this embodiment. UI 1000 displays a box 1001 for designating the number of patches. Here, the number entered by the user in box 1001 is set as the upper limit of patches, but the user entry may be made in a different format. In the example of FIG. 10, the setting unit 204 sets the value input in the box 1001 as the upper limit of the total number of patches set for the human body and the vehicle.

またUI1000は、人体に関して設定されるパッチ数の上限を指定するためのボックス1002と、車両に関して設定されるパッチ数の上限を設定するためのボックス1006と、を表示している。また、UI1000は、人体の通過検知を行うための検知線2つに対するパッチ数の上限を設定するためのボックス1003及び1004と、車両の通過検知を行うための検知線1つに対するパッチ数の上限を設定するためのボックス1007とを表示している。ここで、表示部202は、設定されたパッチ数に齟齬が生じる場合、例えばボックス1003及び1004に入力された値がボックス1002に入力された値を超える場合には、ユーザに通知を行うことができる。表示部202は、例えばエラーを示すメッセージを警告として表示してもよく、通知音による警告を行ってもよく、齟齬が生じないようにボックス内の値の修正を行ったうえで通知を行ってもよい。ここでは、吹き出し1005として、入力されたパッチ数の間に齟齬があることを示すメッセージが表示されている。このような表示によれば、複数の計測対象に関してパッチ数の条件を設定する際にも、設定した上限数を超えないように検知線の設定を行うことが可能となる。 The UI 1000 also displays a box 1002 for specifying the upper limit of the number of patches set for the human body and a box 1006 for setting the upper limit of the number of patches for the vehicle. The UI 1000 also includes boxes 1003 and 1004 for setting the upper limit of the number of patches for two detection lines for detecting passage of a human body, and boxes 1004 and 1004 for setting the upper limit of the number of patches for one detection line for detecting passage of a vehicle. A box 1007 for setting is displayed. Here, if there is a discrepancy in the set number of patches, for example, if the values input in boxes 1003 and 1004 exceed the value input in box 1002, display unit 202 can notify the user. can. The display unit 202 may display, for example, a message indicating an error as a warning, or may issue a warning with a notification sound. good too. Here, a message is displayed as a balloon 1005 indicating that there is a discrepancy between the numbers of patches that have been input. According to such a display, even when setting conditions for the number of patches for a plurality of measurement targets, it is possible to set detection lines so that the set upper limit number is not exceeded.

図11は、図10の表示に加えて、利用可能な計算リソースからパッチ数の上限を算出し、その上限をユーザに提示するGUIの例を示す図である。UI1100及び1101においては、算出部203によって計算リソースに基づくパッチ数の上限は10であると算出され、それが表示1102としてユーザに提示されている。人体と車両とについてパッチの上限を入力するボックスが表示されているのは図10と同様である。ここで、表示部202は、他の計測対象、及び/又は検知線に関して入力された上限に基づいて、ユーザがまだパッチ数の上限を入力していない項目に関する、設定可能な(残された)上限を表示してもよい。図11の例では、人体の通過検知を行うための検知線の2つのパッチのうちの片方に対する上限を設定するボックス1103と、車両の通過検知を行うためのパッチに対する上限を設定するボックス1104と、には上限の値が入力されている。一方で、人体の通過検知を行うための検知線のもう1つのパッチに対するボックスには入力がされていあに。そのため、表示部202は、表示1102と、ボックス1103及び1104の入力内容から、利用できる残りのパッチ数が3つであることを示す表示1105をUI1100上に表示している。このような表示によれば、利用可能な計算リソースから自動で算出されるパッチ数の上限を確認して、各種パッチの上限を設定することができる。また、上限の設定途中に、他の項目に関して設定可能な上限の値を確認しながら設定を行うことができる。 FIG. 11 is a diagram showing an example of a GUI that, in addition to the display of FIG. 10, calculates the upper limit of the number of patches from available computing resources and presents the upper limit to the user. In the UIs 1100 and 1101, the calculation unit 203 calculates that the upper limit of the number of patches based on the calculation resources is 10, and this is presented as a display 1102 to the user. Similar to FIG. 10, boxes for inputting the upper limit of patches for the human body and the vehicle are displayed. Here, the display unit 202 displays the configurable (remaining) number of items for which the user has not yet input the upper limit on the number of patches, based on the upper limit entered for other measurement targets and/or detection lines. An upper limit may be displayed. In the example of FIG. 11, a box 1103 for setting the upper limit for one of the two patches of the detection line for detecting the passage of a human body, and a box 1104 for setting the upper limit for the patch for detecting the passage of a vehicle. , the upper limit value is entered. On the other hand, the box for another patch of sensing lines for detecting the passing of a human body is filled in. Therefore, the display unit 202 displays on the UI 1100 a display 1105 indicating that the remaining number of available patches is three, based on the display 1102 and the input contents of the boxes 1103 and 1104 . According to such a display, it is possible to confirm the upper limit of the number of patches automatically calculated from available computing resources and set the upper limit of various patches. In addition, while setting the upper limit, it is possible to perform setting while confirming the upper limit values that can be set for other items.

(その他の実施例)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
(Other examples)
The present invention supplies a program that implements one or more functions of the above-described embodiments to a system or apparatus via a network or a storage medium, and one or more processors in the computer of the system or apparatus reads and executes the program. It can also be realized by processing to It can also be implemented by a circuit (for example, ASIC) that implements one or more functions.

発明は上記実施形態に制限されるものではなく、発明の精神及び範囲から離脱することなく、様々な変更及び変形が可能である。従って、発明の範囲を公にするために請求項を添付する。 The invention is not limited to the embodiments described above, and various modifications and variations are possible without departing from the spirit and scope of the invention. Accordingly, the claims are appended to make public the scope of the invention.

201:画像取得部、202:表示部、203:算出部、204:設定部、205:解析部 201: image acquisition unit, 202: display unit, 203: calculation unit, 204: setting unit, 205: analysis unit

Claims (19)

動画像において検知線を通る対象の数を計測する画像処理装置であって、
前記検知線の近傍に設定される、前記対象の数を計測するために参照する複数の部分画像の数の上限を設定する第1の設定手段と、
前記上限に応じて、前記動画像に前記検知線を設定する第2の設定手段と、
前記検知線の近傍に設定された複数の部分画像を、前記動画像における複数の画像のそれぞれから抽出する抽出手段と、
前記部分画像を用いて、前記検知線を通る前記対象の数を計測する計測手段と、
を備えることを特徴とする、画像処理装置。
An image processing device that measures the number of objects passing through a detection line in a moving image,
a first setting means for setting an upper limit on the number of a plurality of partial images to be referred to for counting the number of objects set in the vicinity of the detection line;
a second setting means for setting the detection line in the moving image according to the upper limit;
extracting means for extracting a plurality of partial images set near the detection line from each of the plurality of images in the moving image;
measuring means for measuring the number of the objects passing through the detection line using the partial image;
An image processing device comprising:
前記第2の設定手段は、前記検知線に対して所定の方法で設定される前記部分画像の数が前記上限以下となるように、前記検知線を設定することを特徴とする、請求項1に記載の画像処理装置。 2. The second setting means sets the detection line such that the number of partial images set by a predetermined method for the detection line is equal to or less than the upper limit. The image processing device according to . 前記第2の設定手段は、前記検知線を複数設定する場合に、複数設定する前記検知線それぞれに対して所定の方法で設定される前記部分画像の数の総計が前記上限以下となるように、前記検知線を設定することを特徴とする、請求項2に記載の画像処理装置。 When a plurality of detection lines are set, the second setting means sets the total number of the partial images set by a predetermined method for each of the plurality of detection lines to be equal to or less than the upper limit. 3. The image processing apparatus according to claim 2, wherein the detection line is set. 前記複数の部分画像は、前記検知線を包含するように設定されることを特徴とする、請求項1乃至3の何れか一項に記載の画像処理装置。 4. The image processing apparatus according to claim 1, wherein said plurality of partial images are set so as to include said detection line. 前記部分画像の大きさは、前記部分画像の位置に応じて定められることを特徴とする、請求項4に記載の画像処理装置。 5. The image processing apparatus according to claim 4, wherein the size of said partial image is determined according to the position of said partial image. 前記動画像中の各位置に対応する前記対象の大きさを推定する推定手段をさらに備え、
前記推定手段によって推定される、前記部分画像の位置に対応する前記対象の大きさに基づいて、前記部分画像それぞれの大きさが設定されることを特徴とする、請求項4に記載の画像処理装置。
Further comprising estimation means for estimating the size of the object corresponding to each position in the moving image,
5. The image processing according to claim 4, wherein the size of each of said partial images is set based on the size of said object corresponding to the position of said partial image estimated by said estimation means. Device.
前記部分画像は、前記検知線の長さと前記上限とに応じて大きさが変更されることを特徴とする、請求項4に記載の画像処理装置。 5. The image processing apparatus according to claim 4, wherein the size of said partial image is changed according to the length of said detection line and said upper limit. 前記第1の設定手段は、前記対象の数を計測する処理に割り当てられた計算リソースに基づいて前記上限を設定することを特徴とする、請求項1乃至7の何れか一項に記載の画像処理装置。 8. The image according to any one of claims 1 to 7, wherein said first setting means sets said upper limit based on computational resources allocated to the process of measuring the number of said objects. processing equipment. 前記上限を指定する第1のユーザ入力を取得する第1の取得手段をさらに備え、
前記第1の設定手段は、前記第1のユーザ入力に基づいて前記上限を設定することを特徴とする、請求項1乃至7の何れか一項に記載の画像処理装置。
further comprising a first acquisition means for acquiring a first user input designating the upper limit;
8. The image processing apparatus according to claim 1, wherein said first setting means sets said upper limit based on said first user input.
前記対象の数を計測する処理に割り当てられた計算リソースに基づいて、前記動画像中に設定可能な前記複数の画像の数の上限を算出する算出手段と、
前記算出手段が算出した上限をユーザに提示する提示手段と、
をさらに備えることを特徴とする、請求項9に記載の画像処理装置。
calculation means for calculating an upper limit of the number of the plurality of images that can be set in the moving image based on the calculation resources allocated to the process of measuring the number of the objects;
presentation means for presenting the upper limit calculated by the calculation means to the user;
10. The image processing apparatus according to claim 9, further comprising:
前記検知線を指定する第2のユーザ入力を取得する第2の取得手段をさらに備え、
前記第2の設定手段は、前記第2のユーザ入力に基づいて前記検知線を設定することを特徴とする、請求項1乃至10の何れか一項に記載の画像処理装置。
further comprising a second acquisition means for acquiring a second user input designating the sensing line;
11. The image processing apparatus according to claim 1, wherein said second setting means sets said detection line based on said second user input.
前記第2のユーザ入力は、前記検知線の始点及び終点の指定を含み、
前記第2の設定手段は、前記始点から前記終点の方向へと延びる、前記上限に応じた長さを有する前記検知線を設定することを特徴とする、請求項11に記載の画像処理装置。
the second user input includes specifying start and end points of the sensing line;
12. The image processing apparatus according to claim 11, wherein said second setting means sets said detection line extending from said start point toward said end point and having a length corresponding to said upper limit.
前記第2のユーザ入力を取得した場合に、前記第2のユーザ入力によって指定される第2の検知線と、前記第2の設定手段によって設定される前記検知線と、を表示する表示手段をさらに備えることを特徴とする、請求項11又は12に記載の画像処理装置。 display means for displaying a second detection line designated by the second user input and the detection line set by the second setting means when the second user input is acquired; 13. The image processing device according to claim 11 or 12, further comprising: 前記表示手段は、前記検知線に対して設定される前記複数の部分画像をさらに表示することを特徴とする、請求項13に記載の画像処理装置。 14. The image processing apparatus according to claim 13, wherein said display means further displays said plurality of partial images set with respect to said detection line. 前記計測手段は、前記複数の部分画像のうち、所定の期間内に計測された前記検知線を通る前記対象の数が所定の閾値以下となる前記部分画像が存在する場合に、前記所定の閾値以下となる前記部分画像を用いた前記検知線を通る前記対象の数の計測を停止することを特徴とする、請求項1乃至14の何れか一項に記載の画像処理装置。 The measurement means measures the number of objects passing through the detection line measured within a predetermined period of the plurality of partial images, if the partial image is equal to or smaller than a predetermined threshold. 15. The image processing apparatus according to any one of claims 1 to 14, characterized in that the measurement of the number of objects passing through the detection line using the partial images below is stopped. 前記対象の数が、前記所定の期間内に計測された前記検知線を通る前記対象の総数、又は検知線を通る前記対象の時間当たりの数であることを特徴とする、請求項15に記載の画像処理装置。 16. The method of claim 15, wherein the number of objects is the total number of objects passing through the sensing line measured within the predetermined time period, or the number of objects passing through the sensing line per hour. image processing device. 動画像において検知線を通る対象の数を計測する画像処理装置であって、
前記検知線の近傍に設定される、前記対象の数を計測するために参照する複数の部分画像の数の上限を設定する第1の設定手段と、
前記検知線を指定するユーザ入力を取得する取得手段と、
前記ユーザ入力に基づいて、前記検知線の近傍に前記部分画像を設定する第2の設定手段であって、
前記検知線の近傍に設定される前記部分画像の数を前記上限以下に制限する、第2の設定手段と、
前記検知線の近傍に設定された複数の部分画像を、前記動画像における複数の画像のそれぞれから抽出する抽出手段と、
前記部分画像を用いて、前記検知線を通る前記対象の数を計測する計測手段と、
を備えることを特徴とする、画像処理装置。
An image processing device that measures the number of objects passing through a detection line in a moving image,
a first setting means for setting an upper limit on the number of a plurality of partial images to be referred to for counting the number of objects set in the vicinity of the detection line;
an acquisition means for acquiring user input designating the detection line;
second setting means for setting the partial image in the vicinity of the detection line based on the user input,
a second setting means for limiting the number of partial images set in the vicinity of the detection line to the upper limit or less;
extracting means for extracting a plurality of partial images set near the detection line from each of the plurality of images in the moving image;
measuring means for measuring the number of the objects passing through the detection line using the partial image;
An image processing device comprising:
動画像において検知線を通る対象の数を計測する画像処理装置が行う情報処理方法であって、
前記検知線の近傍に設定される、前記対象の数を計測するために参照する複数の部分画像の数の上限を設定する工程と、
前記動画像に前記検知線を設定する工程であって、
前記上限に応じて前記検知線の長さを制限する、工程と、
前記検知線の近傍に設定された複数の部分画像を、前記動画像における複数の画像のそれぞれから抽出する工程と、
前記部分画像を用いて、前記検知線を通る前記対象の数を計測する工程と、
を備えることを特徴とする、情報処理方法。
An information processing method performed by an image processing device for measuring the number of objects passing through a detection line in a moving image,
setting an upper limit on the number of partial images to be referred to for counting the number of objects, which are set in the vicinity of the detection line;
A step of setting the detection line in the moving image,
limiting the length of the sensing line according to the upper limit;
a step of extracting a plurality of partial images set in the vicinity of the detection line from each of the plurality of images in the moving image;
counting the number of objects passing through the sensing line using the partial image;
An information processing method, comprising:
コンピュータを、請求項1乃至17の何れか一項に記載の画像処理装置の各手段として機能させるためのプログラム。 A program for causing a computer to function as each means of the image processing apparatus according to any one of claims 1 to 17.
JP2021092515A 2021-06-01 2021-06-01 Image processing device, information processing method, and program Pending JP2022184576A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021092515A JP2022184576A (en) 2021-06-01 2021-06-01 Image processing device, information processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021092515A JP2022184576A (en) 2021-06-01 2021-06-01 Image processing device, information processing method, and program

Publications (1)

Publication Number Publication Date
JP2022184576A true JP2022184576A (en) 2022-12-13

Family

ID=84438062

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021092515A Pending JP2022184576A (en) 2021-06-01 2021-06-01 Image processing device, information processing method, and program

Country Status (1)

Country Link
JP (1) JP2022184576A (en)

Similar Documents

Publication Publication Date Title
JP6918523B2 (en) A program that causes a computer to execute an information processing system, an information processing device, an information processing method, and an information processing method.
US8284991B2 (en) Apparatus and method for counting number of objects
JP6159179B2 (en) Image processing apparatus and image processing method
JP6700752B2 (en) Position detecting device, position detecting method and program
US10445887B2 (en) Tracking processing device and tracking processing system provided with same, and tracking processing method
EP2450832A1 (en) Image processing apparatus and image processing method
US9836130B2 (en) Operation input device, operation input method, and program
CN109286755A (en) Information processing unit and the control method for controlling image capture apparatus
GB2540032A (en) Data browse apparatus, data browse method, program, and storage medium
JP6494418B2 (en) Image analysis apparatus, image analysis method, and program
JP7145622B2 (en) Information processing device, information processing device control method, subject detection system, and program
JP7359621B2 (en) Area setting support device, area setting support method, and area setting support program
CN110709857A (en) Apparatus, method and program for managing number of people
US9478032B2 (en) Image monitoring apparatus for estimating size of singleton, and method therefor
JP2022184576A (en) Image processing device, information processing method, and program
JPWO2018179119A1 (en) Video analysis device, video analysis method, and program
JP7287712B2 (en) Measurement method
JP2020201674A (en) Video analyzer and control method therefor and program
JP2022184574A (en) Information processing device, information processing method, and program
US10475221B2 (en) Image processing device, image processing method and program for detected objects
US20230062785A1 (en) Estimation apparatus, estimation method, and computer program product
KR20190070238A (en) System and method for recognizing measurement value in analogue testers
JP2019128824A (en) Image processing apparatus and image processing method
JP7256032B2 (en) Person counting device, person counting method and person counting program
JP6952857B2 (en) Information processing equipment, information processing methods and programs