JP7321221B2 - Information processing device, program, determination method, and system - Google Patents

Information processing device, program, determination method, and system Download PDF

Info

Publication number
JP7321221B2
JP7321221B2 JP2021145005A JP2021145005A JP7321221B2 JP 7321221 B2 JP7321221 B2 JP 7321221B2 JP 2021145005 A JP2021145005 A JP 2021145005A JP 2021145005 A JP2021145005 A JP 2021145005A JP 7321221 B2 JP7321221 B2 JP 7321221B2
Authority
JP
Japan
Prior art keywords
image
detection target
detection
reference coordinates
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021145005A
Other languages
Japanese (ja)
Other versions
JP2023038090A (en
Inventor
達大 内藤
彩菜 藤本
聡 山田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
SoftBank Corp
Original Assignee
SoftBank Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by SoftBank Corp filed Critical SoftBank Corp
Priority to JP2021145005A priority Critical patent/JP7321221B2/en
Publication of JP2023038090A publication Critical patent/JP2023038090A/en
Application granted granted Critical
Publication of JP7321221B2 publication Critical patent/JP7321221B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Description

本発明は、情報処理装置、プログラム、判定方法、及びシステムに関する。 The present invention relates to an information processing device, program, determination method, and system.

例えば、道路上を走行する車両をテレビカメラから撮影した画像の連続するフレーム中から特徴点を抽出し、それらが同一の車両のものか否かを判別してグルーピングすることで、複数の車両を分離、認識し、各車両の位置データを取得するような技術が知られていた(例えば、特許文献1参照)。
[先行技術文献]
[特許文献]
[特許文献1]特開2002-56494号公報
For example, by extracting feature points from consecutive frames of images taken by a TV camera of vehicles traveling on the road, determining whether or not they belong to the same vehicle, and grouping them, we can identify multiple vehicles. Techniques for separating, recognizing, and acquiring location data for each vehicle have been known (see, for example, Patent Document 1).
[Prior art documents]
[Patent Literature]
[Patent Document 1] JP-A-2002-56494

本発明の一実施態様によれば、情報処理装置が提供される。情報処理装置は、時系列の連続する複数の画像のそれぞれについて、画像内における検出対象の基準座標を示す座標情報を取得する座標情報取得部を備えてよい。情報処理装置は、複数の画像のうちの第1の画像の座標情報及び第2の画像の座標情報に基づいて、第1の画像における検出対象と第2の画像における検出対象とを対応付ける対応付部を備えてよい。情報処理装置は、第1の画像における検出対象の基準座標と、当該検出対象に対応する第2の画像における検出対象の基準座標とを結ぶ検出対象の移動線分が、予め設定された境界線分と交差する場合に、検出対象が境界線分を通過したと判定する通過判定部を備えてよい。 According to one embodiment of the present invention, an information processing device is provided. The information processing apparatus may include a coordinate information acquisition unit that acquires coordinate information indicating reference coordinates of a detection target in each of a plurality of time-series consecutive images. The information processing device establishes correspondence between a detection target in a first image and a detection target in a second image based on coordinate information of a first image and coordinate information of a second image among a plurality of images. You may have a department. In the information processing device, a movement line segment of a detection target connecting the reference coordinates of the detection target in the first image and the reference coordinates of the detection target in the second image corresponding to the detection target is a boundary line set in advance. A passage determination unit may be provided that determines that the detection target has passed through the boundary line segment when the detection target crosses the boundary line segment.

上記対応付部は、上記第1の画像における複数の上記検出対象と上記第2の画像における複数の上記検出対象とについて、上記移動線分の長さであるユークリッド距離が、最短になる上記検出対象の組を移動前後として対応付けてよい。上記対応付部は、対応付けた上記検出対象の組の上記ユークリッド距離を集計して中央値を算出し、上記検出対象の組の上記ユークリッド距離が、上記中央値の1.5倍を超える場合に、上記検出対象の移動前後として対応付けなくてもよい。上記対応付部によって他の上記検出対象に対応付けられなかった上記検出対象の情報が含まれるエラー情報を、記憶するエラー情報記憶部をさらに備えてもよい。上記対応付部は、上記複数の画像のうちの一の画像における複数の上記検出対象のうち、上記一の画像に連続する次の画像の複数の上記検出対象のいずれにも対応付けられなかった上記検出対象がある場合に、上記エラー情報を参照してもよい。 The matching unit performs the detection in which the Euclidean distance, which is the length of the movement line segment, is the shortest between the plurality of detection targets in the first image and the plurality of detection targets in the second image. The set of targets may be associated as before and after movement. The association unit aggregates the Euclidean distances of the associated pairs of detection targets to calculate a median value, and when the Euclidean distances of the pair of detection targets exceeds 1.5 times the median value , may not be associated as before and after movement of the detection target. The apparatus may further include an error information storage unit that stores error information including information on the detection target that has not been associated with the other detection target by the association unit. The associating unit is associated with none of the plurality of detection targets in the next image following the one image among the plurality of detection targets in one of the plurality of images. When there is the detection target, the error information may be referred to.

上記エラー情報記憶部は、対応付けられなかった上記検出対象の上記基準座標が、予め設定された領域内にある場合に上記エラー情報を記憶してもよい。上記予め設定された領域は、上記画像の中心を含み、上記画像の端部を含まない領域であってもよい。上記対応付部は、対応付けられなかった上記検出対象の上記エラー情報を、対応付けられなかった上記検出対象ごとに一定期間で削除してもよい。上記検出対象が上記境界線分を通過したと判定された場合に、上記移動線分から算出できる移動ベクトルと、予め設定された任意点及び上記境界線分から求まる判定ベクトルとの角度で、上記移動ベクトルの上記境界線分に対する通過方向を判定するベクトル判定部をさらに備えてもよい。 The error information storage unit may store the error information when the reference coordinates of the detection target that have not been associated are within a preset area. The preset area may be an area that includes the center of the image and does not include the edges of the image. The association unit may delete the error information of the detection target that has not been associated for each of the detection targets that have not been associated in a certain period of time. When it is determined that the detection target has passed through the boundary line segment, the movement vector is an angle between a movement vector that can be calculated from the movement line segment and a predetermined arbitrary point and a determination vector that can be obtained from the boundary line segment. may further include a vector determination unit that determines a passing direction with respect to the boundary line segment of .

上記ベクトル判定部は、上記判定ベクトルと上記移動ベクトルとの角度が90度より小さい又は270度より大きい場合、上記通過方向が、上記境界線分から上記任意点への方向であると判定してもよい。上記ベクトル判定部は、上記判定ベクトルと上記移動ベクトルとの角度が90度より大きく270度より小さい場合、上記通過方向が、上記境界線分から上記任意点への方向とは逆方向であると判定してもよい。 When the angle between the determination vector and the movement vector is less than 90 degrees or greater than 270 degrees, the vector determination unit determines that the passing direction is a direction from the boundary line to the arbitrary point. good. The vector determination unit determines that the passing direction is opposite to the direction from the boundary line to the arbitrary point when an angle between the determination vector and the movement vector is greater than 90 degrees and less than 270 degrees. You may

上記通過方向が、上記境界線分から上記任意点への方向であると判定された場合に、上記検出対象が上記境界線分を上記任意点への方向に通過した回数である第1カウント数を加算するカウント部をさらに備えてもよい。上記カウント部は、上記通過方向が、上記境界線分から上記任意点への方向とは逆方向であると判定された場合に、上記検出対象が上記境界線分を上記任意点への方向とは逆方向に通過した回数である第2カウント数を加算してもよい。 A first count number that is the number of times that the detection target passes through the boundary line segment in the direction to the arbitrary point when the passing direction is determined to be the direction from the boundary line segment to the arbitrary point. A counting unit for addition may be further provided. When it is determined that the passing direction is opposite to the direction from the boundary line to the arbitrary point, the counting unit causes the detection target to move along the boundary line in a direction opposite to the direction to the arbitrary point. A second count number, which is the number of times of passage in the reverse direction, may be added.

上記ベクトル判定部によって、上記通過方向が、上記境界線分から上記任意点への方向であると判定された場合に上記検出対象が上記境界線分を通過した回数であるカウント数を加算してもよく、上記通過方向が、上記境界線分から上記任意点への方向とは逆方向であると判定された場合に、上記カウント数を減算してもよい。 When the vector determination unit determines that the passing direction is the direction from the boundary line to the arbitrary point, the count number, which is the number of times the detection target passes through the boundary line, may be added. Preferably, the count number may be subtracted when it is determined that the passing direction is opposite to the direction from the boundary line segment to the arbitrary point.

本発明の一実施態様によれば、コンピュータを、上記情報処理装置として機能させるためのプログラムが提供される。本発明の第3の態様によれば、コンピュータによって実行される判定方法が提供される。判定方法は、時系列の連続する複数の画像のそれぞれについて、画像内における検出対象の基準座標を示す座標情報を取得する段階を備えてもよい。上記複数の画像のうちの第1の画像の上記座標情報及び第2の画像の上記座標情報に基づいて、上記第1の画像における上記検出対象と上記第2の画像における上記検出対象とを対応付ける段階を備えてもよい。上記第1の画像における上記検出対象の基準座標と、当該検出対象に対応する上記第2の画像における上記検出対象の基準座標とを結ぶ上記検出対象の移動線分が、予め設定された境界線分と交差する場合に、上記検出対象が上記境界線分を通過したと判定する段階を備えてもよい。 According to one embodiment of the present invention, there is provided a program for causing a computer to function as the information processing apparatus. According to a third aspect of the invention, there is provided a computer-implemented method of determination. The determination method may comprise acquiring coordinate information indicating reference coordinates of a detection target in each of a plurality of time-series consecutive images. The detection target in the first image and the detection target in the second image are associated with each other based on the coordinate information of the first image and the coordinate information of the second image among the plurality of images. It may have steps. A moving line segment of the detection target connecting the reference coordinates of the detection target in the first image and the reference coordinates of the detection target in the second image corresponding to the detection target is a predetermined boundary line. determining that the detected object has passed through the boundary segment if it crosses the segment.

本発明の一実施態様によれば、上記情報処理装置と、画像処理装置とを備えるシステムが提供される。上記画像処理装置は、上記検出対象を含む動画像を撮像する撮像部によって撮像された上記動画像を取得する動画像取得部を備えてもよい。上記動画像の複数のフレームのそれぞれを、時系列順に画像処理対象である処理画像に変換する画像変換部を備えてもよい。上記処理画像ごとに、上記処理画像内の上記検出対象を検出し、上記検出対象の上記基準座標を示す上記座標情報を算出する座標情報算出部を備えてもよい。上記座標情報を上記情報処理装置に送信する送信部を備えてもよい。上記情報処理装置は、クラウドに配置されてよく、上記画像処理装置は、エッジに配置されて、エッジサーバとして機能してよく、上記送信部は、ネットワークを介して上記座標情報を上記情報処理装置に送信してよい。上記動画像取得部は、上記送信部が上記座標情報を上記情報処理装置に送信したことに応じて、上記動画像を削除してよい。 According to one embodiment of the present invention, there is provided a system comprising the information processing device and an image processing device. The image processing apparatus may include a moving image acquiring section that acquires the moving image captured by an imaging section that captures a moving image including the detection target. An image conversion unit may be provided that converts each of the plurality of frames of the moving image into a processed image to be subjected to image processing in chronological order. A coordinate information calculation unit may be provided for each of the processed images, which detects the detection target in the processed image and calculates the coordinate information indicating the reference coordinates of the detection target. A transmitting unit that transmits the coordinate information to the information processing device may be provided. The information processing device may be arranged in a cloud, the image processing device may be arranged at an edge and function as an edge server, and the transmission unit may transmit the coordinate information to the information processing device via a network. can be sent to The moving image acquiring unit may delete the moving image in response to the transmitting unit transmitting the coordinate information to the information processing device.

なお、上記の発明の概要は、本発明の必要な特徴の全てを列挙したものではない。また、これらの特徴群のサブコンビネーションもまた、発明となりうる。 It should be noted that the above summary of the invention does not list all the necessary features of the invention. Subcombinations of these feature groups can also be inventions.

システム10の一例を概略的に示す。An example system 10 is shown schematically. システム10における処理の流れの一例を概略的に示す。An example of a process flow in system 10 is shown schematically. 情報処理装置100における検出対象の対応付けの一例を概略的に示す。An example of association of detection targets in the information processing apparatus 100 is schematically shown. 情報処理装置100における通過したとする判定の一例を概略的に示す。An example of the determination that the information processing apparatus 100 has passed is schematically shown. 情報処理装置100による処理内容について説明するための説明図であるFIG. 3 is an explanatory diagram for explaining the contents of processing by the information processing apparatus 100; 情報処理装置100における検出対象の対応付けの他の一例を概略的に示す。す。Another example of association of detection targets in the information processing apparatus 100 is schematically shown. vinegar. 情報処理装置100における通過したとする判定の他の一例を概略的に示す。Another example of the determination of passage in the information processing apparatus 100 is schematically shown. 情報処理装置100における通過したとする判定の他の一例を概略的に示す。Another example of the determination of passage in the information processing apparatus 100 is schematically shown. 情報処理装置100及び画像処理装置200の機能構成の一例を概略的に示す。1 schematically shows an example of functional configurations of an information processing apparatus 100 and an image processing apparatus 200. FIG. 情報処理装置100又は画像処理装置200として機能するコンピュータ1200のハードウェア構成の一例を概略的に示す。1 schematically shows an example of a hardware configuration of a computer 1200 functioning as an information processing device 100 or an image processing device 200. FIG.

動画像内において、任意に指定した線分を通過した移動物体(例:車両や人物等)の数をカウントする技術が求められている。そのような技術をクラウドサービスによって実現することが考えられるが、クラウドに動画像を送信することによるネットワークトラフィックの増加や、個人情報が漏洩する可能性等の課題がある。本実施形態に係るシステム10では、例えば、個人情報を含む動画像について、エッジ側で重たい映像処理(物体検出)を行った後、動画像を削除し、座標情報のみをクラウドにアップロードし、クラウド側で座標情報を用いて移動物体のカウントを行う形式を採用する。これにより、ネットワークトラフィックを軽減できるとともに、個人情報のネットワークを介した送信をしないことによって個人情報保護を達成することができる。 There is a demand for a technique for counting the number of moving objects (eg, vehicles, people, etc.) that have passed through an arbitrarily specified line segment in a moving image. It is conceivable to realize such technology by cloud services, but there are problems such as an increase in network traffic due to transmission of moving images to the cloud and the possibility of leakage of personal information. In the system 10 according to the present embodiment, for example, for a moving image containing personal information, heavy image processing (object detection) is performed on the edge side, then the moving image is deleted, only the coordinate information is uploaded to the cloud, and the A format in which moving objects are counted using coordinate information on the side is adopted. As a result, network traffic can be reduced, and personal information protection can be achieved by not transmitting personal information over the network.

以下、発明の実施の形態を通じて本発明を説明するが、以下の実施形態は特許請求の範囲にかかる発明を限定するものではない。また、実施形態の中で説明されている特徴の組み合わせの全てが発明の解決手段に必須であるとは限らない。 Hereinafter, the present invention will be described through embodiments of the invention, but the following embodiments do not limit the invention according to the claims. Also, not all combinations of features described in the embodiments are essential for the solution of the invention.

図1は、システム10の一例を概略的に示す。システム10は、情報処理装置100と、少なくとも1つの画像処理装置200とを備える。 FIG. 1 schematically illustrates an example system 10 . The system 10 includes an information processing device 100 and at least one image processing device 200 .

ネットワーク20は、例えば、移動体通信ネットワーク及びインターネットを含む。移動体通信ネットワークは、3G(3rd Generation)通信方式、LTE(Long Term Evolution)通信方式、5G(5th Generation)通信方式、及び6G(6th Generation)通信方式以降の通信方式のいずれに準拠していてもよい。例えば、情報処理装置100がクラウドに配置され、画像処理装置200が移動体通信ネットワークのエッジに配置される。画像処理装置200は、いわゆるエッジサーバであってよい。 Networks 20 include, for example, mobile communication networks and the Internet. The mobile communication network complies with any of the 3G (3rd Generation) communication method, the LTE (Long Term Evolution) communication method, the 5G (5th Generation) communication method, and the communication method after the 6G (6th Generation) communication method. good too. For example, the information processing device 100 is arranged in the cloud, and the image processing device 200 is arranged at the edge of the mobile communication network. The image processing device 200 may be a so-called edge server.

画像処理装置200は、検出対象が撮像された動画像に対する画像処理を実行する。検出対象は、任意の移動体であり、人及び車等がその例として挙げられるが、これらに限られない。 The image processing device 200 performs image processing on a moving image in which a detection target is captured. A detection target is any moving object, and examples thereof include, but are not limited to, a person, a car, and the like.

画像処理装置200は、画像処理対象の動画像を、画像処理装置200が備えるカメラから取得してよい。画像処理装置200が備えるカメラとは、画像処理装置200に内蔵されたカメラであってよく、画像処理装置200に接続されたカメラであってもよい。画像処理装置200は、画像処理対象の動画像を、画像処理装置200にネットワークを介して接続されたカメラから受信してもよい。画像処理装置200は、画像処理対象の動画像を、任意の通信装置からネットワークを介して受信してもよい。 The image processing device 200 may acquire a moving image to be subjected to image processing from a camera included in the image processing device 200 . The camera included in the image processing device 200 may be a camera built into the image processing device 200 or a camera connected to the image processing device 200 . The image processing device 200 may receive a moving image to be subjected to image processing from a camera connected to the image processing device 200 via a network. The image processing device 200 may receive a moving image to be subjected to image processing from any communication device via a network.

画像処理装置200は、検出対象を撮像した動画像をフレームごとの画像に分割し、画像処理により検出対象の情報を検出し、情報処理装置100に送信してよい。情報処理装置100は、画像処理装置200から取得した情報を元に、例えば、基準となる線分を通過した検出対象の流量をカウントする。 The image processing apparatus 200 may divide a moving image obtained by imaging a detection target into images for each frame, detect information on the detection target by image processing, and transmit the information to the information processing apparatus 100 . Based on the information acquired from the image processing device 200, the information processing device 100 counts, for example, the flow rate of the detection target passing through the reference line segment.

図2は、システム10における処理の流れの一例を概略的に示す。ここでは、画像処理装置200が、検出対象の撮像された動画像を取得する前の状態を開始状態とする。 FIG. 2 schematically shows an example of a process flow in system 10. As shown in FIG. Here, the state before the image processing apparatus 200 acquires the captured moving image of the detection target is defined as the start state.

S102では、画像処理装置200が、検出対象の撮像された動画像を取得する。S104では、画像処理装置200が、取得した動画像をフレームごとの画像に変換する。S106では、画像処理装置200が、S104において変換した複数の画像のそれぞれについて、画像処理し、検出対象の座標情報を算出する。 In S102, the image processing apparatus 200 acquires the captured moving image of the detection target. In S104, the image processing apparatus 200 converts the acquired moving image into an image for each frame. In S106, the image processing apparatus 200 performs image processing on each of the plurality of images converted in S104, and calculates coordinate information of the detection target.

S108では、画像処理装置200が、S106において算出した座標情報を、情報処理装置100に送信する。S110では、情報処理装置100が、座標情報ごとに、検出対象の対応付けを行う。各フレームの画像に対応する座標情報は、複数の検出対象のそれぞれの画像上での座標を表すが、フレーム間で紐づいていないので、検出対象の移動を判定するには、時系列順に隣り合った画像同士の間で、同一の検出対象を対応付ける必要があるためである。S112では、情報処理装置100が、S110における対応付けの結果に基づいて、検出対象が、画像に対して予め設定された境界線分を通過したか否かを判定する。S114では、情報処理装置100が、検出対象の通過判定の結果を出力する。情報処理装置100は、例えば、結果を表示出力する。 In S<b>108 , the image processing device 200 transmits the coordinate information calculated in S<b>106 to the information processing device 100 . In S110, the information processing apparatus 100 associates detection targets for each piece of coordinate information. The coordinate information corresponding to the image of each frame represents the coordinates of each of the multiple detection targets on each image. This is because it is necessary to associate the same detection target between matching images. In S112, the information processing apparatus 100 determines whether or not the detection target has passed through a boundary segment preset for the image, based on the result of the association in S110. In S114, the information processing apparatus 100 outputs the result of the detection target passage determination. The information processing apparatus 100 displays and outputs the result, for example.

例えば、情報処理装置100は、画像処理装置200から1つの動画像に対応する座標情報を取得した場合に、当該動画像に対応する結果をまとめて出力する。具体例として、情報処理装置100は、1つの動画像内において境界線分を通過した検出対象の数を出力する。また、例えば、情報処理装置100は、画像処理装置200から継続的に動画像に対応する座標情報を取得している場合に、リアルタイムに結果を出力してもよい。具体例として、情報処理装置100は、検出対象が境界線分を通過する毎に、その旨を出力する。 For example, when the information processing apparatus 100 acquires coordinate information corresponding to one moving image from the image processing apparatus 200, the information processing apparatus 100 collectively outputs results corresponding to the moving image. As a specific example, the information processing apparatus 100 outputs the number of detection targets that have passed through the boundary segment in one moving image. Further, for example, when the information processing device 100 continuously acquires the coordinate information corresponding to the moving image from the image processing device 200, the information processing device 100 may output the result in real time. As a specific example, the information processing apparatus 100 outputs a message to that effect each time the detection target passes through the boundary segment.

従来例えば、街中等における人の通行量、特定の領域に出入りする人の数、及び道路における車両の通行量等を調査するために、動画像内に設定した境界線分を通過する移動体の数をカウントしたいという要望があった。このような場合は、一例として、検出対象の存在する現場で撮像された動画像を、直接クラウド上にあるサーバに送信するような手法がとられていた。しかし、このような手法では、クラウド上での映像解析時のネットワークトラフィックが増加してしまうという点が問題となっていた。また、送信する動画像には、個人情報が含まれてしまい、個人情報が保護できないという問題も発生していた。 Conventionally, for example, in order to investigate the traffic volume of people in the city, the number of people entering and exiting a specific area, and the traffic volume of vehicles on the road, etc. There was a request to count the number. In such a case, as an example, a method has been adopted in which a moving image captured at a site where a detection target exists is directly transmitted to a server on the cloud. However, such a method has a problem of increasing network traffic during video analysis on the cloud. In addition, there has been a problem that personal information is included in the moving image to be transmitted, and the personal information cannot be protected.

システム10は、例えば、負荷の高い映像処理(対象検出)をネットワークのエッジ側にある画像処理装置200で行い、検出対象の座標情報をネットワーク経由で、クラウド側の情報処理装置100に送信する構成を備える。座標情報は、動画像ではなく、画像内特徴量や個人情報を含まない。情報処理装置100は、座標情報のみで、検出対象の移動をカウントする機能を備える。これにより、画像処理装置200から情報処理装置100に対して動画像を送信する場合と比較して、ネットワークトラフィックを低減することができ、個人情報の保護にも貢献することができる。また、情報処理装置100の負荷を画像処理装置200に分散することができ、情報処理装置100の処理負荷を低減することができる。画像処理装置200は、処理が終わり次第個人情報を含むデータを削除してよい。これにより、個人情報の保護にさらに貢献することができる。 The system 10, for example, performs high-load video processing (target detection) in the image processing device 200 on the edge side of the network, and transmits coordinate information of the detection target to the information processing device 100 on the cloud side via the network. Prepare. The coordinate information is not a moving image and does not include in-image feature amounts or personal information. The information processing apparatus 100 has a function of counting the movement of the detection target using only the coordinate information. As a result, network traffic can be reduced compared to the case where moving images are transmitted from the image processing apparatus 200 to the information processing apparatus 100, and personal information can be protected. Further, the load of the information processing apparatus 100 can be distributed to the image processing apparatus 200, and the processing load of the information processing apparatus 100 can be reduced. The image processing apparatus 200 may delete data including personal information as soon as processing is completed. This can further contribute to the protection of personal information.

図3は、情報処理装置100における検出対象の対応付けの一例を概略的に示す。図3に示す例において、複数の検出対象300は、第1の画像内の検出対象の範囲を、矩形で囲ったものであり、複数の検出対象400は、それぞれ、第1の画像の後の時系列における第2の画像内の検出対象の範囲を、矩形で囲ったものである。基準座標302は、検出対象300の基準になる座標を表す。基準座標302は、例えば、矩形で囲われた範囲の中心座標であってよい。基準座標402は、検出対象400の基準になる座標を表す。基準座標402は、例えば、矩形で囲われた範囲の中心座標であってよい。 FIG. 3 schematically shows an example of association of detection targets in the information processing apparatus 100. As shown in FIG. In the example shown in FIG. 3 , the plurality of detection targets 300 are obtained by enclosing the range of detection targets in the first image with a rectangle, and the plurality of detection targets 400 are each after the first image. The range of the detection target in the second image in the time series is enclosed by a rectangle. Reference coordinates 302 represent coordinates that serve as a reference for the detection target 300 . The reference coordinates 302 may be, for example, the center coordinates of a rectangular range. Reference coordinates 402 represent coordinates that serve as a reference for the detection target 400 . The reference coordinates 402 may be, for example, the center coordinates of a rectangular range.

移動線分502は、基準座標302と基準座標402とを結んだ線分であってよい。移動線分502は、実質的に第1の画像と、第2の画像との撮影タイミングの間に、検出対象が移動した軌跡を表し得る。移動線分502の長さは、一例としてユークリッド距離であってよい。ユークリッド距離は、人が定規で測るような二点間の通常の距離のことであってよい。 The movement line segment 502 may be a line segment connecting the reference coordinates 302 and 402 . A moving line segment 502 can represent a trajectory along which the detection target has moved substantially between the shooting timings of the first image and the second image. The length of the moving line segment 502 may be the Euclidean distance as an example. Euclidean distance may be the usual distance between two points as measured by a ruler.

情報処理装置100は、例えば、過去のフレームで検出された検出対象300による基準座標302と、現在のフレームで検出された検出対象400による基準座標402とを対応させる形で、対応付けを行ってよい。 The information processing apparatus 100 associates, for example, the reference coordinates 302 of the detection target 300 detected in the past frame with the reference coordinates 402 of the detection target 400 detected in the current frame. good.

対応付けの方法は、一例として、まず同じ領域に、上記第1の画像上の検出対象300と、上記第2の画像上の検出対象400とを描画し、それぞれから基準座標302と、基準座標402とを算出する。次に、基準座標302と、基準座標402との間のユークリッド距離が、最も短い基準座標同士を、同じ検出対象の組として対応付ける。 As an example of the method of association, first, the detection target 300 on the first image and the detection target 400 on the second image are drawn in the same area, and the reference coordinates 302 and 400 are drawn from the respective areas. 402 are calculated. Next, the reference coordinates with the shortest Euclidean distance between the reference coordinates 302 and 402 are associated as the same set of detection targets.

第1の画像と第2の画像との間でフレームアウトした検出対象が存在する場合、その検出対象は、第1の画像には含まれるが、第2の画像には含まれないことになる。これに対して、ユークリッド距離が最も短い基準座標同士を対応付ければ、当該検出対象は余ることになり、誤った検出対象の対応付けを行ってしまうことを防ぐことができる。第1の画像と第2の画像との間でフレームインした検出対象が存在する場合、その検出対象は、第1の画像には含まれないが、第2の画像には含まれることになる。この場合も、ユークリッド距離が最も短い基準座標同士を対応付ければ、当該検出対象は余ることになり、誤った検出対象の対応付けを行ってしまうことを防ぐことができる。このように、ユークリッド距離を用いた対応付けを行うことによって、検出対象の検出精度を向上させることができる。 If there is a detection target that is framed out between the first image and the second image, the detection target is included in the first image but not included in the second image. . On the other hand, if the reference coordinates with the shortest Euclidean distance are associated with each other, the corresponding detection targets will be left over, and it is possible to prevent erroneous detection targets from being associated with each other. If there is a detection target framed in between the first image and the second image, the detection target is not included in the first image, but is included in the second image. . In this case as well, if the reference coordinates with the shortest Euclidean distance are associated with each other, the corresponding detection target will remain, and it is possible to prevent erroneous detection targets from being associated. In this way, by performing correspondence using the Euclidean distance, it is possible to improve the detection accuracy of the detection target.

情報処理装置100は、一例として、ユークリッド距離が、ユークリッド距離の中央値の1.5倍を超える検出対象同士を対応付けないようにしてもよい。例えば、情報処理装置100は、既に対応付けを行った検出対象の組のユークリッド距離を集計して中央値を算出し、新たに対応付けを判定する検出対象の組のユークリッド距離が、当該中央値の1.5倍を超える場合に、当該組を、検出対象の移動前後として対応付けない。これにより、ユークリッド距離が異常値になる対応付けを防ぐことができ、検出対象の検出精度を向上させることができる。 As an example, the information processing apparatus 100 may not associate detection targets whose Euclidean distance exceeds 1.5 times the median value of the Euclidean distance. For example, the information processing apparatus 100 aggregates the Euclidean distances of the pairs of detection targets that have already been associated to calculate the median, and the Euclidean distances of the pair of detection targets for which association is newly determined is equal to the median. is more than 1.5 times, the set is not associated with before and after movement of the detection target. As a result, it is possible to prevent an association in which the Euclidean distance becomes an abnormal value, and it is possible to improve the detection accuracy of the detection target.

図4は、情報処理装置100における通過したとする判定の一例を概略的に示す。ここでは、第1の画像において、トラッキングされた検出対象300は、移動により、上記第1の画像より後の時系列に撮像された第2の画像において、トラッキングされた検出対象400の位置にいると対応付けられた場合を例に挙げて説明する。 FIG. 4 schematically shows an example of determination that the information processing apparatus 100 has passed. Here, in the first image, the tracked detection target 300 is at the position of the tracked detection target 400 in the second image captured in time series after the first image due to movement. will be described as an example.

図4に示す例において、第1の画像における基準座標302と、当該基準座標302に対応する基準座標402とを結ぶ移動線分502が、予め設定された境界線分506を跨いで交差している。情報処理装置100は、この場合に、検出対象300が境界線分506を通過したと判定する。逆に、第1の画像における基準座標302と、当該検出対象300に対応する基準座標402とを結ぶ移動線分502が、予め設定された境界線分506を跨いで交差していない場合は、検出対象が境界線分506を通過していないと判定する。 In the example shown in FIG. 4, a moving line segment 502 connecting the reference coordinates 302 in the first image and the reference coordinates 402 corresponding to the reference coordinates 302 intersects across a preset boundary line segment 506. there is In this case, the information processing apparatus 100 determines that the detection target 300 has passed through the boundary line segment 506 . Conversely, if the movement line segment 502 connecting the reference coordinates 302 in the first image and the reference coordinates 402 corresponding to the detection target 300 does not cross the preset boundary line segment 506, It is determined that the detection target does not pass through the boundary line segment 506 .

図5は、情報処理装置100による処理内容について説明するための説明図である。本処理は、画像処理装置200における画像処理において、オクルージョンによって検出対象の検出に失敗したり、何らかの理由により検出漏れが発生したりした場合であっても、情報処理装置100側で対応可能とするための処理である。オクルージョンとは、検出対象が、動画内で被覆などにより隠れてしまい、検出ができない状況をいう。検出漏れは、例えば、画像処理装置200の物体検出精度が低かったり、動画像の解像度が低すぎる等の理由で発生し得る。 FIG. 5 is an explanatory diagram for explaining the contents of processing by the information processing apparatus 100. As shown in FIG. In the image processing in the image processing apparatus 200, even if detection of the detection target fails due to occlusion or detection omission occurs for some reason, the information processing apparatus 100 side can cope with this process. This process is for Occlusion is a situation in which an object to be detected is hidden by a cover or the like in a moving image and cannot be detected. Failure to detect may occur due to, for example, low object detection accuracy of the image processing apparatus 200 or too low resolution of moving images.

対象画像外縁504は、対象画像の外縁を表す。情報処理装置100は、対象画像外縁504内に、検出想定領域604を特定する。検出想定領域604は、対象画像外縁504の中央付近であり、検出対象300が検出される想定がされている領域であってよい。情報処理装置100は、例えば、対象画像外縁504全体の外周から10%より内側に検出想定領域604を設定する。 A target image outer edge 504 represents the outer edge of the target image. The information processing apparatus 100 identifies an assumed detection area 604 within the outer edge 504 of the target image. The assumed detection area 604 is near the center of the target image outer edge 504 and may be an area in which the detection target 300 is assumed to be detected. The information processing apparatus 100 sets, for example, the assumed detection area 604 within 10% of the outer circumference of the entire outer edge 504 of the target image.

図5に例示する4つの検出対象300は、連続する6つのフレームの画像における1、2、5、6フレーム目の特定の検出対象の位置を示す。2つの失敗対象600は、オクルージョン等により、トラッキングによる検出の失敗で消失した、3フレーム目及び4フレーム目の検出対象300の実際の位置である。情報処理装置100が画像処理装置200から取得した座標情報には、2つの失敗対象600の座標は含まれない。ここでは、情報処理装置100が、検出対象300の基準座標302を、図5の向きを基準に、一番左下を1回目とし、右上の6回目まで取得しようとした場合を考える。 Four detection targets 300 illustrated in FIG. 5 indicate the positions of specific detection targets in the 1st, 2nd, 5th, and 6th frames in images of 6 consecutive frames. The two failed targets 600 are the actual positions of the detection targets 300 in the third and fourth frames that have disappeared due to occlusion or the like due to tracking detection failure. The coordinate information acquired by the information processing device 100 from the image processing device 200 does not include the coordinates of the two failure targets 600 . Here, it is assumed that the information processing apparatus 100 attempts to obtain the reference coordinates 302 of the detection target 300 from the lower leftmost position for the first time to the upper right position for the sixth time with reference to the direction of FIG. 5 .

情報処理装置100は、1回目と2回目とで基準座標302の取得に成功し、3回目と4回目とで基準座標302の取得に失敗(図では基準座標602としている)し、5回目と6回目とで基準座標302の取得に成功している。このような場合に、情報処理装置100は、2回目に取得された基準座標302と、3回目に検出されなかった基準座標602との対応付けを行おうとする。 The information processing apparatus 100 successfully acquires the reference coordinates 302 on the first and second attempts, fails to acquire the reference coordinates 302 on the third and fourth attempts (referred to as reference coordinates 602 in the figure), and fails to acquire the reference coordinates 302 on the fifth and fourth attempts. Acquisition of the reference coordinates 302 is successful with the sixth time. In such a case, the information processing apparatus 100 attempts to associate the reference coordinates 302 acquired the second time with the reference coordinates 602 not detected the third time.

しかし、失敗対象600は、検出されていないため、座標情報に基準座標602が含まれていない。すると、2回目の基準座標302は、対応付けができないため、移動線分502を算出することができなくなってしまう。しかし、このような場合であっても、対応付けに失敗した検出対象300が検出想定領域604の中にある場合は、基準座標302をエラー情報として保存し、即座に対応付けの失敗としなくてよい。 However, since the failure target 600 has not been detected, the reference coordinates 602 are not included in the coordinate information. Then, since the second reference coordinates 302 cannot be associated, the movement line segment 502 cannot be calculated. However, even in such a case, if the detection target 300 for which association has failed is in the assumed detection area 604, the reference coordinates 302 should be saved as error information, and the association should not be regarded as failure immediately. good.

情報処理装置100は、動画像における任意の時間、又は、対応付けの回数等の任意のパラメータにより、対応付けの失敗としない回数を設定し、検出対象300を生存させてよい。情報処理装置100は、対応付けの失敗としない回数を超えた場合は、対応する基準座標302をエラー情報から削除し、存在しなかったものとしてよい。対応付けを進めていくと、3回目の基準座標602と4回目の基準座標602との対応付けは、お互いに基準座標602が存在しないために失敗はしない。 The information processing apparatus 100 may set the number of times the association is not failed based on an arbitrary time in the moving image or an arbitrary parameter such as the number of associations, and allow the detection target 300 to survive. If the number of times the association is not considered unsuccessful is exceeded, the information processing apparatus 100 may delete the corresponding reference coordinates 302 from the error information and assume that they did not exist. As the association proceeds, the association between the third reference coordinate 602 and the fourth reference coordinate 602 does not fail because the reference coordinate 602 does not exist for each other.

しかし、4回目の基準座標602と、5回目の基準座標302との対応付けは、再び失敗してしまう。情報処理装置100は、ここで、エラー情報を参照することで、エラー情報に保存されていた2回目の基準座標302と、5回目の基準座標302とを対応付けてよい。 However, the association between the fourth reference coordinates 602 and the fifth reference coordinates 302 fails again. Here, the information processing apparatus 100 may associate the second reference coordinates 302 saved in the error information with the fifth reference coordinates 302 by referring to the error information.

この対応付けによって、一部の検出対象300の基準座標302について、取得を失敗した場合であっても、移動線分502が、予め設定された境界線分506と交差する場合に、検出対象300が境界線分506を通過したと判定する通過判定をすることができる。これにより、本実施形態においては、対応付けられなかった基準座標302を、エラー情報として記憶するため、検出対象にオクルージョンが発生したり、検出漏れによるトラッキングが失敗してしまった場合でも、検出対象300の境界線分506の通過を判定できる。 With this association, even if acquisition of the reference coordinates 302 of some of the detection targets 300 fails, if the movement line segment 502 intersects the preset boundary line segment 506, the detection target 300 has passed the boundary line segment 506. As a result, in the present embodiment, the uncorrelated reference coordinates 302 are stored as error information. The passage of 300 boundary line segments 506 can be determined.

画像の外縁付近に位置する検出対象は、途中で消失したとしても、フレームアウトした可能性がある。それに対して、画像の中央に位置する検出対象が途中で消失した場合、フレームアウトした可能性は低く、オクルージョンや検出漏れが発生した可能性が高い。よって、検出想定領域604を、画像の中心を含み、画像の端部を含まない領域として設定することによって、フレームアウト等の正当な理由以外の理由で消失した場合にのみ、エラー情報を記憶するようにできる。また、一定期間検出できなかった基準座標302をエラー情報から削除することにより、エラー情報の精度を向上することができる。 A detection target positioned near the outer edge of the image may have gone out of the frame even if it disappeared in the middle. On the other hand, if the detection target located in the center of the image disappears in the middle, the possibility of frame-out is low and the possibility of occlusion or detection failure occurring is high. Therefore, by setting the assumed detection area 604 as an area that includes the center of the image but does not include the edges of the image, error information is stored only when the image disappears for reasons other than legitimate reasons such as frame-out. can be done. Further, by deleting the reference coordinates 302 that have not been detected for a certain period of time from the error information, the accuracy of the error information can be improved.

図6は、情報処理装置100における検出対象の対応付けの他の一例を概略的に示す。情報処理装置100は、検出対象の対応付けに、ベクトルを使用してもよい。情報処理装置100は、移動線分502によって境界線分506との交差を判定し、移動ベクトル507を用いて、交差方向を判定してもよい。移動ベクトル507は、検出対象300の基準座標302と、検出対象400の基準座標402との間を結んだベクトルであり、移動線分502から算出できてよい。 FIG. 6 schematically shows another example of association of detection targets in the information processing apparatus 100. As shown in FIG. The information processing apparatus 100 may use vectors to associate detection targets. The information processing apparatus 100 may determine the intersection with the boundary line segment 506 by the movement line segment 502 and determine the intersection direction using the movement vector 507 . A movement vector 507 is a vector connecting the reference coordinates 302 of the detection target 300 and the reference coordinates 402 of the detection target 400 , and may be calculated from the movement line segment 502 .

図7は、情報処理装置100における通過したとする判定の他の一例を概略的に示す。図8は、情報処理装置100における通過したとする判定の他の一例を概略的に示す。 FIG. 7 schematically shows another example of determination that the information processing apparatus 100 has passed. FIG. 8 schematically shows another example of determination that the information processing apparatus 100 has passed.

情報処理装置100による通過したとする判定は、ベクトルを使用して判定を行ってもよい。任意点508は、任意に設定された点である。任意点508は、情報処理装置100における判定処理で、共通して使用されれば任意の座標に設定されてよい。任意点508は、例えば、境界線分506によって区切られる、IN側の領域及びOUT側の領域のうち、IN側の領域に設定される。なお、任意点508は、OUT側の領域に設定されてもよい。判定ベクトル509は、境界線分506から任意点508に向けて、境界線分506と垂直になるように伸ばし、移動ベクトル507と交差する位置に移動したベクトルである。 The determination by the information processing apparatus 100 that the vehicle has passed may be made using a vector. An arbitrary point 508 is an arbitrarily set point. The arbitrary point 508 may be set to arbitrary coordinates as long as they are commonly used in determination processing in the information processing apparatus 100 . The arbitrary point 508 is set, for example, in the IN side area of the IN side area and the OUT side area separated by the boundary line segment 506 . Note that the arbitrary point 508 may be set in the area on the OUT side. A determination vector 509 is a vector that extends from the boundary line segment 506 toward an arbitrary point 508 so as to be perpendicular to the boundary line segment 506 and moves to a position that intersects the movement vector 507 .

例えば、情報処理装置100は、検出対象300が境界線分506を通過したと判定した場合に、まず、移動線分502から求まる移動ベクトル507を特定するとともに、予め設定された任意点508を用いて、判定ベクトル509を特定する。次に、情報処理装置100は、移動ベクトル507と判定ベクトル509との角度510を算出する。そして、情報処理装置100は、角度510に基づいて、移動ベクトル507の境界線分506に対する通過方向を判定する。情報処理装置100は、図7に例示するように、角度510が90度より小さい又は270度より大きい場合、通過方向が、境界線分506から任意点508への方向であると判定してよい。情報処理装置100は、図8に例示するように、角度510が90度より大きく270度より小さい場合、通過方向が、境界線分506から任意点508への方向とは逆方向であると判定してよい。 For example, when the information processing apparatus 100 determines that the detection target 300 has passed through the boundary line segment 506, first, the information processing apparatus 100 identifies the movement vector 507 obtained from the movement line segment 502, and uses a preset arbitrary point 508 to to identify the decision vector 509 . Next, information processing apparatus 100 calculates angle 510 between movement vector 507 and determination vector 509 . Then, the information processing apparatus 100 determines the passing direction of the movement vector 507 with respect to the boundary line segment 506 based on the angle 510 . As illustrated in FIG. 7, the information processing apparatus 100 may determine that the passing direction is the direction from the boundary line segment 506 to the arbitrary point 508 when the angle 510 is less than 90 degrees or greater than 270 degrees. . As illustrated in FIG. 8, when the angle 510 is greater than 90 degrees and less than 270 degrees, the information processing apparatus 100 determines that the passing direction is opposite to the direction from the boundary line segment 506 to the arbitrary point 508. You can

上述したように、情報処理装置100は、移動ベクトル507と判定ベクトル509との角度510を算出することによって、境界線分506に対する検出対象の通過方向を判定することができる。情報処理装置100は、例えば、通過方向が、境界線分506から任意点508への方向であると判定した場合に、検出対象300が境界線分506を任意点508への方向に通過した回数である第1カウント数を加算し、通過方向が、境界線分506から任意点508への方向とは逆方向であると判定した場合に、検出対象300が境界線分506を任意点への方向とは逆方向に通過した回数である第2カウント数を加算する。これにより、境界線分506をIN側に向かって通過した検出対象の数と、OUT側に向かって通過した検出対象の数とをカウントすることができる。 As described above, the information processing apparatus 100 can determine the passing direction of the detection target with respect to the boundary line segment 506 by calculating the angle 510 between the movement vector 507 and the determination vector 509 . For example, when the information processing apparatus 100 determines that the passing direction is the direction from the boundary line segment 506 to the arbitrary point 508, the number of times the detection target 300 passes the boundary line segment 506 in the direction to the arbitrary point 508 is added, and when it is determined that the passing direction is opposite to the direction from the boundary line segment 506 to the arbitrary point 508, the detection object 300 moves the boundary line segment 506 to the arbitrary point A second count is added, which is the number of times the passage has passed in the direction opposite to the direction. This makes it possible to count the number of detection targets that have passed through the boundary line segment 506 toward the IN side and the number of detection targets that have passed through the boundary line segment 506 toward the OUT side.

情報処理装置100は、通過方向が、境界線分506から任意点508への方向であると判定した場合に、検出対象300が任意点508を通過した回数であるカウント数を加算し、通過方向が、境界線分506から任意点508への方向とは逆方向であると判定した場合に、カウント数を減算するようにしてもよい。これにより、境界線分506をIN側に向かって通過した検出対象の数と、OUT側に向かって通過した検出対象の数との差分をカウントすることができる。例えば、IN側が部屋の中であり、OUT側が部屋の外である場合に、部屋の中に何人の人がいるのかをカウント可能にできる。 When the information processing apparatus 100 determines that the passing direction is the direction from the boundary line segment 506 to the arbitrary point 508, the information processing apparatus 100 adds the count number, which is the number of times the detection target 300 has passed the arbitrary point 508, and determines the passing direction. However, if it is determined that the direction is opposite to the direction from the boundary line segment 506 to the arbitrary point 508, the count number may be subtracted. This makes it possible to count the difference between the number of detection targets that have passed through the boundary line segment 506 toward the IN side and the number of detection targets that have passed through the boundary line segment 506 toward the OUT side. For example, when the IN side is inside the room and the OUT side is outside the room, it is possible to count how many people are in the room.

図9は、情報処理装置100及び画像処理装置200の機能構成の一例を概略的に示す。画像処理装置200は、動画像取得部202、画像変換部204、座標情報算出部206及び送信部208を備える。 FIG. 9 schematically shows an example of functional configurations of the information processing device 100 and the image processing device 200 . The image processing apparatus 200 includes a moving image acquisition section 202 , an image conversion section 204 , a coordinate information calculation section 206 and a transmission section 208 .

動画像取得部202は、検出対象を含む動画像を取得する。動画像取得部202は、画像処理装置200が備えるカメラから動画像を取得してよい。動画像取得部202は、画像処理装置200にネットワークを介して接続されたカメラから動画像を受信してもよい。動画像取得部202は、任意の通信装置からネットワークを介して動画像を受信してもよい。動画像取得部202は、取得した動画像を画像処理装置200の動画像格納部に格納してよい。 A moving image acquisition unit 202 acquires a moving image including a detection target. The moving image acquiring unit 202 may acquire moving images from a camera included in the image processing apparatus 200 . The moving image acquisition unit 202 may receive moving images from a camera connected to the image processing apparatus 200 via a network. The moving image acquisition unit 202 may receive moving images from any communication device via a network. The moving image acquisition unit 202 may store the acquired moving image in the moving image storage unit of the image processing device 200 .

画像変換部204は、動画像の複数のフレームのそれぞれを、時系列順に画像処理対象である処理画像に変換する。座標情報算出部206は、画像変換部204が変換した処理画像ごとに、処理画像内の検出対象を検出し、検出対象の基準座標を示す座標情報103を算出する。送信部208は、座標情報算出部206が算出した座標情報103を情報処理装置100に送信する。動画像取得部202は、送信部208が座標情報103を情報処理装置100に送信したことに応じて、動画像を削除してよい。例えば、動画像取得部202は、送信部208が座標情報103を情報処理装置100に送信したことに応じて、座標情報103の元となった動画像を動画像格納部から削除する。 The image conversion unit 204 converts each of the plurality of frames of the moving image into a processed image to be subjected to image processing in chronological order. The coordinate information calculation unit 206 detects a detection target in each processed image converted by the image conversion unit 204, and calculates coordinate information 103 indicating reference coordinates of the detection target. The transmission unit 208 transmits the coordinate information 103 calculated by the coordinate information calculation unit 206 to the information processing device 100 . The moving image acquiring unit 202 may delete the moving image in response to the transmitting unit 208 transmitting the coordinate information 103 to the information processing apparatus 100 . For example, when the transmitting unit 208 transmits the coordinate information 103 to the information processing apparatus 100, the moving image acquisition unit 202 deletes the moving image that is the source of the coordinate information 103 from the moving image storage unit.

情報処理装置100は、座標情報取得部102、対応付部104、通過判定部106、出力制御部108、エラー情報記憶部110、ベクトル判定部114及びカウント部116を有する。なお、情報処理装置100がこれらの全てを有することは必須とは限らない。 The information processing apparatus 100 has a coordinate information acquisition unit 102 , a correspondence unit 104 , a passage determination unit 106 , an output control unit 108 , an error information storage unit 110 , a vector determination unit 114 and a count unit 116 . Note that it is not essential that the information processing apparatus 100 have all of these.

座標情報取得部102は、時系列の連続する複数の画像のそれぞれについて、画像内における検出対象300の基準座標302を示す座標情報103を取得する。座標情報取得部102は、送信部208によって送信された座標情報103を取得してよい。 The coordinate information acquisition unit 102 acquires coordinate information 103 indicating reference coordinates 302 of a detection target 300 in each of a plurality of time-series consecutive images. The coordinate information acquisition section 102 may acquire the coordinate information 103 transmitted by the transmission section 208 .

対応付部104は、座標情報取得部102が取得した座標情報103に基づいて、時系列の連続する複数の画像のそれぞれについて、検出対象を対応付ける。例えば、対応付部104は、複数の画像のうちの第1の画像の基準座標302と、第1の画像に時系列で連続する第2の画像の基準座標402に基づいて、第1の画像における検出対象300と、第2の画像における検出対象400とを対応付ける。 Based on the coordinate information 103 acquired by the coordinate information acquisition unit 102, the association unit 104 associates each of a plurality of consecutive images in time series with a detection target. For example, the associating unit 104 selects the first image based on the reference coordinates 302 of the first image among the plurality of images and the reference coordinates 402 of the second image that is chronologically continuous with the first image. , and the detection target 400 in the second image are associated with each other.

対応付部104は、第1の画像における複数の検出対象300と、第2の画像における複数の検出対象400とについて、移動線分502の長さであるユークリッド距離が、最短になる検出対象の組を、検出対象の移動前後として対応付けてよい。対応付部104は、対応付けた検出対象の組のユークリッド距離を集計して中央値を算出し、検出対象の組のユークリッド距離が、中央値の1.5倍を超える場合に、検出対象の移動前後として対応付けないようにしてもよい。 The matching unit 104 selects the detection target whose Euclidean distance, which is the length of the moving line segment 502, is the shortest for the plurality of detection targets 300 in the first image and the plurality of detection targets 400 in the second image. The set may be associated as before and after movement of the detection target. The matching unit 104 aggregates the Euclidean distances of the matched pairs of detection targets to calculate a median value, and when the Euclidean distance of the pairs of detection targets exceeds 1.5 times the median value, Before and after movement may not be associated.

通過判定部106は、検出対象が、画像に対して予め設定された境界線分506を通過したか否かを判定する。例えば、通過判定部106は、第1の画像における検出対象300の基準座標302と、当該基準座標302に対応する第2の画像における検出対象400の基準座標402とを結ぶ移動線分502が、予め設定された境界線分506と交差する場合に、検出対象300が境界線分506を通過したと判定する。 A passage determination unit 106 determines whether or not the detection target has passed through a boundary line segment 506 preset for the image. For example, the passage determination unit 106 determines that the movement line segment 502 connecting the reference coordinates 302 of the detection target 300 in the first image and the reference coordinates 402 of the detection target 400 in the second image corresponding to the reference coordinates 302 is If the detection target 300 crosses a preset boundary line segment 506 , it is determined that the detection target 300 has passed through the boundary line segment 506 .

出力制御部108は、通過判定部106による判定結果を出力するように制御する。出力制御部108は、例えば、通過判定部106による判定結果を、情報処理装置100が備えるディスプレイに表示出力させる。出力制御部108は、通過判定部106による判定結果を他の装置に送信して、当該装置のディスプレイに表示出力させてもよい。 The output control unit 108 controls to output the determination result by the passage determination unit 106 . The output control unit 108 causes the display provided in the information processing apparatus 100 to display and output, for example, the determination result by the passage determination unit 106 . The output control unit 108 may transmit the determination result by the passage determination unit 106 to another device and display it on the display of the device.

出力制御部108は、検出対象が境界線分506を通過したと通過判定部106が判定するごとに、結果を出力してよい。例えば、動画像が監視カメラによって撮像されたものである場合に、検出対象が所定の領域に入ったり、所定の領域から出たことを、即座に把握可能にすることができる。なお、結果の出力方法は、表示出力に限らず、音声、光、びデータの送信等であってもよい。 The output control unit 108 may output the result each time the passage determination unit 106 determines that the detection target has passed the boundary line segment 506 . For example, when the moving image is captured by a surveillance camera, it is possible to immediately grasp that the detection target has entered or left a predetermined area. The method of outputting the result is not limited to display output, and may be voice, light, data transmission, or the like.

エラー情報記憶部110は、対応付部104によって、他の検出対象400に対応付けられなかった、検出対象300の情報が含まれるエラー情報112を記憶する。エラー情報記憶部110は、例えば、対応付けられなかった検出対象300の基準座標302が、予め設定された領域内にある場合にエラー情報112を記憶する。 The error information storage unit 110 stores error information 112 including information on the detection target 300 that has not been associated with another detection target 400 by the association unit 104 . The error information storage unit 110 stores the error information 112, for example, when the reference coordinates 302 of the detection target 300 that have not been associated are within a preset area.

対応付部104は、複数の画像のうちの一の画像における複数の検出対象300のうち、一の画像に連続する次の画像の複数の検出対象300のいずれにも対応付けられなかった検出対象300がある場合に、エラー情報112を参照し、検出対象300との対応付けをしてもよい。対応付部104は、対応付けられなかった検出対象300のエラー情報112を、対応付けられなかった検出対象300ごとに一定期間で削除してもよい。 The association unit 104 selects, among the plurality of detection targets 300 in one image among the plurality of images, the detection targets that are not associated with any of the plurality of detection targets 300 in the next image following the one image. 300 , the error information 112 may be referred to and associated with the detection target 300 . The associating unit 104 may delete the error information 112 of the detection target 300 that has not been associated for each detection target 300 that has not been associated in a certain period of time.

ベクトル判定部114は、通過判定部106によって検出対象300が境界線分506を通過したと判定された場合に、移動線分502から算出できる移動ベクトル507と、予め設定された任意点508及び境界線分506から求まる判定ベクトル509との角度510で、移動ベクトル507の境界線分506に対する通過方向を判定する。 When the passage determination unit 106 determines that the detection target 300 has passed through the boundary line segment 506, the vector determination unit 114 performs a movement vector 507 that can be calculated from the movement line segment 502, an arbitrary point 508 set in advance, and a boundary line segment. The passing direction of the movement vector 507 with respect to the boundary line segment 506 is determined from the angle 510 with the determination vector 509 obtained from the line segment 506 .

ベクトル判定部114は、例えば、判定ベクトル509と移動ベクトル507との角度510が90度より小さい又は270度より大きい場合、通過方向が、境界線分506から任意点508への方向であると判定し、判定ベクトル509と移動ベクトル507との角度510が90度より大きく270度より小さい場合、通過方向が、境界線分506から任意点508への方向とは逆方向であると判定する。 For example, when the angle 510 between the determination vector 509 and the movement vector 507 is less than 90 degrees or greater than 270 degrees, the vector determination unit 114 determines that the passing direction is the direction from the boundary line segment 506 to the arbitrary point 508. If the angle 510 between the determination vector 509 and the movement vector 507 is larger than 90 degrees and smaller than 270 degrees, it is determined that the passing direction is opposite to the direction from the boundary line segment 506 to the arbitrary point 508 .

カウント部116は、検出対象が境界線分506を通過した回数をカウントする。カウント部116は、例えば、通過方向が、境界線分506から任意点508への方向であると判定された場合に、検出対象300が境界線分506を通過した回数であるカウント数を加算し、通過方向が、境界線分506から任意点508への方向とは逆方向であると判定された場合に、カウント数を減算する。 The counting unit 116 counts the number of times the detection target passes through the boundary segment 506 . For example, when the passing direction is determined to be the direction from the boundary line segment 506 to the arbitrary point 508, the counting unit 116 adds the count number that is the number of times the detection object 300 has passed the boundary line segment 506. , the passing direction is determined to be opposite to the direction from the boundary line segment 506 to the arbitrary point 508, the count number is subtracted.

また、例えば、カウント部116は、通過方向が、境界線分506から任意点508への方向であると判定された場合に、検出対象300が境界線分506を任意点508への方向に通過した回数である第1カウント数を加算する。そして、カウント部116は、通過方向が、境界線分506から任意点508への方向とは逆方向であると判定された場合に、検出対象300が境界線分506を、任意点508への方向とは逆方向に通過した回数である第2カウント数を加算する。 Further, for example, when the passing direction is determined to be the direction from the boundary line segment 506 to the arbitrary point 508, the counting unit 116 determines that the detection object 300 passes the boundary line segment 506 in the direction to the arbitrary point 508. Add the first count number, which is the number of times When it is determined that the passing direction is opposite to the direction from the boundary line segment 506 to the arbitrary point 508 , the counting unit 116 counts the detection object 300 from moving the boundary line segment 506 to the arbitrary point 508 . A second count is added, which is the number of times the passage has passed in the direction opposite to the direction.

出力制御部108は、カウント部116によるカウント結果を出力するように制御してもよい。例えば、出力制御部108は、座標情報取得部102が1つの動画像に対応する座標情報をまとめて取得した場合に、当該動画像に対応する結果をまとめて出力する。具体例として、出力制御部108は、1つの動画像に対応する座標情報に対してカウント部116がカウントしたカウント数を出力したり、1つの動画像に対応する座標情報に対してカウント部116がカウントした第1カウント数及び第2カウント数を出力するよう制御する。 The output control unit 108 may control to output the result of counting by the counting unit 116 . For example, when the coordinate information acquisition unit 102 collectively acquires the coordinate information corresponding to one moving image, the output control unit 108 collectively outputs the results corresponding to the moving image. As a specific example, the output control unit 108 outputs the count number counted by the counting unit 116 for coordinate information corresponding to one moving image, or outputs the count number counted by the counting unit 116 for coordinate information corresponding to one moving image. controls to output the first count number and the second count number counted by .

図10は、情報処理装置100又は画像処理装置200として機能するコンピュータ1200のハードウェア構成の一例を概略的に示す。コンピュータ1200にインストールされたプログラムは、コンピュータ1200を、本実施形態に係る装置の1又は複数の「部」として機能させ、又はコンピュータ1200に、本実施形態に係る装置に関連付けられるオペレーション又は当該1又は複数の「部」を実行させることができ、及び/又はコンピュータ1200に、本実施形態に係るプロセス又は当該プロセスの段階を実行させることができる。そのようなプログラムは、コンピュータ1200に、本明細書に記載のフローチャート及びブロック図のブロックのうちのいくつか又はすべてに関連付けられた特定のオペレーションを実行させるべく、CPU1212によって実行されてよい。 FIG. 10 schematically shows an example of a hardware configuration of a computer 1200 functioning as the information processing device 100 or the image processing device 200. As shown in FIG. Programs installed on the computer 1200 cause the computer 1200 to function as one or more "parts" of the apparatus of the present embodiments, or cause the computer 1200 to operate or perform operations associated with the apparatus of the present invention. Multiple "units" can be executed and/or the computer 1200 can be caused to execute the process or steps of the process according to the present invention. Such programs may be executed by CPU 1212 to cause computer 1200 to perform certain operations associated with some or all of the blocks in the flowcharts and block diagrams described herein.

本実施形態によるコンピュータ1200は、CPU1212、RAM1214、及びグラフィックコントローラ1216を含み、それらはホストコントローラ1210によって相互に接続されている。コンピュータ1200はまた、通信インタフェース1222、記憶装置1224、DVDドライブ1226、及びICカードドライブのような入出力ユニットを含み、それらは入出力コントローラ1220を介してホストコントローラ1210に接続されている。DVDドライブ1226は、DVD-ROMドライブ及びDVD-RAMドライブ等であってよい。記憶装置1224は、ハードディスクドライブ及びソリッドステートドライブ等であってよい。コンピュータ1200はまた、ROM1230及びキーボードのようなレガシの入出力ユニットを含み、それらは入出力チップ1240を介して入出力コントローラ1220に接続されている。 Computer 1200 according to this embodiment includes CPU 1212 , RAM 1214 , and graphics controller 1216 , which are interconnected by host controller 1210 . Computer 1200 also includes input/output units such as communication interface 1222 , storage device 1224 , DVD drive 1226 , and IC card drive, which are connected to host controller 1210 via input/output controller 1220 . DVD drive 1226 may be a DVD-ROM drive, a DVD-RAM drive, and the like. Storage devices 1224 may be hard disk drives, solid state drives, and the like. Computer 1200 also includes legacy input/output units, such as ROM 1230 and keyboard, which are connected to input/output controller 1220 via input/output chip 1240 .

CPU1212は、ROM1230及びRAM1214内に格納されたプログラムに従い動作し、それにより各ユニットを制御する。グラフィックコントローラ1216は、RAM1214内に提供されるフレームバッファ等又はそれ自体の中に、CPU1212によって生成されるイメージデータを取得し、イメージデータがディスプレイデバイス1218上に表示されるようにする。 The CPU 1212 operates according to programs stored in the ROM 1230 and RAM 1214, thereby controlling each unit. Graphics controller 1216 retrieves image data generated by CPU 1212 into a frame buffer or the like provided in RAM 1214 or itself, and causes the image data to be displayed on display device 1218 .

通信インタフェース1222は、ネットワークを介して他の電子デバイスと通信する。記憶装置1224は、コンピュータ1200内のCPU1212によって使用されるプログラム及びデータを格納する。DVDドライブ1226は、プログラム又はデータをDVD-ROM1227等から読み取り、記憶装置1224に提供する。ICカードドライブは、プログラム及びデータをICカードから読み取り、及び/又はプログラム及びデータをICカードに書き込む。 Communication interface 1222 communicates with other electronic devices over a network. Storage device 1224 stores programs and data used by CPU 1212 within computer 1200 . DVD drive 1226 reads programs or data from DVD-ROM 1227 or the like and provides them to storage device 1224 . The IC card drive reads programs and data from IC cards and/or writes programs and data to IC cards.

ROM1230はその中に、アクティブ化時にコンピュータ1200によって実行されるブートプログラム等、及び/又はコンピュータ1200のハードウェアに依存するプログラムを格納する。入出力チップ1240はまた、様々な入出力ユニットをUSBポート、パラレルポート、シリアルポート、キーボードポート、マウスポート等を介して、入出力コントローラ1220に接続してよい。 ROM 1230 stores therein programs that are dependent on the hardware of computer 1200, such as a boot program that is executed by computer 1200 upon activation. Input/output chip 1240 may also connect various input/output units to input/output controller 1220 via USB ports, parallel ports, serial ports, keyboard ports, mouse ports, and the like.

プログラムは、DVD-ROM1227又はICカードのようなコンピュータ可読記憶媒体によって提供される。プログラムは、コンピュータ可読記憶媒体から読み取られ、コンピュータ可読記憶媒体の例でもある記憶装置1224、RAM1214、又はROM1230にインストールされ、CPU1212によって実行される。これらのプログラム内に記述される情報処理は、コンピュータ1200に読み取られ、プログラムと、上記様々なタイプのハードウェアリソースとの間の連携をもたらす。装置又は方法が、コンピュータ1200の使用に従い情報のオペレーション又は処理を実現することによって構成されてよい。 The program is provided by a computer-readable storage medium such as DVD-ROM 1227 or IC card. The program is read from a computer-readable storage medium, installed in storage device 1224 , RAM 1214 , or ROM 1230 , which are also examples of computer-readable storage media, and executed by CPU 1212 . The information processing described within these programs is read by computer 1200 to provide coordination between the programs and the various types of hardware resources described above. An apparatus or method may be configured by implementing information operations or processing according to the use of computer 1200 .

例えば、通信がコンピュータ1200及び外部デバイス間で実行される場合、CPU1212は、RAM1214にロードされた通信プログラムを実行し、通信プログラムに記述された処理に基づいて、通信インタフェース1222に対し、通信処理を命令してよい。通信インタフェース1222は、CPU1212の制御の下、RAM1214、記憶装置1224、DVD-ROM1227、又はICカードのような記録媒体内に提供される送信バッファ領域に格納された送信データを読み取り、読み取られた送信データをネットワークに送信し、又はネットワークから受信した受信データを記録媒体上に提供される受信バッファ領域等に書き込む。 For example, when communication is performed between the computer 1200 and an external device, the CPU 1212 executes a communication program loaded into the RAM 1214 and sends communication processing to the communication interface 1222 based on the processing described in the communication program. you can command. Under the control of the CPU 1212, the communication interface 1222 reads transmission data stored in a transmission buffer area provided in a recording medium such as a RAM 1214, a storage device 1224, a DVD-ROM 1227, or an IC card, and transmits the read transmission data. Data is transmitted to the network, or received data received from the network is written in a receive buffer area or the like provided on the recording medium.

また、CPU1212は、記憶装置1224、DVDドライブ1226(DVD-ROM1227)、ICカード等のような外部記録媒体に格納されたファイル又はデータベースの全部又は必要な部分がRAM1214に読み取られるようにし、RAM1214上のデータに対し様々なタイプの処理を実行してよい。CPU1212は次に、処理されたデータを外部記録媒体にライトバックしてよい。 In addition, the CPU 1212 causes the RAM 1214 to read all or necessary portions of files or databases stored in external recording media such as the storage device 1224, DVD drive 1226 (DVD-ROM 1227), IC card, etc. Various types of processing may be performed on the data. CPU 1212 may then write back the processed data to an external recording medium.

様々なタイプのプログラム、データ、テーブル、及びデータベースのような様々なタイプの情報が記録媒体に格納され、情報処理を受けてよい。CPU1212は、RAM1214から読み取られたデータに対し、本開示の随所に記載され、プログラムの命令シーケンスによって指定される様々なタイプのオペレーション、情報処理、条件判断、条件分岐、無条件分岐、情報の検索/置換等を含む、様々なタイプの処理を実行してよく、結果をRAM1214に対しライトバックする。また、CPU1212は、記録媒体内のファイル、データベース等における情報を検索してよい。例えば、各々が第2の属性の属性値に関連付けられた第1の属性の属性値を有する複数のエントリが記録媒体内に格納される場合、CPU1212は、当該複数のエントリの中から、第1の属性の属性値が指定されている条件に一致するエントリを検索し、当該エントリ内に格納された第2の属性の属性値を読み取り、それにより予め定められた条件を満たす第1の属性に関連付けられた第2の属性の属性値を取得してよい。 Various types of information, such as various types of programs, data, tables, and databases, may be stored on recording media and subjected to information processing. CPU 1212 performs various types of operations on data read from RAM 1214, information processing, conditional decisions, conditional branching, unconditional branching, and information retrieval, which are described throughout this disclosure and are specified by instruction sequences of programs. Various types of processing may be performed, including /replace, etc., and the results written back to RAM 1214 . In addition, the CPU 1212 may search for information in a file in a recording medium, a database, or the like. For example, when a plurality of entries each having an attribute value of a first attribute associated with an attribute value of a second attribute are stored in the recording medium, the CPU 1212 selects the first attribute from among the plurality of entries. search for an entry that matches the specified condition of the attribute value of the attribute, read the attribute value of the second attribute stored in the entry, and thereby determine the first attribute that satisfies the predetermined condition An attribute value of the associated second attribute may be obtained.

上で説明したプログラム又はソフトウエアモジュールは、コンピュータ1200上又はコンピュータ1200近傍のコンピュータ可読記憶媒体に格納されてよい。また、専用通信ネットワーク又はインターネットに接続されたサーバシステム内に提供されるハードディスク又はRAMのような記録媒体が、コンピュータ可読記憶媒体として使用可能であり、それによりプログラムを、ネットワークを介してコンピュータ1200に提供する。
本実施形態におけるフローチャート及びブロック図におけるブロックは、オペレーションが実行されるプロセスの段階又はオペレーションを実行する役割を持つ装置の「部」を表わしてよい。特定の段階及び「部」が、専用回路、コンピュータ可読記憶媒体上に格納されるコンピュータ可読命令と共に供給されるプログラマブル回路、及び/又はコンピュータ可読記憶媒体上に格納されるコンピュータ可読命令と共に供給されるプロセッサによって実装されてよい。専用回路は、デジタル及び/又はアナログハードウェア回路を含んでよく、集積回路(IC)及び/又はディスクリート回路を含んでよい。プログラマブル回路は、例えば、フィールドプログラマブルゲートアレイ(FPGA)、及びプログラマブルロジックアレイ(PLA)等のような、論理積、論理和、排他的論理和、否定論理積、否定論理和、及び他の論理演算、フリップフロップ、レジスタ、並びにメモリエレメントを含む、再構成可能なハードウェア回路を含んでよい。
The programs or software modules described above may be stored in a computer-readable storage medium on or near computer 1200 . Also, a recording medium such as a hard disk or RAM provided in a server system connected to a dedicated communication network or the Internet can be used as a computer-readable storage medium, whereby the program can be transferred to the computer 1200 via the network. offer.
The blocks in the flowcharts and block diagrams in this embodiment may represent steps in the process in which the operations are performed or "parts" of the apparatus responsible for performing the operations. Certain steps and "sections" may be provided with dedicated circuitry, programmable circuitry provided with computer readable instructions stored on a computer readable storage medium, and/or computer readable instructions provided with computer readable instructions stored on a computer readable storage medium. It may be implemented by a processor. Dedicated circuitry may include digital and/or analog hardware circuitry, and may include integrated circuits (ICs) and/or discrete circuitry. Programmable circuits, such as Field Programmable Gate Arrays (FPGAs), Programmable Logic Arrays (PLAs), etc., perform AND, OR, EXCLUSIVE OR, NOT AND, NOT OR, and other logical operations. , flip-flops, registers, and memory elements.

コンピュータ可読記憶媒体は、適切なデバイスによって実行される命令を格納可能な任意の有形なデバイスを含んでよく、その結果、そこに格納される命令を有するコンピュータ可読記憶媒体は、フローチャート又はブロック図で指定されたオペレーションを実行するための手段を作成すべく実行され得る命令を含む、製品を備えることになる。コンピュータ可読記憶媒体の例としては、電子記憶媒体、磁気記憶媒体、光記憶媒体、電磁記憶媒体、半導体記憶媒体等が含まれてよい。コンピュータ可読記憶媒体のより具体的な例としては、フロッピー(登録商標)ディスク、ディスケット、ハードディスク、ランダムアクセスメモリ(RAM)、リードオンリメモリ(ROM)、消去可能プログラマブルリードオンリメモリ(EPROM又はフラッシュメモリ)、電気的消去可能プログラマブルリードオンリメモリ(EEPROM)、静的ランダムアクセスメモリ(SRAM)、コンパクトディスクリードオンリメモリ(CD-ROM)、デジタル多用途ディスク(DVD)、ブルーレイ(登録商標)ディスク、メモリスティック、集積回路カード等が含まれてよい。 A computer-readable storage medium may comprise any tangible device capable of storing instructions to be executed by a suitable device, such that a computer-readable storage medium having instructions stored thereon may be illustrated in flowchart or block diagram form. It will comprise an article of manufacture containing instructions that can be executed to create means for performing specified operations. Examples of computer-readable storage media may include electronic storage media, magnetic storage media, optical storage media, electromagnetic storage media, semiconductor storage media, and the like. More specific examples of computer readable storage media include floppy disks, diskettes, hard disks, random access memory (RAM), read only memory (ROM), erasable programmable read only memory (EPROM or flash memory) , electrically erasable programmable read only memory (EEPROM), static random access memory (SRAM), compact disc read only memory (CD-ROM), digital versatile disc (DVD), Blu-ray disc, memory stick , integrated circuit cards, and the like.

コンピュータ可読命令は、アセンブラ命令、命令セットアーキテクチャ(ISA)命令、マシン命令、マシン依存命令、マイクロコード、ファームウェア命令、状態設定データ、又はSmalltalk(登録商標)、JAVA(登録商標)、C++等のようなオブジェクト指向プログラミング言語、及び「C」プログラミング言語又は同様のプログラミング言語のような従来の手続型プログラミング言語を含む、1又は複数のプログラミング言語の任意の組み合わせで記述されたソースコード又はオブジェクトコードのいずれかを含んでよい。 The computer readable instructions may be assembler instructions, Instruction Set Architecture (ISA) instructions, machine instructions, machine dependent instructions, microcode, firmware instructions, state configuration data, or instructions such as Smalltalk, JAVA, C++, etc. any source or object code written in any combination of one or more programming languages, including object-oriented programming languages, and conventional procedural programming languages such as the "C" programming language or similar programming languages; may include

コンピュータ可読命令は、汎用コンピュータ、特殊目的のコンピュータ、若しくは他のプログラム可能なデータ処理装置のプロセッサ、又はプログラマブル回路が、フローチャート又はブロック図で指定されたオペレーションを実行するための手段を生成するために当該コンピュータ可読命令を実行すべく、ローカルに又はローカルエリアネットワーク(LAN)、インターネット等のようなワイドエリアネットワーク(WAN)を介して、汎用コンピュータ、特殊目的のコンピュータ、若しくは他のプログラム可能なデータ処理装置のプロセッサ、又はプログラマブル回路に提供されてよい。プロセッサの例としては、コンピュータプロセッサ、処理ユニット、マイクロプロセッサ、デジタル信号プロセッサ、コントローラ、マイクロコントローラ等を含む。 Computer readable instructions are used to produce means for a processor of a general purpose computer, special purpose computer, or other programmable data processing apparatus, or programmable circuits to perform the operations specified in the flowchart or block diagrams. A general purpose computer, special purpose computer, or other programmable data processor, locally or over a wide area network (WAN) such as the Internet, etc., to execute such computer readable instructions. It may be provided in the processor of the device or in a programmable circuit. Examples of processors include computer processors, processing units, microprocessors, digital signal processors, controllers, microcontrollers, and the like.

上記実施形態では、情報処理装置100がクラウドに配置され、画像処理装置200が移動体通信ネットワークのエッジに配置される場合を主に例に挙げて説明したが、これに限らない。情報処理装置100は移動体通信ネットワークに配置されてもよく、この場合、ネットワーク20は移動体通信ネットワークであってよい。この場合、情報処理装置100は、移動体通信ネットワークの上位側に配置され、画像処理装置200は、移動体通信ネットワークの下位側に配置される。また、情報処理装置100及び画像処理装置200がインターネットに配置されてもよく、この場合、ネットワーク20はインターネットであってよい。また、情報処理装置100及び画像処理装置200がLAN(Local Area Network)に配置されてもよく、この場合、ネットワーク20はLANであってよい。 In the above embodiment, the case where the information processing device 100 is arranged in the cloud and the image processing device 200 is arranged at the edge of the mobile communication network has been mainly described as an example, but the present invention is not limited to this. The information processing device 100 may be located in a mobile communication network, in which case the network 20 may be a mobile communication network. In this case, the information processing device 100 is arranged on the upper side of the mobile communication network, and the image processing device 200 is arranged on the lower side of the mobile communication network. Also, the information processing device 100 and the image processing device 200 may be arranged on the Internet, and in this case, the network 20 may be the Internet. Also, the information processing apparatus 100 and the image processing apparatus 200 may be arranged in a LAN (Local Area Network), and in this case, the network 20 may be a LAN.

以上、本発明を実施の形態を用いて説明したが、本発明の技術的範囲は上記実施の形態に記載の範囲には限定されない。上記実施の形態に、多様な変更又は改良を加えることが可能であることが当業者に明らかである。その様な変更又は改良を加えた形態も本発明の技術的範囲に含まれ得ることが、特許請求の範囲の記載から明らかである。 Although the present invention has been described above using the embodiments, the technical scope of the present invention is not limited to the scope described in the above embodiments. It is obvious to those skilled in the art that various modifications or improvements can be made to the above embodiments. It is clear from the description of the scope of claims that forms with such modifications or improvements can also be included in the technical scope of the present invention.

特許請求の範囲、明細書、及び図面中において示した装置、システム、プログラム、及び方法における動作、手順、ステップ、及び段階などの各処理の実行順序は、特段「より前に」、「先立って」などと明示しておらず、また、前の処理の出力を後の処理で用いるのでない限り、任意の順序で実現しうることに留意すべきである。特許請求の範囲、明細書、及び図面中の動作フローに関して、便宜上「まず、」、「次に、」などを用いて説明したとしても、この順で実施することが必須であることを意味するものではない。 The execution order of each process such as actions, procedures, steps, and stages in the devices, systems, programs, and methods shown in the claims, the specification, and the drawings is etc., and it should be noted that they can be implemented in any order unless the output of the previous process is used in the subsequent process. Regarding the operation flow in the claims, the specification, and the drawings, even if the description is made using "first," "next," etc. for convenience, it means that it is essential to carry out in this order. not a thing

10 システム、20 ネットワーク、100 情報処理装置、102 座標情報取得部、103 座標情報、104 対応付部、106 通過判定部、108 出力制御部、110 エラー情報記憶部、112 エラー情報、114 ベクトル判定部、116 カウント部、200 画像処理装置、202 動画像取得部、204 画像変換部、206 座標情報算出部、208 送信部、300 検出対象、302 基準座標、400 検出対象、402 基準座標、502 移動線分、504 対象画像外縁、506 境界線分、507 移動ベクトル、508 任意点、509 判定ベクトル、510 角度、600 失敗対象、602 基準座標、604 検出想定領域、1200 コンピュータ、1210 ホストコントローラ、1212 CPU、1214 RAM、1216 グラフィックコントローラ、1218 ディスプレイデバイス、1220 入出力コントローラ、1222 通信インタフェース、1224 記憶装置、1226 DVDドライブ、1227 DVD-ROM、1230 ROM、1240 入出力チップ 10 system, 20 network, 100 information processing device, 102 coordinate information acquisition unit, 103 coordinate information, 104 association unit, 106 passage determination unit, 108 output control unit, 110 error information storage unit, 112 error information, 114 vector determination unit , 116 counting unit, 200 image processing device, 202 moving image acquisition unit, 204 image conversion unit, 206 coordinate information calculation unit, 208 transmission unit, 300 detection target, 302 reference coordinates, 400 detection target, 402 reference coordinates, 502 movement line Minute, 504 Target Image Outer Edge, 506 Boundary Line Segment, 507 Movement Vector, 508 Arbitrary Point, 509 Judgment Vector, 510 Angle, 600 Failure Target, 602 Reference Coordinates, 604 Assumed Detection Area, 1200 Computer, 1210 Host Controller, 1212 CPU, 1214 RAM, 1216 graphic controller, 1218 display device, 1220 input/output controller, 1222 communication interface, 1224 storage device, 1226 DVD drive, 1227 DVD-ROM, 1230 ROM, 1240 input/output chip

Claims (13)

時系列の連続する複数の画像のそれぞれについて、画像内における検出対象の基準座標を示す座標情報を取得する座標情報取得部と、
前記複数の画像のうちの第1の画像の前記座標情報及び第2の画像の前記座標情報に基づいて、前記第1の画像における前記検出対象と前記第2の画像における前記検出対象とを対応付ける対応付部であって、前記第1の画像における複数の前記検出対象と前記第2の画像における複数の前記検出対象とについて、前記第1の画像における前記検出対象の基準座標と、当該検出対象に対応する前記第2の画像における前記検出対象の基準座標とを結ぶ前記検出対象の移動線分の長さであるユークリッド距離が、最短になる前記検出対象の組を、前記検出対象の移動前後として対応付ける対応付部と、
前記第1の画像における前記検出対象の基準座標と、当該検出対象に対応する前記第2の画像における前記検出対象の基準座標とを結ぶ前記検出対象の移動線分が、予め設定された境界線分と交差する場合に、前記検出対象が前記境界線分を通過したと判定する通過判定部と、
を備え
前記対応付部は、対応付けた前記検出対象の組の前記ユークリッド距離を集計して中央値を算出し、前記検出対象の組の前記ユークリッド距離が、前記中央値の1.5倍を超える場合に、前記検出対象の移動前後として対応付けない、情報処理装置。
a coordinate information acquisition unit that acquires coordinate information indicating reference coordinates of a detection target in each of a plurality of time-series consecutive images;
The detection target in the first image and the detection target in the second image are associated with each other based on the coordinate information of the first image and the coordinate information of the second image among the plurality of images. A correspondence unit, wherein, for the plurality of detection targets in the first image and the plurality of detection targets in the second image, reference coordinates of the detection targets in the first image and the detection targets. The set of detection targets with the shortest Euclidean distance, which is the length of the movement line segment of the detection target connecting the reference coordinates of the detection target in the second image corresponding to a mapping part that maps as
A moving line segment of the detection target connecting the reference coordinates of the detection target in the first image and the reference coordinates of the detection target in the second image corresponding to the detection target is a predetermined boundary line. a passage determination unit that determines that the detection target has passed through the boundary line segment when the detection target crosses the boundary line segment;
with
The association unit aggregates the Euclidean distances of the associated pairs of detection targets to calculate a median value, and when the Euclidean distances of the pair of detection targets exceeds 1.5 times the median value and an information processing apparatus that does not associate the detection target before and after the movement .
前記対応付部によって他の前記検出対象に対応付けられなかった前記検出対象の情報が含まれるエラー情報を、記憶するエラー情報記憶部をさらに備える、請求項1に記載の情報処理装置。 2. The information processing apparatus according to claim 1 , further comprising an error information storage unit that stores error information including information on said detection target that has not been associated with said other detection target by said association unit. 時系列の連続する複数の画像のそれぞれについて、画像内における検出対象の基準座標を示す座標情報を取得する座標情報取得部と、a coordinate information acquisition unit that acquires coordinate information indicating reference coordinates of a detection target in each of a plurality of time-series consecutive images;
前記複数の画像のうちの第1の画像の前記座標情報及び第2の画像の前記座標情報に基づいて、前記第1の画像における前記検出対象と前記第2の画像における前記検出対象とを対応付ける対応付部と、The detection target in the first image and the detection target in the second image are associated with each other based on the coordinate information of the first image and the coordinate information of the second image among the plurality of images. a correspondence part;
前記第1の画像における前記検出対象の基準座標と、当該検出対象に対応する前記第2の画像における前記検出対象の基準座標とを結ぶ前記検出対象の移動線分が、予め設定された境界線分と交差する場合に、前記検出対象が前記境界線分を通過したと判定する通過判定部と、A moving line segment of the detection target connecting the reference coordinates of the detection target in the first image and the reference coordinates of the detection target in the second image corresponding to the detection target is a predetermined boundary line. a passage determination unit that determines that the detection target has passed through the boundary line segment when the detection target crosses the boundary line segment;
前記対応付部によって他の前記検出対象に対応付けられなかった前記検出対象の情報が含まれるエラー情報を、記憶するエラー情報記憶部とan error information storage unit that stores error information including information on the detection target that is not associated with the other detection target by the association unit;
を備える情報処理装置。Information processing device.
前記対応付部は、前記複数の画像のうちの一の画像における複数の前記検出対象のうち、前記一の画像に連続する次の画像の複数の前記検出対象のいずれにも対応付けられなかった前記検出対象がある場合に、前記エラー情報を参照し、前記検出対象の対応付けをする、請求項2又は3に記載の情報処理装置。 The associating unit is associated with none of the plurality of detection targets in the next image following the one image among the plurality of detection targets in one of the plurality of images. 4. The information processing apparatus according to claim 2 , wherein when there is said detection target, said error information is referenced and said detection target is associated. 前記エラー情報記憶部は、対応付けられなかった前記検出対象の前記基準座標が、予め設定された領域内にある場合に前記エラー情報を記憶する、請求項2から4のいずれか一項に記載の情報処理装置。 5. The error information storage unit according to any one of claims 2 to 4, wherein the error information is stored when the reference coordinates of the detection target that have not been associated are within a preset area. information processing equipment. 前記予め設定された領域は、前記画像の中心を含み、前記画像の端部を含まない領域である、請求項に記載の情報処理装置。 6. The information processing apparatus according to claim 5 , wherein said preset area is an area that includes the center of said image and does not include edges of said image. 前記対応付部は、対応付けられなかった前記検出対象の前記エラー情報を、対応付けられなかった前記検出対象ごとに一定期間で削除する、請求項からのいずれか一項に記載の情報処理装置。 7. The information according to any one of claims 2 to 6 , wherein the associating unit deletes the error information of the detection target that has not been associated for each of the detection targets that have not been associated in a certain period of time. processing equipment. コンピュータを、請求項1からのいずれか一項に記載の情報処理装置として機能させるためのプログラム。 A program for causing a computer to function as the information processing apparatus according to any one of claims 1 to 7 . コンピュータによって実行される判定方法であって、
時系列の連続する複数の画像のそれぞれについて、画像内における検出対象の基準座標を示す座標情報を取得する段階と、
前記複数の画像のうちの第1の画像の前記座標情報及び第2の画像の前記座標情報に基づいて、前記第1の画像における前記検出対象と前記第2の画像における前記検出対象とを対応付ける段階であって、前記第1の画像における複数の前記検出対象と前記第2の画像における複数の前記検出対象とについて、前記第1の画像における前記検出対象の基準座標と、当該検出対象に対応する前記第2の画像における前記検出対象の基準座標とを結ぶ前記検出対象の移動線分の長さであるユークリッド距離が、最短になる前記検出対象の組を、前記検出対象の移動前後として対応付ける段階と、
前記第1の画像における前記検出対象の基準座標と、当該検出対象に対応する前記第2の画像における前記検出対象の基準座標とを結ぶ前記検出対象の移動線分が、予め設定された境界線分と交差する場合に、前記検出対象が前記境界線分を通過したと判定する段階と
を備え
既に対応付けを行った検出対象の組のユークリッド距離を集計して中央値を算出する段階をさらに備え、
前記対応付ける段階は、前記検出対象の組の前記ユークリッド距離が、前記中央値の1.5倍を超える場合に、前記検出対象の移動前後として対応付けない、判定方法。
A computer-implemented determination method comprising:
Acquiring coordinate information indicating reference coordinates of a detection target in each of a plurality of time-series consecutive images;
The detection target in the first image and the detection target in the second image are associated with each other based on the coordinate information of the first image and the coordinate information of the second image among the plurality of images. a step of: regarding the plurality of detection targets in the first image and the plurality of detection targets in the second image, reference coordinates of the detection targets in the first image and correspondence to the detection targets; The pair of detection targets with the shortest Euclidean distance, which is the length of the movement line segment of the detection target connecting the reference coordinates of the detection target in the second image, is associated as before and after the movement of the detection target. stages and
A moving line segment of the detection target connecting the reference coordinates of the detection target in the first image and the reference coordinates of the detection target in the second image corresponding to the detection target is a predetermined boundary line. determining that the detection object has passed through the boundary segment if it crosses the boundary segment ;
Further comprising a step of calculating a median value by aggregating the Euclidean distances of the pairs of detection targets that have already been matched,
In the determination method, in the step of associating, when the Euclidean distance of the pair of detection targets exceeds 1.5 times the median value, the association is not performed as before and after movement of the detection target.
コンピュータによって実行される判定方法であって、A computer-implemented determination method comprising:
時系列の連続する複数の画像のそれぞれについて、画像内における検出対象の基準座標を示す座標情報を取得する段階と、Acquiring coordinate information indicating reference coordinates of a detection target in each of a plurality of time-series consecutive images;
前記複数の画像のうちの第1の画像の前記座標情報及び第2の画像の前記座標情報に基づいて、前記第1の画像における前記検出対象と前記第2の画像における前記検出対象とを対応付ける段階と、The detection target in the first image and the detection target in the second image are associated with each other based on the coordinate information of the first image and the coordinate information of the second image among the plurality of images. stages and
前記第1の画像における前記検出対象の基準座標と、当該検出対象に対応する前記第2の画像における前記検出対象の基準座標とを結ぶ前記検出対象の移動線分が、予め設定された境界線分と交差する場合に、前記検出対象が前記境界線分を通過したと判定する段階とA moving line segment of the detection target connecting the reference coordinates of the detection target in the first image and the reference coordinates of the detection target in the second image corresponding to the detection target is a predetermined boundary line. determining that the detection target has passed through the boundary line segment if the detection target crosses the boundary line segment;
を備え、with
前記対応付ける段階において他の前記検出対象に対応付けられなかった前記検出対象の情報が含まれるエラー情報を、記憶するエラー情報記憶段階An error information storage step of storing error information including information of the detection target that was not associated with the other detection target in the matching step.
をさらに備える、further comprising
判定方法。judgment method.
請求項1からのいずれか一項に記載の情報処理装置と、
画像処理装置と
を備え、
前記画像処理装置は、
前記検出対象を含む動画像を撮像する撮像部によって撮像された前記動画像を取得する動画像取得部と、
前記動画像の複数のフレームのそれぞれを、時系列順に画像処理対象である処理画像に変換する画像変換部と、
前記処理画像ごとに、前記処理画像内の前記検出対象を検出し、前記検出対象の前記基準座標を示す前記座標情報を算出する座標情報算出部と、
前記座標情報を前記情報処理装置に送信する送信部と
を有する、システム。
an information processing apparatus according to any one of claims 1 to 7 ;
comprising an image processing device and
The image processing device is
a moving image acquiring unit that acquires the moving image captured by an imaging unit that captures a moving image including the detection target;
an image conversion unit that converts each of the plurality of frames of the moving image into a processed image to be subjected to image processing in chronological order;
a coordinate information calculation unit that detects the detection target in the processed image for each of the processed images and calculates the coordinate information indicating the reference coordinates of the detection target;
and a transmitting unit configured to transmit the coordinate information to the information processing device.
前記情報処理装置は、クラウドに配置され、
前記画像処理装置は、エッジに配置されて、エッジサーバとして機能し、
前記送信部は、ネットワークを介して前記座標情報を前記情報処理装置に送信する、請求項11に記載のシステム。
The information processing device is arranged in the cloud,
The image processing device is located at an edge and functions as an edge server,
12. The system according to claim 11 , wherein said transmission unit transmits said coordinate information to said information processing device via a network.
前記動画像取得部は、前記送信部が前記座標情報を前記情報処理装置に送信したことに応じて、前記動画像を削除する、請求項11又は12に記載のシステム。 The system according to claim 11 or 12 , wherein said moving image acquisition unit deletes said moving image in response to said transmission unit transmitting said coordinate information to said information processing device.
JP2021145005A 2021-09-06 2021-09-06 Information processing device, program, determination method, and system Active JP7321221B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021145005A JP7321221B2 (en) 2021-09-06 2021-09-06 Information processing device, program, determination method, and system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021145005A JP7321221B2 (en) 2021-09-06 2021-09-06 Information processing device, program, determination method, and system

Publications (2)

Publication Number Publication Date
JP2023038090A JP2023038090A (en) 2023-03-16
JP7321221B2 true JP7321221B2 (en) 2023-08-04

Family

ID=85514236

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021145005A Active JP7321221B2 (en) 2021-09-06 2021-09-06 Information processing device, program, determination method, and system

Country Status (1)

Country Link
JP (1) JP7321221B2 (en)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006082618A (en) 2004-09-14 2006-03-30 Fujitsu Ltd Fallen article detection device
JP2011123563A (en) 2009-12-08 2011-06-23 Sony Corp Image processor, image processing method and program
JP2012123470A (en) 2010-12-06 2012-06-28 Fujitsu Ten Ltd Object detection device and object detection method
JP2012242947A (en) 2011-05-17 2012-12-10 Nippon Telegr & Teleph Corp <Ntt> Method for measuring number of passing objects, number-of-passing object measuring device, and program
JP2020077103A (en) 2018-11-06 2020-05-21 株式会社デンソー Own vehicle behavior estimation apparatus, own vehicle behavior estimation program, storage medium, and own vehicle behavior estimation apparatus control method
JP6912842B1 (en) 2020-11-11 2021-08-04 株式会社バカン Information processing equipment, information processing methods, and information processing programs

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0981758A (en) * 1995-09-19 1997-03-28 Toshiba Corp Vehicle detecting device

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006082618A (en) 2004-09-14 2006-03-30 Fujitsu Ltd Fallen article detection device
JP2011123563A (en) 2009-12-08 2011-06-23 Sony Corp Image processor, image processing method and program
JP2012123470A (en) 2010-12-06 2012-06-28 Fujitsu Ten Ltd Object detection device and object detection method
JP2012242947A (en) 2011-05-17 2012-12-10 Nippon Telegr & Teleph Corp <Ntt> Method for measuring number of passing objects, number-of-passing object measuring device, and program
JP2020077103A (en) 2018-11-06 2020-05-21 株式会社デンソー Own vehicle behavior estimation apparatus, own vehicle behavior estimation program, storage medium, and own vehicle behavior estimation apparatus control method
JP6912842B1 (en) 2020-11-11 2021-08-04 株式会社バカン Information processing equipment, information processing methods, and information processing programs

Also Published As

Publication number Publication date
JP2023038090A (en) 2023-03-16

Similar Documents

Publication Publication Date Title
US10893207B2 (en) Object tracking apparatus, object tracking method, and non-transitory computer-readable storage medium for storing program
US8611590B2 (en) Video object fragmentation detection and management
CN110751674A (en) Multi-target tracking method and corresponding video analysis system
US11367330B2 (en) Information processing system, method and computer readable medium for determining whether moving bodies appearing in first and second videos are the same or not using histogram
US20100322475A1 (en) Object area detecting device, object area detecting system, object area detecting method and program
WO2017221643A1 (en) Image processing device, image processing system, image processing method, and program
WO2013012091A1 (en) Information processing apparatus, object tracking method, and program storage medium
CN105308618B (en) Face recognition by means of parallel detection and tracking and/or grouped feature motion shift tracking
US20150146006A1 (en) Display control apparatus and display control method
WO2017221644A1 (en) Image processing device, image processing system, image processing method, and program
JP2018045302A (en) Information processing device, information processing method and program
CN111801706A (en) Video object detection
JP7321221B2 (en) Information processing device, program, determination method, and system
US10872423B2 (en) Image detection device, image detection method and storage medium storing program
CN113313739A (en) Target tracking method, device and storage medium
KR20210054725A (en) Edge based hazard handling device
CN113762027B (en) Abnormal behavior identification method, device, equipment and storage medium
CN110782425A (en) Image processing method, image processing device and electronic equipment
US11295457B2 (en) Tracking apparatus and computer readable medium
JP2023161956A (en) Object tracking device, object tracking method, and program
CN113657219A (en) Video object detection tracking method and device and computing equipment
WO2019053789A1 (en) Information processing apparatus, control method, and program
US20220245855A1 (en) Trajectory linking apparatus, trajectory linking method, and non-transitory computer readable medium storing program
CN112597924A (en) Electric bicycle track tracking method, camera device and server
JP7379260B2 (en) Wrong-way vehicle detection device, wrong-way vehicle detection method, and wrong-way vehicle detection program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220314

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230328

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230525

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230704

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230725

R150 Certificate of patent or registration of utility model

Ref document number: 7321221

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150