JP2021013165A - Information processing device, information processing method, and program - Google Patents

Information processing device, information processing method, and program Download PDF

Info

Publication number
JP2021013165A
JP2021013165A JP2020147189A JP2020147189A JP2021013165A JP 2021013165 A JP2021013165 A JP 2021013165A JP 2020147189 A JP2020147189 A JP 2020147189A JP 2020147189 A JP2020147189 A JP 2020147189A JP 2021013165 A JP2021013165 A JP 2021013165A
Authority
JP
Japan
Prior art keywords
size
information processing
human body
image
maximum size
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020147189A
Other languages
Japanese (ja)
Other versions
JP6965419B2 (en
Inventor
安達 啓史
Hiroshi Adachi
啓史 安達
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP2019045197A external-priority patent/JP6759400B2/en
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2020147189A priority Critical patent/JP6965419B2/en
Publication of JP2021013165A publication Critical patent/JP2021013165A/en
Application granted granted Critical
Publication of JP6965419B2 publication Critical patent/JP6965419B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Studio Devices (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Image Analysis (AREA)
  • Exposure Control For Cameras (AREA)
  • Indication In Cameras, And Counting Of Exposures (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

To solve the problem in which, if a zoom magnification changes, there is a risk that proper image recognition processing cannot be performed.SOLUTION: An information processing device related to detection process for detecting an object contained in an image captured by imaging means has setting means for setting a maximum size and a minimum size of an object to be included in a result of the detection process and display control means for displaying on a display device an image in which a first guide indicating the maximum size and a second guide indicating the minimum size are superimposed. The setting means changes values of the maximum size and the minimum size in accordance with change of a zoom magnification of the imaging means.SELECTED DRAWING: Figure 8

Description

本発明は、画像からオブジェクトを検出する技術に関する。 The present invention relates to a technique for detecting an object from an image.

監視システムやモニタリングカメラシステムにおいて、映像認識処理を利用して、映像中の移動物体を検出する技術がある。さらに、検出した移動体を常に捉えるように認識する技術が移動体追尾技術として知られている。 In a surveillance system or a monitoring camera system, there is a technique for detecting a moving object in an image by using an image recognition process. Further, a technique of recognizing a detected moving object so as to always catch it is known as a moving object tracking technique.

また、特許文献1には、予め設定された最小検知サイズよりも大きい物体を映像認識によって検出することが記載されている。 Further, Patent Document 1 describes that an object larger than a preset minimum detection size is detected by image recognition.

特開2012−242970号公報Japanese Unexamined Patent Publication No. 2012-242970

しかしながら、適切な映像の認識処理が行なえない恐れがあった。 However, there is a risk that proper image recognition processing cannot be performed.

例えば、認識処理によって検出すべき物体の最大サイズと最小サイズを設定したあとに、ズーム倍率が変化した場合、ズーム倍率が変化していなければ検出されたはずの物体が検出されなくなる恐れがあった。 For example, if the zoom magnification changes after setting the maximum and minimum sizes of an object to be detected by the recognition process, there is a risk that the object that should have been detected if the zoom magnification has not changed will not be detected. ..

本発明は、上記の問題点に鑑みてなされたものであり、その目的は、ズーム倍率の変更の機能を備える撮像部による撮像映像に対する認識処理をより好適にできるようにすることである。 The present invention has been made in view of the above problems, and an object of the present invention is to make it possible to more preferably recognize a captured image by an imaging unit having a function of changing a zoom magnification.

上記の目的を達成するために、本発明の情報処理装置は、例えば、撮像手段に撮像された画像に含まれる物体を検出する検出処理に関する情報処理装置であって、前記検出処理の結果に含まれる対象となる物体の最大サイズと最小サイズとを設定する設定手段と、前記最大サイズを示す第1ガイドと、前記最小サイズを示す第2ガイドとが重畳された状態の前記画像を表示装置に表示させる表示制御手段と、を有し、前記設定手段は、前記撮像手段のズーム倍率の変更に応じて、前記最大サイズおよび前記最小サイズの値を変更する。 In order to achieve the above object, the information processing apparatus of the present invention is, for example, an information processing apparatus related to a detection process for detecting an object included in an image captured by an imaging means, and is included in the result of the detection process. The display device displays the image in a state in which the setting means for setting the maximum size and the minimum size of the object to be processed, the first guide indicating the maximum size, and the second guide indicating the minimum size are superimposed. It has a display control means for displaying, and the setting means changes the values of the maximum size and the minimum size according to a change in the zoom magnification of the imaging means.

本発明によれば、ズーム倍率の変更の機能を備える撮像部による撮像映像に対する認識処理がより好適に行えるようになる。 According to the present invention, it becomes possible to more preferably perform the recognition process for the captured image by the imaging unit having the function of changing the zoom magnification.

映像処理システムの構成図。Configuration diagram of the video processing system. 制御装置200の構成例を示すブロック図。The block diagram which shows the configuration example of the control device 200. 軌跡管理部207により管理される情報の構成例を示す図。The figure which shows the composition example of the information managed by the locus management unit 207. オブジェクトと人体の対応付けの例を示す図。The figure which shows the example of the correspondence between the object and the human body. 人体検出処理サイズの設定処理を行う画面の一例を示す図。The figure which shows an example of the screen which performs the setting process of the human body detection processing size. 映像の認識処理のためのパラメータの構成例を示す図。The figure which shows the structural example of the parameter for the image recognition processing. 制御装置200の処理手順を示すフローチャート。The flowchart which shows the processing procedure of the control device 200. パラメータ制御の処理手順を示すフローチャート。A flowchart showing a processing procedure of parameter control.

以下、添付図面を参照し、本発明の好適な実施形態について説明する。なお、以下説明する実施形態は、本発明を具体的に実施した場合の一例を示すもので、特許請求の範囲に記載の構成の具体的な実施形態の1つである。 Hereinafter, preferred embodiments of the present invention will be described with reference to the accompanying drawings. In addition, the embodiment described below shows an example when the present invention is concretely implemented, and is one of the specific embodiments of the configuration described in the claims.

図1は映像処理システムの構成図であり、101、108は光学ズーム機構を備えたカメラである。102はLAN等のネットワークである。104、106はPC(パーソナルコンピュータ)である。105、107はカメラ101、108からの画像データに基づく画像や、PC104、PC106の処理結果を表示するためのディスプレイである。また、ディスプレイ105、107は、本実施形態に係る映像の認識処理の設定を行うためのユーザインタフェースを提供することも可能である。 FIG. 1 is a configuration diagram of a video processing system, and 101 and 108 are cameras equipped with an optical zoom mechanism. 102 is a network such as a LAN. 104 and 106 are PCs (personal computers). Reference numerals 105 and 107 are displays for displaying images based on image data from cameras 101 and 108 and processing results of PC 104 and PC 106. In addition, the displays 105 and 107 can also provide a user interface for setting the image recognition process according to the present embodiment.

図2を参照して、第1実施形態に係る制御装置200の構成例を説明する。本実施形態では、制御装置200がカメラ(図1のカメラ101又はカメラ108)に組み込まれているものとして説明する。しかし、制御装置200の機能は、例えばPC(パーソナルコンピュータ)(図1のPC104、106に対応)で実現されてもよいし、動画像を撮像可能なカメラ内に搭載される画像処理回路で実現されてもよいし、それ以外の機器で実現されていてもよい。制御装置200は、映像の認識処理(例えば、人体検出)を行うためのパラメータの設定画面が表示装置210の表示画面に表示させると共に、パラメータ設定画面に対するユーザ指示に応じたパラメータの設定を行う機能を有する。なお、本実施形態において図2の表示装置210は、図1のディスプレイ105、107に対応する。 A configuration example of the control device 200 according to the first embodiment will be described with reference to FIG. In the present embodiment, the control device 200 will be described as being incorporated in the camera (camera 101 or camera 108 in FIG. 1). However, the function of the control device 200 may be realized by, for example, a PC (personal computer) (corresponding to PCs 104 and 106 in FIG. 1), or by an image processing circuit mounted in a camera capable of capturing a moving image. It may be realized by other devices. The control device 200 has a function of displaying a parameter setting screen for performing image recognition processing (for example, human body detection) on the display screen of the display device 210 and setting parameters according to user instructions on the parameter setting screen. Has. In this embodiment, the display device 210 of FIG. 2 corresponds to the displays 105 and 107 of FIG.

制御装置200は、画像取得部201と、物体検出部202と、物体追尾部203と、人体検出部204と、パラメータ設定部205と、物体対応付部206と、軌跡管理部207と、軌跡情報判定部208と、外部出力部209とを備える。また、制御装置200は、カメラのズーム機構を制御するためのズーム制御部211と、ズーム倍率(ズーム値)に応じてパラメータを制御するパラメータ制御部212を備える。また制御装置200は、CRT(Cathode Ray Tube)や液晶画面などにより構成される表示装置210と接続されている。表示装置210は、制御装置200による処理結果を画像や文字などにより表示する。以下、表示装置210の表示画面に動画像を表示する場合を中心に説明する。 The control device 200 includes an image acquisition unit 201, an object detection unit 202, an object tracking unit 203, a human body detection unit 204, a parameter setting unit 205, an object correspondence unit 206, a trajectory management unit 207, and trajectory information. A determination unit 208 and an external output unit 209 are provided. Further, the control device 200 includes a zoom control unit 211 for controlling the zoom mechanism of the camera and a parameter control unit 212 for controlling parameters according to a zoom magnification (zoom value). Further, the control device 200 is connected to a display device 210 composed of a CRT (Cathode Ray Tube), a liquid crystal screen, and the like. The display device 210 displays the processing result of the control device 200 as an image, characters, or the like. Hereinafter, a case where a moving image is displayed on the display screen of the display device 210 will be mainly described.

画像取得部201は、内部撮像センサまたは外部から供給された動画像若しくは静止画像を取得し、取得した動画像若しくは静止画像を物体検出部202に送出する。 The image acquisition unit 201 acquires a moving image or a still image supplied from the internal image sensor or the outside, and sends the acquired moving image or the still image to the object detection unit 202.

画像取得部201は、動画像を取得した場合は、該動画像を構成する各フレームの画像を順次、物体検出部202に送出し、静止画像を取得した場合は、この静止画像を物体検出部202に送出する。なお、動画像若しくは静止画像の供給元については特に限定するものではなく、有線若しくは無線を介して動画像若しくは静止画像を供給するサーバ装置や撮像装置であってもよい。また、外部に限るものではなく、制御装置内のメモリから動画像若しくは静止画像を取得するようにしてもよい。以下の説明では、画像取得部201が動画像を取得した場合であっても静止画像を取得した場合であっても、物体検出部202に対し、ある1枚の画像が入力された場合について説明する。前者の場合は、この1枚の画像が動画像を構成する各フレームに相当し、後者の場合は、この1枚の画像が静止画像に相当する。 When the image acquisition unit 201 acquires a moving image, the image of each frame constituting the moving image is sequentially sent to the object detection unit 202, and when the still image is acquired, the still image is sent to the object detection unit 202. Send to 202. The source of the moving image or the still image is not particularly limited, and may be a server device or an imaging device that supplies the moving image or the still image via a wired or wireless connection. Further, the present invention is not limited to the outside, and a moving image or a still image may be acquired from a memory in the control device. In the following description, a case where a certain image is input to the object detection unit 202 will be described regardless of whether the image acquisition unit 201 acquires a moving image or a still image. To do. In the former case, this one image corresponds to each frame constituting the moving image, and in the latter case, this one image corresponds to a still image.

物体検出部202は、画像取得部201から取得したフレーム画像から背景差分法により物体(オブジェクト)を検出する。すなわち、画像取得部201は、画像取得部201が取得したフレーム画像と所定のフレーム画像(背景画像)との比較により、物体を検出する。そして、物体検出部202は、物体の検出に応じて、オブジェクト情報を生成する。オブジェクト情報には、物体の画面上の位置と、外接矩形と、物体のサイズに関する情報が含まれる。物体検出部202は、背景差分法により画像から物体を検出する機能を有するが、この方法に限るものではない。 The object detection unit 202 detects an object by the background subtraction method from the frame image acquired from the image acquisition unit 201. That is, the image acquisition unit 201 detects an object by comparing the frame image acquired by the image acquisition unit 201 with a predetermined frame image (background image). Then, the object detection unit 202 generates object information in response to the detection of the object. The object information includes information about the position of the object on the screen, the circumscribing rectangle, and the size of the object. The object detection unit 202 has a function of detecting an object from an image by the background subtraction method, but the method is not limited to this method.

物体追尾部203は、複数のフレーム画像に対応するオブジェクト情報に基づいて、複数のフレーム画像のそれぞれから検出された物体を対応づける。物体追尾部203は、より具体的には、物体検出部202が着目フレームよりも1フレーム前のフレームの画像から検出した物体に対応する物体を、着目フレームの画像から検出した場合、それぞれのフレームにおける物体同士を対応づける。 The object tracking unit 203 associates an object detected from each of the plurality of frame images with the object based on the object information corresponding to the plurality of frame images. More specifically, when the object tracking unit 203 detects an object corresponding to an object detected from the image of the frame one frame before the frame of interest by the object detecting unit 202 from the image of the frame of interest, each frame Corresponds the objects in.

例えば、物体追尾部203が、着目フレームよりも1フレーム前のフレームの画像から物体検出部202が検出した物体に対してオブジェクトID=Aを割り当てたとする。そして、物体検出部202が着目フレームの画像から、オブジェクトID=Aの物体に対応する物体を検出した場合、物体追尾部203は、この物体に対してもオブジェクトID=Aを割り当てる。このように、物体追尾部203は、複数フレームに渡って対応する物体が検出された場合には、それぞれの物体に同じオブジェクトIDを割り当てる。なお、着目フレームで新規に検出された物体に対しては、新規のオブジェクトIDが割り当てられる。 For example, it is assumed that the object tracking unit 203 assigns the object ID = A to the object detected by the object detecting unit 202 from the image of the frame one frame before the frame of interest. Then, when the object detection unit 202 detects an object corresponding to the object with the object ID = A from the image of the frame of interest, the object tracking unit 203 also assigns the object ID = A to this object. In this way, the object tracking unit 203 assigns the same object ID to each object when the corresponding object is detected over a plurality of frames. A new object ID is assigned to the object newly detected in the frame of interest.

物体追尾部203において、異なるフレームの物体が対応するか否かを判定する方法としては、検出物体の移動ベクトルを用いて特定された物体の移動予測位置と、検出された物体の位置が一定距離内であれば同一物体とする方法がある。すなわち、物体追尾部203は、フレーム画像から検出された物体の位置と、当該フレーム画像に関する移動ベクトル情報に基づいて特定される物体の位置との距離を特定する。そして、物体追尾部203は、特定した距離が閾値未満である場合に、当該物体と、他のフレーム画像の物体との対応づけを行う。 In the object tracking unit 203, as a method of determining whether or not objects of different frames correspond to each other, the predicted movement position of the object specified by using the movement vector of the detected object and the position of the detected object are a fixed distance. If it is inside, there is a method of making it the same object. That is, the object tracking unit 203 specifies the distance between the position of the object detected from the frame image and the position of the object specified based on the movement vector information related to the frame image. Then, when the specified distance is less than the threshold value, the object tracking unit 203 associates the object with an object of another frame image.

ただし、物体の対応づけの方法は、上記の方法に限らず、例えば、物体の色、形状、大きさ(面積)等を用い、フレーム間で相関の高い物体を関連付ける方法もある。また、移動ベクトルの情報と、物体の色、形状、大きさ等の情報を組み合わせて物体の対応づけを行うようにしてもよい。物体位尾部203は、複数フレームに渡って検出された物体を所定の条件に従って対応づけて追尾する処理を行う。例えば、複数フレームにわたって、同じ人物が存在し続けた場合、物体追尾部203は、当該人物に対して同じオブジェクトIDを割り当てる。物体の対応づけの方法は、特定の方法に限るものではなく同様の処理を行う種々の方法を採用することが可能である。 However, the method of associating objects is not limited to the above method, and there is also a method of associating objects with high correlation between frames by using, for example, the color, shape, size (area) of the object. Further, the information of the movement vector and the information such as the color, shape, and size of the object may be combined to associate the objects. The object position tail 203 performs a process of associating and tracking an object detected over a plurality of frames according to a predetermined condition. For example, when the same person continues to exist over a plurality of frames, the object tracking unit 203 assigns the same object ID to the person. The method of associating objects is not limited to a specific method, and various methods for performing the same processing can be adopted.

人体検出部204は、後述のパラメータ設定部205により設定された物体検出領域のうち、物体検出部202が物体を検出した領域に対して人体検出処理を実施することによって人体を検出する。なお、本実施形態の人体検出部204は、物体が検出された領域とその周囲を含む領域(人体検出領域)に対して人体検出処理を実施する。例えば、フレーム内の座標(X,Y)を中心とした、縦100ピクセル、横20ピクセルの物体が検出された場合、人体検出部204は、当該フレームの座標(X,Y)を中心とした縦150ピクセル、横30ピクセルの領域に対して、人体検出処理を行う。 The human body detection unit 204 detects the human body by performing a human body detection process on the area in which the object detection unit 202 has detected the object among the object detection areas set by the parameter setting unit 205 described later. The human body detection unit 204 of the present embodiment performs the human body detection process on the region in which the object is detected and the region including the surrounding area (human body detection region). For example, when an object having a length of 100 pixels and a width of 20 pixels centered on the coordinates (X, Y) in the frame is detected, the human body detection unit 204 centers on the coordinates (X, Y) of the frame. The human body detection process is performed on an area of 150 pixels in length and 30 pixels in width.

また、人体検出部204は、パラメータ設定部205により設定された人体検出の最大サイズと最小サイズを参照することで、最大サイズと最小サイズの範囲から外れた人体検出処理を省略できる。つまり、人体検出部204は、物体の検出によって特定される人体検出領域のうち、最大サイズよりも大きい人体検出領域や、最小サイズよりも小さい人体検出領域に対する人物検出処理を省略可能である。ただし、人体検出部204は、人体検出処理を省略せずに、人体の検出処理を行い、検出された人体のサイズが最大サイズよりも大きい場合と、最小サイズよりも小さい場合に、当該検出結果を人体検出処理の処理結果から除外することも可能である。 Further, the human body detection unit 204 can omit the human body detection process outside the range of the maximum size and the minimum size by referring to the maximum size and the minimum size of the human body detection set by the parameter setting unit 205. That is, the human body detection unit 204 can omit the human body detection process for the human body detection area larger than the maximum size and the human body detection area smaller than the minimum size in the human body detection area specified by the detection of the object. However, the human body detection unit 204 performs the human body detection process without omitting the human body detection process, and the detection result is obtained when the detected human body size is larger than the maximum size and smaller than the minimum size. Can be excluded from the processing result of the human body detection process.

なお、人体検出部204は、人体のパターン画像とフレーム画像のとの比較によって、フレーム画像から人体を検出するが、人体の検出方法は、この方法に限らない。また本実施形態では検出対象を人体としているが、人体に限定されるものではない。検出対象は、人物の顔、自動車、動物などであってもよい。さらに、複数種類の特定物体が検出されるように、人体検出部204で同時に複数種類の検出処理を実行することも可能である。すなわち、本実施形態の人体検出部204は、認識処理によって、人体に限らず種々の所定の物体を画像データから検出することが可能である。 The human body detection unit 204 detects the human body from the frame image by comparing the pattern image of the human body with the frame image, but the method for detecting the human body is not limited to this method. Further, in the present embodiment, the detection target is the human body, but the detection target is not limited to the human body. The detection target may be a person's face, a car, an animal, or the like. Further, it is also possible for the human body detection unit 204 to simultaneously execute a plurality of types of detection processes so that a plurality of types of specific objects are detected. That is, the human body detection unit 204 of the present embodiment can detect not only the human body but also various predetermined objects from the image data by the recognition process.

また、必ずしも物体検出部202が物体を検出した領域に基づいて、人体検出領域が決定されるような構成としなくてもよい。例えば、人体検出部204は、パラメータ設定部205により設定されたパラメータから人体検出領域を特定して人体検出処理を行うようにしてもよい。この場合、物体検出部202による物体検出処理を省略することも可能となる場合がある。 Further, it is not always necessary that the object detection unit 202 determines the human body detection area based on the area where the object is detected. For example, the human body detection unit 204 may specify the human body detection region from the parameters set by the parameter setting unit 205 and perform the human body detection process. In this case, it may be possible to omit the object detection process by the object detection unit 202.

パラメータ設定部205は、各フレームにおける人体検出処理の検出処理範囲(人体検出領域)や、人体検出の最大サイズと最小サイズ等に関するパラメータの設定を行う。 The parameter setting unit 205 sets parameters related to the detection processing range (human body detection area) of the human body detection process in each frame, the maximum size and the minimum size of the human body detection, and the like.

また、パラメータ設定部205は、人体検出の設定だけでなく物体検出部202に対しても同様の検出処理に関するパラメータの設定を行うようにしてもよい。例えば、パラメータ設定部205は、物体検出部202に対するパラメータとして、物体検出領域や、物体検出の最大サイズと最小サイズ等に関するパラメータの設定を行うことも可能である。ただし、本実施形態の説明では、物体検出領域は画像取得部201が取得した画像全体であるものとする。一般的に物体検出領域を狭くすると処理速度は高くなる。 Further, the parameter setting unit 205 may set not only the human body detection but also the object detection unit 202 with the same parameters related to the detection process. For example, the parameter setting unit 205 can set parameters related to the object detection area, the maximum size and the minimum size of the object detection, and the like as parameters for the object detection unit 202. However, in the description of this embodiment, it is assumed that the object detection area is the entire image acquired by the image acquisition unit 201. Generally, if the object detection area is narrowed, the processing speed increases.

物体対応付部206は、物体検出部202が検出した物体と、人体検出部204が検出した人体とを対応付ける。図4(a)および(b)を参照して、物体と、人体との対応付けの例を説明する。図4(a)は、物体検出部202により検出された物体の外接矩形401に、人体検出部204により検出された人体の外接矩形402が内包されない場合の例を示す。なお、本実施形態の物体検出部202はフレーム全体に対して物体検出処理を行い、人体検出部204は、物体検出部202により検出された物体の外接矩形の周辺を含む領域を人体検出領域として人体検出処理を行う。 The object-corresponding unit 206 associates the object detected by the object detection unit 202 with the human body detected by the human body detection unit 204. An example of associating an object with a human body will be described with reference to FIGS. 4A and 4B. FIG. 4A shows an example in which the circumscribed rectangle 401 of the object detected by the object detection unit 202 does not include the circumscribed rectangle 402 of the human body detected by the human body detection unit 204. The object detection unit 202 of the present embodiment performs object detection processing on the entire frame, and the human body detection unit 204 uses a region including the periphery of the circumscribed rectangle of the object detected by the object detection unit 202 as the human body detection region. Performs human body detection processing.

物体対応付部206は、図4(a)に示すように物体と人体が検出された場合、物体の外接矩形401に対する人体の外接矩形402の重畳率が予め設定された閾値を超えた場合に対応付けを行う。すなわち、物体対応付部206は、物体の外接矩形401と人体の外接矩形402とが重畳する重畳領域の面積の、人体の外接矩形402の面積に対する割合が閾値を超えた場合に、外接矩形401に対応する物体と、外接矩形402に対応する人体を対応づける。 When an object and a human body are detected as shown in FIG. 4A, the object-corresponding portion 206 is set when the superposition ratio of the circumscribed rectangle 402 of the human body with respect to the circumscribed rectangle 401 of the object exceeds a preset threshold value. Make a mapping. That is, when the ratio of the area of the overlapping region where the circumscribing rectangle 401 of the object and the circumscribing rectangle 402 of the human body overlap to the area of the circumscribing rectangle 402 of the human body exceeds the threshold value, the object-corresponding portion 206 has the circumscribing rectangle 401. The object corresponding to is associated with the human body corresponding to the circumscribing rectangle 402.

一方、図4(b)は、検出した物体の外接矩形403から複数の人体が検出された場合の例を示す。この場合、物体対応付部206は、物体の外接矩形403と人体の外接矩形404とが重畳する重畳領域の面積の、人体の外接矩形404の面積に対する割合が閾値を超えた場合に、外接矩形403に対応する物体と、外接矩形404に対応する人体を対応づける。また、物体対応付部206は、物体の外接矩形403と人体の外接矩形405とが重畳する重畳領域の面積の、人体の外接矩形405の面積に対する割合が閾値を超えた場合に、外接矩形403に対応する物体と、外接矩形405に対応する人体を対応づける。物体対応付部206は、1つの物体と、複数の人体を対応づける場合がある。また、物体と人体の対応付けの方法については、上記の方法に限らない。 On the other hand, FIG. 4B shows an example in which a plurality of human bodies are detected from the circumscribed rectangle 403 of the detected object. In this case, the object-corresponding portion 206 is the circumscribing rectangle when the ratio of the area of the overlapping region where the extrinsic rectangle 403 of the object and the extrinsic rectangle 404 of the human body overlap to the area of the circumscribing rectangle 404 of the human body exceeds the threshold value. The object corresponding to the 403 and the human body corresponding to the circumscribing rectangle 404 are associated with each other. Further, the object-corresponding portion 206 is set in the external rectangle 403 when the ratio of the area of the overlapping region where the external rectangular 403 of the object and the external rectangle 405 of the human body overlap to the area of the external rectangle 405 of the human body exceeds the threshold value. The object corresponding to is associated with the human body corresponding to the circumscribing rectangle 405. The object-corresponding portion 206 may associate one object with a plurality of human bodies. Further, the method of associating an object with a human body is not limited to the above method.

軌跡管理部207は、物体検出部202および物体追尾部203および物体対応付部206からオブジェクトに関する情報を取得し、管理情報としてオブジェクトごとに管理する。図3を参照して、軌跡管理部207が管理する管理情報301の例を説明する。本実施形態の軌跡管理部207は、図3に示すように、オブジェクトIDごとにオブジェクト情報302を管理する。1つのオブジェクトIDに対応するオブジェクト情報302には、当該オブジェクト情報が生成された日時を示すタイムスタンプが含まれる。また、オブジェクト情報302には、当該オブジェクトが検出されたフレーム毎の情報303が含まれている。情報303には、当該情報が生成された日時を示すタイムスタンプ、検出された物体の座標位置(Position)、検出された物体の領域を包含する外接矩形を示す情報(Bounding box)、物体のサイズ、物体の属性が含まれている。ただし、情報303に含まれる情報はこれらに限らず他のまた、ディスプレイ105、107は、情報を含めてもよい。軌跡管理部207が管理する管理情報301は、軌跡情報判定部208によって使用される。 The locus management unit 207 acquires information about the object from the object detection unit 202, the object tracking unit 203, and the object correspondence unit 206, and manages each object as management information. An example of the management information 301 managed by the locus management unit 207 will be described with reference to FIG. As shown in FIG. 3, the locus management unit 207 of the present embodiment manages the object information 302 for each object ID. The object information 302 corresponding to one object ID includes a time stamp indicating the date and time when the object information was generated. Further, the object information 302 includes information 303 for each frame in which the object is detected. The information 303 includes a time stamp indicating the date and time when the information was generated, a coordinate position (Position) of the detected object, information indicating an extrinsic rectangle including the area of the detected object (Bounding box), and the size of the object. , Contains the attributes of the object. However, the information included in the information 303 is not limited to these, and the displays 105 and 107 may include the information. The management information 301 managed by the locus management unit 207 is used by the locus information determination unit 208.

軌跡管理部207は、物体対応付部206の対応付け結果に従って、オブジェクトの属性(Attribute)を更新する。さらに、過去のオブジェクトの属性(Attribute)も対応付け結果に従って更新するようにしてもよい。また、その後のオブジェクトの属性(Attribute)も対応付け結果に従って設定するようにしてもよい。このような処理を行うことで、同一のオブジェクトIDを有するオブジェクトの追尾結果は、どの時刻においても同一の属性を持つことができる。 The trajectory management unit 207 updates the attribute (Attribute) of the object according to the association result of the object correspondence unit 206. Further, the attribute (Attribute) of the past object may be updated according to the association result. Further, the attribute (Attribute) of the subsequent object may be set according to the association result. By performing such processing, the tracking results of objects having the same object ID can have the same attributes at any time.

軌跡情報判定部208は、通過物体検知部としての機能を有しており、パラメータ設定部205により設定されたパラメータと、軌跡管理部207が管理する管理情報とに従って、検知線に対する物体の通過判定処理を行う。なお、検知線は、例えば、表示装置210のパラメータ設定画面でユーザインタフェースを操作することにより、ユーザが設定可能である。本実施形態のパラメータ設定部205は、例えばユーザにより設定された線分を特定するための情報を、パラメータとして、軌跡情報判定部208に設定することが可能である。 The locus information determination unit 208 has a function as a passing object detection unit, and determines the passage of an object with respect to the detection line according to the parameters set by the parameter setting unit 205 and the management information managed by the locus management unit 207. Perform processing. The detection line can be set by the user, for example, by operating the user interface on the parameter setting screen of the display device 210. The parameter setting unit 205 of the present embodiment can set, for example, information for specifying a line segment set by the user in the locus information determination unit 208 as a parameter.

軌跡情報判定部208は、着目フレームより1フレーム前のフレームにおける人体属性オブジェクトの外接矩形から、着目フレームにおける人体属性オブジェクトの外接矩形への移動ベクトルが、通過検出のための線分と交差しているか否かを判定する。なお、本実施形態における人体属性オブジェクトとは、物体対応付部206により人体と対応づけられた物体である。また、交差しているか否かの判定は、人体属性オブジェクトが、通過検出のための線分を通過したか否かの判定に相当する。軌跡情報判定部208による判定結果は、外部出力部209を介して外部(例えば表示装置210)へ出力されてもよい。また、外部出力部209がCRTや液晶画面などにより構成される表示部の機能を有している場合、表示装置210に代えて外部出力部209を用いて判定結果を表示してもよい。 In the locus information determination unit 208, the movement vector from the circumscribing rectangle of the human body attribute object in the frame one frame before the frame of interest to the circumscribing rectangle of the human body attribute object in the frame of interest intersects the line segment for passing detection. Judge whether or not. The human body attribute object in the present embodiment is an object associated with the human body by the object corresponding unit 206. Further, the determination of whether or not they intersect corresponds to the determination of whether or not the human body attribute object has passed the line segment for passing detection. The determination result by the locus information determination unit 208 may be output to the outside (for example, the display device 210) via the external output unit 209. Further, when the external output unit 209 has a function of a display unit composed of a CRT, a liquid crystal screen, or the like, the determination result may be displayed by using the external output unit 209 instead of the display device 210.

ここで、本実施形態における軌跡情報判定部208は、人体属性オブジェクトが、所定の線分を通過したことを検出する例を説明したが、この例に限らない。例えば、軌跡情報判定部208は、所定の領域がパラメータとして設定された場合において、当該領域に人体属性オブジェクトが侵入したことを検出することも可能である。また、軌跡情報判定部208は、人体属性オブジェクトの代わりに、動物オブジェクトが侵入したことを検出することも可能である。このほか、軌跡情報判定部208は、イベント検出用のパラメータと軌跡情報を用いた種々の検出処理を実行することが可能である。 Here, the locus information determination unit 208 in the present embodiment has described an example of detecting that the human body attribute object has passed a predetermined line segment, but the present invention is not limited to this example. For example, the locus information determination unit 208 can also detect that a human body attribute object has invaded the area when a predetermined area is set as a parameter. Further, the locus information determination unit 208 can also detect that an animal object has invaded instead of the human body attribute object. In addition, the locus information determination unit 208 can execute various detection processes using the event detection parameters and the locus information.

次に、図5及び図6を参照して、第1実施形態に係る映像の認識処理について説明する。 Next, the image recognition process according to the first embodiment will be described with reference to FIGS. 5 and 6.

図5は、人体検出サイズの設定を説明するための図である。図5に示すパラメータ設定画面は、例えば、表示装置210で表示される。 FIG. 5 is a diagram for explaining the setting of the human body detection size. The parameter setting screen shown in FIG. 5 is displayed, for example, on the display device 210.

図5(a)は、人体検出の最大サイズ、最小サイズを設定する画面例を示した図である。 FIG. 5A is a diagram showing an example of a screen for setting the maximum size and the minimum size of human body detection.

図5(a)において、500は人体検出用のパラメータを設定する設定画面である。画面500は、画面左上から画面右下に道が伸びていることを示しており、左上(遠方)に人体501が、右下(近方)に人体502が映っている。設定矩形503は、人体検出の最大サイズを設定するためのUI(ユーザインタフェース)である。同様に、設定矩形504は、人体検出の最小サイズを設定するためのUIである。 In FIG. 5A, 500 is a setting screen for setting parameters for detecting a human body. The screen 500 shows that the road extends from the upper left of the screen to the lower right of the screen, and the human body 501 is shown in the upper left (far) and the human body 502 is shown in the lower right (near). The setting rectangle 503 is a UI (user interface) for setting the maximum size of human body detection. Similarly, the setting rectangle 504 is a UI for setting the minimum size of human body detection.

本実施形態の人体検出部204は、人体のパターン画像とフレーム画像との比較によって、フレーム画像から人体を検出する。より具体的には、人体検出部204は、設定矩形503及び504のサイズに応じて、フレーム画像のサイズを変倍し、変倍されたフレーム画像と、人体のパターン画像とを比較して、人物の検出を行う。例えば、人体検出部204は、設定矩形503と504のサイズに応じて、フレーム画像のサイズが1/2倍された画像と、1/3倍された画像と、1/4倍された画像を生成し、それぞれの画像と人体のパターン画像とを比較することで人体の検出を行う。 The human body detection unit 204 of the present embodiment detects the human body from the frame image by comparing the pattern image of the human body with the frame image. More specifically, the human body detection unit 204 scales the size of the frame image according to the sizes of the set rectangles 503 and 504, and compares the scaled frame image with the pattern image of the human body. Detects a person. For example, the human body detection unit 204 displays an image in which the size of the frame image is halved, an image in which the size is 1/3 times, and an image in which the size is 1/4 times, according to the sizes of the set rectangles 503 and 504. The human body is detected by generating and comparing each image with the pattern image of the human body.

上記の場合において、ユーザがズーム倍率を下げるためのユーザ操作を行なった場合、人体検出部204は、ズーム倍率を下げる前に検出されていた人物が、ズーム倍率の変更後でも検出されるように、フレーム画像の変倍率を制御する。より具体的には、人体検出部204は、例えば、フレーム画像のサイズが1/3倍された画像と、1/4倍された画像と、1/6倍された画像を生成し、それぞれの画像と人体のパターン画像を比較して、人体の検出を行う。 In the above case, when the user performs a user operation to lower the zoom magnification, the human body detection unit 204 will detect the person detected before lowering the zoom magnification even after the zoom magnification is changed. , Control the scaling of the frame image. More specifically, the human body detection unit 204 generates, for example, an image in which the size of the frame image is 1/3 times larger, an image in which the size of the frame image is 1/4 times larger, and an image in which the size of the frame image is 1/6 times larger. The human body is detected by comparing the image with the pattern image of the human body.

なお、人体の検出方法は上記の方法に限らず、例えば、設定矩形503及び504のサイズに応じて、人体のパターン画像を変倍し、フレーム画像と比較して人体を検出することも可能である。 The method for detecting the human body is not limited to the above method. For example, the pattern image of the human body can be scaled according to the sizes of the setting rectangles 503 and 504, and the human body can be detected by comparing with the frame image. is there.

このように、設定された人体検出サイズの範囲内の人体のみを検出するように、人体検出処理を行うようにすれば、処理の高速化または高精度化が行える。設定矩形503及び504は、設定矩形の辺や節点などを操作者のドラッグ等のマウス操作により大きさを変更することが可能である。なお、図5の説明では、人体検出の最大サイズと最小サイズを設定する例を説明したが、最大サイズか最小サイズのみが設定されるようにしてもよい。 As described above, if the human body detection process is performed so as to detect only the human body within the set range of the human body detection size, the speed or accuracy of the process can be increased. The sizes of the setting rectangles 503 and 504 can be changed by a mouse operation such as dragging the operator on the sides and nodes of the setting rectangle. In the description of FIG. 5, an example of setting the maximum size and the minimum size of the human body detection has been described, but only the maximum size or the minimum size may be set.

図5(b)は、図5(a)の一部領域をズームアップした画面表示例である。ズーム範囲505は、図5(b)に相当する図5(a)上の範囲を表すための矩形である。よって、ズーム範囲505をズームした結果が画面510である。本図においてズーム倍率は図5(a)の2.5倍としている。 FIG. 5B is a screen display example in which a part of the area of FIG. 5A is zoomed up. The zoom range 505 is a rectangle for representing the range on FIG. 5 (a) corresponding to FIG. 5 (b). Therefore, the result of zooming the zoom range 505 is the screen 510. In this figure, the zoom magnification is 2.5 times that of FIG. 5A.

図6は、パラメータ設定部205が設定する設定パラメータの構成例を示す図である。制御装置200は、図6に示すパラメータの表示画面を、例えば、表示装置210で表示させることが可能である。 FIG. 6 is a diagram showing a configuration example of a setting parameter set by the parameter setting unit 205. The control device 200 can display the parameter display screen shown in FIG. 6 on, for example, the display device 210.

図6(a)は、設定矩形503及び504の設定値を示したものである。 FIG. 6A shows the set values of the setting rectangles 503 and 504.

図6(a)では、人体検出の最大サイズ(Max Size)が幅高さ(900,900)画素、最小サイズ(Min Size)が幅高さ(250,250)画素と設定している。なお画面500の解像度は縦横(1280,1024)としている。またこの時のズーム倍率は1倍としている。 In FIG. 6A, the maximum size (Max Size) of human body detection is set to the width height (900,900) pixels, and the minimum size (Min Size) is set to the width height (250,250) pixels. The resolution of the screen 500 is vertical and horizontal (1280, 1024). The zoom magnification at this time is 1x.

ここで、図5(b)のようにズームアップした際に図6(a)の設定値がそのまま適用される場合を考える。 Here, consider a case where the set value of FIG. 6 (a) is applied as it is when zooming up as shown in FIG. 5 (b).

画面510のように、ズームアップ操作によって撮像される人体が大きくなる。そのためズームアップ後は設定矩形503(図6(a)のMax Size)よりも大きな人体が撮像されることも考えられるが、図6(a)の人体検出の最大サイズ(900,900)がそのまま適用されると大きな人体が検出されない可能性がある。 As shown in the screen 510, the human body imaged by the zoom-up operation becomes large. Therefore, after zooming in, it is possible that a human body larger than the set rectangle 503 (Max Size in FIG. 6A) is imaged, but the maximum size (900,900) of human body detection in FIG. 6A remains unchanged. When applied, large human bodies may not be detected.

また、ズームアップ前は、人体検出の最小サイズよりも小さいために人体検出処理されなかった物体が、ズームアップ後は、人体検出処理の対象となり得る。このような場合、ユーザが意図していない人体検出処理が行われる可能性があり、処理負荷の増大等の発生が起こりうる。 Further, an object that has not been subjected to human body detection processing because it is smaller than the minimum size for human body detection before zooming up may be subject to human body detection processing after zooming in. In such a case, the human body detection process that is not intended by the user may be performed, and an increase in processing load or the like may occur.

上記のような問題は、ズームアウト時にも起こりうる。すなわち、ズームアウトによりフレーム内における人体のサイズは小さくなるが、人体検出の最小サイズのパラメータがズームアウト前と後で変わらない場合、検出漏れが発生する可能性がある。また、人体検出の最大サイズもズームアウト前と後で変わらない場合、ズームアウト前は検出対象でなかったサイズの人体についての検出処理することになるため余計な処理時間がかかってしまう可能性がある。 Problems such as those mentioned above can also occur when zooming out. That is, although the size of the human body in the frame is reduced by zooming out, if the parameter of the minimum size for detecting the human body does not change before and after zooming out, detection omission may occur. Also, if the maximum size of human body detection does not change before and after zooming out, it may take extra processing time because the detection processing is performed for the human body of a size that was not the detection target before zooming out. is there.

そこで、本実施形態のパラメータ制御部212は、ズーム倍率の変更に応じて、人体検出の最小サイズや最大サイズといった映像の認識処理に用いられるパラメータを変更する。このようにすることで、ズーム倍率が変更された後であっても好適な認識処理を行えるようになる。上述のように、本実施形態の人体検出部204は、人体のパターン画像と、変倍された複数のフレーム画像との比較によって、人体を検出する。この例においては、ズーム倍率の変化に応じて、フレーム画像を変倍する際の倍率が変更される。つまり、パラメータ制御部212は、ズーム倍率の変化に応じて、人体検出に用いるフレーム画像の最大サイズと最小サイズを変更する。 Therefore, the parameter control unit 212 of the present embodiment changes the parameters used for the image recognition process such as the minimum size and the maximum size of the human body detection according to the change of the zoom magnification. By doing so, suitable recognition processing can be performed even after the zoom magnification is changed. As described above, the human body detection unit 204 of the present embodiment detects the human body by comparing the pattern image of the human body with the plurality of scaled frame images. In this example, the magnification when scaling the frame image is changed according to the change in the zoom magnification. That is, the parameter control unit 212 changes the maximum size and the minimum size of the frame image used for human body detection according to the change in the zoom magnification.

また、人体検出部204が、人体のパターン画像を変倍し、フレーム画像と比較して人体検出を行う場合、ズーム倍率の変化に応じて、人体のパターン画像を変倍する際の倍率が変更される。つまり、パラメータ制御部212は、ズーム倍率の変化に応じて人体検出に用いるパターン画像の最大サイズと最小サイズを変更する。 Further, when the human body detection unit 204 scales the pattern image of the human body and detects the human body by comparing it with the frame image, the magnification when scaling the pattern image of the human body changes according to the change in the zoom magnification. Will be done. That is, the parameter control unit 212 changes the maximum size and the minimum size of the pattern image used for human body detection according to the change in the zoom magnification.

図5(c)は、画面500をズームアップした際に図6(a)の設定値をズーム倍率に応じて変更した場合の画面表示例である。図6(a)で示すパラメータは、以下に述べる処理により、図6(b)で示すパラメータに変更され、人体検出部204は、変更後のパラメータに基づいて人体検出処理を実行する。 FIG. 5C is an example of a screen display when the setting value of FIG. 6A is changed according to the zoom magnification when the screen 500 is zoomed up. The parameter shown in FIG. 6 (a) is changed to the parameter shown in FIG. 6 (b) by the process described below, and the human body detection unit 204 executes the human body detection process based on the changed parameter.

図5の画面500から画面520へのズームにより、ズーム倍率は、1倍から2.5倍に変化する。本実施形態のパラメータ制御部212は、人体検出の最大サイズ、最小サイズともにズーム倍率の変化に応じて変更する。図6(b)に示すように、パラメータ制御部212は、ズーム倍率の変化後の人体検出の最小サイズを、図6(a)の人体検出の最小サイズ(250,250)に対して2.5倍のサイズ(625,625)に変更する。なお、人体検出の最大サイズも、最小サイズの場合と同様に、2.5倍となるべきだが、ここでは画面範囲を超えてしまうため、本実施形態のパラメータ制御部212は、画面520の縦サイズを上限としたサイズ(1024,1024)に変更する。 By zooming from the screen 500 to the screen 520 in FIG. 5, the zoom magnification changes from 1x to 2.5x. The parameter control unit 212 of the present embodiment changes both the maximum size and the minimum size of the human body detection according to the change of the zoom magnification. As shown in FIG. 6 (b), the parameter control unit 212 sets the minimum size of the human body detection after the change of the zoom magnification to the minimum size (250, 250) of the human body detection in FIG. 6 (a). Change to 5 times the size (625, 625). The maximum size of human body detection should be 2.5 times as large as the minimum size, but since it exceeds the screen range here, the parameter control unit 212 of the present embodiment is vertically displayed on the screen 520. Change to a size (1024,1024) with the size as the upper limit.

本実施形態のパラメータ制御部212は、上記のようなパラメータの変更処理をズーム制御部211からズーム倍率情報を受け取るたびに実行する。また、パラメータ制御部212は、パラメータを変更するたびに、当該変更後のパラメータをパラメータの設定ツール側に通知することでUI(User Interface)もズーム倍率の変化に応じて動的に変更される。 The parameter control unit 212 of the present embodiment executes the above-mentioned parameter change processing every time it receives zoom magnification information from the zoom control unit 211. Further, every time the parameter control unit 212 changes the parameter, the UI (User Interface) is dynamically changed according to the change in the zoom magnification by notifying the parameter setting tool side of the changed parameter. ..

図5(c)は、ズーム倍率の変化に応じて、人体検出の最大サイズと最小サイズを変更した後における、パラメータの設定ツールのUIを示している。図5(c)の522は、図5(a)の設定矩形503に対応し、図5(c)の521は、図5(a)の設定矩形504に対応する。 FIG. 5C shows the UI of the parameter setting tool after changing the maximum size and the minimum size of the human body detection according to the change of the zoom magnification. 522 in FIG. 5 (c) corresponds to the setting rectangle 503 in FIG. 5 (a), and 521 in FIG. 5 (c) corresponds to the setting rectangle 504 in FIG. 5 (a).

上記の説明のように、本実施形態のパラメータ制御部212は、人体検出の最大サイズや最小サイズが指定された後に、ズーム倍率を上げるズーム制御が行なわれた場合、最大サイズと最小サイズをズーム制御前よりも大きくする制御を行なう。また、パラメータ制御部212は、人体検出の最大サイズや最小サイズが指定された後に、ズーム倍率を下げるズーム制御が行なわれた場合、最大サイズと最小サイズをズーム制御前よりも小さくする制御を行なう。 As described above, the parameter control unit 212 of the present embodiment zooms the maximum size and the minimum size when the zoom control for increasing the zoom magnification is performed after the maximum size and the minimum size for human body detection are specified. Control is performed to make it larger than before control. Further, the parameter control unit 212 controls the maximum size and the minimum size to be smaller than those before the zoom control when the zoom control for lowering the zoom magnification is performed after the maximum size and the minimum size for human body detection are specified. ..

なお、ズーム倍率の変化に応じたパラメータの変更の際に変更に関する表示をしたり、パラメータの変更前に画面上にパラメータの変更の旨を通知し、ユーザの了解を得てからパラメータ変更を行うようにしてもよい。 In addition, when the parameter is changed according to the change of the zoom magnification, the change is displayed, or the parameter change is notified on the screen before the parameter is changed, and the parameter is changed after obtaining the user's consent. You may do so.

また、本実施形態ではズーム倍率に応じて人体検出の最大サイズと最小サイズに関するパラメータを変更したが、変更後のサイズが所定の閾値を超えた場合は人体検出処理自体の停止や中止をするようにしてもよい。また、人体検出処理の停止や中止の代わりに、ディスプレイに警告等のメッセージを表示させるようしてもよい。このようにすれば、例えば、認識処理のパラメータのエラーを回避できるという効果がある。 Further, in the present embodiment, the parameters related to the maximum size and the minimum size of the human body detection are changed according to the zoom magnification, but when the changed size exceeds a predetermined threshold value, the human body detection process itself is stopped or stopped. It may be. Further, instead of stopping or stopping the human body detection process, a message such as a warning may be displayed on the display. By doing so, for example, there is an effect that an error of a parameter of recognition processing can be avoided.

また、本実施形態では人体検出サイズを矩形で設定する例を説明したが、多角形や円形など他の形状であってもよい。 Further, in the present embodiment, an example in which the human body detection size is set by a rectangle has been described, but other shapes such as a polygon and a circle may be used.

また、本実施形態においてはパラメータ制御部212が変更するパラメータを人体検出の最小サイズと最大サイズとしたが撮像画像サイズや画像上の位置に依存するような他のパラメータであってもよい。例えば、物体追尾部203は、フレーム画像から検出された物体の位置と、当該フレーム画像に関する移動ベクトルから特定される物体の位置との距離が閾値未満であれば、当該物体と他のフレーム画像の物体とを対応付けると説明した。この閾値をズーム倍率の変化に応じて変更するパラメータとすることも可能である。 Further, in the present embodiment, the parameters changed by the parameter control unit 212 are set to the minimum size and the maximum size for human body detection, but other parameters that depend on the captured image size and the position on the image may be used. For example, if the distance between the position of the object detected from the frame image and the position of the object specified from the movement vector related to the frame image is less than the threshold value, the object tracking unit 203 of the object and another frame image. It was explained that it is associated with an object. It is also possible to use this threshold value as a parameter that changes according to a change in the zoom magnification.

また例えば、軌跡情報判定部208がイベント検出に用いるパラメータ(通過検知のための線分や領域)を、ズーム倍率の変化に応じて変更するようにしてもよい。より具体的には、パラメータ制御部212は、例えば、通過判定に用いる線分の位置や長さ、及び、侵入判定のために用いる領域の位置やサイズを、ズーム倍率の変化に応じて変更することが可能である。 Further, for example, the parameters (line segments and regions for passing detection) used by the locus information determination unit 208 for event detection may be changed according to the change in the zoom magnification. More specifically, the parameter control unit 212 changes, for example, the position and length of the line segment used for the passage determination and the position and size of the area used for the intrusion determination according to the change in the zoom magnification. It is possible.

また、例えば、物体検出範囲をズーム倍率の変化に応じて変更するパラメータとしてもよい。なお、本実施形態では、物体検出範囲を画面全体として説明している。 Further, for example, it may be a parameter that changes the object detection range according to a change in the zoom magnification. In this embodiment, the object detection range is described as the entire screen.

また例えば、物体対応付部206は、物体の外接矩形と人体の外出矩形が重畳する重畳領域の面積の、人体の外接矩形の面積に対する割合(重畳率)が閾値を超えた場合に、物体と人物を対応付けることを説明した。この場合における閾値を、ズーム倍率の変化に応じて変更するパラメータとすることも可能である。なお、重畳率等は面積を比較するため本実施形態の人体検出サイズのようにズーム倍率に応じた等倍変換でない。本実施形態のパラメータ制御部212は、ズーム倍率と重畳率を対応付けたテーブルを用いることで、等倍変換ではないパラメータの変更を行うことができる。 Further, for example, the object-corresponding portion 206 can be attached to an object when the ratio (superimposition ratio) of the area of the overlapping region where the extrinsic rectangle of the object and the outer rectangle of the human body overlap to the area of the extrinsic rectangle of the human body exceeds the threshold value. Explained to associate people. The threshold value in this case can be used as a parameter that changes according to a change in the zoom magnification. It should be noted that the superposition ratio and the like are not the same magnification conversion according to the zoom magnification as in the human body detection size of the present embodiment because the areas are compared. The parameter control unit 212 of the present embodiment can change parameters that are not equal-magnification conversion by using a table in which the zoom magnification and the superposition ratio are associated with each other.

また、本実施形態ではユーザインタフェースを用いて指定された人体検出の最大サイズや最小サイズを基準値として、ズーム倍率の変化に応じてパラメータを相対的に変換する場合の例を説明した。すなわち、上記の説明では、例えば、ユーザインタフェースを用いて人体検出の最大サイズ(基準値)が設定された後に、ズーム倍率が2倍になると、人体検出の最大サイズを基準値の2倍にする例を説明したがこれに限るものではない。 Further, in the present embodiment, an example in which the parameters are relatively converted according to the change in the zoom magnification is described with the maximum size and the minimum size of the human body detection specified by using the user interface as reference values. That is, in the above description, for example, when the maximum size of human body detection (reference value) is set using the user interface and then the zoom magnification is doubled, the maximum size of human body detection is doubled of the reference value. An example has been explained, but it is not limited to this.

例えば、カメラ位置と、検出対象物体(ここでは人体)の存在し得る位置とが特定された絶対的範囲三次元領域と、検出対象物体の当該三次元領域内で取り得る絶対的なサイズの範囲が取得できるとする。そうすれば、パラメータ制御部212は、ズーム値に対して適切なパラメータ(ここでは人体検出の最大サイズと最小サイズ)を特定できる。また、パラメータ制御部212は、上記のようにしてパラメータを決定したときのズーム値を基準値とし、その後のズーム倍率変更に応じて認識パラメータを変更することも可能である。 For example, an absolute range three-dimensional region in which a camera position and a position where a detection target object (human body in this case) can exist are specified, and an absolute size range that can be taken in the detection target object in the three-dimensional region. Can be obtained. Then, the parameter control unit 212 can specify appropriate parameters (here, the maximum size and the minimum size of the human body detection) for the zoom value. Further, the parameter control unit 212 can use the zoom value when the parameter is determined as described above as a reference value and change the recognition parameter according to the subsequent change in the zoom magnification.

また、図5は、人物のサイズの下限が有限になるようなカメラのアングルであった。すなわち、本実施形態では撮像映像上に映される人体のサイズの上限及び下限が有限となるカメラ位置と俯角と検出対象物体である場合の例を説明した。しかし、カメラ位置、カメラの向いている方向、検出対象となる物体の種類によっては、物体が無限遠に位置する場合等、最小サイズや最大サイズの設定が出来ないことが理論上考えられる。そのような場合、ズーム値(ズーム倍率)の変化に応じた物体検出のパラメータの変更を行わないようにする、あるいはあえて最小サイズを設定する、あるいはカメラ設置場所や方向を変える等の対応をするとよい。本実施形態の制御装置200は、ズーム倍率の変化に応じたパラメータの変更を行うか否かを、ユーザ操作によって切り替えることができる。 Further, FIG. 5 is an angle of the camera such that the lower limit of the size of the person is finite. That is, in the present embodiment, an example has been described in which the upper and lower limits of the size of the human body projected on the captured image are the camera position, the depression angle, and the object to be detected. However, it is theoretically possible that the minimum size and the maximum size cannot be set depending on the camera position, the direction in which the camera is facing, and the type of the object to be detected, such as when the object is located at infinity. In such a case, if you do not change the object detection parameters according to the change in the zoom value (zoom magnification), or if you dare to set the minimum size, or change the camera installation location and direction, etc. Good. The control device 200 of the present embodiment can switch whether or not to change the parameters according to the change in the zoom magnification by a user operation.

また、本実施形態においては、カメラのズーム機構は光学ズームとしたが、デジタルズームであってもよい。図5を用いてカメラのズーム機構がデジタルズームの場合の処理を以下に述べる。 Further, in the present embodiment, the zoom mechanism of the camera is an optical zoom, but a digital zoom may be used. The processing when the zoom mechanism of the camera is the digital zoom will be described below with reference to FIG.

デジタルズームが行われたことにより、画面500におけるズーム範囲505が画面510のように表示されることになったとする。その場合、パラメータ制御部212は、光学ズームの場合と同様に設定矩形503と設定矩形504をデジタルズーム倍率に応じて変更する。例えば、パラメータ制御部212は、デジタルズームによりズーム倍率が1倍から2倍になった場合、人物検出の最大サイズと最小サイズも2倍に変更する。そして、パラメータ制御部212は、変更後のパラメータを表示装置210に通知することで、図5(c)に示すようにユーザインタフェースの表示を変更させる。このようにデジタルズームとユーザインタフェースを連動させることでズーム倍率の変化に応じてパラメータが変更されたことをユーザが認識できる。ただしデジタルズームの場合、人体検出部204で実際に処理される画像はデジタルズーム後の画像ではなくズーム前の撮像画像であることがある。その場合はズーム倍率の変化に伴うパラメータは変更されないようにする。すなわち、パラメータ制御部212は、ズーム倍率の変更前と後で、映像の認識処理の対象となる画像領域が変化するか否かを判定し、画像領域が変化しないと判定した場合、ズーム倍率の変化に応じた認識処理のパラメータの変更は行わない。 It is assumed that the zoom range 505 on the screen 500 is displayed like the screen 510 due to the digital zoom. In that case, the parameter control unit 212 changes the setting rectangle 503 and the setting rectangle 504 according to the digital zoom magnification, as in the case of the optical zoom. For example, the parameter control unit 212 also changes the maximum size and the minimum size of the person detection to 2 times when the zoom magnification is increased from 1 to 2 times by the digital zoom. Then, the parameter control unit 212 notifies the display device 210 of the changed parameter to change the display of the user interface as shown in FIG. 5C. By linking the digital zoom and the user interface in this way, the user can recognize that the parameters have been changed according to the change in the zoom magnification. However, in the case of digital zoom, the image actually processed by the human body detection unit 204 may not be the image after digital zoom but the captured image before zooming. In that case, the parameters that accompany the change in zoom magnification should not be changed. That is, the parameter control unit 212 determines whether or not the image area to be processed for image recognition changes before and after the change of the zoom magnification, and if it is determined that the image area does not change, the zoom magnification is changed. The recognition processing parameters are not changed according to the change.

以下で、人体検出部204で処理される画像がデジタルズーム後に切り出された画像である場合を述べる。パラメータ制御部212は、人体検出の最大サイズが切り出された画像範囲を上回る場合、人体検出の最大サイズを切り出し画像範囲まで縮小するようにパラメータを変更してもよい。例えば、パラメータ制御部212は、デジタルズーム前の人体検出の最大サイズが(1000,1000)であり、デジタルズームによって切り出される画像のサイズが(800,800)の場合、最大サイズを(800,800)にしてもよい。またあるいは人体検出の最小サイズが、切り出された画像範囲を上回る場合には、人体検出の処理自体の停止や中止をするようにしてもよい。 Hereinafter, the case where the image processed by the human body detection unit 204 is an image cut out after digital zooming will be described. When the maximum size of human body detection exceeds the clipped image range, the parameter control unit 212 may change the parameter so as to reduce the maximum size of human body detection to the clipped image range. For example, when the maximum size of human body detection before digital zoom is (1000,1000) and the size of the image cut out by digital zoom is (800,800), the parameter control unit 212 sets the maximum size to (800,800). You may. Alternatively, if the minimum size of the human body detection exceeds the clipped image range, the human body detection process itself may be stopped or stopped.

次に、図7のフローチャートを参照して、第1実施形態に係る制御装置200の動作を説明する。なお、本実施形態の制御装置200は、不図示のCPUが図7の処理に係る制御プログラムをメモリから読み出して実行することにより、図7の処理を実現する。また、本実施形態の制御装置200は、カメラに組み込まれており、カメラの起動と共に図7の処理を開始する。ただし、制御装置200は、カメラとは別の独立した装置であってもよいし、カメラによる撮影画像を表示するPCや携帯端末等に実装されていてもよい。制御装置200が有する不図示の制御部は、図7の処理を継続するか否かを判定する。制御部は、例えば、処理の終了がユーザによって指示された場合、図7の処理を終了すると判定し、ユーザから指示がない場合、図7の処理を継続すると判定する。処理を継続すると判定された場合(S701;YES)、S702へ進む。一方、処理を終了すると判定された場合(S701;NO)、処理を終了する。 Next, the operation of the control device 200 according to the first embodiment will be described with reference to the flowchart of FIG. 7. The control device 200 of the present embodiment realizes the process of FIG. 7 by a CPU (not shown) reading a control program related to the process of FIG. 7 from the memory and executing the control program. Further, the control device 200 of the present embodiment is incorporated in the camera, and starts the process of FIG. 7 when the camera is activated. However, the control device 200 may be an independent device separate from the camera, or may be mounted on a PC, a mobile terminal, or the like that displays an image captured by the camera. A control unit (not shown) included in the control device 200 determines whether or not to continue the process of FIG. 7. For example, when the user instructs the end of the process, the control unit determines that the process of FIG. 7 is finished, and when there is no instruction from the user, the control unit determines that the process of FIG. 7 is continued. If it is determined that the process is to be continued (S701; YES), the process proceeds to S702. On the other hand, when it is determined that the processing is finished (S701; NO), the processing is finished.

S702において、画像取得部201は、制御装置200へ入力された画像データを取得する。S703において、物体検出部202は、画像取得部201が取得した画像に対して物体検出処理を行う。S704において、物体検出部202は、ステップS703で物体を検出したか否かを判定する。物体が検出されたと判定された場合(S704;YES)、S705へ進む。一方、物体が検出されなかったと判定された場合(S704;NO)、S701へ戻る。 In S702, the image acquisition unit 201 acquires the image data input to the control device 200. In S703, the object detection unit 202 performs the object detection process on the image acquired by the image acquisition unit 201. In S704, the object detection unit 202 determines whether or not the object has been detected in step S703. If it is determined that the object has been detected (S704; YES), the process proceeds to S705. On the other hand, when it is determined that the object is not detected (S704; NO), the process returns to S701.

S705において、物体追尾部203は、物体の追尾処理を行う。すなわち、物体追尾部203は、フレームから検出された物体を、所定の条件に従って、他のフレームから検出された物体に対応付ける処理を行う。追尾処理によって、例えば、複数のフレームに渡って同一の物体が存在する場合、当該物体は対応付けられる。 In S705, the object tracking unit 203 performs the object tracking process. That is, the object tracking unit 203 performs a process of associating an object detected from a frame with an object detected from another frame according to a predetermined condition. By the tracking process, for example, when the same object exists over a plurality of frames, the objects are associated with each other.

S706において、軌跡管理部207は、S705での追尾処理の結果に従って軌跡情報を更新する。軌跡情報の更新は、図3に示す情報303の追加に対応する。 In S706, the trajectory management unit 207 updates the trajectory information according to the result of the tracking process in S705. The update of the trajectory information corresponds to the addition of the information 303 shown in FIG.

ステップS707において、人体検出部204は、物体検出部202により検出された物体とその周辺の領域に対してパラメータ設定部205で設定されたパラメータを用いて人体検出処理を行う。 In step S707, the human body detection unit 204 performs a human body detection process on the object detected by the object detection unit 202 and the area around the object using the parameters set by the parameter setting unit 205.

ここで図8のフローチャートを参照して、本実施形態の制御装置200による人体検出処理の詳細を説明する。 Here, the details of the human body detection process by the control device 200 of the present embodiment will be described with reference to the flowchart of FIG.

S801において、パラメータ制御部212は、パラメータ設定部205より設定されている設定パラメータ(人体検出の最大サイズや最小サイズ等の設定情報)を取得する。なお、設定パラメータは、人体検出の最大サイズや最小サイズの情報に限らない。すなわち、パラメータ制御部212は、S801において、映像の認識処理のためのパラメータを取得する。また、パラメータ制御部212は、現在のズーム倍率に関する情報を取得する。本実施形態の制御装置200は、カメラに組み込まれており、パラメータ制御部212は、当該カメラ内の記憶部からズーム倍率に関する情報を取得するが、例えば、当該カメラに接続されているPC104からズーム倍率に関する情報を取得するようにしてもよい。 In S801, the parameter control unit 212 acquires the setting parameters (setting information such as the maximum size and the minimum size of the human body detection) set by the parameter setting unit 205. The setting parameters are not limited to the information on the maximum size and the minimum size of human body detection. That is, the parameter control unit 212 acquires the parameters for the image recognition process in S801. Further, the parameter control unit 212 acquires information regarding the current zoom magnification. The control device 200 of the present embodiment is incorporated in the camera, and the parameter control unit 212 acquires information on the zoom magnification from the storage unit in the camera. For example, the control device 200 is zoomed from the PC 104 connected to the camera. You may want to get information about the magnification.

S802において、パラメータ制御部212は、ズーム制御部211においてズーム倍率が変更されたか否かを判定する。すなわち、パラメータ制御部212は、前回取得したズーム倍率に関する情報と、今回取得したズーム倍率に関する情報が異なるか否かを判定する。ズーム倍率の変更を検出した場合(S802:YES)、S803に進む。一方、ズーム倍率が変更されていないと判定された場合(S802;NO)、S804に進む。 In S802, the parameter control unit 212 determines whether or not the zoom magnification has been changed in the zoom control unit 211. That is, the parameter control unit 212 determines whether or not the information regarding the zoom magnification acquired last time and the information regarding the zoom magnification acquired this time are different. When a change in zoom magnification is detected (S802: YES), the process proceeds to S803. On the other hand, if it is determined that the zoom magnification has not been changed (S802; NO), the process proceeds to S804.

S803において、パラメータ制御部212は、S804の人体検出処理で用いるパラメータを、S801で取得したパラメータとS801で取得したズーム倍率から決定する。例えば、パラメータ制御部212は、ズーム倍率が1倍から2倍に変更された場合、人物検出の最大サイズも2倍にすることを決定する。ただし、この例に限らない。すなわち、パラメータ制御部212は、S801で取得されたパラメータを、撮像部のズーム倍率の変化に応じて変更する。 In S803, the parameter control unit 212 determines the parameters used in the human body detection process of S804 from the parameters acquired in S801 and the zoom magnification acquired in S801. For example, the parameter control unit 212 determines that the maximum size of person detection is also doubled when the zoom magnification is changed from 1x to 2x. However, it is not limited to this example. That is, the parameter control unit 212 changes the parameter acquired in S801 according to the change in the zoom magnification of the imaging unit.

また、本実施形態のパラメータ制御部212は、ズーム倍率の変更に応じて認識処理のためのパラメータを変更したこと、及び、変更後のパラメータを通知するためのメッセージを表示装置210へ送信する。これにより、表示装置は、パラメータ設定画面上に、映像の認識処理のためのパラメータが変更されたことを示すメッセージや、変更後のパラメータ(例えば、人体検出の最大サイズや最小サイズに対応する矩形)を表示させることができる。 Further, the parameter control unit 212 of the present embodiment transmits a message for notifying the parameter for the recognition process that the parameter for the recognition process has been changed according to the change in the zoom magnification and the parameter after the change to the display device 210. As a result, the display device displays a message on the parameter setting screen indicating that the parameters for the image recognition process have been changed, and a rectangle corresponding to the changed parameters (for example, the maximum size and the minimum size of the human body detection). ) Can be displayed.

S804で人体検出部204は、S803で決定されたパラメータ(ズーム倍率が変更されていない場合はユーザによる設定に応じたパラメータ)を使用して人体検出処理を行う。S804で人体検出処理が完了すると、図7のS708へ進む。 In S804, the human body detection unit 204 performs the human body detection process using the parameters determined in S803 (parameters set by the user when the zoom magnification is not changed). When the human body detection process is completed in S804, the process proceeds to S708 in FIG.

S708において、人体検出部204は、S707で人体を検出したか否かを判定する。人体を検出したと判定された場合(S708;YES)、S709へ進む。一方、人体を検出していないと判定された場合(S708;NO)、S711へ進む。 In S708, the human body detection unit 204 determines whether or not the human body is detected in S707. If it is determined that the human body has been detected (S708; YES), the process proceeds to S709. On the other hand, if it is determined that the human body has not been detected (S708; NO), the process proceeds to S711.

S709において、物体対応付部206は、S703で検出された物体と、S707で検出された人体との対応付け処理を行う。上述のように、物体対応付部206は、物体の外接矩形と人体の外接矩形との重複領域に応じて、物体と人体を対応付ける。 In S709, the object-corresponding portion 206 performs an association process between the object detected in S703 and the human body detected in S707. As described above, the object-corresponding portion 206 associates the object with the human body according to the overlapping region of the circumscribed rectangle of the object and the circumscribed rectangle of the human body.

S710において、軌跡管理部207は、S709での対応付け処理結果に基づいて、軌跡情報を更新する。軌跡情報の更新は、図3に示す情報303の追加に対応する。S711において、軌跡情報判定部208は、軌跡情報判定処理を行い、オブジェクトが検知線を通過したか否かを判定する。軌跡情報判定部208は、着目フレームの1フレーム前のフレームにおける人体属性オブジェクトから、着目フレームにおける人体属性オブジェクトへの移動ベクトルが、通過検知のための線分と交差しているか否かによって、通過の有無を判定する。なお、上記の人体属性オブジェクトは、物体追尾部203によって対応するオブジェクトであると判定され、同一のオブジェクトIDが付与されたオブジェクトである。 In S710, the locus management unit 207 updates the locus information based on the association processing result in S709. The update of the trajectory information corresponds to the addition of the information 303 shown in FIG. In S711, the locus information determination unit 208 performs the locus information determination process and determines whether or not the object has passed the detection line. The locus information determination unit 208 passes depending on whether or not the movement vector from the human body attribute object in the frame one frame before the frame of interest to the human body attribute object in the frame of interest intersects the line segment for passing detection. Judge the presence or absence of. The above-mentioned human body attribute object is an object that is determined to be a corresponding object by the object tracking unit 203 and is given the same object ID.

S712において、外部出力部209は、映像の認識処理に関する処理結果を外部へ出力し、S712へ戻る。外部出力部209は、例えば、検出された物体や人体の外接矩形が撮影画像の表示画面上に表示されるように、外接矩形の位置情報を表示装置210に出力する。また外部出力部209は、例えば、人物による検知線の通過や検知領域への侵入を検出した場合、当該検出結果に応じたメッセージが表示装置210の表示画面上に表示されるように、検出結果を表示装置210へ出力する。 In S712, the external output unit 209 outputs the processing result related to the video recognition process to the outside, and returns to S712. The external output unit 209 outputs the position information of the circumscribed rectangle to the display device 210 so that the detected circumscribed rectangle of the object or the human body is displayed on the display screen of the captured image, for example. Further, when the external output unit 209 detects, for example, the passage of the detection line by a person or the intrusion into the detection area, the detection result is displayed so that a message corresponding to the detection result is displayed on the display screen of the display device 210. Is output to the display device 210.

以上説明したとおり、本実施形態によれば、ズーム倍率の変化に応じて、映像の認識処理のためのパラメータを変更することで、ズーム倍率を変更する機能を有する撮影部により撮影された画像に対する認識処理を、より好適に行えるようになる。なお、上記の説明では、人体検出の最大サイズと最小サイズをパラメータとする場合の例を中心に説明したが、例えば、検出対象を自動車や顔や動物など人体以外の所定の物体としてもよい。検出対象を自動車にした場合、認識処理のためのパラメータとして、自動車検出の最大サイズと最小サイズを設定し、そのパラメータを、ズーム倍率に応じて変更することが可能である。 As described above, according to the present embodiment, the image taken by the photographing unit having a function of changing the zoom magnification by changing the parameters for the image recognition process according to the change of the zoom magnification. The recognition process can be performed more favorably. In the above description, the case where the maximum size and the minimum size of the human body detection are used as parameters has been mainly described, but for example, the detection target may be a predetermined object other than the human body such as an automobile, a face, or an animal. When the detection target is an automobile, it is possible to set the maximum size and the minimum size of the automobile detection as parameters for the recognition process, and change the parameters according to the zoom magnification.

(その他の実施形態)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
(Other embodiments)
The present invention supplies a program that realizes one or more functions of the above-described embodiment to a system or device via a network or storage medium, and one or more processors in the computer of the system or device reads and executes the program. It can also be realized by the processing to be performed. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.

Claims (21)

撮像手段に撮像された画像に含まれる物体を検出する検出処理に関する情報処理装置であって、
前記検出処理の結果に含まれる対象となる物体の最大サイズと最小サイズとを設定する設定手段と、
前記最大サイズを示す第1ガイドと、前記最小サイズを示す第2ガイドとが重畳された状態の前記画像を表示装置に表示させる表示制御手段と、を有し、
前記設定手段は、前記撮像手段のズーム倍率の変更に応じて、前記最大サイズおよび前記最小サイズの値を変更することを特徴とする情報処理装置。
An information processing device related to a detection process for detecting an object included in an image captured by an imaging means.
A setting means for setting the maximum size and the minimum size of the target object included in the result of the detection process, and
It has a display control means for displaying the image in a state in which the first guide indicating the maximum size and the second guide indicating the minimum size are superimposed on the display device.
The information processing device is characterized in that the setting means changes the values of the maximum size and the minimum size according to a change in the zoom magnification of the imaging means.
前記最大サイズおよび前記最小サイズの値が前記設定手段により変更された場合、前記表示制御手段は、変更後の前記最大サイズを示す前記第1ガイドと、変更後の前記最小サイズを示す前記第2ガイドとが重畳された前記画像を前記表示装置に表示させることを特徴とする請求項1に記載の情報処理装置。 When the values of the maximum size and the minimum size are changed by the setting means, the display control means has the first guide indicating the changed maximum size and the second guide indicating the changed minimum size. The information processing device according to claim 1, wherein the image on which the guide is superimposed is displayed on the display device. 前記設定手段は、前記撮像手段のズーム倍率が上がった場合、前記最大サイズおよび前記最小サイズの値が大きくなるよう前記最大サイズおよび前記最小サイズの値を変更することを特徴とする請求項1または2に記載の情報処理装置。 The setting means is characterized in that, when the zoom magnification of the imaging means is increased, the values of the maximum size and the minimum size are changed so that the values of the maximum size and the minimum size are increased. The information processing apparatus according to 2. 前記設定手段は、前記撮像手段のズーム倍率が下がった場合、前記最大サイズおよび前記最小サイズの値が小さくなるよう前記最大サイズおよび前記最小サイズの値を変更することを特徴とする請求項1乃至3のいずれか1項に記載の情報処理装置。 The setting means is characterized in that, when the zoom magnification of the imaging means is lowered, the values of the maximum size and the minimum size are changed so that the values of the maximum size and the minimum size become small. The information processing apparatus according to any one of 3. 前記最大サイズの変更に応じて、前記表示装置に表示される前記第1ガイドのサイズは変更され、前記最小サイズの変更に応じて、前記表示装置に表示される前記第2ガイドのサイズは変更されることを特徴とする請求項1乃至4のいずれか1項に記載の情報処理装置。 The size of the first guide displayed on the display device is changed according to the change of the maximum size, and the size of the second guide displayed on the display device is changed according to the change of the minimum size. The information processing device according to any one of claims 1 to 4, wherein the information processing device is characterized. 前記第1ガイドおよび前記第2ガイドは矩形であることを特徴とする請求項1乃至5のいずれか1項に記載の情報処理装置。 The information processing apparatus according to any one of claims 1 to 5, wherein the first guide and the second guide are rectangular. 前記画像に対して前記検出処理を実行する検出手段を更に有することを特徴とする請求項1乃至6のいずれか1項に記載の情報処理装置。 The information processing apparatus according to any one of claims 1 to 6, further comprising a detection means for executing the detection process on the image. 前記表示制御手段は、前記設定手段により変更された前記最大サイズおよび前記最小サイズが所定の条件に該当する場合、前記表示装置に所定のメッセージを表示させることを特徴とする請求項1乃至7のいずれか1項に記載の情報処理装置。 The display control means according to claim 1 to 7, wherein when the maximum size and the minimum size changed by the setting means correspond to a predetermined condition, the display device displays a predetermined message. The information processing device according to any one item. 前記表示制御手段は、前記設定手段により変更された後のサイズが所定の閾値を超えた場合、前記表示装置に前記所定のメッセージを表示させることを特徴とする請求項8に記載の情報処理装置。 The information processing device according to claim 8, wherein the display control means causes the display device to display the predetermined message when the size after being changed by the setting means exceeds a predetermined threshold value. .. 前記表示制御手段は、前記画像から前記検出処理により検出された物体であって、前記最大サイズと前記最小サイズの間のサイズの物体を示す情報を前記検出処理の結果として前記表示装置に表示させることを特徴とする請求項1乃至9のいずれか1項に記載の情報処理装置。 The display control means causes the display device to display information indicating an object having a size between the maximum size and the minimum size, which is an object detected by the detection process from the image, as a result of the detection process. The information processing apparatus according to any one of claims 1 to 9, wherein the information processing device is characterized by the above. 撮像手段に撮像された画像に含まれる物体を検出する検出処理に関する情報処理方法であって、
前記検出処理の結果に含まれる対象となる物体の最大サイズと最小サイズとを設定する設定工程と、
前記最大サイズを示す第1ガイドと、前記最小サイズを示す第2ガイドとが重畳された状態の前記画像を表示装置に表示させる表示制御工程と、を有し、
前記設定工程において、前記撮像手段のズーム倍率の変更に応じて、前記最大サイズおよび前記最小サイズの値を変更することを特徴とする情報処理方法。
It is an information processing method related to a detection process for detecting an object included in an image captured by an imaging means.
A setting process for setting the maximum size and the minimum size of the target object included in the result of the detection process, and
It has a display control step of displaying the image in a state where the first guide indicating the maximum size and the second guide indicating the minimum size are superimposed on the display device.
An information processing method characterized in that, in the setting step, the values of the maximum size and the minimum size are changed according to the change of the zoom magnification of the imaging means.
前記最大サイズおよび前記最小サイズの値が前記設定工程において変更された場合、前記表示制御工程において、変更後の前記最大サイズを示す前記第1ガイドと、変更後の前記最小サイズを示す前記第2ガイドとが重畳された前記画像を前記表示装置に表示させることを特徴とする請求項11に記載の情報処理方法。 When the values of the maximum size and the minimum size are changed in the setting step, in the display control step, the first guide indicating the changed maximum size and the second guide indicating the changed minimum size are shown. The information processing method according to claim 11, wherein the image on which the guide is superimposed is displayed on the display device. 前記設定工程において、前記撮像手段のズーム倍率が上がった場合、前記最大サイズおよび前記最小サイズの値が大きくなるよう前記最大サイズおよび前記最小サイズの値を変更することを特徴とする請求項11または12に記載の情報処理方法。 The eleventh aspect of the invention, wherein when the zoom magnification of the imaging means is increased in the setting step, the values of the maximum size and the minimum size are changed so that the values of the maximum size and the minimum size are increased. The information processing method according to 12. 前記設定工程において、前記撮像手段のズーム倍率が下がった場合、前記最大サイズおよび前記最小サイズの値が小さくなるよう前記最大サイズおよび前記最小サイズの値を変更することを特徴とする請求項11乃至13のいずれか1項に記載の情報処理方法。 11. To claim 11, wherein when the zoom magnification of the imaging means is lowered in the setting step, the values of the maximum size and the minimum size are changed so that the values of the maximum size and the minimum size become small. 13. The information processing method according to any one of 13. 前記最大サイズの変更に応じて、前記表示装置に表示される前記第1ガイドのサイズは変更され、前記最小サイズの変更に応じて、前記表示装置に表示される前記第2ガイドのサイズは変更されることを特徴とする請求項11乃至14のいずれか1項に記載の情報処理方法。 The size of the first guide displayed on the display device is changed according to the change of the maximum size, and the size of the second guide displayed on the display device is changed according to the change of the minimum size. The information processing method according to any one of claims 11 to 14, wherein the information processing method is performed. 前記第1ガイドおよび前記第2ガイドは矩形であることを特徴とする請求項11乃至15のいずれか1項に記載の情報処理方法。 The information processing method according to any one of claims 11 to 15, wherein the first guide and the second guide are rectangular. 前記画像に対して前記検出処理を実行する検出工程を更に有することを特徴とする請求項11乃至16のいずれか1項に記載の情報処理方法。 The information processing method according to any one of claims 11 to 16, further comprising a detection step of executing the detection process on the image. 前記表示制御工程において、前記設定工程において変更された前記最大サイズおよび前記最小サイズが所定の条件に該当する場合、前記表示装置に所定のメッセージを表示させることを特徴とする請求項11乃至17のいずれか1項に記載の情報処理方法。 The 11th to 17th claims, wherein in the display control step, when the maximum size and the minimum size changed in the setting step correspond to a predetermined condition, a predetermined message is displayed on the display device. The information processing method described in any one of the items. 前記表示制御工程において、前記設定工程において変更された後のサイズが所定の閾値を超えた場合、前記表示装置に前記所定のメッセージを表示させることを特徴とする請求項18に記載の情報処理方法。 The information processing method according to claim 18, wherein in the display control step, when the size after being changed in the setting step exceeds a predetermined threshold value, the display device is displayed with the predetermined message. .. 前記表示制御工程において、前記画像から前記検出処理により検出された物体であって、前記最大サイズと前記最小サイズの間のサイズの物体を示す情報を前記検出処理の結果として前記表示装置に表示させることを特徴とする請求項11乃至19のいずれか1項に記載の情報処理方法。 In the display control step, information indicating an object detected from the image by the detection process and having a size between the maximum size and the minimum size is displayed on the display device as a result of the detection process. The information processing method according to any one of claims 11 to 19, wherein the information processing method is characterized. コンピュータを、請求項1乃至10のいずれか1項に記載された情報処理装置の各手段
として機能させるためのプログラム。
A program for causing a computer to function as each means of the information processing apparatus according to any one of claims 1 to 10.
JP2020147189A 2019-03-12 2020-09-02 Information processing equipment, information processing methods, and programs Active JP6965419B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020147189A JP6965419B2 (en) 2019-03-12 2020-09-02 Information processing equipment, information processing methods, and programs

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2019045197A JP6759400B2 (en) 2019-03-12 2019-03-12 Information processing equipment, information processing methods, and programs
JP2020147189A JP6965419B2 (en) 2019-03-12 2020-09-02 Information processing equipment, information processing methods, and programs

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2019045197A Division JP6759400B2 (en) 2019-03-12 2019-03-12 Information processing equipment, information processing methods, and programs

Publications (2)

Publication Number Publication Date
JP2021013165A true JP2021013165A (en) 2021-02-04
JP6965419B2 JP6965419B2 (en) 2021-11-10

Family

ID=74226735

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020147189A Active JP6965419B2 (en) 2019-03-12 2020-09-02 Information processing equipment, information processing methods, and programs

Country Status (1)

Country Link
JP (1) JP6965419B2 (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008016898A (en) * 2006-06-30 2008-01-24 Sony Corp Monitoring apparatus, monitoring system and filter setting method
JP2012059196A (en) * 2010-09-13 2012-03-22 Canon Inc Display control device and display control method

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008016898A (en) * 2006-06-30 2008-01-24 Sony Corp Monitoring apparatus, monitoring system and filter setting method
JP2012059196A (en) * 2010-09-13 2012-03-22 Canon Inc Display control device and display control method

Also Published As

Publication number Publication date
JP6965419B2 (en) 2021-11-10

Similar Documents

Publication Publication Date Title
CN112217998B (en) Imaging device, information processing device, control method thereof, and storage medium
JP6181925B2 (en) Image processing apparatus, image processing apparatus control method, and program
JP5925068B2 (en) Video processing apparatus, video processing method, and program
JP6381313B2 (en) Control device, control method, and program
JP6700661B2 (en) Image processing apparatus, image processing method, and image processing system
US9514541B2 (en) Image processing apparatus and image processing method
JP6587489B2 (en) Image processing apparatus, image processing method, and image processing system
CN110199316B (en) Camera and image processing method of camera
JP7129843B2 (en) Image processing device, image processing device control method, system, and program
JP6991045B2 (en) Image processing device, control method of image processing device
JP2020107170A (en) Annotation device, learning model, image sensor, annotation method, and computer program
JP6965419B2 (en) Information processing equipment, information processing methods, and programs
JP5930808B2 (en) Image processing apparatus, image processing apparatus control method, and program
JP6759400B2 (en) Information processing equipment, information processing methods, and programs
JP6501945B2 (en) INFORMATION PROCESSING APPARATUS, INFORMATION PROCESSING METHOD, AND PROGRAM
JP6870514B2 (en) Watching support system and its control method
JP2006033188A (en) Supervisory apparatus and supervisory method
JP2005045383A (en) Object tracking apparatus
JP6787296B2 (en) Monitoring system
JP2019068339A (en) Image processing apparatus, image processing method, and program
JP2020071614A (en) Information processing apparatus, control method therefor, program, and recording medium
KR20180129712A (en) Method And Apparatus for Setting Region of Interest

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200902

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210727

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210921

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20211020

R151 Written notification of patent or utility model registration

Ref document number: 6965419

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151