JP7224832B2 - Information processing device, information processing method, and program - Google Patents

Information processing device, information processing method, and program Download PDF

Info

Publication number
JP7224832B2
JP7224832B2 JP2018186446A JP2018186446A JP7224832B2 JP 7224832 B2 JP7224832 B2 JP 7224832B2 JP 2018186446 A JP2018186446 A JP 2018186446A JP 2018186446 A JP2018186446 A JP 2018186446A JP 7224832 B2 JP7224832 B2 JP 7224832B2
Authority
JP
Japan
Prior art keywords
target object
person
geometry data
size
calculated
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018186446A
Other languages
Japanese (ja)
Other versions
JP2020056644A (en
Inventor
健太郎 長井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2018186446A priority Critical patent/JP7224832B2/en
Publication of JP2020056644A publication Critical patent/JP2020056644A/en
Application granted granted Critical
Publication of JP7224832B2 publication Critical patent/JP7224832B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、監視カメラ等により撮影された画像情報を処理する技術に関する。 The present invention relates to technology for processing image information captured by a surveillance camera or the like.

近年、ネットワークカメラ(以下、NWカメラとする。)の用途は、店舗内の監視・防犯はもちろんのこと、画像解析を活用したアプリケーションにまで広がりを見せている。またNWカメラにて撮影された画像は、ソフトウェアを用いた自動的な人体検出を行うことで、禁止区域への侵入検知や人数のカウント、人物の認識などにも利用されている。更に最近は、NWカメラにて撮影された画像から人物の位置を検出し、例えば店舗内における人物の動線を取得してマーケティングに生かすなど、ビジネス分野における応用も盛んになっている。 In recent years, network cameras (hereinafter referred to as NW cameras) are being used not only for in-store monitoring and crime prevention, but also for applications utilizing image analysis. Images captured by NW cameras are also used to detect intrusions into prohibited areas, count people, recognize people, etc. by automatically detecting human bodies using software. Furthermore, recently, applications in the business field have become popular, such as detecting the position of a person from an image taken by a NW camera, and obtaining, for example, the line of flow of a person in a store for marketing purposes.

ここで、カメラにて撮影された画像を解析して人物に関する情報を取得する手法として、特許文献1に開示されている手法がある。特許文献1には、カメラにて撮影された画像に写っている人物の下端(例えば足元)の位置を基に、カメラから人物までの距離や人物の身長等を算出する手法が開示されている。特許文献1の手法では、基準となる座標等のパラメータを予め用意しておき、撮影された画像に写っている人物の下端の位置(座標)と基準のパラメータとに基づいて、距離や身長等が算出される。 Here, there is a method disclosed in Japanese Unexamined Patent Application Publication No. 2002-100003 as a method of analyzing an image captured by a camera and acquiring information about a person. Patent Literature 1 discloses a method of calculating the distance from a camera to a person, the height of the person, etc., based on the position of the lower end (for example, feet) of the person in the image captured by the camera. . In the method of Patent Literature 1, parameters such as reference coordinates are prepared in advance, and distance, height, etc. are calculated based on the position (coordinates) of the lower end of the person in the photographed image and the reference parameters. is calculated.

特開2008-286638号公報JP 2008-286638 A

前述した特許文献1の手法において、基準の座標等のパラメータは、例えば一様に平坦な面上に置かれた基準物体の位置を示す基準座標や、カメラを無限遠に遠ざけた場合の基準物体の位置等を基に予め算出されている。一方で、NWカメラにて撮影される実際の環境は、階段やステップなどのように詳細な形状が定義し難い複数の面で構成されている場合や、屋外の坂道、丘陵地などのように平坦な平面ではない様々な面によって構成されている場合も多い。このような環境の場合、前述した特許文献1における一様に平坦な面に基づく座標等のパラメータでは対応することができず、対象物体の位置等を誤って取得してしまう虞がある。 In the method of Patent Document 1 described above, the parameters such as the reference coordinates are, for example, the reference coordinates indicating the position of the reference object placed on a uniformly flat surface, and the reference object when the camera is moved to infinity. is calculated in advance based on the position of On the other hand, the actual environment captured by the NW camera is composed of multiple surfaces whose detailed shape is difficult to define, such as stairs and steps, and outdoor slopes and hills. It is often composed of various surfaces that are not flat planes. In such an environment, parameters such as coordinates based on a uniformly flat surface in Patent Document 1 described above cannot be used, and there is a risk of erroneously acquiring the position of the target object.

そこで、本発明は、撮影された画像から人物等の対象物体について誤りのない位置を取得可能にすることを目的とする。 SUMMARY OF THE INVENTION Accordingly, an object of the present invention is to enable acquisition of an error-free position of a target object such as a person from a photographed image.

本発明の情報処理装置は、カメラにより撮影されるエリア内の床面上における三次元位置を特定可能なジオメトリデータを保持する保持手段と、前記カメラにて撮影された画像から記対象物体の画像内における位置を取得する検出手段と、前記画像内における前記対象物体の位置に対応した前記ジオメトリデータを取得し、当該ジオメトリデータを用いて、前記対象物体の大きさを算出する大きさ算出手段と、前記算出された対象物体の大きさと前記対象物体の既知の大きさとが異なる場合には、前記算出手段にて算出される前記対象物体の大きさが前記既知の大きさと合うように、前記ジオメトリデータにおける床面の位置を補正する補正手段と、前記画像内における前記対象物体の位置と前記ジオメトリデータとを基に前記対象物体の三次元位置を算出する位置算出手段と、を有することを特徴とする。 The information processing apparatus of the present invention comprises: holding means for holding geometry data capable of specifying a three-dimensional position on a floor within an area photographed by a camera; detection means for obtaining a position within an image; and size calculation means for obtaining the geometry data corresponding to the position of the target object within the image and using the geometry data to calculate the size of the target object. and when the calculated size of the target object is different from the known size of the target object, the above-described Correction means for correcting the position of the floor surface in the geometry data , and position calculation means for calculating the three-dimensional position of the target object based on the position of the target object in the image and the geometry data. Characterized by

本発明によれば、撮影された画像から人物等の対象物体について誤りのない位置を取得可能となる。 According to the present invention, it is possible to obtain an error-free position of a target object such as a person from a photographed image.

実施形態の監視システムの概略構成を示す図である。It is a figure showing a schematic structure of a monitoring system of an embodiment. 実施形態のアーキテクチャを説明する図である。It is a figure explaining architecture of an embodiment. 実施形態の処理フローチャートである。It is a processing flowchart of the embodiment. 画像内の人物の身長および位置の関係を説明する図である。It is a figure explaining the height of the person in an image, and the relationship of a position. 実際の人物と画像内の人物の縮尺比と位置の関係を説明する図である。It is a figure explaining the relationship of the scale ratio of an actual person, and the person in an image, and a position. 床面のジオメトリデータを修正する原理を説明する図である。It is a figure explaining the principle which corrects the geometry data of a floor. 二台のカメラにより確定領域と未確定の領域を決定する例の説明図である。It is explanatory drawing of the example which determines a fixed area|region and an unfixed area|region by two cameras. 遮蔽物により床面と足元が撮影されていない場合の説明に用いる図である。It is a figure used for description when the floor surface and the foot are not image|photographed by a shield.

以下、添付の図面を参照しながら、本発明の実施形態について説明する。なお、以下の実施形態において示す構成は一例に過ぎず、本発明は図示された構成に限定されるものではない。
図1は本実施形態の情報処理装置が適用される一例としての監視システムの概略構成を示した図である。カメラ101は、例えばネットワークカメラ(NWカメラ)であり、屋内や屋外等の所望の場所に設置され、所望の監視エリアを撮影する監視カメラであるとする。監視エリアには例えば床110があり、また監視エリア内では人などの対象物体103の出入りや移動等があるものとする。なお監視エリアの環境には、一様に平坦な床110だけでなく、例えば階段やエスカレータ、スロープ、坂道、丘陵地、凹凸面、曲面などの様々な環境が含まれる場合もある。そして、カメラ101は、例えば動画のように所定の時間間隔(フレーム周期)ごとの時間順に連続的に撮影した画像を取得し、それら取得した各画像のデータを、解析用のパーソナルコンピュータ(PC102とする。)に送信する。
Embodiments of the present invention will be described below with reference to the accompanying drawings. Note that the configurations shown in the following embodiments are merely examples, and the present invention is not limited to the illustrated configurations.
FIG. 1 is a diagram showing a schematic configuration of a monitoring system as an example to which an information processing apparatus of this embodiment is applied. The camera 101 is, for example, a network camera (NW camera), installed at a desired location such as indoors or outdoors, and is a monitoring camera that captures images of a desired monitoring area. It is assumed that the monitoring area includes, for example, a floor 110, and that a target object 103 such as a person enters, exits or moves within the monitoring area. The monitored area environment may include not only the uniformly flat floor 110 but also various environments such as stairs, escalators, slopes, slopes, hills, uneven surfaces, and curved surfaces. Then, the camera 101 acquires, for example, images such as moving images, which are continuously shot in chronological order at predetermined time intervals (frame cycles), and the data of each of the acquired images is transferred to a personal computer (PC 102) for analysis. ).

PC102は、カメラ101から送信されてきた画像を取得し、解析プログラムを実行することにより画像解析を行う。なお、PC102とプログラムの代わりに、例えばASICやFPGAなどのプログラマブルな集積回路に本実施形態に係るアルゴリズムを記録させておき、これらにより画像の解析等が行われてもよい。 The PC 102 acquires the image transmitted from the camera 101 and performs image analysis by executing an analysis program. Instead of the PC 102 and the program, for example, an algorithm according to the present embodiment may be recorded in a programmable integrated circuit such as an ASIC or FPGA, and image analysis and the like may be performed using these.

図2は、図1の監視システムにおけるアーキテクチャを概略的に表した機能ブロック図である。本実施形態の場合、図2の各機能ブロックは、PC102において解析プログラムの実行により実現されるものとするが、カメラ101に含まれていてもよいし、一部がカメラ101に含まれ、残りがPC102に含まれていてもよい。 FIG. 2 is a functional block diagram schematically representing the architecture of the monitoring system of FIG. 1; In the case of this embodiment, each functional block of FIG. may be included in the PC 102.

図2において、検出追跡部210は、カメラ101にて撮影された画像の解析を行い、対象物体103を検出し、その検出した対象物体103を追跡するような、物体検出と物体追跡処理とを実行する。本実施形態の場合、対象物体103には人を想定しているため、検出追跡部210は人物の検出およびその検出した人物を追跡する処理を実行する。また検出追跡部210は、人物を個別に識別する公知の人物認識システムを含んでいてもよい。検出追跡部210にて検出された人物の情報は、後述する身長計算部221および位置計算部222に送られる。 In FIG. 2, a detection and tracking unit 210 analyzes an image captured by the camera 101, detects a target object 103, and performs object detection and object tracking processing such as tracking the detected target object 103. Execute. In this embodiment, the target object 103 is assumed to be a person, so the detection/tracking unit 210 executes processing for detecting a person and tracking the detected person. The detection tracker 210 may also include known person recognition systems that individually identify persons. Information about the person detected by the detection and tracking unit 210 is sent to a height calculation unit 221 and a position calculation unit 222, which will be described later.

データベース250は、カメラの監視エリアを含む実際(実世界)の三次元空間内の位置を特定可能なデータを保持している。本実施形態では三次元空間内の位置を特定可能な所定のデータとしてジオメトリデータを保持する例を挙げており、ジオメトリデータを用いた演算等により三次元空間内における座標位置を特定可能となる。なお、三次元空間内の位置を特定可能なデータは、ジオメトリデータに限定されるものではない。データベース250に保持されているジオメトリデータは、事前の測定あるいは計算により生成されていてもよいし、デフォルトとして用意されている複数のデータの中から選択されたデータであってもよい。なお、以下の説明において、実際(実世界)の三次元空間内の位置を、三次元位置と呼ぶことにする。 The database 250 holds data that can identify a position in the actual (real world) three-dimensional space including the surveillance area of the camera. In this embodiment, an example is given in which geometry data is held as predetermined data that can specify a position in a three-dimensional space, and it is possible to specify a coordinate position in the three-dimensional space by calculation using the geometry data. Data that can specify a position in a three-dimensional space is not limited to geometry data. The geometry data held in the database 250 may be generated by previous measurements or calculations, or may be data selected from a plurality of data prepared as defaults. In the following description, a position in the actual (real world) three-dimensional space will be referred to as a three-dimensional position.

ここで、カメラの監視エリアの環境としては、前述したように、一様に平坦な床面だけでなく、階段やエスカレータ、ステップ、スロープ、坂道、丘陵地、凹凸面、曲面などの様々な環境が含まれる場合がある。これら階段やエスカレータ、ステップなどのように詳細な形状が定義し難い複数の面で構成された環境、スロープ、坂道、丘陵地、凹凸面、曲面などのように一様な平面ではない面で構成された環境に対しては、ジオメトリデータの定義が難しい。 Here, as mentioned above, the environment of the surveillance area of the camera is not limited to a uniformly flat floor, but various environments such as stairs, escalators, steps, slopes, slopes, hills, uneven surfaces, curved surfaces, etc. may be included. Environments composed of multiple surfaces, such as stairs, escalators, and steps, whose detailed shapes are difficult to define, and surfaces that are not uniform, such as slopes, slopes, hills, uneven surfaces, and curved surfaces. Geometry data is difficult to define for a defined environment.

このため、本実施形態の場合、データベース250には、監視エリア内の平坦な床面に対応したジオメトリデータのみが保持されており、階段や坂道等の定義が難しい領域のジオメトリデータは未定になされているとする。すなわち、監視エリア内の床面のジオメトリデータは、一様に平坦な平面の床面(床面は地面等も含むものとする)を前提としたデータとなされており、事前に測定あるいは計算等されてデータベース250に格納されているとする。なお、平面の床面のジオメトリデータは、一例として、予め基準となる指標を用いたキャリブレーションを実施することで計測および算出することができる。例えば一定の長さの棒やキャリブレーション用チャート、予め身長が分かっている人物などを、基準となる指標とし、それらを平坦な床面に配置した上でキャリブレーションを行って計測することで、床面のジオメトリデータを取得することができる。もちろんジオメトリデータの計測と算出方法はこの例には限定されず、他の手法が用いられてもよい。
さらに本実施形態の場合、データベース250に格納されたジオメトリデータは、後述するように、更新部240による変更および更新が可能となされている。
For this reason, in the case of this embodiment, the database 250 holds only the geometry data corresponding to the flat floor surface in the monitoring area, and the geometry data of difficult-to-define areas such as stairs and slopes is left undetermined. Suppose you are That is, the geometry data of the floor surface in the monitoring area is assumed to be a uniformly flat floor surface (the floor surface includes the ground surface, etc.), and is measured or calculated in advance. Suppose that it is stored in the database 250 . Geometry data of a flat floor surface can be measured and calculated, for example, by performing calibration in advance using a reference index. For example, a bar of a certain length, a chart for calibration, or a person whose height is known in advance can be used as a reference index. Geometry data of the floor surface can be obtained. Of course, the method of measuring and calculating geometry data is not limited to this example, and other techniques may be used.
Furthermore, in the case of this embodiment, the geometry data stored in the database 250 can be changed and updated by the updating unit 240, as will be described later.

また本実施形態の場合、データベース250には、対象物体に関する情報として、例えば人物の特徴量を表す情報や、人物における特徴点間の距離の情報、人物認識に用いる情報などを格納しておくことも可能となされている。本実施形態の場合、人物の特徴量を表す情報としては、その人物の身長を示す情報を挙げることができる。人物の特徴点としては、例えば人物の頭頂部、腰部、肩部、側頭部、足元部など各部位の特徴点を挙げることができ、また、特徴点間の距離は少なくとも二つ以上の各特徴点間の距離とする。これらの人物(対象物体)に関する情報は、予め計測等されてデータベース250に格納されてもよいし、画像解析により取得されてデータベース250に格納されてもよい。また、人物に関する情報は、データベース250ではなく、検出追跡部210や身長計算部221が保持していてもよい。 In the case of this embodiment, the database 250 stores, for example, information representing a feature amount of a person, information on the distance between feature points of a person, information used for person recognition, etc., as information on the target object. is also made possible. In the case of this embodiment, the information indicating the person's height can be mentioned as the information indicating the feature amount of the person. Characteristic points of a person include, for example, characteristic points of each part of the person such as the top of the head, the waist, the shoulders, the sides of the head, and the feet. Let it be the distance between the feature points. Information about these persons (target objects) may be measured in advance and stored in the database 250 , or may be acquired by image analysis and stored in the database 250 . Also, the information about the person may be held by the detection/tracking unit 210 or the height calculation unit 221 instead of the database 250 .

身長計算部221は、検出追跡部210が検出および追跡している対象物体103の画像内における位置と、データベース250から取得したジオメトリデータとを基に、画像内における対象物体103の大きさ算出処理を実行する。本実施形態の場合、対象物体103は人物であり、身長計算部221は、画像内における人物の頭頂部位置と、足元の位置に応じてデータベース250から取得したジオメトリデータとを基に、画像内の人物の身長を算出する。身長計算部221における処理の詳細については後述する。 The height calculator 221 calculates the size of the target object 103 in the image based on the position in the image of the target object 103 detected and tracked by the detection and tracking unit 210 and the geometry data obtained from the database 250. to run. In the case of this embodiment, the target object 103 is a person, and the height calculation unit 221 calculates the height in the image based on the top of the head position of the person in the image and the geometry data acquired from the database 250 according to the position of the feet. to calculate the height of a person. The details of the processing in the height calculator 221 will be described later.

位置計算部222は、同様に画像内で検出および追跡されている対象物体103の画像内における位置と、データベース250から取得したジオメトリデータとを基に、実際の三次元空間内における対象物体103の位置を算出する位置算出処理を実行する。本実施形態の場合、対象物体103は人物であり、位置計算部222は、画像内における人物の足元の位置と、その足元位置に応じてデータベース250から取得したジオメトリデータとを基に、実際の人物の三次元空間内における位置を算出する。位置計算部222における処理の詳細については後述する。 The position calculation unit 222 calculates the position of the target object 103 in the actual three-dimensional space based on the position in the image of the target object 103 that is similarly detected and tracked in the image and the geometry data acquired from the database 250. A position calculation process for calculating a position is executed. In the case of this embodiment, the target object 103 is a person, and the position calculation unit 222 calculates the actual position based on the position of the person's feet in the image and the geometry data acquired from the database 250 according to the feet position. Calculate the position of the person in the three-dimensional space. Details of the processing in the position calculation unit 222 will be described later.

このように、位置計算部222は、画像内における人物の足元位置にあたるジオメトリデータを用いて人物の三次元位置を算出するが、この際に用いられるジオメトリデータは、前述したように平坦な床面を前提としたデータとなされている。一方で、監視エリアの環境は、前述したように階段やエスカレータ、ステップ、スロープ、坂道、丘陵地、凹凸面、曲面などの様々な環境が含まれる場合がある。すなわち、三次元空間内における実際の人物の位置は、ジオメトリデータが定義されている平坦な床面上だけでなく、ジオメトリデータが未定義となっている階段上等であることも有り得る。このため、実際の人物の位置が階段上等のジオメトリデータ未定義の位置であった場合、平坦な床面を前提としたジオメトリデータを用いて算出した人物の三次元位置は、実際の人物の三次元位置とは異なった位置になってしまう。 In this way, the position calculation unit 222 calculates the three-dimensional position of the person using the geometry data corresponding to the foot position of the person in the image. The data are based on the premise that On the other hand, the environment of the monitoring area may include various environments such as stairs, escalators, steps, slopes, slopes, hills, uneven surfaces, and curved surfaces, as described above. That is, the actual position of a person in a three-dimensional space can be not only on a flat floor surface with geometry data defined, but also on stairs with geometry data undefined. For this reason, if the actual position of a person is a position where geometry data is not defined, such as on a staircase, the 3D position of the person calculated using geometry data assuming a flat floor will not be the position of the actual person. The position will be different from the three-dimensional position.

そこで本実施形態では、判定部230において、データベース250から取得されたジオメトリデータが、対象物体103の三次元位置の算出に用いるのに適切なデータであるかどうかを判定する信頼性判定を行う。信頼性判定において、判定部230は、画像内の対象物体103についてジオメトリデータを基に算出した大きさと、予め登録された既知の大きさ、もしくは現在の画像より以前の画像内の該当する対象物体103から算出された既知の大きさとを、比較する。そして、判定部230は、既知の大きさに対して、ジオメトリデータを基に算出した対象物体103の大きさが異なる場合、すなわち例えば対象物体の大きさの不一致度が所定の閾値を超える場合、そのジオメトリデータは信頼性が低いと判定する。逆に、それら大きさの不一致度が所定の閾値以下である場合、判定部230は、そのジオメトリデータは信頼性が高いと判定する。本実施形態では対象物体103が人物であるため、信頼性判定において、判定部230は、既知の身長と、画像内の人物についてジオメトリデータから算出した身長とが異なる場合に、そのジオメトリデータの信頼性が低いと判定する。そして、判定部230は、ジオメトリデータの信頼性が低いと判定した場合にはその旨を更新部240に通知する。 Therefore, in this embodiment, the determination unit 230 performs reliability determination to determine whether or not the geometry data acquired from the database 250 is suitable data for use in calculating the three-dimensional position of the target object 103 . In the reliability determination, the determination unit 230 determines the size of the target object 103 in the image calculated based on the geometry data and the known size registered in advance, or the corresponding target object in the image before the current image. 103 is compared with known magnitudes. Then, when the size of the target object 103 calculated based on the geometry data is different from the known size, that is, when the degree of discrepancy in size of the target object exceeds a predetermined threshold, for example, the determining unit 230 The geometry data is determined to be unreliable. Conversely, if the degree of mismatch between these sizes is equal to or less than the predetermined threshold, the determination unit 230 determines that the geometry data has high reliability. In this embodiment, since the target object 103 is a person, in the reliability determination, if the known height and the height calculated from the geometry data of the person in the image are different, the determination unit 230 determines the reliability of the geometry data. judged to be of low quality. Then, when determining that the reliability of the geometry data is low, the determination unit 230 notifies the updating unit 240 to that effect.

更新部240は、信頼性が低いと判定されたジオメトリデータに対して補正処理(修正処理)を行い、ジオメトリデータを更新する。例えば、更新部240は、信頼性が低いと判定されたジオメトリデータを、画像内の対象物体103の大きさが既知の大きさと合うように、つまり画像内の人物の身長が既知の身長と一致するようにジオメトリデータを補正して更新する。すなわち本実施形態において、算出された身長が既知の身長よりも大きい場合、更新部240は、ジオメトリデータにおける床面の位置を、基準面の床面の位置よりも、カメラの光軸方向の近い位置に移動させるように調整する。逆に例えば、算出された身長が既知の身長よりも小さい場合、更新部240は、ジオメトリデータにおける床面の位置を、基準面の床面の位置よりも、カメラの光軸方向の遠い位置に移動させるように調整する。このようなジオメトリデータにおける床面の位置を移動させる調整は、算出される身長が既知の身長と一致するようになるまで行われる。 The update unit 240 performs correction processing (correction processing) on geometry data determined to have low reliability, and updates the geometry data. For example, the updating unit 240 updates the geometry data determined to be unreliable so that the size of the target object 103 in the image matches the known size, that is, the height of the person in the image matches the known height. Correct and update the geometry data so that That is, in this embodiment, when the calculated height is greater than the known height, the updating unit 240 changes the position of the floor surface in the geometry data to Adjust to move to position. Conversely, for example, if the calculated height is smaller than the known height, the updating unit 240 changes the position of the floor surface in the geometry data to a position farther in the optical axis direction of the camera than the position of the floor surface in the reference plane. Adjust to move. Adjustments such as moving the position of the floor surface in the geometry data are performed until the calculated height matches the known height.

これにより、本実施形態において、身長計算部221では、画像から検出および追跡されている人物の身長を計算する際、信頼性が高いジオメトリデータを用いた身長算出の処理が行われることになる。
同様に、位置計算部222では、画像から検出および追跡されている人物の三次元位置を計算する際に、信頼性が高いジオメトリデータを用いた人物の三次元位置の算出の処理が行われることになる。
As a result, in the present embodiment, when calculating the height of a person detected and tracked from an image, the height calculation unit 221 performs height calculation processing using highly reliable geometry data.
Similarly, when the position calculation unit 222 calculates the three-dimensional position of a person being detected and tracked from an image, the process of calculating the three-dimensional position of the person using highly reliable geometry data is performed. become.

データ処理部260は、前述のようにして位置計算部222にて算出された人物の三次元位置のデータを基に、例えば監視エリア内における人物の位置をPC102のモニタ装置等の画面上に表示するための表示画像を生成する処理を行う。
またデータ処理部260は、位置計算部222にて複数の人物の三次元位置が取得された場合、各人物の三次元位置を基に、それら複数の人物をグループ分けして、人物ごとにグループ属性情報を付加する処理を行うこともできる。データ処理部260は、複数の人物をグループ分けした場合、そのグループ分けの結果を表す表示画像を生成して、PC102のモニタ装置等の画面上に表示させることもできる。
また、データ処理部260は、位置計算部222にて複数の人物の三次元位置が取得され、それら複数の人物の三次元位置から複数の人物の移動時に交差が生じたかどうかを判断する処理も行うことができる。そして、データ処理部260は、複数の人物の交差が生じた際の各人物の三次元位置を基に、検出追跡部210における人物追跡が継続されるようにする処理を行うこともできる。
The data processing unit 260 displays the position of the person in the monitoring area on the screen of the monitor device of the PC 102, for example, based on the data of the three-dimensional position of the person calculated by the position calculation unit 222 as described above. Perform processing to generate a display image for
In addition, when the position calculation unit 222 acquires the three-dimensional positions of a plurality of persons, the data processing unit 260 divides the plurality of persons into groups based on the three-dimensional positions of the persons, and divides the persons into groups. A process of adding attribute information can also be performed. When grouping a plurality of persons, the data processing unit 260 can generate a display image representing the result of the grouping and display it on a screen such as a monitor device of the PC 102 .
The data processing unit 260 also performs a process of obtaining the three-dimensional positions of a plurality of persons by the position calculation unit 222, and determining from the three-dimensional positions of the plurality of persons whether an intersection has occurred during movement of the plurality of persons. It can be carried out. The data processing unit 260 can also perform processing for continuing person tracking in the detection and tracking unit 210 based on the three-dimensional position of each person when a plurality of persons intersect.

図3は、本実施形態の図2に示した機能ブロックにおける処理の流れを示したフローチャートである。以下の説明では、図3のフローチャートにおける各ステップS310~ステップS352をS310~S352と略記する。S310からS351またはS352までの処理は、カメラ101が所定の時間間隔(フレーム周期)ごとに連続的に撮影した画像ごとに行われる処理である。 FIG. 3 is a flow chart showing the flow of processing in the functional blocks shown in FIG. 2 of this embodiment. In the following description, steps S310 to S352 in the flowchart of FIG. 3 are abbreviated as S310 to S352. The processing from S310 to S351 or S352 is performed for each image continuously captured by the camera 101 at predetermined time intervals (frame cycle).

先ずS310において、検出追跡部210は、撮影された画像を用いて人物の検出および追跡(追尾)を行う。検出追跡部210では、前述したようにカメラ101が所定の時間間隔(フレーム周期)ごとに連続的に撮影した画像が入力されるため、例えば人物の頭頂部と足元の位置はフレーム周期ごとに逐次更新されることになる。 First, in S310, the detection and tracking unit 210 detects and tracks (tracks) a person using the captured image. As described above, the detection and tracking unit 210 receives images continuously captured by the camera 101 at predetermined time intervals (frame cycles). will be updated.

次にS320において、身長計算部221は、検出追跡部210にて検出および追跡されている人物の足元の位置にあたる、床面のジオメトリデータをデータベース250から取得する。
さらにS330において、身長計算部221は、検出追跡部210にて検出および追跡されている人物の頭頂部から、S320で取得したジオメトリデータにおける足元位置までの距離を、人物の身長として算出する。
Next, in S<b>320 , the height calculation unit 221 acquires from the database 250 floor surface geometry data corresponding to the feet of the person detected and tracked by the detection and tracking unit 210 .
Further, in S330, the height calculation unit 221 calculates the distance from the top of the head of the person detected and tracked by the detection and tracking unit 210 to the foot position in the geometry data acquired in S320 as the height of the person.

ここで、検出追跡部210にて検出および追跡されている人物の身長は、その人物の追跡が行われている期間内において急に変化することはないと仮定できる。そして仮に、この人物の身長が、現在の画像より前の画像で算出された既知の身長から大きく変化している場合、それは人物の身長が変化したのではなく、身長算出に用いたジオメトリデータの信頼性が低いためであると考えられる。また例えば、人物認識に関する情報として人物の身長が予め登録されている場合において、人物認識で特定した人物についてジオメトリデータを基に算出した身長が、登録済みの既知の身長と異なる場合にも、そのジオメトリデータの信頼性は低いと考えられる。 Here, it can be assumed that the height of the person detected and tracked by the detection and tracking unit 210 does not suddenly change during the period in which the person is being tracked. And if this person's height has changed significantly from the known height calculated in the image before the current image, it is not the person's height that has changed, but the geometry data used to calculate the height. This is considered to be due to the low reliability. Further, for example, when the height of a person is registered in advance as information related to person recognition, if the height calculated based on the geometry data of the person identified by the person recognition is different from the registered known height, the Reliability of geometry data is considered to be low.

このため、次のS340において、判定部230は、検出追跡部210にて検出および追跡されている人物が直立姿勢であるにもかかわらず、その人物の身長に変化があるか否か、つまり既知の身長と異なっているか否かを判定する。
そして、S340において身長に変化がない(既知の身長と略々一致している)と判定された場合、S305において、位置計算部222は、S320で取得された足元位置を人物の三次元位置として確定する。
Therefore, in the next step S340, the determination unit 230 determines whether or not the height of the person detected and tracked by the detection and tracking unit 210 changes even though the person is in an upright posture. determines whether it is different from the height of
Then, if it is determined in S340 that there is no change in the height (the height substantially matches the known height), in S305 the position calculation unit 222 uses the foot position acquired in S320 as the three-dimensional position of the person. Determine.

一方、S340において身長に変化がある(既知の身長とは異なっている)と判定された場合、S351において、更新部240は、データベース250の床面のジオメトリデータを、人物の実際の身長に合うように補正して更新する。
そして、位置計算部222は、補正後(更新後)のジオメトリデータを用いて、画像内の人物の三次元位置を再計算する。
これらS352またはS351の処理の後、図3のフローチャートの処理は終了し、次のフレーム周期の画像について同様の処理が行われる。
On the other hand, if it is determined in S340 that there is a change in height (is different from the known height), in S351 the updating unit 240 adjusts the floor geometry data in the database 250 to match the actual height of the person. Correct and update as follows.
Then, the position calculation unit 222 recalculates the three-dimensional position of the person in the image using the corrected (updated) geometry data.
After the processing of S352 or S351, the processing of the flowchart in FIG. 3 ends, and the same processing is performed for the image of the next frame period.

なお、本実施形態では、判定部230においてジオメトリデータに関する信頼性をフレーム周期ごとに判定しており、その判定結果である信頼性情報はジオメトリデータに関連付けてデータベース250に格納されてもよい。また、フレーム周期ごとに判定されたジオメトリデータの信頼性情報は、ジオメトリデータとは別に保持されてもよく、例えば統計的な処理に用いられてもよい。 In this embodiment, the determination unit 230 determines the reliability of the geometry data for each frame period, and the reliability information that is the determination result may be stored in the database 250 in association with the geometry data. Also, the geometry data reliability information determined for each frame period may be held separately from the geometry data, and may be used for statistical processing, for example.

また例えば、監視エリア内の一定の領域におけるジオメトリデータの信頼性が保証されているような場合、判定部230は、その一定の領域についてジオメトリデータの信頼性判定処理を行わないようにしてもよい。また、ジオメトリデータの信頼性が保証されている領域については、更新部240における更新処理の対象外(更新処理の対象としない)にしてもよい。ジオメトリデータの信頼性が保証されている領域は、例えば事前に床面のジオメトリが正確に計測されてジオメトリデータが確定している領域や、複数のカメラにて撮影される重複領域であって三角測量方式等により正確な位置計測が可能な領域などである。複数のカメラにて撮影される重複領域がある場合、それら各カメラの位置、カメラの撮影方向、画角が既知であれば、それら各カメラの視野において共有される領域内での位置関係は、エピポーラ幾何を利用して計算可能である。その他にも、カメラ以外に測距用センサ(デプスセンサ)を設け、その測距用センサを用いて測定した距離情報と、カメラにて撮影された画像の情報とを合わせて用いることで、ジオメトリの信頼性が保証されている領域を決定してもよい。 Further, for example, when the reliability of the geometry data in a certain area within the monitoring area is guaranteed, the determination unit 230 may not perform the reliability determination processing of the geometry data for that certain area. . Also, an area for which the reliability of geometry data is guaranteed may be excluded from the updating process in the updating unit 240 (not subject to the updating process). Areas where the reliability of the geometry data is guaranteed include, for example, areas where the geometry of the floor surface has been accurately measured in advance and the geometry data has been determined, and overlapping areas photographed by multiple cameras, which are triangles. It is an area where accurate position measurement is possible by a survey method or the like. When there is an overlapping area photographed by a plurality of cameras, if the position of each camera, the photographing direction of the camera, and the angle of view are known, the positional relationship within the area shared in the field of view of each camera is It can be calculated using epipolar geometry. In addition to the camera, a distance measurement sensor (depth sensor) is provided, and by using the distance information measured using the distance measurement sensor together with the information of the image taken by the camera, geometry can be obtained. A region whose reliability is guaranteed may be determined.

以下、本実施形態における前述した人物の身長計算および三次元位置計算について、さらに具体的な例を挙げて説明する。
図4は、撮影された画像内の人物の身長および位置の関係説明に用いる図であり、本実施形態の監視システムにおけるカメラ400と、対象物体である人物421,422と、床面411および床面412の配置例が示されている。
Hereinafter, the height calculation and the three-dimensional position calculation of the person described above in this embodiment will be described with more specific examples.
FIG. 4 is a diagram used to explain the relationship between the height and position of a person in a photographed image. An example arrangement of surface 412 is shown.

図4(A)はそれらカメラ、人物、床面等を横方向(床面411に対して水平な方向)から見た様子を示しており、図4(B)はカメラ400の視野内(つまり撮影されている範囲)を表している。図4(A)と図4(B)に示されているように、カメラ400により撮影される範囲内には、例えば水平な平面の床面411と、その床面411とは高さが異なる床面412とが存在しているとする。床面411と床面412とを有する環境は例えば屋外や屋内の両方において存在する可能性があり、床面411に対して高さが異なる床面412の実際の例としては、階段やエスカレータ、スロープ、坂道、丘陵地、凹凸面、曲面などが想定される。また、図4の例の場合、床面411上には人物421が立っており、床面412上には人物422が立っているとする。 FIG. 4A shows the camera, the person, the floor, etc. viewed from the lateral direction (horizontal to the floor 411), and FIG. The range being photographed) is displayed. As shown in FIGS. 4A and 4B, the range photographed by the camera 400 includes, for example, a horizontal plane floor surface 411 and a floor surface 411 whose height is different from that of the floor surface 411 . Assume that a floor surface 412 exists. An environment having a floor surface 411 and a floor surface 412 may exist, for example, both outdoors and indoors. Slopes, slopes, hilly areas, uneven surfaces, curved surfaces, etc. are assumed. In the example of FIG. 4, it is assumed that a person 421 stands on the floor 411 and a person 422 stands on the floor 412 .

図4(C)は、図4(B)に示したようにカメラ400の画像から検出される人物の位置を、例えば水平平面の床面411に対して真上側の方向から投影した解析結果を表した図である。図4(C)に示す真上方向から投影する解析では、実際の三次元空間内の縦、横、高さ方向の三次元座標の情報が取得される。なお、三次元座標のうち高さ方向の座標は図の奥行き方向にあたるが、図4(C)では簡略化のために高さ方向についての図示を省略しており、真上から見た人物421,422の縦、横方向の三次元位置の関係のみを表している。 FIG. 4C shows an analysis result obtained by projecting the position of a person detected from the image of the camera 400 as shown in FIG. It is the figure which represented. In the analysis of projection from directly above shown in FIG. 4(C), information on three-dimensional coordinates in the vertical, horizontal, and height directions in the actual three-dimensional space is acquired. Of the three-dimensional coordinates, the coordinates in the height direction correspond to the depth direction of the figure, but in FIG. , 422 in the vertical and horizontal directions.

ここで、人物の身長および三次元位置の計算を行う場合には、まず基準面が設定される。図4の例の場合は、例えば水平平面である床面411を基準面として選択する。そして、事前の測定等により、カメラ400の中心位置と基準面である床面411との間の位置および方向の関係が既知であるとする。また、カメラ400における撮像素子の解像度、カメラ400の画角、カメラ400の向き(つまり光軸の方向)についても既知であるとする。この場合、カメラ400により撮影された画像内の各画素の位置と、カメラ400の画角内の実際の三次元位置(三次元座標)とは、一意的に対応している。このため、カメラ400により撮影された画像内に写っている床面411上の各位置(画素位置)が、実際の三次元空間内の床面411上のどの三次元位置(三次元座標)に対応しているのかは、一意的に決定することができる。なお、床面411上の三次元位置は都度計算して求めてもよいし、カメラ400の各画素の位置と三次元位置との関係を表す対応テーブルをデータベース250に用意しておき、その対応テーブルを用いて床面の三次元位置を取得するようにしてもよい。図4の例の場合、対応テーブルを用いることで、例えば図4(B)における画像内の床面411上の人物421の画素位置から、図4(C)における床面411上の人物421の三次元位置を取得することができる。 Here, when calculating the height and three-dimensional position of a person, first, a reference plane is set. In the example of FIG. 4, for example, the floor surface 411, which is a horizontal plane, is selected as the reference plane. It is assumed that the relationship between the position and direction between the center position of the camera 400 and the floor surface 411, which is the reference plane, is known by prior measurement or the like. It is also assumed that the resolution of the imaging element in camera 400, the angle of view of camera 400, and the orientation of camera 400 (that is, the direction of the optical axis) are known. In this case, the position of each pixel in the image captured by camera 400 and the actual three-dimensional position (three-dimensional coordinates) within the angle of view of camera 400 uniquely correspond. Therefore, each position (pixel position) on the floor surface 411 captured in the image captured by the camera 400 corresponds to any three-dimensional position (three-dimensional coordinates) on the floor surface 411 in the actual three-dimensional space. Correspondence can be uniquely determined. The three-dimensional position on the floor surface 411 may be calculated each time, or a correspondence table representing the relationship between the position of each pixel of the camera 400 and the three-dimensional position may be prepared in the database 250 and the correspondence A table may be used to acquire the three-dimensional position of the floor surface. In the example of FIG. 4, by using the correspondence table, for example, from the pixel position of the person 421 on the floor 411 in the image in FIG. A three-dimensional position can be obtained.

一方、図4の例において、基準面(床面411)とは高さが異なる床面412とカメラ400との位置および方向の関係、さらに床面411と床面412との境界部分413およびその境界部分413とカメラ400との位置および方向の関係は未知であるとする。なおこのような場合、基準面とは高さが異なる床面412の領域については、仮に、基準面の床面411から延長された床面として登録しておくことは可能である。この場合、床面412のジオメトリデータは、基準面である床面412のジオメトリを延長したデータとして、データベース250に格納しておくことも可能である。 On the other hand, in the example of FIG. 4, the relationship between the position and direction of the camera 400 and the floor surface 412 having a different height from the reference surface (floor surface 411), the boundary portion 413 between the floor surface 411 and the floor surface 412, and its Assume that the relationship between the position and direction of the boundary portion 413 and the camera 400 is unknown. In such a case, it is possible to provisionally register an area of the floor surface 412 having a height different from that of the reference surface as a floor surface extended from the floor surface 411 of the reference surface. In this case, the geometry data of the floor surface 412 can be stored in the database 250 as data obtained by extending the geometry of the floor surface 412, which is the reference surface.

本実施形態の監視システムでは、以上のような条件の下、カメラ101によりフレーム周期ごとの時間順で連続的に撮影された画像を用いて人物検出および追跡処理を実行する。
図4の例では、検出追跡部210により、人物421と人物422が画像から検知されて追跡されているとする。すなわち、検出追跡部210は、図3のフローチャートのS310において、それら人物のそれぞれ頭頂部の位置と足元の位置に相当する画素位置を特定する。なおこの時、それら人物の姿勢を検出し、人物の姿勢が直立姿勢であることを確認すれば、後述する身長算出の正確性が増すことができるためなおよい。
In the monitoring system of this embodiment, under the conditions described above, human detection and tracking processing is performed using images continuously captured by the camera 101 in time order for each frame period.
In the example of FIG. 4, it is assumed that the detection and tracking unit 210 detects and tracks a person 421 and a person 422 from the image. That is, in S310 of the flowchart of FIG. 3, the detection/tracking unit 210 identifies the pixel positions corresponding to the positions of the top of the head and the positions of the feet of each person. At this time, if the posture of the person is detected and it is confirmed that the posture of the person is an upright posture, it is possible to increase the accuracy of height calculation, which will be described later.

次に、前述したS320において、身長計算部221は、その検出された各人物の足元の位置に対応したジオメトリデータを取得し、さらに前述したS330において、それら人物の身長を算出する処理を行う。 Next, in S320 described above, the height calculation unit 221 acquires the geometry data corresponding to the detected foot positions of each person, and in S330 described above, calculates the heights of those persons.

図5は、カメラにより実際の人物505が撮影されている際の、カメラの中心位置502と実際の人物505との間の位置および方向の関係、および、カメラで撮影された画像503内に写っている人物501の一例を示した図である。
図5(A)は、カメラによりフレーム周期ごとに撮影された画像のなかの一枚の画像503の一例を示している。また図5(B)は、カメラの中心位置502と実際の人物505との間の位置および方向の関係、および、カメラの仮想的な画像面(503)に対して人物505が投影された人物501を示している。また図5(C)は、カメラの中心位置502と実際の人物501との間の位置および方向と、人物の身長計算の際に用いられるジオメトリとの関係を表した図である。
FIG. 5 illustrates the position and orientation relationship between the camera center position 502 and the real person 505 when the real person 505 is being photographed by the camera, and what is shown in the image 503 taken by the camera. 5 is a diagram showing an example of a person 501 who is
FIG. 5A shows an example of one image 503 among the images captured by the camera in each frame period. FIG. 5B also shows the relationship between the position and direction between the center position 502 of the camera and the real person 505, and the person 505 projected onto the virtual image plane (503) of the camera. 501 is shown. FIG. 5C is a diagram showing the relationship between the position and direction between the center position 502 of the camera and the actual person 501 and the geometry used when calculating the height of the person.

前述の身長計算部221は、図5(B)に示したカメラの中心位置502と実際の人物505との間の位置および方向の関係、および図5(A)に示した画像503内における人物501の各画素の位置等を基に、実際の人物505の身長を計算する。 The height calculator 221 described above calculates the relationship between the position and direction between the camera center position 502 and the actual person 505 shown in FIG. 5B and the person in the image 503 shown in FIG. The height of the actual person 505 is calculated based on the position of each pixel of 501 .

一般的に、監視システム等で用いられるカメラは、上から見下ろす方向で人物等を撮影するように設置されることが多い。このため、図5(A)および図5(B)に示すように、撮影された画像503内に写っている人物501の形は、カメラの仮想的な画像面(503)に対して実際の人物505が斜めに投影されたような形になる。したがって、画像503内における人物501の縦横比は、実際の人物505の縦横比とは異なっている。また画像503内における人物501の縦横比は、その人物がカメラの画角内のどの位置、つまりカメラの仮想的な画像面(503)上で光軸504からどの程度はなれた位置に存在しているかによって異なる。 2. Description of the Related Art In general, cameras used in monitoring systems and the like are often installed so as to photograph people and the like in a downward direction. Therefore, as shown in FIGS. 5(A) and 5(B), the shape of the person 501 captured in the captured image 503 is different from the actual image plane (503) of the camera. The shape is such that the person 505 is obliquely projected. Therefore, the aspect ratio of person 501 in image 503 is different from the aspect ratio of actual person 505 . Also, the aspect ratio of the person 501 in the image 503 is the position within the field angle of the camera, that is, the distance from the optical axis 504 on the virtual image plane (503) of the camera. It depends on where you are.

これらのことから実際の人物505の身長を計算する際には、カメラの画角と、カメラの中心位置502から実際の人物505の足元位置までの距離と、カメラの光軸504の方向と、実世界の垂直方向(重力方向)とを考慮する必要がある。身長計算部221は、それらを考慮した上で、カメラの縦横解像度(撮像素子の縦と横の有効画素数)と、画像503内の人物501の足元位置から頭頂部までの長さ(画素数)とから、実際の人物505の身長を算出する。 From these, when calculating the height of the actual person 505, the angle of view of the camera, the distance from the center position 502 of the camera to the foot position of the actual person 505, the direction of the optical axis 504 of the camera, It is necessary to consider the vertical direction (the direction of gravity) in the real world. The height calculation unit 221 takes these factors into account, and calculates the vertical and horizontal resolution of the camera (the number of effective pixels in the vertical and horizontal directions of the imaging device) and the length from the foot position to the top of the head of the person 501 in the image 503 (the number of pixels). ), the height of the actual person 505 is calculated.

ここで、図5(B)に示すようにカメラの縦横解像度は縦×横=H×W(画素)であり、画像503内における人物501の足元位置から頭頂部までの長さはk(画素数)であるとする。また、図5(C)に示すように、カメラの仮想的な画像面(503)は光軸504に対して直交する面であり、カメラの中心位置502から実際の人物505の足元位置までの距離はLであるとする。さらに、カメラの中心位置502から仮想的な画像面(503)上における人物501の足元位置までを結ぶ線分とカメラの光軸504との間の角度をδとし、また光軸504と実世界の垂直方向(重力方向)との間の角度をθとする。この場合、実際の人物505の身長lは、ヘロンの公式を用いて下記の式(1)により表される。 Here, as shown in FIG. 5B, the vertical and horizontal resolution of the camera is vertical×horizontal=H×W (pixels), and the length from the foot position of the person 501 to the top of the head in the image 503 is k (pixels). number). Also, as shown in FIG. 5C, the virtual image plane (503) of the camera is a plane orthogonal to the optical axis 504, and the distance from the center position 502 of the camera to the foot position of the actual person 505 is Let L be the distance. Furthermore, the angle between the line segment connecting the center position 502 of the camera and the foot position of the person 501 on the virtual image plane (503) and the optical axis 504 of the camera is defined as δ, and the optical axis 504 and the real world and the vertical direction (the direction of gravity) is θ. In this case, the actual height l of the person 505 is represented by the following formula (1) using Heron's formula.

l=k・cosδ/cos(δ+θ) 式(1) l = k cos δ/cos (δ + θ) Equation (1)

なお、カメラのレンズは歪曲(Distortion)等の収差を有することが多いため、画像に対しては予め収差を補正する処理を施しておくことが望ましい。また、実際の床面のジオメトリデータとしては様々な形態が考えられるが、本実施形態の場合、ジオメトリデータは、ある角度δにおいてカメラの中心位置502から実際の人物505の足元位置までの距離Lを演算等により特定可能なデータとなされている。したがって、角度δが判明すれば、ジオメトリデータにより距離Lを知ることができ、これにより実際の人物505の三次元位置を取得することができる。 Note that since camera lenses often have aberrations such as distortion, it is desirable to subject an image to processing for correcting aberrations in advance. Further, various forms are conceivable as the geometry data of the actual floor surface, but in the case of this embodiment, the geometry data is the distance L are data that can be specified by calculation or the like. Therefore, if the angle δ is known, the distance L can be known from the geometry data, and the three-dimensional position of the actual person 505 can be acquired from this.

以下、図6を用いて、カメラの画角内に基準面の床面とは高さが異なった床面が存在している場合において実際の人物の身長および三次元位置を計算する場合の問題点と、その問題点に対処するために本実施形態において行われる処理を詳細に説明する。 In the following, using FIG. 6, the problem of calculating the actual height and three-dimensional position of a person when there is a floor surface whose height is different from that of the floor surface of the reference plane exists within the angle of view of the camera. The points and the actions taken in this embodiment to address them are described in detail.

図6(A)において、床面604は基準面を示し、床面624は基準面よりも高い面を示しているとする。したがって、図6(A)の例の場合、ジオメトリデータは基準面である床面604に対応したデータになされている。また、実際の人物621は、床面624上に存在しており、図6の例では、実際の人物621の身長および三次元位置を計算するものとする。なお、図6(A)に示した床面624は、図6(B)に示すように基準面の床面604に対して傾斜した床面であるとする。このため図6(B)に示すように、床面624上における人物621の位置が異なれば、その人物621の基準面(604)からの高さは異なる。 In FIG. 6A, floor 604 indicates a reference plane, and floor 624 indicates a plane higher than the reference plane. Therefore, in the example of FIG. 6A, the geometry data are data corresponding to the floor surface 604, which is the reference surface. Moreover, the actual person 621 exists on the floor surface 624, and in the example of FIG. 6, the height and three-dimensional position of the actual person 621 shall be calculated. It is assumed that the floor surface 624 shown in FIG. 6A is inclined with respect to the floor surface 604 of the reference plane as shown in FIG. 6B. Therefore, as shown in FIG. 6B, if the position of the person 621 on the floor surface 624 is different, the height of the person 621 from the reference plane (604) will be different.

図6の例の場合、人物621が例えば基準面である床面604上に立っているのであれば、前述の図5(C)で説明したようにして人物621の正しい身長tを算出することが可能となる。
しかしながら、床面624は基準面(604)に対して傾斜しており、床面624上の人物621の足元位置は基準面(604)とは高さが異なる位置になっている。このため、基準面に対応したジオメトリデータを用いて人物621の身長を算出した場合、基準面の床面604上の人物601の身長t'として算出されることになり、実際の人物621の身長tとは異なった値が取得されることになる。そして、三次元位置も同様に、基準面の床面604上の人物601の位置が算出されることになり、実際の人物621の床面241上の三次元位置に対し、カメラの光軸方向で奥側にずれた位置が算出される。なお前述した図4の例の場合、床面411上の人物421では実際の身長hが算出されるが、床面412上の人物422では実際より高い身長(人物423の身長)が算出され、三次元位置も実際の人物422の位置とは異なる三次元位置が算出される。
In the example of FIG. 6, if the person 621 is standing on the floor surface 604 which is the reference surface, the correct height t of the person 621 can be calculated as described above with reference to FIG. 5(C). becomes possible.
However, the floor surface 624 is inclined with respect to the reference plane (604), and the foot position of the person 621 on the floor surface 624 is a position different in height from the reference plane (604). Therefore, when the height of the person 621 is calculated using the geometry data corresponding to the reference plane, the height t' of the person 601 on the floor surface 604 of the reference plane is calculated, and the actual height of the person 621 is calculated. A value different from t will be obtained. Similarly, the three-dimensional position of the person 601 on the floor surface 604 of the reference plane is calculated. , the position shifted to the far side is calculated. In the example of FIG. 4 described above, the actual height h of the person 421 on the floor 411 is calculated, but the height of the person 422 on the floor 412 is calculated to be higher than the actual height (the height of the person 423). A three-dimensional position that is different from the actual position of the person 422 is also calculated.

この時、実際の人物621の実際の身長tが事前に判明していれば、ジオメトリデータを用いて算出した身長t'が実際の身長tとは異なっているかどうかを判断することができる。図6の例のように、身長t'が身長tと異なっている場合、判定部230は、ジオメトリデータの信頼性が低いと判定することになる。また、判定部230は、ジオメトリデータを基に算出した身長t'が実際の身長tより大きい場合、当該ジオメトリデータを用いて算出される三次元位置が、実際の人物の三次元位置よりもカメラの光軸方向の奥行き側(遠い方)にずれていると判断する。逆に、ジオメトリデータを基に算出した身長が実際の身長より小さい場合、判定部230は、ジオメトリデータを用いて算出される三次元位置が、実際の人物の三次元位置よりもカメラの光軸方向の手前側(近い方)にずれていると判断する。 At this time, if the actual height t of the actual person 621 is known in advance, it can be determined whether the height t' calculated using the geometry data is different from the actual height t. As in the example of FIG. 6, when the height t' is different from the height t, the determination unit 230 determines that the reliability of the geometry data is low. Further, when the height t' calculated based on the geometry data is larger than the actual height t, the determination unit 230 determines that the three-dimensional position calculated using the geometry data is closer to the camera than the actual three-dimensional position of the person. It is determined that there is a shift toward the depth side (farther side) in the optical axis direction of the . Conversely, if the height calculated based on the geometry data is smaller than the actual height, the determination unit 230 determines that the three-dimensional position calculated using the geometry data is closer to the optical axis of the camera than the actual three-dimensional position of the person. It is determined that there is a shift toward the front side (closer side) of the direction.

そして、判定部230にてジオメトリデータの信頼性が低いと判定された場合、更新部240は、ジオメトリデータを基に算出される身長が事前に求めた既知の身長と一致するように、床面のジオメトリデータにおける床面の位置を補正する。例えば、判定部230にてジオメトリデータを基に算出した身長が実際の身長より大きいと判断された場合、更新部240は、ジオメトリデータにおける床面の位置を、基準面の床面の位置よりも、カメラの光軸方向で近い位置に移動させるように調整する。また例えば、判定部230にてジオメトリデータを基に算出した身長が実際の身長より小さいと判断された場合、更新部240は、ジオメトリデータにおける床面の位置を、基準面の床面の位置よりも、カメラの光軸方向で遠い位置に移動させるように調整する。このようなジオメトリデータにおける床面の位置を移動させる調整は、算出される身長が既知の身長と一致するようになるまで行われる。 If the determining unit 230 determines that the reliability of the geometry data is low, the updating unit 240 adjusts the floor surface so that the height calculated based on the geometry data matches the known height obtained in advance. Correct the position of the floor surface in the geometry data of For example, if the determining unit 230 determines that the height calculated based on the geometry data is larger than the actual height, the updating unit 240 changes the position of the floor surface in the geometry data to be higher than the position of the floor surface of the reference plane. , adjust so that it moves to a closer position along the optical axis of the camera. Further, for example, when the determining unit 230 determines that the height calculated based on the geometry data is smaller than the actual height, the updating unit 240 changes the position of the floor surface in the geometry data from the position of the floor surface of the reference surface. Also, adjust so that it moves to a far position along the optical axis of the camera. Adjustments such as moving the position of the floor surface in the geometry data are performed until the calculated height matches the known height.

その後、位置計算部222では、算出される身長が事前に求めた身長と一致するように調整した後のジオメトリデータを用いて、人物の三次元位置を再計算する。
このように、本実施形態では、算出される身長が既知の身長と一致するようにジオメトリデータの床面の位置を調整することにより、蓋然性の高いジオメトリデータの床面位置と人物の三次元位置を取得することができる。
After that, the position calculation unit 222 recalculates the three-dimensional position of the person using the geometry data adjusted so that the calculated height matches the height obtained in advance.
As described above, in this embodiment, by adjusting the floor position of the geometry data so that the calculated height matches the known height, the floor position of the geometry data and the three-dimensional position of the person with high probability are calculated. can be obtained.

また本実施形態の場合、図6(B)に示すように、人物621が移動している場合には、前述のようなジオメトリデータの調整を逐次行うことが可能である。これにより、もしも実際の床面が、図6(B)に示すように傾斜した床面624で構成されていても、その傾斜面の形状をトレースしたようなジオメトリデータの調整が可能となる。
更に、このように逐次調整することによって取得された複数のジオメトリデータの床面の位置を統計的に処理することで、より正確なジオメトリデータを取得することが可能となる。これにより、ジオメトリデータにおける床面の位置と人物の三次元位置の蓋然性をより高めることが可能となる。
In the case of this embodiment, as shown in FIG. 6B, when the person 621 is moving, it is possible to sequentially adjust the geometry data as described above. As a result, even if the actual floor surface is composed of an inclined floor surface 624 as shown in FIG. 6B, it is possible to adjust the geometry data by tracing the shape of the inclined surface.
Furthermore, by statistically processing the positions of the floor surface of a plurality of pieces of geometry data obtained by such sequential adjustment, more accurate geometry data can be obtained. This makes it possible to increase the probability of the position of the floor surface and the three-dimensional position of the person in the geometry data.

前述した実施形態の手法は、人物の身長が既知であることが前提であるため、予め正しい身長を取得しておく必要がある。この場合、身長を含む人物の特徴量に関する情報を予めデータベース250に格納しておき、検出追跡部210が検出した人物に対して人物認識処理を行い、その人物の身長の情報をデータベース250から取得して利用するような手法が考えられる。 Since the method of the embodiment described above assumes that the height of the person is known, it is necessary to acquire the correct height in advance. In this case, information relating to the feature amount of a person, including height, is stored in the database 250 in advance, the person detected by the detection and tracking unit 210 is subjected to person recognition processing, and the height information of the person is acquired from the database 250. It is possible to think of a method that uses

ただし、前述のような人物の特徴量に関するデータベースと人物認識システムとを備えていない監視システムも多い。このような場合には、以下に説明するように、人物の検出および追跡を行っている間に、身長の測定と三次元位置の補正を実施するような手法も考えられる。 However, there are many monitoring systems that do not have a database of person feature values and a person recognition system as described above. In such a case, as will be described below, a method of performing height measurement and three-dimensional position correction while detecting and tracking a person is also conceivable.

この手法の場合、例えばカメラにより撮影される監視エリアの領域を、床面に対応したジオメトリデータが定義されている確定領域と、床面に対応したジオメトリデータが定義されていない未確定領域とに分けるようにする。確定領域は、例えば前述したような基準となる指標を用いたキャリブレーションを実施することでジオメトリデータが定義された領域とする。確定領域は、ジオメトリデータの信頼性が高い領域を表しており、ジオメトリデータに確定領域の情報を含めておくようにする。 In the case of this method, for example, the area of the surveillance area captured by the camera is divided into a fixed area where the geometry data corresponding to the floor is defined and an undefined area where the geometry data corresponding to the floor is not defined. separate them. The definite area is an area in which geometry data is defined by performing calibration using a reference index as described above, for example. The definite area represents an area in which the geometry data has high reliability, and information on the definite area should be included in the geometry data.

例えば図4の場合、床面411の領域が確定領域となされて登録される。そして、例えば追跡している人物422がこの確定領域を通過した場合、当該確定領域に対応したジオメトリデータを用いて算出した身長は正確な身長の情報であるとして、当該人物422の追跡情報とともに保存しておくようにする。その後、この人物422が確定領域以外の領域(床面412の領域)を通過した場合、当該人物422の正確な身長の情報を用いてジオメトリデータの補正を行う。これにより、この補正されたジオメトリデータを用いることで、人物422の正しい三次元位置を算出することが可能となる。なお、ジオメトリデータの補正が行われた場合、人物の追跡情報を基に、その人物の追跡結果の動線を補正してもよい。また、前述の説明では、確定領域が一つの領域となっている例を挙げたが、確定領域は複数存在していてもよい。 For example, in the case of FIG. 4, the area of the floor surface 411 is registered as the fixed area. Then, for example, when the person 422 being tracked passes through this definite area, the height calculated using the geometry data corresponding to the definite area is stored together with the tracking information of the person 422 as accurate height information. keep it. After that, when the person 422 passes through a region other than the fixed region (the region of the floor surface 412), the correct height information of the person 422 is used to correct the geometry data. This makes it possible to calculate the correct three-dimensional position of the person 422 by using this corrected geometry data. Note that when the geometry data is corrected, the flow line of the person's tracking result may be corrected based on the person's tracking information. Also, in the above description, an example in which the definite area is one area was given, but a plurality of definite areas may exist.

また、通常、監視カメラは、より広い範囲を監視するために、複数台設定されることがある。このような場合、死角をなくすために、二つ以上の監視カメラ間において重複して撮影される領域が設定されることが多い。例えば図7(A)に示すようにカメラ701とカメラ702が設置されており、カメラ701の撮影領域とカメラ702の撮影領域には重複領域703が設定されているとする。図7(B)は、カメラ701による画像711と、カメラ702による画像712とを示しており、それら画像711と画像712との間には重複領域713があるとする。ここで、カメラ701の座標とカメラ702の座標が事前に判明しているのであれば、重複領域703(713)においては三角測量方式による位置推定が可能となる。すなわち、重複領域703では、人物の位置を推定し、その位置を基に人物の身長を算出することが可能となる。したがって、図7の例の場合、重複領域(三角測量が可能な領域)において算出した人物の身長は正確な身長の情報であるとして、当該人物の追跡情報とともに保存しておくようにする。そして、この人物が重複領域以外の領域(未確定床面領域)を通過した場合、当該人物の正確な身長の情報を用いてジオメトリデータの補正を行う。これにより人物の正しい三次元位置を算出することが可能となる。 Also, usually, a plurality of surveillance cameras may be set in order to monitor a wider range. In such a case, in order to eliminate blind spots, areas that are overlapped and photographed by two or more surveillance cameras are often set. For example, assume that cameras 701 and 702 are installed as shown in FIG. FIG. 7B shows an image 711 captured by a camera 701 and an image 712 captured by a camera 702. Assume that there is an overlapping area 713 between the images 711 and 712. FIG. Here, if the coordinates of the camera 701 and the coordinates of the camera 702 are known in advance, the position can be estimated by triangulation in the overlapping area 703 (713). That is, in the overlapping area 703, it is possible to estimate the position of the person and calculate the height of the person based on the position. Therefore, in the case of the example of FIG. 7, the height of the person calculated in the overlapping area (area in which triangulation is possible) is assumed to be accurate height information, and is stored together with the tracking information of the person. Then, when the person passes through an area (undefined floor area) other than the overlapping area, the geometry data is corrected using accurate height information of the person. This makes it possible to calculate the correct three-dimensional position of the person.

以上説明した実施形態では、画像内の人物の頭頂部から足元までの長さを基に身長を算出する例を挙げが、画像内の人物について、常に頭頂部と足元を検出できるとは限らない。例えば、図8(A)に示すように、植木やパーティションなどの遮蔽物体800により、カメラ810から人物801の足元および床面が見えないためそれらの位置が不明になる場合もあり得る。 In the above-described embodiment, the height is calculated based on the length from the top of the head to the feet of the person in the image. However, it is not always possible to detect the top of the head and the feet of the person in the image. . For example, as shown in FIG. 8A, there may be a case where the feet and the floor surface of a person 801 cannot be seen from the camera 810 due to a shielding object 800 such as a plant or a partition, making their positions unknown.

このような場合、身長計算部221は、例えば人物の頭頂部や足元以外の特徴点を用いて、画像内における人物の身長や足元の位置を推定する。図8(A)の人物801のように、カメラ810からは足元と床面が見えない場合、例えば人物801の腰部の位置などを基に人物801の身長と足元の位置を推定する。この場合、例えば人物801の全身が写っている際に、頭頂部位置から腰部位置までの長さと、頭頂部位置から足元位置までの長さ(身長)との比を、人物の特徴量として算出して、その人物と紐付けしてデータベース250等に格納しておくようにする。これにより、図8(A)の人物801の場合、画像内に写っている頭頂部から腰部までの長さと、データベース250に格納された特徴量の情報とから、人物801の身長を算出することができる。例えば頭頂部から腰部までの長さが人物801の身長の略々半分であった場合、画像内の人物801の頭頂部位置から腰部位置までの長さを下方向に二倍に延長した位置に足元位置があると推定することができる。これにより、その推定した足元位置を基に身長を算出し、ジオメトリデータの補正や三次元位置の算出が可能となる。 In such a case, the height calculator 221 estimates the height of the person and the position of the feet in the image, for example, using feature points other than the top of the head and feet of the person. When the feet and the floor cannot be seen from the camera 810 like the person 801 shown in FIG. In this case, for example, when the whole body of the person 801 is captured, the ratio of the length from the top of the head to the waist and the length from the top of the head to the feet (height) is calculated as the feature amount of the person. Then, it is stored in the database 250 or the like in association with the person. As a result, in the case of the person 801 in FIG. 8A, the height of the person 801 can be calculated from the length from the top of the head to the waist shown in the image and the feature amount information stored in the database 250. can be done. For example, if the length from the top of the head to the waist is approximately half the height of the person 801, the length from the top of the head to the waist of the person 801 in the image is doubled downward. It can be estimated that there is a foot position. This makes it possible to calculate the height based on the estimated foot position, correct the geometry data, and calculate the three-dimensional position.

また腰部の位置の他にも、例えば肩幅や、頭部の大きさ(頭部の縦の長さあるいは横の幅)など、人物における特徴的な人体箇所に基づいて身長を算出することも可能である。例えば、人物801の全身が写っている際に、肩幅あるいは頭部の大きさと、頭頂部位置から足元位置までの長さ(身長)との比を、人物の特徴量として算出して、その人物と紐付けしてデータベース250等に格納しておくようにする。これにより、図8(A)の人物801について、画像内に写っている肩幅もしくは頭部の大きさと、データベース250に格納された特徴量の情報とから、人物801の足元位置を推定して身長を算出することができる。 In addition to the position of the waist, it is also possible to calculate the height based on the characteristic parts of the human body, such as the width of the shoulders and the size of the head (length or width of the head). is. For example, when the whole body of a person 801 is captured, the ratio of the width of the shoulders or the size of the head to the length (height) from the top of the head to the foot is calculated as the feature amount of the person. , and stored in the database 250 or the like. As a result, the foot position of the person 801 shown in FIG. can be calculated.

前述した人物の身長以外の特徴量の情報を用いた身長の推定、三次元位置の算出手法を用いれば、人物の足元が見えていない場合でも、人物の身長と三次元位置を取得することが可能である。また、前述した人物の身長以外の特徴量についても、人物の身長と同様に、人物の検出および追跡中に大きく変化することはないと考えられる。したがって身長以外の特徴量を基に算出される身長、あるいは、頭頂部から腰部までの長さ、肩幅、頭部の大きさなどが例えば追跡中に大きく変化した場合には、ジオメトリの信頼性が低いと判定でき、この場合、前述同様にしてジオメトリデータを補正できる。 By using the above-described height estimation and 3D position calculation methods using feature information other than the height of a person, it is possible to obtain the height and 3D position of the person even if the person's feet are not visible. It is possible. In addition, it is considered that the feature values other than the height of the person described above do not change significantly during the detection and tracking of the person, similarly to the height of the person. Therefore, if the height calculated based on features other than height, or the length from the top of the head to the waist, the shoulder width, or the size of the head changes significantly during tracking, the reliability of the geometry becomes unreliable. It can be determined that it is low, and in this case, the geometry data can be corrected in the same manner as described above.

ただし、前述したような身長以外の特徴量を用いて推定された身長に基づいて調整したジオメトリの精度と信頼性は必ずしも高くないため、例えば、多人数を対象とした統計的処理を行うなど、精度と信頼性を高める処理を行うことが望ましい。例えば、多人数について推定した身長に基づいてジオメトリデータを調整した際の平均値を用いて、より正確なジオメトリを算出するような手法が考えられる。 However, the accuracy and reliability of geometry adjusted based on height estimated using features other than height as described above is not necessarily high. It is desirable to perform processing that increases accuracy and reliability. For example, a method of calculating more accurate geometry using an average value when geometry data is adjusted based on heights estimated for a large number of people is conceivable.

本実施形態においては、以上説明したようにして正確な三次元位置を取得することで、例えば以下のようなアプリケーションを実現することも可能となる。
人物の追跡は三次元空間内で正確に行われるため、例えば店内における顧客の動きを記録したマーケティングなどに用いることが可能となる。また、複数の人物が存在する場合は、それら各人物の位置関係を取得することができ、それぞれ検出された各人物間の相対的な位置関係を正確に知ることができるので、複数の人物のグルーピングなどに用いることができる。また、一定領域の正確な面積と人の数を取得できるようになるため、人物の密度を測定することも可能となる。
In this embodiment, by obtaining an accurate three-dimensional position as described above, it is possible to realize the following applications, for example.
Since people can be tracked accurately in a three-dimensional space, it can be used, for example, for marketing that records the movements of customers in a store. In addition, when a plurality of persons exist, the positional relationship of each person can be obtained, and the relative positional relationship between the detected persons can be accurately known. It can be used for grouping and the like. In addition, since it becomes possible to acquire the exact area of a given area and the number of people, it is also possible to measure the density of people.

また、本実施形態において取得される情報は、人物追跡時の問題として知られている交差判定の補助情報として利用できる。交差判定における問題とは、二人以上の人物の追跡時に人物が重なる場合があり、その後追跡情報が入れ替わってしまうという問題である。このような場合、二人の人物は一人としか検出されず、奥側の人物の追跡が途絶え、さらにその後の追跡で追跡対象が入れ替わる可能性もある。本実施形態によれば、人物を三次元空間上で追跡できるため、重なった二人の人物が奥にいるのか手前にいるのかを記録でき、追跡が途切れても追跡が途絶えた位置関係から人物の入れ替わりを容易に検知できる。 Also, the information acquired in this embodiment can be used as auxiliary information for intersection determination, which is known to be a problem when tracking people. A problem with intersection detection is that when tracking two or more people, the people may overlap, and then the tracking information will be swapped. In such a case, two persons are detected as only one person, and tracking of the person on the far side is interrupted. According to this embodiment, since a person can be tracked in a three-dimensional space, it is possible to record whether two overlapping people are in the back or in the foreground. can be easily detected.

以上の例では、人物の追跡に関して説明したが、本実施形態の基本的な考えを利用すれば、人物以外の様々な対象物体の追跡等にも応用可能である。例えば、自動車、自転車、オートバイ、ショッピングカートなどの追跡例が考えられる。これらの対象物体は、人物よりも特徴量や特徴点の距離関係が明確であるため、例えば車であれば足元位置としてタイヤの位置を利用し、車長やタイヤ間の距離を用いることで、床面の情報の補正、つまり道路面に関するジオメトリデータの補正が可能となる。例えば対象物体が自動車である場合、画像内から自動車を検出して、その検出した自動車のタイヤ位置を算出し、その算出したタイヤ位置から当該自動車の車長やタイヤ間の距離を算出する。さらに、それら画像から算出した車長やタイヤ間距離と、既知の車長やタイヤ間の距離とを比較して、道路面に関するジオメトリデータの信頼性を判定する。そして、信頼性が低いと判定された場合には、当該道路面に関するジオメトリデータを、画像から算出した車長やタイヤ間距離と、既知の車長やタイヤ間の距離とが略々一致するように補正する。このように、本実施形態の基本的な考えを持ってすれば、様々な応用例が可能であり、したがって、実施形態は前述した例には限定はされない。 In the above example, tracking of a person has been described, but the basic concept of this embodiment can be applied to tracking of various target objects other than a person. Examples include tracking cars, bicycles, motorcycles, shopping carts, and the like. For these target objects, the distance relationship between the feature values and feature points is clearer than that of a person. Correction of floor surface information, that is, correction of geometry data related to the road surface is possible. For example, if the target object is an automobile, the automobile is detected from within the image, the tire positions of the detected automobile are calculated, and the length of the automobile and the distance between the tires are calculated from the calculated tire positions. Furthermore, the vehicle length and the distance between tires calculated from these images are compared with the known vehicle length and distance between tires to determine the reliability of the geometry data regarding the road surface. If the reliability is determined to be low, the geometry data on the road surface is adjusted so that the vehicle length and the distance between the tires calculated from the image approximately match the known vehicle length and the distance between the tires. corrected to Thus, various applications are possible with the basic idea of this embodiment, and therefore the embodiment is not limited to the examples described above.

本発明は、前述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。 The present invention supplies a program that implements one or more functions of the above-described embodiments to a system or device via a network or a storage medium, and one or more processors in the computer of the system or device reads and executes the program. It can also be realized by processing to It can also be implemented by a circuit (for example, ASIC) that implements one or more functions.

前述の実施形態は、何れも本発明を実施するにあたっての具体化の例を示したものに過ぎず、これらによって本発明の技術的範囲が限定的に解釈されてはならないものである。即ち、本発明は、その技術思想、又はその主要な特徴から逸脱することなく、様々な形で実施することができる。 All of the above-described embodiments merely show specific examples for carrying out the present invention, and the technical scope of the present invention should not be construed to be limited by these. That is, the present invention can be embodied in various forms without departing from its technical spirit or main features.

101:カメラ、101:解析用のPC、103:対象物体、110:床、210:検出追跡部、221:身長計算部、222:位置計算部、230:判定部、240:更新部、250:データベース 101: camera, 101: PC for analysis, 103: target object, 110: floor, 210: detection and tracking unit, 221: height calculation unit, 222: position calculation unit, 230: determination unit, 240: update unit, 250: database

Claims (18)

カメラにより撮影されるエリア内の床面上における三次元位置を特定可能なジオメトリデータを保持する保持手段と、
前記カメラにて撮影された画像から記対象物体の画像内における位置を取得する検出手段と、
前記画像内における前記対象物体の位置に対応した前記ジオメトリデータを取得し、当該ジオメトリデータを用いて、前記対象物体の大きさを算出する大きさ算出手段と、
前記算出された対象物体の大きさと前記対象物体の既知の大きさとが異なる場合には、
前記算出手段にて算出される前記対象物体の大きさが前記既知の大きさと合うように、前記ジオメトリデータにおける床面の位置を補正する補正手段と、
前記画像内における前記対象物体の位置と前記ジオメトリデータとを基に前記対象物体の三次元位置を算出する位置算出手段と、
を有することを特徴とする情報処理装置。
holding means for holding geometry data capable of specifying a three-dimensional position on the floor within an area photographed by the camera;
a detection means for acquiring the position of the target object in the image from the image captured by the camera;
a size calculation means for acquiring the geometry data corresponding to the position of the target object in the image and using the geometry data to calculate the size of the target object;
When the calculated size of the target object and the known size of the target object are different,
correction means for correcting the position of the floor surface in the geometry data so that the size of the target object calculated by the calculation means matches the known size;
position calculation means for calculating a three-dimensional position of the target object based on the position of the target object in the image and the geometry data;
An information processing device comprising:
前記検出手段は、前記画像内の前記対象物体における所定の特徴点の位置を取得することを特徴とする請求項1に記載の情報処理装置。 2. An information processing apparatus according to claim 1, wherein said detection means acquires the position of a predetermined feature point on said target object in said image. 前記大きさ算出手段は、
前記対象物体の前記所定の特徴点の位置に対応した前記ジオメトリデータを取得し、
前記ジオメトリデータにより特定される位置と、前記画像内の前記対象物体の他の特徴点の位置とを基に、前記対象物体の大きさを算出することを特徴とする請求項2に記載の情報処理装置。
The size calculation means is
obtaining the geometry data corresponding to the positions of the predetermined feature points of the target object;
3. The information according to claim 2, wherein the size of the target object is calculated based on the position specified by the geometry data and the positions of other feature points of the target object in the image. processing equipment.
前記対象物体が人物である場合、前記所定の特徴点の位置は前記人物の足元部の位置であり、前記他の特徴点の位置は前記人物の頭頂部の位置であり、
前記大きさ算出手段は、前記人物の足元部の位置に対応した前記ジオメトリデータにより特定される位置と、前記人物の頭頂部の位置との間の距離で表される人物の身長を、前記対象物体の大きさとして算出することを特徴とする請求項3に記載の情報処理装置。
when the target object is a person, the position of the predetermined feature point is the position of the feet of the person, and the position of the other feature point is the top of the head of the person;
The size calculation means calculates the height of the person represented by the distance between the position specified by the geometry data corresponding to the position of the feet of the person and the position of the top of the head of the person. 4. The information processing apparatus according to claim 3, wherein the calculation is performed as the size of an object.
前記大きさ算出手段は、前記人物の足元の位置が不明である場合、前記人物の頭頂部、
腰部、肩部、側頭部の、少なくとも二つの位置を基に、前記人物の足元の位置を算出することを特徴とする請求項4に記載の情報処理装置。
When the position of the feet of the person is unknown, the size calculation means calculates the top of the head of the person,
5. The information processing apparatus according to claim 4, wherein the position of the person's feet is calculated based on at least two positions of the waist, shoulders, and temporal region.
前記大きさ算出手段は、前記身長が既知の大きさであるとき、当該身長と、前記少なくとも二つの位置の間の距離との比を基に、前記人物の足元の位置を算出することを特徴とする請求項5に記載の情報処理装置。 When the height is a known size, the size calculation means calculates the position of the feet of the person based on the ratio of the height and the distance between the at least two positions. The information processing apparatus according to claim 5, wherein: 前記検出手段は、前記対象物体を認識する手段と、前記認識された対象物体に関する情報を取得する手段と、を有し、
前記認識された対象物体に関する情報には、前記対象物体の前記既知の大きさを示す情報が含まれていることを特徴とする請求項1から6のいずれか1項に記載の情報処理装置。
The detection means has means for recognizing the target object and means for acquiring information about the recognized target object,
7. The information processing apparatus according to any one of claims 1 to 6, wherein the information about the recognized target object includes information indicating the known size of the target object.
前記補正手段は、
前記算出された対象物体の大きさと前記対象物体の既知の大きさとが異なる場合に、前記ジオメトリデータの信頼性が低いと判定する判定手段と、
前記判定手段により信頼性が低いと判定された前記ジオメトリデータに対して、前記補正を行って更新する更新手段と、を有することを特徴とする請求項1から7のいずれか1項に記載の情報処理装置。
The correcting means is
determining means for determining that the reliability of the geometry data is low when the calculated size of the target object differs from the known size of the target object;
8. The apparatus according to any one of claims 1 to 7, further comprising update means for performing the correction and updating the geometry data determined by the determination means to be unreliable. Information processing equipment.
前記ジオメトリデータは、前記エリア内の領域について前記ジオメトリデータの信頼性が高い領域を表す情報を含み、
前記補正手段は、前記信頼性の高い領域で前記検出された前記対象物体について前記算出手段が算出した前記大きさを基に、前記信頼性が高くない領域に対応した前記ジオメトリデータについて前記補正を行うことを特徴とする請求項1から8のいずれか1項に記載の情報処理装置。
The geometry data includes information representing regions within the area where the geometry data is highly reliable,
The correction means corrects the geometry data corresponding to the low-reliability area based on the size calculated by the calculation means for the target object detected in the high-reliability area. 9. The information processing apparatus according to any one of claims 1 to 8, wherein:
異なる位置に設置された二つ以上のカメラにより前記エリア内で重複して撮影された領域から前記検出されて前記算出された前記対象物体の大きさを基に、前記エリア内で前記重複して撮影されていない領域に対応した前記ジオメトリデータについて前記補正を行うことを特徴とする請求項1から8のいずれか1項に記載の情報処理装置。 based on the size of the target object detected and calculated from an area overlappingly photographed in the area by two or more cameras installed at different positions, the overlapping in the area 9. The information processing apparatus according to any one of claims 1 to 8, wherein said correction is performed on said geometry data corresponding to an area not photographed. 前記検出手段は、一つのカメラにより所定の時間間隔の時間順に連続して前記撮影された画像から前記対象物体を検出し、前記時間順に連続した複数の画像について前記対象物体を追跡することを特徴とする請求項1から10のいずれか1項に記載の情報処理装置。 The detection means is characterized in that the target object is detected from the images taken successively in chronological order at predetermined time intervals by one camera, and the target object is tracked in a plurality of successive images in chronological order. The information processing apparatus according to any one of claims 1 to 10. 前記補正手段は、前記時間順で前の画像について前記算出手段が算出した対象物体の大きさを、前記対象物体の前記既知の大きさとして保持することを特徴とする請求項11に記載の情報処理装置。 12. The information according to claim 11, wherein the correction means holds the size of the target object calculated by the calculation means for the previous image in the chronological order as the known size of the target object. processing equipment. 前記検出手段は、前記対象物体を追跡している際に他の対象物体との交差が生じた場合、前記交差する対象物体の三次元位置に基づいて前記追跡を継続することを特徴とする請求項11または12に記載の情報処理装置。 wherein, when the target object intersects with another target object while the target object is being tracked, the detection means continues the tracking based on the three-dimensional position of the intersecting target object; 13. The information processing device according to Item 11 or 12. 前記算出された前記対象物体の三次元位置を表示するための表示画像を生成する処理手段を有することを特徴とする請求項1から13のいずれか1項に記載の情報処理装置。 14. The information processing apparatus according to any one of claims 1 to 13, further comprising processing means for generating a display image for displaying the calculated three-dimensional position of the target object. 複数の前記対象物体の三次元位置が算出された場合、前記対象物体の三次元位置を基に、前記複数の対象物体をグループごとに分けて、前記対象物体ごとにグループ属性情報を付加する付加手段を有することを特徴とする請求項1から14のいずれか1項に記載の情報処理装置。 addition of dividing the plurality of target objects into groups based on the three-dimensional positions of the target objects and adding group attribute information to each of the target objects when the three-dimensional positions of the plurality of target objects are calculated; 15. The information processing apparatus according to any one of claims 1 to 14, further comprising means. 前記補正手段は、The correcting means is
前記算出された対象物体の大きさが前記対象物体の既知の大きさより大きい場合には、前記ジオメトリデータにおける床面の位置を、前記カメラの光軸方向の近い位置に補正し、if the calculated size of the target object is larger than the known size of the target object, correcting the position of the floor surface in the geometry data to a position closer to the optical axis direction of the camera;
前記算出された対象物体の大きさが前記対象物体の既知の大きさより小さい場合には、前記ジオメトリデータにおける床面の位置を、前記カメラの光軸方向の遠い位置に補正し、if the calculated size of the target object is smaller than the known size of the target object, correcting the position of the floor surface in the geometry data to a far position in the optical axis direction of the camera;
前記算出手段にて算出される前記対象物体の大きさが前記既知の大きさと合うようにすることを特徴とする請求項1から15のいずれか1項に記載の情報処理装置。16. The information processing apparatus according to any one of claims 1 to 15, wherein the size of the target object calculated by the calculating means is matched with the known size.
情報処理装置が実行する情報処理方法であって、
カメラにより撮影されるエリア内の床面上における三次元位置を特定可能なジオメトリデータを保持する保持工程と、
カメラにて撮影された画像から記対象物体の画像内における位置を取得する検出工程と、
前記画像内における前記対象物体の位置に対応した前記ジオメトリデータを取得し、当該ジオメトリデータを用いて、前記対象物体の大きさを算出する大きさ算出工程と、
前記算出された対象物体の大きさと前記対象物体の既知の大きさとが異なる場合には、
前記算出工程にて算出される前記対象物体の大きさが前記既知の大きさと合うように、前記ジオメトリデータにおける床面の位置を補正する補正工程と、
前記画像内における前記対象物体の位置と前記ジオメトリデータとを基に前記対象物体の三次元位置を算出する位置算出工程と、
を有することを特徴とする情報処理方法。
An information processing method executed by an information processing device,
a holding step of holding geometry data capable of specifying a three-dimensional position on the floor within the area photographed by the camera;
a detection step of acquiring the position of the target object in the image from the image captured by the camera;
a size calculation step of obtaining the geometry data corresponding to the position of the target object in the image and using the geometry data to calculate the size of the target object;
When the calculated size of the target object and the known size of the target object are different,
a correction step of correcting the position of the floor surface in the geometry data so that the size of the target object calculated in the calculation step matches the known size;
a position calculation step of calculating a three-dimensional position of the target object based on the position of the target object in the image and the geometry data;
An information processing method characterized by having
コンピュータを、請求項1から16のいずれか1項に記載の情報処理装置の各手段として機能させるためのプログラム。 A program for causing a computer to function as each means of the information processing apparatus according to any one of claims 1 to 16.
JP2018186446A 2018-10-01 2018-10-01 Information processing device, information processing method, and program Active JP7224832B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018186446A JP7224832B2 (en) 2018-10-01 2018-10-01 Information processing device, information processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018186446A JP7224832B2 (en) 2018-10-01 2018-10-01 Information processing device, information processing method, and program

Publications (2)

Publication Number Publication Date
JP2020056644A JP2020056644A (en) 2020-04-09
JP7224832B2 true JP7224832B2 (en) 2023-02-20

Family

ID=70107001

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018186446A Active JP7224832B2 (en) 2018-10-01 2018-10-01 Information processing device, information processing method, and program

Country Status (1)

Country Link
JP (1) JP7224832B2 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115516509A (en) 2020-06-03 2022-12-23 谷歌有限责任公司 Depth estimation based on object bottom position
KR102473165B1 (en) * 2020-07-30 2022-12-01 한국과학기술연구원 Cctv control system for being enable to measure real size of subject using 3d environment model
JP6924455B1 (en) * 2020-09-17 2021-08-25 株式会社Qoncept Trajectory calculation device, trajectory calculation method, trajectory calculation program
WO2024023893A1 (en) * 2022-07-25 2024-02-01 三菱電機株式会社 Human detection device, human detection system, program, and human detection method

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008286638A (en) 2007-05-17 2008-11-27 Sogo Keibi Hosho Co Ltd Height estimation device and method
JP2009017026A (en) 2007-07-02 2009-01-22 Hitachi Kokusai Electric Inc Coordinate conversion method, parameter-adjusting method and monitoring system
JP2011215082A (en) 2010-04-01 2011-10-27 Nippon Telegr & Teleph Corp <Ntt> Method, apparatus and program for determination of imaging parameter
JP2013257349A (en) 2008-03-03 2013-12-26 Toa Corp Camera calibration result verification device and method
JP2016225953A (en) 2015-06-03 2016-12-28 株式会社日立製作所 Camera calibration device, camera system, and camera calibration method
JP2017103602A (en) 2015-12-01 2017-06-08 キヤノン株式会社 Position detection device, and position detection method and program
JP2017126072A (en) 2012-06-08 2017-07-20 サムスン エレクトロニクス カンパニー リミテッド Method and apparatus for concealing frame error and method and apparatus for audio decoding

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017126072A1 (en) * 2016-01-21 2017-07-27 株式会社日立製作所 Image recognition system, camera state estimation device and storage medium

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008286638A (en) 2007-05-17 2008-11-27 Sogo Keibi Hosho Co Ltd Height estimation device and method
JP2009017026A (en) 2007-07-02 2009-01-22 Hitachi Kokusai Electric Inc Coordinate conversion method, parameter-adjusting method and monitoring system
JP2013257349A (en) 2008-03-03 2013-12-26 Toa Corp Camera calibration result verification device and method
JP2011215082A (en) 2010-04-01 2011-10-27 Nippon Telegr & Teleph Corp <Ntt> Method, apparatus and program for determination of imaging parameter
JP2017126072A (en) 2012-06-08 2017-07-20 サムスン エレクトロニクス カンパニー リミテッド Method and apparatus for concealing frame error and method and apparatus for audio decoding
JP2016225953A (en) 2015-06-03 2016-12-28 株式会社日立製作所 Camera calibration device, camera system, and camera calibration method
JP2017103602A (en) 2015-12-01 2017-06-08 キヤノン株式会社 Position detection device, and position detection method and program

Also Published As

Publication number Publication date
JP2020056644A (en) 2020-04-09

Similar Documents

Publication Publication Date Title
JP7224832B2 (en) Information processing device, information processing method, and program
US11243072B2 (en) Method for the three dimensional measurement of moving objects during a known movement
JP5618569B2 (en) Position and orientation estimation apparatus and method
JP6195915B2 (en) Image measuring device
KR102085228B1 (en) Imaging processing method and apparatus for calibrating depth of depth sensor
CN107273846B (en) Human body shape parameter determination method and device
US20150287206A1 (en) Pupil detection method, corneal reflex detection method, facial posture detection method, and pupil tracking method
KR101126626B1 (en) System and Method for large-scale 3D reconstruction
JP2004340840A (en) Distance measuring device, distance measuring method and distance measuring program
JP2012042396A (en) Position attitude measurement device, position attitude measurement method, and program
JP2018518750A (en) Enhancement of depth map representation by reflection map representation
CN107924461A (en) For multifactor characteristics of image registration and method, circuit, equipment, system and the correlation computer executable code of tracking
JPWO2014002725A1 (en) Three-dimensional measurement method, apparatus and system, and image processing apparatus
US9235895B2 (en) Method for estimating direction of person standing still
CN116188558B (en) Stereo photogrammetry method based on binocular vision
KR101469099B1 (en) Auto-Camera Calibration Method Based on Human Object Tracking
JP5976089B2 (en) Position / orientation measuring apparatus, position / orientation measuring method, and program
KR20050061115A (en) Apparatus and method for separating object motion from camera motion
WO2020261404A1 (en) Person state detecting device, person state detecting method, and non-transient computer-readable medium containing program
JP4101478B2 (en) Human body end point detection method and apparatus
JP2004046464A (en) Apparatus and method for estimating three-dimensional position of mobile object, program, and recording medium thereof
JP2012160063A (en) Sphere detection method
JP7396364B2 (en) Image processing device, image processing method, and image processing program
US11263780B2 (en) Apparatus, method, and program with verification of detected position information using additional physical characteristic points
JP2012181063A (en) Calculation device, calculation method and calculation program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210922

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220729

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220816

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221003

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230110

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230208

R151 Written notification of patent or utility model registration

Ref document number: 7224832

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151