JP6615709B2 - Foreground region extraction apparatus, method, and program - Google Patents

Foreground region extraction apparatus, method, and program Download PDF

Info

Publication number
JP6615709B2
JP6615709B2 JP2016138882A JP2016138882A JP6615709B2 JP 6615709 B2 JP6615709 B2 JP 6615709B2 JP 2016138882 A JP2016138882 A JP 2016138882A JP 2016138882 A JP2016138882 A JP 2016138882A JP 6615709 B2 JP6615709 B2 JP 6615709B2
Authority
JP
Japan
Prior art keywords
region
foreground
area
virtual
foreground region
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016138882A
Other languages
Japanese (ja)
Other versions
JP2018010483A (en
Inventor
悠 米本
啓之 新井
哲也 杵渕
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2016138882A priority Critical patent/JP6615709B2/en
Publication of JP2018010483A publication Critical patent/JP2018010483A/en
Application granted granted Critical
Publication of JP6615709B2 publication Critical patent/JP6615709B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Description

本発明は、前景領域抽出装置、方法、及びプログラムに係り、特に、入力された画像から、背景画像との差分により、物体を表す前景領域を抽出するための前景領域抽出装置、方法、及びプログラムに関する。   The present invention relates to a foreground area extraction apparatus, method, and program, and in particular, a foreground area extraction apparatus, method, and program for extracting a foreground area representing an object from an input image based on a difference from a background image. About.

近年、監視カメラ設置台数の増加に伴い、画像処理技術を使って映像の意味理解を自動的に行い、人手で監視するコストを削減するサービスに注目が集まっている。映像の意味を理解するには、例えば、物体や人を検出し、検出した物体や人の状態を認識するといった処理が必要であるが、すべてのフレームについて画像全体を走査すると計算コストが大きくなってしまうという問題がある。そこで、監視カメラ映像では、長時間にわたってカメラが定位置に固定されており、環境物がほとんど変化しないという前提を用いることで、映像中に出入りする物体・人部分(前景)だけを前処理的に抽出し、処理対象を狭めるというアプローチがよく用いられる。   In recent years, with the increase in the number of surveillance cameras installed, attention has been focused on services that automatically understand the meaning of video using image processing technology and reduce the cost of manual monitoring. To understand the meaning of a video, for example, processing such as detecting an object or person and recognizing the state of the detected object or person is necessary. However, if the entire image is scanned for all frames, the calculation cost increases. There is a problem that it ends up. Therefore, in the surveillance camera image, the camera is fixed at a fixed position for a long time, and by using the premise that the environmental objects hardly change, only the object / person part (foreground) entering and exiting the image is preprocessed. The approach of narrowing down the processing target is often used.

Z. Zivkovic and F. van der Heijden, Efficient adaptive density estimation per image pixel for the task of background subtraction , Pattern Recognit. Lett., vol. 27, pp. 773-780, 2006Z. Zivkovic and F. van der Heijden, Efficient adaptive density estimation per image pixel for the task of background subtraction, Pattern Recognit. Lett., Vol. 27, pp. 773-780, 2006

前景領域は、ある時刻に得られた画像と、別途用意した背景の環境だけが映った画像(背景画像)との差分をとることにより得られる。このような処理で行う性質上、単純に差分をとるだけでは前景領域に本来注目対象ではない影が含まれてしまうという問題がある。これを解決する手段として、Gaussian mixtureモデルを使って逐次的に背景を構築することで、影部分を推定する手法などがある(非特許文献1参照)。しかしながら、非特許文献1のような技術では、照明が間接的に被写体に当たっており、影が薄くなる環境においては良好に影を検出することができるが、太陽光が被写体に直接当っており、影が濃くはっきりでる環境においては精度よく影を検出することができない。   The foreground area is obtained by taking a difference between an image obtained at a certain time and an image (background image) in which only a separately prepared background environment is shown. Due to the nature of such processing, there is a problem in that a shadow that is not an object of interest is included in the foreground area simply by taking a difference. As means for solving this, there is a method of estimating a shadow part by sequentially constructing a background using a Gaussian mixture model (see Non-Patent Document 1). However, in the technique as described in Non-Patent Document 1, although the illumination is indirectly applied to the subject and the shadow can be detected well in an environment where the shadow becomes thin, the sunlight is directly applied to the subject and the shadow In a dark and clear environment, shadows cannot be detected accurately.

本発明は、上記事情を鑑みて成されたものであり、太陽光が直接被写体に当たるような環境であっても、前景領域を精度よく抽出することができる前景領域抽出装置、方法、及びプログラムを提供することを目的とする。   The present invention has been made in view of the above circumstances, and provides a foreground region extraction apparatus, method, and program capable of accurately extracting a foreground region even in an environment where sunlight directly strikes a subject. The purpose is to provide.

上記目的を達成するために、第1の発明に係る前景領域抽出装置は、入力された画像から、背景画像との差分により、物体を表す前景領域を抽出する前景領域抽出装置であって、予め定められた前記物体の長さに基づいて仮想的な前記物体の領域又は仮想的な前記物体の影の領域を含む仮想前景領域を生成する仮想前景領域生成部と、前記画像から、前記背景画像との差分により、前記物体を表す実前景領域を抽出する前景領域抽出部と、前記仮想前景領域生成部により生成された仮想前景領域と、前記前景領域抽出部により抽出された実前景領域とが重なる領域に基づいて、前記物体らしい領域又は前記物体の影らしい領域を表すマップ画像を生成する領域マッチング部と、前記領域マッチング部により生成された前記マップ画像に基づいて、前記前景領域抽出部により抽出された前記実前景領域から、前記前景領域を得る選択的前景領域処理部と、を含んで構成されている。   In order to achieve the above object, a foreground region extraction device according to a first aspect of the present invention is a foreground region extraction device that extracts a foreground region representing an object based on a difference from a background image from an input image. A virtual foreground region generation unit that generates a virtual foreground region including a virtual region of the object or a virtual shadow region of the object based on the determined length of the object; and the background image from the image A foreground region extraction unit that extracts a real foreground region representing the object, a virtual foreground region generated by the virtual foreground region generation unit, and a real foreground region extracted by the foreground region extraction unit. Based on the overlapping area, an area matching unit that generates a map image that represents the object-like area or the object-like shadow area, and the map image generated by the area matching unit. , Wherein the real foreground region extracted by the foreground region extraction unit is configured to include a a selective foreground region processing unit for obtaining the foreground area.

また、第1の発明に係る前景領域抽出装置において、前記仮想前景領域生成部は、予め定められた物体のサイズに基づいて、前記仮想的な前記物体の領域を計算し、前記仮想的な前記物体の領域を含む前記仮想前景領域を生成し、前記領域マッチング部は、前記仮想前景領域生成部により生成された仮想前景領域と、前記前景領域抽出部により抽出された実前景領域とが重なる領域に基づいて、前記物体らしい領域を表す前記マップ画像を生成し、前記選択的前景領域処理部は、前記領域マッチング部により生成された前記マップ画像に基づいて、前記前景領域抽出部により抽出された実前景領域から、前記物体の領域を抽出した前景領域を得るようにしてもよい。   Further, in the foreground region extraction device according to the first invention, the virtual foreground region generation unit calculates the virtual region of the object based on a predetermined size of the object, and the virtual The virtual foreground region including the region of the object is generated, and the region matching unit overlaps the virtual foreground region generated by the virtual foreground region generation unit and the real foreground region extracted by the foreground region extraction unit. The selective foreground region processing unit is extracted by the foreground region extraction unit based on the map image generated by the region matching unit. A foreground area obtained by extracting the object area from the actual foreground area may be obtained.

また、第1の発明に係る前景領域抽出装置において、前記画像を撮影した日時を取得する日時取得部を更に含み、前記仮想前景領域生成部は、予め求められた前記画像を撮影したカメラの方角及び設置位置と、前記日時取得部により取得した前記日時と、前記物体の長さとに基づいて、前記日時における前記物体の影の領域を計算し、前記物体の影の領域を含む前記仮想前景領域を生成し、前記領域マッチング部は、前記仮想前景領域生成部により生成された仮想前景領域と、前記前景領域抽出部により抽出された実前景領域とが重なる領域に基づいて、前記物体の影らしい領域を表す前記マップ画像を生成し、前記選択的前景領域処理部は、前記領域マッチング部により生成された前記マップ画像に基づいて、前記前景領域抽出部により抽出された実前景領域から、前記影の領域を除去した前記前景領域を得るようにしてもよい。   The foreground region extraction device according to the first aspect of the present invention further includes a date and time acquisition unit that acquires the date and time when the image was captured, wherein the virtual foreground region generation unit is a direction of the camera that captured the image obtained in advance. And the virtual foreground region including the shadow region of the object by calculating the shadow region of the object at the date and time based on the installation position, the date and time acquired by the date and time acquisition unit, and the length of the object And the region matching unit seems to be a shadow of the object based on a region where the virtual foreground region generated by the virtual foreground region generation unit overlaps the real foreground region extracted by the foreground region extraction unit. The map image representing an area is generated, and the selective foreground area processing unit extracts the map image based on the map image generated by the area matching unit. From the actual foreground regions which are, it may be obtained the foreground region to remove the region of the shadow.

また、第1の発明に係る前景領域抽出装置において、前記領域マッチング部は、前記仮想前景領域を走査する毎に、前記仮想前景領域と前記実前景領域とが重なる領域の面積比により求まる一致度を算出することにより、前記マップ画像を生成するようにしてもよい。   In the foreground region extraction device according to the first invention, the region matching unit obtains a degree of coincidence obtained by an area ratio of regions where the virtual foreground region and the real foreground region overlap each time the virtual foreground region is scanned. The map image may be generated by calculating.

第2の発明に係る前景領域抽出方法は、入力された画像から、背景画像との差分により、物体を表す前景領域を抽出する前景領域抽出装置における前景領域抽出方法であって、仮想前景領域生成部が、予め定められた前記物体の長さに基づいて仮想的な前記物体の領域又は仮想的な前記物体の影の領域を含む仮想前景領域を生成するステップと、前景領域抽出部が、前記画像から、前記背景画像との差分により、前記物体を表す実前景領域を抽出するステップと、領域マッチング部が、前記仮想前景領域生成部により生成された仮想前景領域と、前記前景領域抽出部により抽出された実前景領域とが重なる領域に基づいて、前記物体らしい領域又は前記物体の影らしい領域を表すマップ画像を生成するステップと、選択的前景領域処理部が、前記領域マッチング部により生成された前記マップ画像に基づいて、前記前景領域抽出部により抽出された前記実前景領域から、前記前景領域を得るステップと、を含んで実行することを特徴とする。   A foreground region extraction method according to a second invention is a foreground region extraction method in a foreground region extraction apparatus that extracts a foreground region representing an object from an input image based on a difference from a background image. A step of generating a virtual foreground region including a virtual region of the object or a virtual shadow region of the object based on a predetermined length of the object; and a foreground region extraction unit, A step of extracting a real foreground region representing the object based on a difference from the background image from an image; and a region matching unit including a virtual foreground region generated by the virtual foreground region generation unit and the foreground region extraction unit. A step of generating a map image representing an area that is likely to be the object or an area that is likely to be a shadow of the object based on an area that overlaps the extracted real foreground area; and a selective foreground area processing unit, On the basis of the map image generated by the serial area matching unit, wherein the real foreground region extracted by the foreground region extraction unit, and executes comprise the steps of obtaining the foreground area.

また、第2の発明に係る前景領域抽出方法において、前記仮想前景領域生成部が生成するステップは、予め定められた物体のサイズに基づいて、前記仮想的な前記物体の領域を計算し、前記仮想的な前記物体の領域を含む前記仮想前景領域を生成し、前記領域マッチング部が生成するステップは、前記仮想前景領域生成部により生成された仮想前景領域と、前記前景領域抽出部により抽出された実前景領域とが重なる領域に基づいて、前記物体らしい領域を表す前記マップ画像を生成し、前記選択的前景領域処理部が前景領域を得るステップは、前記領域マッチング部により生成された前記マップ画像に基づいて、前記前景領域抽出部により抽出された実前景領域から、前記物体の領域を抽出した前景領域を得るようにしてもよい。   Further, in the foreground region extraction method according to the second invention, the step of generating the virtual foreground region generator calculates the virtual region of the object based on a predetermined size of the object, The step of generating the virtual foreground area including the virtual object area and generating by the area matching unit is extracted by the virtual foreground area generated by the virtual foreground area generation unit and the foreground area extraction unit. The step of generating the map image representing the object-like area based on the area that overlaps the actual foreground area, and the selective foreground area processing unit obtaining the foreground area includes the map generated by the area matching unit. A foreground area obtained by extracting the object area from the actual foreground area extracted by the foreground area extraction unit may be obtained based on the image.

また、第2の発明に係る前景領域抽出方法において、日時取得部が、前記画像を撮影した日時を取得するステップを更に含み、前記仮想前景領域生成部が生成するステップは、予め求められた前記画像を撮影したカメラの方角及び設置位置と、前記日時取得部により取得した前記日時と、前記物体の長さとに基づいて、前記日時における前記物体の影の領域を計算し、前記物体の影の領域を含む前記仮想前景領域を生成し、前記領域マッチング部が生成するステップは、前記仮想前景領域生成部により生成された仮想前景領域と、前記前景領域抽出部により抽出された実前景領域とが重なる領域に基づいて、前記物体の影らしい領域を表す前記マップ画像を生成し、前記選択的前景領域処理部が前景領域を得るステップは、前記領域マッチング部により生成された前記マップ画像に基づいて、前記前景領域抽出部により抽出された実前景領域から、前記影の領域を除去した前記前景領域を得るようにしてもよい。   Further, in the foreground region extraction method according to the second invention, the date and time acquisition unit further includes a step of acquiring the date and time when the image was captured, and the step of generating the virtual foreground region generation unit includes the previously obtained step Based on the direction and installation position of the camera that captured the image, the date and time acquired by the date and time acquisition unit, and the length of the object, the shadow area of the object at the date and time is calculated, and the shadow of the object is calculated. The step of generating the virtual foreground region including the region and generating the region matching unit includes: a virtual foreground region generated by the virtual foreground region generation unit; and a real foreground region extracted by the foreground region extraction unit. The step of generating the map image representing a shadow-like area of the object based on the overlapping area and the selective foreground area processing unit obtaining a foreground area includes the area matching On the basis of the map image generated by the parts, from the actual foreground region extracted by the foreground region extraction section, may be obtained the foreground region to remove the region of the shadow.

また、第3の発明に係るプログラムは、コンピュータを、上記第1の発明に係る前景領域抽出装置の各部として機能させるためのプログラムである。   A program according to the third invention is a program for causing a computer to function as each part of the foreground region extraction device according to the first invention.

本発明の前景領域抽出装置、方法、及びプログラムによれば、予め定められた物体の長さに基づいて仮想的な物体の領域又は仮想的な物体の影の領域を含む仮想前景領域を生成し、画像から、背景画像との差分により、物体を表す実前景領域を抽出し、生成された仮想前景領域と、抽出された実前景領域とが重なる領域に基づいて、物体らしい領域又は物体の影らしい領域を表すマップ画像を生成し、マップ画像に基づいて、抽出された実前景領域から、前景領域を得ることにより、太陽光が直接被写体に当たるような環境であっても、前景領域を精度よく抽出することができる、という効果が得られる。   According to the foreground region extraction apparatus, method, and program of the present invention, a virtual foreground region including a virtual object region or a virtual object shadow region is generated based on a predetermined object length. The real foreground area representing the object is extracted from the image by the difference from the background image, and the object-like area or object shadow is based on the area where the generated virtual foreground area and the extracted real foreground area overlap. A foreground area is accurately generated even in an environment where sunlight directly hits the subject by generating a map image that represents a distinct area and obtaining the foreground area from the extracted actual foreground area based on the map image The effect that it can extract is acquired.

本発明の第1の実施の形態に係る前景領域抽出装置の構成を示すブロック図である。It is a block diagram which shows the structure of the foreground area | region extraction apparatus which concerns on the 1st Embodiment of this invention. 仮想的な人を上から見た例と、人の両端の位置を射影して得た点から生成した仮想前景領域の一例を示す図である。It is a figure which shows an example which looked at the virtual person from the top, and an example of the virtual foreground area | region produced | generated from the point obtained by projecting the position of the both ends of a person. 実前景領域に対する探索枠の一例を示す図である。It is a figure which shows an example of the search frame with respect to a real foreground area | region. 仮想前景領域の走査の一例を示す図である。It is a figure which shows an example of the scanning of a virtual foreground area | region. マスク画像の生成、及び前景領域の抽出の一例を示す図である。It is a figure which shows an example of the production | generation of a mask image, and extraction of a foreground area | region. 本発明の第1の実施の形態に係る前景領域抽出装置における前景領域抽出処理ルーチンを示すフローチャートである。It is a flowchart which shows the foreground area extraction processing routine in the foreground area extraction apparatus which concerns on the 1st Embodiment of this invention. 本発明の第1の実施の形態に係る仮想前景領域生成処理ルーチンを示すフローチャートである。It is a flowchart which shows the virtual foreground area | region production | generation routine based on the 1st Embodiment of this invention. 本発明の第1の実施の形態に係る領域マッチング処理ルーチンを示すフローチャートである。It is a flowchart which shows the area | region matching processing routine which concerns on the 1st Embodiment of this invention. 本発明の実施の形態に係る選択的前景領域処理ルーチンを示すフローチャートである。It is a flowchart which shows the selective foreground area | region processing routine which concerns on embodiment of this invention. 本発明の第2の実施の形態に係る前景領域抽出装置の構成を示すブロック図である。It is a block diagram which shows the structure of the foreground area | region extraction apparatus which concerns on the 2nd Embodiment of this invention. 仮想的な人を上から見た例と、人の両端の位置、及び当該人の影の両端の位置を射影して得た点から生成した仮想前景領域の一例を示す図である。It is a figure which shows an example which looked at the virtual person from the top, and an example of the virtual foreground area | region produced | generated from the point obtained by projecting the position of the both ends of a person, and the position of the both ends of the said person's shadow. 仮想前景領域の走査の一例を示す図である。It is a figure which shows an example of the scanning of a virtual foreground area | region. 本発明の第2の実施の形態に係る前景領域抽出装置における前景領域抽出処理ルーチンを示すフローチャートである。It is a flowchart which shows the foreground area extraction processing routine in the foreground area extraction apparatus which concerns on the 2nd Embodiment of this invention. 本発明の第2の実施の形態に係る仮想前景領域生成処理ルーチンを示すフローチャートである。It is a flowchart which shows the virtual foreground area | region production | generation routine based on the 2nd Embodiment of this invention.

以下、図面を参照して本発明の実施の形態を詳細に説明する。   Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.

<本発明の実施の形態に係る概要> <Outline according to Embodiment of the Present Invention>

まず、本発明の実施の形態における概要を説明する。本発明の実施の形態では上記の課題の解決を図るために、カメラ設置時に行うカメラキャリブレーションの情報や、カメラの向いている方角及び設置場所の緯度・経度といった環境情報をもとに、人の長さの比をシミュレートするか、又は影の長さの比や、影の出る方角をシミュレートすることで仮想的に前景領域を生成し、仮想的な前景領域と実際の前景領域とを比較することによって、人領域を選択的に得る処理を行うことを特徴としている。なお、本実施の形態では、物体として人の前景領域を得る場合について説明するが、これに限定されるものではなく、他の物体(例えば動物、車等)としてもよい。   First, an outline of the embodiment of the present invention will be described. In an embodiment of the present invention, in order to solve the above-described problem, based on environment calibration information such as camera calibration information performed at the time of camera installation and the direction of the camera and the latitude / longitude of the installation location, The foreground area is virtually generated by simulating the ratio of the lengths of the shadows, or by simulating the ratio of the shadow lengths and the direction in which the shadows appear, and the virtual foreground area and the actual foreground area are It is characterized in that processing for selectively obtaining a human region is performed by comparing. In the present embodiment, a case where a foreground region of a person is obtained as an object will be described. However, the present invention is not limited to this, and other objects (for example, animals, cars, etc.) may be used.

本実施の形態の手法を用いることで、屋外環境のように、太陽光が直接当たり、影が濃くはっきりと出る環境において、ある時刻に取得された画像と背景画像との差分処理によって得られた影を含む前景領域から、物体の領域を選択的に残すことができる。   By using the method of the present embodiment, it is obtained by the difference processing between an image acquired at a certain time and a background image in an environment where sunlight directly hits and shadows are dark and distinct, such as in an outdoor environment. An object region can be selectively left from the foreground region including the shadow.

<本発明の第1の実施の形態に係る前景領域抽出装置の構成> <Configuration of Foreground Area Extraction Device According to First Embodiment of the Present Invention>

次に、本発明の第1の実施の形態に係る前景領域抽出装置の構成について説明する。図1に示すように、本発明の実施の形態に係る前景領域抽出装置100は、CPUと、RAMと、後述する前景領域抽出処理ルーチンを実行するためのプログラムや各種データを記憶したROMと、を含むコンピュータで構成することが出来る。この前景領域抽出装置100は、機能的には図1に示すように入力部10と、演算部20と、出力部50とを備えている。   Next, the configuration of the foreground region extraction apparatus according to the first embodiment of the present invention will be described. As shown in FIG. 1, a foreground area extraction apparatus 100 according to an embodiment of the present invention includes a CPU, a RAM, a ROM for storing a program and various data for executing a foreground area extraction processing routine to be described later, Can be configured with a computer including Functionally, the foreground region extraction apparatus 100 includes an input unit 10, a calculation unit 20, and an output unit 50 as shown in FIG.

入力部10は、固定された位置に設置されたカメラにより撮影された映像を受け付ける。また、入力部10は、カメラに関するキャリブレーション情報を受け付ける。   The input unit 10 receives an image shot by a camera installed at a fixed position. The input unit 10 receives calibration information related to the camera.

演算部20は、キャリブレーション情報保存部26と、カメラ情報DB28と、映像取得部30と、撮影情報取得部32と、照明状態判定部34と、既存前景領域抽出部36と、仮想前景領域生成部40と、前景領域抽出部42と、領域マッチング部44と、選択的前景領域処理部46とを含んで構成されている。   The calculation unit 20 includes a calibration information storage unit 26, a camera information DB 28, a video acquisition unit 30, a shooting information acquisition unit 32, an illumination state determination unit 34, an existing foreground region extraction unit 36, and a virtual foreground region generation. A unit 40, a foreground region extraction unit 42, a region matching unit 44, and a selective foreground region processing unit 46.

キャリブレーション情報保存部26は、入力部10により受け付けたカメラのキャリブレーション情報を、カメラ情報DB28に保存する。カメラのキャリブレーションは、監視カメラ設置時に行うが、例えば非特許文献2のような方法によりキャリブレーションを行う。キャリブレーションにより、カメラと床面との距離、床面に対するカメラの角度、焦点距離・歪み係数といったカメラ内部パラメータを取得することができる。さらに、これらのキャリブレーション情報に加え、カメラの撮影方向の方角、カメラ設置位置の緯度・経度の情報を別途、キャリブレーション情報として取得する。キャリブレーション情報保存部26は、取得した各種のキャリブレーション情報を、カメラ情報DB28に保存する。   The calibration information storage unit 26 stores the camera calibration information received by the input unit 10 in the camera information DB 28. The camera calibration is performed when the surveillance camera is installed. For example, the calibration is performed by a method as described in Non-Patent Document 2. By calibration, camera internal parameters such as the distance between the camera and the floor, the angle of the camera with respect to the floor, and the focal length / distortion coefficient can be acquired. Further, in addition to the calibration information, the direction of the camera shooting direction and the latitude / longitude information of the camera installation position are separately acquired as calibration information. The calibration information storage unit 26 stores the acquired various types of calibration information in the camera information DB 28.

[非特許文献2]I. Miyagawa , H. Arai and H. Koike, Simple camera calibration from a single image using five points on two orthogonal 1-d objects, IEEE Trans. Image Process., vol. 19, no. 6, pp. 1528-1538, 2010. [Non-Patent Document 2] I. Miyagawa, H. Arai and H. Koike, Simple camera calibration from a single image using five points on two orthogonal 1-d objects, IEEE Trans. Image Process., Vol. 19, no. 6 , pp. 1528-1538, 2010.

映像取得部30は、入力部10で受け付けた映像について、各時刻における画像の各々を取得する。なお、画像取得には、撮影情報取得部32に必要な情報を取得することができるカメラを使用しているものとする。   The video acquisition unit 30 acquires each of the images at each time for the video received by the input unit 10. It is assumed that a camera that can acquire information necessary for the shooting information acquisition unit 32 is used for image acquisition.

撮影情報取得部32は、映像取得部30で取得した画像の各々から、露光に関する情報を取得する。本実施の形態では、露光に関する情報を取得することとするが、例えば、逆光補正の値や、インターネットから入手できる天候の情報など、照明状態判定部34において、照明状態を推定するための情報として用いることができる他の情報を取得してもよい。   The shooting information acquisition unit 32 acquires information related to exposure from each of the images acquired by the video acquisition unit 30. In the present embodiment, information related to exposure is acquired. For example, as information for estimating the illumination state in the illumination state determination unit 34 such as a backlight correction value and weather information available from the Internet. Other information that can be used may be obtained.

照明状態判定部34は、既存技術では推定が難しい濃い影が出現する環境であるかどうかを判定するため、撮影情報取得部32で得られた情報に基づいて、直射日光のような明るい光が被写体に当たっているか否かを判定する。例えば、露光状態と輝度値と、照明状態の情報をあらかじめ蓄積し、露光状態と輝度値から、照明状態を推定する方法などによって判定できる。   The illumination state determination unit 34 determines whether or not the environment has a dark shadow that is difficult to estimate with existing technology. Therefore, based on the information obtained by the imaging information acquisition unit 32, bright light such as direct sunlight is emitted. It is determined whether or not the subject is hit. For example, the exposure state, the luminance value, and the illumination state information are accumulated in advance, and the determination can be made by a method of estimating the illumination state from the exposure state and the luminance value.

照明状態判定手段の結果、明るい光が被写体に当たっていない(曇っていたりなどして、濃い影が出ていない状況)と判定された場合には、既存手法による既存前景領域抽出部36により、画像の各々について、非特許文献1のような既存の影推定方法を用いて、背景画像との差分により、物体を表す前景領域を抽出し、出力部50に出力する。一方で、明るい光が被写体に当たっていると判定された場合には、仮想前景領域生成部40以降の処理を行う。   As a result of the illumination state determination means, when it is determined that bright light is not hitting the subject (a cloudy state or the like, a dark shadow does not appear), the existing foreground region extraction unit 36 using the existing method is used. For each, a foreground region representing an object is extracted based on the difference from the background image using an existing shadow estimation method as in Non-Patent Document 1, and is output to the output unit 50. On the other hand, if it is determined that bright light is hitting the subject, the processing after the virtual foreground region generation unit 40 is performed.

仮想前景領域生成部40は、予め定められた人のサイズと、カメラ情報DB28に保存されているキャリブレーション情報とに基づいて、仮想的な人の領域を計算し、仮想的な人の領域を含む仮想前景領域を生成する。仮想前景領域生成部40では、まず、カメラ情報DB28に保存された、カメラと床面との距離、角度、焦点距離と歪みパラメータ等のキャリブレーション情報を用いて、仮想的なカメラ位置から人を撮影した場合を仮定した投影面に対して、人の両端の位置を射影する。次に、射影された人の両端の位置に基づいて、人の領域を長方形で近似したボリュームで表現し、仮想前景領域を生成する。なお、本実施の形態においては、人の領域を長方形で近似したが、楕円形など他の図形で近似してもよい。図2に仮想的な人を上から見た例と、人の両端の位置を射影して得た点から生成した仮想前景領域の一例を示す。   The virtual foreground area generation unit 40 calculates a virtual person area based on the predetermined size of the person and the calibration information stored in the camera information DB 28, and calculates the virtual person area. Generate a virtual foreground region that contains First, the virtual foreground region generation unit 40 uses the calibration information stored in the camera information DB 28 such as the distance between the camera and the floor, the angle, the focal length, and the distortion parameters to detect a person from the virtual camera position. The positions of both ends of the person are projected on the projection plane assumed to be taken. Next, based on the positions of both ends of the projected person, the person's area is represented by a volume approximated by a rectangle to generate a virtual foreground area. In the present embodiment, the human region is approximated by a rectangle, but may be approximated by another figure such as an ellipse. FIG. 2 shows an example of a virtual person viewed from above, and an example of a virtual foreground area generated from points obtained by projecting the positions of both ends of the person.

前景領域抽出部42は、映像取得部30で取得した画像の各々から、背景画像との差分により、人を表す実前景領域を抽出する。実前景領域の抽出には、既存前景領域抽出部36と同様、既存手法を用いればよい。   The foreground area extraction unit 42 extracts an actual foreground area representing a person from each of the images acquired by the video acquisition unit 30 based on a difference from the background image. For extraction of the actual foreground area, an existing method may be used as in the existing foreground area extraction unit 36.

領域マッチング部44は、以下に説明するように、仮想前景領域生成部40により生成された仮想前景領域のうちの人の領域と、前景領域抽出部42により抽出された実前景領域とが重なる領域に基づいて、人らしい領域を表すマップ画像を生成する。   As will be described below, the region matching unit 44 is based on a region in which a human region in the virtual foreground region generated by the virtual foreground region generation unit 40 and the real foreground region extracted by the foreground region extraction unit 42 overlap. Then, a map image representing a person-like area is generated.

領域マッチング部44では、まず、実前景領域の個々の塊に接するような枠に対してオフセットoを足して拡張した枠(探索枠)を計算する。図3に探索枠の一例を示す。次に、画素(i,j)毎に、計算した探索枠の内部全領域に仮想前景領域を走査させたときの仮想前景領域と実前景領域との一致度合いを計算していく。このオフセットoは、恣意的に指定してもよいし、計算結果の精度がよくなるよう学習されたパラメータを用いてもよい。探索枠内の実前景領域中の位置における画素(i,j)に対し、人に対する一致度の積算値S(i,j)を計算する。これにより、人らしい領域を表すマップ画像を得ることができる。一致度は、仮想前景領域の面積に対する、仮想前景領域と実前景領域とが重なる領域の面積比であり、仮想前景領域を走査する毎に求められる。図4に仮想前景領域の走査の一例を示す。今、探索枠の中で、仮想前景領域の左上座標が実前景領域における座標(k,l)である時の一致度をm(k,l)としたとき、人の領域に対する画素(i,j)の一致度の積算値は、以下(1)式により計算される。 The area matching unit 44 first calculates a frame (search frame) that is expanded by adding an offset o to a frame that touches each block of the actual foreground region. FIG. 3 shows an example of the search frame. Next, for each pixel (i, j), the degree of coincidence between the virtual foreground area and the actual foreground area when the virtual foreground area is scanned over the entire area inside the calculated search frame is calculated. The offset o may be arbitrarily specified, or a parameter learned so as to improve the accuracy of the calculation result may be used. For the pixel (i, j) at the position in the actual foreground region within the search frame, the integrated value S h (i, j) of the degree of coincidence with the person is calculated. Thereby, a map image representing a human-like area can be obtained. The degree of coincidence is the area ratio of the area where the virtual foreground area and the real foreground area overlap with the area of the virtual foreground area, and is obtained each time the virtual foreground area is scanned. FIG. 4 shows an example of scanning of the virtual foreground area. Now, in the search frame, when the degree of coincidence when the upper left coordinate of the virtual foreground region is the coordinate (k, l) in the real foreground region is m (k, l), the pixel (i, The integrated value of the degree of coincidence in j) is calculated by the following equation (1).

ここで、Cは、画素(i,j)が仮想前景領域と実前景領域の重なった部分に含まれるような(k,l)の集合を表し、画素(i,j)毎に求められる。Hは、仮想前景領域の左上座標が(k,l)にある時、仮想前景領域中の人の領域と重なる実前景領域の座標の集合を表す。計算により得られた積算値Sにより、人らしい領域を表すマップ画像Sが生成される。また、人の映り込む大きさは画像位置によって大きさが異なるため、仮想前景領域を、比較する実前景領域の位置に合わせて拡大縮小しながら一致度を計算することとする。この拡大縮小の倍率は、カメラDB28に保存されたパラメータを用いて、ある画像位置に高さhの物体の領域の下端が来る場合、画像上何ピクセルになるかを計算しておくことで得ることができる。本実施の形態では、一致度m(i,j)を面積比としたが、他の指標を用いて一致度を計算してもよい。また、積算値Sについても、単純な和をとる例を示したが、和をとって積算数で割るなど、別の方法を用いてもよい。 Here, C represents a set of (k, l) in which the pixel (i, j) is included in the overlapping portion of the virtual foreground area and the real foreground area, and is obtained for each pixel (i, j). H represents a set of coordinates of the real foreground region that overlaps the human region in the virtual foreground region when the upper left coordinate of the virtual foreground region is at (k, l). The integrated value S h obtained by the calculation, a map image S h which represents the human likely area is generated. In addition, since the size of the reflection of the person varies depending on the image position, the degree of coincidence is calculated while enlarging / reducing the virtual foreground area in accordance with the position of the actual foreground area to be compared. The enlargement / reduction ratio is obtained by calculating the number of pixels on the image when the lower end of the region of the object having the height h comes to a certain image position using the parameters stored in the camera DB 28. be able to. In the present embodiment, the degree of coincidence m (i, j) is the area ratio, but the degree of coincidence may be calculated using another index. As for the integrated value S h, an example has been shown to take a simple sum, such as divided by the number of integrating summing may be used another method.

選択的前景領域処理部46は、以下に説明するように、領域マッチング部44により生成されたマップ画像に基づいて、前景領域抽出部42により抽出された実前景領域から、物体の領域を抽出した前景領域を得る。   As described below, the selective foreground region processing unit 46 extracts an object region from the actual foreground region extracted by the foreground region extraction unit 42 based on the map image generated by the region matching unit 44. Get the foreground area.

選択的前景領域処理部46では、まず、領域マッチング部44によって得られた人らしい領域を表すマップ画像Sのうち、閾値T以上の画素位置を1、閾値以下となる画素位置を0として、マスク画像を生成する。生成したマスク画像Sを、実前景領域にオーバーラップし、Sで1となっている位置のみ、前景領域を残す処理を行う。これにより、人の領域としての確からしさが高い前景領域のみを選択的に得ることができる。図5にマスク画像の生成、及び前景領域の抽出の一例を示す。 In selective foreground region processing unit 46, first, among the map image S h which represents the person likely area obtained by the area matching unit 44, 1 pixel positions of more than the threshold T, the following pixel position serving as the threshold value as 0, A mask image is generated. The generated mask image S h, overlaps the real foreground area, only the location which is a 1 S h, performs processing to leave the foreground area. As a result, it is possible to selectively obtain only the foreground region having a high probability as a human region. FIG. 5 shows an example of mask image generation and foreground region extraction.

<本発明の第1の実施の形態に係る前景領域抽出装置の作用> <Operation of Foreground Area Extraction Device According to First Embodiment of the Present Invention>

次に、本発明の第1の実施の形態に係る前景領域抽出装置100の作用について説明する。入力部10において、固定された位置に設置されたカメラにより撮影された映像、及びカメラに関するキャリブレーション情報を受け付け、カメラ情報DB28に保存すると、前景領域抽出装置100は、図6に示す前景領域抽出処理ルーチンを実行する。   Next, the operation of the foreground region extraction apparatus 100 according to the first embodiment of the present invention will be described. When the input unit 10 receives a video taken by a camera installed at a fixed position and calibration information about the camera and stores them in the camera information DB 28, the foreground area extraction device 100 extracts the foreground area shown in FIG. Execute the processing routine.

まず、ステップS100では、入力部10で受け付けた映像について、各時刻における画像の各々を取得する。   First, in step S100, each image at each time is acquired for the video received by the input unit 10.

次に、ステップS102では、映像取得部30で取得した画像の各々から、露光に関する情報を取得する。   Next, in step S102, information related to exposure is acquired from each of the images acquired by the video acquisition unit 30.

ステップS104では、ステップS102で得られた情報に基づいて、直射日光のような明るい光が被写体に当たっているか否かを判定し、明るい光が被写体に当たっていないと判定された場合は、ステップS106へ移行し、明るい光が被写体に当たっていると判定された場合には、ステップS108へ移行する。   In step S104, it is determined based on the information obtained in step S102 whether or not bright light such as direct sunlight is hitting the subject. If it is determined that bright light is not hitting the subject, the process proceeds to step S106. If it is determined that bright light is hitting the subject, the process proceeds to step S108.

ステップS106では、画像の各々について、非特許文献1のような既存の影推定方法を用いて、背景画像との差分により、物体を表す前景領域を抽出し、出力部50に出力し、処理を終了する。   In step S106, a foreground region representing an object is extracted from each image using a difference from the background image using an existing shadow estimation method such as that described in Non-Patent Document 1, and is output to the output unit 50 for processing. finish.

ステップS108では、予め定められた人のサイズと、カメラ情報DB28に保存されているキャリブレーション情報とに基づいて、仮想的な人の領域を計算し、仮想的な人の領域を含む仮想前景領域を生成する。   In step S108, a virtual foreground area including a virtual person area is calculated based on a predetermined person size and calibration information stored in the camera information DB 28. Is generated.

ステップS110では、ステップS100で取得した画像の各々から、背景画像との差分により、人を表す実前景領域を抽出する。   In step S110, an actual foreground region representing a person is extracted from each of the images acquired in step S100 based on the difference from the background image.

ステップS112では、画像の各々について、ステップS108で生成された仮想前景領域のうちの人の領域と、ステップS110で抽出された実前景領域とが重なる領域に基づいて、仮想前景領域を走査する毎に、仮想前景領域の面積に対する、仮想前景領域と実前景領域とが重なる領域の面積比により求まる一致度を算出することにより、物体らしい領域を表すマップ画像を生成する。   In step S112, for each of the images, each time the virtual foreground region is scanned based on the region where the human region of the virtual foreground region generated in step S108 overlaps the real foreground region extracted in step S110, By calculating the degree of coincidence obtained by the area ratio of the area where the virtual foreground area and the real foreground area overlap with the area of the virtual foreground area, a map image representing an object-like area is generated.

ステップS114では、画像の各々について、ステップS112で生成されたマップ画像に基づいて、ステップS110で抽出された実前景領域から、物体の領域を抽出した前景領域を得て、出力部50に出力し、処理を終了する。   In step S114, the foreground area obtained by extracting the object area is obtained from the actual foreground area extracted in step S110 based on the map image generated in step S112 for each of the images, and is output to the output unit 50. The process is terminated.

上記ステップS108は、図7に示す仮想前景領域生成処理ルーチンによって実行される。   Step S108 is executed by the virtual foreground area generation processing routine shown in FIG.

ステップS200では、カメラ情報DB28に保存された、カメラと床面との距離、角度、焦点距離と歪みパラメータ等のキャリブレーション情報を用いて、仮想的なカメラ位置から人を撮影した場合を仮定した投影面に対して、人の両端の位置を射影する。   In step S200, it is assumed that a person is photographed from a virtual camera position using calibration information stored in the camera information DB 28 such as the distance between the camera and the floor, the angle, the focal length, and the distortion parameter. Project the positions of both ends of the person on the projection plane.

ステップS202では、射影された人の両端の位置に基づいて、人の領域を長方形で近似したボリュームで表現し、仮想前景領域を生成し、仮想前景領域生成処理ルーチンを終了する。   In step S202, based on the positions of both ends of the projected person, the person's area is represented by a volume approximated by a rectangle, a virtual foreground area is generated, and the virtual foreground area generation processing routine ends.

上記ステップS112は、図8に示す領域マッチング処理ルーチンによって実行される。   Step S112 is executed by the area matching processing routine shown in FIG.

ステップS300では、画像を選択し、当該画像における実前景領域の個々の塊に接するような枠に対してオフセットoを足して拡張した枠(探索枠)を計算する。   In step S300, an image is selected, and an extended frame (search frame) is calculated by adding an offset o to a frame that touches each block of the real foreground region in the image.

ステップS302では、実前景領域の塊を選択し、仮想前景領域を走査する毎に、仮想前景領域の面積に対する、仮想前景領域と実前景領域とが重なる領域の面積比により求まる一致度を算出し、画素(i,j)毎に、上記(1)式に従って、人の領域に対する一致度の積算値S(i,j)を得て、人らしい領域を表すマップ画像を生成する。 In step S302, each time a virtual foreground region is scanned by selecting a block of the real foreground region, the degree of coincidence calculated by the area ratio of the region where the virtual foreground region and the real foreground region overlap with the area of the virtual foreground region is calculated. For each pixel (i, j), according to the above equation (1), the integrated value S h (i, j) of the degree of coincidence with the human region is obtained, and a map image representing the human-like region is generated.

ステップS304では、全ての実前景領域の塊について処理を終了したか否かを判定し、終了していなければステップS302に戻って次の実前景領域の塊を選択して処理を繰り返し、終了していればステップS306へ移行する。   In step S304, it is determined whether or not processing has been completed for all chunks of the real foreground area. If not, the process returns to step S302 to select the next chunk of real foreground area, repeat the processing, and end. If yes, the process proceeds to step S306.

ステップS306では、全ての画像について処理を終了したか否かを判定し、終了していなければステップS300に戻って次の画像を選択して処理を繰り返し、終了していれば領域マッチング処理ルーチンを終了する。   In step S306, it is determined whether or not the processing has been completed for all the images. If not, the process returns to step S300 to select the next image and repeat the processing. If the processing has been completed, the region matching processing routine is executed. finish.

上記ステップS114は、図9に示す選択的前景領域処理ルーチンによって実行される。   Step S114 is executed by the selective foreground area processing routine shown in FIG.

ステップS400では、画像を選択し、当該画像について生成された、人らしい領域を表すマップ画像Sのうち、閾値T以上の画素位置を1、閾値以下となる画素位置を0として、マスク画像を生成する。 At step S400, selects an image, generated for the image, of the map image S h which represents the human likely region, 1 pixel positions of more than the threshold T, the following pixel position serving as the threshold value as 0, the mask image Generate.

ステップS402では、ステップS400で生成したマスク画像Sを、当該画像の実前景領域にオーバーラップし、Sで1となっている位置のみの前景領域を残す処理を行うことで、前景領域を得て、出力部50に出力する。 In step S402, the mask image S h generated in step S400, overlaps the real foreground region of the image, by performing the process of leaving the foreground area of only the position which is a 1 S h, the foreground region And output to the output unit 50.

ステップS404では、全ての画像について処理を終了したか否かを判定し、終了していなければステップS400に戻って次の画像を選択して処理を繰り返し、終了していれば選択的前景領域処理ルーチンを終了する。   In step S404, it is determined whether or not the processing has been completed for all images. If not, the process returns to step S400 to select the next image and repeat the processing. If the processing has been completed, selective foreground region processing is performed. End the routine.

以上説明したように、本発明の第1の実施の形態に係る前景領域抽出装置によれば、予め定められた物体の長さに基づいて仮想的な物体の領域を含む仮想前景領域を生成し、画像から、背景画像との差分により、人を表す実前景領域を抽出し、生成された仮想前景領域と、抽出された実前景領域とが重なる領域に基づいて、人らしい領域を表すマップ画像を生成し、マップ画像に基づいて、抽出された実前景領域から、前景領域を得ることにより、太陽光が直接当たるような環境であっても、前景領域を精度よく抽出することができる。   As described above, according to the foreground region extraction apparatus according to the first embodiment of the present invention, a virtual foreground region including a virtual object region is generated based on a predetermined object length. Then, a real foreground area representing a person is extracted from the image based on a difference from the background image, and a map image representing a person-like area based on an area where the generated virtual foreground area and the extracted real foreground area overlap , And obtaining the foreground area from the extracted actual foreground area based on the map image, the foreground area can be accurately extracted even in an environment where sunlight directly strikes.

<本発明の第2の実施の形態に係る前景領域抽出装置の構成> <Configuration of Foreground Area Extraction Device According to Second Embodiment of the Present Invention>

次に、本発明の第2の実施の形態に係る前景領域抽出装置の構成について説明する。なお、第1の実施の形態と同様の構成となる箇所については同一符号を付して説明を省略する。   Next, the configuration of the foreground region extraction apparatus according to the second embodiment of the present invention will be described. In addition, about the location which becomes the same structure as 1st Embodiment, the same code | symbol is attached | subjected and description is abbreviate | omitted.

第2の実施の形態では、影らしい領域を含む仮想前景領域を生成し、前景領域を得る点が第1の実施の形態と異なっている。   The second embodiment is different from the first embodiment in that a virtual foreground area including a shadow-like area is generated and a foreground area is obtained.

図10に示すように、本発明の実施の形態に係る前景領域抽出装置200は、CPUと、RAMと、後述する前景領域抽出処理ルーチンを実行するためのプログラムや各種データを記憶したROMと、を含むコンピュータで構成することが出来る。この前景領域抽出装置200は、機能的には図10に示すように入力部10と、演算部220と、出力部50とを備えている。   As shown in FIG. 10, the foreground area extraction apparatus 200 according to the embodiment of the present invention includes a CPU, a RAM, a ROM for storing a program and various data for executing a foreground area extraction processing routine described later, Can be configured with a computer including Functionally, the foreground region extraction apparatus 200 includes an input unit 10, a calculation unit 220, and an output unit 50 as shown in FIG.

演算部20は、キャリブレーション情報保存部26と、カメラ情報DB28と、映像取得部30と、撮影情報取得部32と、照明状態判定部34と、既存前景領域抽出部36と、日時取得部238と、仮想前景領域生成部240と、前景領域抽出部42と、領域マッチング部244と、選択的前景領域処理部246とを含んで構成されている。   The calculation unit 20 includes a calibration information storage unit 26, a camera information DB 28, a video acquisition unit 30, a shooting information acquisition unit 32, an illumination state determination unit 34, an existing foreground region extraction unit 36, and a date acquisition unit 238. A virtual foreground region generation unit 240, a foreground region extraction unit 42, a region matching unit 244, and a selective foreground region processing unit 246.

日時取得部238は、画像を撮影した日時を取得する。画像を撮影した日時は、ネットワーク(図示省略)経由でカメラ設置場所と時間同期がとれたコンピュータのシステム時間等から得てもよいし、IPカメラ等を利用する場合には、カメラデバイスそのものの時刻を取得してもよい。   The date acquisition unit 238 acquires the date and time when the image was captured. The date and time when the image was taken may be obtained from the system time of a computer synchronized with the camera installation location via a network (not shown), or when using an IP camera or the like, the time of the camera device itself May be obtained.

仮想前景領域生成部240は、予め求められた画像を撮影したカメラの方角及び設置位置と、日時取得部238により取得した日時と、人の長さとに基づいて、仮想的な人の領域と、当該日時における人の影の領域とを計算し、仮想的な人の領域及び仮想的な人の影の領域を含む仮想前景領域を生成する。仮想前景領域生成部240では、まず、カメラの方角及び設置位置(緯度・経度)の情報と日時の情報から、その時刻と場所における太陽の高度と方角を計算する。本実施の形態では、緯度・経度を用いるが、都市程度の粒度で場所がわかる設置位置の情報を用いてもよい。また、太陽の高度と方角については、例えば国立天文台等が公開しているデータ等を用いる。太陽の高度をαと、太陽の方角が得られると、長さhの物体の影の長さは   The virtual foreground area generation unit 240, based on the direction and installation position of the camera that captured the image obtained in advance, the date and time acquired by the date and time acquisition unit 238, and the length of the person, A human shadow region at the date and time is calculated, and a virtual foreground region including a virtual human region and a virtual human shadow region is generated. The virtual foreground region generation unit 240 first calculates the altitude and direction of the sun at the time and location from the information on the direction and installation position (latitude / longitude) of the camera and information on the date and time. In the present embodiment, latitude / longitude is used, but information on an installation position where the location can be known with a granularity of about the city may be used. For the altitude and direction of the sun, for example, data published by the National Astronomical Observatory of Japan and the like are used. When the altitude of the sun is α and the direction of the sun is obtained, the length of the shadow of the object of length h is

と計算され、その日時における影の長さを得ることができる。次に、予め定められた人のサイズと、カメラ情報DB28に保存された、カメラと床面との距離、角度、焦点距離と歪みパラメータ等のキャリブレーション情報を用いて、仮想的なカメラの方角及び設置位置から仮想的な人と影を撮影する場合を仮定した投影面に対して、人の両端の位置、及び当該人の影の両端の位置を射影する。次に、人と影の領域を長方形で近似しボリュームを表現し、これを仮想前景領域とする。なお、本実施の形態においては、人領域を長方形で近似したが、楕円形など他の図形で近似してもよい。図11に仮想的な人と影を上から見た例と、人の両端の位置、及び当該人の影の両端の位置を射影して得た点から生成した仮想前景領域の一例を示す。 And the shadow length at that date and time can be obtained. Next, using the calibration information such as the predetermined person size and the camera-to-floor distance, angle, focal length, and distortion parameters stored in the camera information DB 28, the direction of the virtual camera Then, the positions of both ends of the person and the positions of both ends of the shadow of the person are projected on the projection plane assumed to shoot a virtual person and shadow from the installation position. Next, a human and shadow area is approximated by a rectangle to represent a volume, and this is used as a virtual foreground area. In the present embodiment, the human area is approximated by a rectangle, but may be approximated by another figure such as an ellipse. FIG. 11 shows an example of a virtual person and shadow viewed from above, and an example of a virtual foreground area generated from the points obtained by projecting the positions of both ends of the person and both ends of the shadow of the person.

領域マッチング部244は、以下に説明するように、仮想前景領域生成部40により生成された仮想前景領域のうちの影の領域と、前景領域抽出部42により抽出された実前景領域とが重なる領域に基づいて、影らしい領域を表すマップ画像を生成する。   As described below, the region matching unit 244 is a region in which the shadow region of the virtual foreground region generated by the virtual foreground region generation unit 40 overlaps the real foreground region extracted by the foreground region extraction unit 42. Based on the above, a map image representing a shadow-like area is generated.

領域マッチング部244では、まず、第1の実施の形態と同様の処理を行って、実前景領域の個々の塊に接するような枠に対してオフセットoを足して拡張した枠(探索枠)を計算する。次に、探索枠内の実前景領域中の位置における画素(i,j)の各々に対し、影に対する一致度の積算値S(i,j)を計算する。これにより、影らしい領域を表すマップ画像を得ることができる。一致度は、仮想前景領域の面積に対する、仮想前景領域と実前景領域とが重なる領域の面積比であり、仮想前景領域を走査する毎に求められる。図12に走査の一例を示す。今、探索枠の中で、仮想前景領域の左上座標が実前景領域における座標(k,l)である時の一致度をm(k,l)としたとき、影の領域に対する画素(i,j)の一致度の積算値は、以下(3)式により計算される。 The area matching unit 244 first performs a process similar to that of the first embodiment, and adds a frame (search frame) that is expanded by adding an offset o to a frame that touches each block of the actual foreground region. calculate. Next, for each pixel (i, j) at a position in the actual foreground region within the search frame, an integrated value S s (i, j) of the degree of coincidence with the shadow is calculated. As a result, a map image representing a shadow-like area can be obtained. The degree of coincidence is the area ratio of the area where the virtual foreground area and the real foreground area overlap with the area of the virtual foreground area, and is obtained each time the virtual foreground area is scanned. FIG. 12 shows an example of scanning. Now, in the search frame, when the degree of coincidence when the upper left coordinate of the virtual foreground region is the coordinate (k, l) in the real foreground region is m (k, l), the pixel (i, The integrated value of the degree of coincidence in j) is calculated by the following equation (3).

ここで、Dは、仮想前景領域の左上座標が(k,l)にある時、仮想前景領域中の影の領域と重なる実前景領域の座標の集合を表し、画素(i,j)毎に求められる。計算により得られた積算値Sにより、影らしい領域を表すマップ画像Sが生成される。 Here, D represents the set of coordinates of the real foreground area that overlaps the shadow area in the virtual foreground area when the upper left coordinate of the virtual foreground area is at (k, l), and for each pixel (i, j). Desired. Based on the integrated value S s obtained by the calculation, a map image S s representing a shadow-like region is generated.

選択的前景領域処理部246は、以下に説明するように、領域マッチング部44により生成されたマップ画像に基づいて、前景領域抽出部42により抽出された実前景領域から、物体の領域を抽出した前景領域を得る。   As described below, the selective foreground region processing unit 246 extracts an object region from the actual foreground region extracted by the foreground region extraction unit 42 based on the map image generated by the region matching unit 44. Get the foreground area.

選択的前景領域処理部246では、まず、領域マッチング部44によって得られた影らしい領域を表すマップ画像Sのうち、閾値T以上の画素位置を1、閾値以下となる画素位置を0として、マスク画像を生成する。生成したマスク画像Sを、実前景領域にオーバーラップし、Sで1となっている位置のみの前景領域を除去する処理を行う。これにより、人の領域としての確からしさが高い前景領域のみを選択的に得ることができる。 In the selective foreground region processing unit 246, first, in the map image S s representing the shadow-like region obtained by the region matching unit 44, the pixel position equal to or higher than the threshold T is set to 1, and the pixel position equal to or lower than the threshold is set to 0. A mask image is generated. The generated mask image S s, overlaps the real foreground area, performs a process of removing the foreground region of only the position that is the 1 S s. As a result, it is possible to selectively obtain only the foreground region having a high probability as a human region.

なお、第2の実施の形態の他の構成は第1の実施の形態と同様であるため説明を省略する。   Note that other configurations of the second embodiment are the same as those of the first embodiment, and thus description thereof is omitted.

<本発明の第2の実施の形態に係る前景領域抽出装置の作用> <Operation of Foreground Area Extraction Device According to Second Embodiment of Present Invention>

次に、本発明の第2の実施の形態に係る前景領域抽出装置100の作用について説明する。なお、第1の実施の形態と同様の作用となる箇所については同一符号を付して説明を省略する。   Next, the operation of the foreground region extraction apparatus 100 according to the second embodiment of the present invention will be described. In addition, about the location which becomes the effect | action similar to 1st Embodiment, the same code | symbol is attached | subjected and description is abbreviate | omitted.

入力部10において、固定された位置に設置されたカメラにより撮影された映像、及びカメラに関するキャリブレーション情報を受け付け、カメラ情報DB28に保存すると、前景領域抽出装置200は、図13に示す前景領域抽出処理ルーチンを実行する。   When the input unit 10 receives a video photographed by a camera installed at a fixed position and calibration information relating to the camera and stores them in the camera information DB 28, the foreground region extraction device 200 performs the foreground region extraction shown in FIG. Execute the processing routine.

ステップS104では、ステップS102で得られた情報に基づいて、直射日光のような明るい光が被写体に当たっているか否かを判定し、明るい光が被写体に当たっていないと判定された場合は、ステップS106へ移行し、明るい光が被写体に当たっていると判定された場合には、ステップS500へ移行する。   In step S104, it is determined based on the information obtained in step S102 whether or not bright light such as direct sunlight is hitting the subject. If it is determined that bright light is not hitting the subject, the process proceeds to step S106. If it is determined that bright light is hitting the subject, the process proceeds to step S500.

ステップS500では、画像の各々について、当該画像を撮影した日時を取得する。   In step S500, for each image, the date and time when the image was captured is acquired.

ステップS502では、カメラ情報DB28に保存された画像を撮影したカメラの方角及び設置位置と、ステップS500で取得した日時と、人の長さとに基づいて、仮想的な人の領域と当該日時における人の影の領域とを計算し、仮想的な人の領域及び仮想的な人の影の領域を含む仮想前景領域を生成する。   In step S502, based on the direction and installation position of the camera that captured the image stored in the camera information DB 28, the date and time acquired in step S500, and the length of the person, the area of the virtual person and the person at the date and time And a virtual foreground area including a virtual person area and a virtual person shadow area is generated.

ステップS504では、ステップS500で生成された仮想前景領域のうちの影の領域と、ステップS110で抽出された実前景領域とが重なる領域に基づいて、影らしい領域を表すマップ画像を生成する。   In step S504, a map image representing a shadow-like area is generated based on an area where the shadow area in the virtual foreground area generated in step S500 overlaps the real foreground area extracted in step S110.

ステップS506では、画像の各々について、ステップS504で生成されたマップ画像に基づいて、ステップS110で抽出された実前景領域から、物体の領域を抽出した前景領域を得て、出力部50に出力し、処理を終了する。   In step S506, for each image, based on the map image generated in step S504, the foreground region obtained by extracting the object region from the real foreground region extracted in step S110 is obtained and output to the output unit 50. The process is terminated.

上記ステップS502は、図14に示す仮想前景領域生成処理ルーチンによって実行される。   Step S502 is executed by the virtual foreground area generation processing routine shown in FIG.

ステップS600では、画像を選択し、予め求められた当該画像を撮影したカメラの方角及び設置位置(緯度・経度)と、ステップS500で取得した日時とに基づいて、その時刻と場所における太陽の高度と方角を計算する。   In step S600, the altitude of the sun at that time and place is selected based on the direction and installation position (latitude / longitude) of the camera that selected the image and obtained in advance, and the date and time acquired in step S500. And calculate the direction.

ステップS602では、ステップS600で計算された太陽の高度と方角と、人の長さhとに基づいて、カメラの緯度・経度と、太陽の方角との関係から、影の出る方角を算出する。また、上記(2)式に従って、影の長さを算出する。そして、算出された影の方角と長さにより、影の両端の位置を決定する。   In step S602, based on the altitude and direction of the sun calculated in step S600 and the person's length h, the direction in which the shadow appears is calculated from the relationship between the latitude / longitude of the camera and the direction of the sun. Also, the shadow length is calculated according to the above equation (2). Then, the positions of both ends of the shadow are determined based on the calculated direction and length of the shadow.

ステップS604では、カメラ情報DB28に保存された、カメラと床面との距離、角度、焦点距離と歪みパラメータ等のキャリブレーション情報を用いて、仮想的なカメラの方角及び設置位置から仮想的な人と影を撮影した場合を仮定した投影面に対して、人の両端の位置、及び当該人の影の両端の位置を射影する。   In step S604, using the calibration information stored in the camera information DB 28 such as the distance between the camera and the floor, the angle, the focal length, and the distortion parameter, a virtual person is determined from the direction and the installation position of the virtual camera. The positions of both ends of the person and the positions of both ends of the shadow of the person are projected on the projection plane assuming that the shadow is photographed.

ステップS604では、射影された人の両端の位置、及び当該人の影の両端の位置に基づいて、人と影の領域を長方形で近似したボリュームで表現し、仮想前景領域を生成する。   In step S604, based on the positions of both ends of the projected person and the positions of both ends of the person's shadow, the person and the shadow area are represented by a volume approximated by a rectangle to generate a virtual foreground area.

ステップS606では、全ての画像について処理を終了したか否かを判定し、終了していなければステップS600に戻って次の画像を選択して処理を繰り返し、終了していれば仮想前景領域生成処理ルーチンを終了する。   In step S606, it is determined whether or not the processing has been completed for all the images. If not, the process returns to step S600 to select the next image and repeat the processing. If the processing has been completed, the virtual foreground region generation processing is performed. End the routine.

上記ステップS504は、上記図8に示す領域マッチング処理ルーチンのステップS302の処理を下記に置き換えて実行する。ステップS302では、実前景領域の塊を選択し、仮想前景領域を走査する毎に、仮想前景領域の面積に対する、仮想前景領域と実前景領域とが重なる領域の面積比により求まる一致度を算出し、画素(i,j)毎に、上記(3)式に従って、影の領域に対する一致度の積算値S(i,j)を得て、影らしい領域を表すマップ画像を生成する。 In step S504, the process in step S302 of the region matching process routine shown in FIG. 8 is replaced with the following and executed. In step S302, each time a virtual foreground region is scanned by selecting a block of the real foreground region, the degree of coincidence calculated by the area ratio of the region where the virtual foreground region and the real foreground region overlap with the area of the virtual foreground region is calculated. For each pixel (i, j), the integrated value S s (i, j) of the degree of coincidence with respect to the shadow area is obtained according to the above equation (3), and a map image representing the shadow-like area is generated.

上記ステップS506は、上記図9に示す選択的前景領域処理ルーチンのステップS400及びS402を下記に置き換えて実行する。ステップS400では、画像を選択し、当該画像について生成された、影らしい領域を表すマップ画像Sのうち、閾値T以上の画素位置を1、閾値以下となる画素位置を0として、マスク画像を生成する。 Step S506 is executed by replacing steps S400 and S402 of the selective foreground region processing routine shown in FIG. 9 with the following. In step S400, a mask image is selected by selecting an image and setting a pixel position equal to or higher than the threshold T to 1 and a pixel position equal to or lower than the threshold to 0 in the map image S s generated for the image and representing a shadow-like area. Generate.

ステップS402では、ステップS400で生成したマスク画像Sを、当該画像の実前景領域にオーバーラップし、Sで1となっている位置のみ、前景領域を除去する処理を行うことで、前景領域を得て、出力部50に出力する。 In step S402, the mask image S s generated in step S400 is overlapped with the actual foreground region of the image, and the foreground region is removed only at the position where S s is 1, thereby performing the foreground region. And output to the output unit 50.

なお、第2の実施の形態の他の作用は第1の実施の形態と同様であるため説明を省略する。   In addition, since the other effect | action of 2nd Embodiment is the same as that of 1st Embodiment, description is abbreviate | omitted.

以上説明したように、本発明の第2の実施の形態に係る前景領域抽出装置によれば、予め求められた画像を撮影したカメラの方角及び設置位置と、日時取得部により取得した日時と、人の長さとに基づいて、日時における物体の影の領域を計算し、仮想的な影の領域を含む仮想前景領域を生成し、画像から、背景画像との差分により、物体を表す実前景領域を抽出し、生成された仮想前景領域と、抽出された実前景領域とが重なる領域に基づいて、影らしい領域を表すマップ画像を生成し、マップ画像に基づいて、抽出された実前景領域から、前景領域を得ることにより、太陽光が直接当たるような環境であっても、前景領域を精度よく抽出することができる。   As described above, according to the foreground region extraction device according to the second embodiment of the present invention, the direction and installation position of the camera that captured the image obtained in advance, the date and time acquired by the date and time acquisition unit, Calculate the shadow area of the object at the date and time based on the length of the person, generate a virtual foreground area that includes the virtual shadow area, and from the image, the real foreground area that represents the object by the difference from the background image Based on the area where the generated virtual foreground area overlaps with the extracted real foreground area, and generates a map image representing a shadow-like area, and from the extracted real foreground area based on the map image By obtaining the foreground area, the foreground area can be accurately extracted even in an environment where sunlight directly strikes.

なお、本発明は、上述した実施の形態に限定されるものではなく、この発明の要旨を逸脱しない範囲内で様々な変形や応用が可能である。   The present invention is not limited to the above-described embodiment, and various modifications and applications can be made without departing from the gist of the present invention.

例えば、上述した第1及び第2の実施の形態では、それぞれ、人らしい領域を表すマップ画像S、及び影らしい領域を表すマップ画像Sの何れかを用いて、前景領域を得ていたが、これに限定されるものではない。例えば、第1及び第2の実施の形態を組み合わせて、人らしい領域を表すマップ画像S、及び影らしい領域を表すマップ画像Sの双方を生成し、選択的前景領域処理部は、画像毎に、計算された、人らしい領域を表すマップ画像Sと、影らしい領域を表すマップ画像Sとを用いて、統計的手法により、いずれのマップ画像が実前景領域に適合するのかを計算し、計算結果からいずれのマップ画像を用いるのかを選択し、人らしい領域を表すマップ画像Sを選択した場合には、Sで1となっている位置のみ、前景領域を残して、前景領域を得るようにし、影らしい領域を表すマップ画像Sを選択した場合には、Sで1となっている位置のみ、前景領域を除去して、前景領域を得るようにしてもよい。 For example, in the first and second embodiments described above, the foreground area is obtained by using either the map image S h representing a human-like area or the map image S s representing a shadow-like area. However, the present invention is not limited to this. For example, the first and second embodiments are combined to generate both a map image S h representing a human-like area and a map image S s representing a shadow-like area, and the selective foreground area processing unit For each of the calculated map images S h representing human-like regions and map images S s representing shadow-like regions, which map image fits the actual foreground region by a statistical method. calculated, if you choose from the calculation results to use any of the map image, and select a map image S h which represents the human likely region, only the position that is the 1 S h, leaving the foreground area, When a foreground area is obtained and a map image S s representing a shadow-like area is selected, the foreground area may be obtained by removing the foreground area only at the position where S s is 1. .

また、上述した第1及び第2の実施の形態では、照明状態判定部34において、明るい光が被写体に当たっているか否かを判定し、必要に応じて、仮想前景領域を生成し、前景領域を得る処理を行っていたが、これに限定されるものではない。例えば、撮影情報取得部32と、照明状態判定部34と、既存前景領域抽出部36とを含まない構成として、外部の装置によって予め判定により明るい光が被写体に当たっていると判定された映像を入力として受け付け、仮想前景領域を生成し、前景領域を得る処理を行うようにしてもよい。   In the first and second embodiments described above, the illumination state determination unit 34 determines whether bright light is hitting the subject, generates a virtual foreground area as necessary, and obtains the foreground area. Although processing was performed, it is not limited to this. For example, as a configuration that does not include the shooting information acquisition unit 32, the illumination state determination unit 34, and the existing foreground region extraction unit 36, an image that has been determined in advance by an external device that bright light has hit the subject is input. A process of receiving, generating a virtual foreground area, and obtaining the foreground area may be performed.

10 入力部
20、220 演算部
26 キャリブレーション情報保存部
30 映像取得部
32 撮影情報取得部
34 照明状態判定部
36 既存前景領域抽出部
40、240 仮想前景領域生成部
42 前景領域抽出部
44、244 領域マッチング部
46、246 選択的前景領域処理部
50 出力部
100、200 前景領域抽出装置
238 日時取得部
DESCRIPTION OF SYMBOLS 10 Input part 20,220 Calculation part 26 Calibration information preservation | save part 30 Image | video acquisition part 32 Shooting information acquisition part 34 Illumination state determination part 36 Existing foreground area extraction part 40,240 Virtual foreground area generation part 42 Foreground area extraction part 44,244 Region matching unit 46, 246 Selective foreground region processing unit 50 Output unit 100, 200 Foreground region extraction device 238 Date and time acquisition unit

Claims (4)

入力された画像から、背景画像との差分により、物体を表す前景領域を抽出する前景領域抽出装置であって、
前記画像を撮影した日時を取得する日時取得部と、
予め求められた前記画像を撮影したカメラの方角及び設置位置と、前記日時取得部により取得した前記日時と、予め定められた前記物体の長さに基づいて、前記カメラの方角及び設置位置、並びに前記日時から計算される太陽の高度及び方角に対する、前記カメラの方角及び設置位置から仮定した投影面に対して、前記物体及び前記物体について前記高度から計算される影を射影して、仮想的な前記物体の領域及び仮想的な前記物体の影の領域を含む仮想前景領域を生成する仮想前景領域生成部と、
前記画像から、前記背景画像との差分により、前記物体を表す実前景領域を抽出する前景領域抽出部と、
前記仮想前景領域生成部により生成された仮想前景領域と、前記前景領域抽出部により抽出された実前景領域とが重なる領域に基づいて、前記物体らしい領域又は前記物体の影らしい領域を表すマップ画像を生成する領域マッチング部と、
前記領域マッチング部により生成された前記マップ画像に基づいて、前記前景領域抽出部により抽出された前記実前景領域から、前記影の領域を除去した前記前景領域を得る選択的前景領域処理部と、
を含む前景領域抽出装置。
A foreground region extraction device that extracts a foreground region representing an object from an input image based on a difference from a background image,
A date and time acquisition unit for acquiring the date and time when the image was captured;
Based on the direction and installation position of the camera that captured the image obtained in advance , the date and time acquired by the date and time acquisition unit, and the predetermined length of the object, and the direction and installation position of the camera, and Projecting a shadow calculated from the altitude of the object and the object onto the projection plane assumed from the direction and installation position of the camera with respect to the altitude and direction of the sun calculated from the date and time, A virtual foreground region generating unit that generates a virtual foreground region including the region of the object and a virtual shadow region of the object;
A foreground region extracting unit that extracts a real foreground region representing the object from the image based on a difference from the background image;
A map image representing a region that is likely to be the object or a region that is likely to be a shadow of the object, based on a region where the virtual foreground region generated by the virtual foreground region generation unit and the real foreground region extracted by the foreground region extraction unit overlap. A region matching unit for generating
A selective foreground region processing unit that obtains the foreground region obtained by removing the shadow region from the actual foreground region extracted by the foreground region extraction unit based on the map image generated by the region matching unit;
A foreground region extraction apparatus.
前記領域マッチング部は、前記仮想前景領域を走査する毎に、前記仮想前景領域と前記実前景領域とが重なる領域の面積比により求まる一致度を算出することにより、前記マップ画像を生成する請求項1に記載の前景領域抽出装置。 The said area matching part produces | generates the said map image by calculating the coincidence degree calculated | required by the area ratio of the area | region where the said virtual foreground area | region and the said real foreground area | region overlap each time the said virtual foreground area | region is scanned. foreground region extraction apparatus according to 1. 入力された画像から、背景画像との差分により、物体を表す前景領域を抽出する前景領域抽出装置における前景領域抽出方法であって、
日時取得部が、前記画像を撮影した日時を取得し、
仮想前景領域生成部が、予め求められた前記画像を撮影したカメラの方角及び設置位置と、前記日時取得部により取得した前記日時と、予め定められた前記物体の長さに基づいて、前記カメラの方角及び設置位置、並びに前記日時から計算される太陽の高度及び方角に対する、前記カメラの方角及び設置位置から仮定した投影面に対して、前記物体及び前記物体について前記高度から計算される影を射影して、仮想的な前記物体の領域及び仮想的な前記物体の影の領域を含む仮想前景領域を生成するステップと、
前景領域抽出部が、前記画像から、前記背景画像との差分により、前記物体を表す実前景領域を抽出するステップと、
領域マッチング部が、前記仮想前景領域生成部により生成された仮想前景領域と、前記前景領域抽出部により抽出された実前景領域とが重なる領域に基づいて、前記物体らしい領域又は前記物体の影らしい領域を表すマップ画像を生成するステップと、
選択的前景領域処理部が、前記領域マッチング部により生成された前記マップ画像に基づいて、前記前景領域抽出部により抽出された前記実前景領域から、前記影の領域を除去した前記前景領域を得るステップと、
を含む前景領域抽出方法。
A foreground region extraction method in a foreground region extraction device that extracts a foreground region representing an object from an input image based on a difference from a background image,
The date and time acquisition unit acquires the date and time when the image was captured,
Virtual foreground area generation unit, camera and direction and the installation position of the captured the image previously obtained, and the date and time acquired by the date and time acquisition section, based on the length of the object to a predetermined, the camera And the shadow calculated from the altitude for the object and the object with respect to the projection plane assumed from the direction of the camera and the installation position with respect to the altitude and direction of the sun calculated from the date and time and the date and time of the sun. Projecting to generate a virtual foreground region including a virtual region of the object and a virtual shadow region of the object;
A foreground area extracting unit extracting an actual foreground area representing the object by a difference from the background image from the image;
The area matching unit is based on an area where the virtual foreground area generated by the virtual foreground area generation unit and the real foreground area extracted by the foreground area extraction unit overlap, or the area that seems to be the object or the shadow of the object Generating a map image representing the region;
A selective foreground region processing unit obtains the foreground region obtained by removing the shadow region from the actual foreground region extracted by the foreground region extraction unit based on the map image generated by the region matching unit. Steps,
Foreground region extraction method including:
コンピュータを、請求項1又は請求項2に記載の前景領域抽出装置の各部として機能させるためのプログラム。 A program for causing a computer to function as each unit of the foreground region extraction device according to claim 1 or 2 .
JP2016138882A 2016-07-13 2016-07-13 Foreground region extraction apparatus, method, and program Active JP6615709B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016138882A JP6615709B2 (en) 2016-07-13 2016-07-13 Foreground region extraction apparatus, method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016138882A JP6615709B2 (en) 2016-07-13 2016-07-13 Foreground region extraction apparatus, method, and program

Publications (2)

Publication Number Publication Date
JP2018010483A JP2018010483A (en) 2018-01-18
JP6615709B2 true JP6615709B2 (en) 2019-12-04

Family

ID=60995646

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016138882A Active JP6615709B2 (en) 2016-07-13 2016-07-13 Foreground region extraction apparatus, method, and program

Country Status (1)

Country Link
JP (1) JP6615709B2 (en)

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002133413A (en) * 2000-10-26 2002-05-10 Kawasaki Heavy Ind Ltd Method and device for identifying three-dimensional object using image processing
JP3816747B2 (en) * 2000-12-21 2006-08-30 株式会社東芝 Vehicle type discriminating apparatus, car type discriminating method, and storage medium storing computer readable program stored therein
JP2004258931A (en) * 2003-02-25 2004-09-16 Matsushita Electric Works Ltd Image processing method, image processor, and image processing program
JP4700477B2 (en) * 2005-11-15 2011-06-15 株式会社日立製作所 MOBILE BODY MONITORING SYSTEM AND MOBILE BODY FEATURE CALCULATION DEVICE
US8379926B2 (en) * 2007-12-13 2013-02-19 Clemson University Vision based real time traffic monitoring

Also Published As

Publication number Publication date
JP2018010483A (en) 2018-01-18

Similar Documents

Publication Publication Date Title
JP6942488B2 (en) Image processing equipment, image processing system, image processing method, and program
TWI455040B (en) Method and apparatus of foreground object detection and background detection
US9818232B2 (en) Color-based depth smoothing of scanned 3D model to enhance geometry in 3D printing
KR102153607B1 (en) Apparatus and method for detecting foreground in image
US9396583B2 (en) Method of modelling buildings on the basis of a georeferenced image
JP2009522591A (en) Method and apparatus for controlling autofocus of a video camera by tracking a region of interest
WO2020059706A1 (en) Training data collection device, training data collection method, and program
CN110400338B (en) Depth map processing method and device and electronic equipment
WO2020110576A1 (en) Information processing device
Nyaruhuma et al. Verification of 2D building outlines using oblique airborne images
WO2022000397A1 (en) Low-illumination image enhancement method and apparatus, and computer device
CN109520500A (en) One kind is based on the matched accurate positioning of terminal shooting image and streetscape library acquisition method
CN106846249A (en) A kind of panoramic video joining method
JP7092615B2 (en) Shadow detector, shadow detection method, shadow detection program, learning device, learning method, and learning program
CN111144213A (en) Object detection method and related equipment
CN110942456B (en) Tamper image detection method, device, equipment and storage medium
JP7387261B2 (en) Information processing device, information processing method and program
JP6615709B2 (en) Foreground region extraction apparatus, method, and program
JP4030318B2 (en) Map data update device and map data update method
CN113470093A (en) Video jelly effect detection method, device and equipment based on aerial image processing
TW201415882A (en) Automatic tracking method of PTZ camera
JP7194534B2 (en) Object detection device, image processing device, object detection method, image processing method, and program
CN113992904A (en) Information processing method and device, electronic equipment and readable storage medium
JP2012133587A (en) Image analysis device, image analysis method and program
CN111854651A (en) Indoor building area real-time measuring method based on SLAM

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180827

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190722

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190820

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191016

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20191029

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20191106

R150 Certificate of patent or registration of utility model

Ref document number: 6615709

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150