JP6080572B2 - Traffic object detection device - Google Patents
Traffic object detection device Download PDFInfo
- Publication number
- JP6080572B2 JP6080572B2 JP2013016883A JP2013016883A JP6080572B2 JP 6080572 B2 JP6080572 B2 JP 6080572B2 JP 2013016883 A JP2013016883 A JP 2013016883A JP 2013016883 A JP2013016883 A JP 2013016883A JP 6080572 B2 JP6080572 B2 JP 6080572B2
- Authority
- JP
- Japan
- Prior art keywords
- door
- area
- passing object
- region
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000001514 detection method Methods 0.000 title claims description 76
- 238000000605 extraction Methods 0.000 claims description 47
- 238000012937 correction Methods 0.000 claims description 7
- 239000000284 extract Substances 0.000 claims description 7
- 238000000034 method Methods 0.000 description 74
- 241000287107 Passer Species 0.000 description 64
- 238000012545 processing Methods 0.000 description 34
- 238000003384 imaging method Methods 0.000 description 24
- 230000006870 function Effects 0.000 description 8
- 241000282414 Homo sapiens Species 0.000 description 5
- 238000006243 chemical reaction Methods 0.000 description 5
- 238000012544 monitoring process Methods 0.000 description 5
- 238000002474 experimental method Methods 0.000 description 4
- 238000012935 Averaging Methods 0.000 description 3
- 238000004891 communication Methods 0.000 description 3
- 238000010586 diagram Methods 0.000 description 2
- 238000006073 displacement reaction Methods 0.000 description 2
- 238000012706 support-vector machine Methods 0.000 description 2
- 230000006399 behavior Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 230000007717 exclusion Effects 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000000717 retained effect Effects 0.000 description 1
- 238000004088 simulation Methods 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
Images
Description
本発明は、ドアを含む空間を撮影した画像から通行者等の通行物体領域を検出する通行物体検出装置に関する。 The present invention relates to a passing object detection device that detects a passing object region of a passerby or the like from an image of a space including a door.
近年、共連れ入場等の不正通行を監視するために、ドア付近を撮影した画像を処理して通行者を追跡する研究が行われている。このとき、ドアの両側をそれぞれ別の監視カメラにより撮影してドアを通過した通行者の追跡を監視カメラ間で引き継げば、通行者の行動を厳格に監視できるためセキュリティが向上する。 In recent years, in order to monitor illegal traffic such as co-entrance, research has been conducted to track a passerby by processing an image taken near the door. At this time, if the both sides of the door are photographed by separate monitoring cameras and the tracking of the passers-by passing through the doors is taken over between the monitoring cameras, the behavior of the passers-by can be strictly monitored and security is improved.
例えば、特許文献1には、ドアの外側である開放領域とドアの内側である待機領域のそれぞれに撮影部を設置し、背景差分処理により抽出した変化領域に基づいて通行物体領域を追跡する通行制御装置が開示されている。この通行制御装置では、2つの領域の間にドア領域を設定し、開放領域及び待機領域の一方からドア領域に消失した通行者と開放領域及び待機領域の他方にてドア領域から出現した通行者とを同一の通行者と判定することで追跡の引継ぎを行っている。 For example, Patent Document 1 discloses a traffic in which a photographing unit is installed in each of an open area outside a door and a standby area inside the door, and a traffic object area is tracked based on a change area extracted by background difference processing. A control device is disclosed. In this traffic control device, a door area is set between two areas, and a passerby who disappears from one of the open area and the standby area to the door area and a passerby who appears from the door area in the other of the open area and the standby area. Are taken over by the same passerby.
しかしながら、従来技術では、ドア領域にて追跡の空白期間及び空白領域が生じるため、追跡の引継ぎが正しく行えない場合があった。例えば、2名がドア領域に進入し、そのうち1名がUターンして戻った場合、またドアを開けた人物が後続の人物を先に通した場合等、ドア領域に複数の人物が混在するときに引継ぎを誤る問題が生じ易い。そこで、人物がドア領域に存在している間も追跡を継続することが望まれ、追跡継続のためには当該人物の通行物体領域を抽出し続ける必要があった。 However, in the prior art, since tracking blank period and blank area occur in the door area, there is a case where tracking cannot be succeeded correctly. For example, when two people enter the door area and one of them returns after making a U-turn, or when the person who opened the door passes the following person first, there are multiple people in the door area. Sometimes a problem of erroneous takeover is likely to occur. Therefore, it is desired to continue tracking while the person is present in the door area. In order to continue tracking, it is necessary to continue extracting the passing object area of the person.
ところが、ドアが開くとそれまで戸板によって遮蔽されていたドアの向こう側が開口部に写り込んで背景が変わる。そのため、このときの画像に背景差分処理を施すと開口部全体が変化領域となってしまうため、開口部に一部または全体が写っている人物の通行物体領域を抽出することが困難となる。さらに、開口部の領域形状は時々刻々と変化し、通行者が開口部の一部を隠蔽するため、直近時刻における開口部の各画素値を背景情報として正確に得ることが困難である。 However, when the door is opened, the other side of the door that was previously shielded by the doorboard is reflected in the opening and the background changes. For this reason, if background difference processing is performed on the image at this time, the entire opening becomes a change region, and it is difficult to extract a passing object region of a person whose part or whole is reflected in the opening. Furthermore, since the area shape of the opening changes from moment to moment, and a passerby hides a part of the opening, it is difficult to accurately obtain each pixel value of the opening at the latest time as background information.
また、ドアの開閉時には戸板が変位するので開口部に加えて戸板自体や戸板の陰影も変化領域に含まれる。戸板の領域においても開口部と同様に、領域形状の時間変化と通行者による隠蔽が生じるため、直近時刻における背景情報を画素単位で正確に得ることが困難である。このように、ドアの開閉によって背景は開口領域、戸板領域及びドア外領域の3領域にて異なる変化を生じ、通行者の領域はこれらの3領域にまたがり生じ得る。そのためドア付近において通行物体領域を抽出することが困難となる。 Further, since the door plate is displaced when the door is opened and closed, the change region includes the door plate itself and the shadow of the door plate in addition to the opening. Also in the area of the doorboard, as with the opening, since the time change of the area shape and concealment by passers-by occur, it is difficult to accurately obtain background information at the latest time in pixel units. Thus, the background changes differently in the three areas of the opening area, the doorboard area, and the door outside area by opening and closing the door, and the area of the passerby can extend over these three areas. Therefore, it is difficult to extract a passing object region near the door.
本発明は、上記問題を解決するためになされたものであり、ドアの開閉があっても通行物体領域を検出し続けることが可能な通行物体検出装置を提供することを目的とする。 The present invention has been made to solve the above problem, and an object of the present invention is to provide a passing object detection device capable of continuously detecting a passing object region even when a door is opened and closed.
本発明の1つの態様は、ドアを含む空間を撮影した撮影画像から通行物体を検出する通行物体検出装置であって、少なくとも前記ドアの開放により生じる開口部の形状特徴を含む前記ドアの形状パターンを前記ドアの開度毎に予め記憶するドアパターン記憶部と、前記撮影画像を前記形状パターンと比較して類似度を算出し、前記撮影画像を最も前記類似度が高い当該形状パターンに合致するドア領域と前記ドア領域以外であるドア外領域とに区分する領域区分部と、前記領域区分部が区分する各領域における前記通行物体を含まない前記空間の背景情報を記憶する背景記憶部と、前記領域区分部が区分した領域毎に前記撮影画像の各画素と当該領域の前記背景情報との相違度を算出して、前記相違度が所定基準以上である画素のまとまりを通行物体領域として抽出する通行物体領域抽出部と、を備えることを特徴とする通行物体検出装置である。 One aspect of the present invention is a passing object detection device that detects a passing object from a captured image obtained by photographing a space including a door, and includes at least a shape pattern of the door including a shape characteristic of an opening generated by opening the door. And a door pattern storage unit that stores in advance for each opening of the door, and the captured image is compared with the shape pattern to calculate a similarity, and the captured image matches the shape pattern with the highest similarity. An area dividing unit that divides a door area and an outside door area other than the door area, and a background storage unit that stores background information of the space that does not include the passing object in each area divided by the area dividing unit; By calculating the difference between each pixel of the captured image and the background information of the area for each area divided by the area dividing unit, a group of pixels whose difference is equal to or greater than a predetermined reference is calculated. And passing the object region extraction unit that extracts as a row object area, a traffic object detection apparatus comprising: a.
ここで、前記背景記憶部は、前記ドア領域における前記背景情報として前記ドア領域の画素値の分布データを記憶し、前記ドア外領域における前記背景情報として前記ドア外領域の各画素の画素値を記憶することが好適である。 Here, the background storage unit stores distribution data of the pixel value of the door region as the background information in the door region, and the pixel value of each pixel of the door outer region as the background information in the door outer region. It is preferable to memorize.
ここで、前記ドアパターン記憶部は、前記ドアを構成する戸板の形状特徴をさらに含めた前記形状パターンを記憶し、前記領域区分部は、前記ドア領域をさらに前記開口部が現われている開口領域と前記戸板が現われている戸板領域とに区分し、前記背景記憶部は、前記開口領域及び前記戸板領域それぞれにおける前記背景情報として当該各領域の画素値の分布データを記憶することが好適である。 Here, the door pattern storage unit stores the shape pattern further including a shape characteristic of a door plate constituting the door, and the region dividing unit further opens the door region and the opening region where the opening portion appears. It is preferable that the background storage unit stores pixel value distribution data of each region as the background information in each of the opening region and the door plate region. .
また、前記通行物体領域抽出部は、通行物体の形状を模した通行物体モデルに含まれる画素の前記相違度の和が前記所定基準以上であるときに前記通行物体モデルを適用した領域を前記通行物体領域として検出することが好適である。 Further, the passing object region extraction unit is configured to pass the region to which the passing object model is applied when the sum of the differences between pixels included in the passing object model imitating the shape of the passing object is equal to or greater than the predetermined reference. It is preferable to detect the object area.
また、前記通行物体領域抽出部は、前記撮影画像の各画素の前記相違度が前記所定基準以上である画素を抽出し、抽出された画素が予め設定された通行物体サイズ以上に纏まっている領域を前記通行物体領域として検出することが好適である。 In addition, the passing object region extracting unit extracts pixels in which the degree of difference of each pixel of the captured image is equal to or greater than the predetermined reference, and the extracted pixels are gathered to be equal to or larger than a preset passing object size. Is preferably detected as the passing object region.
また、前記撮影画像の前記通行物体領域から通行物体の画像特徴を抽出し、前記通行物体領域抽出部は、前記ドア領域の前記通行物体領域と前記通行物体の画像特徴の類似度を求め、当該類似度が高いほど前記通行物体領域の各画素の前記相違度を高くする又は前記所定基準を低くする補正を行うことが好適である。 Further, an image feature of the passing object is extracted from the passing object region of the captured image, and the passing object region extraction unit obtains a similarity between the passing object region of the door region and the image feature of the passing object, and It is preferable that the higher the similarity is, the higher the degree of difference between the pixels of the passing object region or the lower the predetermined reference.
また、前記撮影画像の前記通行物体領域から通行物体の画像特徴を抽出し、前記通行物体領域抽出部は、前記ドア領域の画素毎に前記通行物体の画像特徴の類似度を求め、当該類似度が高いほど当該画素の前記相違度を高くする又は前記所定基準を低くする補正を行うことが好適である。 Further, the image feature of the passing object is extracted from the passing object region of the photographed image, and the passing object region extraction unit obtains the similarity of the image feature of the passing object for each pixel of the door region, and the similarity It is preferable to perform correction to increase the degree of difference of the pixel or to decrease the predetermined reference as the value is higher.
また、前記通行物体領域抽出部は、前記ドア領域の前記撮像画像を通行物体の画像特徴を予め学習した識別器に入力し、前記識別器の出力が通行物体の存在を示す値であるときに前記相違度を高くする又は前記所定基準を低くする補正を行うことが好適である。 In addition, the passing object area extraction unit inputs the captured image of the door area to the classifier that has learned the image characteristics of the passing object in advance, and the output of the classifier is a value indicating the presence of the passing object. It is preferable to perform correction to increase the degree of difference or to decrease the predetermined reference.
本発明によれば、ドアの開閉が生じても通行物体を正確に検出し続けることができる。 According to the present invention, it is possible to continue to accurately detect a passing object even when the door is opened and closed.
<通行物体検出装置の構成>
通行物体検出装置100は、図1に示すように、撮影部2(第一撮影部2a,第二撮影部2b)、制御部3及び表示部4を含んで構成される。
<Configuration of the passing object detection device>
As shown in FIG. 1, the passing
通行物体検出装置100は、部屋6(第一の部屋6a及び第二の部屋6b)に設置され、第一の部屋6a及び第二の部屋6bを撮影した撮影画像から背景情報を生成し、それを利用して通行物体を検出する処理を行う。本実施の形態では、通行物体として人、すなわち検出対象を通行者であるとして説明を行う。
The passing
第一の部屋6a及び第二の部屋6bは、ドア5の戸板15及び壁で仕切られる。戸板15は蝶番等により変位可能に設置される。ドア5が、閉鎖状態のときに戸板15は定常位置に留まり、戸板15が定常位置から変位することによってドア5は開放状態となる。なお、本実施の形態の通行物体検出装置100の適用範囲は戸板15が開き戸である場合に限定されず、引き戸である場合でもよい。
The first room 6a and the
第一撮影部2aは、第一の部屋6aに設置される。第一撮影部2aは、所定時間おきに第一の部屋6aからドア5を含む空間を撮影し、撮影画像(第一画像)を制御部3へ出力する。第二撮影部2bは、第二の部屋6bに設置される。第二撮影部2bは、所定時間おきに第二の部屋6bからドア5を含む空間を撮影し、撮影画像(第二画像)を制御部3へ出力する。本実施の形態では、第一撮影部2a及び第二撮影部2bは、それぞれ第一の部屋6a及び第二の部屋6bの天井に下に向けて配置される。後述するように背景情報の取得の精度と安定性の観点から、ドア5が開放状態のときに第一撮影部2aの視野(画角)に含まれる第二の部屋6bの背景が床9となるように第一撮影部2aを設置することが好ましい。例えば、第一撮影部2aをドア5の近傍の天井に俯角が大きくなるように設置するとよい。
The
ここで、第一撮影部2a及び第二撮影部2bの撮影のタイミングは同期させることが好適である。
Here, it is preferable that the shooting timings of the
ドア5が閉鎖状態では、第一撮影部2aの視点(第一の視点)から遮蔽空間7を含む第二の部屋6bの空間は撮影されない。つまり、閉鎖状態のとき、遮蔽空間7は、戸板15によって第一の視点から遮蔽されて撮影されない。ただし、ドア5が閉鎖状態の位置にあるときも遮蔽空間7は第一撮影部2aとは別の第二撮影部2bにより第二の視点から撮影される。一方、ドア5の開放により開口部8が生じると、第一撮影部2aから開口部8越しに遮蔽空間7の一部又は全部が撮影されてしまう。その結果、第一撮影部2aにより撮影された第一画像上では、ドア5が閉鎖状態のときは戸板15が背景であった領域に第二の部屋6bの床9が背景として出現してしまう。このように、ドア5が開放されると第一画像上に遮蔽空間7が背景として急に現われることによって、通行物体を検出し難くなる。ちなみに、ドア5が開放状態となったときに遮蔽空間7は第一撮影部2aの視野及び第二撮影部2bの視野に共通する共通視野となる。
When the
図2は、ドア5が開放状態のときに撮影される第一画像の例を示す。開口領域11は、開放状態にて第二の部屋6bの一部が撮影される領域である。戸板領域12は、戸板15が撮影される領域である。ドア5が開き戸の場合、開口領域11と戸板領域12を合わせた領域がドア領域となる。ドア5が引き戸であり、戸板15が変位してもその陰影が殆ど変化しない環境であれば戸板領域12は設定せず、開口領域11のみをドア領域としてもよい。ドア外領域13は、第一画像のうち開口領域11及び戸板領域12を除いた領域である。ドア5や床9、壁等は検出対象外の背景であり、これに対し検出対象物である通行者10は前景である。通行者10が現われている通行者領域(通行物体領域)14は、開口領域11、戸板領域12、ドア外領域13のいずれか又は複数の領域に跨って重なり得る。
FIG. 2 shows an example of a first image taken when the
開口領域11は、ドア5の開閉によってその領域形状が時々刻々と変化する。また、戸板領域12もドア5の開閉に伴いその領域形状が時々刻々と変化し、戸板15の陰影が時々刻々と変化する。さらに、開口領域11及び戸板領域12の一部は通行者10により隠蔽され得る。なお、ドア5が閉鎖状態のとき、開口領域11は現われない。
The shape of the area of the
また、第二視点背景取得領域311は、第一画像における開口領域11と対応する第二画像内の領域である。すなわち、第二画像における第二視点背景取得領域311は第一画像における開口領域11の背景情報を取得する領域である。カメラパラメータ310を用いた予めの計算により、第一画像の開口領域11を第一撮影部2a及び第二撮影部2bに共通する共通座標系(ワールド座標系)の基準面である床に逆投影し、さらに開口領域11の逆投影を第二画像に投影することで第二視点背景取得領域311を求めて記憶部3に記憶させておく。図1の床9の領域が開口領域11の逆投影の例であり、図2の第二視点背景取得領域311が開口領域11の逆投影を第二画像に投影した例である。
The second viewpoint
カメラパラメータ310は、第一撮影部2a及び第二撮影部2bの内部パラメータ及び外部パラメータである。事前のキャリブレーション(校正)作業により計測されたこれらの値が第一撮影部2a及び第二撮影部2bの撮影部IDと対応付けて記憶部31に予め記憶されている。内部パラメータは、焦点距離、レンズの光学中心位置等の情報である。外部パラメータは、ワールド座標系における位置及び姿勢等の情報である。カメラパラメータ310にピンホールカメラモデルなどを適用することで、第一撮影部2aと第二撮影部2bとの共通視野において対応する座標間の座標変換が可能となる。
The
なお、戸板15が変位すると第二画像上にも開口領域が現われる。第二画像における開口領域と対応する第二画像内の第一視点背景取得領域も予め求めて記憶部3に記憶させておく。
When the
通行物体検出装置100は、制御部3であるコンピュータが通行物体検出プログラムを実行することによって実現される。制御部3は、第一撮影部2a、第二撮影部2b及び表示部4と接続され、第一撮影部2a及び第二撮影部2bから順次入力される撮影画像を処理して撮影画像に現われた通行者領域14を抽出し、抽出結果から通行者10の位置を追跡する。抽出結果や追跡結果は表示部4に表示される。表示部4は、液晶ディスプレイやCRT等のモニター、これらのデータを受信する通信インターフェースを含む。
The passing
図3は、制御部3によって実現される各機能の機能ブロック図である。制御部3は、画像取得部30、記憶部31、画像処理部32及び出力部33として機能する。
FIG. 3 is a functional block diagram of each function realized by the
画像取得部30は、第一撮影部2a、第二撮影部2bが撮影した撮影画像を順次受信し、画像処理部32へ出力する通信インターフェースを含む。記憶部31は、ROM(Read Only Memory)、RAM(Random Access Memory)等のメモリ装置を含んで構成される。記憶部31は、カメラパラメータ310、第二視点背景取得領域311、ドアパターン312、ドア外/全体背景情報313、開口部背景情報314、戸板部背景情報315及び色変換関数を含む各種データや画像処理部32の処理を規定した通行物体検出プログラム等を記憶する。画像処理部32は、CPU(Central Processing Unit)、DSP(Digital Signal Processor)、MCU(Micro Control Unit)等の演算装置を含んで構成される。画像処理部32は、記憶部31から通行物体検出プログラムを読み出し、実行することによりドア状態検出部320、背景情報生成部321、通行物体領域抽出部322、通行物体追跡部323の各部での処理を実行する。出力部33は、画像処理部32で処理された情報を表示部4へ出力する通信インターフェースを含む。
The
以下、図4のフローチャートに沿って、通行物体検出プログラムによって実現される通行物体検出処理について説明する。通行物体検出処理は、監視空間に通行者が存在していないことを確認したうえで開始される。通行物体検出処理では、画像を取得するたびに以下のステップS1〜S9を繰り返す。 Hereinafter, the passing object detection process realized by the passing object detection program will be described with reference to the flowchart of FIG. The passing object detection process is started after confirming that no passerby exists in the monitoring space. In the passing object detection process, the following steps S1 to S9 are repeated every time an image is acquired.
ステップS1では、第一撮影部2a及び第二撮影部2bから第一画像及び第二画像が取得される。第一撮影部2a及び第二撮影部2bでは所定の周期で第一画像及び第二画像を撮影して画像取得部30へ出力する。画像取得部30は、第一画像及び第二画像を受けて、記憶部31に記憶させる。
In step S1, the first image and the second image are acquired from the first photographing
ステップS2では、ドア5の状態が検出される。ドア状態検出部320は、第一画像とドアパターン312とのパターンマッチングを行ってドア5の開度を検出する。
In step S2, the state of the
ドアパターン312は、撮影画像上で開口領域11と戸板領域12がとり得る形状特徴をドア5の開度毎に表す形状パターンである。ドアパターン312は、監視空間に適合させて予め作成し登録しておく(記憶部31に記憶させておく)。具体的には、ドアパターン312は、ドア5の各開角度における開口領域11の輪郭画素の位置、戸板領域12の輪郭画素の位置を示した形状パターンと開口領域11に属する画素及び戸板領域12に属する画素を示した属性パターンを含む。例えば、図5に示すように、0度(定常位置)から120度(完全開放)まで10度毎に13段階のパターンが登録される。ドアパターン312は、ドア5を模した3次元モデルを用いたシミュレーションなどにより事前に作成され、予め登録される。また、開口領域11のパターン画像と戸板領域12のパターン画像を別々に分けて登録してもよい。ドア状態検出部320は、各開角度の形状パターンと現フレームの第一画像とを比較して類似度を算出し、類似度が最も高い開角度をドア状態として検出する。具体的には、ドア状態検出部320は、第一画像からエッジ画像を生成して各開角度のドアパターン312とエッジ画像のパターンマッチングを行って、類似度が最大である開角度を検出する。これにより、現フレームの第一画像に現れているドア5の形状に一致するドア状態を検出できる。ドア状態検出部320は、検出した開角度を背景情報生成部321及び通行物体領域抽出部322に出力すると共に、次フレームでの処理のために記憶部31に記憶させる。
The
また、ドア状態は、第二画像とドアパターン312とのパターンマッチングにより検出してもよい。この場合、ドアパターン312は、第二画像に対してドア5の各開角度において予め登録しておけばよい。第一画像と第二画像における開角度は共通であるから、ステップS2の処理はいずれか一方に対して行えばよい。
Further, the door state may be detected by pattern matching between the second image and the
また、ドア5の上部の領域においてドア5の下部の領域より類似度を高く評価する処理としてもよい。すなわち、ドア5の上部の領域は通行者と重なり合わない可能性が高く、ドアパターン312とのパターンマッチングにおいて信頼性の高い領域となるので、ドア5の上部領域でのマッチングをより重要視して処理を行うことが好ましい。例えば、ドア領域において人の平均身長より上の領域における類似度に1より大きい係数を乗算して、平均身長より下の領域における類似度よりも高く評価すればよい。或いは、簡易的にドア領域の上半分を上部の領域、下半分を下部の領域としてもよい。
Moreover, it is good also as a process which evaluates a similarity higher in the area | region of the upper part of the
ステップS3では、第一画像及び第二画像の各画素に領域属性が設定される。ドア状態検出部320は、検出された開角度のドアパターン312に設定されている属性パターンに従って第一画像及び第二画像上に開口領域11と戸板領域12とそれ以外のドア外領域13を設定する。このステップS2及びS3の処理が、ドア状態検出部320に含まれる領域区分部での処理に相当する。
In step S3, a region attribute is set for each pixel of the first image and the second image. The door
例えば、開角度が0度以外であれば、ドア状態検出部320は、第一画像及び第二画像の各画素に3領域のいずれかの領域属性を設定し、第一画像及び第二画像それぞれを、最も類似度が高い開度のドアパターン312における開口領域11、戸板領域12及びドア外領域13の形状及び位置にその輪郭形状及び位置が合致する3領域に区分する。開角度が0度なら、ドア状態検出部320は、第一画像及び第二画像それぞれを、閉鎖状態のドアパターン312における戸板領域12及びドア外領域13の形状及び位置にその輪郭形状及び位置が合致する2領域に区分する。なお、上述した戸板領域12を設定しない引き戸の例では、ドア状態検出部320は、開放状態のときに第一画像及び第二画像それぞれを最も類似度が高い開度のドアパターン312における開口領域11l及びドア外領域13の形状及び位置にその輪郭形状及び位置が合致する2領域に区分する。
For example, if the opening angle is other than 0 degrees, the door
このように、ドア状態検出部320は、ドア5の開閉により撮影画像において開口部8が現われている開口領域11を予め登録されている開口領域11の形状パターン(ドアパターン312)との比較から検出する。これにより、撮影画像において戸板15の変位に伴って生じる開口領域11の形状変化に追従できる。そのため、撮影画像において開口部背景情報314を適用すべき開口領域11が正確に得られるので高精度な背景情報の生成と高精度な通行物体領域の検出が可能となる。
Thus, the door
また、ドア状態検出部320は、撮影画像において変位中の戸板15が現われている戸板領域12を予め登録されている戸板領域12の形状パターン(ドアパターン312)との比較から検出する。これにより、撮影画像において生じる戸板領域12の形状変化に追従できる。そのため、撮影画像において戸板部背景情報315を取得、適用すべき戸板領域12が正確に得られるので高精度な背景情報の生成と高精度な通行物体領域の検出が可能となる。
Moreover, the door
ステップS4では、第一画像及び第二画像から通行者領域が抽出される。まず、通行物体領域抽出部322は、図6に示すフローチャートに沿って第一画像を処理する。ステップS30〜S40では、各画素を順次注目画素に設定して第一画像の全画素に対するループ処理を行う。
In step S4, a passer-by area is extracted from the first image and the second image. First, the passing object
ステップS30では、第一画像中に注目画素が設定される。すなわち、通行物体領域抽出部322は、ステップS30に処理が戻ってくる度に第一画像に含まれる1画素を順次選択して注目画素に設定する。
In step S30, the target pixel is set in the first image. That is, the passing object
ステップS31では、ドア5の状態が開放状態であるか否かが確認される。通行物体領域抽出部322は、ドア状態検出部320が検出した開角度が0度でなければドア5の状態が開放状態であるとして(ステップS31にてYES)、ステップS32に処理を移行させ、そうでなければステップS38に処理を移行させる(ステップS31にてNO)。
In step S31, it is confirmed whether or not the state of the
ステップS32では、注目画素が開口領域11であるか否かが判定される。通行物体領域抽出部322は、ステップS4にてドア状態検出部320が判定した各画素の領域属性を参照して、注目画素の領域属性が開口領域11である場合にはステップS33に処理を移行させ(ステップS32にてYES)、そうでない場合にはステップS36に処理を移行させる(ステップS32にてNO)。
In step S <b> 32, it is determined whether or not the target pixel is the
ステップS33〜S35では、通行物体領域抽出部322は開口領域11における撮影画像の各画素を開口部背景情報314と比較して、当該画素の開口部背景情報314に対する相違の程度を表わす指標である通行者尤度(相違するほど値が大きくなる)を算出する。
In steps S <b> 33 to S <b> 35, the passing object
開口部背景情報314は、第一画像及び第二画像における開口領域11の背景情報である。各画素の開口部背景情報314は、開口領域11の色ヒストグラム(開口部色ヒストグラム)と開口領域11の各画素に対応する背景画素値(開口部背景画素値)の2種類を含む情報であり、記憶部31に記憶される。開口部色ヒストグラムは、例えばYUV各8ビンの3次元配列とされる。開口部背景情報314は、背景情報生成部321により生成され、適宜更新される。開口部背景情報314の生成処理については後述する。
The opening
ステップS33では、注目画素の背景画素値が既に生成されているか否かが判定される。通行物体領域抽出部322は、開口部背景情報314に既に背景画素値が記憶されている場合にはステップS35に処理を移行させ(ステップS33にてYES)、そうでない場合にはステップS34へ処理を移行させる(ステップS33にてNO)。
In step S33, it is determined whether or not the background pixel value of the target pixel has already been generated. If the background pixel value is already stored in the
ステップS34では、開口部色ヒストグラムに対する注目画素の通行者尤度が算出される。通行物体領域抽出部322は、開口部背景情報314から第一画像の開口部色ヒストグラムH0、通行物体情報316からドア5付近の通行者の色ヒストグラムHPをそれぞれ読み出し、数式(1)及び(2)にしたがって注目画素xの通行者尤度LO(x)を算出する。
ここで、xは注目画素、PO(x)は注目画素xの通行者確率、cxは注目画素xの色、HO(cx)は開口部色ヒストグラムにおける色cxのビンの頻度、HP(cx)は通行物体情報316から読みだした色ヒストグラムにおける色cxのビンの頻度、LO(x)は注目画素xの通行者尤度、βO1は予めの実験を通じ適切に調整した定数である。通行者尤度LO(x)は、通行者確率PO(x)に対して単調増加する。よって、開口部色ヒストグラムにおいて注目画素の画素値の頻度が低いほど通行者尤度は高くなる。
Here, x is the target pixel, P O (x) is the passer probability of the target pixel x, c x is the color of the target pixel x, and H O (c x ) is the frequency of bins of the color c x in the aperture color histogram. , H P (c x ) is the frequency of bins of the color c x in the color histogram read from the passing
このように通行物体領域抽出部322は、第一画像における開口領域11の各画素が開口部色ヒストグラムと相違するほど当該画素の通行者尤度を高く算出する。また、通行物体領域抽出部322は、第一画像における開口領域11の各画素が通行物体情報316と類似するほど当該画素の通行者尤度を高く算出する。
As described above, the passing object
ここで、通行物体情報316とは、監視空間に存在する各通行者(すなわち追跡中の通行者)の通行者領域14の画像特徴量及び位置の履歴を示す情報である。各通行者には当該通行者を一意に識別する通行者IDが付与され、通行者IDに通行者領域と画像特徴量と位置の履歴が対応付けて記憶部31に記憶される。ここで、画像特徴量は、色ヒストグラムであり、例えばYUV各8ビンの3次元配列で表される。通行者領域の情報は、共通座標系における3次元形状モデルとその3次元位置(例えば頭部重心)の形式で記憶される。3次元形状モデルは、通行物体が人である場合には頭部、胴部及び足部を回転楕円体で近似したデータとすることができる。3次元形状モデルを、カメラパラメータ310を用いて撮影画像の座標系に投影することで通行者領域を表わす2次元形状モデルとなる。
Here, the passing
ステップS35では、開口部背景画素値に対する注目画素の通行者尤度が算出される。通行者尤度は、数式(3)を用いて算出される。具体的には、通行物体領域抽出部322は、注目画素の画素値I(x)と背景画素値BO(x)との背景差分を算出し、差分値(I(x)−BO(x))を通行者尤度LO(x)に変換する。
通行者尤度LO(x)は、差分値(I(x)−B0(x))に対して単調増加する。よって、注目画素の画素値と開口部背景画素値の差が大きいほど通行者尤度は高くなる。 The passer-by likelihood L O (x) increases monotonously with respect to the difference value (I (x) −B 0 (x)). Therefore, the passer likelihood becomes higher as the difference between the pixel value of the target pixel and the aperture background pixel value is larger.
このように通行物体領域抽出部322は、第一画像における開口領域11の各画素が開口部背景情報314と相違するほど当該画素の通行者尤度を高く算出する。
As described above, the passing object
ステップS36,S37では、通行物体領域抽出部322は、戸板領域における第一画像の各画素を戸板部背景情報315と比較して、当該画素が背景情報と相違する程度を表わす指標である通行者尤度を算出する。
In steps S <b> 36 and S <b> 37, the passing object
ここで、戸板部背景情報315は、第一画像及び第二画像における戸板領域12の背景情報であり、色ヒストグラム(戸板部色ヒストグラム)で表される。各画像の戸板部色ヒストグラムは、例えばYUV各8ビンの3次元配列で表され、記憶部31に記憶される。戸板部背景情報315は、ドア5の開閉が検出されている間、背景情報生成部321により生成され、適宜更新される
Here, the
ステップS36では、注目画素が戸板領域12であるか否かが判定される。通行物体領域抽出部322は、注目画素の領域属性が戸板領域12である場合(ステップS36にてYES)にはステップS37に処理を移行させ、そうでない場合(ステップS36にてNO)にはステップS38へ処理を移行させる。
In step S <b> 36, it is determined whether or not the target pixel is the
ステップS37では、戸板部色ヒストグラムに対する注目画素の通行者尤度が算出される。通行物体領域抽出部322は、注目画素xの色すなわち画素値を第一画像の戸板部色ヒストグラム及びドア5付近の通行者の色ヒストグラムと比較して、数式(4)及び(5)にしたがって注目画素xの通行者尤度LD(x)を算出する。
ここで、PD(x)は注目画素xの通行者確率、HD(cx)は戸板部色ヒストグラムにおける色cxのビンの頻度、LD(x)は注目画素xの通行者尤度、βDは予めの実験を通じ適切に調整した定数である。通行者尤度LD(x)は、通行者確率PD(x)に対して単調増加する。 Here, P D (x) is the passer probability of the target pixel x, H D (cx) is the bin frequency of the color c x in the door panel color histogram, and L D (x) is the passer likelihood of the target pixel x. , Β D is a constant adjusted appropriately through previous experiments. The passer likelihood L D (x) monotonously increases with respect to the passer probability P D (x).
すなわち、通行物体領域抽出部322は、第一画像における戸板領域12の各画素が戸板部背景情報315と相違するほど当該画素の通行者尤度を高く算出する。また、通行物体領域抽出部322は、第一画像の戸板領域12を構成する画素が通行物体情報316と類似するほど当該画素の通行者尤度を高く算出する。
That is, the passing object
ステップS38では、開口領域11及び変位中の戸板領域12のいずれでもない注目画素についてドア外/全体背景画素値に対する通行者尤度が算出される。通行物体領域抽出部322は、ドア外/全体背景情報313から注目画素xに対応する背景輝度値BG(x)を読み出し、注目画素xの画素値I(x)と背景画素値BG(x)との差分値(I(x)−BG(x))を算出して通行者尤度LG(x)に変換する。具体的には、数式(6)により通行者尤度LG(x)を算出する。
ここで、LG(x)は注目画素xの通行者尤度、βGは予めの実験を通じ適切に調整した定数である。通行者尤度LG(x)は、差分値(I(x)−BG(x))に対して単調増加する。よって、注目画素の画素値と全体背景画素値又はドア外背景画素値の差が大きいほど通行者尤度は高くなる。 Here, L G (x) is a passer likelihood of the pixel of interest x, and β G is a constant adjusted appropriately through a prior experiment. The passer-by likelihood L G (x) monotonously increases with respect to the difference value (I (x) −B G (x)). Thus, the greater the difference between the pixel value of the pixel of interest and the overall background pixel value or the outside door background pixel value, the higher the passer likelihood.
このように、通行物体領域抽出部322は、ドア5が閉鎖状態のときは第一画像の画素総てに対して当該画素の通行者尤度を全体背景画素値と相違するほど高く算出し、ドア5が開放状態のときはドア外領域13における第一画像の各画素の通行者尤度を当該画素がドア外背景画素値と相違するほど高く算出する。
Thus, when the
ここで、ドア外/全体背景情報313は、第一画像全体における背景情報及び第二画像全体における背景情報である。ドア外/全体背景情報313としては第一画像の各画素に対応する背景画素値及び第二画像の各画素に対応する背景画素値が記憶部31に記憶される。ドア外/全体背景情報313は、背景情報生成部321により生成され、適宜更新される。ドア5が閉鎖状態のときは全画素の背景画素値が全体背景画素値として利用され、ドア5が開放状態のときはドア外領域13の画素に対応する背景画素値がドア外背景画素値として利用される。
Here, the outside /
ステップS40では、識別器を用いた通行者尤度の補正処理がなされる。まず、通行者領域抽出部322は、開口領域11及び戸板領域12において検出窓領域Aを少しずつずらしながら検出窓領域A内の撮影画像を識別器に入力し、識別器が出力するスコアから検出窓領域Aに通行者が写っているか否かを判定する。例えば、識別器は検出窓領域Aに通行者が写っていれば0より大きく1未満のスコアを出力し、写っていなければ−1より大きく0以下のスコアを出力するように予め学習させておくことができ、この場合、通行者領域抽出部322は、閾値として0を設定し、スコアが閾値より大きければ通行者が写っていると判定し、スコアが閾値以下であれば通行者は写っていないと判定する。なお、このとき、通行者領域抽出部322は、通行者毎に異なる身長(通行物体の個体差)に対応するために、開口領域11及び戸板領域12の撮影画像を縮小しながら判定を行う。縮小率は、通行者の画像上での大きさを考慮して予め記憶部31に1又は複数の縮小率を記憶させておけばよい。
In step S40, a passer likelihood correction process using a discriminator is performed. First, the passer-by
ここで用いる識別器は、それぞれに人が写っている大量の「通行者」画像の特徴量といずれも人が写っておらず背景だけが写っている大量の「非通行者」画像の特徴量とからなる学習データを用いて、判定基準のパラメータをアダブースト(AdaBoost)法又はサポートベクターマシーン(SVM)等により予め学習させたプログラムであり、記憶部31に予め記憶させておく。特徴量にはヒストグラム・オブ・オリエンティッド・グラディエント(HOG:Histograms of Oriented Gradients)、ハールライク(Haar-like)特徴等を用いることができる。識別器は、入力された検出窓領域A内の撮影画像から特徴量を抽出し、抽出した特徴量を判定基準に照らして検出窓領域毎にスコアを出力する。
The classifiers used here are feature quantities of a large number of "passerby" images that each show a person, and feature quantities of a large number of "passerby" images that show only the background without any human beings. Is a program in which parameters for determination criteria are previously learned by the AdaBoost method or the support vector machine (SVM) using the learning data consisting of the above, and are stored in the
通行物体領域抽出部313は、このように得られた判定結果に基づいて通行者尤度を補正する。例えば、識別器から出力されるスコアが所定の閾値を超える場合、通行者が検出されものとしてその検出窓領域A内では既に計算されている各画素の通行者尤度に一定の値を乗算して通行者尤度が高くなるように処理する。また、識別器において通行者が検出された検出窓領域A内では既に計算されている各画素の通行者尤度に識別器から出力されたスコアを乗算して通行者尤度が高くなるように処理してもよい。例えば、スコアDsが0〜1の数値で表わされる場合には(1+Ds)を乗算する。また、識別器から出力されるスコアが所定の閾値を超えない場合には、その検出窓領域A内では既に計算されている各画素の通行者尤度に一定の値を加算して通行者尤度を底上げしてもよい。
The passing object
さらに、検出窓領域Aの矩形にサイズ合わせして人型の通行物体モデルを設定し、検出窓領域A内においてその通行物体モデルの領域に対してのみ上記補正処理を施してもよい。または、通行物体モデルの領域の中心に近いほど通行者尤度が高くなるように乗算値や加算値を設定してもよい。 Further, a humanoid passing object model may be set in accordance with the size of the rectangle of the detection window area A, and the correction process may be performed only on the area of the passing object model in the detection window area A. Alternatively, a multiplication value or an addition value may be set so that the passer likelihood becomes higher as it is closer to the center of the area of the passing object model.
なお、通行者尤度に(1+Ds)等の多値のスコアを乗算又は加算する場合、開口領域11及び戸板領域12に複数の通行者が写っているとき等に、複数の検出窓領域にて通行者が写っていると判定され、これらの検出窓領域の一部が重複することがある。この場合は、重複領域の各画素において複数の検出窓領域にて出力されたスコアの最大値を乗算又は加算すればよい。
In addition, when multiplying or adding a multi-value score such as (1 + Ds) to the passer likelihood, when there are a plurality of passersby in the
また、識別器として、通行者画像を人の全身画像で構成した学習データで学習した1種類の識別器を用いることもできるが、複数種類の識別器を用いてもよい。例えば、通行者画像を人の全身画像だけで構成した学習データで学習した識別器と、通行者画像を脚部や頭部等の部位毎の画像で構成した学習データそれぞれで学習した複数の識別器とを用いることができる。この場合、例えば、全身の識別器の検出窓領域と当該全身に対する部位の識別器の検出窓領域の位置関係を予め対応付けて管理し、部位の識別器のスコアを対応する全身の検出窓領域に統合したスコアを当該全身の検出窓領域に対するスコアとして補正処理に利用することができる。 Further, as the classifier, one type of classifier learned from learning data in which a passer-by image is composed of a human whole body image can be used, but a plurality of types of classifiers may be used. For example, a discriminator that learns a passer image by learning data composed only of a whole body image of a person and a plurality of identifications that are learned by a learning data that consists of a passer image composed of images for each part such as a leg and a head. Can be used. In this case, for example, the positional relationship between the detection window region of the whole body classifier and the detection window region of the part classifier with respect to the whole body is managed in association with each other in advance, and the score of the part classifier is associated with the corresponding whole body detection window region. Can be used for correction processing as a score for the detection window region of the whole body.
こうして得られた通行者尤度画像が通行者領域を表す情報となる。すなわち、通行者尤度の高い画素が人型に密集している領域が通行者領域14として得られる。ステップS41では、通行者尤度画像から通行者領域14を決定する処理が行われる。
The passer likelihood image obtained in this way is information representing the passer-by area. That is, a region where pixels with high passer-like likelihood are concentrated in a human shape is obtained as the passer-
具体的には、通行者尤度画像上の各位置に3次元人物モデルを投影して2次元形状を模した通行物体モデルを生成し、通行物体モデル内の画素に設定された通行者尤度の合計値が検出閾値T1以上であるときに当該位置の通行物体モデルが示す領域を通行者領域14として抽出する。または、通行者尤度画像の各画素を所定の検出閾値T2と比較し、通行者尤度が検出閾値T2以上である画素がドア領域における通行者のサイズ(通行物体サイズ)の範囲で互いに隣接している領域を通行者領域14として抽出してもよい。
Specifically, a 3D human model is projected on each position on the passer likelihood image to generate a pass object model that imitates a 2D shape, and the passer likelihood set for the pixels in the pass object model When the total value is equal to or greater than the detection threshold T1, the area indicated by the passing object model at the position is extracted as the passer-
なお、上記サブルーチンでは第一画像内に含まれる通行者領域14の抽出処理のみを説明したが、第二画像内に含まれる通行者領域14も同様に求める。すなわち通行物体領域抽出部322は、第二画像の各画素に対する通行者尤度を算出して第二画像に対応する通行者尤度画像を生成し、通行者尤度の高い画素が人型に密集している領域を通行領域に決定する。このとき、通行物体領域抽出部322は、ドア5が開放状態であれば、開口領域11における第二画像の画素を開口部背景情報314と比較して通行者尤度を算出し、戸板領域12における第二画像の画素を戸板部背景情報315と比較して通行者尤度を算出し、ドア外領域13における第二画像の画素をドア外/全体背景情報313と比較して通行者尤度を算出する。また通行物体領域抽出部322は、ドア5が閉鎖状態であれば、第二画像の全画素をドア外/全体背景情報313と比較して通行者尤度を算出する。
In the above subroutine, only the extraction process of the passer-
上記通行物体領域抽出部322における処理が終了するとメインルーチンのステップS5に処理が戻される。
When the process in the passing object
ステップS5では、通行者の追跡処理が行われる。通行物体追跡部323は、各通行者領域14の位置及び通行者領域14における第一画像の色ヒストグラムを当該通行者の特徴量として抽出し、抽出した特徴量と通行物体情報316に記憶された各通行者の特徴量との照合を行う。通行物体追跡部323は、この照合により一致が得られた通行者領域を通行物体情報316の通行者と同一と判定して対応付ける。第二画像から抽出した通行者領域についても同様に通行物体情報316との同定を行う。さらに、通行物体追跡部323はカメラパラメータ310を用いて第一画像から抽出した通行者領域14と第二画像から抽出した通行者領域14のうち、ワールド座標系において位置が対応する通行者領域を同一の通行者と対応付ける。通行物体追跡部323は、通行物体情報316の色ヒストグラムを対応が得られた通行者領域14の色ヒストグラムにより更新し、当該通行者の通行物体情報316の位置履歴に一致が得られた通行者領域14の位置を追記する。また、対応が得られなかった通行者領域に対して新規通行者の通行物体情報316を生成し、対応が得られなかった通行物体情報316は消失したとして削除する。
In step S5, a passer-by tracking process is performed. The passing
なお、通行者の追跡処理はこれらに限定されるものではなく、既存の種々の画像追跡処理を適用することができる。 The passerby tracking process is not limited to these, and various existing image tracking processes can be applied.
ステップS6では、通行者領域14の画素から通行者尤度の算出で用いる通行者の色ヒストグラムを生成する。ドア5の近辺に存在するK人の通行者のヒストグラムH1〜HKを足し合わせ、正規化したものを通行者の色ヒストグラムHPとして通行物体情報316に含めて記憶部31に記憶させる。
ステップS7では、図8のフローチャートに沿って、ドア外/全体背景情報313の生成処理が行われる。背景情報生成部321は、現フレームの第一画像の各画素を順次注目画素に設定して(ステップS50)、ステップS50〜S55のループ処理を実行する。
In step S <b> 7, a process for generating outside /
ステップS51では、ドア5の状態が開放状態であるか否かが確認される。背景情報生成部321は、ドア状態検出部320が検出した開角度が0度以外ならドア5が開放状態であるとしてステップS52に処理を移行させ(ステップS51にてYES)、そうでなければステップS53に処理を移行させる(ステップS51にてNO)。
In step S51, it is confirmed whether the state of the
ステップS52では、注目画素の領域属性がドア外領域13であるか否かが確認される。背景情報生成部321は、ドア状態検出部320が注目画素に対して設定した領域属性がドア外領域13であればステップS53に処理を移行させ(ステップS52にてYES)、そうでなければステップS55に処理を移行させる(ステップS52にてNO)。
In step S52, it is confirmed whether or not the region attribute of the target pixel is the
ステップS53では、注目画素が通行者領域14の画素か否かが確認される。背景情報生成部321は、通行物体領域抽出部322が第一画像から抽出した通行者領域14を参照して、注目画素が通行者領域14の画素であればステップS55に処理を移行させ(ステップS53にてYES)、そうでなければステップS54に処理を移行させる(ステップS53にてNO)。
In step S53, it is confirmed whether or not the target pixel is a pixel in the passer-
ステップS54では、背景情報生成部321は、現フレームの注目画素の画素値でドア外/全体背景情報313に記憶している注目画素の背景画素値を更新する。
In step S54, the background
具体的には、背景情報生成部321は、式(8)にしたがって、現フレームの注目画素の画素値I(x)とドア外/全体背景情報313の背景画素値BG(x,t−1)をαG:(1−αG)の割合で重み付け平均した背景画素値BG(x,t)を求めてドア外/全体背景情報313に書き込む。
ステップS55では、背景情報生成部321は、第一画像の全画素を注目画素として処理したか確認する。全画素を処理していなければ、次の画素を処理するために処理をステップS50に戻す(ステップS55にてNO)。全画素を注目画素として処理すると図8の処理は終了する。
In step S55, the background
以上のように、背景情報生成部321は、通行者領域14、開口領域11及び変位中の戸板領域12を除いた領域について、現フレームの第一画像を用いて第一の視点でのドア外/全体背景情報313を生成・更新する。
As described above, the background
また、背景情報生成部321は、第二画像に対しても同様にしてドア外/全体背景情報313を生成する。すなわち、背景情報生成部321は、ドア5が開放状態であれば、現フレームの第二画像において通行者が検出されなかったドア外領域13の画素値とドア外/全体背景情報313の対応する背景画素値との重み付け平均値を第二画像における開口領域11の新たな背景画素値として記憶部31に書き込む。また、背景情報生成部321は、ドア5が閉鎖状態であれば、現フレームの第二画像において通行者が検出されなかった領域の画素値とドア外/全体背景情報313の対応する背景画素値との重み付け平均値を第二画像に対する新たな背景画素値として記憶部31に書き込む。
The background
ドア外/全体背景情報313が生成されると、処理は図4のステップS8に進み、背景情報生成部321は開口部背景情報314の生成を行う。
When the outside /
ステップS8では、図9及び図10に示すフローチャートに沿って開口部背景情報の生成処理が行われる。 In step S8, opening background information generation processing is performed according to the flowcharts shown in FIGS.
まず、背景情報生成部321は、図10のフローチャートに従い、第二画像を用いて第一画像における開口部色ヒストグラムを生成する。
First, the background
ステップS60〜S64のループ処理では、現フレームの第二視点背景取得領域311における色ヒストグラムが生成される。ステップS60では、現フレームの第二画像の各画素が順次注目画素に設定される。すなわち、背景情報生成部321は、ステップS60に処理が戻ってくる度に第二画像に含まれる画素を順次選択して注目画素に設定する。また、ループ処理開始にあたり、背景情報生成部321は現フレームの色ヒストグラムを蓄積する記憶領域を用意し、各ビンの度数を0に初期化する。
In the loop processing of steps S60 to S64, a color histogram in the second viewpoint
ステップS61では、注目画素が第二視点背景取得領域311の画素であるか否かが確認される。背景情報生成部321は、注目画素が第二画像に対して設定された第二視点背景取得領域311の画素であればステップS62に処理を移行させ(ステップS61にてYES)、そうでなければステップS66へ処理を移行させる(ステップS61にてNO)。
In step S61, it is confirmed whether or not the target pixel is a pixel in the second viewpoint
ステップS62では、注目画素が戸板領域12の画素か否かが確認される。背景情報生成部321は、注目画素が戸板領域12内にあればステップS66に処理を移行させ(ステップS62にてYES)、そうでなければステップS63へ処理を移行させる(ステップS62にてNO)。この判定により、背景情報生成部321は、第二視点からみてドア5が手前開きの場合に第二視点背景取得領域311からこれに重なった戸板領域12を除外する。この除外によって戸板15が背景に混入しなくなるので、開口部色ヒストグラムの精度を高く維持することができる。
In step S62, it is confirmed whether or not the target pixel is a pixel in the
ステップS63では、注目画素が通行者領域14内の画素か否かが確認される。背景情報生成部321は、通行物体領域抽出部322が第二画像から抽出した通行者領域14を参照して、注目画素が通行者領域14内にあればステップS66に処理を移行させ(ステップS63にてYES)、そうでなければステップS64へ処理を移行させる(ステップS63にてNO)。
In step S63, it is confirmed whether or not the target pixel is a pixel in the passer-
ステップS64では、色変換処理が行われる。背景情報生成部321は、第二画像の平均輝度値及び分散を第一画像の平均輝度値及び分散と一致させるように予め設定された色変換関数を用いて第二画像の注目画素の画素値を変換する。
In step S64, a color conversion process is performed. The background
ステップS65では、注目画素の値が現フレームの色ヒストグラムに蓄積される。背景情報生成部321は、記憶部31に用意した現フレームの色ヒストグラムにおいて注目画素の色と対応するビンの度数を1だけ増加させる。
In step S65, the value of the target pixel is accumulated in the color histogram of the current frame. The background
ステップS66では、背景情報生成部321は、第二画像の全画素を注目画素として処理したか確認する。全画素を処理していなければ次の画素を処理するために処理をステップS60に戻し(ステップ66にてNO)、処理が終わっていればステップS67に処理を移行させる。
In step S66, the background
ステップS67では、背景情報生成部321は、現フレームの色ヒストグラムを用いて開口部背景情報314に記憶している色ヒストグラムを更新する。具体的には背景情報生成部321は、現フレームの色ヒストグラムを処理対象とした画素数で正規化し、式(9)にしたがって現フレームの色ヒストグラムHの各ビンの値と開口部背景情報314の色ヒストグラムHO(t−1)の対応するビンの値をαO1:(1−αO1)の割合で重み付け平均した色ヒストグラムHO(t)を求めて背景情報生成部321に書き込む。
なお、開口部背景情報314に色ヒストグラムが記憶されていない起動直後の場合は、現フレームの色ヒストグラムHをそのままHOとして記憶させる。
If the color histogram is not stored in the
このように開口領域の背景情報を画素単位の情報とせず、領域単体の情報である画素値の分布データ(色ヒストグラム)としたことで、開口領域の形状変化や通行物体の通過によって見え隠れする箇所に対しても継続的に利用可能な開口部背景情報を生成することができる。よってドアの開閉があっても高精度に通行物体領域を検出し続けることができる。また、カメラパラメータ310や色変換関数の誤差が希釈されて精度低下を防止できる。
In this way, the background information of the opening area is not pixel-by-pixel information, but the pixel value distribution data (color histogram), which is information of the area alone, makes it visible and hidden due to changes in the shape of the opening area and the passage of passing objects The opening background information that can be continuously used can be generated. Therefore, even when the door is opened and closed, the passing object region can be detected with high accuracy. In addition, errors in the
次に、背景情報生成部321は、図10のフローチャートに従い、第一画像における開口部背景画素値を生成する。
Next, the background
ステップS70では、ドア5が開放状態であるか否かが確認される。背景情報生成部321は、ドア状態検出部320が検出した開角度が0度以外であればドア5が開放状態であるとしてステップS71に処理を移行させ(ステップS70にてYES)、そうでなければステップS76に処理を移行させる(ステップS70にてNO)。
In step S70, it is confirmed whether or not the
ステップS71では、背景情報生成部321は、現フレームの第一画像の各画素を順次注目画素に設定する。ステップS71〜75のループ処理では、現フレームの第一画像により開口部背景画素値が生成・更新される。
In step S71, the background
ステップS72では、注目画素が開口領域11の画素か否かが確認される。背景情報生成部321は、ドア状態検出部320が第一画像に対して設定した注目画素の領域属性が開口領域11であればステップS73に処理を移行させ(ステップS72にてYES)、そうでなければステップS75に処理を移行させる(ステップS72にてNO)。
In step S72, it is confirmed whether or not the target pixel is a pixel in the
ステップS73では、注目画素が通行者領域14の画素か否かが確認される。背景情報生成部321は、通行物体領域抽出部322が第一画像から抽出した通行者領域14を参照して、注目画素が通行者領域14の画素にあればステップS75に処理を移行させ(ステップS73にてYES)、そうでなければステップS74へ処理を移行させる(ステップS73にてNO)。
In step S <b> 73, it is confirmed whether or not the target pixel is a pixel in the passer-
ステップS74では、注目画素の背景画素値が更新される。背景情報生成部321は、現フレームの注目画素の画素値で開口部背景情報314に記憶している注目画素の背景画素値を更新する。具体的には、背景情報生成部321は、式(10)にしたがって現フレームの注目画素の画素値I(x)と開口部背景情報314の背景画素値BO(x,t−1)をαO2:(1−αO2)の割合で重み付け平均した背景画素値BO(x,t)を求めて開口部背景情報314に書き込む。
ステップS75では、第一画像の全画素を注目画素として処理したかが確認される。背景情報生成部321は、全画素を処理していなければ次の画素を処理するために処理をステップS71に戻し(ステップS75にてNO)、そうでなければ図4のステップS9へと処理を戻す(ステップS75にてYES)。ステップS71〜S75の処理により開口領域11において通行者が現れていない部分では背景画素値が生成され、色ヒストグラムに代えて利用可能となる。
In step S75, it is confirmed whether all pixels of the first image have been processed as the target pixel. If all the pixels have not been processed, background
ステップS76では、ドア5が開放状態から閉鎖状態に変化したか否かが確認される。背景情報生成部321は、記憶部31に記憶されている1フレーム前の開角度が0度以外であり且つ現フレームの開角度が0度であれば、ドア5の状態が現フレームにおいて開放状態から閉鎖状態に変化したとしてステップS77へ処理を移行させ(ステップS76にてYES)、そうでなければ処理を図4のステップS9に移行させる(ステップS76にてNO)。
In step S76, it is confirmed whether or not the
ステップS77では、開口部背景画素値がクリアされる。背景情報生成部321は、開口部背景情報314の背景画素値を総てクリアする。つまり、ステップS70にてドア5が閉鎖状態であると判定された場合、開口領域11における最新の背景画素値が第一画像から得られなくなるため、閉鎖状態が継続している間においては、背景情報生成部321は、開口領域11における背景画素値の生成を行わず、さらに開口部背景画素値をクリアして開口部背景画素値をドア5が開放状態にある間だけ利用可能とする。
In step S77, the aperture background pixel value is cleared. The background
また、背景情報生成部321は、第二画像における開口領域11に対しても同様にして開口部背景情報314を生成する。すなわち、背景情報生成部321は、ドア5が開放状態であれば、現フレームの第一画像において通行者が検出されなかった開口領域11の画素から現フレームの色ヒストグラムを算出して、当該色ヒストグラムと開口部背景情報314に記憶されている色ヒストグラムとの重み付け平均値を第二画像における開口領域11の新たな色ヒストグラムとして記憶部31に書き込む。また、背景情報生成部321は、ドア5が開放状態であれば、現フレームの第二画像において通行者が検出されなかった開口領域11の画素値と開口部背景情報314の対応する背景画素値との重み付け平均値を第二画像における開口領域11の新たな背景画素値として記憶部31に書き込む。また、背景情報生成部321は、現フレームにおいてドア5が開放状態から閉鎖状態に変化した場合に開口部背景情報314の背景画素値をクリアする。
The background
開口部背景情報314が生成されると、処理は図4のステップS9に進み、背景情報生成部321は戸板部背景情報315の生成を行う。背景情報生成部321は、図11に示すフローチャートに沿ってステップS80〜S84のループ処理を実行し、現フレームの戸板領域12における色ヒストグラムを生成する。
When the opening
ステップS80では、背景情報生成部321は、現フレームの第一画像の各画素を順次注目画素に設定する。また、背景情報生成部321は、現フレームの色ヒストグラムを蓄積する記憶領域を用意し、各ビンの度数を0に初期化する。
In step S80, the background
ステップS81では、背景情報生成部321は、注目画素が第一画像に対して設定された戸板領域12の画素であるか否かを確認する。注目画素が戸板領域12内にあればステップS82に処理を移行させ(ステップS81にてYES)、そうでなければステップS84へ処理を移行させる(ステップS81にてNO)。
In step S81, the background
ステップS82では、背景情報生成部321は、通行物体領域抽出部322が第一画像から抽出した通行者領域14を参照して、注目画素が通行者領域14内の画素か否かを確認する。注目画素が通行者領域14内にあればステップS84に処理を移行させ(ステップS82にてYES)、そうでなければステップS83へ処理を移行させる(ステップS82にてNO)。
In step S <b> 82, the background
ステップS83では、背景情報生成部321は、注目画素を色ヒストグラム生成の対象とし、注目画素の色と対応するビンの度数を1だけ増加させることで現フレームの色ヒストグラムHを記憶部31に蓄積する。
In step S <b> 83, the background
ステップS84では、背景情報生成部321は、第一画像の全画素を注目画素として処理したか確認する。全画素を処理していなければ次の画素を処理するために処理をステップS80に戻し(ステップS84にてNO)、そうでなければステップS85に処理を移行させる(ステップS84にてYES)。
In step S84, the background
ステップS85では、背景情報生成部321は、現フレームの色ヒストグラムを用いて戸板部背景情報315に記憶している色ヒストグラムを更新する。具体的には、背景情報生成部321は、現フレームの色ヒストグラムを処理対象とした画素数で正規化し、式(11)にしたがって現フレームの色ヒストグラムHの各ビンの値と戸板部背景情報315の色ヒストグラムHD(t−1)の対応するビンの値をαD1:(1−αD1)の割合で重み付け平均した色ヒストグラムHD(t)を求めて戸板部背景情報315に書き込む。なお、戸板部背景情報315に色ヒストグラムが記憶されていない起動直後の場合は、現フレームの色ヒストグラムHをそのままHDとして記憶させる。
また、背景情報生成部321は、第二画像における戸板領域に対しても同様にして戸板部背景情報315を生成する。すなわち、背景情報生成部321は、現フレームの第二画像において通行者が検出されなかった戸板領域12の画素から現フレームの色ヒストグラムを算出して、当該色ヒストグラムと戸板部背景情報315に記憶されている色ヒストグラムとの重み付け平均値を第二画像における戸板領域12の新たな色ヒストグラムとして記憶部31に書き込む。このように戸板領域の背景情報を画素単位の情報とせず領域単位の情報である画素値の分布データ(色ヒストグラム)としたことで、戸板領域の形状変化や通行物体の通過によって見え隠れする箇所に対しても継続的に利用可能な戸板部背景情報を生成することができる。よってドアの開閉があっても高精度に通行物体領域を検出し続けることができる。
In addition, the background
以上の処理を終えると、処理は図4のステップS1へと戻され、次のフレームの処理が行われる。 When the above process is completed, the process returns to step S1 in FIG. 4 to process the next frame.
以上のように、本実施の形態によれば、ドアが設置された空間にて通行物体を検出する際に、ドアの開閉に伴って形状変化するドア領域、特に開口領域及び戸板領域を正確に認識することができる。これによって、各領域の背景情報を適確に生成し適用できるので背景差分処理を施したときに開口部全体が変化領域となることを防ぐことができ、各領域に一部または全体が写っている通行物体を適切に検出することができる。 As described above, according to the present embodiment, when a passing object is detected in the space where the door is installed, the door area whose shape changes with the opening and closing of the door, particularly the opening area and the door plate area, can be accurately determined. Can be recognized. As a result, the background information of each area can be accurately generated and applied, so that when the background difference process is performed, the entire opening can be prevented from becoming a change area, and a part or the whole is reflected in each area. It is possible to appropriately detect a passing object.
また、開口領域及び戸板領域の背景情報を各領域における画素値の分布データとしたことで領域形状の変化や通行物体の通過により、背景の一部が見え隠れしても隠れた箇所の背景情報を補うことができるので、通行物体を検出し続けることが可能となる。以上により、ドアの開閉があっても通行物体領域の検出を継続することが可能となり、通行物体の追跡処理を確実に行うことが可能となる。 In addition, the background information of the opening area and the doorboard area is used as the distribution data of the pixel value in each area, so that the background information of the hidden part can be obtained even if part of the background is hidden or hidden due to the change of the area shape or the passage of passing objects Since it can compensate, it becomes possible to continue detecting a passing object. As described above, the detection of the passing object region can be continued even when the door is opened and closed, and the tracking process of the passing object can be reliably performed.
なお、本実施の形態では、手前に開く開き戸の例を示したが、ドアパターン312を適合させることで奥に開く開き戸、引き戸、折戸など各種のドアに適用可能である。また、本実施の形態では、開口部色ヒストグラムを第二画像から生成したが、第一画像から生成することもできる。すなわち、背景情報生成部321はドア5が開放状態であるときに第一画像の開口領域11の画素値を用いて色ヒストグラムを生成及び更新し、ドア5が閉鎖状態のときは開口部色ヒストグラムの更新を停止して当該色ヒストグラムを保持する。この場合、閉鎖期間の照明変動を補償するために開口領域上部の第一画像から上部色ヒストグラムを別途生成して記憶部31に記憶させ、前回開放時の上部色ヒストグラムに対する今回開放時の上部色ヒストグラムの変動量を求めて、保持している開口部色ヒストグラムを当該変動量で補正する。
In this embodiment, an example of a hinged door that opens to the front is shown, but the present invention can be applied to various doors such as a hinged door, a sliding door, and a folding door that are opened to the back by adapting the
また、本実施の形態では、通行物体を人としたが、これに限定されるものではない。例えば、門扉が設置された敷地入口やシャッター付ガレージを撮影し、門ドアやシャッターのようなドアを通行する車両を通行物体として検出することもできる。 In the present embodiment, the passing object is a person, but the present invention is not limited to this. For example, a site entrance where a gate is installed or a garage with a shutter can be photographed, and a vehicle passing through a door such as a gate door or shutter can be detected as a passing object.
また、通行物体領域抽出部322は、追跡中の全通行者に共通して一枚の通行者尤度画像を生成したが、これに代えて通行者毎に一枚の通行者尤度画像を生成してもよい。この場合、通行物体領域抽出部322は、注目する通行者kの色ヒストグラムHkを用いて当該通行者の通行者尤度画像Lkを作成し、当該通行者尤度画像Lkから通行者1人の通行者領域を決定する処理を通行中の全通行者に対して繰り返す。このようにすることで、通行者毎の色の違いに適合した通行者尤度画像を生成でき、色の異なる通行者が複数存在するときに抽出の精度を向上させることができる。
In addition, the passing object
また、本実施の形態では、通行物体検出装置の各部の機能を1つのコンピュータで実現する態様を説明したがこれに限定されるものではない。通行物体検出装置の各部の機能は一般的なコンピュータをプログラムにより制御することによって実現できるものであり、これらの装置の各機能を適宜組み合わせて1つのコンピュータで処理させてもよいし、各機能をネットワーク等で接続された複数のコンピュータで分散処理させてもよい。 Further, in the present embodiment, the mode in which the function of each unit of the passing object detection device is realized by one computer has been described, but the present invention is not limited to this. The functions of each part of the passing object detection device can be realized by controlling a general computer by a program, and the functions of these devices may be appropriately combined and processed by one computer. Distributed processing may be performed by a plurality of computers connected via a network or the like.
2 撮影部、2a 第一撮影部、2a 第二撮影部、3 制御部、4 表示部、5 ドア、6 部屋、6a 第一の部屋、6b 第二の部屋、7 開口部、7 遮蔽空間、8 開口部、9 床、10 通行物体、11 開口領域、12 戸板領域、13 ドア外領域、14 通行者領域、30 画像取得部、31 記憶部、32 画像処理部、33 出力部、100 通行物体検出装置、310 カメラパラメータ、311 第二視点背景取得領域、312 ドアパターン、313 ドア外/全体背景情報、314 開口部背景情報、315 戸板部背景情報、316 通行物体情報、320 ドア状態検出部、321 背景情報生成部、322 通行物体領域抽出部、323 通行物体追跡部、401,402,403,411,412,413 ヒストグラム。 2 imaging unit, 2a first imaging unit, 2a second imaging unit, 3 control unit, 4 display unit, 5 door, 6 rooms, 6a first room, 6b second room, 7 opening, 7 shielding space, 8 opening part, 9 floor, 10 passing object, 11 opening area, 12 doorboard area, 13 outside door area, 14 passerby area, 30 image acquisition part, 31 storage part, 32 image processing part, 33 output part, 100 passing object Detection device, 310 camera parameters, 311 second viewpoint background acquisition region, 312 door pattern, 313 outside / overall background information, 314 opening background information, 315 doorboard background information, 316 passing object information, 320 door state detection unit, 321 Background information generation unit, 322 passing object region extraction unit, 323 passing object tracking unit, 401, 402, 403, 411, 412, 413 histogram.
Claims (8)
少なくとも前記ドアの開放により生じる開口部の形状特徴を含む前記ドアの形状パターンを前記ドアの開度毎に予め記憶するドアパターン記憶部と、
前記撮影画像を前記形状パターンと比較して類似度を算出し、前記撮影画像を最も前記類似度が高い当該形状パターンに合致するドア領域と前記ドア領域以外であるドア外領域とに区分する領域区分部と、
前記領域区分部が区分する各領域における前記通行物体を含まない前記空間の背景情報を記憶する背景記憶部と、
前記領域区分部が区分した領域毎に前記撮影画像の各画素と当該領域の前記背景情報との相違度を算出して、前記相違度が所定基準以上である画素のまとまりを通行物体領域として抽出する通行物体領域抽出部と、
を備えることを特徴とする通行物体検出装置。 A passing object detection device that detects a passing object from a captured image of a space including a door,
A door pattern storage unit that stores in advance a shape pattern of the door including at least a shape characteristic of an opening generated by opening the door;
An area that compares the photographed image with the shape pattern to calculate a similarity, and divides the photographed image into a door area that matches the shape pattern with the highest similarity and an outside door area other than the door area A section,
A background storage unit that stores background information of the space that does not include the passing object in each region divided by the region dividing unit;
The degree of difference between each pixel of the captured image and the background information of the area is calculated for each area divided by the area dividing unit, and a group of pixels whose difference is equal to or greater than a predetermined reference is extracted as a passing object area A passing object region extraction unit,
A passing object detection apparatus comprising:
前記背景記憶部は、前記ドア領域における前記背景情報として前記ドア領域の画素値の分布データを記憶し、前記ドア外領域における前記背景情報として前記ドア外領域の各画素の画素値を記憶することを特徴とする通行物体検出装置。 The passing object detection device according to claim 1,
The background storage unit stores distribution data of pixel values of the door region as the background information in the door region, and stores pixel values of each pixel in the door outer region as the background information in the door outer region. A passing object detection device characterized by the above.
前記ドアパターン記憶部は、前記ドアを構成する戸板の形状特徴をさらに含めた前記形状パターンを記憶し、
前記領域区分部は、前記ドア領域をさらに前記開口部が現われている開口領域と前記戸板が現われている戸板領域とに区分し、
前記背景記憶部は、前記開口領域及び前記戸板領域それぞれにおける前記背景情報として当該各領域の画素値の分布データを記憶すること、
を特徴とする通行物体検出装置。 The passing object detection device according to claim 2,
The door pattern storage unit stores the shape pattern further including a shape characteristic of a door plate constituting the door,
The area dividing section further divides the door area into an opening area where the opening appears and a door plate area where the door plate appears,
The background storage unit stores distribution data of pixel values of each area as the background information in each of the opening area and the doorboard area;
A passing object detection device characterized by the above.
前記通行物体領域抽出部は、通行物体の形状を模した通行物体モデルに含まれる画素の前記相違度の和が前記所定基準以上であるときに前記通行物体モデルを適用した領域を前記通行物体領域として検出することを特徴とする通行物体検出装置。 The passing object detection device according to any one of claims 1 to 3,
The passing object region extraction unit is configured to apply a region to which the passing object model is applied when a sum of the differences between pixels included in the passing object model imitating a shape of the passing object is equal to or greater than the predetermined reference. Detecting as a passing object detecting device.
前記通行物体領域抽出部は、前記撮影画像の各画素の前記相違度が前記所定基準以上である画素を抽出し、抽出された画素が予め設定された通行物体サイズ以上に纏まっている領域を前記通行物体領域として検出することを特徴とする通行物体検出装置。 The passing object detection device according to any one of claims 1 to 3,
The passing object region extracting unit extracts pixels in which the degree of difference of each pixel of the captured image is equal to or greater than the predetermined reference, and extracts regions where the extracted pixels are gathered to be equal to or larger than a preset passing object size. A traffic object detecting apparatus, wherein the traffic object area is detected as a traffic object area.
前記撮影画像の前記通行物体領域から通行物体の画像特徴を抽出し、
前記通行物体領域抽出部は、前記ドア領域の前記通行物体領域と前記通行物体の画像特徴の類似度を求め、当該類似度が高いほど前記通行物体領域の各画素の前記相違度を高くする又は前記所定基準を低くする補正を行うことを特徴とする通行物体検出装置。 The passing object detection device according to any one of claims 1 to 5,
Extracting an image feature of a passing object from the passing object region of the captured image;
The passing object area extraction unit obtains the similarity between the passing object area of the door area and the image feature of the passing object, and the higher the similarity, the higher the difference between the pixels of the passing object area or A passing object detection apparatus that performs correction to lower the predetermined reference.
前記撮影画像の前記通行物体領域から通行物体の画像特徴を抽出し、
前記通行物体領域抽出部は、前記ドア領域の画素毎に前記通行物体の画像特徴の類似度を求め、当該類似度が高いほど当該画素の前記相違度を高くする又は前記所定基準を低くする補正を行うことを特徴とする通行物体検出装置。 The passing object detection device according to any one of claims 1 to 5,
Extracting an image feature of a passing object from the passing object region of the captured image;
The passing object region extraction unit obtains the similarity of the image feature of the passing object for each pixel of the door region, and the higher the similarity, the higher the difference of the pixel or the lower the predetermined criterion A passing object detection apparatus characterized by performing:
前記通行物体領域抽出部は、前記ドア領域の前記撮影画像を通行物体の画像特徴を予め学習した識別器に入力し、前記識別器の出力が通行物体の存在を示す値であるときに前記相違度を高くする又は前記所定基準を低くする補正を行うことを特徴とする通行物体検出装置。 The passing object detection device according to claim 6,
The passing object region extraction unit inputs the captured image of the door region to the classifier that has learned the image characteristics of the passing object in advance, and the difference is obtained when the output of the classifier is a value indicating the presence of the passing object. A passing object detection apparatus which performs correction to increase the degree or to lower the predetermined reference.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013016883A JP6080572B2 (en) | 2013-01-31 | 2013-01-31 | Traffic object detection device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013016883A JP6080572B2 (en) | 2013-01-31 | 2013-01-31 | Traffic object detection device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2014149597A JP2014149597A (en) | 2014-08-21 |
JP6080572B2 true JP6080572B2 (en) | 2017-02-15 |
Family
ID=51572551
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013016883A Active JP6080572B2 (en) | 2013-01-31 | 2013-01-31 | Traffic object detection device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6080572B2 (en) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6488647B2 (en) * | 2014-09-26 | 2019-03-27 | 日本電気株式会社 | Object tracking device, object tracking system, object tracking method, display control device, object detection device, program, and recording medium |
US10664705B2 (en) | 2014-09-26 | 2020-05-26 | Nec Corporation | Object tracking apparatus, object tracking system, object tracking method, display control device, object detection device, and computer-readable medium |
WO2018193580A1 (en) * | 2017-04-20 | 2018-10-25 | 三菱電機株式会社 | Monitor camera system and monitor camera |
JP7306417B2 (en) * | 2021-03-24 | 2023-07-11 | いすゞ自動車株式会社 | Detector and loading rate estimation system |
WO2023073869A1 (en) * | 2021-10-28 | 2023-05-04 | 日立グローバルライフソリューションズ株式会社 | Door opening angle calculation method and storage unit |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002032760A (en) * | 2000-07-17 | 2002-01-31 | Mitsubishi Electric Corp | Method and device for extracting moving object |
JP5170731B2 (en) * | 2007-02-01 | 2013-03-27 | 株式会社メガチップス | Traffic monitoring system |
JP2011002339A (en) * | 2009-06-18 | 2011-01-06 | Panasonic Electric Works Co Ltd | Object detection device |
-
2013
- 2013-01-31 JP JP2013016883A patent/JP6080572B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2014149597A (en) | 2014-08-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10417503B2 (en) | Image processing apparatus and image processing method | |
Brown et al. | Performance evaluation of surveillance systems under varying conditions | |
Harville et al. | Foreground segmentation using adaptive mixture models in color and depth | |
KR101964397B1 (en) | Information processing apparatus and information processing method | |
Jeyakar et al. | Robust object tracking with background-weighted local kernels | |
Chattopadhyay et al. | Pose Depth Volume extraction from RGB-D streams for frontal gait recognition | |
Cai et al. | Multi-object detection and tracking by stereo vision | |
WO2017000115A1 (en) | Person re-identification method and device | |
JP6080572B2 (en) | Traffic object detection device | |
CN104881642A (en) | Method and device for content pushing, and equipment | |
CN106204586B (en) | A kind of moving target detecting method under complex scene based on tracking | |
CN106709938B (en) | Based on the multi-target tracking method for improving TLD | |
CN103426008B (en) | Visual human hand tracking and system based on online machine learning | |
JP2014178862A (en) | Feature point extraction device | |
US20220366570A1 (en) | Object tracking device and object tracking method | |
Jin et al. | Analysis-by-synthesis: Pedestrian tracking with crowd simulation models in a multi-camera video network | |
JP6038643B2 (en) | Background information generation apparatus and object detection apparatus | |
JP6851246B2 (en) | Object detector | |
JP2022019339A (en) | Information processing apparatus, information processing method, and program | |
JP2011043863A (en) | Apparatus, method, program for determining/tracking object region, and apparatus for determining object region | |
Wang et al. | Adaptive visual tracking based on discriminative feature selection for mobile robot | |
Jeong et al. | Moving shadow detection using a combined geometric and color classification approach | |
Hradiš et al. | Real-time tracking of participants in meeting video | |
TWI813297B (en) | Method for motion detection and circuit system | |
Hu et al. | A new method of moving object detection and shadow removing |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20160113 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20161216 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20170110 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20170117 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6080572 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |