JP6080572B2 - Traffic object detection device - Google Patents

Traffic object detection device Download PDF

Info

Publication number
JP6080572B2
JP6080572B2 JP2013016883A JP2013016883A JP6080572B2 JP 6080572 B2 JP6080572 B2 JP 6080572B2 JP 2013016883 A JP2013016883 A JP 2013016883A JP 2013016883 A JP2013016883 A JP 2013016883A JP 6080572 B2 JP6080572 B2 JP 6080572B2
Authority
JP
Japan
Prior art keywords
door
area
passing object
region
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2013016883A
Other languages
Japanese (ja)
Other versions
JP2014149597A (en
Inventor
昌宏 前田
昌宏 前田
裕二 中沢
裕二 中沢
直也 大島
直也 大島
黒川 高晴
高晴 黒川
秀紀 氏家
秀紀 氏家
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Secom Co Ltd
Original Assignee
Secom Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Secom Co Ltd filed Critical Secom Co Ltd
Priority to JP2013016883A priority Critical patent/JP6080572B2/en
Publication of JP2014149597A publication Critical patent/JP2014149597A/en
Application granted granted Critical
Publication of JP6080572B2 publication Critical patent/JP6080572B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、ドアを含む空間を撮影した画像から通行者等の通行物体領域を検出する通行物体検出装置に関する。   The present invention relates to a passing object detection device that detects a passing object region of a passerby or the like from an image of a space including a door.

近年、共連れ入場等の不正通行を監視するために、ドア付近を撮影した画像を処理して通行者を追跡する研究が行われている。このとき、ドアの両側をそれぞれ別の監視カメラにより撮影してドアを通過した通行者の追跡を監視カメラ間で引き継げば、通行者の行動を厳格に監視できるためセキュリティが向上する。   In recent years, in order to monitor illegal traffic such as co-entrance, research has been conducted to track a passerby by processing an image taken near the door. At this time, if the both sides of the door are photographed by separate monitoring cameras and the tracking of the passers-by passing through the doors is taken over between the monitoring cameras, the behavior of the passers-by can be strictly monitored and security is improved.

例えば、特許文献1には、ドアの外側である開放領域とドアの内側である待機領域のそれぞれに撮影部を設置し、背景差分処理により抽出した変化領域に基づいて通行物体領域を追跡する通行制御装置が開示されている。この通行制御装置では、2つの領域の間にドア領域を設定し、開放領域及び待機領域の一方からドア領域に消失した通行者と開放領域及び待機領域の他方にてドア領域から出現した通行者とを同一の通行者と判定することで追跡の引継ぎを行っている。   For example, Patent Document 1 discloses a traffic in which a photographing unit is installed in each of an open area outside a door and a standby area inside the door, and a traffic object area is tracked based on a change area extracted by background difference processing. A control device is disclosed. In this traffic control device, a door area is set between two areas, and a passerby who disappears from one of the open area and the standby area to the door area and a passerby who appears from the door area in the other of the open area and the standby area. Are taken over by the same passerby.

特開2010−157149号公報JP 2010-157149 A

しかしながら、従来技術では、ドア領域にて追跡の空白期間及び空白領域が生じるため、追跡の引継ぎが正しく行えない場合があった。例えば、2名がドア領域に進入し、そのうち1名がUターンして戻った場合、またドアを開けた人物が後続の人物を先に通した場合等、ドア領域に複数の人物が混在するときに引継ぎを誤る問題が生じ易い。そこで、人物がドア領域に存在している間も追跡を継続することが望まれ、追跡継続のためには当該人物の通行物体領域を抽出し続ける必要があった。   However, in the prior art, since tracking blank period and blank area occur in the door area, there is a case where tracking cannot be succeeded correctly. For example, when two people enter the door area and one of them returns after making a U-turn, or when the person who opened the door passes the following person first, there are multiple people in the door area. Sometimes a problem of erroneous takeover is likely to occur. Therefore, it is desired to continue tracking while the person is present in the door area. In order to continue tracking, it is necessary to continue extracting the passing object area of the person.

ところが、ドアが開くとそれまで戸板によって遮蔽されていたドアの向こう側が開口部に写り込んで背景が変わる。そのため、このときの画像に背景差分処理を施すと開口部全体が変化領域となってしまうため、開口部に一部または全体が写っている人物の通行物体領域を抽出することが困難となる。さらに、開口部の領域形状は時々刻々と変化し、通行者が開口部の一部を隠蔽するため、直近時刻における開口部の各画素値を背景情報として正確に得ることが困難である。   However, when the door is opened, the other side of the door that was previously shielded by the doorboard is reflected in the opening and the background changes. For this reason, if background difference processing is performed on the image at this time, the entire opening becomes a change region, and it is difficult to extract a passing object region of a person whose part or whole is reflected in the opening. Furthermore, since the area shape of the opening changes from moment to moment, and a passerby hides a part of the opening, it is difficult to accurately obtain each pixel value of the opening at the latest time as background information.

また、ドアの開閉時には戸板が変位するので開口部に加えて戸板自体や戸板の陰影も変化領域に含まれる。戸板の領域においても開口部と同様に、領域形状の時間変化と通行者による隠蔽が生じるため、直近時刻における背景情報を画素単位で正確に得ることが困難である。このように、ドアの開閉によって背景は開口領域、戸板領域及びドア外領域の3領域にて異なる変化を生じ、通行者の領域はこれらの3領域にまたがり生じ得る。そのためドア付近において通行物体領域を抽出することが困難となる。   Further, since the door plate is displaced when the door is opened and closed, the change region includes the door plate itself and the shadow of the door plate in addition to the opening. Also in the area of the doorboard, as with the opening, since the time change of the area shape and concealment by passers-by occur, it is difficult to accurately obtain background information at the latest time in pixel units. Thus, the background changes differently in the three areas of the opening area, the doorboard area, and the door outside area by opening and closing the door, and the area of the passerby can extend over these three areas. Therefore, it is difficult to extract a passing object region near the door.

本発明は、上記問題を解決するためになされたものであり、ドアの開閉があっても通行物体領域を検出し続けることが可能な通行物体検出装置を提供することを目的とする。   The present invention has been made to solve the above problem, and an object of the present invention is to provide a passing object detection device capable of continuously detecting a passing object region even when a door is opened and closed.

本発明の1つの態様は、ドアを含む空間を撮影した撮影画像から通行物体を検出する通行物体検出装置であって、少なくとも前記ドアの開放により生じる開口部の形状特徴を含む前記ドアの形状パターンを前記ドアの開度毎に予め記憶するドアパターン記憶部と、前記撮影画像を前記形状パターンと比較して類似度を算出し、前記撮影画像を最も前記類似度が高い当該形状パターンに合致するドア領域と前記ドア領域以外であるドア外領域とに区分する領域区分部と、前記領域区分部が区分する各領域における前記通行物体を含まない前記空間の背景情報を記憶する背景記憶部と、前記領域区分部が区分した領域毎に前記撮影画像の各画素と当該領域の前記背景情報との相違度を算出して、前記相違度が所定基準以上である画素のまとまりを通行物体領域として抽出する通行物体領域抽出部と、を備えることを特徴とする通行物体検出装置である。   One aspect of the present invention is a passing object detection device that detects a passing object from a captured image obtained by photographing a space including a door, and includes at least a shape pattern of the door including a shape characteristic of an opening generated by opening the door. And a door pattern storage unit that stores in advance for each opening of the door, and the captured image is compared with the shape pattern to calculate a similarity, and the captured image matches the shape pattern with the highest similarity. An area dividing unit that divides a door area and an outside door area other than the door area, and a background storage unit that stores background information of the space that does not include the passing object in each area divided by the area dividing unit; By calculating the difference between each pixel of the captured image and the background information of the area for each area divided by the area dividing unit, a group of pixels whose difference is equal to or greater than a predetermined reference is calculated. And passing the object region extraction unit that extracts as a row object area, a traffic object detection apparatus comprising: a.

ここで、前記背景記憶部は、前記ドア領域における前記背景情報として前記ドア領域の画素値の分布データを記憶し、前記ドア外領域における前記背景情報として前記ドア外領域の各画素の画素値を記憶することが好適である。   Here, the background storage unit stores distribution data of the pixel value of the door region as the background information in the door region, and the pixel value of each pixel of the door outer region as the background information in the door outer region. It is preferable to memorize.

ここで、前記ドアパターン記憶部は、前記ドアを構成する戸板の形状特徴をさらに含めた前記形状パターンを記憶し、前記領域区分部は、前記ドア領域をさらに前記開口部が現われている開口領域と前記戸板が現われている戸板領域とに区分し、前記背景記憶部は、前記開口領域及び前記戸板領域それぞれにおける前記背景情報として当該各領域の画素値の分布データを記憶することが好適である。   Here, the door pattern storage unit stores the shape pattern further including a shape characteristic of a door plate constituting the door, and the region dividing unit further opens the door region and the opening region where the opening portion appears. It is preferable that the background storage unit stores pixel value distribution data of each region as the background information in each of the opening region and the door plate region. .

また、前記通行物体領域抽出部は、通行物体の形状を模した通行物体モデルに含まれる画素の前記相違度の和が前記所定基準以上であるときに前記通行物体モデルを適用した領域を前記通行物体領域として検出することが好適である。   Further, the passing object region extraction unit is configured to pass the region to which the passing object model is applied when the sum of the differences between pixels included in the passing object model imitating the shape of the passing object is equal to or greater than the predetermined reference. It is preferable to detect the object area.

また、前記通行物体領域抽出部は、前記撮影画像の各画素の前記相違度が前記所定基準以上である画素を抽出し、抽出された画素が予め設定された通行物体サイズ以上に纏まっている領域を前記通行物体領域として検出することが好適である。   In addition, the passing object region extracting unit extracts pixels in which the degree of difference of each pixel of the captured image is equal to or greater than the predetermined reference, and the extracted pixels are gathered to be equal to or larger than a preset passing object size. Is preferably detected as the passing object region.

また、前記撮影画像の前記通行物体領域から通行物体の画像特徴を抽出し、前記通行物体領域抽出部は、前記ドア領域の前記通行物体領域と前記通行物体の画像特徴の類似度を求め、当該類似度が高いほど前記通行物体領域の各画素の前記相違度を高くする又は前記所定基準を低くする補正を行うことが好適である。   Further, an image feature of the passing object is extracted from the passing object region of the captured image, and the passing object region extraction unit obtains a similarity between the passing object region of the door region and the image feature of the passing object, and It is preferable that the higher the similarity is, the higher the degree of difference between the pixels of the passing object region or the lower the predetermined reference.

また、前記撮影画像の前記通行物体領域から通行物体の画像特徴を抽出し、前記通行物体領域抽出部は、前記ドア領域の画素毎に前記通行物体の画像特徴の類似度を求め、当該類似度が高いほど当該画素の前記相違度を高くする又は前記所定基準を低くする補正を行うことが好適である。   Further, the image feature of the passing object is extracted from the passing object region of the photographed image, and the passing object region extraction unit obtains the similarity of the image feature of the passing object for each pixel of the door region, and the similarity It is preferable to perform correction to increase the degree of difference of the pixel or to decrease the predetermined reference as the value is higher.

また、前記通行物体領域抽出部は、前記ドア領域の前記撮像画像を通行物体の画像特徴を予め学習した識別器に入力し、前記識別器の出力が通行物体の存在を示す値であるときに前記相違度を高くする又は前記所定基準を低くする補正を行うことが好適である。   In addition, the passing object area extraction unit inputs the captured image of the door area to the classifier that has learned the image characteristics of the passing object in advance, and the output of the classifier is a value indicating the presence of the passing object. It is preferable to perform correction to increase the degree of difference or to decrease the predetermined reference.

本発明によれば、ドアの開閉が生じても通行物体を正確に検出し続けることができる。   According to the present invention, it is possible to continue to accurately detect a passing object even when the door is opened and closed.

本発明の実施の形態における通行物体検出装置の構成及び配置を示す図である。It is a figure which shows the structure and arrangement | positioning of the passing object detection apparatus in embodiment of this invention. 本発明の実施の形態における画像中の各領域を説明する図である。It is a figure explaining each area | region in the image in embodiment of this invention. 本発明の実施の形態における通行物体検出装置の機能ブロック図である。It is a functional block diagram of the passing object detection apparatus in the embodiment of the present invention. 本発明の実施の形態における通行物体検出処理のフローチャートである。It is a flowchart of the passing object detection process in the embodiment of the present invention. 本発明の実施の形態におけるドアパターンの例を示す図である。It is a figure which shows the example of the door pattern in embodiment of this invention. 本発明の実施の形態における通行物体領域検出処理のフローチャートである。It is a flowchart of the passing object area | region detection process in embodiment of this invention. 本発明の実施の形態における識別器による通行物体判定を説明する図である。It is a figure explaining the passing object determination by the discriminator in embodiment of this invention. 本発明の実施の形態におけるドア外/全体背景情報生成処理のフローチャートである。It is a flowchart of the door outside / whole background information generation processing in the embodiment of the present invention. 本発明の実施の形態における開口部背景情報生成処理のフローチャートである。It is a flowchart of the opening part background information generation process in embodiment of this invention. 本発明の実施の形態における開口部背景情報生成処理のフローチャートである。It is a flowchart of the opening part background information generation process in embodiment of this invention. 本発明の実施の形態における戸板部背景情報生成処理のフローチャートである。It is a flowchart of the doorboard background information generation process in the embodiment of the present invention.

<通行物体検出装置の構成>
通行物体検出装置100は、図1に示すように、撮影部2(第一撮影部2a,第二撮影部2b)、制御部3及び表示部4を含んで構成される。
<Configuration of the passing object detection device>
As shown in FIG. 1, the passing object detection device 100 includes an imaging unit 2 (first imaging unit 2 a and second imaging unit 2 b), a control unit 3, and a display unit 4.

通行物体検出装置100は、部屋6(第一の部屋6a及び第二の部屋6b)に設置され、第一の部屋6a及び第二の部屋6bを撮影した撮影画像から背景情報を生成し、それを利用して通行物体を検出する処理を行う。本実施の形態では、通行物体として人、すなわち検出対象を通行者であるとして説明を行う。   The passing object detection device 100 is installed in the room 6 (the first room 6a and the second room 6b), and generates background information from captured images obtained by photographing the first room 6a and the second room 6b. The process which detects a passing object using is performed. In the present embodiment, a description will be given assuming that a passing object is a person, that is, a detection target is a passer.

第一の部屋6a及び第二の部屋6bは、ドア5の戸板15及び壁で仕切られる。戸板15は蝶番等により変位可能に設置される。ドア5が、閉鎖状態のときに戸板15は定常位置に留まり、戸板15が定常位置から変位することによってドア5は開放状態となる。なお、本実施の形態の通行物体検出装置100の適用範囲は戸板15が開き戸である場合に限定されず、引き戸である場合でもよい。   The first room 6a and the second room 6b are partitioned by a door plate 15 of the door 5 and a wall. The door plate 15 is installed so as to be displaceable by a hinge or the like. When the door 5 is in the closed state, the door plate 15 remains in the steady position, and the door 5 is opened by the displacement of the door plate 15 from the steady position. In addition, the application range of the passing object detection device 100 of the present embodiment is not limited to the case where the door plate 15 is a hinged door, and may be a sliding door.

第一撮影部2aは、第一の部屋6aに設置される。第一撮影部2aは、所定時間おきに第一の部屋6aからドア5を含む空間を撮影し、撮影画像(第一画像)を制御部3へ出力する。第二撮影部2bは、第二の部屋6bに設置される。第二撮影部2bは、所定時間おきに第二の部屋6bからドア5を含む空間を撮影し、撮影画像(第二画像)を制御部3へ出力する。本実施の形態では、第一撮影部2a及び第二撮影部2bは、それぞれ第一の部屋6a及び第二の部屋6bの天井に下に向けて配置される。後述するように背景情報の取得の精度と安定性の観点から、ドア5が開放状態のときに第一撮影部2aの視野(画角)に含まれる第二の部屋6bの背景が床9となるように第一撮影部2aを設置することが好ましい。例えば、第一撮影部2aをドア5の近傍の天井に俯角が大きくなるように設置するとよい。   The first imaging unit 2a is installed in the first room 6a. The first photographing unit 2 a photographs a space including the door 5 from the first room 6 a every predetermined time, and outputs a photographed image (first image) to the control unit 3. The second imaging unit 2b is installed in the second room 6b. The second photographing unit 2b photographs a space including the door 5 from the second room 6b every predetermined time, and outputs a photographed image (second image) to the control unit 3. In the present embodiment, the first photographing unit 2a and the second photographing unit 2b are disposed downward on the ceilings of the first room 6a and the second room 6b, respectively. As will be described later, from the viewpoint of the accuracy and stability of acquisition of background information, the background of the second room 6b included in the field of view (view angle) of the first photographing unit 2a is the floor 9 when the door 5 is open. It is preferable to install the first photographing unit 2a. For example, the first photographing unit 2a may be installed on the ceiling near the door 5 so that the depression angle is large.

ここで、第一撮影部2a及び第二撮影部2bの撮影のタイミングは同期させることが好適である。   Here, it is preferable that the shooting timings of the first shooting unit 2a and the second shooting unit 2b are synchronized.

ドア5が閉鎖状態では、第一撮影部2aの視点(第一の視点)から遮蔽空間7を含む第二の部屋6bの空間は撮影されない。つまり、閉鎖状態のとき、遮蔽空間7は、戸板15によって第一の視点から遮蔽されて撮影されない。ただし、ドア5が閉鎖状態の位置にあるときも遮蔽空間7は第一撮影部2aとは別の第二撮影部2bにより第二の視点から撮影される。一方、ドア5の開放により開口部8が生じると、第一撮影部2aから開口部8越しに遮蔽空間7の一部又は全部が撮影されてしまう。その結果、第一撮影部2aにより撮影された第一画像上では、ドア5が閉鎖状態のときは戸板15が背景であった領域に第二の部屋6bの床9が背景として出現してしまう。このように、ドア5が開放されると第一画像上に遮蔽空間7が背景として急に現われることによって、通行物体を検出し難くなる。ちなみに、ドア5が開放状態となったときに遮蔽空間7は第一撮影部2aの視野及び第二撮影部2bの視野に共通する共通視野となる。   When the door 5 is closed, the space of the second room 6b including the shielded space 7 is not photographed from the viewpoint (first viewpoint) of the first photographing unit 2a. That is, in the closed state, the shielding space 7 is shielded from the first viewpoint by the door plate 15 and is not photographed. However, even when the door 5 is in the closed position, the shielding space 7 is imaged from the second viewpoint by the second imaging unit 2b different from the first imaging unit 2a. On the other hand, when the opening 8 is generated by opening the door 5, a part or all of the shielding space 7 is imaged from the first imaging unit 2 a through the opening 8. As a result, on the first image photographed by the first photographing unit 2a, when the door 5 is in the closed state, the floor 9 of the second room 6b appears as a background in the region where the door plate 15 is the background. . As described above, when the door 5 is opened, the shielded space 7 suddenly appears on the first image as the background, so that it is difficult to detect a passing object. Incidentally, when the door 5 is opened, the shielding space 7 has a common field of view common to the field of view of the first photographing unit 2a and the field of view of the second photographing unit 2b.

図2は、ドア5が開放状態のときに撮影される第一画像の例を示す。開口領域11は、開放状態にて第二の部屋6bの一部が撮影される領域である。戸板領域12は、戸板15が撮影される領域である。ドア5が開き戸の場合、開口領域11と戸板領域12を合わせた領域がドア領域となる。ドア5が引き戸であり、戸板15が変位してもその陰影が殆ど変化しない環境であれば戸板領域12は設定せず、開口領域11のみをドア領域としてもよい。ドア外領域13は、第一画像のうち開口領域11及び戸板領域12を除いた領域である。ドア5や床9、壁等は検出対象外の背景であり、これに対し検出対象物である通行者10は前景である。通行者10が現われている通行者領域(通行物体領域)14は、開口領域11、戸板領域12、ドア外領域13のいずれか又は複数の領域に跨って重なり得る。   FIG. 2 shows an example of a first image taken when the door 5 is in the open state. The open area 11 is an area where a part of the second room 6b is photographed in an open state. The door board area | region 12 is an area | region where the door board 15 is image | photographed. When the door 5 is a hinged door, a region obtained by combining the opening region 11 and the door plate region 12 is a door region. If the door 5 is a sliding door and the shadow is hardly changed even if the door plate 15 is displaced, the door plate region 12 is not set and only the opening region 11 may be set as the door region. The outside door area 13 is an area excluding the opening area 11 and the doorboard area 12 in the first image. The door 5, the floor 9, the wall, and the like are backgrounds that are not detected, and the passerby 10 that is the detection target is the foreground. A passer-by area (passing object area) 14 in which the passer-by 10 appears can overlap over one or a plurality of areas of the opening area 11, the doorboard area 12, and the door outside area 13.

開口領域11は、ドア5の開閉によってその領域形状が時々刻々と変化する。また、戸板領域12もドア5の開閉に伴いその領域形状が時々刻々と変化し、戸板15の陰影が時々刻々と変化する。さらに、開口領域11及び戸板領域12の一部は通行者10により隠蔽され得る。なお、ドア5が閉鎖状態のとき、開口領域11は現われない。   The shape of the area of the open area 11 changes from moment to moment as the door 5 is opened and closed. Further, the shape of the region of the door panel region 12 changes every moment as the door 5 is opened and closed, and the shadow of the door plate 15 changes every moment. Furthermore, a part of the opening area 11 and the doorboard area 12 can be concealed by the passerby 10. When the door 5 is in the closed state, the opening area 11 does not appear.

また、第二視点背景取得領域311は、第一画像における開口領域11と対応する第二画像内の領域である。すなわち、第二画像における第二視点背景取得領域311は第一画像における開口領域11の背景情報を取得する領域である。カメラパラメータ310を用いた予めの計算により、第一画像の開口領域11を第一撮影部2a及び第二撮影部2bに共通する共通座標系(ワールド座標系)の基準面である床に逆投影し、さらに開口領域11の逆投影を第二画像に投影することで第二視点背景取得領域311を求めて記憶部3に記憶させておく。図1の床9の領域が開口領域11の逆投影の例であり、図2の第二視点背景取得領域311が開口領域11の逆投影を第二画像に投影した例である。   The second viewpoint background acquisition region 311 is a region in the second image corresponding to the opening region 11 in the first image. That is, the second viewpoint background acquisition region 311 in the second image is a region for acquiring background information of the opening region 11 in the first image. Back projection of the opening area 11 of the first image onto the floor, which is a reference plane of a common coordinate system (world coordinate system) common to the first photographing unit 2a and the second photographing unit 2b, by pre-calculation using the camera parameter 310 Further, the second viewpoint background acquisition region 311 is obtained by projecting the back projection of the opening region 11 onto the second image and stored in the storage unit 3. The area of the floor 9 in FIG. 1 is an example of back projection of the opening area 11, and the second viewpoint background acquisition area 311 in FIG. 2 is an example of projecting back projection of the opening area 11 onto the second image.

カメラパラメータ310は、第一撮影部2a及び第二撮影部2bの内部パラメータ及び外部パラメータである。事前のキャリブレーション(校正)作業により計測されたこれらの値が第一撮影部2a及び第二撮影部2bの撮影部IDと対応付けて記憶部31に予め記憶されている。内部パラメータは、焦点距離、レンズの光学中心位置等の情報である。外部パラメータは、ワールド座標系における位置及び姿勢等の情報である。カメラパラメータ310にピンホールカメラモデルなどを適用することで、第一撮影部2aと第二撮影部2bとの共通視野において対応する座標間の座標変換が可能となる。   The camera parameters 310 are internal parameters and external parameters of the first photographing unit 2a and the second photographing unit 2b. These values measured by the prior calibration (calibration) work are stored in advance in the storage unit 31 in association with the imaging unit IDs of the first imaging unit 2a and the second imaging unit 2b. The internal parameters are information such as the focal length and the optical center position of the lens. External parameters are information such as position and orientation in the world coordinate system. By applying a pinhole camera model or the like to the camera parameter 310, coordinate conversion between corresponding coordinates in the common field of view of the first imaging unit 2a and the second imaging unit 2b becomes possible.

なお、戸板15が変位すると第二画像上にも開口領域が現われる。第二画像における開口領域と対応する第二画像内の第一視点背景取得領域も予め求めて記憶部3に記憶させておく。   When the door plate 15 is displaced, an opening area appears on the second image. The first viewpoint background acquisition area in the second image corresponding to the opening area in the second image is also obtained in advance and stored in the storage unit 3.

通行物体検出装置100は、制御部3であるコンピュータが通行物体検出プログラムを実行することによって実現される。制御部3は、第一撮影部2a、第二撮影部2b及び表示部4と接続され、第一撮影部2a及び第二撮影部2bから順次入力される撮影画像を処理して撮影画像に現われた通行者領域14を抽出し、抽出結果から通行者10の位置を追跡する。抽出結果や追跡結果は表示部4に表示される。表示部4は、液晶ディスプレイやCRT等のモニター、これらのデータを受信する通信インターフェースを含む。   The passing object detection device 100 is realized by a computer that is the control unit 3 executing a passing object detection program. The control unit 3 is connected to the first imaging unit 2a, the second imaging unit 2b, and the display unit 4, processes the captured images sequentially input from the first imaging unit 2a and the second imaging unit 2b, and appears in the captured image. The passerby area 14 is extracted, and the position of the passerby 10 is tracked from the extraction result. The extraction result and the tracking result are displayed on the display unit 4. The display unit 4 includes a monitor such as a liquid crystal display or a CRT, and a communication interface that receives these data.

図3は、制御部3によって実現される各機能の機能ブロック図である。制御部3は、画像取得部30、記憶部31、画像処理部32及び出力部33として機能する。   FIG. 3 is a functional block diagram of each function realized by the control unit 3. The control unit 3 functions as an image acquisition unit 30, a storage unit 31, an image processing unit 32, and an output unit 33.

画像取得部30は、第一撮影部2a、第二撮影部2bが撮影した撮影画像を順次受信し、画像処理部32へ出力する通信インターフェースを含む。記憶部31は、ROM(Read Only Memory)、RAM(Random Access Memory)等のメモリ装置を含んで構成される。記憶部31は、カメラパラメータ310、第二視点背景取得領域311、ドアパターン312、ドア外/全体背景情報313、開口部背景情報314、戸板部背景情報315及び色変換関数を含む各種データや画像処理部32の処理を規定した通行物体検出プログラム等を記憶する。画像処理部32は、CPU(Central Processing Unit)、DSP(Digital Signal Processor)、MCU(Micro Control Unit)等の演算装置を含んで構成される。画像処理部32は、記憶部31から通行物体検出プログラムを読み出し、実行することによりドア状態検出部320、背景情報生成部321、通行物体領域抽出部322、通行物体追跡部323の各部での処理を実行する。出力部33は、画像処理部32で処理された情報を表示部4へ出力する通信インターフェースを含む。   The image acquisition unit 30 includes a communication interface that sequentially receives the captured images captured by the first imaging unit 2 a and the second imaging unit 2 b and outputs them to the image processing unit 32. The storage unit 31 includes a memory device such as a ROM (Read Only Memory) and a RAM (Random Access Memory). The storage unit 31 stores various data and images including a camera parameter 310, a second viewpoint background acquisition region 311, a door pattern 312, outside / overall background information 313, opening background information 314, doorboard background information 315, and a color conversion function. A passing object detection program that defines the processing of the processing unit 32 is stored. The image processing unit 32 includes an arithmetic device such as a CPU (Central Processing Unit), a DSP (Digital Signal Processor), or an MCU (Micro Control Unit). The image processing unit 32 reads out and executes a passing object detection program from the storage unit 31 to execute processing in each part of the door state detection unit 320, the background information generation unit 321, the passing object region extraction unit 322, and the passing object tracking unit 323. Execute. The output unit 33 includes a communication interface that outputs information processed by the image processing unit 32 to the display unit 4.

以下、図4のフローチャートに沿って、通行物体検出プログラムによって実現される通行物体検出処理について説明する。通行物体検出処理は、監視空間に通行者が存在していないことを確認したうえで開始される。通行物体検出処理では、画像を取得するたびに以下のステップS1〜S9を繰り返す。   Hereinafter, the passing object detection process realized by the passing object detection program will be described with reference to the flowchart of FIG. The passing object detection process is started after confirming that no passerby exists in the monitoring space. In the passing object detection process, the following steps S1 to S9 are repeated every time an image is acquired.

ステップS1では、第一撮影部2a及び第二撮影部2bから第一画像及び第二画像が取得される。第一撮影部2a及び第二撮影部2bでは所定の周期で第一画像及び第二画像を撮影して画像取得部30へ出力する。画像取得部30は、第一画像及び第二画像を受けて、記憶部31に記憶させる。   In step S1, the first image and the second image are acquired from the first photographing unit 2a and the second photographing unit 2b. The first imaging unit 2a and the second imaging unit 2b capture the first image and the second image at a predetermined cycle and output them to the image acquisition unit 30. The image acquisition unit 30 receives the first image and the second image and stores them in the storage unit 31.

ステップS2では、ドア5の状態が検出される。ドア状態検出部320は、第一画像とドアパターン312とのパターンマッチングを行ってドア5の開度を検出する。   In step S2, the state of the door 5 is detected. The door state detection unit 320 detects the opening degree of the door 5 by performing pattern matching between the first image and the door pattern 312.

ドアパターン312は、撮影画像上で開口領域11と戸板領域12がとり得る形状特徴をドア5の開度毎に表す形状パターンである。ドアパターン312は、監視空間に適合させて予め作成し登録しておく(記憶部31に記憶させておく)。具体的には、ドアパターン312は、ドア5の各開角度における開口領域11の輪郭画素の位置、戸板領域12の輪郭画素の位置を示した形状パターンと開口領域11に属する画素及び戸板領域12に属する画素を示した属性パターンを含む。例えば、図5に示すように、0度(定常位置)から120度(完全開放)まで10度毎に13段階のパターンが登録される。ドアパターン312は、ドア5を模した3次元モデルを用いたシミュレーションなどにより事前に作成され、予め登録される。また、開口領域11のパターン画像と戸板領域12のパターン画像を別々に分けて登録してもよい。ドア状態検出部320は、各開角度の形状パターンと現フレームの第一画像とを比較して類似度を算出し、類似度が最も高い開角度をドア状態として検出する。具体的には、ドア状態検出部320は、第一画像からエッジ画像を生成して各開角度のドアパターン312とエッジ画像のパターンマッチングを行って、類似度が最大である開角度を検出する。これにより、現フレームの第一画像に現れているドア5の形状に一致するドア状態を検出できる。ドア状態検出部320は、検出した開角度を背景情報生成部321及び通行物体領域抽出部322に出力すると共に、次フレームでの処理のために記憶部31に記憶させる。   The door pattern 312 is a shape pattern that represents the shape characteristics that the opening region 11 and the door plate region 12 can take on the captured image for each opening degree of the door 5. The door pattern 312 is created and registered in advance in accordance with the monitoring space (stored in the storage unit 31). Specifically, the door pattern 312 includes the shape pattern indicating the position of the contour pixel in the opening region 11 at each opening angle of the door 5, the position of the contour pixel in the door plate region 12, the pixels belonging to the opening region 11, and the door plate region 12. Including an attribute pattern indicating pixels belonging to. For example, as shown in FIG. 5, 13-step patterns are registered every 10 degrees from 0 degrees (steady position) to 120 degrees (fully open). The door pattern 312 is created in advance by a simulation using a three-dimensional model imitating the door 5 and registered in advance. Further, the pattern image of the opening area 11 and the pattern image of the doorboard area 12 may be separately registered. The door state detection unit 320 calculates the similarity by comparing the shape pattern of each opening angle and the first image of the current frame, and detects the opening angle having the highest similarity as the door state. Specifically, the door state detection unit 320 generates an edge image from the first image, performs pattern matching between the door pattern 312 at each opening angle and the edge image, and detects the opening angle having the maximum similarity. . Thereby, the door state corresponding to the shape of the door 5 appearing in the first image of the current frame can be detected. The door state detection unit 320 outputs the detected opening angle to the background information generation unit 321 and the passing object region extraction unit 322 and stores the detected opening angle in the storage unit 31 for processing in the next frame.

また、ドア状態は、第二画像とドアパターン312とのパターンマッチングにより検出してもよい。この場合、ドアパターン312は、第二画像に対してドア5の各開角度において予め登録しておけばよい。第一画像と第二画像における開角度は共通であるから、ステップS2の処理はいずれか一方に対して行えばよい。   Further, the door state may be detected by pattern matching between the second image and the door pattern 312. In this case, the door pattern 312 may be registered in advance at each opening angle of the door 5 with respect to the second image. Since the opening angle in the first image and the second image is common, the process in step S2 may be performed on either one.

また、ドア5の上部の領域においてドア5の下部の領域より類似度を高く評価する処理としてもよい。すなわち、ドア5の上部の領域は通行者と重なり合わない可能性が高く、ドアパターン312とのパターンマッチングにおいて信頼性の高い領域となるので、ドア5の上部領域でのマッチングをより重要視して処理を行うことが好ましい。例えば、ドア領域において人の平均身長より上の領域における類似度に1より大きい係数を乗算して、平均身長より下の領域における類似度よりも高く評価すればよい。或いは、簡易的にドア領域の上半分を上部の領域、下半分を下部の領域としてもよい。   Moreover, it is good also as a process which evaluates a similarity higher in the area | region of the upper part of the door 5 than the area | region of the lower part of the door 5. FIG. That is, it is highly possible that the upper area of the door 5 does not overlap with a passerby, and the area in the pattern matching with the door pattern 312 is highly reliable. Therefore, the matching in the upper area of the door 5 is more important. It is preferable to perform processing. For example, the similarity in the region above the average height of the person in the door region may be multiplied by a coefficient larger than 1 to evaluate higher than the similarity in the region below the average height. Alternatively, the upper half of the door region may be simply the upper region and the lower half may be the lower region.

ステップS3では、第一画像及び第二画像の各画素に領域属性が設定される。ドア状態検出部320は、検出された開角度のドアパターン312に設定されている属性パターンに従って第一画像及び第二画像上に開口領域11と戸板領域12とそれ以外のドア外領域13を設定する。このステップS2及びS3の処理が、ドア状態検出部320に含まれる領域区分部での処理に相当する。   In step S3, a region attribute is set for each pixel of the first image and the second image. The door state detection unit 320 sets the opening area 11, the doorboard area 12, and the other outside door area 13 on the first image and the second image according to the attribute pattern set in the detected door pattern 312 having the opening angle. To do. The processing in steps S2 and S3 corresponds to the processing in the area division unit included in the door state detection unit 320.

例えば、開角度が0度以外であれば、ドア状態検出部320は、第一画像及び第二画像の各画素に3領域のいずれかの領域属性を設定し、第一画像及び第二画像それぞれを、最も類似度が高い開度のドアパターン312における開口領域11、戸板領域12及びドア外領域13の形状及び位置にその輪郭形状及び位置が合致する3領域に区分する。開角度が0度なら、ドア状態検出部320は、第一画像及び第二画像それぞれを、閉鎖状態のドアパターン312における戸板領域12及びドア外領域13の形状及び位置にその輪郭形状及び位置が合致する2領域に区分する。なお、上述した戸板領域12を設定しない引き戸の例では、ドア状態検出部320は、開放状態のときに第一画像及び第二画像それぞれを最も類似度が高い開度のドアパターン312における開口領域11l及びドア外領域13の形状及び位置にその輪郭形状及び位置が合致する2領域に区分する。   For example, if the opening angle is other than 0 degrees, the door state detection unit 320 sets one of the three region attributes to each pixel of the first image and the second image, and each of the first image and the second image. Are divided into three regions whose contour shapes and positions coincide with the shapes and positions of the opening region 11, the door plate region 12 and the door outside region 13 in the door pattern 312 having the highest degree of similarity. If the opening angle is 0 degree, the door state detection unit 320 displays each of the first image and the second image in the shape and position of the door plate region 12 and the door outside region 13 in the door pattern 312 in the closed state. Divide into two matching areas. In the example of the sliding door that does not set the door panel region 12 described above, the door state detection unit 320 opens the opening region in the door pattern 312 having the highest degree of similarity between the first image and the second image in the open state. It is divided into two regions whose contour shape and position coincide with the shape and position of 11l and the outside door region 13.

このように、ドア状態検出部320は、ドア5の開閉により撮影画像において開口部8が現われている開口領域11を予め登録されている開口領域11の形状パターン(ドアパターン312)との比較から検出する。これにより、撮影画像において戸板15の変位に伴って生じる開口領域11の形状変化に追従できる。そのため、撮影画像において開口部背景情報314を適用すべき開口領域11が正確に得られるので高精度な背景情報の生成と高精度な通行物体領域の検出が可能となる。   Thus, the door state detection unit 320 compares the opening area 11 in which the opening 8 appears in the photographed image by opening and closing the door 5 with the shape pattern (door pattern 312) of the opening area 11 registered in advance. To detect. Thereby, the shape change of the opening area | region 11 which arises with the displacement of the doorplate 15 in a picked-up image can be tracked. Therefore, since the opening area 11 to which the opening background information 314 is to be applied is accurately obtained in the captured image, it is possible to generate highly accurate background information and detect a highly accurate passing object area.

また、ドア状態検出部320は、撮影画像において変位中の戸板15が現われている戸板領域12を予め登録されている戸板領域12の形状パターン(ドアパターン312)との比較から検出する。これにより、撮影画像において生じる戸板領域12の形状変化に追従できる。そのため、撮影画像において戸板部背景情報315を取得、適用すべき戸板領域12が正確に得られるので高精度な背景情報の生成と高精度な通行物体領域の検出が可能となる。   Moreover, the door state detection part 320 detects the doorboard area | region 12 in which the doorboard 15 currently displaced in the picked-up image appears from the comparison with the shape pattern (door pattern 312) of the doorboard area | region 12 registered previously. Thereby, the shape change of the door board area | region 12 which arises in a picked-up image can be tracked. Therefore, the door panel background information 315 is acquired in the captured image, and the door panel area 12 to be applied can be accurately obtained. Therefore, it is possible to generate highly accurate background information and detect a highly accurate passing object area.

ステップS4では、第一画像及び第二画像から通行者領域が抽出される。まず、通行物体領域抽出部322は、図6に示すフローチャートに沿って第一画像を処理する。ステップS30〜S40では、各画素を順次注目画素に設定して第一画像の全画素に対するループ処理を行う。   In step S4, a passer-by area is extracted from the first image and the second image. First, the passing object region extraction unit 322 processes the first image according to the flowchart shown in FIG. In steps S30 to S40, each pixel is sequentially set as a target pixel, and a loop process is performed on all pixels of the first image.

ステップS30では、第一画像中に注目画素が設定される。すなわち、通行物体領域抽出部322は、ステップS30に処理が戻ってくる度に第一画像に含まれる1画素を順次選択して注目画素に設定する。   In step S30, the target pixel is set in the first image. That is, the passing object region extraction unit 322 sequentially selects one pixel included in the first image and sets it as a target pixel each time the processing returns to step S30.

ステップS31では、ドア5の状態が開放状態であるか否かが確認される。通行物体領域抽出部322は、ドア状態検出部320が検出した開角度が0度でなければドア5の状態が開放状態であるとして(ステップS31にてYES)、ステップS32に処理を移行させ、そうでなければステップS38に処理を移行させる(ステップS31にてNO)。   In step S31, it is confirmed whether or not the state of the door 5 is an open state. If the opening angle detected by the door state detection unit 320 is not 0 degree, the passing object region extraction unit 322 determines that the state of the door 5 is an open state (YES in step S31), and shifts the process to step S32. Otherwise, the process proceeds to step S38 (NO in step S31).

ステップS32では、注目画素が開口領域11であるか否かが判定される。通行物体領域抽出部322は、ステップS4にてドア状態検出部320が判定した各画素の領域属性を参照して、注目画素の領域属性が開口領域11である場合にはステップS33に処理を移行させ(ステップS32にてYES)、そうでない場合にはステップS36に処理を移行させる(ステップS32にてNO)。   In step S <b> 32, it is determined whether or not the target pixel is the opening area 11. The passing object region extraction unit 322 refers to the region attribute of each pixel determined by the door state detection unit 320 in step S4. If the region attribute of the target pixel is the opening region 11, the process proceeds to step S33. (YES in step S32), otherwise, the process proceeds to step S36 (NO in step S32).

ステップS33〜S35では、通行物体領域抽出部322は開口領域11における撮影画像の各画素を開口部背景情報314と比較して、当該画素の開口部背景情報314に対する相違の程度を表わす指標である通行者尤度(相違するほど値が大きくなる)を算出する。   In steps S <b> 33 to S <b> 35, the passing object region extraction unit 322 compares each pixel of the captured image in the opening region 11 with the opening background information 314 and is an index that represents the degree of difference of the pixel with respect to the opening background information 314. The passer-by likelihood (the value increases as the difference is calculated) is calculated.

開口部背景情報314は、第一画像及び第二画像における開口領域11の背景情報である。各画素の開口部背景情報314は、開口領域11の色ヒストグラム(開口部色ヒストグラム)と開口領域11の各画素に対応する背景画素値(開口部背景画素値)の2種類を含む情報であり、記憶部31に記憶される。開口部色ヒストグラムは、例えばYUV各8ビンの3次元配列とされる。開口部背景情報314は、背景情報生成部321により生成され、適宜更新される。開口部背景情報314の生成処理については後述する。   The opening background information 314 is background information of the opening area 11 in the first image and the second image. The opening background information 314 of each pixel is information including two types of color histogram (opening color histogram) of the opening area 11 and a background pixel value (opening background pixel value) corresponding to each pixel of the opening area 11. And stored in the storage unit 31. The opening color histogram is, for example, a three-dimensional array of 8 bins each of YUV. The opening background information 314 is generated by the background information generation unit 321 and updated as appropriate. The generation process of the opening background information 314 will be described later.

ステップS33では、注目画素の背景画素値が既に生成されているか否かが判定される。通行物体領域抽出部322は、開口部背景情報314に既に背景画素値が記憶されている場合にはステップS35に処理を移行させ(ステップS33にてYES)、そうでない場合にはステップS34へ処理を移行させる(ステップS33にてNO)。   In step S33, it is determined whether or not the background pixel value of the target pixel has already been generated. If the background pixel value is already stored in the opening background information 314, the passing object region extraction unit 322 causes the process to proceed to step S35 (YES in step S33), and if not, the process proceeds to step S34. (NO in step S33).

ステップS34では、開口部色ヒストグラムに対する注目画素の通行者尤度が算出される。通行物体領域抽出部322は、開口部背景情報314から第一画像の開口部色ヒストグラムH0、通行物体情報316からドア5付近の通行者の色ヒストグラムHPをそれぞれ読み出し、数式(1)及び(2)にしたがって注目画素xの通行者尤度LO(x)を算出する。

Figure 0006080572
Figure 0006080572
In step S34, the passer likelihood of the pixel of interest for the opening color histogram is calculated. The passing object region extraction unit 322 reads the opening color histogram H 0 of the first image from the opening background information 314 and the color histogram H P of the passerby near the door 5 from the passing object information 316, respectively. In accordance with (2), the passer-by likelihood L O (x) of the pixel of interest x is calculated.
Figure 0006080572
Figure 0006080572

ここで、xは注目画素、PO(x)は注目画素xの通行者確率、cxは注目画素xの色、HO(cx)は開口部色ヒストグラムにおける色cxのビンの頻度、HP(cx)は通行物体情報316から読みだした色ヒストグラムにおける色cxのビンの頻度、LO(x)は注目画素xの通行者尤度、βO1は予めの実験を通じ適切に調整した定数である。通行者尤度LO(x)は、通行者確率PO(x)に対して単調増加する。よって、開口部色ヒストグラムにおいて注目画素の画素値の頻度が低いほど通行者尤度は高くなる。 Here, x is the target pixel, P O (x) is the passer probability of the target pixel x, c x is the color of the target pixel x, and H O (c x ) is the frequency of bins of the color c x in the aperture color histogram. , H P (c x ) is the frequency of bins of the color c x in the color histogram read from the passing object information 316, L O (x) is the passer likelihood of the pixel of interest x, and β O1 is appropriate through previous experiments. It is a constant adjusted to. The passer likelihood L O (x) monotonously increases with respect to the passer probability P O (x). Therefore, the lower the frequency of the pixel value of the target pixel in the aperture color histogram, the higher the passer likelihood.

このように通行物体領域抽出部322は、第一画像における開口領域11の各画素が開口部色ヒストグラムと相違するほど当該画素の通行者尤度を高く算出する。また、通行物体領域抽出部322は、第一画像における開口領域11の各画素が通行物体情報316と類似するほど当該画素の通行者尤度を高く算出する。   As described above, the passing object region extracting unit 322 calculates the passer likelihood of the pixel as the pixel of the opening region 11 in the first image is different from the opening color histogram. In addition, the passing object region extraction unit 322 calculates a higher passer likelihood of the pixel as the pixels of the opening region 11 in the first image are more similar to the passing object information 316.

ここで、通行物体情報316とは、監視空間に存在する各通行者(すなわち追跡中の通行者)の通行者領域14の画像特徴量及び位置の履歴を示す情報である。各通行者には当該通行者を一意に識別する通行者IDが付与され、通行者IDに通行者領域と画像特徴量と位置の履歴が対応付けて記憶部31に記憶される。ここで、画像特徴量は、色ヒストグラムであり、例えばYUV各8ビンの3次元配列で表される。通行者領域の情報は、共通座標系における3次元形状モデルとその3次元位置(例えば頭部重心)の形式で記憶される。3次元形状モデルは、通行物体が人である場合には頭部、胴部及び足部を回転楕円体で近似したデータとすることができる。3次元形状モデルを、カメラパラメータ310を用いて撮影画像の座標系に投影することで通行者領域を表わす2次元形状モデルとなる。   Here, the passing object information 316 is information indicating a history of image features and position of the passerby area 14 of each passerby (that is, a passerby being tracked) existing in the monitoring space. Each passerby is assigned a passer ID for uniquely identifying the passer-by, and the passer ID, the image feature amount, and the position history are associated with the passer ID and stored in the storage unit 31. Here, the image feature amount is a color histogram, and is represented by, for example, a three-dimensional array of 8 bins of YUV. Information on the passer-by area is stored in the form of a three-dimensional shape model in the common coordinate system and its three-dimensional position (for example, the head center of gravity). When the passing object is a person, the three-dimensional shape model can be data obtained by approximating the head, torso and foot with a spheroid. By projecting the three-dimensional shape model onto the coordinate system of the captured image using the camera parameter 310, a two-dimensional shape model representing the passer-by area is obtained.

ステップS35では、開口部背景画素値に対する注目画素の通行者尤度が算出される。通行者尤度は、数式(3)を用いて算出される。具体的には、通行物体領域抽出部322は、注目画素の画素値I(x)と背景画素値BO(x)との背景差分を算出し、差分値(I(x)−BO(x))を通行者尤度LO(x)に変換する。

Figure 0006080572
ここで、βO2は予めの実験を通じ適切に調整した定数である。 In step S35, the passer likelihood of the pixel of interest with respect to the aperture background pixel value is calculated. The passer-by likelihood is calculated using Equation (3). Specifically, the passing object region extraction unit 322 calculates a background difference between the pixel value I (x) of the target pixel and the background pixel value B O (x), and calculates the difference value (I (x) −B O ( x)) to passer likelihood L O (x).
Figure 0006080572
Here, β O2 is a constant adjusted appropriately through previous experiments.

通行者尤度LO(x)は、差分値(I(x)−B0(x))に対して単調増加する。よって、注目画素の画素値と開口部背景画素値の差が大きいほど通行者尤度は高くなる。 The passer-by likelihood L O (x) increases monotonously with respect to the difference value (I (x) −B 0 (x)). Therefore, the passer likelihood becomes higher as the difference between the pixel value of the target pixel and the aperture background pixel value is larger.

このように通行物体領域抽出部322は、第一画像における開口領域11の各画素が開口部背景情報314と相違するほど当該画素の通行者尤度を高く算出する。   As described above, the passing object region extracting unit 322 calculates the passer likelihood of the pixel so high that each pixel of the opening region 11 in the first image is different from the opening background information 314.

ステップS36,S37では、通行物体領域抽出部322は、戸板領域における第一画像の各画素を戸板部背景情報315と比較して、当該画素が背景情報と相違する程度を表わす指標である通行者尤度を算出する。   In steps S <b> 36 and S <b> 37, the passing object region extraction unit 322 compares each pixel of the first image in the doorboard region with the doorboard background information 315, and a passerby is an index indicating the degree to which the pixel differs from the background information. Calculate the likelihood.

ここで、戸板部背景情報315は、第一画像及び第二画像における戸板領域12の背景情報であり、色ヒストグラム(戸板部色ヒストグラム)で表される。各画像の戸板部色ヒストグラムは、例えばYUV各8ビンの3次元配列で表され、記憶部31に記憶される。戸板部背景情報315は、ドア5の開閉が検出されている間、背景情報生成部321により生成され、適宜更新される   Here, the doorboard background information 315 is background information of the doorboard region 12 in the first image and the second image, and is represented by a color histogram (doorboard color histogram). The door panel color histogram of each image is expressed in, for example, a three-dimensional array of 8 bins of YUV and stored in the storage unit 31. The door section background information 315 is generated by the background information generation section 321 and updated appropriately while the opening / closing of the door 5 is detected.

ステップS36では、注目画素が戸板領域12であるか否かが判定される。通行物体領域抽出部322は、注目画素の領域属性が戸板領域12である場合(ステップS36にてYES)にはステップS37に処理を移行させ、そうでない場合(ステップS36にてNO)にはステップS38へ処理を移行させる。   In step S <b> 36, it is determined whether or not the target pixel is the door panel region 12. If the region attribute of the pixel of interest is the door panel region 12 (YES in step S36), the passing object region extraction unit 322 moves the process to step S37, and otherwise (NO in step S36). The process proceeds to S38.

ステップS37では、戸板部色ヒストグラムに対する注目画素の通行者尤度が算出される。通行物体領域抽出部322は、注目画素xの色すなわち画素値を第一画像の戸板部色ヒストグラム及びドア5付近の通行者の色ヒストグラムと比較して、数式(4)及び(5)にしたがって注目画素xの通行者尤度LD(x)を算出する。

Figure 0006080572
Figure 0006080572
In step S37, the passer-by likelihood of the pixel of interest for the door panel color histogram is calculated. The passing object region extraction unit 322 compares the color of the pixel of interest x, that is, the pixel value, with the door panel color histogram of the first image and the color histogram of the passerby near the door 5, and follows equations (4) and (5). A passer likelihood L D (x) of the pixel of interest x is calculated.
Figure 0006080572
Figure 0006080572

ここで、PD(x)は注目画素xの通行者確率、HD(cx)は戸板部色ヒストグラムにおける色cxのビンの頻度、LD(x)は注目画素xの通行者尤度、βDは予めの実験を通じ適切に調整した定数である。通行者尤度LD(x)は、通行者確率PD(x)に対して単調増加する。 Here, P D (x) is the passer probability of the target pixel x, H D (cx) is the bin frequency of the color c x in the door panel color histogram, and L D (x) is the passer likelihood of the target pixel x. , Β D is a constant adjusted appropriately through previous experiments. The passer likelihood L D (x) monotonously increases with respect to the passer probability P D (x).

すなわち、通行物体領域抽出部322は、第一画像における戸板領域12の各画素が戸板部背景情報315と相違するほど当該画素の通行者尤度を高く算出する。また、通行物体領域抽出部322は、第一画像の戸板領域12を構成する画素が通行物体情報316と類似するほど当該画素の通行者尤度を高く算出する。   That is, the passing object region extraction unit 322 calculates the passer likelihood of the pixel so high that each pixel of the doorboard region 12 in the first image is different from the doorboard background information 315. In addition, the passing object region extraction unit 322 calculates the passer likelihood of the pixel so high that the pixels constituting the door board region 12 of the first image are similar to the passing object information 316.

ステップS38では、開口領域11及び変位中の戸板領域12のいずれでもない注目画素についてドア外/全体背景画素値に対する通行者尤度が算出される。通行物体領域抽出部322は、ドア外/全体背景情報313から注目画素xに対応する背景輝度値BG(x)を読み出し、注目画素xの画素値I(x)と背景画素値BG(x)との差分値(I(x)−BG(x))を算出して通行者尤度LG(x)に変換する。具体的には、数式(6)により通行者尤度LG(x)を算出する。

Figure 0006080572
In step S38, the passer-by likelihood for the pixel outside the door / overall background pixel value is calculated for the pixel of interest that is neither the opening area 11 nor the door panel area 12 being displaced. The passing object region extraction unit 322 reads the background luminance value B G (x) corresponding to the target pixel x from the outside / overall background information 313, and the pixel value I (x) and the background pixel value B G ( A difference value (I (x) −B G (x)) from x) is calculated and converted into a passer likelihood L G (x). Specifically, the passer-by likelihood L G (x) is calculated by Equation (6).
Figure 0006080572

ここで、LG(x)は注目画素xの通行者尤度、βGは予めの実験を通じ適切に調整した定数である。通行者尤度LG(x)は、差分値(I(x)−BG(x))に対して単調増加する。よって、注目画素の画素値と全体背景画素値又はドア外背景画素値の差が大きいほど通行者尤度は高くなる。 Here, L G (x) is a passer likelihood of the pixel of interest x, and β G is a constant adjusted appropriately through a prior experiment. The passer-by likelihood L G (x) monotonously increases with respect to the difference value (I (x) −B G (x)). Thus, the greater the difference between the pixel value of the pixel of interest and the overall background pixel value or the outside door background pixel value, the higher the passer likelihood.

このように、通行物体領域抽出部322は、ドア5が閉鎖状態のときは第一画像の画素総てに対して当該画素の通行者尤度を全体背景画素値と相違するほど高く算出し、ドア5が開放状態のときはドア外領域13における第一画像の各画素の通行者尤度を当該画素がドア外背景画素値と相違するほど高く算出する。   Thus, when the door 5 is in the closed state, the passing object region extraction unit 322 calculates the passer likelihood of the pixel as high as different from the overall background pixel value for all the pixels of the first image, When the door 5 is in the open state, the passer likelihood of each pixel of the first image in the outside door region 13 is calculated so high that the pixel differs from the outside door background pixel value.

ここで、ドア外/全体背景情報313は、第一画像全体における背景情報及び第二画像全体における背景情報である。ドア外/全体背景情報313としては第一画像の各画素に対応する背景画素値及び第二画像の各画素に対応する背景画素値が記憶部31に記憶される。ドア外/全体背景情報313は、背景情報生成部321により生成され、適宜更新される。ドア5が閉鎖状態のときは全画素の背景画素値が全体背景画素値として利用され、ドア5が開放状態のときはドア外領域13の画素に対応する背景画素値がドア外背景画素値として利用される。   Here, the outside / overall background information 313 is background information in the entire first image and background information in the entire second image. As the outside / overall background information 313, a background pixel value corresponding to each pixel of the first image and a background pixel value corresponding to each pixel of the second image are stored in the storage unit 31. The outside / overall background information 313 is generated by the background information generation unit 321 and updated as appropriate. When the door 5 is in the closed state, the background pixel values of all the pixels are used as the entire background pixel value, and when the door 5 is in the open state, the background pixel value corresponding to the pixel in the outside door region 13 is used as the outside door background pixel value. Used.

ステップS40では、識別器を用いた通行者尤度の補正処理がなされる。まず、通行者領域抽出部322は、開口領域11及び戸板領域12において検出窓領域Aを少しずつずらしながら検出窓領域A内の撮影画像を識別器に入力し、識別器が出力するスコアから検出窓領域Aに通行者が写っているか否かを判定する。例えば、識別器は検出窓領域Aに通行者が写っていれば0より大きく1未満のスコアを出力し、写っていなければ−1より大きく0以下のスコアを出力するように予め学習させておくことができ、この場合、通行者領域抽出部322は、閾値として0を設定し、スコアが閾値より大きければ通行者が写っていると判定し、スコアが閾値以下であれば通行者は写っていないと判定する。なお、このとき、通行者領域抽出部322は、通行者毎に異なる身長(通行物体の個体差)に対応するために、開口領域11及び戸板領域12の撮影画像を縮小しながら判定を行う。縮小率は、通行者の画像上での大きさを考慮して予め記憶部31に1又は複数の縮小率を記憶させておけばよい。   In step S40, a passer likelihood correction process using a discriminator is performed. First, the passer-by area extraction unit 322 inputs a photographed image in the detection window area A to the discriminator while gradually shifting the detection window area A in the opening area 11 and the doorboard area 12, and detects from the score output by the discriminator. It is determined whether or not a passerby is shown in the window area A. For example, the discriminator is trained in advance to output a score greater than 0 and less than 1 if a passerby appears in the detection window area A, and to output a score greater than -1 and less than 0 if no passer is reflected. In this case, the passer-by area extraction unit 322 sets 0 as a threshold value, determines that a passer-by appears if the score is greater than the threshold, and if the score is equal to or lower than the threshold, the passer-by is indicated. Judge that there is no. At this time, the passer-by area extraction unit 322 performs determination while reducing the captured images of the opening area 11 and the doorboard area 12 in order to correspond to different heights (individual differences of passing objects) for each passer-by. The reduction ratio may be stored in advance in the storage unit 31 in consideration of the size of the passerby on the image.

ここで用いる識別器は、それぞれに人が写っている大量の「通行者」画像の特徴量といずれも人が写っておらず背景だけが写っている大量の「非通行者」画像の特徴量とからなる学習データを用いて、判定基準のパラメータをアダブースト(AdaBoost)法又はサポートベクターマシーン(SVM)等により予め学習させたプログラムであり、記憶部31に予め記憶させておく。特徴量にはヒストグラム・オブ・オリエンティッド・グラディエント(HOG:Histograms of Oriented Gradients)、ハールライク(Haar-like)特徴等を用いることができる。識別器は、入力された検出窓領域A内の撮影画像から特徴量を抽出し、抽出した特徴量を判定基準に照らして検出窓領域毎にスコアを出力する。   The classifiers used here are feature quantities of a large number of "passerby" images that each show a person, and feature quantities of a large number of "passerby" images that show only the background without any human beings. Is a program in which parameters for determination criteria are previously learned by the AdaBoost method or the support vector machine (SVM) using the learning data consisting of the above, and are stored in the storage unit 31 in advance. Histograms of Oriented Gradients (HOG), Haar-like features, etc. can be used as the feature quantities. The discriminator extracts a feature amount from the captured image in the input detection window region A, and outputs a score for each detection window region in light of the extracted feature amount in accordance with a criterion.

通行物体領域抽出部313は、このように得られた判定結果に基づいて通行者尤度を補正する。例えば、識別器から出力されるスコアが所定の閾値を超える場合、通行者が検出されものとしてその検出窓領域A内では既に計算されている各画素の通行者尤度に一定の値を乗算して通行者尤度が高くなるように処理する。また、識別器において通行者が検出された検出窓領域A内では既に計算されている各画素の通行者尤度に識別器から出力されたスコアを乗算して通行者尤度が高くなるように処理してもよい。例えば、スコアDsが0〜1の数値で表わされる場合には(1+Ds)を乗算する。また、識別器から出力されるスコアが所定の閾値を超えない場合には、その検出窓領域A内では既に計算されている各画素の通行者尤度に一定の値を加算して通行者尤度を底上げしてもよい。   The passing object region extraction unit 313 corrects the passer likelihood based on the determination result thus obtained. For example, when the score output from the discriminator exceeds a predetermined threshold, the passer likelihood of each pixel that has already been calculated in the detection window area A is multiplied by a certain value as a passerby is detected. In order to increase the likelihood of the passerby. Further, in the detection window region A where the passer-by is detected by the classifier, the passer-likelihood of each pixel already calculated is multiplied by the score output from the classifier so that the passer-likelihood becomes higher. It may be processed. For example, when the score Ds is represented by a numerical value of 0 to 1, (1 + Ds) is multiplied. Further, when the score output from the discriminator does not exceed a predetermined threshold, a certain value is added to the passer likelihood of each pixel already calculated in the detection window region A, and the passer likelihood is increased. You may raise the degree.

さらに、検出窓領域Aの矩形にサイズ合わせして人型の通行物体モデルを設定し、検出窓領域A内においてその通行物体モデルの領域に対してのみ上記補正処理を施してもよい。または、通行物体モデルの領域の中心に近いほど通行者尤度が高くなるように乗算値や加算値を設定してもよい。   Further, a humanoid passing object model may be set in accordance with the size of the rectangle of the detection window area A, and the correction process may be performed only on the area of the passing object model in the detection window area A. Alternatively, a multiplication value or an addition value may be set so that the passer likelihood becomes higher as it is closer to the center of the area of the passing object model.

なお、通行者尤度に(1+Ds)等の多値のスコアを乗算又は加算する場合、開口領域11及び戸板領域12に複数の通行者が写っているとき等に、複数の検出窓領域にて通行者が写っていると判定され、これらの検出窓領域の一部が重複することがある。この場合は、重複領域の各画素において複数の検出窓領域にて出力されたスコアの最大値を乗算又は加算すればよい。   In addition, when multiplying or adding a multi-value score such as (1 + Ds) to the passer likelihood, when there are a plurality of passersby in the opening region 11 and the doorboard region 12, etc., in a plurality of detection window regions It may be determined that a passerby is shown, and some of these detection window areas may overlap. In this case, what is necessary is just to multiply or add the maximum value of the score output in the several detection window area | region in each pixel of an overlap area | region.

また、識別器として、通行者画像を人の全身画像で構成した学習データで学習した1種類の識別器を用いることもできるが、複数種類の識別器を用いてもよい。例えば、通行者画像を人の全身画像だけで構成した学習データで学習した識別器と、通行者画像を脚部や頭部等の部位毎の画像で構成した学習データそれぞれで学習した複数の識別器とを用いることができる。この場合、例えば、全身の識別器の検出窓領域と当該全身に対する部位の識別器の検出窓領域の位置関係を予め対応付けて管理し、部位の識別器のスコアを対応する全身の検出窓領域に統合したスコアを当該全身の検出窓領域に対するスコアとして補正処理に利用することができる。   Further, as the classifier, one type of classifier learned from learning data in which a passer-by image is composed of a human whole body image can be used, but a plurality of types of classifiers may be used. For example, a discriminator that learns a passer image by learning data composed only of a whole body image of a person and a plurality of identifications that are learned by a learning data that consists of a passer image composed of images for each part such as a leg and a head. Can be used. In this case, for example, the positional relationship between the detection window region of the whole body classifier and the detection window region of the part classifier with respect to the whole body is managed in association with each other in advance, and the score of the part classifier is associated with the corresponding whole body detection window region. Can be used for correction processing as a score for the detection window region of the whole body.

こうして得られた通行者尤度画像が通行者領域を表す情報となる。すなわち、通行者尤度の高い画素が人型に密集している領域が通行者領域14として得られる。ステップS41では、通行者尤度画像から通行者領域14を決定する処理が行われる。   The passer likelihood image obtained in this way is information representing the passer-by area. That is, a region where pixels with high passer-like likelihood are concentrated in a human shape is obtained as the passer-by region 14. In step S41, processing for determining the passer-by area 14 from the passer-likelihood image is performed.

具体的には、通行者尤度画像上の各位置に3次元人物モデルを投影して2次元形状を模した通行物体モデルを生成し、通行物体モデル内の画素に設定された通行者尤度の合計値が検出閾値T1以上であるときに当該位置の通行物体モデルが示す領域を通行者領域14として抽出する。または、通行者尤度画像の各画素を所定の検出閾値T2と比較し、通行者尤度が検出閾値T2以上である画素がドア領域における通行者のサイズ(通行物体サイズ)の範囲で互いに隣接している領域を通行者領域14として抽出してもよい。   Specifically, a 3D human model is projected on each position on the passer likelihood image to generate a pass object model that imitates a 2D shape, and the passer likelihood set for the pixels in the pass object model When the total value is equal to or greater than the detection threshold T1, the area indicated by the passing object model at the position is extracted as the passer-by area 14. Alternatively, each pixel of the passer likelihood image is compared with a predetermined detection threshold value T2, and pixels whose passer likelihood is equal to or higher than the detection threshold value T2 are adjacent to each other in the range of the passer size (passing object size) in the door area. You may extract as the passerby area 14 the area which is doing.

なお、上記サブルーチンでは第一画像内に含まれる通行者領域14の抽出処理のみを説明したが、第二画像内に含まれる通行者領域14も同様に求める。すなわち通行物体領域抽出部322は、第二画像の各画素に対する通行者尤度を算出して第二画像に対応する通行者尤度画像を生成し、通行者尤度の高い画素が人型に密集している領域を通行領域に決定する。このとき、通行物体領域抽出部322は、ドア5が開放状態であれば、開口領域11における第二画像の画素を開口部背景情報314と比較して通行者尤度を算出し、戸板領域12における第二画像の画素を戸板部背景情報315と比較して通行者尤度を算出し、ドア外領域13における第二画像の画素をドア外/全体背景情報313と比較して通行者尤度を算出する。また通行物体領域抽出部322は、ドア5が閉鎖状態であれば、第二画像の全画素をドア外/全体背景情報313と比較して通行者尤度を算出する。   In the above subroutine, only the extraction process of the passer-by area 14 included in the first image has been described, but the passer-by area 14 included in the second image is obtained in the same manner. That is, the passing object region extraction unit 322 calculates a passer likelihood for each pixel of the second image and generates a passer likelihood image corresponding to the second image, and a pixel having a high passer likelihood has a human shape. A dense area is determined as a traveling area. At this time, if the door 5 is in the open state, the passing object region extraction unit 322 calculates the passer likelihood by comparing the pixel of the second image in the opening region 11 with the opening background information 314, and the door plate region 12. The passer likelihood is calculated by comparing the pixels of the second image with the door panel background information 315 and comparing the pixels of the second image in the outside door region 13 with the outside / overall background information 313. Is calculated. In addition, when the door 5 is in the closed state, the passing object region extraction unit 322 compares the all pixels of the second image with the outside / overall background information 313 to calculate the passer likelihood.

上記通行物体領域抽出部322における処理が終了するとメインルーチンのステップS5に処理が戻される。   When the process in the passing object region extraction unit 322 is completed, the process returns to step S5 of the main routine.

ステップS5では、通行者の追跡処理が行われる。通行物体追跡部323は、各通行者領域14の位置及び通行者領域14における第一画像の色ヒストグラムを当該通行者の特徴量として抽出し、抽出した特徴量と通行物体情報316に記憶された各通行者の特徴量との照合を行う。通行物体追跡部323は、この照合により一致が得られた通行者領域を通行物体情報316の通行者と同一と判定して対応付ける。第二画像から抽出した通行者領域についても同様に通行物体情報316との同定を行う。さらに、通行物体追跡部323はカメラパラメータ310を用いて第一画像から抽出した通行者領域14と第二画像から抽出した通行者領域14のうち、ワールド座標系において位置が対応する通行者領域を同一の通行者と対応付ける。通行物体追跡部323は、通行物体情報316の色ヒストグラムを対応が得られた通行者領域14の色ヒストグラムにより更新し、当該通行者の通行物体情報316の位置履歴に一致が得られた通行者領域14の位置を追記する。また、対応が得られなかった通行者領域に対して新規通行者の通行物体情報316を生成し、対応が得られなかった通行物体情報316は消失したとして削除する。   In step S5, a passer-by tracking process is performed. The passing object tracking unit 323 extracts the position of each passer-by area 14 and the color histogram of the first image in the passer-by area 14 as the feature quantity of the passer-by and stored in the extracted feature quantity and the passing object information 316. Check against the characteristics of each passerby. The passing object tracking unit 323 determines that the passer-by area obtained by this collation is the same as the passer-by of the passing object information 316 and associates it. Similarly, the passerby area extracted from the second image is identified with the passing object information 316. Further, the passing object tracking unit 323 selects a passing person area corresponding to a position in the world coordinate system among the passing person area 14 extracted from the first image and the passing person area 14 extracted from the second image using the camera parameter 310. Associate with the same passerby. The passing object tracking unit 323 updates the color histogram of the passing object information 316 with the color histogram of the corresponding passer's area 14, and the passerby who has obtained a match in the position history of the passer's passing object information 316. The position of the area 14 is added. In addition, a new passer's passing object information 316 is generated for a passer's area for which no correspondence has been obtained, and the passing object information 316 for which no correspondence has been obtained is deleted because it has disappeared.

なお、通行者の追跡処理はこれらに限定されるものではなく、既存の種々の画像追跡処理を適用することができる。   The passerby tracking process is not limited to these, and various existing image tracking processes can be applied.

ステップS6では、通行者領域14の画素から通行者尤度の算出で用いる通行者の色ヒストグラムを生成する。ドア5の近辺に存在するK人の通行者のヒストグラムH1〜HKを足し合わせ、正規化したものを通行者の色ヒストグラムHPとして通行物体情報316に含めて記憶部31に記憶させる。

Figure 0006080572
In step S <b> 6, a passer's color histogram used for calculating the passer likelihood is generated from the pixels of the passer's area 14. The histograms H 1 to H K of the K passers who exist in the vicinity of the door 5 are added together, and the normalized passer's color histogram H P is included in the pass object information 316 and stored in the storage unit 31.
Figure 0006080572

ステップS7では、図8のフローチャートに沿って、ドア外/全体背景情報313の生成処理が行われる。背景情報生成部321は、現フレームの第一画像の各画素を順次注目画素に設定して(ステップS50)、ステップS50〜S55のループ処理を実行する。   In step S <b> 7, a process for generating outside / overall background information 313 is performed according to the flowchart of FIG. 8. The background information generation unit 321 sequentially sets each pixel of the first image of the current frame as a target pixel (Step S50), and executes the loop processing of Steps S50 to S55.

ステップS51では、ドア5の状態が開放状態であるか否かが確認される。背景情報生成部321は、ドア状態検出部320が検出した開角度が0度以外ならドア5が開放状態であるとしてステップS52に処理を移行させ(ステップS51にてYES)、そうでなければステップS53に処理を移行させる(ステップS51にてNO)。   In step S51, it is confirmed whether the state of the door 5 is an open state. If the opening angle detected by the door state detection unit 320 is other than 0 degrees, the background information generation unit 321 determines that the door 5 is in the open state (YES in step S51). The process proceeds to S53 (NO in step S51).

ステップS52では、注目画素の領域属性がドア外領域13であるか否かが確認される。背景情報生成部321は、ドア状態検出部320が注目画素に対して設定した領域属性がドア外領域13であればステップS53に処理を移行させ(ステップS52にてYES)、そうでなければステップS55に処理を移行させる(ステップS52にてNO)。   In step S52, it is confirmed whether or not the region attribute of the target pixel is the outside door region 13. If the region attribute set for the pixel of interest by the door state detection unit 320 is the door outside region 13, the background information generation unit 321 moves the process to step S53 (YES in step S52), otherwise the step The process proceeds to S55 (NO in step S52).

ステップS53では、注目画素が通行者領域14の画素か否かが確認される。背景情報生成部321は、通行物体領域抽出部322が第一画像から抽出した通行者領域14を参照して、注目画素が通行者領域14の画素であればステップS55に処理を移行させ(ステップS53にてYES)、そうでなければステップS54に処理を移行させる(ステップS53にてNO)。   In step S53, it is confirmed whether or not the target pixel is a pixel in the passer-by area 14. The background information generation unit 321 refers to the passer-by area 14 extracted from the first image by the passing object area extraction unit 322, and shifts the processing to step S55 if the target pixel is a pixel in the passer-by area 14 (step S55). If YES in S53), the process proceeds to Step S54 if not (NO in Step S53).

ステップS54では、背景情報生成部321は、現フレームの注目画素の画素値でドア外/全体背景情報313に記憶している注目画素の背景画素値を更新する。   In step S54, the background information generation unit 321 updates the background pixel value of the target pixel stored in the outside door / overall background information 313 with the pixel value of the target pixel of the current frame.

具体的には、背景情報生成部321は、式(8)にしたがって、現フレームの注目画素の画素値I(x)とドア外/全体背景情報313の背景画素値BG(x,t−1)をαG:(1−αG)の割合で重み付け平均した背景画素値BG(x,t)を求めてドア外/全体背景情報313に書き込む。

Figure 0006080572
ただし0<αG<1であり、例えばαG=0.3と設定する Specifically, the background information generation unit 321 determines the pixel value I (x) of the target pixel of the current frame and the background pixel value B G (x, t− of the outside / overall background information 313) according to Expression (8). A background pixel value B G (x, t) obtained by weighting and averaging 1) at a ratio of α G : (1−α G ) is obtained and written in the outside / overall background information 313.
Figure 0006080572
However, 0 <α G <1, and for example, α G = 0.3 is set.

ステップS55では、背景情報生成部321は、第一画像の全画素を注目画素として処理したか確認する。全画素を処理していなければ、次の画素を処理するために処理をステップS50に戻す(ステップS55にてNO)。全画素を注目画素として処理すると図8の処理は終了する。   In step S55, the background information generation unit 321 checks whether all pixels of the first image have been processed as the target pixel. If all the pixels have not been processed, the process returns to step S50 to process the next pixel (NO in step S55). When all the pixels are processed as the target pixel, the processing in FIG. 8 ends.

以上のように、背景情報生成部321は、通行者領域14、開口領域11及び変位中の戸板領域12を除いた領域について、現フレームの第一画像を用いて第一の視点でのドア外/全体背景情報313を生成・更新する。   As described above, the background information generation unit 321 uses the first image of the current frame for the area excluding the passer-by area 14, the opening area 11, and the moving doorboard area 12, and the outside of the door at the first viewpoint. / Generate / update overall background information 313.

また、背景情報生成部321は、第二画像に対しても同様にしてドア外/全体背景情報313を生成する。すなわち、背景情報生成部321は、ドア5が開放状態であれば、現フレームの第二画像において通行者が検出されなかったドア外領域13の画素値とドア外/全体背景情報313の対応する背景画素値との重み付け平均値を第二画像における開口領域11の新たな背景画素値として記憶部31に書き込む。また、背景情報生成部321は、ドア5が閉鎖状態であれば、現フレームの第二画像において通行者が検出されなかった領域の画素値とドア外/全体背景情報313の対応する背景画素値との重み付け平均値を第二画像に対する新たな背景画素値として記憶部31に書き込む。   The background information generation unit 321 also generates the outside / overall background information 313 for the second image in the same manner. That is, if the door 5 is in the open state, the background information generation unit 321 corresponds to the pixel value of the outside door area 13 in which the passerby is not detected in the second image of the current frame and the outside / overall background information 313. The weighted average value with the background pixel value is written in the storage unit 31 as a new background pixel value of the opening area 11 in the second image. In addition, if the door 5 is in the closed state, the background information generation unit 321 will detect the pixel value of the area where no passerby is detected in the second image of the current frame and the corresponding background pixel value of the outside / overall background information 313. Is written in the storage unit 31 as a new background pixel value for the second image.

ドア外/全体背景情報313が生成されると、処理は図4のステップS8に進み、背景情報生成部321は開口部背景情報314の生成を行う。   When the outside / overall background information 313 is generated, the process proceeds to step S8 in FIG. 4, and the background information generating unit 321 generates the opening background information 314.

ステップS8では、図9及び図10に示すフローチャートに沿って開口部背景情報の生成処理が行われる。   In step S8, opening background information generation processing is performed according to the flowcharts shown in FIGS.

まず、背景情報生成部321は、図10のフローチャートに従い、第二画像を用いて第一画像における開口部色ヒストグラムを生成する。   First, the background information generation unit 321 generates an opening color histogram in the first image using the second image according to the flowchart of FIG.

ステップS60〜S64のループ処理では、現フレームの第二視点背景取得領域311における色ヒストグラムが生成される。ステップS60では、現フレームの第二画像の各画素が順次注目画素に設定される。すなわち、背景情報生成部321は、ステップS60に処理が戻ってくる度に第二画像に含まれる画素を順次選択して注目画素に設定する。また、ループ処理開始にあたり、背景情報生成部321は現フレームの色ヒストグラムを蓄積する記憶領域を用意し、各ビンの度数を0に初期化する。   In the loop processing of steps S60 to S64, a color histogram in the second viewpoint background acquisition region 311 of the current frame is generated. In step S60, each pixel of the second image of the current frame is sequentially set as the target pixel. That is, the background information generation unit 321 sequentially selects pixels included in the second image and sets them as the target pixel every time the process returns to step S60. At the start of the loop processing, the background information generation unit 321 prepares a storage area for storing the color histogram of the current frame, and initializes the frequency of each bin to zero.

ステップS61では、注目画素が第二視点背景取得領域311の画素であるか否かが確認される。背景情報生成部321は、注目画素が第二画像に対して設定された第二視点背景取得領域311の画素であればステップS62に処理を移行させ(ステップS61にてYES)、そうでなければステップS66へ処理を移行させる(ステップS61にてNO)。   In step S61, it is confirmed whether or not the target pixel is a pixel in the second viewpoint background acquisition region 311. If the target pixel is a pixel in the second viewpoint background acquisition region 311 set for the second image, the background information generation unit 321 moves the process to step S62 (YES in step S61), otherwise. The process proceeds to step S66 (NO in step S61).

ステップS62では、注目画素が戸板領域12の画素か否かが確認される。背景情報生成部321は、注目画素が戸板領域12内にあればステップS66に処理を移行させ(ステップS62にてYES)、そうでなければステップS63へ処理を移行させる(ステップS62にてNO)。この判定により、背景情報生成部321は、第二視点からみてドア5が手前開きの場合に第二視点背景取得領域311からこれに重なった戸板領域12を除外する。この除外によって戸板15が背景に混入しなくなるので、開口部色ヒストグラムの精度を高く維持することができる。   In step S62, it is confirmed whether or not the target pixel is a pixel in the door plate region 12. The background information generation unit 321 shifts the process to step S66 if the pixel of interest is in the doorboard region 12 (YES in step S62), otherwise shifts the process to step S63 (NO in step S62). . With this determination, the background information generation unit 321 excludes the overlapping doorboard area 12 from the second viewpoint background acquisition area 311 when the door 5 is opened forward as viewed from the second viewpoint. By this exclusion, the door plate 15 is not mixed with the background, so that the accuracy of the opening color histogram can be maintained high.

ステップS63では、注目画素が通行者領域14内の画素か否かが確認される。背景情報生成部321は、通行物体領域抽出部322が第二画像から抽出した通行者領域14を参照して、注目画素が通行者領域14内にあればステップS66に処理を移行させ(ステップS63にてYES)、そうでなければステップS64へ処理を移行させる(ステップS63にてNO)。   In step S63, it is confirmed whether or not the target pixel is a pixel in the passer-by area 14. The background information generation unit 321 refers to the passer-by area 14 extracted from the second image by the passing object area extraction unit 322, and if the target pixel is in the passer-by area 14, shifts the processing to step S66 (step S63). Otherwise, the process proceeds to step S64 (NO in step S63).

ステップS64では、色変換処理が行われる。背景情報生成部321は、第二画像の平均輝度値及び分散を第一画像の平均輝度値及び分散と一致させるように予め設定された色変換関数を用いて第二画像の注目画素の画素値を変換する。   In step S64, a color conversion process is performed. The background information generation unit 321 uses a color conversion function set in advance so that the average luminance value and variance of the second image match the average luminance value and variance of the first image, and the pixel value of the target pixel of the second image Convert.

ステップS65では、注目画素の値が現フレームの色ヒストグラムに蓄積される。背景情報生成部321は、記憶部31に用意した現フレームの色ヒストグラムにおいて注目画素の色と対応するビンの度数を1だけ増加させる。   In step S65, the value of the target pixel is accumulated in the color histogram of the current frame. The background information generation unit 321 increases the frequency of the bin corresponding to the color of the pixel of interest in the current frame color histogram prepared in the storage unit 31 by one.

ステップS66では、背景情報生成部321は、第二画像の全画素を注目画素として処理したか確認する。全画素を処理していなければ次の画素を処理するために処理をステップS60に戻し(ステップ66にてNO)、処理が終わっていればステップS67に処理を移行させる。   In step S66, the background information generation unit 321 confirms whether all the pixels of the second image have been processed as the target pixel. If all the pixels have not been processed, the process returns to step S60 to process the next pixel (NO in step 66), and if the process has been completed, the process proceeds to step S67.

ステップS67では、背景情報生成部321は、現フレームの色ヒストグラムを用いて開口部背景情報314に記憶している色ヒストグラムを更新する。具体的には背景情報生成部321は、現フレームの色ヒストグラムを処理対象とした画素数で正規化し、式(9)にしたがって現フレームの色ヒストグラムHの各ビンの値と開口部背景情報314の色ヒストグラムHO(t−1)の対応するビンの値をαO1:(1−αO1)の割合で重み付け平均した色ヒストグラムHO(t)を求めて背景情報生成部321に書き込む。

Figure 0006080572
ただし0<αO1<1であり、例えばαO1=0.3と設定する。 In step S67, the background information generation unit 321 updates the color histogram stored in the opening background information 314 using the color histogram of the current frame. Specifically, the background information generation unit 321 normalizes the color histogram of the current frame with the number of pixels to be processed, and the value of each bin of the color histogram H of the current frame and the opening background information 314 according to Expression (9). the color histogram H O (t-1) corresponding to the value of the bin alpha O1: write to background information generation unit 321 obtains the (1-α O1) color histogram H O (t) weighted average rate.
Figure 0006080572
However, 0 <α O1 <1 and, for example, α O1 = 0.3 is set.

なお、開口部背景情報314に色ヒストグラムが記憶されていない起動直後の場合は、現フレームの色ヒストグラムHをそのままHOとして記憶させる。 If the color histogram is not stored in the opening background information 314, the color histogram H of the current frame is stored as H 2 O as it is.

このように開口領域の背景情報を画素単位の情報とせず、領域単体の情報である画素値の分布データ(色ヒストグラム)としたことで、開口領域の形状変化や通行物体の通過によって見え隠れする箇所に対しても継続的に利用可能な開口部背景情報を生成することができる。よってドアの開閉があっても高精度に通行物体領域を検出し続けることができる。また、カメラパラメータ310や色変換関数の誤差が希釈されて精度低下を防止できる。   In this way, the background information of the opening area is not pixel-by-pixel information, but the pixel value distribution data (color histogram), which is information of the area alone, makes it visible and hidden due to changes in the shape of the opening area and the passage of passing objects The opening background information that can be continuously used can be generated. Therefore, even when the door is opened and closed, the passing object region can be detected with high accuracy. In addition, errors in the camera parameter 310 and the color conversion function are diluted, so that a reduction in accuracy can be prevented.

次に、背景情報生成部321は、図10のフローチャートに従い、第一画像における開口部背景画素値を生成する。   Next, the background information generation unit 321 generates an opening background pixel value in the first image according to the flowchart of FIG.

ステップS70では、ドア5が開放状態であるか否かが確認される。背景情報生成部321は、ドア状態検出部320が検出した開角度が0度以外であればドア5が開放状態であるとしてステップS71に処理を移行させ(ステップS70にてYES)、そうでなければステップS76に処理を移行させる(ステップS70にてNO)。   In step S70, it is confirmed whether or not the door 5 is in an open state. If the opening angle detected by the door state detection unit 320 is other than 0 degrees, the background information generation unit 321 shifts the process to step S71 assuming that the door 5 is in the open state (YES in step S70). If so, the process proceeds to step S76 (NO in step S70).

ステップS71では、背景情報生成部321は、現フレームの第一画像の各画素を順次注目画素に設定する。ステップS71〜75のループ処理では、現フレームの第一画像により開口部背景画素値が生成・更新される。   In step S71, the background information generation unit 321 sequentially sets each pixel of the first image of the current frame as a target pixel. In the loop processing in steps S71 to S75, the opening background pixel value is generated / updated from the first image of the current frame.

ステップS72では、注目画素が開口領域11の画素か否かが確認される。背景情報生成部321は、ドア状態検出部320が第一画像に対して設定した注目画素の領域属性が開口領域11であればステップS73に処理を移行させ(ステップS72にてYES)、そうでなければステップS75に処理を移行させる(ステップS72にてNO)。   In step S72, it is confirmed whether or not the target pixel is a pixel in the opening area 11. If the region attribute of the target pixel set for the first image by the door state detection unit 320 is the opening region 11, the background information generation unit 321 moves the process to step S73 (YES in step S72). If not, the process proceeds to step S75 (NO in step S72).

ステップS73では、注目画素が通行者領域14の画素か否かが確認される。背景情報生成部321は、通行物体領域抽出部322が第一画像から抽出した通行者領域14を参照して、注目画素が通行者領域14の画素にあればステップS75に処理を移行させ(ステップS73にてYES)、そうでなければステップS74へ処理を移行させる(ステップS73にてNO)。   In step S <b> 73, it is confirmed whether or not the target pixel is a pixel in the passer-by area 14. The background information generation unit 321 refers to the passer-by area 14 extracted from the first image by the passing object area extraction unit 322, and shifts the processing to step S75 if the pixel of interest is in the passer-by area 14 (step S75). Otherwise, the process proceeds to step S74 (NO in step S73).

ステップS74では、注目画素の背景画素値が更新される。背景情報生成部321は、現フレームの注目画素の画素値で開口部背景情報314に記憶している注目画素の背景画素値を更新する。具体的には、背景情報生成部321は、式(10)にしたがって現フレームの注目画素の画素値I(x)と開口部背景情報314の背景画素値BO(x,t−1)をαO2:(1−αO2)の割合で重み付け平均した背景画素値BO(x,t)を求めて開口部背景情報314に書き込む。

Figure 0006080572
ただし0<αO2<1であり、例えばαO2=0.3と設定する。 In step S74, the background pixel value of the target pixel is updated. The background information generation unit 321 updates the background pixel value of the target pixel stored in the aperture background information 314 with the pixel value of the target pixel of the current frame. Specifically, the background information generation unit 321 calculates the pixel value I (x) of the pixel of interest in the current frame and the background pixel value B O (x, t−1) of the opening background information 314 according to Expression (10). A background pixel value B O (x, t) obtained by weighted averaging at a ratio of α O2 : (1−α O2 ) is obtained and written in the opening background information 314.
Figure 0006080572
However, 0 <α O2 <1 and, for example, α O2 = 0.3 is set.

ステップS75では、第一画像の全画素を注目画素として処理したかが確認される。背景情報生成部321は、全画素を処理していなければ次の画素を処理するために処理をステップS71に戻し(ステップS75にてNO)、そうでなければ図4のステップS9へと処理を戻す(ステップS75にてYES)。ステップS71〜S75の処理により開口領域11において通行者が現れていない部分では背景画素値が生成され、色ヒストグラムに代えて利用可能となる。   In step S75, it is confirmed whether all pixels of the first image have been processed as the target pixel. If all the pixels have not been processed, background information generation unit 321 returns the process to step S71 to process the next pixel (NO in step S75); otherwise, the process proceeds to step S9 in FIG. Return (YES in step S75). Background pixel values are generated in portions where no passersby appear in the opening area 11 by the processing in steps S71 to S75, and can be used instead of the color histogram.

ステップS76では、ドア5が開放状態から閉鎖状態に変化したか否かが確認される。背景情報生成部321は、記憶部31に記憶されている1フレーム前の開角度が0度以外であり且つ現フレームの開角度が0度であれば、ドア5の状態が現フレームにおいて開放状態から閉鎖状態に変化したとしてステップS77へ処理を移行させ(ステップS76にてYES)、そうでなければ処理を図4のステップS9に移行させる(ステップS76にてNO)。   In step S76, it is confirmed whether or not the door 5 has changed from the open state to the closed state. If the opening angle of the previous frame stored in the storage unit 31 is other than 0 degree and the opening angle of the current frame is 0 degree, the background information generation unit 321 is in the open state in the current frame. If it is changed from the closed state to the closed state, the process proceeds to step S77 (YES in step S76). Otherwise, the process proceeds to step S9 in FIG. 4 (NO in step S76).

ステップS77では、開口部背景画素値がクリアされる。背景情報生成部321は、開口部背景情報314の背景画素値を総てクリアする。つまり、ステップS70にてドア5が閉鎖状態であると判定された場合、開口領域11における最新の背景画素値が第一画像から得られなくなるため、閉鎖状態が継続している間においては、背景情報生成部321は、開口領域11における背景画素値の生成を行わず、さらに開口部背景画素値をクリアして開口部背景画素値をドア5が開放状態にある間だけ利用可能とする。   In step S77, the aperture background pixel value is cleared. The background information generation unit 321 clears all the background pixel values of the opening portion background information 314. That is, when it is determined in step S70 that the door 5 is in the closed state, the latest background pixel value in the opening region 11 cannot be obtained from the first image. The information generation unit 321 does not generate the background pixel value in the opening area 11, and further clears the opening background pixel value so that the opening background pixel value can be used only while the door 5 is in the open state.

また、背景情報生成部321は、第二画像における開口領域11に対しても同様にして開口部背景情報314を生成する。すなわち、背景情報生成部321は、ドア5が開放状態であれば、現フレームの第一画像において通行者が検出されなかった開口領域11の画素から現フレームの色ヒストグラムを算出して、当該色ヒストグラムと開口部背景情報314に記憶されている色ヒストグラムとの重み付け平均値を第二画像における開口領域11の新たな色ヒストグラムとして記憶部31に書き込む。また、背景情報生成部321は、ドア5が開放状態であれば、現フレームの第二画像において通行者が検出されなかった開口領域11の画素値と開口部背景情報314の対応する背景画素値との重み付け平均値を第二画像における開口領域11の新たな背景画素値として記憶部31に書き込む。また、背景情報生成部321は、現フレームにおいてドア5が開放状態から閉鎖状態に変化した場合に開口部背景情報314の背景画素値をクリアする。   The background information generation unit 321 also generates the opening background information 314 in the same manner for the opening area 11 in the second image. That is, if the door 5 is in the open state, the background information generation unit 321 calculates a color histogram of the current frame from the pixels of the opening area 11 where no passerby has been detected in the first image of the current frame, and The weighted average value of the histogram and the color histogram stored in the aperture background information 314 is written in the storage unit 31 as a new color histogram of the aperture region 11 in the second image. In addition, if the door 5 is in the open state, the background information generation unit 321 will detect the pixel value of the opening area 11 where no passerby has been detected in the second image of the current frame and the corresponding background pixel value of the opening background information 314. Is written in the storage unit 31 as a new background pixel value of the opening area 11 in the second image. Further, the background information generation unit 321 clears the background pixel value of the opening background information 314 when the door 5 changes from the open state to the closed state in the current frame.

開口部背景情報314が生成されると、処理は図4のステップS9に進み、背景情報生成部321は戸板部背景情報315の生成を行う。背景情報生成部321は、図11に示すフローチャートに沿ってステップS80〜S84のループ処理を実行し、現フレームの戸板領域12における色ヒストグラムを生成する。   When the opening background information 314 is generated, the process proceeds to step S9 in FIG. 4, and the background information generation unit 321 generates the doorboard background information 315. The background information generation unit 321 executes the loop processing of steps S80 to S84 along the flowchart shown in FIG. 11 to generate a color histogram in the doorboard region 12 of the current frame.

ステップS80では、背景情報生成部321は、現フレームの第一画像の各画素を順次注目画素に設定する。また、背景情報生成部321は、現フレームの色ヒストグラムを蓄積する記憶領域を用意し、各ビンの度数を0に初期化する。   In step S80, the background information generation unit 321 sequentially sets each pixel of the first image of the current frame as a target pixel. Further, the background information generation unit 321 prepares a storage area for storing the color histogram of the current frame, and initializes the frequency of each bin to zero.

ステップS81では、背景情報生成部321は、注目画素が第一画像に対して設定された戸板領域12の画素であるか否かを確認する。注目画素が戸板領域12内にあればステップS82に処理を移行させ(ステップS81にてYES)、そうでなければステップS84へ処理を移行させる(ステップS81にてNO)。   In step S81, the background information generation unit 321 confirms whether or not the target pixel is a pixel of the doorboard region 12 set for the first image. If the pixel of interest is within door panel region 12, the process proceeds to step S82 (YES in step S81), otherwise the process proceeds to step S84 (NO in step S81).

ステップS82では、背景情報生成部321は、通行物体領域抽出部322が第一画像から抽出した通行者領域14を参照して、注目画素が通行者領域14内の画素か否かを確認する。注目画素が通行者領域14内にあればステップS84に処理を移行させ(ステップS82にてYES)、そうでなければステップS83へ処理を移行させる(ステップS82にてNO)。   In step S <b> 82, the background information generation unit 321 refers to the passer-by area 14 extracted from the first image by the passable object area extraction unit 322, and confirms whether the pixel of interest is a pixel in the passer-by area 14. If the pixel of interest is in passerby area 14, the process proceeds to step S84 (YES in step S82), otherwise the process proceeds to step S83 (NO in step S82).

ステップS83では、背景情報生成部321は、注目画素を色ヒストグラム生成の対象とし、注目画素の色と対応するビンの度数を1だけ増加させることで現フレームの色ヒストグラムHを記憶部31に蓄積する。   In step S <b> 83, the background information generation unit 321 accumulates the color histogram H of the current frame in the storage unit 31 by increasing the frequency of the bin corresponding to the color of the target pixel by 1 by setting the target pixel as the target of color histogram generation. To do.

ステップS84では、背景情報生成部321は、第一画像の全画素を注目画素として処理したか確認する。全画素を処理していなければ次の画素を処理するために処理をステップS80に戻し(ステップS84にてNO)、そうでなければステップS85に処理を移行させる(ステップS84にてYES)。   In step S84, the background information generation unit 321 checks whether all pixels of the first image have been processed as the target pixel. If all the pixels have not been processed, the process returns to step S80 to process the next pixel (NO in step S84). If not, the process proceeds to step S85 (YES in step S84).

ステップS85では、背景情報生成部321は、現フレームの色ヒストグラムを用いて戸板部背景情報315に記憶している色ヒストグラムを更新する。具体的には、背景情報生成部321は、現フレームの色ヒストグラムを処理対象とした画素数で正規化し、式(11)にしたがって現フレームの色ヒストグラムHの各ビンの値と戸板部背景情報315の色ヒストグラムHD(t−1)の対応するビンの値をαD1:(1−αD1)の割合で重み付け平均した色ヒストグラムHD(t)を求めて戸板部背景情報315に書き込む。なお、戸板部背景情報315に色ヒストグラムが記憶されていない起動直後の場合は、現フレームの色ヒストグラムHをそのままHDとして記憶させる。

Figure 0006080572
ただし0<αD<1であり、例えばαD=0.3と設定する。 In step S85, the background information generation unit 321 updates the color histogram stored in the doorboard background information 315 using the color histogram of the current frame. Specifically, the background information generation unit 321 normalizes the color histogram of the current frame with the number of pixels targeted for processing, and the value of each bin of the color histogram H of the current frame and the doorboard background information according to the equation (11). A color histogram H D (t) obtained by weighting and averaging the bin values corresponding to the color histogram H D (t−1) 315 at a ratio of α D1 : (1−α D1 ) is written in the door panel background information 315. . If the color histogram is not stored in the door panel background information 315 immediately after the start-up, the color histogram H of the current frame is stored as HD as it is.
Figure 0006080572
However, 0 <α D <1 and, for example, α D = 0.3 is set.

また、背景情報生成部321は、第二画像における戸板領域に対しても同様にして戸板部背景情報315を生成する。すなわち、背景情報生成部321は、現フレームの第二画像において通行者が検出されなかった戸板領域12の画素から現フレームの色ヒストグラムを算出して、当該色ヒストグラムと戸板部背景情報315に記憶されている色ヒストグラムとの重み付け平均値を第二画像における戸板領域12の新たな色ヒストグラムとして記憶部31に書き込む。このように戸板領域の背景情報を画素単位の情報とせず領域単位の情報である画素値の分布データ(色ヒストグラム)としたことで、戸板領域の形状変化や通行物体の通過によって見え隠れする箇所に対しても継続的に利用可能な戸板部背景情報を生成することができる。よってドアの開閉があっても高精度に通行物体領域を検出し続けることができる。   In addition, the background information generation unit 321 similarly generates the door panel background information 315 for the door panel region in the second image. That is, the background information generation unit 321 calculates a color histogram of the current frame from the pixels in the door panel area 12 where no passerby was detected in the second image of the current frame, and stores the color histogram in the color histogram and the door panel background information 315. The weighted average value with the color histogram is written into the storage unit 31 as a new color histogram of the doorboard region 12 in the second image. In this way, the background information of the doorboard area is not pixel-by-pixel information, but pixel-value distribution data (color histogram), which is area-by-area information, so that it can be seen and hidden due to changes in the shape of the doorboard area and the passage of passing objects. In contrast, it is possible to generate door panel background information that can be continuously used. Therefore, even when the door is opened and closed, the passing object region can be detected with high accuracy.

以上の処理を終えると、処理は図4のステップS1へと戻され、次のフレームの処理が行われる。   When the above process is completed, the process returns to step S1 in FIG. 4 to process the next frame.

以上のように、本実施の形態によれば、ドアが設置された空間にて通行物体を検出する際に、ドアの開閉に伴って形状変化するドア領域、特に開口領域及び戸板領域を正確に認識することができる。これによって、各領域の背景情報を適確に生成し適用できるので背景差分処理を施したときに開口部全体が変化領域となることを防ぐことができ、各領域に一部または全体が写っている通行物体を適切に検出することができる。   As described above, according to the present embodiment, when a passing object is detected in the space where the door is installed, the door area whose shape changes with the opening and closing of the door, particularly the opening area and the door plate area, can be accurately determined. Can be recognized. As a result, the background information of each area can be accurately generated and applied, so that when the background difference process is performed, the entire opening can be prevented from becoming a change area, and a part or the whole is reflected in each area. It is possible to appropriately detect a passing object.

また、開口領域及び戸板領域の背景情報を各領域における画素値の分布データとしたことで領域形状の変化や通行物体の通過により、背景の一部が見え隠れしても隠れた箇所の背景情報を補うことができるので、通行物体を検出し続けることが可能となる。以上により、ドアの開閉があっても通行物体領域の検出を継続することが可能となり、通行物体の追跡処理を確実に行うことが可能となる。   In addition, the background information of the opening area and the doorboard area is used as the distribution data of the pixel value in each area, so that the background information of the hidden part can be obtained even if part of the background is hidden or hidden due to the change of the area shape or the passage of passing objects Since it can compensate, it becomes possible to continue detecting a passing object. As described above, the detection of the passing object region can be continued even when the door is opened and closed, and the tracking process of the passing object can be reliably performed.

なお、本実施の形態では、手前に開く開き戸の例を示したが、ドアパターン312を適合させることで奥に開く開き戸、引き戸、折戸など各種のドアに適用可能である。また、本実施の形態では、開口部色ヒストグラムを第二画像から生成したが、第一画像から生成することもできる。すなわち、背景情報生成部321はドア5が開放状態であるときに第一画像の開口領域11の画素値を用いて色ヒストグラムを生成及び更新し、ドア5が閉鎖状態のときは開口部色ヒストグラムの更新を停止して当該色ヒストグラムを保持する。この場合、閉鎖期間の照明変動を補償するために開口領域上部の第一画像から上部色ヒストグラムを別途生成して記憶部31に記憶させ、前回開放時の上部色ヒストグラムに対する今回開放時の上部色ヒストグラムの変動量を求めて、保持している開口部色ヒストグラムを当該変動量で補正する。   In this embodiment, an example of a hinged door that opens to the front is shown, but the present invention can be applied to various doors such as a hinged door, a sliding door, and a folding door that are opened to the back by adapting the door pattern 312. Moreover, in this Embodiment, although the opening part color histogram was produced | generated from the 2nd image, it can also produce | generate from a 1st image. That is, the background information generation unit 321 generates and updates a color histogram using the pixel values of the opening area 11 of the first image when the door 5 is in the open state, and opens the color histogram when the door 5 is in the closed state. And the color histogram is retained. In this case, an upper color histogram is separately generated from the first image at the upper part of the opening region to compensate for illumination variation during the closed period, and is stored in the storage unit 31, and the upper color at the time of the current opening relative to the upper color histogram at the time of the previous opening. The variation amount of the histogram is obtained, and the held opening color histogram is corrected with the variation amount.

また、本実施の形態では、通行物体を人としたが、これに限定されるものではない。例えば、門扉が設置された敷地入口やシャッター付ガレージを撮影し、門ドアやシャッターのようなドアを通行する車両を通行物体として検出することもできる。   In the present embodiment, the passing object is a person, but the present invention is not limited to this. For example, a site entrance where a gate is installed or a garage with a shutter can be photographed, and a vehicle passing through a door such as a gate door or shutter can be detected as a passing object.

また、通行物体領域抽出部322は、追跡中の全通行者に共通して一枚の通行者尤度画像を生成したが、これに代えて通行者毎に一枚の通行者尤度画像を生成してもよい。この場合、通行物体領域抽出部322は、注目する通行者kの色ヒストグラムHkを用いて当該通行者の通行者尤度画像Lkを作成し、当該通行者尤度画像Lkから通行者1人の通行者領域を決定する処理を通行中の全通行者に対して繰り返す。このようにすることで、通行者毎の色の違いに適合した通行者尤度画像を生成でき、色の異なる通行者が複数存在するときに抽出の精度を向上させることができる。 In addition, the passing object area extraction unit 322 generates one passer likelihood image in common for all passers-by who are being tracked, but instead of this, one passer likelihood image is generated for each passer. It may be generated. In this case, the passer-by object region extraction unit 322 creates a passer-by likelihood image L k of the passer-by using the color histogram H k of the passer-by of interest k , and a passer-by from the passer-by likelihood image L k. The process of determining one passer-by area is repeated for all passers-by who are passing. In this way, it is possible to generate a passer likelihood image suitable for the color difference for each passerby, and to improve the extraction accuracy when there are a plurality of passers with different colors.

また、本実施の形態では、通行物体検出装置の各部の機能を1つのコンピュータで実現する態様を説明したがこれに限定されるものではない。通行物体検出装置の各部の機能は一般的なコンピュータをプログラムにより制御することによって実現できるものであり、これらの装置の各機能を適宜組み合わせて1つのコンピュータで処理させてもよいし、各機能をネットワーク等で接続された複数のコンピュータで分散処理させてもよい。   Further, in the present embodiment, the mode in which the function of each unit of the passing object detection device is realized by one computer has been described, but the present invention is not limited to this. The functions of each part of the passing object detection device can be realized by controlling a general computer by a program, and the functions of these devices may be appropriately combined and processed by one computer. Distributed processing may be performed by a plurality of computers connected via a network or the like.

2 撮影部、2a 第一撮影部、2a 第二撮影部、3 制御部、4 表示部、5 ドア、6 部屋、6a 第一の部屋、6b 第二の部屋、7 開口部、7 遮蔽空間、8 開口部、9 床、10 通行物体、11 開口領域、12 戸板領域、13 ドア外領域、14 通行者領域、30 画像取得部、31 記憶部、32 画像処理部、33 出力部、100 通行物体検出装置、310 カメラパラメータ、311 第二視点背景取得領域、312 ドアパターン、313 ドア外/全体背景情報、314 開口部背景情報、315 戸板部背景情報、316 通行物体情報、320 ドア状態検出部、321 背景情報生成部、322 通行物体領域抽出部、323 通行物体追跡部、401,402,403,411,412,413 ヒストグラム。   2 imaging unit, 2a first imaging unit, 2a second imaging unit, 3 control unit, 4 display unit, 5 door, 6 rooms, 6a first room, 6b second room, 7 opening, 7 shielding space, 8 opening part, 9 floor, 10 passing object, 11 opening area, 12 doorboard area, 13 outside door area, 14 passerby area, 30 image acquisition part, 31 storage part, 32 image processing part, 33 output part, 100 passing object Detection device, 310 camera parameters, 311 second viewpoint background acquisition region, 312 door pattern, 313 outside / overall background information, 314 opening background information, 315 doorboard background information, 316 passing object information, 320 door state detection unit, 321 Background information generation unit, 322 passing object region extraction unit, 323 passing object tracking unit, 401, 402, 403, 411, 412, 413 histogram.

Claims (8)

ドアを含む空間を撮影した撮影画像から通行物体を検出する通行物体検出装置であって、
少なくとも前記ドアの開放により生じる開口部の形状特徴を含む前記ドアの形状パターンを前記ドアの開度毎に予め記憶するドアパターン記憶部と、
前記撮影画像を前記形状パターンと比較して類似度を算出し、前記撮影画像を最も前記類似度が高い当該形状パターンに合致するドア領域と前記ドア領域以外であるドア外領域とに区分する領域区分部と、
前記領域区分部が区分する各領域における前記通行物体を含まない前記空間の背景情報を記憶する背景記憶部と、
前記領域区分部が区分した領域毎に前記撮影画像の各画素と当該領域の前記背景情報との相違度を算出して、前記相違度が所定基準以上である画素のまとまりを通行物体領域として抽出する通行物体領域抽出部と、
を備えることを特徴とする通行物体検出装置。
A passing object detection device that detects a passing object from a captured image of a space including a door,
A door pattern storage unit that stores in advance a shape pattern of the door including at least a shape characteristic of an opening generated by opening the door;
An area that compares the photographed image with the shape pattern to calculate a similarity, and divides the photographed image into a door area that matches the shape pattern with the highest similarity and an outside door area other than the door area A section,
A background storage unit that stores background information of the space that does not include the passing object in each region divided by the region dividing unit;
The degree of difference between each pixel of the captured image and the background information of the area is calculated for each area divided by the area dividing unit, and a group of pixels whose difference is equal to or greater than a predetermined reference is extracted as a passing object area A passing object region extraction unit,
A passing object detection apparatus comprising:
請求項1に記載の通行物体検出装置であって、
前記背景記憶部は、前記ドア領域における前記背景情報として前記ドア領域の画素値の分布データを記憶し、前記ドア外領域における前記背景情報として前記ドア外領域の各画素の画素値を記憶することを特徴とする通行物体検出装置。
The passing object detection device according to claim 1,
The background storage unit stores distribution data of pixel values of the door region as the background information in the door region, and stores pixel values of each pixel in the door outer region as the background information in the door outer region. A passing object detection device characterized by the above.
請求項2に記載の通行物体検出装置であって、
前記ドアパターン記憶部は、前記ドアを構成する戸板の形状特徴をさらに含めた前記形状パターンを記憶し、
前記領域区分部は、前記ドア領域をさらに前記開口部が現われている開口領域と前記戸板が現われている戸板領域とに区分し、
前記背景記憶部は、前記開口領域及び前記戸板領域それぞれにおける前記背景情報として当該各領域の画素値の分布データを記憶すること、
を特徴とする通行物体検出装置。
The passing object detection device according to claim 2,
The door pattern storage unit stores the shape pattern further including a shape characteristic of a door plate constituting the door,
The area dividing section further divides the door area into an opening area where the opening appears and a door plate area where the door plate appears,
The background storage unit stores distribution data of pixel values of each area as the background information in each of the opening area and the doorboard area;
A passing object detection device characterized by the above.
請求項1〜3のいずれか1項に記載の通行物体検出装置であって、
前記通行物体領域抽出部は、通行物体の形状を模した通行物体モデルに含まれる画素の前記相違度の和が前記所定基準以上であるときに前記通行物体モデルを適用した領域を前記通行物体領域として検出することを特徴とする通行物体検出装置。
The passing object detection device according to any one of claims 1 to 3,
The passing object region extraction unit is configured to apply a region to which the passing object model is applied when a sum of the differences between pixels included in the passing object model imitating a shape of the passing object is equal to or greater than the predetermined reference. Detecting as a passing object detecting device.
請求項1〜3のいずれか1項に記載の通行物体検出装置であって、
前記通行物体領域抽出部は、前記撮影画像の各画素の前記相違度が前記所定基準以上である画素を抽出し、抽出された画素が予め設定された通行物体サイズ以上に纏まっている領域を前記通行物体領域として検出することを特徴とする通行物体検出装置。
The passing object detection device according to any one of claims 1 to 3,
The passing object region extracting unit extracts pixels in which the degree of difference of each pixel of the captured image is equal to or greater than the predetermined reference, and extracts regions where the extracted pixels are gathered to be equal to or larger than a preset passing object size. A traffic object detecting apparatus, wherein the traffic object area is detected as a traffic object area.
請求項1〜5のいずれか1項に記載の通行物体検出装置であって、
前記撮影画像の前記通行物体領域から通行物体の画像特徴を抽出し、
前記通行物体領域抽出部は、前記ドア領域の前記通行物体領域と前記通行物体の画像特徴の類似度を求め、当該類似度が高いほど前記通行物体領域の各画素の前記相違度を高くする又は前記所定基準を低くする補正を行うことを特徴とする通行物体検出装置。
The passing object detection device according to any one of claims 1 to 5,
Extracting an image feature of a passing object from the passing object region of the captured image;
The passing object area extraction unit obtains the similarity between the passing object area of the door area and the image feature of the passing object, and the higher the similarity, the higher the difference between the pixels of the passing object area or A passing object detection apparatus that performs correction to lower the predetermined reference.
請求項1〜5のいずれか1項に記載の通行物体検出装置であって、
前記撮影画像の前記通行物体領域から通行物体の画像特徴を抽出し、
前記通行物体領域抽出部は、前記ドア領域の画素毎に前記通行物体の画像特徴の類似度を求め、当該類似度が高いほど当該画素の前記相違度を高くする又は前記所定基準を低くする補正を行うことを特徴とする通行物体検出装置。
The passing object detection device according to any one of claims 1 to 5,
Extracting an image feature of a passing object from the passing object region of the captured image;
The passing object region extraction unit obtains the similarity of the image feature of the passing object for each pixel of the door region, and the higher the similarity, the higher the difference of the pixel or the lower the predetermined criterion A passing object detection apparatus characterized by performing:
請求項6に記載の通行物体検出装置であって、
前記通行物体領域抽出部は、前記ドア領域の前記撮影画像を通行物体の画像特徴を予め学習した識別器に入力し、前記識別器の出力が通行物体の存在を示す値であるときに前記相違度を高くする又は前記所定基準を低くする補正を行うことを特徴とする通行物体検出装置。
The passing object detection device according to claim 6,
The passing object region extraction unit inputs the captured image of the door region to the classifier that has learned the image characteristics of the passing object in advance, and the difference is obtained when the output of the classifier is a value indicating the presence of the passing object. A passing object detection apparatus which performs correction to increase the degree or to lower the predetermined reference.
JP2013016883A 2013-01-31 2013-01-31 Traffic object detection device Active JP6080572B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013016883A JP6080572B2 (en) 2013-01-31 2013-01-31 Traffic object detection device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013016883A JP6080572B2 (en) 2013-01-31 2013-01-31 Traffic object detection device

Publications (2)

Publication Number Publication Date
JP2014149597A JP2014149597A (en) 2014-08-21
JP6080572B2 true JP6080572B2 (en) 2017-02-15

Family

ID=51572551

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013016883A Active JP6080572B2 (en) 2013-01-31 2013-01-31 Traffic object detection device

Country Status (1)

Country Link
JP (1) JP6080572B2 (en)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6488647B2 (en) * 2014-09-26 2019-03-27 日本電気株式会社 Object tracking device, object tracking system, object tracking method, display control device, object detection device, program, and recording medium
US10664705B2 (en) 2014-09-26 2020-05-26 Nec Corporation Object tracking apparatus, object tracking system, object tracking method, display control device, object detection device, and computer-readable medium
WO2018193580A1 (en) * 2017-04-20 2018-10-25 三菱電機株式会社 Monitor camera system and monitor camera
JP7306417B2 (en) * 2021-03-24 2023-07-11 いすゞ自動車株式会社 Detector and loading rate estimation system
WO2023073869A1 (en) * 2021-10-28 2023-05-04 日立グローバルライフソリューションズ株式会社 Door opening angle calculation method and storage unit

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002032760A (en) * 2000-07-17 2002-01-31 Mitsubishi Electric Corp Method and device for extracting moving object
JP5170731B2 (en) * 2007-02-01 2013-03-27 株式会社メガチップス Traffic monitoring system
JP2011002339A (en) * 2009-06-18 2011-01-06 Panasonic Electric Works Co Ltd Object detection device

Also Published As

Publication number Publication date
JP2014149597A (en) 2014-08-21

Similar Documents

Publication Publication Date Title
US10417503B2 (en) Image processing apparatus and image processing method
Brown et al. Performance evaluation of surveillance systems under varying conditions
Harville et al. Foreground segmentation using adaptive mixture models in color and depth
KR101964397B1 (en) Information processing apparatus and information processing method
Jeyakar et al. Robust object tracking with background-weighted local kernels
Chattopadhyay et al. Pose Depth Volume extraction from RGB-D streams for frontal gait recognition
Cai et al. Multi-object detection and tracking by stereo vision
WO2017000115A1 (en) Person re-identification method and device
JP6080572B2 (en) Traffic object detection device
CN104881642A (en) Method and device for content pushing, and equipment
CN106204586B (en) A kind of moving target detecting method under complex scene based on tracking
CN106709938B (en) Based on the multi-target tracking method for improving TLD
CN103426008B (en) Visual human hand tracking and system based on online machine learning
JP2014178862A (en) Feature point extraction device
US20220366570A1 (en) Object tracking device and object tracking method
Jin et al. Analysis-by-synthesis: Pedestrian tracking with crowd simulation models in a multi-camera video network
JP6038643B2 (en) Background information generation apparatus and object detection apparatus
JP6851246B2 (en) Object detector
JP2022019339A (en) Information processing apparatus, information processing method, and program
JP2011043863A (en) Apparatus, method, program for determining/tracking object region, and apparatus for determining object region
Wang et al. Adaptive visual tracking based on discriminative feature selection for mobile robot
Jeong et al. Moving shadow detection using a combined geometric and color classification approach
Hradiš et al. Real-time tracking of participants in meeting video
TWI813297B (en) Method for motion detection and circuit system
Hu et al. A new method of moving object detection and shadow removing

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160113

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20161216

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170110

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170117

R150 Certificate of patent or registration of utility model

Ref document number: 6080572

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250