JP2009019981A - Object position detecting device - Google Patents

Object position detecting device Download PDF

Info

Publication number
JP2009019981A
JP2009019981A JP2007182571A JP2007182571A JP2009019981A JP 2009019981 A JP2009019981 A JP 2009019981A JP 2007182571 A JP2007182571 A JP 2007182571A JP 2007182571 A JP2007182571 A JP 2007182571A JP 2009019981 A JP2009019981 A JP 2009019981A
Authority
JP
Japan
Prior art keywords
coordinates
coordinate
polar
polar coordinate
deriving
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2007182571A
Other languages
Japanese (ja)
Inventor
Gen Kumamoto
玄 隈元
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Daikin Industries Ltd
Original Assignee
Daikin Industries Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Daikin Industries Ltd filed Critical Daikin Industries Ltd
Priority to JP2007182571A priority Critical patent/JP2009019981A/en
Publication of JP2009019981A publication Critical patent/JP2009019981A/en
Pending legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide an object position detecting device monitoring a large spatial living room or the like at lower cost than before. <P>SOLUTION: In an object position detecting device 1, a pick-up image data receiving part 36 receives pick-up image data from a swing imaging device 2. A specified pixel coordinate deriving means 34d derives specified pixel coordinates. A specified information table extracting means extracts a specified information table Tm1 by collating a combination of yaw angle and pitch angle, or yaw angle at a lens part 22 of the swing imaging device with an information storing part 34. A first pole coordinate deriving means 34e derives the first pole coordinate by utilizing the specified pixel coordinates and the specified information table. <P>COPYRIGHT: (C)2009,JPO&INPIT

Description

本発明は、物体、特に人等の移動体の位置を検知することができる物体位置検知装置に関する。   The present invention relates to an object position detection apparatus capable of detecting the position of an object, particularly a moving body such as a person.

過去に『監視カメラにより撮像された画像データにおいて人物の頭部を検出する手段と、その頭部の画像データ上での座標(以下「第1座標」という)を監視カメラの撮影範囲の現実空間における床部分の座標(以下「第2座標」という)に対応させる変換テーブルと、第1座標を変換テーブルに照合して第2座標を導出する手段とを備える監視カメラシステム』が提案されている(例えば、特許文献1参照)。このような監視カメラシステムを利用すれば、人物の位置を正確に特定することができる。
特開2003−189295号公報
In the past, “means for detecting the head of a person in the image data captured by the monitoring camera, and coordinates on the image data of the head (hereinafter referred to as“ first coordinates ”) in the real space of the imaging range of the monitoring camera. Has been proposed that includes a conversion table corresponding to the coordinates of the floor portion (hereinafter referred to as “second coordinates”) and means for deriving the second coordinates by comparing the first coordinates with the conversion table ”. (For example, refer to Patent Document 1). If such a monitoring camera system is used, the position of a person can be specified accurately.
JP 2003-189295 A

しかし、このような監視カメラシステムでは、オフィス等の大空間居室等を監視対象とするには多台数の監視カメラを必要とする。このため、このような監視カメラシステムを導入するには、非常に高いコストがかかってしまう。   However, in such a surveillance camera system, a large number of surveillance cameras are required to monitor large space rooms such as offices. Therefore, it is very expensive to introduce such a monitoring camera system.

本発明の課題は、従来よりも低コストで大空間居室等を監視対象とすることができる物体位置検知装置を提供することにある。   An object of the present invention is to provide an object position detection device capable of monitoring a large space room or the like at a lower cost than before.

第1発明に係る物体位置検知装置は、首振り撮像機、情報記憶部、撮像画像データ受信部、特定画素座標導出手段、特定情報テーブル抽出手段及び第1極座標導出手段を備える。首振り撮像機は、レンズ部及び旋回駆動機構を有する。旋回駆動機構は、レンズ部をヨー方向及びピッチ方向に旋回駆動可能である。なお、首振り撮像機は単眼撮像機であってもよいし複眼撮像機であってもよいが単眼撮像機であることがコスト面から好ましい。情報記憶部には、情報テーブルが記憶される。情報テーブルは、レンズ部のヨー角及びピッチ角の組合せ毎に又はピッチ角毎に作成されている。そして、この情報テーブルでは、首振り撮像機の画素座標に第1極座標が割り当てられている。なお、第1極座標の距離成分には「予め平均身長を加味して算出した足下までの距離(実際の極座標における距離から所定の距離(原点から距離に依存して変化する)を既に足したり引いたりしたもの)」が登録される。また、第1極座標の中心付近の部分のみが直交座標に置き換えてもよい。また、第1極座標が実際の床面の極座標である場合、画素座標への割当は、計算によって決定されてもよいし画像処理技術によるエッジ抽出によって決定されてもよい。撮像画像データ受信部は、首振り撮像機から撮影画像データを受信する。特定画素座標導出手段は、特定画素座標を導出する。なお、ここにいう「特定画素座標」とは、撮像画像データの特定部分の画素座標である。また、ここにいう「特定部分」とは例えば特定色の部分等である。また、「特定画素座標導出手段」としては公知の方法を利用することができる。特定情報テーブル抽出手段は、ヨー角及びピッチ角の組合せ又はピッチ角を情報記憶部に照合して特定情報テーブルを抽出する。なお、ここにいう「特定情報テーブル」とは、特定の情報テーブルである。第1極座標導出手段は、特定画素座標と特定情報テーブルとを利用して第1極座標を導出する。   An object position detection apparatus according to a first aspect of the present invention includes a swing imaging machine, an information storage unit, a captured image data receiving unit, a specific pixel coordinate deriving unit, a specific information table extracting unit, and a first polar coordinate deriving unit. The head swing imaging device has a lens unit and a turning drive mechanism. The turning drive mechanism can turn the lens unit in the yaw direction and the pitch direction. The swing imaging device may be a monocular imaging device or a compound eye imaging device, but a monocular imaging device is preferable from the viewpoint of cost. An information table is stored in the information storage unit. The information table is created for each combination of the yaw angle and pitch angle of the lens unit or for each pitch angle. In this information table, the first polar coordinates are assigned to the pixel coordinates of the swing imaging device. For the distance component of the first polar coordinate, “the distance to the foot calculated in advance by taking into account the average height (the distance from the actual polar coordinate, which varies depending on the distance from the origin) has already been added or subtracted. Is registered). Further, only the portion near the center of the first polar coordinate may be replaced with the orthogonal coordinate. Further, when the first polar coordinates are the actual polar coordinates of the floor surface, the assignment to the pixel coordinates may be determined by calculation or may be determined by edge extraction by an image processing technique. The captured image data receiving unit receives captured image data from the swing imaging device. The specific pixel coordinate deriving unit derives specific pixel coordinates. Here, the “specific pixel coordinates” are pixel coordinates of a specific part of the captured image data. Further, the “specific part” mentioned here is, for example, a part of a specific color. As the “specific pixel coordinate deriving means”, a known method can be used. The specific information table extracting means collates the combination of the yaw angle and the pitch angle or the pitch angle with the information storage unit and extracts the specific information table. The “specific information table” here is a specific information table. The first polar coordinate deriving means derives the first polar coordinate using the specific pixel coordinates and the specific information table.

この物体位置検知装置では、監視カメラとして首振り撮像機が採用される。このため、この物体位置検知装置では、オフィス等の大空間居室等を監視対象とする場合であっても1台あるいは数台(オフィス空間等に遮蔽物があるような場合)の監視カメラがあれば事足りる。したがって、この物体位置検知装置は、従来よりも低コストで導入することができる。   In this object position detection device, a swing imaging device is employed as a monitoring camera. For this reason, in this object position detection device, even when a large space room such as an office is to be monitored, there may be one or several monitoring cameras (when there is a shield in the office space or the like). That's enough. Therefore, this object position detection apparatus can be introduced at a lower cost than in the past.

第2発明に係る物体位置検知装置は、第1発明に係る物体位置検知装置であって、第1極座標導出手段は、特定画素座標を特定情報テーブルに照合して第1極座標を導出する。   An object position detection apparatus according to a second aspect is the object position detection apparatus according to the first aspect, wherein the first polar coordinate deriving means derives the first polar coordinate by comparing specific pixel coordinates with a specific information table.

この物体位置検知装置では、第1極座標導出手段は、特定画素座標を特定情報テーブルに照合して第1極座標を導出する。このため、この物体位置検知装置では、迅速に第1極座標が導出される。   In the object position detection device, the first polar coordinate deriving unit derives the first polar coordinate by collating the specific pixel coordinate with the specific information table. For this reason, in this object position detection apparatus, the first polar coordinates are quickly derived.

第3発明に係る物体位置検知装置は、第1発明又は第2発明に係る物体位置検知装置であって、情報テーブルは、ピッチ角毎に作成されている。また、この情報テーブルでは、首振り撮像機の画素座標に第1極座標が割り当てられている。特定情報テーブル抽出手段は、ピッチ角を情報記憶部に照合して特定情報テーブルを抽出する。また、この物体位置検知装置は、第2極座標導出手段をさらに備える。第2極座標導出手段は、第1極座標導出手段によって導出された第1極座標の角度成分にヨー角を加算又は減算して第2極座標を導出する。   An object position detection device according to a third aspect of the invention is the object position detection device according to the first or second aspect of the invention, and the information table is created for each pitch angle. In this information table, the first polar coordinates are assigned to the pixel coordinates of the swing imaging device. The specific information table extracting means extracts the specific information table by comparing the pitch angle with the information storage unit. The object position detection device further includes second polar coordinate deriving means. The second polar coordinate deriving unit derives the second polar coordinate by adding or subtracting the yaw angle to or from the angle component of the first polar coordinate derived by the first polar coordinate deriving unit.

この物体位置検知装置では、情報テーブルが、ピッチ角毎に作成されている。そして、第2極座標導出手段が、第1極座標導出手段によって導出された第1極座標の角度成分にヨー角を加算又は減算して第2極座標を導出する。このため、この物体位置検知装置では、情報記憶部に記憶しておくべき情報テーブルの数を低減することができる。したがって、この物体位置検知装置では、記憶すべき情報の量を低減することができる。よって、この物体位置検知装置は、さらに低コストで導入することができる。   In this object position detection device, an information table is created for each pitch angle. Then, the second polar coordinate deriving unit derives the second polar coordinate by adding or subtracting the yaw angle to the angle component of the first polar coordinate derived by the first polar coordinate deriving unit. For this reason, in this object position detection apparatus, the number of information tables that should be stored in the information storage unit can be reduced. Therefore, in this object position detection device, the amount of information to be stored can be reduced. Therefore, this object position detection apparatus can be introduced at a lower cost.

第4発明に係る物体位置検知装置は、第1発明又は第2発明に係る物体位置検知装置であって、画素座標は、ヨー方向の中心部を0、又は1及び−1とする直交座標である。情報テーブルは、レンズ部のヨー角及びピッチ角の組合せ毎に又はピッチ角毎に作成されている。また、この情報テーブルでは、首振り撮像機の画素座標のうち半画素座標にのみ第1極座標が割り当てられている。なお、ここにいう「半画素座標」とは、ヨー方向の半分(ヨー方向の中心部が0である場合0を含む)の画素座標である。また、この物体位置検知装置は、第1符号変換手段をさらに備える。第1符号変換手段は、特定画素座標が半画素座標のいずれの画素座標にも一致しない場合に、特定画素座標のヨー方向成分を符号変換する。第1極座標導出手段は、特定画素座標が半画素座標のいずれの画素座標にも一致しない場合に、第1符号変換手段によってヨー方向成分が符号変換された特定画素座標を特定情報テーブルに照合して第1極座標を導出する。また、この物体位置検知装置は、第2符号変換手段をさらに備える。第2符号変換手段は、特定画素座標が半画素座標のいずれの画素座標にも一致しなかった場合に、第1極座標導出手段により導出された第1極座標の角度成分を符号変換する。   An object position detection device according to a fourth aspect of the present invention is the object position detection device according to the first or second aspect of the present invention, wherein the pixel coordinates are orthogonal coordinates with the central portion in the yaw direction being 0, 1 or −1. is there. The information table is created for each combination of the yaw angle and pitch angle of the lens unit or for each pitch angle. In this information table, the first polar coordinates are assigned only to the half-pixel coordinates among the pixel coordinates of the swing imaging device. Here, the “half pixel coordinates” are pixel coordinates that are half of the yaw direction (including 0 when the center in the yaw direction is 0). The object position detection device further includes first code conversion means. The first code conversion means performs code conversion of the yaw direction component of the specific pixel coordinate when the specific pixel coordinate does not match any of the pixel coordinates of the half pixel coordinate. The first polar coordinate deriving unit collates the specific pixel coordinate whose yaw direction component is code-converted by the first code converting unit with the specific information table when the specific pixel coordinate does not coincide with any of the half-pixel coordinates. To derive the first polar coordinate. The object position detection device further includes second code conversion means. The second code converting means converts the angle component of the first polar coordinate derived by the first polar coordinate deriving means when the specific pixel coordinate does not match any of the half-pixel coordinates.

この物体位置検知装置では、情報テーブルにおいて首振り撮像機の画素座標のうち半画素座標にのみ第1極座標が割り当てられている。このため、この物体位置検知装置では、画素座標に割り当てる極座標の数を低減することができる。したがって、この物体位置検知装置では、記憶すべき情報の量を低減することができる。よって、この物体位置検知装置は、さらに低コストで導入することができる。   In this object position detection device, the first polar coordinates are assigned only to the half pixel coordinates among the pixel coordinates of the swing imaging device in the information table. For this reason, in this object position detection apparatus, the number of polar coordinates assigned to pixel coordinates can be reduced. Therefore, in this object position detection device, the amount of information to be stored can be reduced. Therefore, this object position detection apparatus can be introduced at a lower cost.

第5発明に係る物体位置検知装置は、第1発明又は第2発明に係る物体位置検知装置であって、画素座標は、ヨー方向の中心部を0、又は1及び−1とする直交座標である。情報テーブルは、レンズ部のヨー角及びピッチ角の組合せ毎に又はピッチ角毎に作成されている。また、この情報テーブルでは、首振り撮像機の画素座標のうちヨー方向のプラス側の画素座標(ヨー方向の中心部が0である場合0を含む)にのみ第1極座標が割り当てられている。また、この物体位置検知装置は、絶対値化手段をさらに備える。絶対値化手段は、特定画素座標のヨー方向成分を絶対値化する。第1極座標導出手段は、絶対値化手段によってヨー方向成分が絶対値化された特定画素座標を、特定情報テーブルに照合して第1極座標を導出する。また、この物体位置検知装置は、ヨー方向成分符号判定手段及び第3符号変換手段をさらに備える。ヨー方向成分符号判定手段は、特定画素座標のヨー方向成分がマイナス値であるか否かを判定する。第3符号変換手段は、ヨー方向成分符号判定手段により特定画素座標のヨー方向成分がマイナス値であると判定された場合に、第1極座標導出手段により導出された第1極座標の角度成分を符号変換する。   An object position detection device according to a fifth aspect of the present invention is the object position detection device according to the first or second aspect of the present invention, wherein the pixel coordinates are orthogonal coordinates in which the center of the yaw direction is 0, 1 or −1. is there. The information table is created for each combination of the yaw angle and pitch angle of the lens unit or for each pitch angle. Further, in this information table, the first polar coordinates are assigned only to the pixel coordinates on the plus side in the yaw direction (including 0 when the central portion in the yaw direction is 0) among the pixel coordinates of the swing imaging device. The object position detection device further includes absolute value converting means. The absolute value converting means converts the yaw direction component of the specific pixel coordinate into an absolute value. The first polar coordinate deriving unit derives the first polar coordinate by collating the specific pixel coordinates whose absolute value is the yaw direction component by the absolute value converting unit with the specific information table. The object position detection device further includes a yaw direction component code determination unit and a third code conversion unit. The yaw direction component code determination means determines whether or not the yaw direction component of the specific pixel coordinate is a negative value. The third code conversion unit codes the angle component of the first polar coordinate derived by the first polar coordinate deriving unit when the yaw direction component of the specific pixel coordinate is determined to be a negative value by the yaw direction component code determination unit. Convert.

この物体位置検知装置では、情報テーブルにおいて首振り撮像機の画素座標のうちヨー方向のプラス側の画素座標(ヨー方向の中心部が0である場合0を含む)にのみ第1極座標が割り当てられている。このため、この物体位置検知装置では、画素座標に割り当てる極座標の数を低減することができる。したがって、この物体位置検知装置では、記憶すべき情報の量を低減することができる。よって、この物体位置検知装置は、さらに低コストで導入することができる。   In this object position detection device, the first polar coordinates are assigned only to the pixel coordinates on the plus side in the yaw direction (including 0 when the center in the yaw direction is 0) among the pixel coordinates of the swing imaging device in the information table. ing. For this reason, in this object position detection apparatus, the number of polar coordinates assigned to pixel coordinates can be reduced. Therefore, in this object position detection device, the amount of information to be stored can be reduced. Therefore, this object position detection apparatus can be introduced at a lower cost.

第6発明に係る物体位置検知装置は、第4発明又は第5発明に係る物体位置検知装置であって、情報テーブルは、ピッチ角毎に作成されている。特定情報テーブル抽出手段は、ピッチ角を情報記憶部に照合して特定情報テーブルを抽出する。また、この物体位置検知装置は、第3極座標導出手段をさらに備える。第3極座標導出手段は、第2符号変換手段又は第3符号変換手段によって符号変換された第1極座標の角度成分にヨー角を加算又は減算して第3極座標を導出する。   The object position detection device according to a sixth aspect of the invention is the object position detection device according to the fourth or fifth aspect of the invention, and the information table is created for each pitch angle. The specific information table extracting means extracts the specific information table by comparing the pitch angle with the information storage unit. The object position detection device further includes third polar coordinate deriving means. The third polar coordinate deriving unit derives the third polar coordinate by adding or subtracting the yaw angle to or from the angle component of the first polar coordinate converted by the second code converting unit or the third code converting unit.

この物体位置検知装置では、情報テーブルが、ピッチ角毎に作成されている。そして、第3極座標導出手段が、第2符号変換手段又は第3符号変換手段によって符号変換された第1極座標の角度成分にヨー角を加算又は減算して第3極座標を導出する。このため、この物体位置検知装置では、情報記憶部に記憶しておくべき情報テーブルの数を低減することができる。したがって、この物体位置検知装置では、記憶すべき情報の量を低減することができる。よって、この物体位置検知装置は、さらに低コストで導入することができる。   In this object position detection device, an information table is created for each pitch angle. Then, the third polar coordinate deriving unit derives the third polar coordinate by adding or subtracting the yaw angle to or from the angle component of the first polar coordinate converted by the second code converting unit or the third code converting unit. For this reason, in this object position detection apparatus, the number of information tables that should be stored in the information storage unit can be reduced. Therefore, in this object position detection device, the amount of information to be stored can be reduced. Therefore, this object position detection apparatus can be introduced at a lower cost.

第7発明に係る物体位置検知装置は、魚眼撮像機、情報記憶部、撮像画像データ受信部、特定画素座標導出手段及び第11極座標導出手段を備える。情報記憶部には、情報テーブルが記憶される。また、この情報テーブルでは、魚眼撮像機の画素座標に第11極座標が割り当てられる。なお、第11極座標の距離成分には「予め平均身長を加味した距離(実際の極座標における距離から所定の距離(原点から距離に依存して変化する)を既に足したり引いたりしたもの)」が登録される。撮像画像データ受信部は、魚眼撮像機から撮影画像データを受信する。特定画素座標導出手段は、特定画素座標を導出する。なお、ここにいう「特定画素座標」とは、撮像画像データの特定部分の画素座標である。第11極座標導出手段は、特定画素座標を情報テーブルに照合して第11極座標を導出する。   An object position detection apparatus according to a seventh aspect includes a fish-eye imager, an information storage unit, a captured image data receiving unit, a specific pixel coordinate deriving unit, and an eleventh polar coordinate deriving unit. An information table is stored in the information storage unit. In this information table, eleventh polar coordinates are assigned to the pixel coordinates of the fish-eye imager. The distance component of the eleventh polar coordinate is “a distance that takes into account the average height in advance (a value obtained by adding or subtracting a predetermined distance (which varies depending on the distance from the origin) from the actual polar coordinate distance)”. be registered. The captured image data receiving unit receives captured image data from the fisheye imager. The specific pixel coordinate deriving unit derives specific pixel coordinates. Here, the “specific pixel coordinates” are pixel coordinates of a specific part of the captured image data. The eleventh polar coordinate deriving means derives the eleventh polar coordinate by collating the specific pixel coordinate with the information table.

この物体位置検知装置では、監視カメラとして魚眼撮像機が採用される。このため、この物体位置検知装置では、オフィス等の大空間居室等を監視対象とする場合であっても1台あるいは数台(オフィス空間等に遮蔽物があるような場合)の監視カメラがあれば事足りる。したがって、この物体位置検知装置は、従来よりも低コストで導入することができる。   In this object position detection device, a fish-eye imager is employed as a monitoring camera. For this reason, in this object position detection device, even when a large space room such as an office is to be monitored, there may be one or several monitoring cameras (when there is a shield in the office space or the like). That's enough. Therefore, this object position detection apparatus can be introduced at a lower cost than in the past.

第8発明に係る物体位置検知装置は、第7発明に係る物体位置検知装置であって、画素座標は、水平方向又は垂直方向の中心部を0、又は1及び−1とする直交座標である。情報テーブルでは、魚眼撮像機の画素座標のうち半画素座標にのみ第11極座標が割り当てられる。なお、ここにいう「半画素座標」とは、水平方向又は垂直方向の半分(水平方向又は垂直方向の中心部が0である場合0を含む)の画素座標である。また、この物体位置検知装置は、第11符号変換手段をさらに備える。第11符号変換手段は、特定画素座標が半画素座標のいずれかの画素座標にも一致しない場合に、特定画素座標の水平成分又は垂直成分を符号変換する。第11極座標導出手段は、特定画素座標が半画素座標のいずれかの画素座標にも一致しない場合に、第11符号変換手段によって水平成分又は垂直成分が符号変換された特定画素座標を情報テーブルに照合して第11極座標を導出する。また、この物体位置検知装置は、第12符号変換手段をさらに備える。第12符号変換手段は、特定画素座標が半画素座標のいずれかの画素座標にも一致しなかった場合に、第11極座標導出手段により導出された第1極座標の角度成分を符号変換する。   An object position detection apparatus according to an eighth aspect of the present invention is the object position detection apparatus according to the seventh aspect of the present invention, wherein the pixel coordinates are orthogonal coordinates with the central part in the horizontal direction or the vertical direction being 0, 1 or −1. . In the information table, the eleventh polar coordinate is assigned only to the half pixel coordinate among the pixel coordinates of the fisheye imager. Here, the “half pixel coordinates” are pixel coordinates of a half in the horizontal direction or the vertical direction (including 0 when the center in the horizontal direction or the vertical direction is 0). The object position detection device further includes eleventh code conversion means. The eleventh code conversion means converts the horizontal component or the vertical component of the specific pixel coordinate when the specific pixel coordinate does not match any of the pixel coordinates of the half pixel coordinate. The eleventh polar coordinate deriving means stores, in the information table, the specific pixel coordinates obtained by code-converting the horizontal component or the vertical component by the eleventh code converting means when the specific pixel coordinates do not coincide with any one of the half-pixel coordinates. The eleventh polar coordinate is derived by collation. The object position detection device further includes a twelfth code conversion unit. The twelfth code converting means converts the angle component of the first polar coordinate derived by the eleventh polar coordinate deriving means when the specific pixel coordinate does not match any of the pixel coordinates of the half pixel coordinates.

この物体位置検知装置では、情報テーブルにおいて魚眼撮像機の画素座標のうち半画素座標にのみ第11極座標が割り当てられている。このため、この物体位置検知装置では、画素座標に割り当てる極座標の数を低減することができる。したがって、この物体位置検知装置では、記憶すべき情報の量を低減することができる。よって、この物体位置検知装置は、さらに低コストで導入することができる。   In this object position detection apparatus, the eleventh polar coordinate is assigned only to the half pixel coordinate among the pixel coordinates of the fisheye imager in the information table. For this reason, in this object position detection apparatus, the number of polar coordinates assigned to pixel coordinates can be reduced. Therefore, in this object position detection device, the amount of information to be stored can be reduced. Therefore, this object position detection apparatus can be introduced at a lower cost.

第9発明に係る物体位置検知装置は、第7発明に係る物体位置検知装置であって、画素座標は、水平方向又は垂直方向の中心部を0、又は1及び−1とする直交座標である。情報テーブルでは、魚眼撮像機の画素座標のうち水平方向又は垂直方向のプラス側の画素座標(水平方向又は垂直方向の中心部が0である場合0を含む)にのみ第11極座標が割り当てられる。また、この物体位置検知装置は、絶対値化手段をさらに備える。絶対値化手段は、特定画素座標の水平成分又は垂直成分を絶対値化する。第11極座標導出手段は、絶対値化手段によって水平成分又は垂直成分が絶対値化された特定画素座標を、情報テーブルに照合して第11極座標を導出する。また、この物体位置検知装置は、水平成分等符号判定手段及び第13符号変換手段をさらに備える。水平成分等符号判定手段は、特定画素座標の水平成分又は垂直成分がマイナス値であるか否かを判定する。第13符号変換手段は、水平成分等符号判定手段により特定画素座標の水平方向又は垂直方向がマイナス値であると判定された場合に、第11極座標導出手段により導出された第11極座標の角度成分を符号変換する。   An object position detection device according to a ninth aspect is the object position detection device according to the seventh aspect, wherein the pixel coordinates are orthogonal coordinates with the center portion in the horizontal direction or the vertical direction being 0, 1 or −1. . In the information table, the eleventh polar coordinate is assigned only to the pixel coordinate on the plus side in the horizontal direction or the vertical direction (including 0 when the center in the horizontal direction or the vertical direction is 0) among the pixel coordinates of the fisheye imager. . The object position detection device further includes absolute value converting means. The absolute value converting means converts the horizontal component or vertical component of the specific pixel coordinate into an absolute value. The eleventh polar coordinate deriving means derives the eleventh polar coordinate by collating the specific pixel coordinates whose horizontal component or vertical component is absolute valued by the absolute value converting means with the information table. The object position detection apparatus further includes a horizontal component equality code determination unit and a thirteenth code conversion unit. The horizontal component etc. sign determination means determines whether the horizontal component or the vertical component of the specific pixel coordinate is a negative value. The thirteenth code conversion means determines the angle component of the eleventh polar coordinate derived by the eleventh polar coordinate derivation means when the horizontal or vertical direction of the specific pixel coordinate is determined to be a negative value by the horizontal component etc. sign determination means. Is converted.

この物体位置検知装置では、情報テーブルにおいて首振り撮像機の画素座標のうち水平方向又は垂直方向のプラス側の画素座標(水平方向又は垂直方向の中心部が0である場合0を含む)にのみ第11極座標が割り当てられている。このため、この物体位置検知装置では、画素座標に割り当てる極座標の数を低減することができる。したがって、この物体位置検知装置では、記憶すべき情報の量を低減することができる。よって、この物体位置検知装置は、さらに低コストで導入することができる。   In this object position detection apparatus, only the pixel coordinates on the plus side in the horizontal direction or the vertical direction among the pixel coordinates of the swing image pickup device in the information table (including 0 when the center in the horizontal direction or the vertical direction is 0) are included. An eleventh polar coordinate is assigned. For this reason, in this object position detection apparatus, the number of polar coordinates assigned to pixel coordinates can be reduced. Therefore, in this object position detection device, the amount of information to be stored can be reduced. Therefore, this object position detection apparatus can be introduced at a lower cost.

第10発明に係る物体位置検知装置は、首振り撮像機、情報記憶部、撮影画像データ受信部、特定画素座標導出手段、特定情報テーブル抽出手段、実床極座標導出手段及び第21極座標導出手段を備える。首振り撮像機は、レンズ部及び旋回駆動機構を有する。旋回駆動機構は、レンズ部をヨー方向及びピッチ方向に旋回駆動可能である。情報記憶部には、情報テーブルが記憶される。情報テーブルは、首振り撮像機のヨー角及びピッチ角度の組合せ毎に又はピッチ角毎に作成されている。また、この情報テーブルでは、首振り撮像機の画素座標に実床極座標が割り当てられる。なお、ここにいう「実床極座標」とは、実際の床面の極座標である。撮影画像データ受信部は、首振り撮像機から撮影画像データを受信する。特定画素座標導出手段は、特定画素座標を導出する。なお、ここにいう「特定画素座標」とは、撮像画像データの特定部分の画素座標である。特定情報テーブル抽出手段は、ヨー角及びピッチ角の組合せ又はピッチ角を情報テーブルに照合して特定情報テーブルを抽出する。なお、ここにいう「特定情報テーブル」とは、特定の情報テーブルである。実床極座標導出手段は、特定画素座標と特定情報テーブルとを利用して実床極座標を導出する。第21極座標導出手段は、実床極座標導出手段によって導出された実床極座標を利用して第21極座標を導出する。   An object position detection apparatus according to a tenth aspect of the present invention includes a swing imaging machine, an information storage unit, a captured image data receiving unit, a specific pixel coordinate deriving unit, a specific information table extracting unit, an actual floor polar deriving unit, and a 21st polar coordinate deriving unit. Prepare. The head swing imaging device has a lens unit and a turning drive mechanism. The turning drive mechanism can turn the lens unit in the yaw direction and the pitch direction. An information table is stored in the information storage unit. The information table is created for each combination of the yaw angle and pitch angle of the swing imaging device or for each pitch angle. In this information table, the actual floor polar coordinates are assigned to the pixel coordinates of the swing imaging device. The “actual floor polar coordinates” mentioned here are the polar coordinates of the actual floor surface. The photographed image data receiving unit receives photographed image data from the swing imaging device. The specific pixel coordinate deriving unit derives specific pixel coordinates. Here, the “specific pixel coordinates” are pixel coordinates of a specific part of the captured image data. The specific information table extracting means extracts the specific information table by collating the combination of the yaw angle and the pitch angle or the pitch angle with the information table. The “specific information table” here is a specific information table. The actual floor polar coordinate deriving means derives the actual floor polar coordinates using the specific pixel coordinates and the specific information table. The twenty-first polar coordinate deriving means derives the twenty-first polar coordinates using the actual floor polar coordinates derived by the actual floor polar coordinate deriving means.

この物体位置検知装置では、監視カメラとして首振り撮像機が採用される。このため、この物体位置検知装置では、オフィス等の大空間居室等を監視対象とする場合であっても1台あるいは数台(オフィス空間等に遮蔽物があるような場合)の監視カメラがあれば事足りる。したがって、この物体位置検知装置は、従来よりも低コストで導入することができる。また、この物体位置検知装置では、第21極座標導出手段が、実床極座標導出手段によって導出された実床極座標を利用して第21極座標を導出する。このため、この物体位置検知装置では、例えば、監視対象者個々の身長を利用して実床極座標における頭部の極座標から監視対象者個々の足下の極座標を導出することができる。したがって、この物体位置検知装置では、より精確に監視対象者の存在位置を特定することができる。   In this object position detection device, a swing imaging device is employed as a monitoring camera. For this reason, in this object position detection device, even when a large space room such as an office is to be monitored, there may be one or several monitoring cameras (when there is a shield in the office space or the like). That's enough. Therefore, this object position detection apparatus can be introduced at a lower cost than in the past. Further, in this object position detection device, the 21st polar coordinate deriving means derives the 21st polar coordinates using the actual floor polar coordinates derived by the actual floor polar coordinate deriving means. Therefore, in this object position detection device, for example, the polar coordinates of the individual feet of the monitoring subject can be derived from the polar coordinates of the head in the actual floor polar coordinates using the height of the individual of the monitoring subject. Therefore, in this object position detection apparatus, the presence position of the monitoring subject can be specified more accurately.

第11発明に係る物体位置検知装置は、第10発明に係る物体位置検知装置であって、第21極座標導出手段は、実床極座標導出手段によって導出された実床極座標の距離成分から所定の距離を加算又は減算して第21極座標を導出する。   An object position detection device according to an eleventh invention is the object position detection device according to the tenth invention, wherein the twenty-first polar coordinate deriving means is a predetermined distance from the distance component of the actual floor polar coordinate derived by the actual floor polar coordinate deriving means. Is added or subtracted to derive the 21st polar coordinate.

この物体位置検知装置では、第21極座標導出手段が、実床極座標導出手段によって導出された実床極座標の距離成分から所定の距離を加算又は減算して第21極座標を導出する。このため、この物体位置検知装置では、簡便かつ精確に監視対象者の存在位置を特定することができる。   In this object position detecting device, the 21st polar coordinate deriving means derives the 21st polar coordinate by adding or subtracting a predetermined distance from the distance component of the actual floor polar coordinate derived by the actual floor polar coordinate deriving means. For this reason, in this object position detection apparatus, the presence position of a monitoring subject can be specified simply and accurately.

第12発明に係る物体位置検知装置は、魚眼撮像機、情報記憶部、撮像画像データ受信部、特定画素座標導出手段、実床極座標導出手段及び第21極座標導出手段を備える。情報記憶部には、情報テーブルが記憶される。情報テーブルでは、魚眼撮像機の画素座標に実床極座標が割り当てられる。なお、ここにいう「実床極座標」とは、実際の床面の極座標である。撮像画像データ受信部は、魚眼撮像機から撮影画像データを受信する。特定画素座標導出手段は、特定画素座標を導出する。なお、ここにいう「特定画素座標」とは、撮像画像データの特定部分の画素座標である。実床極座標導出手段は、特定画素座標を情報テーブルに照合して実床極座標を導出する。第21極座標導出手段は、実床極座標導出手段によって導出された実床極座標を利用して第21極座標を導出する。   An object position detection apparatus according to a twelfth aspect includes a fisheye imager, an information storage unit, a captured image data receiving unit, a specific pixel coordinate deriving unit, an actual floor polar coordinate deriving unit, and a 21st polar coordinate deriving unit. An information table is stored in the information storage unit. In the information table, the actual floor polar coordinates are assigned to the pixel coordinates of the fish-eye imager. The “actual floor polar coordinates” mentioned here are the polar coordinates of the actual floor surface. The captured image data receiving unit receives captured image data from the fisheye imager. The specific pixel coordinate deriving unit derives specific pixel coordinates. Here, the “specific pixel coordinates” are pixel coordinates of a specific part of the captured image data. The actual floor polar coordinate deriving means collates the specific pixel coordinates with the information table to derive the actual floor polar coordinates. The twenty-first polar coordinate deriving means derives the twenty-first polar coordinates using the actual floor polar coordinates derived by the actual floor polar coordinate deriving means.

この物体位置検知装置では、監視カメラとして魚眼撮像機が採用される。このため、この物体位置検知装置では、オフィス等の大空間居室等を監視対象とする場合であっても1台あるいは数台(オフィス空間等に遮蔽物があるような場合)の監視カメラがあれば事足りる。したがって、この物体位置検知装置は、従来よりも低コストで導入することができる。また、この物体位置検知装置では、第21極座標導出手段が、実床極座標導出手段によって導出された実床極座標を利用して第21極座標を導出する。このため、この物体位置検知装置では、例えば、監視対象者個々の身長を利用して実床極座標における頭部の極座標から監視対象者個々の足下の極座標を導出することができる。したがって、この物体位置検知装置では、より精確に監視対象者の存在位置を特定することができる。   In this object position detection device, a fish-eye imager is employed as a monitoring camera. For this reason, in this object position detection device, even when a large space room such as an office is to be monitored, there may be one or several monitoring cameras (when there is a shield in the office space or the like). That's enough. Therefore, this object position detection apparatus can be introduced at a lower cost than in the past. Further, in this object position detection device, the 21st polar coordinate deriving means derives the 21st polar coordinates using the actual floor polar coordinates derived by the actual floor polar coordinate deriving means. Therefore, in this object position detection device, for example, the polar coordinates of the individual feet of the monitoring subject can be derived from the polar coordinates of the head in the actual floor polar coordinates using the height of the individual of the monitoring subject. Therefore, in this object position detection apparatus, the presence position of the monitoring subject can be specified more accurately.

第1発明に係る物体位置検知装置では、オフィス等の大空間居室等を監視対象とする場合であっても1台あるいは数台(オフィス空間等に遮蔽物があるような場合)の監視カメラがあれば事足りる。したがって、この物体位置検知装置は、従来よりも低コストで導入することができる。   In the object position detection device according to the first aspect of the present invention, even when a large space room such as an office is to be monitored, one or several monitoring cameras (when there is a shield in the office space or the like) If there is enough, it is enough. Therefore, this object position detection apparatus can be introduced at a lower cost than in the past.

第2発明に係る物体位置検知装置では、迅速に第1極座標が導出される。   In the object position detection apparatus according to the second aspect of the invention, the first polar coordinates are quickly derived.

第3発明に係る物体位置検知装置では、情報記憶部に記憶しておくべき情報テーブルの数を低減することができる。したがって、この物体位置検知装置では、記憶すべき情報の量を低減することができる。よって、この物体位置検知装置は、さらに低コストで導入することができる。   In the object position detection apparatus according to the third aspect of the invention, the number of information tables that should be stored in the information storage unit can be reduced. Therefore, in this object position detection device, the amount of information to be stored can be reduced. Therefore, this object position detection apparatus can be introduced at a lower cost.

第4発明に係る物体位置検知装置では、画素座標に割り当てる極座標の数を低減することができる。したがって、この物体位置検知装置では、記憶すべき情報の量を低減することができる。よって、この物体位置検知装置は、さらに低コストで導入することができる。   In the object position detection device according to the fourth aspect of the invention, the number of polar coordinates assigned to pixel coordinates can be reduced. Therefore, in this object position detection device, the amount of information to be stored can be reduced. Therefore, this object position detection apparatus can be introduced at a lower cost.

第5発明に係る物体位置検知装置では、画素座標に割り当てる極座標の数を低減することができる。したがって、この物体位置検知装置では、記憶すべき情報の量を低減することができる。よって、この物体位置検知装置は、さらに低コストで導入することができる。   In the object position detection device according to the fifth aspect of the invention, the number of polar coordinates assigned to pixel coordinates can be reduced. Therefore, in this object position detection device, the amount of information to be stored can be reduced. Therefore, this object position detection apparatus can be introduced at a lower cost.

第6発明に係る物体位置検知装置では、情報記憶部に記憶しておくべき情報テーブルの数を低減することができる。したがって、この物体位置検知装置では、記憶すべき情報の量を低減することができる。よって、この物体位置検知装置は、さらに低コストで導入することができる。   In the object position detection apparatus according to the sixth aspect of the invention, the number of information tables that should be stored in the information storage unit can be reduced. Therefore, in this object position detection device, the amount of information to be stored can be reduced. Therefore, this object position detection apparatus can be introduced at a lower cost.

第7発明に係る物体位置検知装置では、オフィス等の大空間居室等を監視対象とする場合であっても1台あるいは数台(オフィス空間等に遮蔽物があるような場合)の監視カメラがあれば事足りる。したがって、この物体位置検知装置は、従来よりも低コストで導入することができる。   In the object position detection device according to the seventh aspect of the present invention, even when a large space room such as an office is to be monitored, one or several monitoring cameras (when there is a shield in the office space or the like) If there is enough, it is enough. Therefore, this object position detection apparatus can be introduced at a lower cost than in the past.

第8発明に係る物体位置検知装置では、画素座標に割り当てる極座標の数を低減することができる。したがって、この物体位置検知装置では、記憶すべき情報の量を低減することができる。よって、この物体位置検知装置は、さらに低コストで導入することができる。   In the object position detection device according to the eighth aspect of the invention, the number of polar coordinates assigned to pixel coordinates can be reduced. Therefore, in this object position detection device, the amount of information to be stored can be reduced. Therefore, this object position detection apparatus can be introduced at a lower cost.

第9発明に係る物体位置検知装置では、画素座標に割り当てる極座標の数を低減することができる。したがって、この物体位置検知装置では、記憶すべき情報の量を低減することができる。よって、この物体位置検知装置は、さらに低コストで導入することができる。   In the object position detection device according to the ninth aspect of the invention, the number of polar coordinates assigned to pixel coordinates can be reduced. Therefore, in this object position detection device, the amount of information to be stored can be reduced. Therefore, this object position detection apparatus can be introduced at a lower cost.

第10発明に係る物体位置検知装置では、オフィス等の大空間居室等を監視対象とする場合であっても1台あるいは数台(オフィス空間等に遮蔽物があるような場合)の監視カメラがあれば事足りる。したがって、この物体位置検知装置は、従来よりも低コストで導入することができる。また、この物体位置検知装置では、第21極座標導出手段が、実床極座標導出手段によって導出された実床極座標を利用して第21極座標を導出する。このため、この物体位置検知装置では、例えば、監視対象者個々の身長を利用して実床極座標における頭部の極座標から監視対象者個々の足下の極座標を導出することができる。したがって、この物体位置検知装置では、より精確に監視対象者の存在位置を特定することができる。   In the object position detection apparatus according to the tenth aspect of the invention, even when a large space room such as an office is to be monitored, one or several monitoring cameras (when there is a shield in the office space or the like) If there is enough, it is enough. Therefore, this object position detection apparatus can be introduced at a lower cost than in the past. Further, in this object position detection device, the 21st polar coordinate deriving means derives the 21st polar coordinates using the actual floor polar coordinates derived by the actual floor polar coordinate deriving means. Therefore, in this object position detection device, for example, the polar coordinates of the individual feet of the monitoring subject can be derived from the polar coordinates of the head in the actual floor polar coordinates using the height of the individual of the monitoring subject. Therefore, in this object position detection apparatus, the presence position of the monitoring subject can be specified more accurately.

第11発明に係る物体位置検知装置では、簡便かつ精確に監視対象者の存在位置を特定することができる。   With the object position detection device according to the eleventh aspect of the present invention, it is possible to specify the presence position of the monitoring subject simply and accurately.

第12発明に係る物体位置検知装置では、オフィス等の大空間居室等を監視対象とする場合であっても1台あるいは数台(オフィス空間等に遮蔽物があるような場合)の監視カメラがあれば事足りる。したがって、この物体位置検知装置は、従来よりも低コストで導入することができる。また、この物体位置検知装置では、第21極座標導出手段が、実床極座標導出手段によって導出された実床極座標を利用して第21極座標を導出する。このため、この物体位置検知装置では、例えば、監視対象者個々の身長を利用して実床極座標における頭部の極座標から監視対象者個々の足下の極座標を導出することができる。したがって、この物体位置検知装置では、より精確に監視対象者の存在位置を特定することができる。   In the object position detection apparatus according to the twelfth aspect of the present invention, even when a large space room such as an office is to be monitored, one or several monitoring cameras (when there is an obstacle in the office space or the like) If there is enough, it is enough. Therefore, this object position detection apparatus can be introduced at a lower cost than in the past. Further, in this object position detection device, the 21st polar coordinate deriving means derives the 21st polar coordinates using the actual floor polar coordinates derived by the actual floor polar coordinate deriving means. Therefore, in this object position detection device, for example, the polar coordinates of the individual feet of the monitoring subject can be derived from the polar coordinates of the head in the actual floor polar coordinates using the height of the individual of the monitoring subject. Therefore, in this object position detection apparatus, the presence position of the monitoring subject can be specified more accurately.

ここでは、図1〜図11の図面を参照しながら本発明の実施の形態に係る人位置情報導出装置1について説明する。   Here, the human position information deriving device 1 according to the embodiment of the present invention will be described with reference to the drawings of FIGS.

本発明の実施の形態に係る人位置情報導出装置1は、図1に示されるように、主に、首振り監視カメラ2及び情報処理装置3から構成されている。以下、これらの各構成要素について詳述する。   A person position information deriving device 1 according to an embodiment of the present invention is mainly composed of a head monitoring camera 2 and an information processing device 3, as shown in FIG. Hereinafter, each of these components will be described in detail.

(1)首振り監視カメラ
本実施の形態に係る首振り監視カメラ2は、図2に示されるように、単眼の監視カメラであって、主に、ボディ21、レンズ部22及び駆動機構部23から構成されている。ボディ21は、レンズ部22及び駆動機構部23を収容している。レンズ部22は駆動機構部23に取り付けられている。そして、このレンズ部22は、ボディ21が天井に取り付けられた状態において駆動機構部23により、鉛直方向に略平行な軸である第1軸X1を中心として所定の角度刻みに回転可能となっている。さらに、このレンズ部22は、駆動機構部23により、第1軸X1及びレンズ部22の光軸に直交する軸である第2軸X2を中心として所定の角度刻みに半円弧軌道上に沿って移動可能である。なお、以下、第1軸X1を中心としたレンズ部22の回転移動角度をヨー角と称し、第2軸X2を中心したレンズ部22の回転移動角度をピッチ角と称する。また、この首振り監視カメラ2の内部には、図示しないカメラ制御部が設けられている。そして、レンズ部22はこのカメラ制御部により規定のルートを周期的に移動するように設定されている。また、このカメラ制御部は、画像撮影毎にその画像データを情報処理装置3に送信するが、このとき、そのときのレンズ部22のヨー角及びピッチ角の情報も併せて送信するように設定されている。
(1) Swing monitoring camera As shown in FIG. 2, the swing monitoring camera 2 according to the present embodiment is a monocular monitoring camera, and mainly includes a body 21, a lens unit 22, and a drive mechanism unit 23. It is composed of The body 21 accommodates the lens unit 22 and the drive mechanism unit 23. The lens unit 22 is attached to the drive mechanism unit 23. The lens unit 22 can be rotated by a driving mechanism unit 23 with a predetermined angle step about a first axis X1 that is an axis substantially parallel to the vertical direction when the body 21 is attached to the ceiling. Yes. Further, the lens unit 22 is driven by the drive mechanism unit 23 along a semicircular orbit in predetermined angular increments about the first axis X1 and the second axis X2, which is an axis orthogonal to the optical axis of the lens unit 22. It is movable. Hereinafter, the rotational movement angle of the lens unit 22 around the first axis X1 is referred to as a yaw angle, and the rotational movement angle of the lens unit 22 around the second axis X2 is referred to as a pitch angle. In addition, a camera control unit (not shown) is provided inside the swing monitoring camera 2. The lens unit 22 is set so as to periodically move along a prescribed route by the camera control unit. The camera control unit transmits the image data to the information processing apparatus 3 every time an image is taken, and at this time, the camera control unit is set to transmit the yaw angle and pitch angle information of the lens unit 22 at that time. Has been.

(2)情報処理装置
本実施の形態に係る情報処理装置3は、図3に示されるように、主に、中央処理部31、メインメモリ33、ハードディスク34、接続部32、IDEインターフェイス35及びLANインターフェイス36から構成されている。なお、情報処理装置3にメンテナンスやアップデートが必要な場合は、図示しない入力装置インターフェイスやディスプレイインターフェイス等に入力装置(図示せず)やディスプレイ(図示せず)等が適宜接続される。そして、この情報処理装置3では、中央処理部31が第1バス線37を介して、メインメモリ33が第2バス線38を介して、LANインターフェイス36及びIDEインターフェイス35が第3バス線39を介して接続部32に接続されている。ここで、中央処理部31は、例えば、マイクロプロセッサと呼ばれる半導体チップ等であって、主に、制御部31A及び演算部31Bから構成される(他に1次キャッシュメモリや2次キャッシュメモリ等を含んでいてもよい)。メインメモリ33は、例えば、RAM(ランダムアクセスメモリ)等の半導体チップである。接続部32は、チップセット等の半導体チップである。なお、ハードディスク34は、外付けタイプであってもかまわない。そして、ハードディスク34には、図4に示されるように、オペレーティングシステム34a、デバイスドライバ34b及び人位置情報導出アプリケーション34cといったプログラムが格納されている。オペレーティングシステム34aは、例えば、WINDOWS(登録商標)、MAC OS(登録商標)、OS/2、UNIX(登録商標)(例えば、Linux(登録商標)等)あるいはBeOS(登録商標)等であって、各部32〜34、各種インターフェイス35,36等のハードウェア管理や、ユーザインターフェイスの提供、各種データの管理、アプリケーションの共通部分の処理等を行う。デバイスドライバ34bは、ハードディスク34及び接続部32それぞれに対して用意されている専用プログラムであって、オペレーティングシステム34aがハードディスク34及び接続部32を制御するための橋渡しを行う。人位置情報導出アプリケーション34cは、首振り監視カメラ2から得られる画像データから人の位置を検出するためのプログラムであって、主に、頭部座標導出モジュール34d及び極座標変換モジュール34eから構成されている。また、この人位置情報導出アプリケーション34cには、図5に示されるような極座標変換テーブルTm1が格納されている。なお、本実施の形態において、この極座標変換テーブルTm1は、首振り監視カメラ2のピッチ角毎に作成されている。首振り監視カメラ2のピッチ角が同一であれば、ヨー角が変化しても画素座標への極座標の割当は全く変化させる必要はないが、ヨー角が同一であってもピッチ角が変化すると画素座標への極座標の割当は大きく変化させざるを得ないからである。極座標変換テーブルTm1では、図5に示されるように、首振り監視カメラ2の画素座標が極座標に対応付けられている。なお、本実施の形態において、この画素座標と極座標との対応付けは、実際の床面の極座標及び人間の平均身長が加味されて決定されている。なお、この対応付け方法については後に詳述する。また、本実施の形態では、首振り監視カメラ2の中心画素に画素座標の原点が規定されており、図6に示されるように、画素座標のうちヨー方向成分の値が0及び正の値になる画素座標(ハッチングされた画素座標)EC1にのみ上記極座標が対応付けられている。また、このとき、角度成分が0°の極座標は、ピッチ方向成分の値が0とされている中心画素座標に割り当てられる。つまり、本実施の形態では、画素座標には角度成分が0及びプラス値となる極座標が対応付けられることになる。IDE(Integrated Drive Electronics)インターフェイス35は、ハードディスク34を接続部32に接続する。LANインターフェイス36は、イーサネット(登録商標)ケーブル4(図1及び2参照)を介して首振り監視カメラ2に通信接続される。
(2) Information processing apparatus As shown in FIG. 3, the information processing apparatus 3 according to the present embodiment mainly includes a central processing unit 31, a main memory 33, a hard disk 34, a connection unit 32, an IDE interface 35, and a LAN. The interface 36 is configured. When maintenance or update is required for the information processing device 3, an input device (not shown), a display (not shown), or the like is appropriately connected to an input device interface or a display interface (not shown). In the information processing apparatus 3, the central processing unit 31 passes the first bus line 37, the main memory 33 passes the second bus line 38, and the LAN interface 36 and the IDE interface 35 pass the third bus line 39. To the connection part 32. Here, the central processing unit 31 is, for example, a semiconductor chip called a microprocessor, and mainly includes a control unit 31A and a calculation unit 31B (in addition to a primary cache memory, a secondary cache memory, and the like). May be included). The main memory 33 is, for example, a semiconductor chip such as a RAM (Random Access Memory). The connection unit 32 is a semiconductor chip such as a chip set. The hard disk 34 may be an external type. As shown in FIG. 4, the hard disk 34 stores programs such as an operating system 34a, a device driver 34b, and a human position information deriving application 34c. The operating system 34a is, for example, WINDOWS (registered trademark), MAC OS (registered trademark), OS / 2, UNIX (registered trademark) (for example, Linux (registered trademark)) or BeOS (registered trademark). It performs hardware management of the units 32 to 34 and various interfaces 35 and 36, provision of a user interface, management of various data, processing of common parts of applications, and the like. The device driver 34 b is a dedicated program prepared for each of the hard disk 34 and the connection unit 32, and performs a bridge for the operating system 34 a to control the hard disk 34 and the connection unit 32. The person position information deriving application 34c is a program for detecting the position of a person from the image data obtained from the head monitoring camera 2, and mainly includes a head coordinate deriving module 34d and a polar coordinate conversion module 34e. Yes. The person position information deriving application 34c stores a polar coordinate conversion table Tm1 as shown in FIG. In the present embodiment, the polar coordinate conversion table Tm1 is created for each pitch angle of the swing monitoring camera 2. If the pitch angle of the head surveillance camera 2 is the same, it is not necessary to change the allocation of polar coordinates to pixel coordinates even if the yaw angle changes, but if the pitch angle changes even if the yaw angle is the same. This is because the assignment of polar coordinates to pixel coordinates must be changed greatly. In the polar coordinate conversion table Tm1, as shown in FIG. 5, the pixel coordinates of the head monitoring camera 2 are associated with polar coordinates. In the present embodiment, the association between the pixel coordinates and the polar coordinates is determined in consideration of the actual polar coordinates of the floor surface and the average height of a person. This association method will be described in detail later. In the present embodiment, the origin of the pixel coordinates is defined at the center pixel of the swing monitoring camera 2, and the value of the yaw direction component of the pixel coordinates is 0 and a positive value as shown in FIG. The polar coordinates are associated only with the pixel coordinates (hatched pixel coordinates) EC1. At this time, polar coordinates having an angle component of 0 ° are assigned to center pixel coordinates having a pitch direction component value of 0. That is, in the present embodiment, polar coordinates having an angle component of 0 and a positive value are associated with pixel coordinates. An IDE (Integrated Drive Electronics) interface 35 connects the hard disk 34 to the connection unit 32. The LAN interface 36 is communicatively connected to the head surveillance camera 2 via the Ethernet (registered trademark) cable 4 (see FIGS. 1 and 2).

次に、図7を用いて情報処理装置3の動作について説明する。   Next, the operation of the information processing apparatus 3 will be described with reference to FIG.

制御部31Aは、図7に示されるように、メインメモリ33に一時記憶されるプログラムを読み込み(Fd5参照)、読み込んだプログラムに従って各部32〜34に動作を指示する(Fc1〜Fc3参照)。演算部31Bは、制御部31Aの命令に従ってメインメモリ33から必要なデータを取得して(Fd1参照)演算処理(例えば、算術演算処理や論理演算処理等)を行う。メインメモリ33は、プログラムやデータ等をハードディスク34から取得して(Fd3参照)一時記憶したり、演算部31Bや首振り監視カメラ2から送信されるデータ(Fd2及びFd7参照)を一時記憶したりする。また、このメインメモリ33は、制御部31Aの命令に応じて一時記憶しているデータ等を各部32〜34及び首振り監視カメラ2に送信する(Fd1、Fd4及びFd6参照)。ハードディスク34は、制御部31Aの命令に応じてメインメモリ33にプログラムやデータ等を供給したり(Fd3参照)メインメモリ33から送信されるデータ等を格納したりする(Fd4参照)。   As shown in FIG. 7, the control unit 31A reads a program temporarily stored in the main memory 33 (see Fd5), and instructs the units 32 to 34 according to the read program (see Fc1 to Fc3). The calculation unit 31B acquires necessary data from the main memory 33 according to the instruction of the control unit 31A (see Fd1) and performs calculation processing (for example, arithmetic calculation processing, logical calculation processing, etc.). The main memory 33 acquires programs and data from the hard disk 34 (see Fd3) and temporarily stores them, and temporarily stores data (see Fd2 and Fd7) transmitted from the calculation unit 31B and the swing monitoring camera 2. To do. In addition, the main memory 33 transmits data or the like temporarily stored in accordance with an instruction from the control unit 31A to the units 32 to 34 and the swing monitoring camera 2 (see Fd1, Fd4, and Fd6). The hard disk 34 supplies a program, data, and the like to the main memory 33 (see Fd3) and stores data transmitted from the main memory 33 (see Fd4) in accordance with an instruction from the control unit 31A.

<首振り監視カメラの画素座標と極座標との対応付け方法>
本実施の形態において首振り監視カメラの画素座標と極座標との対応付けは以下のようにして実施される。
<Method for associating pixel coordinates and polar coordinates of the head surveillance camera>
In the present embodiment, the association between the pixel coordinates and the polar coordinates of the head monitoring camera is performed as follows.

先ず、監視対象となる居室RMの広さよりも大きめの極座標マット50(図8参照)を作製する。次に、極座標マット50を、湾曲させることなく支持することができる板部材を居室RMに敷く。続いて、極座標マット50を監視対象となる居室に持ち込み、板部材の上に極座標マット50を広げる。なお、このとき、極座標の中心点(距離成分が0となる点)が首振り監視カメラ2の真下に来るように、極座標マット50が設置される。続いて、板部材に支持された極座標マット50を平均身長高さまで持ち上げる。そして、この状態で、首振り監視カメラ2を作動させ、異なるピッチ角毎に撮像を行う。なお、このとき、極座標マット50における放射線のうちの1本が撮影画像の中心を通るように撮像が行われる。この後、情報処理装置3においてエッジ抽出画像処理が実行され、極座標マット50の交点部分に対応する画素座標が導出される。そして、この画素座標にその交点部分の極座標を割り当てる。なお、極座標マット50の作製時にその極座標の目盛りの刻み等は決定されているので、極座標マット50上の交点座標は一義的に決まっている。全ての極座標マット50の交点部分が画素座標に割り当てられた後、極座標が割り当てられた画素座標に基づいて残りの画素座標に極座標が割り当てられる。なお、このとき、この割当を手動で行ってもよいし、コンピュータ技術を用いて自動的におこなってもよい。   First, a polar coordinate mat 50 (see FIG. 8) larger than the size of the room RM to be monitored is produced. Next, a plate member capable of supporting the polar coordinate mat 50 without being curved is laid in the room RM. Subsequently, the polar mat 50 is brought into the room to be monitored, and the polar mat 50 is spread on the plate member. At this time, the polar coordinate mat 50 is installed so that the center point of the polar coordinates (the point at which the distance component is 0) is directly below the swing monitoring camera 2. Subsequently, the polar mat 50 supported by the plate member is lifted to the average height. Then, in this state, the head monitoring camera 2 is operated, and images are taken at different pitch angles. At this time, imaging is performed so that one of the radiation in the polar mat 50 passes through the center of the captured image. Thereafter, edge extraction image processing is executed in the information processing apparatus 3, and pixel coordinates corresponding to the intersection portion of the polar coordinate mat 50 are derived. Then, polar coordinates of the intersection are assigned to the pixel coordinates. In addition, since the step of the polar coordinate scale is determined when the polar coordinate mat 50 is manufactured, the intersection coordinates on the polar coordinate mat 50 are uniquely determined. After intersections of all polar coordinate mats 50 are assigned to pixel coordinates, polar coordinates are assigned to the remaining pixel coordinates based on the pixel coordinates to which polar coordinates are assigned. At this time, this allocation may be performed manually or automatically using computer technology.

<人位置情報導出処理>
本発明の実施の形態に係る人位置情報導出装置1では、図9に示されるフローチャートに従って絶対値化処理が実行され、図10に示されるフローチャートに従って極座標変換テーブル特定処理が実行され、図11に示されるフローチャートに従って人位置情報導出処理が実行される。なお、この人位置情報導出装置1では、首振り監視カメラ2から画像データ、ヨー角データ及びピッチ角データが送信される度にこれらの処理が実行されている。
<People location information derivation process>
In the human position information deriving device 1 according to the embodiment of the present invention, absolute value conversion processing is executed according to the flowchart shown in FIG. 9, polar coordinate conversion table specifying processing is executed according to the flowchart shown in FIG. The human position information derivation process is executed according to the flowchart shown. In the human position information deriving device 1, these processes are executed every time image data, yaw angle data, and pitch angle data are transmitted from the head monitoring camera 2.

図9において、ステップS1では、情報処理装置3は、首振り監視カメラ2から画像データを受信すると、その画像データ上の黒色部分の位置データ(以下「頭部位置データ」という)を導出する。なお、このステップS1の処理は従来の頭部検出技術(例えば、特開2003−189295号公報や、Dana H. Ballard, Christopher M. Brown著,福村晃夫 [ほか] 訳,「コンピュータビジョン」,日本コンピュータ協会等参照)に従って行われる。具体的には、画像データの二値化後にエッジ抽出処理をしハフ変換により頭部を検出する方法や、フレーム差分による頭部検出後に頭部領域でRGBをHIS変換してHue値(色相)の最大値の重心を頭部座標とする方法(SONY社の技術)等が挙げられる。   In FIG. 9, in step S <b> 1, when the information processing device 3 receives image data from the head monitoring camera 2, the information processing device 3 derives position data (hereinafter referred to as “head position data”) of the black portion on the image data. The process of step S1 is performed by conventional head detection technology (for example, Japanese Patent Application Laid-Open No. 2003-189295, Dana H. Ballard, Christopher M. Brown, Yasuo Fukumura [etc.], “Computer Vision”, Japan. (See Computer Association etc.) Specifically, a method of performing edge extraction processing after binarization of image data and detecting the head by Hough transform, or HIS conversion of RGB in the head region after detecting the head by frame difference and a Hue value (hue) And a method using the center of gravity of the maximum value of the head as a head coordinate (a technology of Sony Corporation).

ステップS2では、情報処理装置3が、頭部位置データのヨー方向成分を絶対値化する。なお、以下、ヨー方向成分が絶対値化された頭部位置データを変換頭部位置データという。   In step S2, the information processing device 3 converts the yaw direction component of the head position data into an absolute value. Hereinafter, head position data in which the yaw direction component is converted into an absolute value is referred to as converted head position data.

ステップS3では、情報処理装置3が、頭部位置データ及び変換頭部位置データをメインメモリ33に一時記憶する。   In step S <b> 3, the information processing device 3 temporarily stores the head position data and the converted head position data in the main memory 33.

また、図10において、ステップS11では、情報処理装置3は、首振り監視カメラ2からピッチ角データを受信すると、複数の極座標変換テーブルTm1から、ステップS11において受信したピッチ角データに対応する極座標変換テーブルTm1を抽出する。   In FIG. 10, in step S11, when the information processing device 3 receives the pitch angle data from the swing monitoring camera 2, from the plurality of polar coordinate conversion tables Tm1, the polar coordinate conversion corresponding to the pitch angle data received in step S11. The table Tm1 is extracted.

ステップS12では、情報処理装置3が、ステップS11において抽出された極座標変換テーブルTm1をメインメモリ33に一時記憶する。   In step S12, the information processing apparatus 3 temporarily stores the polar coordinate conversion table Tm1 extracted in step S11 in the main memory 33.

また、図11において、ステップS21では、情報処理装置3は、ステップS3においてメインメモリ33に一時記憶された変換頭部位置データを読み出し、その変換頭部位置データを、ステップS12においてメインメモリ33に一時記憶された極座標変換テーブルTm1に照合して極座標データに変換する。   In FIG. 11, in step S21, the information processing device 3 reads the converted head position data temporarily stored in the main memory 33 in step S3, and stores the converted head position data in the main memory 33 in step S12. The data is converted into polar coordinate data by collating with the temporarily stored polar coordinate conversion table Tm1.

ステップS22では、情報処理装置3は、ステップS3においてメインメモリ33に一時記憶された頭部位置データを読み出し、その頭部位置データのヨー方向成分がマイナス値であるか否かを判定する。ステップS22の情報処理装置3の判定の結果、頭部位置データのヨー方向成分がマイナス値である場合、処理はステップS23に移る。一方、ステップS22の情報処理装置3の判定の結果、頭部位置データのヨー方向成分がマイナス値でない場合、つまり、頭部位置データのヨー方向成分が0であるか又はプラス値である場合、処理はステップS24に移る。   In step S22, the information processing apparatus 3 reads the head position data temporarily stored in the main memory 33 in step S3, and determines whether or not the yaw direction component of the head position data is a negative value. As a result of the determination by the information processing device 3 in step S22, when the yaw direction component of the head position data is a negative value, the process proceeds to step S23. On the other hand, when the yaw direction component of the head position data is not a negative value as a result of the determination by the information processing device 3 in step S22, that is, when the yaw direction component of the head position data is 0 or a positive value, The processing moves to step S24.

ステップS23では、情報処理装置3が、ステップS21において導出された極座標データの角度成分を符号変換する。   In step S23, the information processing apparatus 3 performs code conversion on the angle component of the polar coordinate data derived in step S21.

ステップS24では、情報処理装置3が、ステップS21において導出された極座標データ又はステップS23において導出された極座標データの角度成分に、首振り監視カメラ2から送られてきたヨー角を加算する。   In step S24, the information processing apparatus 3 adds the yaw angle sent from the swing monitoring camera 2 to the polar coordinate data derived in step S21 or the angle component of the polar coordinate data derived in step S23.

ステップS25では、情報処理装置3が、ステップS24において導出された極座標データをハードディスク34に記憶する。   In step S25, the information processing apparatus 3 stores the polar coordinate data derived in step S24 in the hard disk 34.

<極座標から直交座標への変換処理>
ステップS25において導出された極座標データ(r,θ)は、以下の式(1)により直交座標データ(x,y)に変換することができる。なお、ここで、rは床面のカメラ対応位置からの距離であり、θは床面のカメラ対応位置を中心とする角度である。
<Conversion processing from polar coordinates to Cartesian coordinates>
The polar coordinate data (r, θ) derived in step S25 can be converted into orthogonal coordinate data (x, y) by the following equation (1). Here, r is the distance from the camera-corresponding position on the floor, and θ is an angle centered on the camera-corresponding position on the floor.

(x,y)=(rcosθ,rsinθ) (1)   (X, y) = (r cos θ, r sin θ) (1)

<人位置データの可視化>
上記のように画像データを極座標に基づいて合成し、その画像データ上に人位置データをプロットすれば、その居室における人の分布図が得られる。
<Visualization of human location data>
As described above, if the image data is synthesized based on the polar coordinates and the human position data is plotted on the image data, a distribution map of people in the room can be obtained.

<人位置情報導出装置の特徴>
(1)
本実施の形態に係る人位置情報導出装置1では、監視カメラとして首振り監視カメラ2が採用される。このため、この人位置情報導出装置1では、オフィス等の大空間居室等を監視対象とする場合であっても1台あるいは数台(オフィス空間等に遮蔽物があるような場合)の監視カメラがあれば事足りる。したがって、この人位置情報導出装置1は、従来よりも低コストで導入することができる。
<Features of human position information deriving device>
(1)
In the human position information deriving device 1 according to the present embodiment, a head surveillance camera 2 is employed as the surveillance camera. For this reason, in this person position information deriving device 1, even when a large space room such as an office is to be monitored, one or several monitoring cameras (when there is an obstacle in the office space or the like) If there is, it is enough. Therefore, this person position information deriving device 1 can be introduced at a lower cost than in the past.

(2)
本実施の形態に係る人位置情報導出装置1では単眼の首振り監視カメラ2が採用される。このため、この人位置情報導出装置1では、ステレオ監視カメラや多眼監視カメラで問題となるオクルージョン現象(監視カメラの位置によって見える部分と見えない部分とが生じる現象)が問題とならない。
(2)
In the human position information deriving device 1 according to the present embodiment, a monocular swing monitoring camera 2 is employed. For this reason, in this human position information deriving device 1, the occlusion phenomenon (a phenomenon in which a portion that can be seen and a portion that cannot be seen depending on the position of the surveillance camera) that is a problem in a stereo surveillance camera or a multi-view surveillance camera does not matter.

(3)
本実施の形態に係る人位置情報導出装置1では、極座標変換テーブルTm1において首振り監視カメラ2の画素座標のうちヨー方向のプラス側の画素座標(ヨー方向の中心部が0である場合0を含む)にのみ極座標が割り当てられている。また、この人位置情報導出装置1では、情報処理装置3が、頭部位置データのヨー方向成分を絶対値化し、そのヨー方向成分を絶対値化した頭部位置データを極座標変換テーブルTm1に照合して極座標データに導出する。そして、この人位置情報導出装置1では、さらに、情報処理装置3が、頭部位置データのヨー方向成分がマイナス値であるか否かを判定し、頭部位置データのヨー方向成分がマイナス値である場合に、ステップS21において導出された極座標データの角度成分を符号変換する。つまり、この人位置情報導出装置1では、画素座標に割り当てる極座標の数が低減されている。このため、この人位置情報導出装置1では、記憶すべき情報の量が低減されている。したがって、この人位置情報導出装置1は、低コストで導入することができる。
(3)
In the human position information deriving device 1 according to the present embodiment, in the polar coordinate conversion table Tm1, the pixel coordinates on the plus side in the yaw direction out of the pixel coordinates of the head monitoring camera 2 (0 when the center in the yaw direction is 0). Polar coordinates are assigned only to (including). In the human position information deriving device 1, the information processing device 3 converts the yaw direction component of the head position data into an absolute value and collates the head position data obtained by converting the yaw direction component into an absolute value against the polar coordinate conversion table Tm1. To polar coordinate data. In the human position information deriving device 1, the information processing device 3 further determines whether or not the yaw direction component of the head position data is a negative value, and the yaw direction component of the head position data is a negative value. If it is, the angle component of the polar coordinate data derived in step S21 is sign-converted. That is, in the human position information deriving device 1, the number of polar coordinates assigned to the pixel coordinates is reduced. For this reason, in this person position information deriving device 1, the amount of information to be stored is reduced. Therefore, this person position information deriving device 1 can be introduced at low cost.

(4)
本実施の形態に係る人位置情報導出装置1では、極座標変換テーブルTm1が、ピッチ角毎に作成されている。そして、この人位置情報導出装置1では、情報処理装置3が、首振り監視カメラ2からピッチ角データを受信すると、複数の極座標変換テーブルTm1から、ステップS11において受信したピッチ角データに対応する極座標変換テーブルTm1を抽出する。そして、この人位置情報導出装置1では、情報処理装置3が、ステップS21において導出された極座標データ又はステップS23において導出された極座標データの角度成分に、首振り監視カメラ2から送られてきたヨー角を加算する。つまり、この人位置情報導出装置1では、ハードディスク34に記憶しておくべき極座標変換テーブルTm1の数が低減される。このため、この人位置情報導出装置1では、記憶すべき情報の量が低減される。したがって、この人位置情報導出装置1は、コストで導入することができる。
(4)
In the human position information deriving device 1 according to the present embodiment, a polar coordinate conversion table Tm1 is created for each pitch angle. In the human position information deriving device 1, when the information processing device 3 receives the pitch angle data from the head monitoring camera 2, the polar coordinates corresponding to the pitch angle data received in step S11 from the plurality of polar coordinate conversion tables Tm1. The conversion table Tm1 is extracted. In the human position information deriving device 1, the information processing device 3 transmits the yaw sent from the head monitoring camera 2 to the polar coordinate data derived in step S21 or the angle component of the polar coordinate data derived in step S23. Add corners. That is, in the human position information deriving device 1, the number of polar coordinate conversion tables Tm1 that should be stored in the hard disk 34 is reduced. For this reason, in this person position information deriving device 1, the amount of information to be stored is reduced. Therefore, this person position information deriving device 1 can be introduced at a cost.

<変形例>
(A)
先の実施の形態に係る人位置情報導出装置1では単眼の首振り監視カメラ2が採用されたが、監視カメラとして図12に示されるような複眼の首振り監視カメラ102が採用されてもかまわない。
<Modification>
(A)
In the human position information deriving device 1 according to the previous embodiment, the single-lens swing monitoring camera 2 is employed, but a compound-eye swing monitoring camera 102 as shown in FIG. 12 may be employed as the surveillance camera. Absent.

(B)
先の実施の形態に係る人位置情報導出装置1では単眼の首振り監視カメラ2が採用されたが、監視カメラとして魚眼監視カメラが採用されてもかまわない。かかる場合、居室の全床面が一度に撮像される。このため、極座標変換テーブルは1つしか必要とされない。また、かかる場合、画素座標のうち水平成分の値が0又は正の値になる画素座標にのみ極座標が対応付けられてもよいし、画素座標のうち垂直成分の値が0又は正の値になる画素座標にのみ極座標が対応付けられてもよいし、全画素座標に極座標が対応付けられてもかまわない。
(B)
In the human position information deriving device 1 according to the previous embodiment, the monocular swing monitoring camera 2 is employed, but a fish-eye surveillance camera may be employed as the surveillance camera. In such a case, the entire floor of the living room is imaged at once. For this reason, only one polar coordinate conversion table is required. In such a case, polar coordinates may be associated only with pixel coordinates in which the horizontal component value is 0 or a positive value in the pixel coordinates, and in the pixel coordinates, the vertical component value is 0 or a positive value. Polar coordinates may be associated only with the pixel coordinates, or polar coordinates may be associated with all pixel coordinates.

(C)
先の実施の形態に係る人位置情報導出装置1では中心画素座標のヨー方向成分が0とされたが、首振り監視カメラ2のヨー方向の画素数が偶数個である場合には、図13に示されるように中心画素座標のヨー方向成分が1及び−1とされてもかまわない。
(C)
In the human position information deriving device 1 according to the previous embodiment, the yaw direction component of the central pixel coordinate is set to 0, but when the number of pixels in the yaw direction of the head monitoring camera 2 is an even number, FIG. The yaw direction component of the center pixel coordinate may be set to 1 and −1 as shown in FIG.

(D)
先の実施の形態に係る人位置情報導出装置1では首振り監視カメラ2の画素座標のうちヨー方向成分の値が0及び正の値になる画素座標(ハッチングされた画素座標)EC1にのみ極座標が対応付けられていたが、全画素座標に極座標が対応付けられてもかまわない。なお、かかる場合、記憶すべき情報の量が多くなる。
(D)
In the human position information deriving device 1 according to the previous embodiment, only the pixel coordinates (hatched pixel coordinates) EC1 in which the value of the yaw direction component is 0 and positive among the pixel coordinates of the head monitoring camera 2 are polar coordinates. Are associated with each other, but polar coordinates may be associated with all pixel coordinates. In such a case, the amount of information to be stored increases.

(E)
先の実施の形態に係る人位置情報導出装置1では首振り監視カメラ2の中心画素に画素座標の原点が規定されていたが、画素座標の原点は、プラス値をとるヨー方向成分の数がマイナス値をとるヨー方向成分の数よりも多くなるという制限が遵守される限りにおいて、自由に規定されてよい。
(E)
In the human position information deriving device 1 according to the previous embodiment, the origin of the pixel coordinates is defined for the central pixel of the swing monitoring camera 2. However, the origin of the pixel coordinates is the number of yaw direction components having a positive value. It may be freely defined as long as the restriction that it exceeds the number of yaw direction components taking a negative value is observed.

(F)
先の実施の形態に係る人位置情報導出装置1では絶対値化処理が実行されたが、絶対値化処理をなくし、人位置情報導出処理を図14に示されるフローチャートに従って実行するようにしてもよい。なお、かかる場合、情報処理装置3は、予め頭部位置データを導出し、その頭部位置データをメインメモリ33に一時記憶しておく。
(F)
In the human position information deriving device 1 according to the previous embodiment, the absolute value processing is executed. However, the absolute value processing is eliminated and the human position information deriving processing is executed according to the flowchart shown in FIG. Good. In such a case, the information processing device 3 derives head position data in advance and temporarily stores the head position data in the main memory 33.

図14において、ステップS31では、情報処理装置3は、ステップS12においてメインメモリ33に一時記憶された極座標変換テーブルTm1内に、メインメモリ33に一時記憶される頭部位置データと一致する画素座標データが存在するか否かを判定する。ステップS31の情報処理装置3の判定の結果、極座標変換テーブルTm1内に頭部位置データと一致する画素座標データが存在する場合、処理はステップS32に移る。ステップS31の情報処理装置3の判定の結果、極座標変換テーブルTm1内に頭部位置データと一致する画素座標データが存在しない場合、処理はステップS33に移る。   In FIG. 14, in step S31, the information processing apparatus 3 includes pixel coordinate data that matches the head position data temporarily stored in the main memory 33 in the polar coordinate conversion table Tm1 temporarily stored in the main memory 33 in step S12. It is determined whether or not exists. As a result of the determination by the information processing apparatus 3 in step S31, when pixel coordinate data that matches the head position data exists in the polar coordinate conversion table Tm1, the process proceeds to step S32. As a result of the determination by the information processing device 3 in step S31, when there is no pixel coordinate data that matches the head position data in the polar coordinate conversion table Tm1, the process proceeds to step S33.

ステップS32では、情報処理装置3が、頭部位置データを極座標変換テーブルTm1に照合して極座標データに変換する。   In step S32, the information processing apparatus 3 collates the head position data with the polar coordinate conversion table Tm1 and converts it into polar coordinate data.

ステップS33では、情報処理装置3が、頭部位置データのヨー方向成分を符号変換する。なお、以下、ヨー方向成分が符号変換された頭部位置データを変換頭部位置データという。   In step S33, the information processing device 3 performs code conversion on the yaw direction component of the head position data. Hereinafter, head position data obtained by sign-converting the yaw direction component is referred to as converted head position data.

ステップS34では、情報処理装置3が、変換頭部位置データを極座標変換テーブルTm1に照合して極座標データに変換する。   In step S34, the information processing apparatus 3 collates the converted head position data with the polar coordinate conversion table Tm1 and converts it into polar coordinate data.

ステップS35では、情報処理装置3が、ステップS34において導出された極座標データの角度成分を符号変換する。   In step S35, the information processing device 3 performs code conversion on the angle component of the polar coordinate data derived in step S34.

ステップS36では、情報処理装置3が、ステップS32において導出された極座標データ又はステップS35において導出された極座標データの角度成分に、首振り監視カメラ2から送られてきたヨー角を加算する。   In step S36, the information processing device 3 adds the yaw angle sent from the head monitoring camera 2 to the polar coordinate data derived in step S32 or the angle component of the polar coordinate data derived in step S35.

ステップS37では、情報処理装置3が、ステップS36において導出された極座標データをハードディスク34に記憶する。   In step S37, the information processing device 3 stores the polar coordinate data derived in step S36 in the hard disk 34.

(G)
先の実施の形態に係る人位置情報導出装置1では極座標変換テーブルTm1が首振り監視カメラ2のピッチ角毎に作成されていたが、極座標変換テーブルがヨー角及びピッチ角の組合せ毎に存在していてもよい。なお、かかる場合、記憶すべき情報の量は多くなる。
(G)
In the human position information deriving device 1 according to the previous embodiment, the polar coordinate conversion table Tm1 is created for each pitch angle of the swing monitoring camera 2, but a polar coordinate conversion table exists for each combination of yaw angle and pitch angle. It may be. In such a case, the amount of information to be stored increases.

(H)
先の実施の形態では特に言及されていなかったが、レンズ部22に広角レンズが採用されている場合には、歪曲収差が補正されるのが好ましい。なお、歪曲収差Dは下式(2)により定義される。
(H)
Although not particularly mentioned in the previous embodiment, when a wide-angle lens is employed for the lens unit 22, it is preferable to correct distortion. The distortion aberration D is defined by the following equation (2).

D=((Rr−Ri)/Ri)x100 (2)
なお、ここで、Riは理想の像高であり、Rrは実際の像高である(図15参照)。
D = ((Rr−Ri) / Ri) × 100 (2)
Here, Ri is an ideal image height, and Rr is an actual image height (see FIG. 15).

したがって、画素座標に対応する座標値を算出するためには、先ず、画素座標(Ur,Vr)から、歪みを受ける前の画素座標(Ui,Vi)に変換して、カメラ位置から透視変換した座標を求める必要がある。   Therefore, in order to calculate the coordinate value corresponding to the pixel coordinate, first, the pixel coordinate (Ur, Vr) is converted into the pixel coordinate (Ui, Vi) before being distorted, and the perspective transformation is performed from the camera position. You need to find the coordinates.

歪みのない画素座標は、下式(3)により定義される。   The pixel coordinates without distortion are defined by the following equation (3).

(Ui,Vi)=(Ur/(1+D),Vr/(1+D)) (3)
なお、ここで、D=A0+A1・Y1+A2・Y2+・・・An・Ynである。
(Ui, Vi) = (Ur / (1 + D), Vr / (1 + D)) (3)
Here, D = A0 + A1 · Y 1 + A2 · Y 2 +... An · Y n .

また、歪みのない画素座標は、下式(4)によっても定義される。   Further, the pixel coordinates without distortion are also defined by the following equation (4).

(Ui,Vi)=(dk・{1+κ・((Ur−Uc)2+(Vr−Vc)2}・(Ur−Uc),dk・{1+κ・((Ur−Uc)2+(Vr−Vc)2}・(Vr−Vc)) (4)
なお、ここで、dkは距離であり、Uc及びVcは中心画素座標であり、κは歪曲収差係数である。
(Ui, Vi) = (d k · {1 + κ · ((Ur-Uc) 2 + (Vr-Vc) 2} · (Ur-Uc), d k · {1 + κ · ((Ur-Uc) 2 + ( Vr−Vc) 2 } · (Vr−Vc)) (4)
Here, d k is a distance, Uc and Vc are center pixel coordinates, and κ is a distortion aberration coefficient.

(I)
先の実施の形態に係る人位置情報導出装置1では板部材に支持された極座標マット50が平均身長高さまで持ち上げられた状態で極座標マット50が撮像され、その画像データがエッジ抽出処理されることによって首振り監視カメラの画素座標と極座標との対応付けが行われたが、首振り監視カメラの設置位置や、首振り監視カメラのヨー角及びピッチ角等のデータから計算によって首振り監視カメラの画素座標と極座標との対応付けが行われてもよい。なお、具体的な計算方法については当業者が過度の努力を払うことなく導き出することができるので、ここでは記載を省略する。
(I)
In the human position information deriving device 1 according to the previous embodiment, the polar mat 50 is picked up with the polar mat 50 supported by the plate member raised to the average height, and the image data is subjected to edge extraction processing. The pixel coordinates and polar coordinates of the swing monitoring camera are associated with each other, but the position of the swing monitoring camera and the yaw angle and pitch angle of the swing monitoring camera are calculated from the data such as the yaw angle and pitch angle of the swing monitoring camera. The association between pixel coordinates and polar coordinates may be performed. Note that a specific calculation method can be derived without undue effort by those skilled in the art, and thus description thereof is omitted here.

(J)
先の実施の形態では特に言及されていなかったが、レンズ部22の光軸が鉛直方向と平行な場合、つまり、首振り監視カメラ2の真下の床面の画像が撮像される場合の画素座標には極座標ではなく直交座標又は図16、17及び18に示されるような特殊座標が割り当てられてもよい。なお、図16の特殊座標の特徴は中心部分が1つの円グリッドになっている点であり、図17の特殊座標の特徴は中央部分が直交座標となっており周囲部分が歪みを考慮した座標になっている点であり、図18の特殊座標の特徴は中央部分が直交座標となっており周囲部分が極座標になっている点である。
(J)
Although not particularly mentioned in the previous embodiment, pixel coordinates when the optical axis of the lens unit 22 is parallel to the vertical direction, that is, when an image of the floor surface directly below the head monitoring camera 2 is captured. May be assigned Cartesian coordinates or special coordinates as shown in FIGS. 16, 17 and 18 instead of polar coordinates. Note that the special coordinate feature of FIG. 16 is that the central portion is a single circular grid, and the special coordinate feature of FIG. 17 is a coordinate in which the central portion is an orthogonal coordinate and the surrounding portion takes distortion into consideration. The special coordinates in FIG. 18 are characterized in that the central portion is orthogonal coordinates and the surrounding portions are polar coordinates.

(K)
先の実施の形態に係る人位置情報導出装置1では人の平均身長が加味されて首振り監視カメラの画素座標と極座標との対応付けが行われその対応付けに基づいて人の位置検出が行われたが、さらに、人の着座時の平均高さが加味されて首振り監視カメラの画素座標と極座標との対応付けが行われその対応付けに基づいて人の位置検出が行われてもよい。かかる場合、「人の位置データが椅子の座標データを中心とする一定範囲内に一定時間属している場合に人の着座時の平均高さが加味された対応付けに基づいて位置検出が行われ、そうでない場合に人の平均身長が加味された対応付けに基づいて位置検出が行われる」ということが考えられる。オフィス等では、人が椅子の付近に一定時間とどまっているとき、通常、その人は着座しているからである。
(K)
In the human position information deriving device 1 according to the previous embodiment, the average height of the person is taken into consideration and the pixel coordinates and polar coordinates of the head surveillance camera are associated with each other, and the position of the person is detected based on the association. However, the pixel coordinates and polar coordinates of the swing monitoring camera may be associated with the average height of the person sitting, and the position of the person may be detected based on the association. . In such a case, “position detection is performed based on the association that takes into account the average height of the person sitting when the person's position data belongs within a certain range centered on the coordinate data of the chair for a certain period of time. In other cases, position detection is performed based on association that takes into account the average height of a person ”. This is because, in an office or the like, when a person stays in the vicinity of a chair for a certain period of time, the person is usually seated.

また、画像解析技術により画像データから人が着座状態にあるか立位状態にあるかを判定し、その状態に併せてどちらの対応付けを使用するかを決定するようにしてもよい。   Further, it may be determined by image analysis technology from image data whether a person is in a sitting state or a standing state, and which association is used in accordance with the state.

(L)
先の実施の形態に係る人位置情報導出装置1では人の平均身長が加味されて首振り監視カメラの画素座標と極座標との対応付けが行われその対応付けに基づいて人の位置検出が行われたが、さらに、その後に個々人の身長が加味されて人の位置が補正されるようにしてもよい。かかる場合、ステップS24において導出された極座標データの距離成分が、個人の身長が加味された値で補正される。なお、個々人の身長データは、個人IDと身長データとが対応付けられたテーブル等を用意しておくことにより特定可能となる。具体的には、無線LAN技術や画像解析技術を用いて個人IDを導出し、その個人IDを先のテーブルの照合して身長データを導出すること等が考えられる。
(L)
In the human position information deriving device 1 according to the previous embodiment, the average height of the person is taken into consideration and the pixel coordinates and polar coordinates of the head surveillance camera are associated with each other, and the position of the person is detected based on the association. However, the position of the person may be corrected after taking into account the height of the individual. In such a case, the distance component of the polar coordinate data derived in step S24 is corrected with a value that takes into account the individual's height. Individual height data can be specified by preparing a table or the like in which individual IDs and height data are associated with each other. Specifically, it is conceivable to derive a personal ID by using a wireless LAN technique or an image analysis technique, and to derive height data by comparing the personal ID with a previous table.

具体的な一例を挙げると、無線LANによる人位置検出技術を利用することが考えられる。人に無線LAN端末、例えば無線LAN機能付き携帯電話等を携帯させておき、その携帯電話から常時個人IDを発信させる。そして、人の位置検出が行われると同時にその人の個人IDデータが特定される。そして、本発明に係る人位置情報導出装置から出力された位置データと、無線LANによる人位置検出装置から出力された位置データとを比較し、それらの位置データが一定距離範囲内にある場合には、本発明に係る人位置情報導出装置から出力された位置データを、個人IDデータを上記テーブルに照合して得られる身長データにより補正する。このようにすればより精密な位置検知を行うことができる。   As a specific example, it is conceivable to use a human position detection technique using a wireless LAN. A person carries a wireless LAN terminal, such as a mobile phone with a wireless LAN function, and always sends a personal ID from the mobile phone. Then, the position of the person is detected and at the same time the personal ID data of the person is specified. When the position data output from the human position information deriving device according to the present invention is compared with the position data output from the human position detecting device using the wireless LAN, and the position data is within a certain distance range. Corrects the position data output from the human position information deriving device according to the present invention with the height data obtained by comparing the personal ID data with the table. In this way, more precise position detection can be performed.

また、個人IDと着座時の高さデータとが対応付けられたテーブル等や、変形例(K)に示されるような着座判定アルコリズムを用意しておけば、その人が着座している場合であってもその人の正確な位置を検出することが可能である。   In addition, if a table or the like in which the personal ID is associated with the height data at the time of sitting or a seating determination algorithm as shown in the modification (K) is prepared, the person is seated. Even so, it is possible to detect the exact position of the person.

(M)
先の実施の形態に係る人位置情報導出装置1では人の平均身長が加味されて首振り監視カメラの画素座標と極座標との対応付けが行われその対応付けに基づいて人の位置検出が行われたが、首振り監視カメラの画素座標と実際の床面上の極座標との対応付けが行われ、その後に個々人の身長が加味されて人の位置検出が行われるようにしてもよい。かかる場合、板部材に支持された極座標マット50が平均身長高さまで持ち上げられる必要はなく、極座標マット50を床面に敷いた状態で首振り監視カメラ2が作動させられ、異なるピッチ角毎に撮像が行なわれる。そして、ステップS24において導出された極座標データの距離成分が、個人の身長が加味された値で補正される。なお、個々人の身長データは、個人IDと身長データとが対応付けられたテーブル等を用意しておくことにより特定可能となる。具体的には、無線LAN技術や画像解析技術を用いて個人IDを導出し、その個人IDを先のテーブルの照合して身長データを導出すること等が考えられる。
(M)
In the human position information deriving device 1 according to the previous embodiment, the average height of the person is taken into consideration and the pixel coordinates and polar coordinates of the head surveillance camera are associated with each other, and the position of the person is detected based on the association. However, the pixel coordinates of the head monitoring camera may be associated with the actual polar coordinates on the floor, and then the position of the person may be detected by taking into account the individual's height. In such a case, the polar coordinate mat 50 supported by the plate member does not need to be lifted to the average height, and the swing monitoring camera 2 is operated with the polar coordinate mat 50 laid on the floor surface, and imaging is performed at different pitch angles. Is done. Then, the distance component of the polar coordinate data derived in step S24 is corrected with a value that takes into account the individual's height. Individual height data can be specified by preparing a table or the like in which individual IDs and height data are associated with each other. Specifically, it is conceivable to derive a personal ID by using a wireless LAN technique or an image analysis technique, and to derive height data by comparing the personal ID with a previous table.

本発明に係る物体位置検知装置は、オフィス等の大空間居室等を監視対象とする場合であっても1台あるいは数台(オフィス空間等に遮蔽物があるような場合)の監視カメラがあれば事足りる。したがって、この物体位置検知装置は、従来よりも低コストで導入することができるという特徴を有し、オフィス等の比較的大きな空間用の物体位置検知装置として有用である。また、このような物体位置検知装置はオフィス等の大空間居室における空調に応用されることが期待される。   The object position detection apparatus according to the present invention may include one or several monitoring cameras (when there is an obstacle in the office space or the like) even when a large space room such as an office is to be monitored. That's enough. Therefore, this object position detection device has a feature that it can be introduced at a lower cost than conventional ones, and is useful as an object position detection device for a relatively large space such as an office. Further, such an object position detection device is expected to be applied to air conditioning in a large space room such as an office.

本発明の実施の形態に係る人位置情報導出装置の概略ブロック図である。It is a schematic block diagram of the person location information derivation device concerning an embodiment of the invention. 本発明の実施の形態に係る人位置情報導出装置に採用される首振り監視カメラの外観斜視図である。1 is an external perspective view of a head surveillance camera employed in a human position information deriving device according to an embodiment of the present invention. 本発明の実施の形態に係る人位置情報導出装置に採用される情報処理装置のブロック図である。It is a block diagram of the information processing apparatus employ | adopted for the person location information derivation | leading-out apparatus which concerns on embodiment of this invention. 本発明の実施の形態に係る人位置情報導出装置に採用される情報処理装置のハードディスクのイメージ図である。It is an image figure of the hard disk of the information processing apparatus employ | adopted for the person location information derivation | leading-out apparatus which concerns on embodiment of this invention. 本発明の実施の形態に係る人位置情報導出装置に採用される情報処理装置のハードディスクに記憶される極座標変換テーブルのイメージ図である。It is an image figure of the polar coordinate conversion table memorize | stored in the hard disk of the information processing apparatus employ | adopted as the person position information derivation | leading-out apparatus which concerns on embodiment of this invention. 本発明の実施の形態に係る人位置情報導出装置に採用される首振り監視カメラの画素座標のイメージ図である。It is an image figure of the pixel coordinate of the swing monitoring camera employ | adopted for the person position information derivation | leading-out apparatus which concerns on embodiment of this invention. 本発明の実施の形態に係る人位置情報導出装置における制御信号及びデータの流れを表す図である。It is a figure showing the flow of the control signal and data in the person position information derivation device concerning an embodiment of the invention. 本発明の実施の形態に係る人位置情報導出装置において首振り監視カメラの画素座標と極座標との対応付けに用いられる極座標マットの平面図である。It is a top view of the polar coordinate mat used for matching with the pixel coordinate of a head surveillance camera, and a polar coordinate in the person position information derivation device concerning an embodiment of the invention. 本発明の実施の形態に係る人位置情報導出装置において実行される絶対値化処理の流れを表すフローチャートである。It is a flowchart showing the flow of the absolute value process performed in the person location information derivation device concerning an embodiment of the invention. 本発明の実施の形態に係る人位置情報導出装置において実行される極座標変換テーブル特定処理の流れを表すフローチャートである。It is a flowchart showing the flow of the polar coordinate conversion table specific process performed in the person position information derivation device concerning an embodiment of the invention. 本発明の実施の形態に係る人位置情報導出装置において実行される人位置情報導出処理の流れを表すフローチャートである。It is a flowchart showing the flow of the person position information derivation | leading-out process performed in the person position information derivation | leading-out apparatus which concerns on embodiment of this invention. 変形例(A)に係る複眼の首振り監視カメラの外観斜視図である。It is an external appearance perspective view of the compound eye swing monitoring camera which concerns on a modification (A). 変形例(C)に係る人位置情報導出装置に採用される首振り監視カメラの画素座標のイメージ図である。It is an image figure of the pixel coordinate of the head monitoring camera employ | adopted as the person position information derivation | leading-out apparatus which concerns on a modification (C). 変形例(E)に係る人位置情報導出装置において実行される人位置情報導出処理の流れを表すフローチャートである。It is a flowchart showing the flow of the person position information derivation | leading-out process performed in the person position information derivation | leading-out apparatus concerning a modification (E). 変形例(G)に係る人位置情報導出装置において実行される歪曲収差補正処理の原理を示す参照図である。It is a reference figure which shows the principle of the distortion aberration correction process performed in the person position information derivation | leading-out apparatus which concerns on a modification (G). 変形例(J)に係る人位置情報導出装置において採用される特殊座標のイメージ図である。It is an image figure of the special coordinates employ | adopted in the person position information derivation device concerning modification (J). 変形例(J)に係る人位置情報導出装置において特殊座標のイメージ図である。It is an image figure of a special coordinate in the person position information derivation device concerning modification (J). 変形例(J)に係る人位置情報導出装置において特殊座標のイメージ図である。It is an image figure of a special coordinate in the person position information derivation device concerning modification (J).

符号の説明Explanation of symbols

1 人位置情報導出装置(物体位置検知装置)
2 首振り監視カメラ(首振り撮像機)
22 レンズ部
23 駆動機構部(旋回駆動機構)
34 ハードディスク(情報記憶部)
34d 頭部座標導出モジュール(特定画素座標導出手段)
34e 極座標変換モジュール(第1極座標導出手段)
36 LANインターフェイス(撮像画像データ受信部)
Tm1 極座標変換テーブル(情報テーブル)
1 Person position information deriving device (object position detecting device)
2 Swing monitoring camera (swing camera)
22 Lens part 23 Drive mechanism part (turning drive mechanism)
34 Hard disk (information storage unit)
34d Head coordinate deriving module (specific pixel coordinate deriving means)
34e Polar coordinate conversion module (first polar coordinate deriving means)
36 LAN interface (captured image data receiver)
Tm1 Polar coordinate conversion table (information table)

Claims (12)

レンズ部(22)と、前記レンズ部をヨー方向及びピッチ方向に旋回駆動可能である旋回駆動機構(23)とを有する首振り撮像機(2)と、
前記レンズ部のヨー角及びピッチ角の組合せ毎に又は前記ピッチ角毎に作成されており、前記首振り撮像機の画素座標に第1極座標を割り当てる情報テーブル(Tm1)を記憶する情報記憶部(34)と、
前記首振り撮像機から撮影画像データを受信する撮像画像データ受信部(36)と、
前記撮像画像データの特定部分の画素座標(以下「特定画素座標」という)を導出する特定画素座標導出手段(34d)と、
前記ヨー角及びピッチ角の組合せ又は前記ピッチ角を前記情報記憶部に照合して特定の前記情報テーブル(以下「特定情報テーブル」という)を抽出する特定情報テーブル抽出手段と、
前記特定画素座標と前記特定情報テーブルとを利用して前記第1極座標を導出する第1極座標導出手段(34e)と
を備える物体位置検知装置(1)。
A swing imaging device (2) having a lens unit (22) and a turning drive mechanism (23) capable of turning the lens unit in a yaw direction and a pitch direction;
An information storage unit (Tm1) that stores an information table (Tm1) that is created for each combination of yaw angle and pitch angle of the lens unit or for each pitch angle and that assigns first polar coordinates to pixel coordinates of the swing imaging device. 34)
A captured image data receiving unit (36) for receiving captured image data from the swing imaging device;
Specific pixel coordinate deriving means (34d) for deriving pixel coordinates (hereinafter referred to as "specific pixel coordinates") of a specific portion of the captured image data;
Specific information table extraction means for extracting the specific information table (hereinafter referred to as “specific information table”) by comparing the yaw angle and pitch angle or the pitch angle with the information storage unit;
An object position detecting device (1) comprising: first polar coordinate deriving means (34e) for deriving the first polar coordinate using the specific pixel coordinates and the specific information table.
第1極座標導出手段は、前記特定画素座標を前記特定情報テーブルに照合して前記第1極座標を導出する
請求項1に記載の物体位置検知装置。
The object position detection device according to claim 1, wherein the first polar coordinate deriving unit derives the first polar coordinate by collating the specific pixel coordinate with the specific information table.
前記情報テーブルは、前記ピッチ角毎に作成されており、前記首振り撮像機の画素座標に前記第1極座標を割り当て、
前記特定情報テーブル抽出手段は、前記ピッチ角を前記情報記憶部に照合して前記特定情報テーブルを抽出し、
前記第1極座標導出手段によって導出された前記第1極座標の角度成分に前記ヨー角を加算又は減算して第2極座標を導出する第2極座標導出手段をさらに備える
請求項1又は2に記載の物体位置検知装置。
The information table is created for each pitch angle, and assigns the first polar coordinates to the pixel coordinates of the swing imaging device,
The specific information table extracting means extracts the specific information table by collating the pitch angle with the information storage unit,
The object according to claim 1, further comprising second polar coordinate deriving means for deriving a second polar coordinate by adding or subtracting the yaw angle to an angle component of the first polar coordinate derived by the first polar coordinate deriving means. Position detection device.
前記画素座標は、ヨー方向の中心部を0、又は1及び−1とする直交座標であり、
前記情報テーブルは、前記レンズ部のヨー角及びピッチ角の組合せ毎に又は前記ピッチ角毎に作成されており、前記首振り撮像機の画素座標のうちヨー方向の半分(ヨー方向の中心部が0である場合0を含む)の画素座標(以下「半画素座標」という)にのみ第1極座標を割り当て、
前記特定画素座標が前記半画素座標のいずれの画素座標にも一致しない場合に、前記特定画素座標のヨー方向成分を符号変換する第1符号変換手段をさらに備え、
前記第1極座標導出手段は、前記特定画素座標が前記半画素座標のいずれの画素座標にも一致しない場合に、前記第1符号変換手段によってヨー方向成分が符号変換された特定画素座標を前記特定情報テーブルに照合して前記第1極座標を導出し、
前記特定画素座標が前記半画素座標のいずれの画素座標にも一致しなかった場合に、前記第1極座標導出手段により導出された前記第1極座標の角度成分を符号変換する第2符号変換手段をさらに備える
請求項1又は2に記載の物体位置検知装置。
The pixel coordinates are orthogonal coordinates in which the central part in the yaw direction is 0, or 1 and −1,
The information table is created for each combination of yaw angle and pitch angle of the lens unit or for each pitch angle, and is half of the yaw direction (the center part of the yaw direction is the pixel coordinate of the swing imaging device). 1st polar coordinates are assigned only to pixel coordinates (hereinafter referred to as “half pixel coordinates”) of 0 (including 0 if 0),
When the specific pixel coordinate does not coincide with any pixel coordinate of the half-pixel coordinate, further comprising first code conversion means for code-converting the yaw direction component of the specific pixel coordinate,
The first polar coordinate deriving unit specifies the specific pixel coordinate whose yaw direction component is code-converted by the first code converting unit when the specific pixel coordinate does not match any pixel coordinate of the half-pixel coordinate. Deriving the first polar coordinates by collating with an information table;
Second code conversion means for code-converting the angle component of the first polar coordinate derived by the first polar coordinate deriving means when the specific pixel coordinate does not match any of the half-pixel coordinates; The object position detection device according to claim 1, further comprising:
前記画素座標は、ヨー方向の中心部を0、又は1及び−1とする直交座標であり、
前記情報テーブルは、前記レンズ部のヨー角及びピッチ角の組合せ毎に又は前記ピッチ角毎に作成されており、前記首振り撮像機の画素座標のうちヨー方向のプラス側の画素座標(ヨー方向の中心部が0である場合0を含む)にのみ第1極座標を割り当て、
前記特定画素座標のヨー方向成分を絶対値化する絶対値化手段をさらに備え、
第1極座標導出手段は、前記絶対値化手段によってヨー方向成分が絶対値化された特定画素座標を、前記特定情報テーブルに照合して前記第1極座標を導出し、
前記特定画素座標のヨー方向成分がマイナス値であるか否かを判定するヨー方向成分符号判定手段と、前記ヨー方向成分符号判定手段により前記特定画素座標のヨー方向成分がマイナス値であると判定された場合に、前記第1極座標導出手段により導出された前記第1極座標の角度成分を符号変換する第3符号変換手段とをさらに備える
請求項1又は2に記載の物体位置検知装置。
The pixel coordinates are orthogonal coordinates in which the central part in the yaw direction is 0, or 1 and −1,
The information table is created for each combination of the yaw angle and pitch angle of the lens unit or for each pitch angle, and the pixel coordinates on the plus side of the yaw direction (yaw direction) among the pixel coordinates of the swing imaging device The first polar coordinate is assigned only to (including 0 if the center of is 0),
Absolute value converting means for converting the yaw direction component of the specific pixel coordinates into an absolute value;
A first polar coordinate deriving unit for deriving the first polar coordinate by collating a specific pixel coordinate whose yaw direction component has been converted into an absolute value by the absolute value converting unit with the specific information table;
A yaw direction component code determination unit that determines whether or not the yaw direction component of the specific pixel coordinate is a negative value, and the yaw direction component code determination unit determines that the yaw direction component of the specific pixel coordinate is a negative value. 3. The object position detection device according to claim 1, further comprising: a third code conversion unit configured to code-convert an angle component of the first polar coordinate derived by the first polar coordinate deriving unit.
前記情報テーブルは、前記ピッチ角毎に作成されており、
前記特定情報テーブル抽出手段は、前記ピッチ角を前記情報記憶部に照合して前記特定情報テーブルを抽出し、
前記第2符号変換手段又は前記第3符号変換手段によって符号変換された前記第1極座標の角度成分に前記ヨー角を加算又は減算して第3極座標を導出する第3極座標導出手段をさらに備える
請求項4又は5に記載の物体位置検知装置。
The information table is created for each pitch angle,
The specific information table extracting means extracts the specific information table by collating the pitch angle with the information storage unit,
The system further comprises third polar coordinate deriving means for deriving a third polar coordinate by adding or subtracting the yaw angle to or from the angular component of the first polar coordinate code converted by the second code converting means or the third code converting means. Item 6. The object position detection device according to Item 4 or 5.
魚眼撮像機と、
前記魚眼撮像機の画素座標に第11極座標を割り当てる情報テーブルを記憶する情報記憶部と、
前記魚眼撮像機から撮影画像データを受信する撮像画像データ受信部と、
前記撮像画像データの特定部分の画素座標(以下「特定画素座標」という)を導出する特定画素座標導出手段と、
前記特定画素座標を前記情報テーブルに照合して前記第11極座標を導出する第11極座標導出手段と
を備える物体位置検知装置。
A fisheye imager;
An information storage unit for storing an information table for assigning eleventh polar coordinates to pixel coordinates of the fisheye imager;
A captured image data receiving unit for receiving captured image data from the fisheye imager;
Specific pixel coordinate deriving means for deriving pixel coordinates of a specific part of the captured image data (hereinafter referred to as “specific pixel coordinates”);
An object position detecting device comprising: eleventh polar coordinate deriving means for deriving the eleventh polar coordinate by comparing the specific pixel coordinate with the information table.
前記画素座標は、水平方向又は垂直方向の中心部を0、又は1及び−1とする直交座標であり、
前記情報テーブルは、前記魚眼撮像機の画素座標のうち水平方向又は垂直方向の半分(水平方向又は垂直方向の中心部が0である場合0を含む)の画素座標(以下「半画素座標」という)にのみ第11極座標を割り当て、
前記特定画素座標が前記半画素座標のいずれかの画素座標にも一致しない場合に、前記特定画素座標の水平成分又は垂直成分を符号変換する第11符号変換手段をさらに備え、
前記第11極座標導出手段は、前記特定画素座標が前記半画素座標のいずれかの画素座標にも一致しない場合に、前記第11符号変換手段によって水平成分又は垂直成分が符号変換された特定画素座標を前記情報テーブルに照合して前記第11極座標を導出し、
前記特定画素座標が前記半画素座標のいずれかの画素座標にも一致しなかった場合に、前記第11極座標導出手段により導出された前記第1極座標の角度成分を符号変換する第12符号変換手段をさらに備える
請求項7に記載の物体位置検知装置。
The pixel coordinates are orthogonal coordinates in which the central portion in the horizontal direction or the vertical direction is 0, 1 or −1,
The information table includes pixel coordinates (hereinafter, “half pixel coordinates”) of pixel coordinates of the fish-eye imager, including half in the horizontal direction or the vertical direction (including 0 when the central portion in the horizontal direction or the vertical direction is 0). The eleventh polar coordinate is assigned only to
An eleventh code conversion means for code-converting a horizontal component or a vertical component of the specific pixel coordinate when the specific pixel coordinate does not match any pixel coordinate of the half-pixel coordinate;
The eleventh polar coordinate deriving means, when the specific pixel coordinate does not coincide with any one of the half-pixel coordinates, the specific pixel coordinate whose horizontal component or vertical component is code-converted by the eleventh code conversion means. To the information table to derive the eleventh polar coordinate,
Twelfth code conversion means for code-converting the angle component of the first polar coordinate derived by the eleventh polar coordinate deriving means when the specific pixel coordinate does not coincide with any one of the half-pixel coordinates. The object position detection device according to claim 7.
前記画素座標は、水平方向又は垂直方向の中心部を0、又は1及び−1とする直交座標であり、
前記情報テーブルは、前記魚眼撮像機の画素座標のうち水平方向又は垂直方向のプラス側の画素座標(水平方向又は垂直方向の中心部が0である場合0を含む)にのみ第11極座標を割り当て、
前記特定画素座標の水平成分又は垂直成分を絶対値化する絶対値化手段をさらに備え、
前記第11極座標導出手段は、前記絶対値化手段によって水平成分又は垂直成分が絶対値化された特定画素座標を、前記情報テーブルに照合して前記第11極座標を導出し、
前記特定画素座標の水平成分又は垂直成分がマイナス値であるか否かを判定する水平成分等符号判定手段と、前記水平成分等符号判定手段により前記特定画素座標の水平方向又は垂直方向がマイナス値であると判定された場合に、前記第11極座標導出手段により導出された前記第11極座標の角度成分を符号変換する第13符号変換手段とをさらに備える
請求項7に記載の物体位置検知装置。
The pixel coordinates are orthogonal coordinates in which the central portion in the horizontal direction or the vertical direction is 0, 1 or −1,
The information table includes eleventh polar coordinates only in the pixel coordinates on the plus side in the horizontal direction or the vertical direction among pixel coordinates of the fisheye imager (including 0 when the central portion in the horizontal direction or the vertical direction is 0). allocation,
An absolute value converting means for converting the horizontal component or the vertical component of the specific pixel coordinate into an absolute value;
The eleventh polar coordinate deriving means derives the eleventh polar coordinate by collating the specific pixel coordinates whose horizontal component or vertical component is absolute valued by the absolute value converting means with the information table,
The horizontal component or the like sign determining means for determining whether the horizontal component or the vertical component of the specific pixel coordinate is a negative value, and the horizontal or vertical direction of the specific pixel coordinate by the horizontal component equal sign determining means is a negative value. The object position detection apparatus according to claim 7, further comprising: thirteenth code conversion means for code-converting the angle component of the eleventh polar coordinate derived by the eleventh polar coordinate deriving means when it is determined that
レンズ部と、前記レンズ部をヨー方向及びピッチ方向に旋回駆動可能である旋回駆動機構とを有する首振り撮像機と、
前記首振り撮像機のヨー角及びピッチ角度の組合せ毎に又は前記ピッチ角毎に作成されており、前記首振り撮像機の画素座標に実際の床面の極座標(以下「実床極座標」という)を割り当てる情報テーブルを記憶する情報記憶部と、
前記首振り撮像機から撮影画像データを受信する撮影画像データ受信部と、
前記撮像画像データの特定部分の画素座標(以下「特定画素座標」という)を導出する特定画素座標導出手段と、
前記ヨー角及びピッチ角の組合せ又は前記ピッチ角を前記情報テーブルに照合して特定の前記情報テーブル(以下「特定情報テーブル」という)を抽出する特定情報テーブル抽出手段と、
前記特定画素座標と前記特定情報テーブルとを利用して前記実床極座標を導出する実床極座標導出手段と
前記実床極座標導出手段によって導出された前記実床極座標を利用して第21極座標を導出する第21極座標導出手段と
を備える物体位置検知装置。
A swing imaging device having a lens part and a turning drive mechanism capable of turning the lens part in a yaw direction and a pitch direction;
It is created for each combination of the yaw angle and pitch angle of the swing imaging device or for each pitch angle, and the polar coordinates of the actual floor surface (hereinafter referred to as “actual floor polar coordinates”) as the pixel coordinates of the swing imaging device An information storage unit for storing an information table to which
A photographed image data receiving unit for receiving photographed image data from the head image pickup device;
Specific pixel coordinate deriving means for deriving pixel coordinates of a specific part of the captured image data (hereinafter referred to as “specific pixel coordinates”);
A specific information table extracting means for extracting the specific information table (hereinafter referred to as “specific information table”) by comparing the combination of the yaw angle and the pitch angle or the pitch angle with the information table;
An actual floor polar coordinate deriving unit for deriving the actual floor polar coordinate using the specific pixel coordinate and the specific information table, and a 21st polar coordinate is derived using the actual floor polar coordinate derived by the actual floor polar coordinate deriving unit. An object position detecting device comprising: 21st polar coordinate deriving means.
前記第21極座標導出手段は、前記実床極座標導出手段によって導出された前記実床極座標の距離成分から所定の距離を加算又は減算して前記第21極座標を導出する
請求項10に記載の物体位置検知装置。
The object position according to claim 10, wherein the twenty-first polar coordinate deriving unit derives the twenty-first polar coordinate by adding or subtracting a predetermined distance from a distance component of the actual floor polar coordinate derived by the actual floor polar coordinate deriving unit. Detection device.
魚眼撮像機と、
前記魚眼撮像機の画素座標に実際の床面の極座標(以下「実床極座標」という)を割り当てる情報テーブルを記憶する情報記憶部と、
前記魚眼撮像機から撮影画像データを受信する撮像画像データ受信部と、
前記撮像画像データの特定部分の画素座標(以下「特定画素座標」という)を導出する特定画素座標導出手段と、
前記特定画素座標を前記情報テーブルに照合して前記実床極座標を導出する実床極座標導出手段と、
前記実床極座標導出手段によって導出された前記実床極座標を利用して第21極座標を導出する第21極座標導出手段と
を備える物体位置検知装置。
A fisheye imager;
An information storage unit for storing an information table for assigning actual floor polar coordinates (hereinafter referred to as “actual floor polar coordinates”) to the pixel coordinates of the fish-eye imager;
A captured image data receiving unit for receiving captured image data from the fisheye imager;
Specific pixel coordinate deriving means for deriving pixel coordinates of a specific part of the captured image data (hereinafter referred to as “specific pixel coordinates”);
Real floor polar coordinate deriving means for deriving the actual floor polar coordinates by collating the specific pixel coordinates with the information table;
An object position detecting device comprising: 21st polar coordinate deriving means for deriving 21st polar coordinates using the actual floor polar coordinates derived by the actual floor polar coordinate deriving means.
JP2007182571A 2007-07-11 2007-07-11 Object position detecting device Pending JP2009019981A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007182571A JP2009019981A (en) 2007-07-11 2007-07-11 Object position detecting device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007182571A JP2009019981A (en) 2007-07-11 2007-07-11 Object position detecting device

Publications (1)

Publication Number Publication Date
JP2009019981A true JP2009019981A (en) 2009-01-29

Family

ID=40359749

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007182571A Pending JP2009019981A (en) 2007-07-11 2007-07-11 Object position detecting device

Country Status (1)

Country Link
JP (1) JP2009019981A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015184248A (en) * 2014-03-26 2015-10-22 大日本印刷株式会社 Indoor positioning server, indoor positioning method, program, and indoor positioning system

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015184248A (en) * 2014-03-26 2015-10-22 大日本印刷株式会社 Indoor positioning server, indoor positioning method, program, and indoor positioning system

Similar Documents

Publication Publication Date Title
JP6587113B2 (en) Image processing apparatus and image processing method
CN105302131B (en) Method for cleaning or treating a space by means of an autonomously operable device
KR101740231B1 (en) Method and apparatus for estimating 3d face position
JP6129981B2 (en) Moving object position estimation apparatus and moving object position estimation method
JP4243767B2 (en) Fisheye lens camera device and image extraction method thereof
JP7122694B2 (en) Imaging system and calibration method
JP4268206B2 (en) Fisheye lens camera device and image distortion correction method thereof
US8396253B2 (en) Method and apparatus for recognizing location of user
CN110142785A (en) A kind of crusing robot visual servo method based on target detection
CN107843251B (en) Pose estimation method of mobile robot
CN112232279B (en) Personnel interval detection method and device
JP2009010728A (en) Camera setting support device
WO2018235300A1 (en) Object detection device, object detection method, and computer-readable recording medium
WO2017187694A1 (en) Region of interest image generating device
JP5183152B2 (en) Image processing device
JP2012068923A (en) Image processing device
KR101111503B1 (en) Apparatus for controlling Pan/Tilt/Zoom camera in omnidirectional and method for the same
CN108259827A (en) A kind of method, apparatus for realizing security protection, AR equipment and system
CN107862713A (en) Video camera deflection for poll meeting-place detects method for early warning and module in real time
JP2013246606A (en) Data derivation device and data derivation method
KR101295959B1 (en) Position estimation apparatus of mobile robot using indoor ceiling image
KR101916093B1 (en) Method for tracking object
WO2019220752A1 (en) Automatic tracking and recording system and recording control device
JP2010217984A (en) Image detector and image detection method
CN103546680B (en) A kind of deformation-free omni-directional fisheye photographic device and a method for implementing the same