JP2023120758A - Object position estimation display device, method, and program - Google Patents

Object position estimation display device, method, and program Download PDF

Info

Publication number
JP2023120758A
JP2023120758A JP2022023790A JP2022023790A JP2023120758A JP 2023120758 A JP2023120758 A JP 2023120758A JP 2022023790 A JP2022023790 A JP 2022023790A JP 2022023790 A JP2022023790 A JP 2022023790A JP 2023120758 A JP2023120758 A JP 2023120758A
Authority
JP
Japan
Prior art keywords
camera
image
marker
plane
coordinate system
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2022023790A
Other languages
Japanese (ja)
Other versions
JP7174389B1 (en
Inventor
浩二 小野
Koji Ono
毅 平間
Takeshi Hirama
八雲 藤掛
Yakumo Fujikake
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Human Support Technology Co Ltd
Ibaraki Prefecture
Original Assignee
Human Support Technology Co Ltd
Ibaraki Prefecture
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Human Support Technology Co Ltd, Ibaraki Prefecture filed Critical Human Support Technology Co Ltd
Priority to JP2022023790A priority Critical patent/JP7174389B1/en
Application granted granted Critical
Publication of JP7174389B1 publication Critical patent/JP7174389B1/en
Publication of JP2023120758A publication Critical patent/JP2023120758A/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Image Analysis (AREA)

Abstract

To provide an object position estimation display device which can accurately and easily estimate the position of an object and also can display the estimated position of the object in an easily understandable manner.SOLUTION: An object position estimation display device of the present invention includes target point setting means, target point position estimation means, and display means 12. The target point setting means sets predetermined points of objects A1 and A2 in a captured image 21 as target points 26a and 26b. The target point position estimation means estimates the positions of the target points 26a and 26b on the overhead coordinate system based on a camera on the basis of positional relation information showing the positional relationship between the camera and a plane 31 and inside parameter information of the camera. Display means 12 displays an image 22 of an overhead plane and icons 27a and 27b showing the target points 26a and 26b on the image 22.SELECTED DRAWING: Figure 2

Description

本発明は、物体の位置を推定して表示する物体位置推定表示装置、方法及びプログラムに関するものである。 The present invention relates to an object position estimation display device, method, and program for estimating and displaying the position of an object.

従来、人間などの物体を撮像して得た画像に基づいて、物体の位置を推定する装置が用いられている(例えば、特許文献1参照)。 2. Description of the Related Art Conventionally, there has been used a device for estimating the position of an object such as a human based on an image obtained by imaging the object (see, for example, Patent Document 1).

特開2020-136700号公報(請求項1,4、図2等)Japanese Patent Application Laid-Open No. 2020-136700 (claims 1 and 4, FIG. 2, etc.)

ところが、引用文献1に記載の従来技術では、人間の位置を推定するにあたり、人間を歩かせて画像位置情報を予め取得する必要があるため、推定作業が大変である。しかも、位置の推定に、人ごとに異なる身長のデータを用いているため、人間の位置を正確に推定することは困難である。また、引用文献1に記載の従来技術には、画像を表示手段に表示する旨が何ら開示されていないため、装置の使用者は、物体の正確な位置を知ることができない。ゆえに、画像を表示して物体の位置を分かりやすく表示することが求められている。 However, in the prior art described in Cited Document 1, when estimating the position of a person, it is necessary to make the person walk and obtain image position information in advance, so the estimation work is difficult. Moreover, since the position is estimated using different height data for each person, it is difficult to accurately estimate the position of the person. In addition, since the prior art described in Cited Document 1 does not disclose that an image is displayed on the display means, the user of the device cannot know the exact position of the object. Therefore, it is required to display an image to display the position of an object in an easy-to-understand manner.

本発明は上記の課題に鑑みてなされたものであり、その目的は、物体の位置を容易にかつ正確に推定できるとともに、推定した物体の位置を分かりやすく表示することができる物体位置推定表示装置、物体位置推定表示方法及び物体位置推定表示プログラムを提供することにある。 SUMMARY OF THE INVENTION The present invention has been made in view of the above problems, and an object of the present invention is to provide an object position estimation display device capable of easily and accurately estimating the position of an object and displaying the estimated position of the object in an easy-to-understand manner. , an object position estimation display method and an object position estimation display program.

上記課題を解決するために、請求項1に記載の発明は、物体を撮像して画像を取得するカメラと、前記画像を表示する表示手段とを備え、前記物体の位置を推定して表示する装置であって、平面上に設置されたマーカーを撮像する前記カメラと、撮像した前記マーカーを基準としたマーカー座標系上の点を、前記カメラを基準としたカメラ座標系上の点に変換し、前記平面から前記カメラまでの高さ、及び、前記平面から前記カメラに延びる垂線と前記カメラから前記マーカーに延びる線分とがなす角度を算出することにより、前記カメラと前記平面との位置関係を把握する位置関係把握手段と、撮像した画像に映る前記物体の所定の点を対象点として設定する対象点設定手段と、前記位置関係把握手段が把握した位置関係情報と、前記カメラの内部パラメータ情報とに基づいて、前記カメラを基準とした俯瞰座標系上における前記対象点の位置を推定する対象点位置推定手段とを備え、前記表示手段は、俯瞰平面の画像を表示するとともにその画像上に前記対象点を示すアイコンを表示することを特徴とする物体位置推定表示装置をその要旨とする。 In order to solve the above problems, the invention according to claim 1 includes a camera that captures an image of an object and acquires the image, and display means that displays the image, and estimates and displays the position of the object. A device, wherein the camera captures an image of a marker placed on a plane, and a point on a marker coordinate system based on the captured marker is transformed into a point on a camera coordinate system based on the camera. , the height from the plane to the camera, and the angle between the perpendicular extending from the plane to the camera and the line segment extending from the camera to the marker are calculated to determine the positional relationship between the camera and the plane. positional relationship grasping means for grasping, target point setting means for setting a predetermined point of the object reflected in the captured image as a target point, positional relationship information grasped by the positional relationship grasping means, and internal parameters of the camera an object point position estimating means for estimating the position of the object point on a bird's-eye view coordinate system with the camera as a reference based on the information, and the display means displays an image of the bird's-eye view plane and displays an image on the image The gist of the present invention is an object position estimation display device characterized in that an icon indicating the target point is displayed on the .

請求項1に記載の発明では、平面上にマーカーを設置し、設置されたマーカーをカメラで撮像するだけで、位置関係把握手段は、撮像したマーカーに基づいて、カメラと平面との位置関係を自動的に把握する。さらに、対象点位置推定手段は、位置関係把握手段が把握した位置関係情報に基づいて、カメラを基準とした俯瞰座標系上における対象点の位置を自動的に推定する。つまり、マーカーを設置するだけで、対象点の位置が推定可能な状態となるため、推定した対象点の位置に基づいて、物体の位置を容易に推定することができる。また、位置関係把握手段は、平面からカメラまでの高さ、及び、平面からカメラに延びる垂線とカメラからマーカーに延びる線分とがなす角度を算出することにより、カメラと平面との位置関係を把握するため、物体の位置を正確に推定することができる。しかも、表示手段は、俯瞰平面の画像を表示するとともにその画像上に対象点を示すアイコンを表示する。これにより、推定した物体の位置を分かりやすく表示することができる。 According to the first aspect of the invention, the positional relationship comprehension means can determine the positional relationship between the camera and the plane based on the captured marker by simply placing the marker on the plane and taking an image of the placed marker with the camera. Grasp automatically. Further, the target point position estimating means automatically estimates the position of the target point on the overhead coordinate system with the camera as a reference based on the positional relationship information grasped by the positional relation grasping means. In other words, the position of the target point can be estimated only by setting the marker, so the position of the object can be easily estimated based on the estimated position of the target point. Further, the positional relationship grasping means calculates the height from the plane to the camera and the angle formed by the perpendicular extending from the plane to the camera and the line segment extending from the camera to the marker, thereby determining the positional relationship between the camera and the plane. Because of this, the position of the object can be accurately estimated. Moreover, the display means displays the image of the bird's-eye view plane and also displays the icon indicating the target point on the image. This makes it possible to display the estimated position of the object in an easy-to-understand manner.

なお、物体は、撮像対象空間内において平面上を移動する物体のことを指し、例えば、二足歩行の人間(請求項2)や四足歩行の動物等の生物、自動車等の無生物などを挙げることができる。さらに、四足歩行の動物としては、ウシ、ウマ、ブタ、ヒツジ、ヤギ等の家畜などを挙げることができる。また、対象点設定手段は、対象点を自動的に設定するものであってもよいし、対象点を手動で設定するものであってもよい。なお、対象点設定手段が対象点を自動的に設定するものであれば、使用者が対象点を設定しなくても済むため、使用者の作業負担を軽減することができる。 Note that the object refers to an object that moves on a plane in the space to be imaged, and examples include bipedal humans (claim 2), living things such as quadrupedal animals, and inanimate objects such as automobiles. be able to. Examples of quadrupedal animals include domestic animals such as cows, horses, pigs, sheep, and goats. Further, the object point setting means may automatically set the object points, or may manually set the object points. If the object point setting means automatically sets the object points, the user does not have to set the object points, so that the user's workload can be reduced.

請求項2に記載の発明は、請求項1において、前記物体は人間または動物であり、前記対象点は前記人間または前記動物の足元に設定されることをその要旨とする。 A second aspect of the invention is characterized in that, in the first aspect, the object is a human or an animal, and the object point is set at the feet of the human or the animal.

請求項2に記載の発明では、対象点設定手段によって設定される対象点が人間または動物の足元に設定されるため、例えば、撮像した画像に映る複数の人間または複数の動物の高さ(身長)が互いに異なる場合であっても、対象点を平面に接地している箇所に設定することができる。これにより、カメラを基準とした俯瞰座標系上における対象点の位置を、正確に推定することができる。 In the second aspect of the invention, the target points set by the target point setting means are set at the feet of humans or animals. ) are different from each other, the target point can be set to a point that is grounded on the plane. This makes it possible to accurately estimate the position of the target point on the overhead coordinate system with the camera as a reference.

請求項3に記載の発明は、請求項1または2において、前記俯瞰平面の画像上に、前記対象点を示すアイコンに加えて前記カメラを示すアイコンが表示されることをその要旨とする。 The gist of the invention according to claim 3 is that in claim 1 or 2, an icon indicating the camera is displayed in addition to the icon indicating the target point on the image of the bird's-eye view plane.

請求項3に記載の発明では、対象点を示すアイコンに加えてカメラを示すアイコンが表示されるため、使用者は、物体の正確な位置だけではなく、物体がどのカメラにより撮像されたものであるか(言い換えると、どの方向から撮像されたものであるか)を知ることができる。また、カメラの正確な位置も知ることができる。 In the invention according to claim 3, since the icon indicating the camera is displayed in addition to the icon indicating the target point, the user can not only know the exact position of the object but also which camera captured the object. (In other words, from which direction the image was taken) can be known. You can also know the exact position of the camera.

請求項4に記載の発明は、請求項3において、前記表示手段は、前記俯瞰平面の画像と、前記カメラによって撮像された実際の画像とを並べて表示することをその要旨とする。 A fourth aspect of the present invention is characterized in that, in the third aspect, the display means displays the overhead plane image and the actual image captured by the camera side by side.

請求項4に記載の発明では、表示手段に俯瞰平面の画像と実際の画像とが表示されるため、両方の画像を見比べることにより、実際の画像に映る物体の全てが認識されているか否かを確認することができる。 In the fourth aspect of the invention, since the image of the bird's-eye view plane and the actual image are displayed on the display means, by comparing both images, it is possible to determine whether or not all the objects appearing in the actual image are recognized. can be confirmed.

請求項5に記載の発明は、請求項1乃至4のいずれか1項において、前記対象点を示すアイコンには、前記物体の種類を特定するための識別子が付与されていることをその要旨とする。 The invention according to claim 5 is the gist of the invention according to any one of claims 1 to 4, wherein the icon indicating the target point is assigned an identifier for specifying the type of the object. do.

請求項5に記載の発明では、複数の物体が複雑に移動したとしても、それぞれの物体に付与された識別子を確認することにより、物体の種類を特定することができる。ここで、識別子としては、文字、数字、記号、絵等を用いることができる。 According to the fifth aspect of the invention, even if a plurality of objects move intricately, it is possible to identify the type of object by checking the identifier assigned to each object. Here, characters, numbers, symbols, pictures, and the like can be used as identifiers.

請求項6に記載の発明は、請求項1乃至5のいずれか1項において、前記カメラは複数台設けられ、前記対象点位置推定手段は、隣接する前記カメラの前記俯瞰座標系同士を前記マーカーを介して接続する演算処理を行うことにより、それぞれの前記カメラで撮像された画像同士を繋げる処理を行うことをその要旨とする。 The invention according to claim 6 is based on any one of claims 1 to 5, wherein a plurality of cameras are provided, and the target point position estimation means aligns the bird's-eye view coordinate systems of the adjacent cameras with the marker. The gist of the invention is to perform a process of connecting the images captured by the respective cameras by performing arithmetic processing for connecting via .

請求項6に記載の発明では、隣接するカメラの俯瞰座標系同士を、これらのカメラに共通して映っているマーカーを介して接続する。具体的に言うと、例えば、一方のカメラの俯瞰座標系の点を、もう一方のカメラの俯瞰座標系の点に変換し、俯瞰座標系を共通化する。これにより、物体の位置を把握可能な範囲が拡張される。その結果、例えば撮像対象空間が広くて1台のカメラだけでは空間全体をカバーできない場合であっても、他のカメラと併せて撮像することで、死角がなくなり、空間全体において物体の位置を確実に把握することができる。また、物体の位置の推定精度も向上する。しかも、俯瞰座標系が、基準となる1つのカメラに合わせて統一されるため、把握した物体の位置は、使用者にとっても分かりやすいものとなる。 In the sixth aspect of the present invention, the bird's-eye view coordinate systems of adjacent cameras are connected to each other via markers that are shared by these cameras. Specifically, for example, points in the overhead coordinate system of one camera are transformed into points in the overhead coordinate system of the other camera to share the overhead coordinate system. This expands the range in which the position of the object can be grasped. As a result, for example, even if the space to be imaged is so large that one camera cannot cover the entire space, by capturing images together with other cameras, blind spots can be eliminated and the position of objects can be reliably determined in the entire space. can be grasped. Also, the accuracy of estimating the position of the object is improved. Moreover, since the bird's-eye view coordinate system is unified in accordance with one camera that serves as a reference, the position of the grasped object can be easily understood by the user.

請求項7に記載の発明は、請求項1乃至6のいずれか1項において、前記マーカーは、特定の幾何学的特徴を有する二次元的なマーカーであることをその要旨とする。 A seventh aspect of the invention is characterized in that, in any one of the first to sixth aspects, the marker is a two-dimensional marker having a specific geometric feature.

請求項7に記載の発明によれば、マーカーが二次元的なマーカーであるため、マーカーが例えば三次元的なものである場合よりも形状情報が単純なものとなる。その結果、マーカーの形状情報に基づいた、カメラと平面との位置関係を把握する制御が容易になるため、位置関係把握手段にかかる負担を低減することができる。 According to the seventh aspect of the invention, since the marker is a two-dimensional marker, shape information is simpler than when the marker is three-dimensional, for example. As a result, the control for grasping the positional relationship between the camera and the plane based on the shape information of the marker is facilitated, so that the load on the positional relation grasping means can be reduced.

請求項8に記載の発明は、物体を撮像して画像を取得するカメラと、前記画像を表示する表示手段とを備えた物体位置推定表示装置を用いて、前記物体の位置を推定して表示する方法であって、前記カメラを用いて、平面上に設置されたマーカーを撮像するマーカー撮像ステップと、撮像した前記マーカーを基準としたマーカー座標系上の点を、前記カメラを基準としたカメラ座標系上の点に変換し、前記平面から前記カメラまでの高さ、及び、前記平面から前記カメラに延びる垂線と前記カメラから前記マーカーに延びる線分とがなす角度を算出することにより、前記カメラと前記平面との位置関係を把握する位置関係把握ステップと、前記カメラの内部パラメータ情報を記憶手段に入力する内部パラメータ入力ステップと、撮像した画像に映る前記物体の所定の点を対象点として設定する対象点設定ステップと、前記位置関係把握ステップにおいて把握した位置関係情報と、前記記憶手段に記憶されている前記内部パラメータ情報とに基づいて、前記カメラを基準とした俯瞰座標系上における前記対象点の位置を推定する対象点位置推定ステップと、前記表示手段に俯瞰平面の画像を表示するとともに、その画像上に前記対象点を示すアイコンを表示する表示ステップとを含むことを特徴とする物体位置推定表示方法をその要旨とする。なお、請求項8に記載の発明では、上記請求項1と同様の作用を奏することができる。 According to an eighth aspect of the present invention, an object position estimating display device including a camera for capturing an image of an object and display means for displaying the image is used to estimate and display the position of the object. a marker imaging step of capturing an image of a marker placed on a plane using the camera; and a point on a marker coordinate system based on the captured marker by Converting to a point on the coordinate system, and calculating the height from the plane to the camera and the angle formed by the perpendicular line extending from the plane to the camera and the line segment extending from the camera to the marker, a positional relationship grasping step of grasping the positional relation between the camera and the plane; an internal parameter inputting step of inputting the internal parameter information of the camera into a storage means; Based on the target point setting step to be set, the positional relationship information grasped in the positional relation grasping step, and the internal parameter information stored in the storage means, the A target point position estimation step of estimating the position of the target point; and a display step of displaying an image of a bird's-eye view plane on the display means and displaying an icon indicating the target point on the image. The gist of the present invention is an object position estimation display method. In the eighth aspect of the invention, the same effect as the first aspect can be obtained.

請求項9に記載の発明は、物体を撮像して画像を取得するカメラと、前記画像を表示する表示手段とを備えた物体位置推定表示装置を制御するプロセッサに、前記カメラを用いて、平面上に設置されたマーカーを撮像するマーカー撮像ステップと、撮像した前記マーカーを基準としたマーカー座標系上の点を、前記カメラを基準としたカメラ座標系上の点に変換し、前記平面から前記カメラまでの高さ、及び、前記平面から前記カメラに延びる垂線と前記カメラから前記マーカーに延びる線分とがなす角度を算出することにより、前記カメラと前記平面との位置関係を把握する位置関係把握ステップと、前記カメラの内部パラメータ情報を記憶手段に入力する内部パラメータ入力ステップと、撮像した画像に映る前記物体の所定の点を対象点として設定する対象点設定ステップと、前記位置関係把握ステップにおいて把握した位置関係情報と、前記記憶手段に記憶されている前記内部パラメータ情報とに基づいて、前記カメラを基準とした俯瞰座標系上における前記対象点の位置を推定する対象点位置推定ステップと、前記表示手段に俯瞰平面の画像を表示するとともに、その画像上に前記対象点を示すアイコンを表示する表示ステップとを実行させるための物体位置推定表示プログラムをその要旨とする。なお、請求項9に記載の発明では、上記請求項1と同様の作用を奏することができる。 According to a ninth aspect of the invention, the camera is used in a processor for controlling an object position estimation display device comprising a camera for capturing an image of an object and obtaining an image, and display means for displaying the image. a marker imaging step of capturing an image of a marker placed thereon; converting a point on a marker coordinate system based on the captured marker into a point on a camera coordinate system based on the camera; A positional relationship for grasping the positional relationship between the camera and the plane by calculating the height to the camera and the angle formed by the perpendicular line extending from the plane to the camera and the line segment extending from the camera to the marker. a comprehension step; an internal parameter input step of inputting the internal parameter information of the camera into a storage means; a target point setting step of setting a predetermined point of the object appearing in the captured image as a target point; a target point position estimation step of estimating the position of the target point on a bird's-eye view coordinate system with respect to the camera, based on the positional relationship information grasped in and the internal parameter information stored in the storage means; and an object position estimation display program for displaying an image of a bird's-eye view plane on the display means and displaying an icon indicating the target point on the image. In addition, in the invention according to claim 9, the same effect as that of the above claim 1 can be achieved.

以上詳述したように、請求項1~9に記載の発明によると、物体の位置を容易にかつ正確に推定できるとともに、推定した物体の位置を分かりやすく表示することができる。 As detailed above, according to the first to ninth aspects of the present invention, the position of an object can be easily and accurately estimated, and the estimated position of the object can be displayed in an easy-to-understand manner.

第1実施形態における物体位置推定表示装置を示す概略構成図。1 is a schematic configuration diagram showing an object position estimation display device according to a first embodiment; FIG. ディスプレイの表示を示す概略図。Schematic which shows the display of a display. (a)は、第1実施形態のマーカーを示す説明図、(b),(c)は、他の実施形態のマーカーを示す説明図。(a) is an explanatory diagram showing the marker of the first embodiment, (b) and (c) are explanatory diagrams showing the marker of another embodiment. 人間の位置を推定して表示する処理を示すフローチャート。4 is a flowchart showing processing for estimating and displaying a human position. 外部パラメータによる座標変換を示す説明図。Explanatory drawing which shows the coordinate transformation by an external parameter. 床面ベクトルの推定の様子を示す説明図。Explanatory drawing which shows the mode of estimation of a floor vector. カメラを基準とした俯瞰座標系を示す説明図。Explanatory drawing which shows the bird's-eye view coordinate system based on the camera. 位置推定の様子を示す説明図。Explanatory drawing which shows the mode of position estimation. 方向ベクトルの導出の様子を示す説明図。Explanatory drawing which shows the state of derivation|leading-out of a direction vector. 第2実施形態において、異なるカメラ同士から同じマーカーを撮像する様子を示す説明図。FIG. 9 is an explanatory diagram showing how the same marker is imaged by different cameras in the second embodiment; マーカーを撮像する様子を示す俯瞰図。FIG. 4 is a bird's-eye view showing how a marker is captured; 第3の実施形態において、5台のカメラと2つのマーカーとを示す概略構成図。FIG. 11 is a schematic configuration diagram showing five cameras and two markers in the third embodiment; カメラ同士の接続状態(即ち、カメラの俯瞰座標系同士が共通化された状態)を示す有向グラフ。A directed graph showing a connection state between cameras (that is, a state in which the bird's-eye view coordinate systems of the cameras are shared). 他の実施形態におけるマーカーの設置態様を示す説明図。Explanatory drawing which shows the installation aspect of the marker in other embodiment.

[第1実施形態]
以下、本発明を具体化した第1実施形態を図面に基づき詳細に説明する。
[First embodiment]
BEST MODE FOR CARRYING OUT THE INVENTION A first embodiment embodying the present invention will be described in detail below with reference to the drawings.

図1,図2に示されるように、本実施形態の物体位置推定表示装置1は、人間A1,A2(物体)の位置を推定して表示する装置である。また、物体位置推定表示装置1は、カメラ11及びディスプレイ12(表示手段)を備えている。本実施形態のカメラ11は、固定式の単眼カメラであり、室内にいる人間A1,A2を撮像して画像21(図2参照)を取得する。そして、カメラ11は、取得した画像21の画像データを出力する。 As shown in FIGS. 1 and 2, the object position estimation display device 1 of this embodiment is a device that estimates and displays the positions of humans A1 and A2 (objects). The object position estimation display device 1 also includes a camera 11 and a display 12 (display means). The camera 11 of this embodiment is a fixed monocular camera, and captures images 21 (see FIG. 2) of people A1 and A2 in the room. The camera 11 then outputs image data of the acquired image 21 .

また、室内の床面31(平面)上には、マーカー32(図3(a)参照)が設置されている。マーカー32は、特定の幾何学的特徴を有する二次元的な正方形状のマーカー(本実施形態ではArUcoマーカー )であり、床面31に貼付されている。なお、マーカー32は、床面31上に置くだけでよく、移動させなくてもよい。また、マーカー32は、実際の位置推定を行うときには取り除いてもよい。 A marker 32 (see FIG. 3A) is installed on the floor surface 31 (flat surface) of the room. The marker 32 is a two-dimensional square marker (ArUco marker in this embodiment) having specific geometric features and is attached to the floor surface 31 . Note that the marker 32 may be simply placed on the floor surface 31 and may not be moved. Also, the markers 32 may be removed when performing the actual position estimation.

図2に示されるように、ディスプレイ12の左側には、カメラ11によって撮像された実際の画像21が表示されている。本実施形態では、画像21の中央部付近に人間A1が映っており、画像21の左側に別の人間A2が映っている。また、画像21上において、人間A2は、人間A1よりもやや手前に位置している。さらに、画像21上には、人間A1を認識する矩形状の枠26cが人間A1を囲むように表示され、人間A2を認識する矩形状の枠26dが人間A2を囲むように表示されている。また、画像21に映る人間A1,A2の足元には、対象点26a,26bが表示されている。対象点26a,26bは、人間A1,A2の所定の点、具体的には、人間A1,A2と床面31との境界線上に設定され、かつ人間A1,A2の左足と右足との間に設定される点である。なお、本実施形態では、人間A1の足元であって、枠26cを構成する下辺の中央部分に、緑色の対象点26aが設定されており、人間A2の足元であって、枠26dを構成する下辺の中央部分に、赤色の対象点26bが設定されている。 As shown in FIG. 2, on the left side of the display 12, an actual image 21 captured by the camera 11 is displayed. In this embodiment, a person A1 is shown near the center of the image 21, and another person A2 is shown on the left side of the image 21. FIG. Also, on the image 21, the person A2 is positioned slightly closer to the person A1 than the person A1. Further, on the image 21, a rectangular frame 26c for recognizing the person A1 is displayed so as to surround the person A1, and a rectangular frame 26d for recognizing the person A2 is displayed so as to surround the person A2. Object points 26 a and 26 b are displayed at the feet of the humans A 1 and A 2 appearing in the image 21 . The target points 26a and 26b are set on predetermined points of the humans A1 and A2, more specifically, on the boundary line between the humans A1 and A2 and the floor surface 31, and between the left and right feet of the humans A1 and A2. This is the point to be set. In the present embodiment, a green object point 26a is set at the foot of the person A1 and at the center of the lower side forming the frame 26c, and is the foot of the person A2 and forms the frame 26d. A red target point 26b is set in the central portion of the lower side.

一方、ディスプレイ12の右側には、俯瞰平面の画像22が表示されている。俯瞰平面の画像22は、床面31を直上から見たときのイメージを示す画像である。また、俯瞰平面の画像22には、複数の横線23と複数の縦線24とによって構成された格子線25が表示されている。各横線23は、横方向に沿ってそれぞれ直線的に延びており、縦方向において一定間隔を空けて設けられている。また、各縦線24は、縦方向に沿ってそれぞれ直線状に延びており、横方向において一定間隔を空けて設けられている。そして、隣接する2本の横線23と隣接する2本の縦線24とによって構成されたマスは、縦1m×横1mの正方形状の格子を示している。 On the other hand, on the right side of the display 12, an overhead plane image 22 is displayed. The bird's-eye view plane image 22 is an image showing an image when the floor surface 31 is viewed from directly above. Grid lines 25 formed by a plurality of horizontal lines 23 and a plurality of vertical lines 24 are displayed on the overhead plane image 22 . Each horizontal line 23 extends linearly in the horizontal direction and is provided at regular intervals in the vertical direction. Each vertical line 24 extends linearly in the vertical direction and is provided at regular intervals in the horizontal direction. A square formed by two adjacent horizontal lines 23 and two adjacent vertical lines 24 indicates a square grid of 1 m long by 1 m wide.

さらに、俯瞰平面の画像22上には、実際の画像21に表示された対象点26a,26bを示す円形状のアイコン27a,27bが表示されている。本実施形態では、画像22の中央部のやや上側に、緑色の対象点26aに対応する緑色のアイコン27aが表示され、画像22の中央部のやや左側に、赤色の対象点26bに対応する赤色のアイコン27bが表示されている。さらに、アイコン27a,27bには、人間A1,A2の種類(つまり、どの人か)を特定するための識別子28a,28bが付与されている。本実施形態では、緑色のアイコン27aに、識別子28aである緑色の数字「1」が付与され、赤色のアイコン27bに、識別子28bである緑色の数字「0」が付与されている。また、俯瞰平面の画像22上には、対象点26a,26bを示すアイコン27a,27bに加えて、カメラ11を示すアイコン29が表示されている。本実施形態のアイコン29は、三角形状をなす青色のアイコンであり、画像22の下側中央に表示されている。 Furthermore, circular icons 27a and 27b indicating object points 26a and 26b displayed on the actual image 21 are displayed on the bird's-eye view plane image 22 . In this embodiment, a green icon 27a corresponding to the green target point 26a is displayed slightly above the center of the image 22, and a red icon 27a corresponding to the red target point 26b is displayed slightly left of the center of the image 22. icon 27b is displayed. Furthermore, the icons 27a and 27b are provided with identifiers 28a and 28b for identifying the types of the humans A1 and A2 (that is, who they are). In this embodiment, the green icon 27a is given the green number "1" as the identifier 28a, and the red icon 27b is given the green number "0" as the identifier 28b. In addition to icons 27a and 27b indicating target points 26a and 26b, an icon 29 indicating the camera 11 is displayed on the image 22 of the bird's-eye view plane. The icon 29 of the present embodiment is a triangular blue icon and is displayed in the lower center of the image 22 .

次に、物体位置推定表示装置1の電気的構成について説明する。 Next, the electrical configuration of the object position estimation display device 1 will be described.

図1に示されるように、物体位置推定表示装置1はパソコン(図示略)を備えており、パソコンは、装置全体を統括的に制御する制御装置40(プロセッサ)を備えている。制御装置40は、CPU41、ROM42、RAM43等からなる周知のコンピュータにより構成されている。CPU41には、パソコンのディスプレイ12及びパソコンのキーボード13が電気的に接続されている。また、本実施形態では、制御装置40にカメラ11をUSB(Universal Serial Bus)ケーブルを介して接続することにより、CPU41にカメラ11が電気的に接続される。そして、RAM43には、カメラ11が取得した画像21が記憶されるようになっている。また、ROM42には、物体位置推定表示装置1を制御するためのプログラム(物体位置推定表示プログラム)が記憶されている。 As shown in FIG. 1, the object position estimation display device 1 includes a personal computer (not shown), and the personal computer includes a control device 40 (processor) that controls the entire device. The control device 40 is composed of a well-known computer including a CPU 41, a ROM 42, a RAM 43, and the like. The display 12 of the personal computer and the keyboard 13 of the personal computer are electrically connected to the CPU 41 . In this embodiment, the camera 11 is electrically connected to the CPU 41 by connecting the camera 11 to the control device 40 via a USB (Universal Serial Bus) cable. The image 21 acquired by the camera 11 is stored in the RAM 43 . The ROM 42 also stores a program (object position estimation display program) for controlling the object position estimation display device 1 .

次に、物体位置推定表示装置1を用いて、人間A1,A2の位置を推定して表示する方法(物体位置推定表示方法)を説明する。 Next, a method of estimating and displaying the positions of humans A1 and A2 using the object position estimation display device 1 (object position estimation display method) will be described.

次に、カメラ11と室内の床面31との位置関係を把握する方法について説明する。まず、制御装置40のCPU41は、図4に示すステップS10(マーカー撮像ステップ)において、カメラ11を用いて、床面31上に設置されたマーカー32(図3(a)参照)を撮像する。 Next, a method for grasping the positional relationship between the camera 11 and the floor surface 31 in the room will be described. First, the CPU 41 of the control device 40 uses the camera 11 to capture an image of the marker 32 (see FIG. 3A) placed on the floor surface 31 in step S10 (marker imaging step) shown in FIG.

ところで、図5に示されるように、マーカー32とカメラ11との位置関係は、回転行列Rと並進ベクトルtとからなる外部パラメータで表されている。また、マーカー32は、自身を中心とした座標系(マーカー座標系)を有している。一方、カメラ11も、自身を中心とした座標系(カメラ座標系)を有している。 By the way, as shown in FIG. 5, the positional relationship between the marker 32 and the camera 11 is represented by external parameters consisting of a rotation matrix R and a translation vector t. In addition, the marker 32 has a coordinate system centered on itself (marker coordinate system). On the other hand, the camera 11 also has a coordinate system centered on itself (camera coordinate system).

そこで、CPU41は、図4に示すステップS20(位置関係把握ステップ)において、撮像したマーカー32を基準としたマーカー座標系上の点(X,Y,Z)を、カメラ11を基準としたカメラ座標系上の点(x,y,z)に変換する(図5参照)。なお、カメラ座標系上の点(x,y,z)は、次式(1)にて算出することができる。

Figure 2023120758000002
Therefore, in step S20 (positional relationship comprehension step) shown in FIG. Convert to a point (x, y, z) on the system (see FIG. 5). A point (x, y, z) on the camera coordinate system can be calculated by the following equation (1).
Figure 2023120758000002

次に、CPU41は、床面31からカメラ11までの高さhを算出するとともに、床面31からカメラ11に延びる垂線とカメラ11からマーカー32に延びる線分とがなす角度θを算出することにより、カメラ11と床面31との位置関係を把握する(図6参照)。即ち、CPU41は、『位置関係把握手段』としての機能を有している。なお、カメラ11と床面31との位置関係は、カメラ座標系上の床面ベクトルFとして表される。床面ベクトルFの長さは、カメラ11から床面31までの距離と等しくなっている。また、床面ベクトルFの向きは、マーカー座標系のZ軸の向きとは逆向き(つまり、床面31に対して垂直)になっている。 Next, the CPU 41 calculates the height h from the floor surface 31 to the camera 11, and also calculates the angle θ t between the perpendicular line extending from the floor surface 31 to the camera 11 and the line segment extending from the camera 11 to the marker 32. Thus, the positional relationship between the camera 11 and the floor surface 31 is grasped (see FIG. 6). That is, the CPU 41 has a function as "positional relationship grasping means". Note that the positional relationship between the camera 11 and the floor surface 31 is expressed as a floor surface vector F on the camera coordinate system. The length of floor vector F is equal to the distance from camera 11 to floor 31 . The direction of the floor vector F is opposite to the direction of the Z-axis of the marker coordinate system (that is, perpendicular to the floor 31).

なお、床面ベクトルFは、ベクトル同士の幾何学的性質を利用して以下のように求められる。まず、カメラ座標系において、Z軸とは逆向きのベクトルfを算出する。なお、emzをマーカー座標系におけるZ軸方向の単位ベクトルとすると、ベクトルfは、回転行列Rに基づき、次式(2)にて算出することができる。

Figure 2023120758000003
The floor vector F is obtained as follows using the geometric properties of the vectors. First, in the camera coordinate system, a vector f in the direction opposite to the Z axis is calculated. Assuming that emz is a unit vector in the Z-axis direction in the marker coordinate system, the vector f can be calculated based on the rotation matrix R by the following equation (2).
Figure 2023120758000003

次に、並進ベクトルtが床面31からカメラ11に延びる垂線となす角度θtと、床面31からカメラ11までの高さhとを算出する。まず、並進ベクトルtとベクトルfとの内積により、角度θtは、次式(3)にて算出することができる。

Figure 2023120758000004
Next, the angle θ t formed between the translation vector t and a vertical line extending from the floor 31 to the camera 11 and the height h from the floor 31 to the camera 11 are calculated. First, the angle θ t can be calculated by the following equation (3) from the inner product of the translation vector t and the vector f.
Figure 2023120758000004

また、高さhは、次式(4)にて算出することができる。

Figure 2023120758000005
Also, the height h can be calculated by the following equation (4).
Figure 2023120758000005

次に、ベクトルfをスケーリングして、床面ベクトルFを算出する。なお、床面ベクトルFは、次式(5)にて算出することができる。

Figure 2023120758000006
Next, the floor vector F is calculated by scaling the vector f. The floor vector F can be calculated by the following equation (5).
Figure 2023120758000006

次に、カメラ11を基準とした人間A1,A2の位置を推定して表示する方法を以下に説明する。なお、本実施形態では、撮像した画像21の中央部付近に映る人間A1の位置を推定して表示する方法について説明する。具体的には、算出した床面ベクトルFに基づいて、カメラ11を基準とした俯瞰座標系上における対象点26aの位置を求める(図7参照)。俯瞰座標系は、カメラ11や床面31を垂直に俯瞰した座標系であり、カメラ11と同じ方向にy軸、y軸と直交する向きをx軸としたxy座標系として表される。3次元的には、床面ベクトルFをz軸とした左手座標系に相当する。 Next, a method of estimating and displaying the positions of the humans A1 and A2 with reference to the camera 11 will be described below. In this embodiment, a method of estimating and displaying the position of the person A1 appearing in the vicinity of the central portion of the captured image 21 will be described. Specifically, based on the calculated floor vector F, the position of the target point 26a on the overhead coordinate system with the camera 11 as a reference is obtained (see FIG. 7). The overhead coordinate system is a coordinate system in which the camera 11 and the floor surface 31 are viewed vertically, and is represented as an xy coordinate system in which the y-axis is in the same direction as the camera 11 and the x-axis is in the direction orthogonal to the y-axis. Three-dimensionally, it corresponds to a left-handed coordinate system with the floor vector F as the z-axis.

なお、位置推定を行うためには、カメラ11の内部パラメータが必要である。内部パラメータとは、カメラ11の焦点距離f,fや光学中心c,cからなる行列である。次式(6)により、カメラ座標系上の点(x,y,z)を画像平面上の点(a,b)へと変換することができる。

Figure 2023120758000007
Note that the internal parameters of the camera 11 are necessary for position estimation. The internal parameters are matrices consisting of focal lengths f x and f y and optical centers c x and c y of the camera 11 . A point (x, y, z) on the camera coordinate system can be transformed into a point (a, b) on the image plane by the following equation (6).
Figure 2023120758000007

また、内部パラメータは、OpenCV(Open Source Computer Vision Library )で用意されているCalibrateCamera関数 や、カメラ11のデータシートからの計算等により算出することができる。そして、CPU41は、図4に示すステップS30(内部パラメータ入力ステップ)において、カメラ11の内部パラメータの情報(内部パラメータ情報)をRAM43に記憶する。即ち、RAM43は、カメラ11の内部パラメータ情報を記憶する『記憶手段』としての機能を有している。 In addition, the internal parameters can be calculated using the CalibrateCamera function provided by OpenCV (Open Source Computer Vision Library), calculation from the data sheet of the camera 11, or the like. Then, the CPU 41 stores the internal parameter information (internal parameter information) of the camera 11 in the RAM 43 in step S30 (internal parameter input step) shown in FIG. That is, the RAM 43 has a function as a “storage means” for storing internal parameter information of the camera 11 .

続くステップS40(対象点設定ステップ)において、CPU41は、撮像した画像21に映る人間A1の足元に設定される所定の点を、対象点26aとして設定する。即ち、CPU41は、『対象点設定手段』としての機能を有している。詳述すると、本実施形態のCPU41は、学習部としての機能を有している。学習部は、カメラ11が取得した画像21の画像データに基づいて、対象点26aの設定箇所(人間A1の足元)をどのようにして認識するかを予め学習し、学習結果を得る。そして、学習部は、得られた学習結果を示すデータをRAM43に記憶する。さらに、CPU41は、RAM43に記憶されている学習結果に基づいて、対象点26aの設定方法を決定し、その決定した内容に沿ってCPU41による対象点26aの設定を行わせる。このようにすれば、学習部による学習結果に基づいて、対象点26aの設定方法が最適化されるため、最適化した内容に沿って対象点26aを設定することにより、対象点26aを正確に設定することができる。しかも、学習部による学習機会を多くすれば、対象点26aの設定方法がより最適化されるため、対象点26aをより正確に設定することが可能となる。 In subsequent step S40 (target point setting step), the CPU 41 sets a predetermined point set at the feet of the person A1 appearing in the captured image 21 as the target point 26a. That is, the CPU 41 has a function as "target point setting means". More specifically, the CPU 41 of this embodiment functions as a learning section. Based on the image data of the image 21 acquired by the camera 11, the learning unit learns in advance how to recognize the set point (the feet of the person A1) of the target point 26a, and obtains the learning result. Then, the learning unit stores data indicating the obtained learning result in the RAM 43 . Further, the CPU 41 determines the method of setting the target point 26a based on the learning result stored in the RAM 43, and causes the CPU 41 to set the target point 26a according to the determined content. In this way, the method of setting the target point 26a is optimized based on the learning result of the learning section. can be set. In addition, if the learning unit has more chances to learn, the method of setting the target point 26a is optimized, so that the target point 26a can be set more accurately.

続くステップS50(対象点位置推定ステップ)において、CPU41は、位置関係把握ステップにおいて把握した位置関係の情報(位置関係情報)と、RAM43に記憶されている内部パラメータ情報とに基づいて、カメラ11を基準とした俯瞰座標系上における対象点26aの位置を推定する。即ち、CPU41は、『対象点位置推定手段』としての機能を有している。具体的に言うと、図8,図9に示されるように、カメラ11を基準とした座標系上における対象点26aの位置(x,y)を、以下のように算出する。まず、人間A1を撮像するなどして、図9に示す対象点(u,v)を決定する。この対象点(u,v)は、俯瞰平面上に存在するものと仮定される。 In subsequent step S50 (target point position estimation step), the CPU 41 moves the camera 11 based on the positional relationship information (positional relationship information) ascertained in the positional relationship ascertaining step and the internal parameter information stored in the RAM 43. The position of the target point 26a on the reference overhead coordinate system is estimated. That is, the CPU 41 has a function as "object point position estimation means". Specifically, as shown in FIGS. 8 and 9, the position (x, y) of the target point 26a on the coordinate system with the camera 11 as a reference is calculated as follows. First, an object point (u, v) shown in FIG. 9 is determined by, for example, taking an image of a person A1. This target point (u, v) is assumed to exist on the overhead plane.

そして、次式(7)により、対象点(u,v)に対する3次元的な方向ベクトルdを算出する。

Figure 2023120758000008

なお、図9では、画像平面に映った人間A1の足元を対象点(u,v)としたうえで、対象点(u,v)に対する方向ベクトルdを求めている。次に、次式(8)により、床面ベクトルFと方向ベクトルdとのなす角度θを算出する。
Figure 2023120758000009
Then, a three-dimensional direction vector d for the object point (u, v) is calculated by the following equation (7).
Figure 2023120758000008

In FIG. 9, the feet of the person A1 reflected on the image plane are set as the target point (u, v), and the direction vector d for the target point (u, v) is obtained. Next, the angle θ d between the floor vector F and the direction vector d is calculated by the following equation (8).
Figure 2023120758000009

さらに、次式(9)により、人間A1までの直線距離dを算出した後、次式(10)により、床面31上における距離lを算出する。

Figure 2023120758000010

Figure 2023120758000011
Furthermore, after calculating the linear distance d to the human A1 by the following equation (9), the distance ld on the floor surface 31 is calculated by the following equation (10).
Figure 2023120758000010

Figure 2023120758000011

そして、次式(11)により、方向ベクトルdをスケーリングしてDを算出した後、次式(12)により、ベクトルgを算出する。

Figure 2023120758000012

Figure 2023120758000013

なお、ベクトルgは、カメラ座標系における、俯瞰平面上での原点から対象点26aまでの位置を示している。 Then, after calculating D by scaling the direction vector d according to the following equation (11), the vector g is calculated according to the following equation (12).
Figure 2023120758000012

Figure 2023120758000013

The vector g indicates the position from the origin on the overhead plane to the target point 26a in the camera coordinate system.

その後、式(8)~式(12)と同様の式を用いて、カメラ座標系上のz軸方向の単位ベクトルeczに対して、ベクトルgを求める(具体的には、式(8)~式(12)の方向ベクトルdを単位ベクトルe、ベクトルgをベクトルgに読み替える)。なお、図8に示されるように、ベクトルgは、カメラ座標系において、俯瞰座標系のy軸と平行になっている。 Then, using equations similar to equations (8) to (12), a vector g y is obtained for the unit vector e cz in the z-axis direction on the camera coordinate system (specifically, equation (8 ) to replace the direction vector d in equation (12) with the unit vector e z and the vector g with the vector g y ). Note that, as shown in FIG. 8, the vector g y is parallel to the y-axis of the overhead coordinate system in the camera coordinate system.

次に、次式(13)を用いて、ベクトルgを床面ベクトルFの周りで90°回転させたベクトルgを求める。

Figure 2023120758000014

ここで、Rは回転行列であり、床面ベクトルFを(F,F,F)で示したとき、回転行列Rは次式(14)にて算出することができる。
Figure 2023120758000015

また、ベクトルgは、カメラ座標系において、俯瞰座標系のx軸と平行になっている。 Next, the vector g x obtained by rotating the vector g y around the floor vector F by 90° is obtained using the following equation (13).
Figure 2023120758000014

Here, R F is a rotation matrix, and when the floor vector F is represented by (F x , F y , F z ), the rotation matrix R F can be calculated by the following equation (14).
Figure 2023120758000015

Also, the vector gx is parallel to the x-axis of the overhead coordinate system in the camera coordinate system.

次に、内積により、ベクトルgとベクトルgとがなす角度θを、次式(15),(16)を用いて算出する。

Figure 2023120758000016

Figure 2023120758000017
Next, from the inner product, the angle θ formed by vector g and vector g y is calculated using the following equations (15) and (16).
Figure 2023120758000016

Figure 2023120758000017

その結果、距離l及び角度θから、対象点26aの位置(x,y)が極座標表示として得られたので、(x,y)は、x=lsinθ,y=lcosθとなる。これにより、カメラ11を基準とした人間A1の位置が推定される。 As a result, the position (x, y) of the object point 26a was obtained as a polar coordinate display from the distance ld and the angle θ, so (x, y) becomes x= ld sin θ and y= ld cos θ. . As a result, the position of the person A1 with respect to the camera 11 is estimated.

その後、CPU41は、図4に示すステップS60(表示ステップ)において、ディスプレイ12に俯瞰平面の画像22を表示させるとともに、その画像22上に対象点26aを示すアイコン27aを表示させる処理を行う。これにより、推定された人間A1の位置が表示される。 Thereafter, in step S60 (display step) shown in FIG. 4, the CPU 41 displays the bird's-eye view plane image 22 on the display 12 and displays an icon 27a indicating the target point 26a on the image 22. FIG. Thereby, the estimated position of the person A1 is displayed.

従って、本実施形態によれば以下の効果を得ることができる。 Therefore, according to this embodiment, the following effects can be obtained.

(1)本実施形態の物体位置推定表示装置1では、床面31上にマーカー32を設置し、設置されたマーカー32をカメラ11で撮像するだけで、CPU41は、撮像したマーカー32とカメラ11との位置関係を外部パラメータを用いて自動的に把握し、カメラ11と床面31との位置関係を自動的に把握する。さらに、CPU41は、把握した位置関係情報に基づいて、カメラ11を基準とした俯瞰座標系上における対象点26a,26bの位置を自動的に推定する。つまり、マーカー32を設置するだけで、対象点26a,26bの位置が推定可能な状態となる。このため、推定した対象点26a,26bの位置に基づいて、人間A1,A2の位置を容易に推定することができる。しかも、CPU41は、外部パラメータである位置関係情報に加えて、カメラ11の内部パラメータに基づいて対象点26a,26bの位置を推定するため、人間A1,A2の位置を正確に推定することができる。さらに、CPU41は、床面31からカメラ11までの高さh(図6参照)、及び、床面31からカメラ11に延びる垂線とカメラ11からマーカー32に延びる線分とがなす角度θ(図6参照)を算出することにより、カメラ11と床面31との位置関係を把握する。このため、人間A1,A2の位置をより正確に推定することができる。また、ディスプレイ12は、俯瞰平面の画像22を表示するとともにその画像22上に対象点26a,26bを示すアイコン27a,27bを表示する。これにより、推定した人間A1,A2の位置を分かりやすく表示することができる。 (1) In the object position estimation display device 1 of the present embodiment, the marker 32 is placed on the floor surface 31 and the camera 11 captures an image of the placed marker 32 . are automatically grasped using external parameters, and the positional relation between the camera 11 and the floor surface 31 is automatically grasped. Furthermore, the CPU 41 automatically estimates the positions of the target points 26a and 26b on the bird's-eye view coordinate system with the camera 11 as a reference based on the grasped positional relationship information. In other words, the positions of the target points 26a and 26b can be estimated only by setting the marker 32. FIG. Therefore, the positions of the humans A1 and A2 can be easily estimated based on the estimated positions of the target points 26a and 26b. Moreover, since the CPU 41 estimates the positions of the object points 26a and 26b based on the internal parameters of the camera 11 in addition to the positional relationship information which is the external parameter, the positions of the humans A1 and A2 can be accurately estimated. . Furthermore, the CPU 41 determines the height h (see FIG. 6) from the floor surface 31 to the camera 11, and the angle θ t ( 6), the positional relationship between the camera 11 and the floor surface 31 is grasped. Therefore, the positions of the humans A1 and A2 can be estimated more accurately. In addition, the display 12 displays an overhead view plane image 22 and displays icons 27a and 27b indicating target points 26a and 26b on the image 22. FIG. This makes it possible to display the estimated positions of the humans A1 and A2 in an easy-to-understand manner.

(2)引用文献1には、カメラによって撮像された画像データ内の被写体(人間)の高さ等に基づいて、被写体の位置を推定する技術が開示されている(引用文献1の請求項4、図5等を参照)。しかしながら、被写体の高さ(身長)はバラバラである。また、被写体が近くにあれば画像データ内の被写体が高くなり、被写体が遠くにあれば画像データ内の被写体が低くなってしまう。よって、被写体の高さに基づいて被写体の位置を正確に推定することは困難である。 (2) Cited Document 1 discloses a technique for estimating the position of a subject based on the height of the subject (human) in image data captured by a camera (Claim 4 of Cited Document 1). , see FIG. 5, etc.). However, the heights (heights) of subjects are different. Also, if the subject is close, the subject in the image data will be high, and if the subject is far away, the subject in the image data will be low. Therefore, it is difficult to accurately estimate the position of the subject based on the height of the subject.

一方、本実施形態では、CPU41によって設定される対象点26a,26bが人間A1,A2の足元に設定されるため、例えば、撮像した画像21に映る人間A1,A2の高さ(身長)が互いに異なる場合であっても、対象点26a,26bを床面31に設置している箇所に設定することができる。これにより、カメラ11を基準とした俯瞰座標系上における対象点26a,26bの位置を、正確に推定することができる。 On the other hand, in the present embodiment, the target points 26a and 26b set by the CPU 41 are set at the feet of the humans A1 and A2. Even if they are different, the target points 26 a and 26 b can be set at locations on the floor surface 31 . As a result, the positions of the object points 26a and 26b on the bird's-eye view coordinate system with the camera 11 as a reference can be accurately estimated.

(3)本実施形態のディスプレイ12には、俯瞰平面の画像22が表示され、その画像22上には、縦1m×横1mの格子を示すマスを構成する格子線25が表示されている。このため、格子線25に対象点26a,26bを示すアイコン27a,27bを表示することにより、人間A1,A2の位置を正確に知ることができる。 (3) The display 12 of the present embodiment displays a bird's-eye view image 22, and on the image 22, grid lines 25 forming a grid of 1 m long by 1 m wide are displayed. Therefore, by displaying the icons 27a and 27b indicating the target points 26a and 26b on the grid line 25, the positions of the humans A1 and A2 can be known accurately.

(4)本実施形態では、CPU41が、床面31からカメラ11までの高さh(図6参照)、及び、床面31からカメラ11に延びる垂線とカメラ11からマーカー32に延びる線分とがなす角度θ(図6参照)を算出することにより、カメラ11と床面31との位置関係を把握している。このため、専用の特殊なカメラを用いなくても、人間A1,A2の位置を簡単に精度良く推定することができる。なお、本実施形態では、人間A1,A2を撮像するカメラ11として、比較的安価な単眼カメラを用いている。よって、人間A1,A2の撮像に高価なデプスカメラ等を用いる場合と比較して、装置のコストを低減することができる。 (4) In the present embodiment, the CPU 41 determines the height h from the floor 31 to the camera 11 (see FIG. 6), the vertical line extending from the floor 31 to the camera 11, and the line segment extending from the camera 11 to the marker 32. The positional relationship between the camera 11 and the floor surface 31 is grasped by calculating the angle θ t (see FIG. 6) formed by the two. Therefore, the positions of the humans A1 and A2 can be easily estimated with high accuracy without using a special dedicated camera. In this embodiment, a relatively inexpensive monocular camera is used as the camera 11 for capturing images of the humans A1 and A2. Therefore, the cost of the device can be reduced compared to the case where an expensive depth camera or the like is used for imaging the humans A1 and A2.

[第2実施形態]
以下、本発明を具体化した第2実施形態を図10,図11に基づいて説明する。ここでは、前記第1実施形態と相違する部分を中心に説明する。本実施形態では、物体位置推定表示装置1が2台のカメラ51,52(第1のカメラ51、第2のカメラ52)を有している点が、前記第1実施形態とは異なっている。
[Second embodiment]
A second embodiment embodying the present invention will be described below with reference to FIGS. 10 and 11. FIG. Here, the description will focus on the parts that are different from the first embodiment. This embodiment differs from the first embodiment in that the object position estimation display device 1 has two cameras 51 and 52 (first camera 51 and second camera 52). .

まず、2台のカメラ51,52を接続する方法を説明する。なお、前提として、使用するカメラ51,52は、床面31との位置関係が床面ベクトルF,Fの形で分かっている必要がある。また、マーカー61は、床面31上に設置されており、識別子(本実施形態ではID)によって、マーカー61の種類(形状)を識別できる必要がある。 First, a method of connecting the two cameras 51 and 52 will be described. As a premise, the cameras 51 and 52 to be used need to know the positional relationship with the floor surface 31 in the form of floor surface vectors F 1 and F 2 . Moreover, the marker 61 is installed on the floor surface 31, and it is necessary that the type (shape) of the marker 61 can be identified by an identifier (ID in this embodiment).

まず、それぞれのカメラ51,52によってマーカー61を撮像し、マーカー61と第1のカメラ51との位置関係(R,t)と、マーカー61と第2のカメラ52との位置関係(R,t)とを推定する。その際、両カメラ51,52が同じマーカー61を撮像しているか否かを、マーカー61のIDによって確認する。 First, an image of the marker 61 is captured by the respective cameras 51 and 52, and the positional relationship (R 1 , t 1 ) between the marker 61 and the first camera 51, 2 , t 2 ). At that time, it is confirmed by the ID of the marker 61 whether or not the two cameras 51 and 52 are imaging the same marker 61 .

このようにしてマーカー61を撮像した場合、カメラ51,52同士の直接的な位置関係は分からないが、世界座標系(マーカー座標系)は共有されている。このため、それぞれのカメラ51,52から見た点を、マーカー61から見た点に変換して比較したり、さらに他方のカメラから見た点に変換したりすることが可能である。 When the marker 61 is imaged in this way, the direct positional relationship between the cameras 51 and 52 is unknown, but the world coordinate system (marker coordinate system) is shared. Therefore, it is possible to convert points seen from the respective cameras 51 and 52 into points seen from the marker 61 and compare them, or to convert them into points seen from the other camera.

そこで、CPU41は、隣接するカメラ51,52の俯瞰座標系同士をマーカー61を介して接続する演算処理を行うことにより、それぞれのカメラ51,52で撮像された画像21同士を繋げる処理を行う。ここで、「カメラ51,52で撮像された画像21同士を繋げる処理」とは、カメラ51,52同士の位置関係を把握し、一方のカメラ(本実施形態では第2のカメラ52)の俯瞰座標系の点(x,y)を、もう一方のカメラ(本実施形態では第1のカメラ51)の俯瞰座標系の点(x,y)に変換する処理をいう。なお、第1のカメラ51の俯瞰座標系の点(x,y)を、第2のカメラ52の俯瞰座標系の点(x,y)に変換する処理を行ってもよいし、第1のカメラ51の俯瞰座標系の点(x,y)及び第2のカメラ52の俯瞰座標系の点(x,y)の両方を、他の俯瞰座標系の点に変換する処理を行ってもよい。 Therefore, the CPU 41 performs processing for connecting the images 21 captured by the respective cameras 51 and 52 by performing arithmetic processing for connecting the overhead coordinate systems of the adjacent cameras 51 and 52 via the markers 61 . Here, "the process of connecting the images 21 captured by the cameras 51 and 52" means that the positional relationship between the cameras 51 and 52 is grasped and one camera (the second camera 52 in this embodiment) is viewed from above. This is a process of transforming a point (x 2 , y 2 ) in the coordinate system into a point (x 1 , y 1 ) in the overhead coordinate system of the other camera (the first camera 51 in this embodiment). Note that processing may be performed to convert the point (x 1 , y 1 ) of the overhead coordinate system of the first camera 51 to the point (x 2 , y 2 ) of the overhead coordinate system of the second camera 52. , both the point (x 1 , y 1 ) of the bird's-eye coordinate system of the first camera 51 and the point (x 2 , y 2 ) of the bird's-eye coordinate system of the second camera 52 are converted to other points of the bird's-eye coordinate system A conversion process may be performed.

図11に示されるように、各カメラ51,52の俯瞰座標系は同じ床面31上に属しているため、俯瞰座標系同士の変換は、アフィン変換による回転行列R及び並進行列Tによって行うことができる。具体的には、上記したマーカー座標系の性質を利用して、以下の手順によって、アフィン変換行列Aを求める。 As shown in FIG. 11, since the overhead coordinate systems of the cameras 51 and 52 belong to the same floor surface 31, conversion between the overhead coordinate systems is performed using a rotation matrix R and a translation matrix T by affine transformation. can be done. Specifically, using the properties of the marker coordinate system described above, the affine transformation matrix A is obtained by the following procedure.

まず、それぞれのカメラ51,52の床面ベクトルF,Fを、次式(17)によって逆変換し、マーカー座標系から見た床面ベクトルFM1,FM2に変換する。

Figure 2023120758000018
First, the floor vectors F 1 and F 2 of the respective cameras 51 and 52 are inversely transformed by the following equation (17) to be transformed into floor vectors F M1 and F M2 viewed from the marker coordinate system.
Figure 2023120758000018

次に、それぞれのカメラ51,52の単位ベクトルez1,ez2を、次式(18)を用いて、マーカー座標系から見た俯瞰座標系におけるカメラ51,52の方向ベクトルdM1,dM2に変換する。

Figure 2023120758000019

ここで、squeeze(A) は、次式(19)によって算出される。
Figure 2023120758000020
Next, the unit vectors e z1 and e z2 of the respective cameras 51 and 52 are converted to the direction vectors d M1 and d M2 of the cameras 51 and 52 in the bird's-eye coordinate system viewed from the marker coordinate system using the following equation (18). Convert to
Figure 2023120758000019

Here, squeeze(A) is calculated by the following equation (19).
Figure 2023120758000020

さらに、以下のようにして、並進行列Tを算出する。まず、マーカー座標系上の単位ベクトルをeMyとし、方向ベクトルdM1と単位ベクトルeMyとがなす角度をθとすると、角度θは、次式(20)によって算出される。

Figure 2023120758000021

ここで、sign(a,b)は、次式(21)によって算出される。
Figure 2023120758000022
Furthermore, the translation matrix T is calculated as follows. First, let e My be a unit vector on the marker coordinate system, and let θ T be the angle formed by the direction vector d M1 and the unit vector e My , then the angle θ T is calculated by the following equation (20).
Figure 2023120758000021

Here, sign(a, b) is calculated by the following equation (21).
Figure 2023120758000022

さらに、原点がマーカー座標系と共通で、第1のカメラ51に対する俯瞰座標系と平行な座標軸を持つ座標系にマーカー座標系を変換する際のアフィン変換行列Aは、次式(22)によって算出される。

Figure 2023120758000023
Furthermore, the affine transformation matrix A1 for transforming the marker coordinate system into a coordinate system having a common origin with the marker coordinate system and a coordinate axis parallel to the overhead coordinate system for the first camera 51 is obtained by the following equation (22). Calculated.
Figure 2023120758000023

また、上記の座標系上において、第2のカメラ52から第1のカメラ51への並進ベクトルt=(t,t,t)は、次式(23)によって算出される。

Figure 2023120758000024
Also, on the above coordinate system, the translation vector t=(t 1 , t 2 , t 3 ) from the second camera 52 to the first camera 51 is calculated by the following equation (23).
Figure 2023120758000024

そして、並進行列Tは、次式(24)によって算出される。

Figure 2023120758000025
Then, the translation matrix T is calculated by the following equation (24).
Figure 2023120758000025

さらに、以下のようにして、回転行列Rを算出する。まず、方向ベクトルdM1と方向ベクトルdM2とがなす角度をθとすると、角度θは、次式(25)によって算出される。

Figure 2023120758000026
Furthermore, the rotation matrix R is calculated as follows. First, assuming that the angle formed by the direction vector dM1 and the direction vector dM2 is θR , the angle θR is calculated by the following equation (25).
Figure 2023120758000026

そして、回転行列Rは、次式(26)によって算出される。

Figure 2023120758000027
Then, the rotation matrix R is calculated by the following equation (26).
Figure 2023120758000027

次に、次式(27)により、回転行列Rと並進行列Tとが合成されたアフィン変換行列Aを得る。

Figure 2023120758000028

なお、第2のカメラ52の俯瞰座標系上の点(x,y)から第1のカメラ51の俯瞰座標系上の点(x,y)への変換は、次式(28)によって算出される。
Figure 2023120758000029
Next, the affine transformation matrix A obtained by synthesizing the rotation matrix R and the translation matrix T is obtained by the following equation (27).
Figure 2023120758000028

Note that the conversion from the point (x 2 , y 2 ) on the bird's-eye coordinate system of the second camera 52 to the point (x 1 , y 1 ) on the bird's-eye coordinate system of the first camera 51 is expressed by the following equation (28) ).
Figure 2023120758000029

従って、本実施形態によれば、隣接するカメラ51,52の俯瞰座標系同士を、両カメラ51,52に共通して映っているマーカー61を介して接続する。具体的に言うと、例えば、一方のカメラ(第2のカメラ52)の俯瞰座標系の点を、もう一方のカメラ(第1のカメラ51)の俯瞰座標系の点に変換し、俯瞰座標系を共通化する。これにより、人間の位置を把握可能な範囲が拡張される。その結果、例えば撮像対象空間が広くて1台のカメラだけでは空間全体をカバーできない場合(例えば、画像21の隅等の領域をカバーできない場合)であっても、他のカメラと併せて撮像することで、死角がなくなり、空間全体において人間の位置を確実に把握することができる。また、人間の位置の推定精度も向上する。しかも、俯瞰座標系が、基準となる1つのカメラに合わせて統一されるため、把握した人間の位置は、使用者にとっても分かりやすいものとなる。 Therefore, according to the present embodiment, the bird's-eye view coordinate systems of the adjacent cameras 51 and 52 are connected via the marker 61 that is shared by both cameras 51 and 52 . Specifically, for example, points in the overhead coordinate system of one camera (second camera 52) are converted into points in the overhead coordinate system of the other camera (first camera 51), and commonality. This expands the range in which a person's position can be grasped. As a result, for example, even if the imaging target space is so large that one camera alone cannot cover the entire space (for example, if the area such as the corner of the image 21 cannot be covered), the image can be captured together with other cameras. As a result, blind spots are eliminated, and the position of the person can be reliably grasped in the entire space. Also, the accuracy of estimating the position of a person is improved. Moreover, since the bird's-eye view coordinate system is unified in accordance with one camera that serves as a reference, the grasped position of the person can be easily understood by the user.

[第3実施形態]
以下、本発明を具体化した第3実施形態を図12,図13に基づいて説明する。ここでは、前記第2実施形態と相違する部分を中心に説明する。本実施形態では、物体位置推定装置1が3台以上(ここでは5台)のカメラ71~75(第1のカメラ71、第2のカメラ72、第3のカメラ73、第4のカメラ74、第5のカメラ75)を有している点が、前記第2実施形態とは異なっている。
[Third Embodiment]
A third embodiment embodying the present invention will be described below with reference to FIGS. 12 and 13. FIG. Here, the description will focus on the portions that are different from the second embodiment. In this embodiment, the object position estimation device 1 includes three or more (here, five) cameras 71 to 75 (first camera 71, second camera 72, third camera 73, fourth camera 74, It differs from the second embodiment in that it has a fifth camera 75).

例えば、3台以上のカメラを接続する場合、即ち、カメラの俯瞰座標系を共通化する場合、全てのカメラから同じマーカーが見えていれば、上記第2実施形態の手法を適用できるため、接続が可能である。しかし、そのようなケースは珍しく、カメラの位置や画角の制限等によって、接続は不可能なことが多い。従って、この問題を解決するためには、複数のマーカーを利用してカメラの俯瞰座標系同士を共通化する必要がある。 For example, when connecting three or more cameras, that is, when sharing the bird's-eye view coordinate system of the cameras, if the same marker can be seen from all the cameras, the method of the second embodiment can be applied. is possible. However, such cases are rare, and connection is often impossible due to restrictions on camera positions and angles of view. Therefore, in order to solve this problem, it is necessary to use a plurality of markers to share the bird's-eye view coordinate systems of the cameras.

例えば、図12に示される物体位置推定表示装置70では、5台のカメラ71~75に対して2つのマーカー81A,81Bが設けられている。第1のカメラ71~第3のカメラ73にはマーカー81Aが見えていて、第3のカメラ73~第5のカメラ75にはマーカー81Bが見えている。 For example, in the object position estimation display device 70 shown in FIG. 12, two markers 81A and 81B are provided for five cameras 71-75. The first to third cameras 71 to 73 see a marker 81A, and the third to fifth cameras 73 to 75 see a marker 81B.

この場合、マーカー81A,81Bのそれぞれについて、同じマーカーが見えているカメラ同士の接続状態を調べた後、接続が判明している組み合わせに対して接続を繰り返す。例えば、図12において、第3のカメラ73-第1のカメラ71間の接続と、第5のカメラ75-第3のカメラ73間の接続とが既に判明している場合に、第5のカメラ75と第1のカメラ71とを接続する方法について説明する。まず、CPU41は、第5のカメラ75の俯瞰座標系と第3のカメラ73の俯瞰座標系とをマーカー81Bを介して接続することにより、第5のカメラ75の俯瞰座標系の点を、第3のカメラ73の俯瞰座標系の点に変換する。次に、CPU41は、第3のカメラ73の俯瞰座標系と第1のカメラ71の俯瞰座標系とをマーカー81Aを介して接続することにより、変換した第3のカメラ73の俯瞰座標系の点を、第1のカメラ71の俯瞰座標系の点に変換する。その結果、第5のカメラ75の俯瞰座標系と第1のカメラ71の俯瞰座標系とが、マーカー81A,81Bを介して接続され、人間の位置を把握可能な範囲が段階的に拡張される。 In this case, for each of the markers 81A and 81B, after checking the connection state between the cameras in which the same marker is visible, the connection is repeated for the combinations for which the connection is known. For example, in FIG. 12, when the connection between the third camera 73 and the first camera 71 and the connection between the fifth camera 75 and the third camera 73 are already known, the fifth camera A method of connecting 75 and the first camera 71 will be described. First, the CPU 41 connects the bird's-eye coordinate system of the fifth camera 75 and the bird's-eye coordinate system of the third camera 73 via the marker 81B, so that the point of the bird's-eye coordinate system of the fifth camera 75 becomes the third 3 into points on the overhead coordinate system of the camera 73 . Next, the CPU 41 connects the bird's-eye coordinate system of the third camera 73 and the bird's-eye coordinate system of the first camera 71 via the marker 81A, so that the converted point of the bird's-eye coordinate system of the third camera 73 is displayed. is transformed into a point of the overhead coordinate system of the first camera 71 . As a result, the bird's eye coordinate system of the fifth camera 75 and the bird's eye coordinate system of the first camera 71 are connected via the markers 81A and 81B, and the range in which the position of the person can be grasped is expanded step by step. .

なお、このようなカメラ71~75同士の接続状態(即ち、カメラ71~75の俯瞰座標系同士が共通化された状態)は、図13に示される有向グラフを用いて簡単に示すことができる。各ノードは、カメラ71~75ごとに振り分けられた番号であり、各ノードを繋ぐ経路(図13では矢印)は、カメラ同士の接続が判明していることを意味している。また、それぞれの経路には、接続に対応する変換行列Aが重みとして加えられている。図13では、第1のカメラ71~第3のカメラ73が共通のマーカー81Aを介して接続され、第3のカメラ73~第5のカメラ75が共通のマーカー81Bを介して接続されている。なお、図13では、各ノードを繋ぐ経路の幾つかが省略されている。 Such a connection state between the cameras 71 to 75 (that is, a state in which the bird's-eye view coordinate systems of the cameras 71 to 75 are shared) can be easily shown using a directed graph shown in FIG. Each node is a number assigned to each of the cameras 71 to 75, and the path connecting each node (the arrow in FIG. 13) means that the connections between the cameras are known. Each route is weighted by a transformation matrix A corresponding to the connection. In FIG. 13, the first to third cameras 71 to 73 are connected via a common marker 81A, and the third to fifth cameras 73 to 75 are connected via a common marker 81B. It should be noted that some routes connecting nodes are omitted in FIG.

また、有向グラフを用いた場合、特定のカメラSから対象のカメラTへの接続は、カメラSからカメラTまでの経路を調べた後、経路上の重みを順番にかけていくことによって求められる。このような有向グラフをコンピュータ上で表現したり探索したりする方法は周知であり、実装も容易である。 When a directed graph is used, the connection from a specific camera S to a target camera T can be obtained by examining the route from the camera S to the camera T and then multiplying the weights on the route in order. Methods for representing and searching such directed graphs on computers are well known and easy to implement.

また、マーカー81A,81B及びカメラ71~75の設置方法によっては、特定のカメラ同士の接続が存在しない場合(有向グラフが分断されている場合)があるが、このような場合の検出も容易に行うことができる。 Also, depending on how the markers 81A and 81B and the cameras 71 to 75 are installed, there may be cases where there is no connection between specific cameras (when the directed graph is divided), but such cases can be easily detected. be able to.

なお、上記各実施形態を以下のように変更してもよい。 Note that each of the above embodiments may be modified as follows.

・上記各実施形態のカメラ11,51,52,71~75は、動画を撮像するビデオカメラであったが、静止画を撮像するカメラであってもよい。また、上記各実施形態のカメラ11,51,52,71~75は、単眼カメラであったが、複眼カメラ等の他のカメラであってもよい。さらに、映像の奥行きを測定できるデプスカメラやステレオカメラを用いてもよい。さらには、元々そこに設置されている既存のカメラを利用して、物体位置推定を行ってもよい。 The cameras 11, 51, 52, 71 to 75 in each of the above-described embodiments are video cameras that capture moving images, but they may be cameras that capture still images. Further, although the cameras 11, 51, 52, 71 to 75 in each of the above embodiments are monocular cameras, they may be other cameras such as a compound eye camera. Furthermore, a depth camera or a stereo camera that can measure the depth of an image may be used. Furthermore, an existing camera originally installed there may be used to estimate the object position.

・上記各実施形態では、人間A1,A2に設定される対象点26a,26bが、人間A1,A2の足元に設定されていたが、人間A1,A2の胸や頭等の他の箇所に設定されていてもよい。なお、人間A1,A2の高さ(身長)や姿勢が既知であれば、対象点26a,26bが人間A1,A2の足元に設定されていなくても、人間A1,A2の位置推定が可能となる。 - In each of the above embodiments, the target points 26a and 26b set for the humans A1 and A2 were set at the feet of the humans A1 and A2, but are set at other locations such as the chests and heads of the humans A1 and A2. may have been If the heights (statures) and postures of the humans A1 and A2 are known, the positions of the humans A1 and A2 can be estimated even if the target points 26a and 26b are not set at the feet of the humans A1 and A2. Become.

・上記各実施形態の物体位置推定表示装置1,70は、人間A1,A2の位置を推定するものであったが、ウシなどの家畜(物体)の位置を推定するものであってもよい。この場合、対象点設定手段であるCPU41は、画像21に映るウシの足元に対象点を設定する。例えば、画像21に映るウシの脚が3本である場合、CPU41は、最も左に映るウシの脚と最も右に映るウシの脚との中間位置等に対象点を設定する。そして、CPU41は、カメラを基準とした俯瞰座標系上における対象点の位置を推定する。また、物体位置推定表示装置1,70を利用して、家畜の健康状態等を推定するシステムを構成してもよい。具体的には、画像21に映るウシの速度等に基づいて、ウシが病気であるか否かを判定してもよい。また、画像21の画像データに基づいて、ウシが他のウシに接触しているか否か等を判定し、ウシが発情しているか否かを判定してもよい。なお、ウシ以外の家畜に応用してもよい。 - Although the object position estimation display devices 1 and 70 of each of the above embodiments estimate the positions of the humans A1 and A2, they may estimate the positions of livestock (objects) such as cows. In this case, the CPU 41 as the target point setting means sets the target point at the feet of the cow shown in the image 21 . For example, when there are three legs of a cow reflected in the image 21, the CPU 41 sets an object point at an intermediate position between the leftmost cow leg and the rightmost cow leg. Then, the CPU 41 estimates the position of the target point on the overhead coordinate system with the camera as a reference. Also, a system for estimating the health condition of livestock may be constructed using the object position estimation display devices 1 and 70 . Specifically, whether or not the cow is sick may be determined based on the speed or the like of the cow shown in the image 21 . Further, based on the image data of the image 21, it may be determined whether or not the cow is in heat by determining whether or not the cow is in contact with another cow. In addition, you may apply to livestock other than a cow.

・上記各実施形態のマーカー32,61,81A,81Bは、床面31に対して平行に設置されていた。しかしながら、家畜がいる床面に凹凸がある場合や、床面が家畜の糞尿で汚れている場合には、マーカーを床面31に平行に設置することが困難である。そこで、例えば図14に示されるように、マーカー91を、床面31に対して所定角度(ここでは90°)だけ傾斜させた状態で、床面31上に設置してもよい。なお、所定角度のデータは、物体位置推定表示装置1,70側(ROM42)に予め設定される必要がある。 - The markers 32 , 61 , 81A, and 81B in each of the above-described embodiments are installed parallel to the floor surface 31 . However, if the floor surface on which the livestock is present is uneven, or if the floor surface is stained with livestock manure, it is difficult to place the markers parallel to the floor surface 31 . Therefore, for example, as shown in FIG. 14, the marker 91 may be placed on the floor surface 31 while being inclined by a predetermined angle (here, 90°) with respect to the floor surface 31 . The data of the predetermined angle must be preset in the object position estimation display device 1, 70 (ROM 42).

・図3(b),(c)に示されるように、上記第1実施形態のマーカー32とは異なる幾何学的特徴(パターン)を有するマーカー33,34を用いてもよい。また、上記第1実施形態のマーカー32は、二次元的なArUcoマーカー であったが、QRコード(株式会社デンソーウェーブの登録商標)やAprilTag等の他の二次元的なマーカーであってもよい。さらに、絵、文字、記号等の他の二次元的なものをマーカーとして用いてもよい。また、床面31上に存在する突起等の三次元的なものを、マーカーとして用いてもよい。 - As shown in FIGS. 3(b) and 3(c), markers 33 and 34 having different geometric features (patterns) from the marker 32 of the first embodiment may be used. Also, the marker 32 in the first embodiment is a two-dimensional ArUco marker, but it may be a QR code (registered trademark of Denso Wave Co., Ltd.) or another two-dimensional marker such as AprilTag. . Furthermore, other two-dimensional objects such as pictures, letters, symbols, etc. may be used as markers. Also, a three-dimensional object such as a projection that exists on the floor surface 31 may be used as a marker.

次に、特許請求の範囲に記載された技術的思想のほかに、前述した実施形態によって把握される技術的思想を以下に列挙する。 Next, in addition to the technical ideas described in the claims, technical ideas grasped by the above-described embodiments are listed below.

(1)請求項1乃至7のいずれか1項において、前記位置関係把握手段は、回転行列と並進ベクトルとからなる外部パラメータを用いて、撮像した前記マーカーを基準としたマーカー座標系上の点を、前記カメラを基準としたカメラ座標系上の点に変換することを特徴とする物体位置推定表示装置。 (1) In any one of claims 1 to 7, the positional relationship grasping means uses external parameters consisting of a rotation matrix and a translation vector to determine points on the marker coordinate system with the imaged marker as a reference. into a point on a camera coordinate system with the camera as a reference.

(2)請求項1乃至7のいずれか1項において、前記内部パラメータ情報を記憶する記憶手段を備え、前記対象点位置推定手段は、前記位置関係把握手段が把握した位置関係情報と、前記記憶手段に記憶されている前記内部パラメータ情報とに基づいて、前記対象点の位置を推定することを特徴とする物体位置推定表示装置。 (2) In any one of claims 1 to 7, there is provided storage means for storing the internal parameter information, and the target point position estimation means stores the positional relationship information grasped by the positional relation grasping means and the stored and the internal parameter information stored in means for estimating the position of the target point.

(3)技術的思想(2)において、前記対象点位置推定手段は、前記内部パラメータ情報を算出して前記記憶手段に記憶させることを特徴とする物体位置推定表示装置。 (3) In the technical idea (2), the object position estimation display device is characterized in that the target point position estimation means calculates the internal parameter information and stores it in the storage means.

1,70…物体位置推定表示装置
11,51,52,71,72,73,74,75…カメラ
12…表示手段としてのディスプレイ
21…実際の画像
22…俯瞰平面の画像
26a,26b…対象点
27a,27b…対象点を示すアイコン
28a,28b…識別子
29…カメラを示すアイコン
31…平面としての床面
32,33,34,61,81A,81B,91…マーカー
40…プロセッサとしての制御装置
41…位置関係把握手段、対象点設定手段及び対象点位置推定手段としてのCPU
43…記憶手段としてのRAM
A1,A2…物体としての人間
h…平面からカメラまでの高さ
θt…平面からカメラに延びる垂線とカメラからマーカーに延びる線分とがなす角度
Reference Signs List 1, 70 Object position estimation display device 11, 51, 52, 71, 72, 73, 74, 75 Camera 12 Display 21 as display means Actual image 22 Bird's eye plane images 26a, 26b Object point 27a, 27b... Icons 28a, 28b indicating target points 29... Icons indicating cameras 31... Floor surfaces 32, 33, 34, 61, 81A, 81B, 91... Markers 40... Control device 41 as a processor ... CPU as positional relationship grasping means, target point setting means, and target point position estimating means
43... RAM as storage means
A1, A2... Human as an object h... Height from the plane to the camera θt... Angle between the perpendicular extending from the plane to the camera and the line segment extending from the camera to the marker

上記課題を解決するために、請求項1に記載の発明は、物体を撮像して画像を取得する固定式カメラと、前記画像を表示する表示手段とを備え、前記物体の位置を推定して表示する装置であって、平面上に設置され、特定の幾何学的特徴を有する二次元的なマーカーであるARマーカーを撮像する前記カメラと、撮像した前記マーカーを基準としたマーカー座標系上の点を、前記マーカー座標の原点周りに回転させる三次元回転行列と、前記カメラを基準としたカメラ座標系の原点まで前記マーカー座標の原点を並行移動させる並進ベクトルとからなる外部パラメータを用いて、前記マーカーを基準としたマーカー座標系上の点を、前記カメラを基準としたカメラ座標系上の点に変換する行列式を利用し、まず前記カメラ座標系において前記平面に対して垂直上向きのZ軸とは逆向きのベクトルを前記三次元回転行列に基づいて算出し、次に前記逆向きのベクトルと前記並進ベクトルとにより前記平面から前記カメラに延びる垂線と前記カメラから前記マーカーに延びる線分とがなす角度を算出し、さらに前記逆向きのベクトルと前記角度とにより前記平面から前記カメラまでの高さを算出した後、前記逆向きのベクトルと前記高さとに基づいて前記カメラから前記平面まで垂直に延びる鉛直ベクトルを算出することにより、前記カメラと前記平面との位置関係を把握する位置関係把握手段と、撮像した画像に映る前記物体の所定の点を対象点として設定する対象点設定手段と、前記位置関係把握手段が把握した位置関係情報としての前記鉛直ベクトルと、前記カメラの内部パラメータ情報とに基づいて、前記カメラを基準とした俯瞰座標系上における前記対象点の位置を推定する対象点位置推定手段とを備え、前記表示手段は、俯瞰平面の画像を表示するとともにその画像上に前記対象点を示すアイコンを表示することを特徴とする物体位置推定表示装置をその要旨とする。 In order to solve the above problems, the invention according to claim 1 includes a fixed camera that captures an image of an object and acquires the image, and display means that displays the image, and estimates the position of the object. A device for displaying, wherein the camera is installed on a plane and captures an image of an AR marker, which is a two-dimensional marker having a specific geometric feature, and the marker coordinate system is based on the captured marker. Using extrinsic parameters consisting of a three-dimensional rotation matrix that rotates a point around the origin of the marker coordinates and a translation vector that translates the origin of the marker coordinates to the origin of the camera coordinate system relative to the camera, Using a determinant that transforms a point on the marker coordinate system with reference to the marker into a point on the camera coordinate system with reference to the camera, first, in the camera coordinate system, Z A vector opposite to the axis is calculated based on the three-dimensional rotation matrix, and then a perpendicular extending from the plane to the camera and a line segment extending from the camera to the marker are calculated by the opposite vector and the translation vector. and a height from the plane to the camera is calculated from the reverse vector and the angle. a positional relationship grasping means for grasping the positional relation between the camera and the plane by calculating a vertical vector extending vertically to the camera; means, the vertical vector as the positional relationship information grasped by the positional relation grasping means, and internal parameter information of the camera, estimating the position of the target point on a bird's-eye view coordinate system with the camera as a reference. and object point position estimation means, wherein the display means displays an image of a bird's-eye view plane and displays an icon indicating the object point on the image. do.

なお、本発明の場合、マーカーが特定の幾何学的特徴を有する二次元的なマーカーであるため、マーカーが例えば三次元的なものである場合よりも形状情報が単純なものとなる。その結果、マーカーの形状情報に基づいた、カメラと平面との位置関係を把握する制御が容易になるため、位置関係把握手段にかかる負担を低減することができる。 In the case of the present invention, since the marker is a two-dimensional marker having specific geometric features, shape information is simpler than when the marker is, for example, three-dimensional. As a result, the control for grasping the positional relationship between the camera and the plane based on the shape information of the marker is facilitated, so that the load on the positional relation grasping means can be reduced.

請求項に記載の発明は、物体を撮像して画像を取得する固定式カメラと、前記画像を表示する表示手段とを備えた物体位置推定表示装置を用いて、前記物体の位置を推定して表示する方法であって、前記カメラを用いて、平面上に設置され、特定の幾何学的特徴を有する二次元的なマーカーであるARマーカーを撮像するマーカー撮像ステップと、撮像した前記マーカーを基準としたマーカー座標系上の点を、前記マーカー座標の原点周りに回転させる三次元回転行列と、前記カメラを基準としたカメラ座標系の原点まで前記マーカー座標の原点を並行移動させる並進ベクトルとからなる外部パラメータを用いて、前記マーカーを基準としたマーカー座標系上の点を、前記カメラを基準としたカメラ座標系上の点に変換する行列式を利用し、まず前記カメラ座標系において前記平面に対して垂直上向きのZ軸とは逆向きのベクトルを前記三次元回転行列に基づいて算出し、次に前記逆向きのベクトルと前記並進ベクトルとにより前記平面から前記カメラに延びる垂線と前記カメラから前記マーカーに延びる線分とがなす角度を算出し、さらに前記逆向きのベクトルと前記角度とにより前記平面から前記カメラまでの高さを算出した後、前記逆向きのベクトルと前記高さとに基づいて前記カメラから前記平面まで垂直に延びる鉛直ベクトルを算出することにより、前記カメラと前記平面との位置関係を把握する位置関係把握ステップと、前記カメラの内部パラメータ情報を記憶手段に入力する内部パラメータ入力ステップと、撮像した画像に映る前記物体の所定の点を対象点として設定する対象点設定ステップと、前記位置関係把握ステップにおいて把握した位置関係情報としての前記鉛直ベクトルと、前記記憶手段に記憶されている前記内部パラメータ情報とに基づいて、前記カメラを基準とした俯瞰座標系上における前記対象点の位置を推定する対象点位置推定ステップと、前記表示手段に俯瞰平面の画像を表示するとともに、その画像上に前記対象点を示すアイコンを表示する表示ステップとを含むことを特徴とする物体位置推定表示方法をその要旨とする。なお、請求項に記載の発明では、上記請求項1と同様の作用を奏することができる。 According to a seventh aspect of the present invention, the position of an object is estimated by using an object position estimation display device that includes a fixed camera that captures an image of an object and acquires the image, and display means that displays the image. a marker imaging step of imaging an AR marker, which is a two-dimensional marker that is placed on a plane and has specific geometric features, using the camera; and A three-dimensional rotation matrix that rotates a point on the marker coordinate system used as a reference around the origin of the marker coordinates, and a translation vector that translates the origin of the marker coordinates to the origin of the camera coordinate system based on the camera. A determinant for transforming a point on the marker coordinate system with the marker as a reference into a point on the camera coordinate system with the camera as the reference, using an extrinsic parameter consisting of A vector opposite to the Z-axis perpendicular to the plane is calculated based on the three-dimensional rotation matrix, and then a perpendicular extending from the plane to the camera and the After calculating the angle formed by the line segment extending from the camera to the marker, and calculating the height from the plane to the camera from the reverse vector and the angle, the reverse vector and the height are calculated. a positional relationship comprehension step of comprehending the positional relationship between the camera and the plane by calculating a vertical vector extending vertically from the camera to the plane based on; and inputting internal parameter information of the camera into a storage means. an internal parameter input step, a target point setting step of setting a predetermined point of the object appearing in the captured image as a target point, the vertical vector as the positional relationship information grasped in the positional relation grasping step, and the storage means a target point position estimation step of estimating the position of the target point on the bird's-eye view coordinate system based on the camera based on the internal parameter information stored in the display means; and displaying the bird's-eye view plane image on the display means and a display step of displaying an icon indicating the target point on the image. It should be noted that the invention according to claim 7 can achieve the same effect as that of claim 1 above.

請求項に記載の発明は、物体を撮像して画像を取得する固定式カメラと、前記画像を表示する表示手段とを備えた物体位置推定表示装置を制御するプロセッサに、前記カメラを用いて、平面上に設置され、特定の幾何学的特徴を有する二次元的なマーカーであるARマーカーを撮像するマーカー撮像ステップと、撮像した前記マーカーを基準としたマーカー座標系上の点を、前記マーカー座標の原点周りに回転させる三次元回転行列と、前記カメラを基準としたカメラ座標系の原点まで前記マーカー座標の原点を並行移動させる並進ベクトルとからなる外部パラメータを用いて、前記マーカーを基準としたマーカー座標系上の点を、前記カメラを基準としたカメラ座標系上の点に変換する行列式を利用し、まず前記カメラ座標系において前記平面に対して垂直上向きのZ軸とは逆向きのベクトルを前記三次元回転行列に基づいて算出し、次に前記逆向きのベクトルと前記並進ベクトルとにより前記平面から前記カメラに延びる垂線と前記カメラから前記マーカーに延びる線分とがなす角度を算出し、さらに前記逆向きのベクトルと前記角度とにより前記平面から前記カメラまでの高さを算出した後、前記逆向きのベクトルと前記高さとに基づいて前記カメラから前記平面まで垂直に延びる鉛直ベクトルを算出することにより、前記カメラと前記平面との位置関係を把握する位置関係把握ステップと、前記カメラの内部パラメータ情報を記憶手段に入力する内部パラメータ入力ステップと、撮像した画像に映る前記物体の所定の点を対象点として設定する対象点設定ステップと、前記位置関係把握ステップにおいて把握した位置関係情報としての前記鉛直ベクトルと、前記記憶手段に記憶されている前記内部パラメータ情報とに基づいて、前記カメラを基準とした俯瞰座標系上における前記対象点の位置を推定する対象点位置推定ステップと、前記表示手段に俯瞰平面の画像を表示するとともに、その画像上に前記対象点を示すアイコンを表示する表示ステップとを実行させるための物体位置推定表示プログラムをその要旨とする。なお、請求項に記載の発明では、上記請求項1と同様の作用を奏することができる。 According to an eighth aspect of the present invention, the camera is used as a processor for controlling an object position estimation display device comprising a fixed camera for capturing an image of an object and obtaining an image, and display means for displaying the image. , a marker imaging step of capturing an image of an AR marker, which is a two-dimensional marker placed on a plane and having specific geometrical characteristics ; Using extrinsic parameters consisting of a three-dimensional rotation matrix that rotates around the origin of the coordinates and a translation vector that translates the origin of the marker coordinates to the origin of the camera coordinate system relative to the camera, Using a determinant that converts a point on the marker coordinate system to a point on the camera coordinate system based on the camera, is calculated based on the three-dimensional rotation matrix, and then the angle formed by the perpendicular extending from the plane to the camera and the line segment extending from the camera to the marker is calculated by the reverse vector and the translation vector. and calculating a height from the plane to the camera from the reverse vector and the angle, and then a vertical line extending vertically from the camera to the plane based on the reverse vector and the height. a positional relationship grasping step of grasping the positional relation between the camera and the plane by calculating a vector ; an internal parameter inputting step of inputting internal parameter information of the camera into a storage means; and the object appearing in the captured image. Based on the target point setting step of setting a predetermined point of as a target point, the vertical vector as the positional relationship information grasped in the positional relation grasping step, and the internal parameter information stored in the storage means an object point position estimating step of estimating the position of the object point on the bird's-eye coordinate system with the camera as a reference; The gist thereof is an object position estimation display program for executing a display step of displaying the . In the eighth aspect of the invention, the same effect as the first aspect can be obtained.

以上詳述したように、請求項1~に記載の発明によると、物体の位置を容易にかつ正確に推定できるとともに、推定した物体の位置を分かりやすく表示することができる。 As detailed above, according to the inventions described in claims 1 to 8 , the position of an object can be easily and accurately estimated, and the estimated position of the object can be displayed in an easy-to-understand manner.

上記課題を解決するために、請求項1に記載の発明は、物体を撮像して画像を取得する固定式カメラと、前記画像を表示する表示手段とを備え、前記物体の位置を推定して表示する装置であって、平面上に設置され、特定の幾何学的特徴を有する二次元的なマーカーであるARマーカーを撮像する前記カメラと、撮像した前記マーカーを基準としたマーカー座標系上の点を、前記マーカー座標の原点周りに回転させる三次元回転行列と、前記カメラを基準としたカメラ座標系の原点まで前記マーカー座標の原点を並行移動させる並進ベクトルとからなる外部パラメータを用いて、前記マーカーを基準としたマーカー座標系上の点を、前記カメラを基準としたカメラ座標系上の点に変換する行列式を利用し、まず前記カメラ座標系において前記平面に対して垂直上向きのZ軸とは逆向きのベクトルを前記三次元回転行列に基づいて算出し、次に前記逆向きのベクトルと前記並進ベクトルとにより前記平面から前記カメラに延びる垂線と前記カメラから前記マーカーに延びる線分とがなす角度を算出し、さらに前記並進ベクトルと前記角度とにより前記平面から前記カメラまでの高さを算出した後、前記逆向きのベクトルと前記高さとに基づいて前記カメラから前記平面まで垂直に延びる鉛直ベクトルを算出することにより、前記カメラと前記平面との位置関係を把握する位置関係把握手段と、撮像した画像に映る前記物体の所定の点を対象点として設定する対象点設定手段と、前記位置関係把握手段が把握した位置関係情報としての前記鉛直ベクトルと、前記カメラの内部パラメータ情報とに基づいて、前記カメラを基準とした俯瞰座標系上における前記対象点の位置を推定する対象点位置推定手段とを備え、前記表示手段は、俯瞰平面の画像を表示するとともにその画像上に前記対象点を示すアイコンを表示することを特徴とする物体位置推定表示装置をその要旨とする。 In order to solve the above problems, the invention according to claim 1 includes a fixed camera that captures an image of an object and acquires the image, and display means that displays the image, and estimates the position of the object. A device for displaying, wherein the camera is installed on a plane and captures an image of an AR marker, which is a two-dimensional marker having a specific geometric feature, and the marker coordinate system is based on the captured marker. Using extrinsic parameters consisting of a three-dimensional rotation matrix that rotates a point around the origin of the marker coordinates and a translation vector that translates the origin of the marker coordinates to the origin of the camera coordinate system relative to the camera, Using a determinant that transforms a point on the marker coordinate system with reference to the marker into a point on the camera coordinate system with reference to the camera, first, in the camera coordinate system, Z A vector opposite to the axis is calculated based on the three-dimensional rotation matrix, and then a perpendicular extending from the plane to the camera and a line segment extending from the camera to the marker are calculated by the opposite vector and the translation vector. and the height from the plane to the camera is calculated from the translation vector and the angle. a positional relationship grasping means for grasping the positional relationship between the camera and the plane by calculating a vertical vector extending in the direction of the object; an object for estimating the position of the target point on a bird's-eye view coordinate system with respect to the camera, based on the vertical vector as the positional relationship information grasped by the positional relation grasping means and the internal parameter information of the camera; Point position estimating means, wherein the display means displays an image of a bird's-eye view plane and displays an icon indicating the target point on the image.

請求項7に記載の発明は、物体を撮像して画像を取得する固定式カメラと、前記画像を表示する表示手段とを備えた物体位置推定表示装置を用いて、前記物体の位置を推定して表示する方法であって、前記カメラを用いて、平面上に設置され、特定の幾何学的特徴を有する二次元的なマーカーであるARマーカーを撮像するマーカー撮像ステップと、撮像した前記マーカーを基準としたマーカー座標系上の点を、前記マーカー座標の原点周りに回転させる三次元回転行列と、前記カメラを基準としたカメラ座標系の原点まで前記マーカー座標の原点を並行移動させる並進ベクトルとからなる外部パラメータを用いて、前記マーカーを基準としたマーカー座標系上の点を、前記カメラを基準としたカメラ座標系上の点に変換する行列式を利用し、まず前記カメラ座標系において前記平面に対して垂直上向きのZ軸とは逆向きのベクトルを前記三次元回転行列に基づいて算出し、次に前記逆向きのベクトルと前記並進ベクトルとにより前記平面から前記カメラに延びる垂線と前記カメラから前記マーカーに延びる線分とがなす角度を算出し、さらに前記並進ベクトルと前記角度とにより前記平面から前記カメラまでの高さを算出した後、前記逆向きのベクトルと前記高さとに基づいて前記カメラから前記平面まで垂直に延びる鉛直ベクトルを算出することにより、前記カメラと前記平面との位置関係を把握する位置関係把握ステップと、前記カメラの内部パラメータ情報を記憶手段に入力する内部パラメータ入力ステップと、撮像した画像に映る前記物体の所定の点を対象点として設定する対象点設定ステップと、前記位置関係把握ステップにおいて把握した位置関係情報としての前記鉛直ベクトルと、前記記憶手段に記憶されている前記内部パラメータ情報とに基づいて、前記カメラを基準とした俯瞰座標系上における前記対象点の位置を推定する対象点位置推定ステップと、前記表示手段に俯瞰平面の画像を表示するとともに、その画像上に前記対象点を示すアイコンを表示する表示ステップとを含むことを特徴とする物体位置推定表示方法をその要旨とする。なお、請求項7に記載の発明では、上記請求項1と同様の作用を奏することができる。 According to a seventh aspect of the present invention, the position of an object is estimated by using an object position estimation display device that includes a fixed camera that captures an image of an object and acquires the image, and display means that displays the image. a marker imaging step of imaging an AR marker, which is a two-dimensional marker that is placed on a plane and has specific geometric features, using the camera; and A three-dimensional rotation matrix that rotates a point on the marker coordinate system used as a reference around the origin of the marker coordinates, and a translation vector that translates the origin of the marker coordinates to the origin of the camera coordinate system based on the camera. A determinant for transforming a point on the marker coordinate system with the marker as a reference into a point on the camera coordinate system with the camera as the reference, using an extrinsic parameter consisting of A vector opposite to the Z-axis perpendicular to the plane is calculated based on the three-dimensional rotation matrix, and then a perpendicular extending from the plane to the camera and the After calculating the angle formed by the line segment extending from the camera to the marker, and calculating the height from the plane to the camera from the translation vector and the angle, based on the reverse vector and the height a positional relation grasping step of grasping the positional relation between the camera and the plane by calculating a vertical vector extending perpendicularly from the camera to the plane by using an internal parameter for inputting the internal parameter information of the camera into a storage means; an input step, a target point setting step of setting a predetermined point of the object appearing in the captured image as a target point, the vertical vector as the positional relationship information grasped in the positional relation grasping step, and stored in the storage means. an object point position estimation step of estimating the position of the object point on the camera-based bird's-eye view coordinate system based on the internal parameter information stored therein; and displaying the bird's-eye view plane image on the display means, , and a display step of displaying an icon indicating the target point on the image. It should be noted that the invention according to claim 7 can achieve the same effect as that of claim 1 above.

請求項8に記載の発明は、物体を撮像して画像を取得する固定式カメラと、前記画像を表示する表示手段とを備えた物体位置推定表示装置を制御するプロセッサに、前記カメラを用いて、平面上に設置され、特定の幾何学的特徴を有する二次元的なマーカーであるARマーカーを撮像するマーカー撮像ステップと、撮像した前記マーカーを基準としたマーカー座標系上の点を、前記マーカー座標の原点周りに回転させる三次元回転行列と、前記カメラを基準としたカメラ座標系の原点まで前記マーカー座標の原点を並行移動させる並進ベクトルとからなる外部パラメータを用いて、前記マーカーを基準としたマーカー座標系上の点を、前記カメラを基準としたカメラ座標系上の点に変換する行列式を利用し、まず前記カメラ座標系において前記平面に対して垂直上向きのZ軸とは逆向きのベクトルを前記三次元回転行列に基づいて算出し、次に前記逆向きのベクトルと前記並進ベクトルとにより前記平面から前記カメラに延びる垂線と前記カメラから前記マーカーに延びる線分とがなす角度を算出し、さらに前記並進ベクトルと前記角度とにより前記平面から前記カメラまでの高さを算出した後、前記逆向きのベクトルと前記高さとに基づいて前記カメラから前記平面まで垂直に延びる鉛直ベクトルを算出することにより、前記カメラと前記平面との位置関係を把握する位置関係把握ステップと、前記カメラの内部パラメータ情報を記憶手段に入力する内部パラメータ入力ステップと、撮像した画像に映る前記物体の所定の点を対象点として設定する対象点設定ステップと、前記位置関係把握ステップにおいて把握した位置関係情報としての前記鉛直ベクトルと、前記記憶手段に記憶されている前記内部パラメータ情報とに基づいて、前記カメラを基準とした俯瞰座標系上における前記対象点の位置を推定する対象点位置推定ステップと、前記表示手段に俯瞰平面の画像を表示するとともに、その画像上に前記対象点を示すアイコンを表示する表示ステップとを実行させるための物体位置推定表示プログラムをその要旨とする。なお、請求項8に記載の発明では、上記請求項1と同様の作用を奏することができる。 According to an eighth aspect of the present invention, the camera is used as a processor for controlling an object position estimation display device comprising a fixed camera for capturing an image of an object and obtaining an image, and display means for displaying the image. , a marker imaging step of capturing an image of an AR marker, which is a two-dimensional marker placed on a plane and having specific geometrical characteristics; Using extrinsic parameters consisting of a three-dimensional rotation matrix that rotates around the origin of the coordinates and a translation vector that translates the origin of the marker coordinates to the origin of the camera coordinate system relative to the camera, Using a determinant that converts a point on the marker coordinate system to a point on the camera coordinate system based on the camera, is calculated based on the three-dimensional rotation matrix, and then the angle formed by the perpendicular extending from the plane to the camera and the line segment extending from the camera to the marker is calculated by the reverse vector and the translation vector. and calculating the height from the plane to the camera from the translation vector and the angle, and then calculating the vertical vector extending vertically from the camera to the plane based on the reverse vector and the height. an internal parameter input step of inputting internal parameter information of the camera into a storage means; and a predetermined on the basis of the target point setting step of setting the point of as a target point, the vertical vector as the positional relationship information grasped in the positional relation grasping step, and the internal parameter information stored in the storage means, a target point position estimation step of estimating the position of the target point on a bird's-eye coordinate system with the camera as a reference; and displaying an image of the bird's-eye view plane on the display means, and displaying an icon indicating the target point on the image. The gist of the present invention is an object position estimation display program for executing a display step for performing In the eighth aspect of the invention, the same effect as the first aspect can be achieved.

Claims (9)

物体を撮像して画像を取得するカメラと、前記画像を表示する表示手段とを備え、前記物体の位置を推定して表示する装置であって、
平面上に設置されたマーカーを撮像する前記カメラと、
撮像した前記マーカーを基準としたマーカー座標系上の点を、前記カメラを基準としたカメラ座標系上の点に変換し、前記平面から前記カメラまでの高さ、及び、前記平面から前記カメラに延びる垂線と前記カメラから前記マーカーに延びる線分とがなす角度を算出することにより、前記カメラと前記平面との位置関係を把握する位置関係把握手段と、
撮像した画像に映る前記物体の所定の点を対象点として設定する対象点設定手段と、
前記位置関係把握手段が把握した位置関係情報と、前記カメラの内部パラメータ情報とに基づいて、前記カメラを基準とした俯瞰座標系上における前記対象点の位置を推定する対象点位置推定手段と
を備え、
前記表示手段は、俯瞰平面の画像を表示するとともにその画像上に前記対象点を示すアイコンを表示する
ことを特徴とする物体位置推定表示装置。
A device for estimating and displaying the position of the object, comprising a camera for capturing an image of an object and acquiring the image, and display means for displaying the image,
the camera that captures an image of a marker placed on a plane;
Points on a marker coordinate system based on the captured marker are converted into points on a camera coordinate system based on the camera, and the height from the plane to the camera and from the plane to the camera are calculated. positional relationship grasping means for grasping the positional relation between the camera and the plane by calculating an angle formed by an extending perpendicular line and a line segment extending from the camera to the marker;
an object point setting means for setting a predetermined point of the object appearing in the captured image as an object point;
target point position estimating means for estimating the position of the target point on a bird's-eye view coordinate system with respect to the camera, based on the positional relationship information grasped by the positional relationship grasping means and the internal parameter information of the camera; prepared,
The object position estimation display device, wherein the display means displays an image of a bird's-eye view plane and displays an icon indicating the target point on the image.
前記物体は人間または動物であり、前記対象点は前記人間または前記動物の足元に設定されることを特徴とする請求項1に記載の物体位置推定表示装置。 2. The object position estimation display device according to claim 1, wherein the object is a human or an animal, and the target point is set at the feet of the human or the animal. 前記俯瞰平面の画像上に、前記対象点を示すアイコンに加えて前記カメラを示すアイコンが表示されることを特徴とする請求項1または2に記載の物体位置推定表示装置。 3. The object position estimation display device according to claim 1, wherein an icon indicating the camera is displayed in addition to the icon indicating the target point on the image of the bird's-eye view plane. 前記表示手段は、前記俯瞰平面の画像と、前記カメラによって撮像された実際の画像とを並べて表示することを特徴とする請求項3に記載の物体位置推定表示装置。 4. The object position estimation display device according to claim 3, wherein the display means displays side by side the image of the bird's-eye view plane and the actual image captured by the camera. 前記対象点を示すアイコンには、前記物体の種類を特定するための識別子が付与されていることを特徴とする請求項1乃至4のいずれか1項に記載の物体位置推定表示装置。 5. The object position estimation display device according to any one of claims 1 to 4, wherein an identifier for specifying the type of the object is assigned to the icon indicating the target point. 前記カメラは複数台設けられ、
前記対象点位置推定手段は、隣接する前記カメラの前記俯瞰座標系同士を前記マーカーを介して接続する演算処理を行うことにより、それぞれの前記カメラで撮像された画像同士を繋げる処理を行う
ことを特徴とする請求項1乃至5のいずれか1項に記載の物体位置推定表示装置。
A plurality of the cameras are provided,
The target point position estimating means performs processing for connecting the images captured by the respective cameras by performing arithmetic processing for connecting the bird's-eye view coordinate systems of the adjacent cameras via the markers. 6. The object position estimation display device according to any one of claims 1 to 5.
前記マーカーは、特定の幾何学的特徴を有する二次元的なマーカーであることを特徴とする請求項1乃至6のいずれか1項に記載の物体位置推定表示装置。 7. The object position estimation display device according to any one of claims 1 to 6, wherein the marker is a two-dimensional marker having specific geometric features. 物体を撮像して画像を取得するカメラと、前記画像を表示する表示手段とを備えた物体位置推定表示装置を用いて、前記物体の位置を推定して表示する方法であって、
前記カメラを用いて、平面上に設置されたマーカーを撮像するマーカー撮像ステップと、
撮像した前記マーカーを基準としたマーカー座標系上の点を、前記カメラを基準としたカメラ座標系上の点に変換し、前記平面から前記カメラまでの高さ、及び、前記平面から前記カメラに延びる垂線と前記カメラから前記マーカーに延びる線分とがなす角度を算出することにより、前記カメラと前記平面との位置関係を把握する位置関係把握ステップと、
前記カメラの内部パラメータ情報を記憶手段に入力する内部パラメータ入力ステップと、
撮像した画像に映る前記物体の所定の点を対象点として設定する対象点設定ステップと、
前記位置関係把握ステップにおいて把握した位置関係情報と、前記記憶手段に記憶されている前記内部パラメータ情報とに基づいて、前記カメラを基準とした俯瞰座標系上における前記対象点の位置を推定する対象点位置推定ステップと、
前記表示手段に俯瞰平面の画像を表示するとともに、その画像上に前記対象点を示すアイコンを表示する表示ステップと
を含むことを特徴とする物体位置推定表示方法。
A method for estimating and displaying the position of an object using an object position estimation display device comprising a camera for capturing an image of an object and acquiring an image, and display means for displaying the image, the method comprising:
a marker imaging step of imaging a marker placed on a plane using the camera;
Points on a marker coordinate system based on the captured marker are converted into points on a camera coordinate system based on the camera, and the height from the plane to the camera and from the plane to the camera are calculated. a positional relationship grasping step of grasping the positional relation between the camera and the plane by calculating an angle formed by an extending perpendicular line and a line segment extending from the camera to the marker;
an internal parameter input step of inputting internal parameter information of the camera into a storage means;
a target point setting step of setting a predetermined point of the object appearing in the captured image as a target point;
A target for estimating the position of the target point on a bird's-eye view coordinate system with the camera as a reference, based on the positional relationship information grasped in the positional relation grasping step and the internal parameter information stored in the storage means. a point position estimation step;
and a display step of displaying an image of a bird's-eye view plane on the display means, and displaying an icon indicating the target point on the image.
物体を撮像して画像を取得するカメラと、前記画像を表示する表示手段とを備えた物体位置推定表示装置を制御するプロセッサに、
前記カメラを用いて、平面上に設置されたマーカーを撮像するマーカー撮像ステップと、
撮像した前記マーカーを基準としたマーカー座標系上の点を、前記カメラを基準としたカメラ座標系上の点に変換し、前記平面から前記カメラまでの高さ、及び、前記平面から前記カメラに延びる垂線と前記カメラから前記マーカーに延びる線分とがなす角度を算出することにより、前記カメラと前記平面との位置関係を把握する位置関係把握ステップと、
前記カメラの内部パラメータ情報を記憶手段に入力する内部パラメータ入力ステップと、
撮像した画像に映る前記物体の所定の点を対象点として設定する対象点設定ステップと、
前記位置関係把握ステップにおいて把握した位置関係情報と、前記記憶手段に記憶されている前記内部パラメータ情報とに基づいて、前記カメラを基準とした俯瞰座標系上における前記対象点の位置を推定する対象点位置推定ステップと、
前記表示手段に俯瞰平面の画像を表示するとともに、その画像上に前記対象点を示すアイコンを表示する表示ステップと
を実行させるための物体位置推定表示プログラム。
A processor that controls an object position estimation display device that includes a camera that captures an object and acquires an image, and display means that displays the image,
a marker imaging step of imaging a marker placed on a plane using the camera;
Points on a marker coordinate system based on the captured marker are converted into points on a camera coordinate system based on the camera, and the height from the plane to the camera and from the plane to the camera are calculated. a positional relationship grasping step of grasping the positional relation between the camera and the plane by calculating an angle formed by an extending perpendicular line and a line segment extending from the camera to the marker;
an internal parameter input step of inputting internal parameter information of the camera into a storage means;
a target point setting step of setting a predetermined point of the object appearing in the captured image as a target point;
A target for estimating the position of the target point on a bird's-eye view coordinate system with the camera as a reference, based on the positional relationship information grasped in the positional relation grasping step and the internal parameter information stored in the storage means. a point position estimation step;
an object position estimation display program for displaying an image of a bird's-eye view plane on the display means and displaying an icon indicating the target point on the image.
JP2022023790A 2022-02-18 2022-02-18 Object position estimation display device, method and program Active JP7174389B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022023790A JP7174389B1 (en) 2022-02-18 2022-02-18 Object position estimation display device, method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022023790A JP7174389B1 (en) 2022-02-18 2022-02-18 Object position estimation display device, method and program

Publications (2)

Publication Number Publication Date
JP7174389B1 JP7174389B1 (en) 2022-11-17
JP2023120758A true JP2023120758A (en) 2023-08-30

Family

ID=84100536

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022023790A Active JP7174389B1 (en) 2022-02-18 2022-02-18 Object position estimation display device, method and program

Country Status (1)

Country Link
JP (1) JP7174389B1 (en)

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006115006A (en) * 2004-10-12 2006-04-27 Nippon Telegr & Teleph Corp <Ntt> Individual video image photographing and distributing apparatus, and individual video image photographing and distributing method and program
JP2010258897A (en) * 2009-04-27 2010-11-11 Fujitsu Ltd Determination program and calibration apparatus
WO2015087730A1 (en) * 2013-12-10 2015-06-18 株式会社日立国際電気 Monitoring system
JP2016013793A (en) * 2014-07-03 2016-01-28 株式会社デンソー Image display device and image display method
JP2017074870A (en) * 2015-10-15 2017-04-20 日立建機株式会社 Device for detecting obstacle around vehicle
JP2018074286A (en) * 2016-10-26 2018-05-10 三菱自動車工業株式会社 Driving support device
JP2020043400A (en) * 2018-09-06 2020-03-19 アイシン精機株式会社 Periphery monitoring device
JP2020045687A (en) * 2018-09-19 2020-03-26 日立建機株式会社 Work machine
JP2021019253A (en) * 2019-07-18 2021-02-15 株式会社小松製作所 Display system for work vehicle and display method for work vehicle

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006115006A (en) * 2004-10-12 2006-04-27 Nippon Telegr & Teleph Corp <Ntt> Individual video image photographing and distributing apparatus, and individual video image photographing and distributing method and program
JP2010258897A (en) * 2009-04-27 2010-11-11 Fujitsu Ltd Determination program and calibration apparatus
WO2015087730A1 (en) * 2013-12-10 2015-06-18 株式会社日立国際電気 Monitoring system
JP2016013793A (en) * 2014-07-03 2016-01-28 株式会社デンソー Image display device and image display method
JP2017074870A (en) * 2015-10-15 2017-04-20 日立建機株式会社 Device for detecting obstacle around vehicle
JP2018074286A (en) * 2016-10-26 2018-05-10 三菱自動車工業株式会社 Driving support device
JP2020043400A (en) * 2018-09-06 2020-03-19 アイシン精機株式会社 Periphery monitoring device
JP2020045687A (en) * 2018-09-19 2020-03-26 日立建機株式会社 Work machine
JP2021019253A (en) * 2019-07-18 2021-02-15 株式会社小松製作所 Display system for work vehicle and display method for work vehicle

Also Published As

Publication number Publication date
JP7174389B1 (en) 2022-11-17

Similar Documents

Publication Publication Date Title
US10068344B2 (en) Method and system for 3D capture based on structure from motion with simplified pose detection
US10762386B2 (en) Method of determining a similarity transformation between first and second coordinates of 3D features
CN109658457B (en) Method for calibrating arbitrary relative pose relationship between laser and camera
JP5812599B2 (en) Information processing method and apparatus
WO2015037178A1 (en) Posture estimation method and robot
JP6573419B1 (en) Positioning method, robot and computer storage medium
JP7111114B2 (en) Information processing device, information processing method, and information processing system
WO2019225547A1 (en) Object tracking device, object tracking method, and object tracking program
JP2017103602A (en) Position detection device, and position detection method and program
WO2020063987A1 (en) Three-dimensional scanning method and apparatus and storage medium and processor
KR101239532B1 (en) Apparatus and method for recognizing position of robot
JP5699697B2 (en) Robot device, position and orientation detection device, position and orientation detection program, and position and orientation detection method
JP4132068B2 (en) Image processing apparatus, three-dimensional measuring apparatus, and program for image processing apparatus
JP4906683B2 (en) Camera parameter estimation apparatus and camera parameter estimation program
Montironi et al. Adaptive autonomous positioning of a robot vision system: Application to quality control on production lines
JP2018169660A (en) Object attitude detection apparatus, control apparatus, robot and robot system
JP4938748B2 (en) Image recognition apparatus and program
JP2001266130A (en) Picture processor, plane detecting method and recording medium recording plane detection program
CN110096152B (en) Method, device, equipment and storage medium for positioning body part in space
JP2010184300A (en) Attitude changing device and attitude changing method
JP7174389B1 (en) Object position estimation display device, method and program
CN108234932B (en) Method and device for extracting personnel form in video monitoring image
JP2005241323A (en) Imaging system and calibration method
JP2002259984A (en) Motion analyzing device and motion analyzing method
JP2005028468A (en) Method for identifying position and posture of robot in visual coordinate system, and method and apparatus for coordinate transformation

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220224

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20220224

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220621

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220810

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220830

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220913

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221011

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221027

R150 Certificate of patent or registration of utility model

Ref document number: 7174389

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150