JP6340113B2 - Measuring device and program thereof - Google Patents
Measuring device and program thereof Download PDFInfo
- Publication number
- JP6340113B2 JP6340113B2 JP2017093525A JP2017093525A JP6340113B2 JP 6340113 B2 JP6340113 B2 JP 6340113B2 JP 2017093525 A JP2017093525 A JP 2017093525A JP 2017093525 A JP2017093525 A JP 2017093525A JP 6340113 B2 JP6340113 B2 JP 6340113B2
- Authority
- JP
- Japan
- Prior art keywords
- measurement
- distance
- basis vector
- camera
- coordinate basis
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000005259 measurement Methods 0.000 claims description 125
- 239000013598 vector Substances 0.000 claims description 83
- 238000004364 calculation method Methods 0.000 claims description 52
- 238000000354 decomposition reaction Methods 0.000 claims description 25
- 230000014509 gene expression Effects 0.000 claims description 19
- 238000001514 detection method Methods 0.000 description 18
- 238000003384 imaging method Methods 0.000 description 16
- 238000000034 method Methods 0.000 description 11
- 238000005070 sampling Methods 0.000 description 9
- 230000000694 effects Effects 0.000 description 5
- 239000000284 extract Substances 0.000 description 5
- 238000000691 measurement method Methods 0.000 description 5
- 238000012545 processing Methods 0.000 description 5
- 238000010586 diagram Methods 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 2
- NAWXUBYGYWOOIX-SFHVURJKSA-N (2s)-2-[[4-[2-(2,4-diaminoquinazolin-6-yl)ethyl]benzoyl]amino]-4-methylidenepentanedioic acid Chemical compound C1=CC2=NC(N)=NC(N)=C2C=C1CCC1=CC=C(C(=O)N[C@@H](CC(=C)C(O)=O)C(O)=O)C=C1 NAWXUBYGYWOOIX-SFHVURJKSA-N 0.000 description 1
- 230000015556 catabolic process Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 238000006731 degradation reaction Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 239000003550 marker Substances 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 239000000047 product Substances 0.000 description 1
- 238000002910 structure generation Methods 0.000 description 1
- 239000013589 supplement Substances 0.000 description 1
Images
Landscapes
- Length Measuring Devices By Optical Means (AREA)
- Length Measuring Devices With Unspecified Measuring Means (AREA)
- Image Analysis (AREA)
Description
本発明は、微分形式の動座標系を用いて、計測点と計測対象点との距離を計測する計測装置及びそのプログラムに関する。 The present invention relates to a measuring apparatus that measures the distance between a measurement point and a measurement target point using a differential dynamic coordinate system and a program thereof.
従来から、計測技術として、三点からの距離を用いる三点法が知られている。この計測技術は、無線、赤外線、レーザ、カメラなどの計測手段を用いて実現されている。近年、IT産業の進展に伴い、例えば、ゲームソフト製作の人体構造生成技術や動画像処理技術の分野でも、このような計測技術が利用されている(非特許文献1,2)。
Conventionally, a three-point method using a distance from three points is known as a measurement technique. This measurement technique is realized using measurement means such as wireless, infrared, laser, and camera. In recent years, along with the development of the IT industry, such measurement techniques are also used in the fields of, for example, human body structure generation technology for video game production and moving image processing technology (Non-Patent
また、従来から、三点法以外の計測技術も知られている(非特許文献3)。この非特許文献3に記載の技術は、計測対象物の付近にある、サイズが既知のスケールを撮影することで、このスケールを基準として、計測対象物の位置及び寸法を求めるものである。
Conventionally, measurement techniques other than the three-point method are also known (Non-Patent Document 3). The technique described in Non-Patent
しかし、前記した計測技術では、静止座標系を用いているため、バイアス誤差及びランダム誤差などの誤差に関する問題と、計測点数及び不定に関する問題とが生じる。計測点(基準点)又は計測対象点の一方が移動する場合、これら問題の影響を受け、特に、計測点と計測対象点の双方が移動する場合、これら問題が顕著となる。 However, since the measurement technique described above uses a stationary coordinate system, problems relating to errors such as bias errors and random errors, and problems relating to the number of measurement points and indefiniteness arise. When one of the measurement point (reference point) or the measurement target point moves, it is affected by these problems. In particular, when both the measurement point and the measurement target point move, these problems become significant.
まず、誤差に関する問題について説明する。
任意点Pの位置の真値を(x^,y^,z^)とし、計測誤差を(εx,εy,εz)とする。この場合、任意点Pの位置の計測値が(x^+εx,y^+εy,z^+εz)となり、静止座標系では個々の計測値の真値に誤差が加算されることになる。
First, problems related to errors will be described.
The true value of the position of the arbitrary point P is (x ^, y ^, z ^), and the measurement error is (ε x , ε y , ε z ). In this case, the measurement value at the position of the arbitrary point P is (x ^ + ε x , y ^ + ε y , z ^ + ε z ), and an error is added to the true value of each measurement value in the stationary coordinate system. .
次に、計測点数及び不定に関する問題について説明する。
非特許文献1,2に記載の技術では、三点法の原理により3点以上の計測が必要になり、誤差を軽減するためには多くの計測点(例えば、非特許文献2に記載の技術では8点)が必要となる。また、非特許文献3に記載の技術では、計測点が3点未満のため、寸法が既知のスケールが複数(例えば、5点)必要になる。そして、非特許文献1〜3に記載の技術では、それぞれの計測条件が整わない場合、計測値が不定になるという問題がある。
Next, problems related to the number of measurement points and indefiniteness will be described.
In the techniques described in
そこで、本願発明は、前記した問題を解決し、正確な計測を可能とした計測装置及びそのプログラムを提供することを課題とする。 Then, this invention makes it a subject to solve the above-mentioned problem and to provide the measuring device which enabled the exact measurement, and its program.
前記した課題に鑑みて、本願第1発明に係る計測装置は、距離の計測基準となる計測基準物と、距離の計測対象である計測対象物との少なくとも一方が移動しているときに、計測基準物が位置する計測点と計測対象物が位置する計測対象点との距離を計測する計測装置であって、動座標基底ベクトル分解手段と、距離算出手段と、を備えることを特徴とする。 In view of the above-described problems, the measurement apparatus according to the first invention of the present application performs measurement when at least one of a measurement reference object that is a distance measurement reference and a measurement object that is a distance measurement target is moving. A measuring apparatus for measuring a distance between a measurement point where a reference object is located and a measurement object point where a measurement object is located, and is characterized by comprising a dynamic coordinate basis vector decomposition means and a distance calculation means.
かかる構成によれば、計測装置は、動座標基底ベクトル分解手段によって、計測基準物の位置の差分又は距離を計測するためのスケールの寸法を示すスケール情報と、計測対象物に対する計測基準物の方向又は当該方向の差分とを、3次元の動座標系における第1の動座標基底ベクトルと、第1の動座標基底ベクトルに直交する第2の動座標基底ベクトルと、第1の動座標基底ベクトル及び第2の動座標基底ベクトルに直交する第3の動座標基底ベクトルとに分解する。 According to such a configuration, the measuring apparatus uses the dynamic coordinate basis vector decomposing means to measure the scale information indicating the dimension of the scale for measuring the difference in position or distance of the measurement reference object, and the direction of the measurement reference object with respect to the measurement object. Alternatively, the difference between the directions is obtained by using a first dynamic coordinate basis vector in a three-dimensional dynamic coordinate system, a second dynamic coordinate basis vector orthogonal to the first dynamic coordinate basis vector, and a first dynamic coordinate basis vector. And a third dynamic coordinate basis vector orthogonal to the second dynamic coordinate basis vector .
また、計測装置は、距離算出手段によって、動座標基底ベクトル分解手段で分解した動座標基底ベクトルと方向又は方向の差分が含まれる距離算出式により、計測点と計測対象点との相対的な距離を算出する。 In addition, the measurement device may calculate the relative distance between the measurement point and the measurement target point by using a distance calculation unit including a distance calculation formula including a difference in direction or direction from the dynamic coordinate base vector decomposed by the dynamic coordinate base vector decomposition unit. Is calculated.
ここで、任意点Pの位置の真値を(x^,y^,z^)とし、(P+ΔP)点の位置の真値を(x^+Δx^,y^+Δy^,z^+Δz^)とし、P点とΔP点との位置の計測誤差を(εx,εy,εz)とする。この場合、(P+ΔP)点とP点との位置の差が(Δx^,Δy^,Δz^)となり、バイアス誤差が相殺される。このように、計測装置は、相対的な角度を算出することで、誤差を相殺することができる。 Here, the true value of the position of the arbitrary point P is (x ^, y ^, z ^), and the true value of the position (P + ΔP) is (x ^ + Δx ^, y ^ + Δy ^, z ^ + Δz ^). And (ε x , ε y , ε z ) is a measurement error of the position between the point P and the point ΔP. In this case, the difference in position between the (P + ΔP) point and the P point becomes (Δx ^, Δy ^, Δz ^), and the bias error is canceled out. Thus, the measuring device can cancel the error by calculating the relative angle.
また、本願第2発明に係る計測装置は、動座標基底ベクトル分解手段が、スケール情報(Δx t ,Δy t ,Δz t )と、方向(φ t, θ t )とを、式(5)に示すように、第1の動座標基底ベクトルE1 t と、第2の動座標基底ベクトルE2 t と、第3の動座標基底ベクトルE3 t とに分解することで、微分形式の動座標系で方向の変化を示す角度Δφ t ,Δθ t を算出し、距離算出手段が、式(6)で表される距離算出式により、第2の動座標基底ベクトルE2 t 及び第3の動座標基底ベクトルE3 t と、角度Δφ t ,Δθ t とに基づいて、微分形式の動座標系で計測点と計測対象点との距離r t を算出することを特徴とする。 Further, the measuring apparatus according to the present Application the second invention, the dynamic coordinate basis vector decomposition unit, scale information (Δx t, Δy t, Δz t) and the direction (phi t, theta t) and the formula (5) As shown in FIG. 4, by decomposing the first dynamic coordinate basis vector E1 t , the second dynamic coordinate basis vector E2 t , and the third dynamic coordinate basis vector E3 t , The angles Δφ t and Δθ t indicating the change in direction are calculated, and the distance calculation means calculates the second dynamic coordinate base vector E2 t and the third dynamic coordinate base vector according to the distance calculation formula represented by Expression (6). Based on E3 t and the angles Δφ t and Δθ t , the distance r t between the measurement point and the measurement target point is calculated using a differential dynamic coordinate system .
また、本願第3発明に係る計測装置は、計測基準物としての撮影カメラで撮影された撮影画像に含まれる計測対象物をテンプレートマッチングにより抽出し、抽出した計測対象物を近似する図形に変換することで、撮影画像に含まれる計測対象物を認識する計測対象物認識手段と、動座標基底ベクトル分解手段で算出された角度と、距離算出手段で算出された距離と、計測対象物認識手段で認識された計測対象物の面積とを用いて、撮影カメラを制御するカメラ制御手段と、をさらに備えることを特徴とする。
かかる構成によれば、計測装置は、計測対象物を向くように撮影カメラを正確に制御することができる。
Moreover, the measuring device according to the third invention of the present application extracts a measurement object included in a photographed image photographed by a photographing camera as a measurement reference object by template matching, and converts the extracted measurement object into an approximate figure. The measurement object recognition means for recognizing the measurement object included in the captured image, the angle calculated by the dynamic coordinate basis vector decomposition means , the distance calculated by the distance calculation means, and the measurement object recognition means Camera control means for controlling the photographing camera using the recognized area of the measurement object is further provided.
According to such a configuration, the measurement device can accurately control the photographing camera so as to face the measurement object.
また、本願第4発明に係る計測装置は、計測基準物の位置及び計測対象物に対する計測基準物の方向を示す位置方向情報が示す計測点の位置及び方向と、距離算出手段で算出された距離とから、予め設定された位置算出式により、計測対象点の位置を算出する位置算出手段、をさらに備えることを特徴とする。 Further, the measuring device according to the fourth invention of the present application provides the position and direction of the measurement point indicated by the position and direction information indicating the position of the measurement reference object and the direction of the measurement reference object with respect to the measurement object, and the distance calculated by the distance calculation means And a position calculation means for calculating the position of the measurement target point using a preset position calculation formula.
なお、本願第1発明に係る計測装置は、コンピュータが備えるCPU(Central Processing Unit)、メモリ、HDD(Hard Disk Drive)などのハードウェア資源を、前記した各手段として協調動作させるための計測プログラムとして実現することもできる。この計測プログラムは、通信回線を介して配布してもよく、CD−ROMやフラッシュメモリ等の記録媒体に書き込んで配布してもよい(本願第5発明)。 The measurement apparatus according to the first invention of the present application is a measurement program for causing hardware resources such as a CPU (Central Processing Unit), a memory, and an HDD (Hard Disk Drive) included in a computer to cooperate with each other as described above. It can also be realized. This measurement program may be distributed via a communication line, or may be distributed by writing in a recording medium such as a CD-ROM or a flash memory (the fifth invention of the present application).
本願発明によれば、以下のような優れた効果を奏する。
本願第1,5発明によれば、相対的な角度を算出するため、誤差が相殺され、正確に計測を行うことができる。
本願第3発明によれば、計測対象物を向くように撮影カメラを正確に制御することができる。
本願第4発明によれば、正確な計測対象物の位置を提示することができる。
According to the present invention, the following excellent effects can be obtained.
According to the first and fifth inventions of the present application, since the relative angle is calculated, the error is canceled and the measurement can be performed accurately.
According to the third aspect of the present invention, the photographing camera can be accurately controlled so as to face the measurement object.
According to the fourth invention of the present application, it is possible to present an accurate position of the measurement object.
以下、本発明の実施形態について、適宜図面を参照しながら詳細に説明する。なお、各実施形態において、同一の機能を有する手段には同一の符号を付し、説明を省略した。 Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings as appropriate. In each embodiment, means having the same function are denoted by the same reference numerals and description thereof is omitted.
[位置計測装置の概略]
図1を参照し、位置計測装置1の概略について、説明する。
位置計測装置(計測装置)1は、計測基準物が位置する計測点と対象物が位置する計測対象点との距離を計測し、この距離に基づいて対象物の位置を計測するものである。
[Outline of position measuring device]
The outline of the
The position measuring device (measuring device) 1 measures the distance between the measurement point where the measurement reference object is located and the measurement target point where the object is located, and measures the position of the object based on this distance.
本実施形態では、距離の計測基準となる計測基準物が、1台の撮影カメラ92(図3)であることとする。この計測基準物は、撮影カメラ92に限定されず、無線器、赤外線照射装置又はレーザ照射装置であってもよい。
また、本実施形態では、距離の計測対象である対象物90(図3)が、撮影カメラ92で撮影される被写体であることとする。
なお、対象物90が、請求項に記載の計測対象物に相当する。
In the present embodiment, it is assumed that a measurement reference object serving as a distance measurement reference is one photographing camera 92 (FIG. 3). The measurement reference object is not limited to the photographing
Further, in the present embodiment, it is assumed that the object 90 (FIG. 3), which is a distance measurement target, is a subject photographed by the photographing
The
位置計測装置1は、撮影カメラ92及び対象物90の両方が移動する通常モード、又は、撮影カメラ92が静止する静止モードの何れかで処理を行うこととする。以下、第1実施形態で通常モードを説明した後、第2実施形態で静止モードを説明する。
The
(第1実施形態:通常モード)
[位置計測装置の構成]
位置計測装置1の構成について、説明する。
図1に示すように、位置計測装置1は、モード選択手段10と、対象物認識手段(計測対象物認識手段)11と、入力手段12と、動座標基底ベクトル分解手段(角度算出手段)13と、対象物位置検出手段14と、地図表示手段15とを備える。
(First embodiment: normal mode)
[Configuration of position measuring device]
The configuration of the
As shown in FIG. 1, the
モード選択手段10は、通常モード又は静止モードの何れか一方が、手動で選択されるものである。本実施形態では、モード選択手段10は、通常モードが予め選択されていることとする。つまり、位置計測装置1は、通常モードの場合、第1実施形態で説明する処理を行い、静止モードの場合、第2実施形態で説明する処理を行う。
The mode selection means 10 is for manually selecting either the normal mode or the stationary mode. In the present embodiment, it is assumed that the
また、モード選択手段10は、位置計測装置1が通常サンプリングを行う通常サンプリングモード、又は、高速サンプリングを行う高速サンプリングモードの何れか一方が、手動で選択されてもよい。例えば、モード選択手段10は、対象物が高速で移動する場合、高速サンプリングモードが選択される。そして、モード選択手段10は、通常サンプリングモード又は高速サンプリングモードを示す選択モード情報を、入力手段12に出力する。
Further, the mode selection means 10 may manually select either the normal sampling mode in which the
対象物認識手段11は、撮影カメラ92で対象物が撮影されたカメラ映像(撮影画像)が入力され、このカメラ映像に含まれる対象物を認識するものである。そして、対象物認識手段11は、対象物の認識結果を入力手段12に出力する。
The
図2に示すように、対象物認識手段11は、カメラ映像に含まれる対象物90を抽出し、抽出した対象物90を近似する図形91に変換することが好ましい。例えば、対象物認識手段11は、対象物90を様々な角度から撮影した事前データ(テンプレート画像)を予め登録しておく。また、対象物認識手段11は、事前データを用いたテンプレートマッチングを行い、カメラ映像から対象物90を抽出する(図2(a))。そして、対象物認識手段11は、抽出した対象物90の輪郭に最も近い図形91を求める(図2(b))。すなわち、対象物認識手段11は、対象物90を、円形、矩形、三角形のように、この対象物90に近似した簡易な形状の図形91に変換する。これによって、対象物認識手段11は、対象物90の認識率を向上させることができる。
As shown in FIG. 2, it is preferable that the object recognition means 11 extracts the
入力手段12は、外部から、カメラ情報と、カメラ位置情報と、撮影方向情報とが入力されるものである。また、入力手段12は、モード選択手段10から選択モード情報が入力され、対象物認識手段11から対象物90の認識結果が入力される。
The
カメラ情報は、撮影カメラ92のピントを示す情報である。
カメラ位置情報は、撮影カメラ92の位置を示す情報である。
撮影方向情報は、対象物90に対する撮影カメラ92の方向を示す情報である。
このカメラ位置情報及び撮影方向情報が、特許請求の範囲に記載の位置方向情報に相当する。
The camera information is information indicating the focus of the photographing
The camera position information is information indicating the position of the photographing
The shooting direction information is information indicating the direction of the shooting
The camera position information and the shooting direction information correspond to the position / direction information described in the claims.
なお、入力手段12は、モード選択手段10から入力された選択モード情報が高速サンプリングモードを示す場合、高いサンプリング周波数で対象物90を認識することを対象物認識手段11に指示してもよい。
Note that the
<カメラ位置情報及び撮影方向情報>
図3を参照し、カメラ位置情報及び撮影方向情報について、具体的に説明する(適宜図1参照)。
<Camera position information and shooting direction information>
With reference to FIG. 3, the camera position information and the shooting direction information will be specifically described (see FIG. 1 as appropriate).
図3では、撮影カメラ92を黒丸で図示し、対象物90を黒三角で図示した(図4,図6,図7も同様)。また、図3では、時刻tにおける対象物の位置を符号90tと図示し、時刻t+1における対象物の位置を符号90t+1と図示した(図4も同様)。
In FIG. 3, the photographing
図3に示すように、入力手段12は、時刻tの計測値として、カメラ位置Pt=(xt,yt,zt)を示すカメラ位置情報と、撮影方向Dt=(φt,θt)を示す撮影方向情報とが入力される。この撮影方向Dtは、カメラ位置Ptから対象物の位置90tを指している。また、時刻tにおいて、φtがX軸及びY軸上での撮影方向を示し、θtがX軸、Y軸及びZ軸上での撮影方向を示している。
As shown in FIG. 3, the
また、入力手段12は、時刻t+1の計測値として、カメラ位置Pt+1=(xt+1,yt+1,zt+1)を示すカメラ位置情報と、撮影方向Dt+1=(φt+1,θt+1)を示す撮影方向情報とが入力される。この撮影方向Dt+1は、カメラ位置Pt+1から対象物の位置90t+1を指している。また、時刻t+1において、φt+1がX軸及びY軸上での撮影方向を示し、θt+1がX軸、Y軸及びZ軸上での撮影方向を示している。
In addition, the
このように、入力手段12は、時刻t,t+1という2点分のカメラ位置情報及び撮影方向情報が入力される。そして、入力手段12は、入力された2点分のカメラ位置Pt,Pt+1と、撮影方向Dt,Dt+1と、対象物90の認識結果とを、動座標基底ベクトル分解手段13に出力する。
Thus, the input means 12 receives the camera position information and the shooting direction information for two points of time t and t + 1. Then, the input means 12 converts the input camera positions P t and P t + 1 for the two points, the shooting directions D t and D t + 1 and the recognition result of the
図1に戻り、位置計測装置1の構成について、説明を続ける。
動座標基底ベクトル分解手段13は、入力手段12から入力された2点分のカメラ位置情報及び撮影方向情報の差分を動座標基底ベクトルに分解することで、微分形式の動座標系で撮影方向の変化を示す角度を算出するものである。
この角度は、後記する差分(Δφt+1,Δθt+1)のことである。
Returning to FIG. 1, the description of the configuration of the
The moving coordinate basis
This angle is a difference (Δφ t + 1 , Δθ t + 1 ) described later.
<動座標基底ベクトルへの分解>
図4を参照し、動座標基底ベクトルへの分解について、具体的に説明する(適宜図1参照)。
<Decomposition into dynamic coordinate basis vectors>
With reference to FIG. 4, the decomposition into the dynamic coordinate basis vectors will be specifically described (see FIG. 1 as appropriate).
図4に示すように、動座標基底ベクトル分解手段13は、カメラ位置Pt,Pt+1について、時刻tと時刻t+1との差分ΔPt+1=(xt+1−xt,yt+1−yt,zt+1−zt)を算出する。また、動座標基底ベクトル分解手段13は、撮影方向Dt,Dt+1について、時刻tと時刻t+1との差分(Δφt+1,Δθt+1)=(φt+1−φt,θt+1−θt)を算出する。
As shown in FIG. 4, the dynamic coordinate basis vector decomposing means 13 determines the difference ΔP t + 1 from time t to time t + 1 = (x t + 1 −x t , y) for the camera positions P t and
そして、動座標基底ベクトル分解手段13は、下記の式(1)に示すように、カメラ位置の差分ΔPt+1と、撮影方向の差分Δφt+1,Δθt+1とを、動座標基底ベクトルE1t+1,E2t+1,E3t+1に分解する。 Then, the dynamic coordinate basis vector decomposing means 13 calculates the camera position difference ΔP t + 1 and the imaging direction differences Δφ t + 1 , Δθ t + 1 as dynamic coordinates as shown in the following equation (1). It decomposes into basis vectors E1 t + 1 , E2 t + 1 , and E3 t + 1 .
微分形式(微分又は差分)の動座標系は、動座標数理を用いた座標系であり、例えば、下記の参考文献1,2に記載されている。
参考文献1:栗田稔、“微分形式とその応用”、2002年6月22日、現代数学社
参考文献2:H.フランダース、“微分形式の理論”、1967年6月30日、岩波書店
A differential coordinate (differential or differential) dynamic coordinate system is a coordinate system using dynamic coordinate mathematics, and is described in, for example, the following
Reference 1: Akira Kurita, “Differential Form and Its Applications”, June 22, 2002, Hyundai Mathematics Reference 2: H. Flanders, “Theory of Differential Form”, June 30, 1967, Iwanami Shoten
動座標基底ベクトルとは、微分形式の動座標系を表すための基底ベクトルのことである。ここで、微分形式の動座標系が3次元であるため、3つの動座標基底ベクトルE1t+1,E2t+1,E3t+1が用いられる。 The dynamic coordinate basis vector is a basis vector for representing a differential type coordinate system. Here, since the differential-form dynamic coordinate system is three-dimensional, three dynamic coordinate basis vectors E1 t + 1 , E2 t + 1 , and E3 t + 1 are used.
その後、動座標基底ベクトル分解手段13は、撮影方向Dt,Dt+1の変化を示す角度Δφt+1,Δθt+1を対象物位置検出手段14に出力する。さらに、動座標基底ベクトル分解手段13は、動座標基底ベクトルE1t+1,E2t+1,E3t+1と、カメラ位置Pt+1と、撮影方向Dt+1とを、対象物位置検出手段14に出力する。
Thereafter, the dynamic coordinate basis
図1に戻り、位置計測装置1の構成について、説明を続ける。
対象物位置検出手段14は、動座標基底ベクトル分解手段13より入力された角度Δφt+1,Δθt+1から、動座標数理により、微分形式の動座標系で計測点と計測対象点との距離を算出するものである。さらに、対象物位置検出手段14は、算出した距離と、カメラ位置Pt+1と、撮影方向Dt+1とから、予め設定された位置算出式により、計測対象点の位置を算出する。
この対象物位置検出手段14が、特許請求の範囲に記載の距離算出手段及び位置算出手段に相当する。
Returning to FIG. 1, the description of the configuration of the
The object position detection means 14 uses the dynamic coordinates based on the angles Δφ t + 1 and Δθ t + 1 input from the dynamic coordinate basis vector decomposition means 13 to calculate the measurement points and measurement target points in the differential dynamic coordinate system. The distance is calculated. Further, the object
The object position detection means 14 corresponds to the distance calculation means and the position calculation means described in the claims.
具体的には、対象物位置検出手段14は、式(2)及び式(3)で表される距離算出式により、動座標基底ベクトルE1t+1,E2t+1,E3t+1と、角度Δφt+1,Δθt+1とに基づいて、計測点から計測対象点までの距離rt+1を算出する。
Specifically, the object
次に、対象物位置検出手段14は、式(4)で表される位置算出式により、カメラ位置Pt+1=(xt+1,yt+1,zt+1)と、撮影方向Dt+1=(φt+1,θt+1)と、距離rt+1とに基づいて、対象物の位置Pmt+1を算出する。 Next, the object position detection means 14 captures the camera position P t + 1 = (x t + 1 , y t + 1 , z t + 1 ) according to the position calculation formula represented by Expression (4). Based on the direction D t + 1 = (φ t + 1, θ t + 1 ) and the distance r t + 1 , the position Pm t + 1 of the object is calculated.
その後、対象物位置検出手段14は、算出した対象物の位置Pmt+1を、地図表示手段15に出力する。
Thereafter, the object
地図表示手段15は、対象物位置検出手段14から入力された対象物の位置Pmt+1を、地図上に表示するものである。例えば、地図表示手段15は、この対象物の位置Pmt+1を地図座標系に変換して、変換された対象物の位置Pmt+1を示すマーカを、ディスプレイに表示された地図に合成する。
The map display means 15 displays the position Pmt + 1 of the object input from the object position detection means 14 on the map. For example, the
[位置計測装置の動作]
図5を参照し、位置計測装置1の動作について、説明する(適宜図1参照)。
位置計測装置1は、対象物認識手段11によって、カメラ映像に含まれる対象物90を認識する(ステップS1)。
[Operation of position measuring device]
The operation of the
The
位置計測装置1は、入力手段12によって、カメラ情報、カメラ位置情報、撮影方向情報などの各種情報が入力される(ステップS2)。
位置計測装置1は、動座標基底ベクトル分解手段13によって、動座標基底ベクトルへの分解を行う(ステップS3)。
In the
The
位置計測装置1は、対象物位置検出手段14によって、微分形式の動座標系で計測点と計測対象点との距離を算出する(ステップS4)。
位置計測装置1は、対象物位置検出手段14によって、計測対象点の位置を算出する(ステップS5)。
位置計測装置1は、地図表示手段15によって、対象物の位置Pmt+1を地図上に表示する(ステップS6)。
The
The
The
[作用・効果]
以上のように、位置計測装置1は、相対的な角度Δφt+1,Δθt+1を算出するため、バイアス誤差を相殺し、正確に距離rt+1を算出することができる。その結果、位置計測装置1は、対象物の正確な位置Pmt+1を地図上に表示することができる。
[Action / Effect]
As described above, since the
さらに、位置計測装置1は、時刻t,時刻t+1,…というように順次処理を繰り返すことで、対象物認識手段11における対象物の認識結果に基づいて、移動する対象物を補足(追跡)し、その位置を地図上にリアルタイムで表示することができる。
Furthermore, the
なお、位置計測装置1(対象物位置検出手段14)は、例えば、撮影カメラ92が自動でピントを合わせる場合、カメラ情報を用いて、撮影カメラから対象物までの距離を求めてもよい。
Note that the position measurement device 1 (object position detection means 14) may obtain the distance from the photographic camera to the object using camera information, for example, when the
(第2実施形態:静止モード)
[位置計測装置の構成]
図1に戻り、位置計測装置1Bの構成について、第1実施形態と異なる点を説明する。
本実施形態では、第1実施形態と異なり、撮影カメラが静止し、対象物が移動していることとする。従って、モード選択手段10では、静止モードが予め選択されている。
(Second embodiment: stationary mode)
[Configuration of position measuring device]
Returning to FIG. 1, the configuration of the
In the present embodiment, unlike the first embodiment, the photographing camera is stationary and the object is moving. Accordingly, in the mode selection means 10, the still mode is selected in advance.
また、本実施形態では、位置計測装置1を符号1Bと記載し、入力手段12を符号12Bと記載し、動座標基底ベクトル分解手段13を符号13Bと記載し、対象物位置検出手段14を符号14Bと記載し、第1実施形態と区別することとした。
なお、対象物認識手段11及び地図表示手段15は、第1実施形態と同様のため、説明を省略する。
In the present embodiment, the
Note that the
入力手段12Bは、外部から、カメラ情報、カメラ位置情報及び撮影方向情報に加え、スケール情報がさらに入力されるものである。 The input means 12B receives scale information from the outside in addition to camera information, camera position information, and shooting direction information.
図6に示すように、スケール93とは、対象物90の付近にあり、距離を計測するための物体(例えば、普通自動車)である。
スケール情報とは、スケール93の寸法を示す情報である。図6の例では、スケール情報は、普通自動車の高さが1.5メートルで幅が2メートルといった情報である。この他、スケール情報は、電柱の高さが14メートル、大人の身長が1.6メートル、又は、2階建て住居の高さが6メートルといった情報であってもよい。
As shown in FIG. 6, the
The scale information is information indicating the dimensions of the
そして、入力手段12Bは、カメラ位置Pt=(xt,yt,zt)と、撮影方向Dt=(φt,θt)と、対象物90の認識結果と、スケールΔPt=(Δxt,Δyt,Δzt)とを、動座標基底ベクトル分解手段13Bに出力する。
Then, the
動座標基底ベクトル分解手段13Bは、入力手段12Bから入力された撮影方向情報とスケール情報とを動座標基底ベクトルに分解することで、微分形式の動座標系で撮影方向の変化を示す角度を算出するものである。 The moving coordinate basis vector decomposing means 13B calculates the angle indicating the change in the shooting direction in the differential moving coordinate system by decomposing the shooting direction information and the scale information input from the input means 12B into a moving coordinate basis vector. To do.
<動座標基底ベクトルへの分解>
図7を参照し、動座標基底ベクトルへの分解について、具体的に説明する(適宜図1参照)。
<Decomposition into dynamic coordinate basis vectors>
With reference to FIG. 7, the decomposition into the dynamic coordinate basis vectors will be specifically described (see FIG. 1 as appropriate).
図7に示すように、動座標基底ベクトル分解手段13Bは、下記の式(5)に示すように、撮影方向Dt=(φt,θt)と、対象物の認識結果と、スケール情報ΔPt=(Δxt,Δyt,Δzt)とを、動座標基底ベクトルE1t,E2t,E3tに分解する。 As shown in FIG. 7, the dynamic coordinate basis vector decomposing means 13B, as shown in the following equation (5), the shooting direction D t = (φ t, θ t ), the recognition result of the object, and the scale information ΔP t = (Δx t , Δy t , Δz t ) is decomposed into dynamic coordinate basis vectors E1 t , E2 t , E3 t .
その後、動座標基底ベクトル分解手段13Bは、撮影方向Dtの変化を示す角度Δφt,Δθtを対象物位置検出手段14Bに出力する。さらに、動座標基底ベクトル分解手段13Bは、動座標基底ベクトルE1t,E2t,E3tと、カメラ位置Ptと、撮影方向Dtとを、対象物位置検出手段14Bに出力する。
Thereafter, the dynamic coordinate basis
図1に戻り、位置計測装置1Bの構成について、説明を続ける。
対象物位置検出手段14Bは、動座標基底ベクトル分解手段13Bより入力された角度Δφt,Δθtから、動座標数理により、微分形式の動座標系で計測点と計測対象点との距離を算出するものである。さらに、対象物位置検出手段14Bは、算出した距離と、カメラ位置Ptと、撮影方向Dtとから、予め設定された位置算出式により、計測対象点の位置を算出する。
Returning to FIG. 1, the description of the configuration of the
The object position detection means 14B calculates the distance between the measurement point and the measurement target point in the differential dynamic coordinate system by dynamic coordinate mathematics from the angles Δφ t and Δθ t input from the dynamic coordinate basis vector decomposition means 13B. To do. Furthermore, the object position detecting means 14B includes a calculated distance, a camera position P t, and a photographing direction D t, the predetermined position calculation formula to calculate the position of the measurement object point.
具体的には、対象物位置検出手段14Bは、式(6)で表される距離算出式により、動座標基底ベクトルE2t,E3tと、角度Δφt,Δθtと、撮影方向φtとに基づいて、計測点から計測対象点までの距離rtを算出する。
Specifically, the object
次に、対象物位置検出手段14Bは、式(7)で表される位置算出式により、カメラ位置Pt=(xt,yt,zt)と、撮影方向Dt=(φt,θt)と、距離rtとに基づいて、対象物の位置Pmtを算出する。
Next, the object
その後、対象物位置検出手段14Bは、算出した対象物の位置Pmtを、地図表示手段15に出力する。
Then, the object position detecting means 14B includes a position Pm t of the calculated object, and outputs the
[作用・効果]
以上のように、位置計測装置1Bは、撮影カメラが静止している場合でも、第1実施形態と同様の効果を奏する。
また、第1,2実施形態では、対象物が移動することとして説明したが、撮影カメラ(計測基準物)が移動し、対象物(計測対象物)が移動又は静止してもよい。
[Action / Effect]
As described above, the
In the first and second embodiments, the object has been described as moving. However, the photographing camera (measurement reference object) may be moved, and the object (measurement object) may be moved or stationary.
(第3実施形態)
[カメラ制御装置の構成]
図8を参照し、カメラ制御装置2の構成について、説明する。
(Third embodiment)
[Configuration of camera control unit]
The configuration of the
カメラ制御装置(計測装置)2は、計測点と計測対象点との方向が変化した角度、及び、計測点と計測対象点との距離を算出し、これら角度及び距離に基づいて、撮影カメラ92を制御するものである。図8に示すように、カメラ制御装置2は、対象物認識手段20と、角度算出手段211,212と、距離算出手段22と、面積算出手段23と、ズーム制御手段24と、パン・チルト制御手段25とを備える。
The camera control device (measuring device) 2 calculates the angle at which the direction between the measurement point and the measurement target point has changed, and the distance between the measurement point and the measurement target point, and based on the angle and the distance, the photographing
本実施形態では、計測基準物が静止した被写体90(図3)であり、対象物が撮影カメラ92であることとする。
また、本実施形態では、1台の撮影カメラ92が移動することとし、移動前の撮影カメラ921と、移動後の撮影カメラ922とを仮想的に2台の撮影カメラ92として扱うこととする。
以後、1台目の撮影カメラに符号921を付し、2台目の撮影カメラに符号922を付して説明する。
In the present embodiment, it is assumed that the measurement reference object is a stationary subject 90 (FIG. 3) and the object is a photographing
Further, in this embodiment, and the
Hereinafter,
撮影カメラ92は、カメラ本体92aと、雲台92bとを備える。
カメラ本体92aは、ズーム制御信号に基づいて、レンズのズームを駆動する。
雲台92bは、カメラ本体92aを搭載すると共に、パン・チルト制御信号に基づいて、カメラ本体92aをパン方向及びチルト方向に駆動する。
The photographing
The
The
対象物認識手段20は、画像認識・追跡手段201,202を備える。
画像認識・追跡手段201は、撮影カメラ921のカメラ映像(撮影画像)が入力され、このカメラ映像に含まれる被写体90を認識するものである。そして、対象物認識手段201は、被写体90の認識結果(画面上の座標)を角度算出手段211及び面積算出手段23に出力する。
The
Image recognition and tracking means 20 1 is
画像認識・追跡手段202は、撮影カメラ922のカメラ映像を対象とする以外、画像認識・追跡手段201と同様のため、説明を省略する。
Image recognition and tracking means 20 2 is omitted except that target camera image of the
角度算出手段211は、撮影カメラ921について、カメラ位置情報及び撮影方向情報の差分を動座標基底ベクトルに分解することで、微分形式の動座標系で方向の変化を示す角度を算出するものである。
なお、本実施形態では、被写体90の位置が既知(固定)であり、撮影カメラ92に対する姿勢制御の結果として、撮影方向が定まるため、カメラ位置情報及び撮影方向情報を外部から入力せずともよい。
The angle calculation means 21 1 calculates an angle indicating a change in direction in the differential dynamic coordinate system by decomposing the difference between the camera position information and the shooting direction information into a dynamic coordinate basis vector for the shooting
In this embodiment, since the position of the subject 90 is known (fixed) and the shooting direction is determined as a result of the attitude control with respect to the
具体的には、角度算出手段211は、図9に示すように、下記の式(8)〜式(10)を用いて、動座標基底ベクトルex1〜ez3への分解を行い、角度φ,θを算出する。 Specifically, the angle calculating means 21 1, as shown in FIG. 9, using the following equation (8) to Formula (10), the degradation of the motion coordinate basis vector e x1 to e z3, angle Calculate φ and θ.
この図9では、撮影カメラ921が原点O=(0,0,0)に位置し、撮影カメラ922(図9では省略)が任意の場所に位置することとする。また、被写体90の位置Pは、デカルト座標で(x,y,z)で表される。また、点O−P間の距離がrである。すなわち、この図9は、デカルト座標(x,y,z)と、球座標系(r,θ,φ)との対応関係を表している。ここで、距離rも、距離の差分drも未知であることとする。
In FIG. 9, the photographing
その後、角度算出手段211は、算出した動座標基底ベクトルex1〜ez3と、角度φ,θとを、距離算出手段22に出力する。
角度算出手段212は、撮影カメラ922を対象とする以外、角度算出手段211と同様のため、説明を省略する。
Then, the angle calculating means 21 1 includes a moving coordinate base vector e x1 to e z3 calculated, the angle phi, and theta, and outputs the
Angle calculating means 21 2, except that
距離算出手段22は、角度算出手段211,212より入力された角度から、動座標数理により、微分形式の動座標系で計測点と計測対象点との距離を算出するものである。 The distance calculation means 22 calculates the distance between the measurement point and the measurement target point in the differential dynamic coordinate system by the dynamic coordinate mathematics from the angles input from the angle calculation means 21 1 and 21 2 .
ここで、距離rを求める説明を簡易にするため、式(9)のdx及びdyが変化し、dzが一定の場合を考える。すなわち、dz=0、dθ=0、sinθ=1が成立する。この場合、下記の式(11)から式(12)を導き出すことができる。 Here, in order to simplify the description for obtaining the distance r, consider a case where dx and dy in Equation (9) change and dz is constant. That is, dz = 0, dθ = 0, and sin θ = 1. In this case, Expression (12) can be derived from Expression (11) below.
そして、式(12)を下記の式(13)に代入して、式(14)を導き出すことができる。さらに、式(14)を距離rで解いて、式(15)を導き出すことができる。従って、距離算出手段22は、式(15)で表される距離算出式を用いて、距離rを算出する。 Then, the equation (12) can be substituted into the following equation (13) to derive the equation (14). Furthermore, equation (15) can be derived by solving equation (14) with distance r. Therefore, the distance calculation means 22 calculates the distance r using the distance calculation formula represented by Formula (15).
ここで、dφを微小とし、dφがsindφに近似する場合、下記の式(16)が成立する。従って、距離算出手段22は、下記の式(17)及び式(18)を用いて、距離の差分drを算出する。ここで、dsは、任意の2点間の距離を表す。 Here, when dφ is minute and dφ approximates to sindφ, the following equation (16) is established. Therefore, the distance calculation means 22 calculates the distance difference dr using the following equations (17) and (18). Here, ds represents the distance between any two points.
図10(a)に示すように、時刻tにおける撮影カメラ921を符号92tで図示し、時刻t+1における撮影カメラ922を符号92t+1で図示した。この場合、図10(b)に示すように、距離算出手段22は、撮影カメラ92t,92t+1の光軸交点で、基底による動きの抽出を行って、時刻tにおける距離方向の基底ベクトルertと、角度方向の基底ベクトルeθt,eφtとを抽出する(時刻t+1も同様)。図10(c)に示すように、距離算出手段22は、動座標数理による動きの接続を行って、基底ベクトルertと基底ベクトルert+1との差分を、距離の差分drとして算出する。
As shown in FIG. 10 (a), the
その後、距離算出手段22は、距離r及び距離の差分drをズーム制御手段24に出力し、角度φ,θをパン・チルト制御手段25に出力する。
なお、距離算出手段22に入力された直交座標は、デカルト座標系で撮影カメラ92と被写体90との位置を表すために用いられる。
Thereafter, the
Note that the orthogonal coordinates input to the distance calculation means 22 are used to represent the positions of the photographing
図8に戻り、カメラ制御装置2の構成について、説明を続ける。
面積算出手段23は、角度算出手段211,212から入力された被写体90の面積を算出するものである。例えば、面積算出手段23は、被写体90のエッジを抽出し、このエッジ領域の面積を求める。そして、面積算出手段23は、算出した被写体90の面積をズーム制御手段24に出力する。
Returning to FIG. 8, the description of the configuration of the
The
ズーム制御手段24は、距離算出手段22から入力された距離r及び距離の差分drと、面積算出手段23から入力された被写体90の面積とに基づいて、撮影カメラ92(カメラ本体92a)のズームを制御するものである。
The
例えば、ズーム制御手段24は、距離rが遠くなる程、撮影カメラ92がズームインし、距離rが近くなる程、撮影カメラ92がズームアウトするようなズーム制御信号を生成し、カメラ本体92aに出力する。
For example, the
このとき、ズーム制御手段24は、距離rの移動平均を用いて、ズーム制御を行うことが好ましい。図11に示すように、ズーム制御手段24は、距離rの計算値(黒丸で図示)から、距離rの移動平均94を算出する。そして、ズーム制御手段24は、この移動平均94で表される距離rに基づいて、ズーム制御信号を生成する。これによって、カメラ制御装置2は、ズーム制御の誤差を低減することができる。
At this time, the
また、例えば、ズーム制御手段24は、被写体90の面積が狭くなる程、撮影カメラ92がズームインし、被写体90の面積が広くなる程、撮影カメラ92がズームアウトするようなズーム制御信号を生成し、カメラ本体92aに出力する。
In addition, for example, the
パン・チルト制御手段25は、距離算出手段22から入力された角度φ,θに基づいて、撮影カメラ92(雲台92b)のパン及びチルトを制御するものである。つまり、パン・チルト制御手段25は、この角度φ,θに基づいて、撮影カメラ92が被写体90を向くようなパン・チルト制御信号を生成し、雲台92bに出力する。
ズーム制御手段24及びパン・チルト制御手段25が、特許請求の範囲に記載のカメラ制御手段に相当する。
The pan / tilt control means 25 controls the pan and tilt of the photographing camera 92 (the
The zoom control means 24 and the pan / tilt control means 25 correspond to the camera control means described in the claims.
[作用・効果]
以上のように、カメラ制御装置2は、相対的な角度φ,θtを算出するため、バイアス誤差が相殺され、正確に距離rを算出することができる。その結果、カメラ制御装置2は、被写体90を向くように撮影カメラ92を正確に制御することができる。
[Action / Effect]
As described above, the
なお、前記した実施形態では、本願発明に係る計測装置の一例として、位置計測装置1,1B及びカメラ制御装置2を説明したが、本願発明はこれらに限定されない。すなわち、図12に示すように、本願発明に係る計測装置3は、角度算出手段211,212と、距離算出手段22とを備えることで、実現可能である。
In the above-described embodiment, the
また、第3実施形態では、被写体90の位置を計測しないこととして説明したが、図1の対象物位置検出手段14(14B)と同様の手法で、被写体90の位置を計測してもよい。この場合、カメラ制御装置2は、計測した被写体90の位置に基づいて、この撮影カメラ92のズーム比を制御することができる。
In the third embodiment, it has been described that the position of the subject 90 is not measured. However, the position of the subject 90 may be measured by the same method as the object position detection unit 14 (14B) in FIG. In this case, the
(参考例1:計測装置の動作原理)
図13を参照し、参考例1として、本願発明に係る計測装置の動作原理について、説明する。
(Reference example 1: Operating principle of measuring device)
With reference to FIG. 13, the operation principle of the measuring apparatus according to the present invention will be described as Reference Example 1.
図13に示すように、1台目の撮影カメラ921が原点(0,0,0)に配置され、2台目の撮影カメラ922が座標(x0,y0,z0)に配置されていることとする。
As shown in FIG. 13,
また、対象物の位置がP1からP2に移動し、その移動量ΔP=(Δx,Δy,Δz)が不明であることとする。
また、撮影カメラ921から位置P1までの距離がr1であり、撮影カメラ921から位置P2までの距離がr1´である。
Further, it is assumed that the position of the object moves from P 1 to P 2 and the movement amount ΔP = (Δx, Δy, Δz) is unknown.
The distance from the photographing
また、撮影カメラ922から位置P1までの距離がr2であり、撮影カメラ922から位置P2までの距離がr2´である。
また、Δr1=r1−r2であり、Δr2=r1´−r2´である。また、撮影カメラ921の角度がφ1,θ1であり、撮影カメラ922の角度がφ2,θ2である。
The distance from the
Further, Δr 1 = r 1 −r 2 and Δr 2 = r 1 ′ −r 2 ′. Further, the angle of the photographing
撮影カメラ921から見て、ΔPは、下記の式(19)で表すことができる。また、撮影カメラ922から見て、ΔPは、下記の式(20)で表すことができる。 When viewed from the photographic camera 92 1, [Delta] P can be expressed by the following equation (19). Also, as viewed from the imaging camera 92 2, [Delta] P can be expressed by the following equation (20).
式(19)及び式(20)より、距離r1,r2は、下記の式(21)で表すことができる。 From the equations (19) and (20), the distances r 1 and r 2 can be expressed by the following equation (21).
また、撮影カメラ921について、式(22)〜式(24)に示すように、角度φ1,θ1を動座標基底ベクトルe11,e21,e31に分解する。
Further, decomposing the photographing
また、撮影カメラ922について、式(25)〜式(27)に示すように、角度φ2,θ2を動座標基底ベクトルe12,e22,e32に分解する。
Further, decomposing the photographing
前記した式(21)〜式(27)を解くことで、距離r1,r2と、移動量ΔPとを求めることができる。 The distances r 1 and r 2 and the movement amount ΔP can be obtained by solving the above-described equations (21) to (27).
(参考例2:参考例1の別解法)
参考例2として、参考例1の別解法について、説明する。
(Reference Example 2: Another solution of Reference Example 1)
As Reference Example 2, another solution of Reference Example 1 will be described.
ここで、動座標基底ベクトルe1,e2,e3は、下記の式(28)で表される。また、移動量dP=P2−P1は、下記の式(29)で表される。 Here, the dynamic coordinate basis vectors e 1, e 2, and e 3 are expressed by the following equation (28). Further, the movement amount dP = P 2 −P 1 is expressed by the following formula (29).
式(28)及び式(29)を連立方程式で解くと、下記の式(30)が成立し、2台の撮影カメラ921,922から見て、移動量dPが等しくなる。この式(30)を、式(31)の微分方程式として解く。
When the equations (28) and (29) are solved by simultaneous equations, the following equation (30) is established, and the movement amount dP is equal when viewed from the two photographing
なお、φA,θA,e1A〜e3Aは、撮影カメラ921についての角度φ,θと、動座標基底ベクトルe1〜e3である。また、φB,θB,e1B〜e3Bは、撮影カメラ922についての角度φ,θと、動座標基底ベクトルe1〜e3である。
ここで、式(32)が成立し、t=0のときにr=r1であるから、式(33)が成立する。
Φ A, θ A, e 1A to e 3A are the angles φ and θ and the dynamic coordinate basis vectors e 1 to e 3 with respect to the photographing
Here, since Expression (32) is satisfied and r = r 1 when t = 0, Expression (33) is satisfied.
式(33)の‘C’を式(32)に代入して式(34)が得られ、この式を2台の撮影カメラに対応した式(35)及び式(36)に変換する。 By substituting ‘C’ in Expression (33) into Expression (32), Expression (34) is obtained, and this Expression is converted into Expression (35) and Expression (36) corresponding to the two photographing cameras.
ここで、式(37)のように位置Pを定義し、X軸方向で考えると、式(38)及び式(39)が成立する。 Here, when the position P is defined as in Expression (37) and considered in the X-axis direction, Expression (38) and Expression (39) are established.
また、X軸方向と同様、Y軸方向で考えると、式(40)及び式(41)が成立する。 Further, when considered in the Y-axis direction as in the X-axis direction, Expressions (40) and (41) are established.
また、X軸方向と同様、Z軸方向で考えると、式(42)及び式(43)が成立する。 Similarly to the X-axis direction, Expression (42) and Expression (43) are established when considered in the Z-axis direction.
前記した式(39)、式(41)及び式(43)により、距離rAx,rBx,rAy,rBy,rAz,rBzを求めることができる。以上のように、参考例1,2の何れでも、計算結果が一致する。 The distances r Ax , r Bx , r Ay , r By , r Az , and r Bz can be obtained from the above equations (39), (41), and (43). As described above, in both Reference Examples 1 and 2, the calculation results match.
1,1B 位置計測装置
10 モード選択手段
11,20 対象物認識手段(計測対象物認識手段)
12,12B 入力手段
13,13B 動座標基底ベクトル分解手段(角度算出手段)
14,14B 対象物位置検出手段(距離算出手段及び位置算出手段)
15 地図表示手段
2 カメラ制御装置
201,202 画像認識・追跡手段
211,212 角度算出手段
22 距離算出手段
23 面積算出手段
24 ズーム制御手段(カメラ制御手段)
25 パン・チルト制御手段(カメラ制御手段)
1, 1B
12, 12B input means 13, 13B dynamic coordinate basis vector decomposition means (angle calculation means)
14, 14B Object position detection means (distance calculation means and position calculation means)
15 Map display means 2
25 Pan / tilt control means (camera control means)
Claims (5)
前記計測基準物の位置の差分又は前記距離を計測するためのスケールの寸法を示すスケール情報と、前記計測対象物に対する計測基準物の方向又は当該方向の差分とを、3次元の動座標系における第1の動座標基底ベクトルと、前記第1の動座標基底ベクトルに直交する第2の動座標基底ベクトルと、前記第1の動座標基底ベクトル及び前記第2の動座標基底ベクトルに直交する第3の動座標基底ベクトルとに分解する動座標基底ベクトル分解手段と、
前記動座標基底ベクトル分解手段で分解した動座標基底ベクトルと前記方向又は前記方向の差分が含まれる距離算出式により、前記計測点と前記計測対象点との距離を算出する距離算出手段と、
を備えることを特徴とする計測装置。 When at least one of a measurement reference object that is a distance measurement reference and a measurement target that is the distance measurement object is moving , the measurement point where the measurement reference object is located and the measurement object are located A measuring device for measuring a distance from a measurement target point,
Scale information indicating a difference in position of the measurement reference object or a scale for measuring the distance, and a direction of the measurement reference object with respect to the measurement object or a difference in the direction in a three-dimensional dynamic coordinate system A first moving coordinate basis vector; a second moving coordinate basis vector orthogonal to the first moving coordinate basis vector; a first moving coordinate basis vector; and a second moving coordinate basis vector orthogonal to the first moving coordinate basis vector. Dynamic coordinate basis vector decomposition means for decomposing into three dynamic coordinate basis vectors;
A distance calculation means for calculating a distance between the measurement point and the measurement target point by a distance calculation formula including the dynamic coordinate base vector decomposed by the dynamic coordinate base vector decomposition means and the direction or a difference between the directions ;
A measuring device comprising:
前記動座標基底ベクトル分解手段で算出された角度と、前記距離算出手段で算出された距離と、前記計測対象物認識手段で認識された計測対象物の面積とを用いて、前記撮影カメラを制御するカメラ制御手段と、
をさらに備えることを特徴とする請求項2に記載の計測装置。 A measurement object included in a photographed image photographed by a photographing camera as the measurement reference object is extracted by template matching, and the extracted measurement object is converted into a figure that approximates, and the measurement object contained in the photographed image Measurement object recognition means for recognizing
The photographing camera is controlled using the angle calculated by the moving coordinate basis vector decomposition means , the distance calculated by the distance calculation means, and the area of the measurement object recognized by the measurement object recognition means. Camera control means,
The measuring device according to claim 2 , further comprising:
をさらに備えることを特徴とする請求項1から請求項3の何れか一項に記載の計測装置。 A position calculation set in advance from the position and direction of the measurement point indicated by the position and direction information indicating the position of the measurement reference object and the direction of the measurement reference object with respect to the measurement object, and the distance calculated by the distance calculation means A position calculating means for calculating the position of the measurement target point by an equation;
Measurement apparatus according to any one of claims 1 to 3, characterized by further comprising a.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017093525A JP6340113B2 (en) | 2017-05-10 | 2017-05-10 | Measuring device and program thereof |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017093525A JP6340113B2 (en) | 2017-05-10 | 2017-05-10 | Measuring device and program thereof |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013086217A Division JP6192157B2 (en) | 2013-04-17 | 2013-04-17 | Measuring device and program thereof |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2017142267A JP2017142267A (en) | 2017-08-17 |
JP6340113B2 true JP6340113B2 (en) | 2018-06-06 |
Family
ID=59629019
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017093525A Active JP6340113B2 (en) | 2017-05-10 | 2017-05-10 | Measuring device and program thereof |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6340113B2 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2024150402A1 (en) * | 2023-01-13 | 2024-07-18 | 日本電気株式会社 | Information processing system, information processing device, information processing method, and recording medium |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH06347219A (en) * | 1993-06-10 | 1994-12-20 | Oyo Keisoku Kenkyusho:Kk | Measuring instrument of traveling object |
JP2003329771A (en) * | 2002-05-16 | 2003-11-19 | Mitsubishi Electric Corp | Tracking apparatus and tracking processing method |
GB2480422B (en) * | 2010-02-25 | 2014-07-09 | Imagination Tech Ltd | Object tracking using graphics engine derived vectors in a motion estimation system |
-
2017
- 2017-05-10 JP JP2017093525A patent/JP6340113B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2017142267A (en) | 2017-08-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6011548B2 (en) | Camera calibration apparatus, camera calibration method, and camera calibration program | |
JP4708752B2 (en) | Information processing method and apparatus | |
EP3421930B1 (en) | Three-dimensional shape data and texture information generation system, photographing control program, and three-dimensional shape data and texture information generation method | |
US20150062123A1 (en) | Augmented reality (ar) annotation computer system and computer-readable medium and method for creating an annotated 3d graphics model | |
JP6589636B2 (en) | 3D shape measuring apparatus, 3D shape measuring method, and 3D shape measuring program | |
US11490062B2 (en) | Information processing apparatus, information processing method, and storage medium | |
JP5388921B2 (en) | Three-dimensional distance measuring apparatus and method | |
JP2011179908A (en) | Three-dimensional measurement apparatus, method for processing the same, and program | |
JPH07286837A (en) | Instrument and method for measuring rotational amount of spherical body | |
JP2017134617A (en) | Position estimation device, program and position estimation method | |
JP7173285B2 (en) | Camera calibration device, camera calibration method, and program | |
JP7151879B2 (en) | Camera calibration device, camera calibration method, and program | |
JP2013171523A (en) | Ar image processing device and method | |
JP6340113B2 (en) | Measuring device and program thereof | |
WO2018134866A1 (en) | Camera calibration device | |
JP2000205821A (en) | Instrument and method for three-dimensional shape measurement | |
JP2003006618A (en) | Method and device for generating three-dimensional model and computer program | |
JP6192157B2 (en) | Measuring device and program thereof | |
JP3512894B2 (en) | Relative moving amount calculating apparatus and relative moving amount calculating method | |
CN115731304A (en) | Road data generation method, device and equipment | |
WO2017057426A1 (en) | Projection device, content determination device, projection method, and program | |
WO2021111613A1 (en) | Three-dimensional map creation device, three-dimensional map creation method, and three-dimensional map creation program | |
CN110785792A (en) | 3D modeling method, electronic device, storage medium, and program product | |
JP2005323905A (en) | Instrument and program for measuring eyeball movement | |
JP3655065B2 (en) | Position / attitude detection device, position / attitude detection method, three-dimensional shape restoration device, and three-dimensional shape restoration method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20170607 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20170607 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20180405 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20180417 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20180511 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6340113 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |