JP6340113B2 - Measuring device and program thereof - Google Patents

Measuring device and program thereof Download PDF

Info

Publication number
JP6340113B2
JP6340113B2 JP2017093525A JP2017093525A JP6340113B2 JP 6340113 B2 JP6340113 B2 JP 6340113B2 JP 2017093525 A JP2017093525 A JP 2017093525A JP 2017093525 A JP2017093525 A JP 2017093525A JP 6340113 B2 JP6340113 B2 JP 6340113B2
Authority
JP
Japan
Prior art keywords
measurement
distance
basis vector
camera
coordinate basis
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017093525A
Other languages
Japanese (ja)
Other versions
JP2017142267A (en
Inventor
長谷川 浩司
浩司 長谷川
浜田 正稔
正稔 浜田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Japan Broadcasting Corp
Original Assignee
Japan Broadcasting Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Japan Broadcasting Corp filed Critical Japan Broadcasting Corp
Priority to JP2017093525A priority Critical patent/JP6340113B2/en
Publication of JP2017142267A publication Critical patent/JP2017142267A/en
Application granted granted Critical
Publication of JP6340113B2 publication Critical patent/JP6340113B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Length Measuring Devices With Unspecified Measuring Means (AREA)
  • Image Analysis (AREA)

Description

本発明は、微分形式の動座標系を用いて、計測点と計測対象点との距離を計測する計測装置及びそのプログラムに関する。   The present invention relates to a measuring apparatus that measures the distance between a measurement point and a measurement target point using a differential dynamic coordinate system and a program thereof.

従来から、計測技術として、三点からの距離を用いる三点法が知られている。この計測技術は、無線、赤外線、レーザ、カメラなどの計測手段を用いて実現されている。近年、IT産業の進展に伴い、例えば、ゲームソフト製作の人体構造生成技術や動画像処理技術の分野でも、このような計測技術が利用されている(非特許文献1,2)。   Conventionally, a three-point method using a distance from three points is known as a measurement technique. This measurement technique is realized using measurement means such as wireless, infrared, laser, and camera. In recent years, along with the development of the IT industry, such measurement techniques are also used in the fields of, for example, human body structure generation technology for video game production and moving image processing technology (Non-Patent Documents 1 and 2).

また、従来から、三点法以外の計測技術も知られている(非特許文献3)。この非特許文献3に記載の技術は、計測対象物の付近にある、サイズが既知のスケールを撮影することで、このスケールを基準として、計測対象物の位置及び寸法を求めるものである。   Conventionally, measurement techniques other than the three-point method are also known (Non-Patent Document 3). The technique described in Non-Patent Document 3 obtains the position and dimensions of a measurement object on the basis of this scale by photographing a scale having a known size in the vicinity of the measurement object.

株式会社エル・エー・ビー、モーションキャプチャ&アニメーション統合ソフトウェア「PV STUDIO 3D」、http://www.privatestudio.co.jp/pvs3d.htmlLB Co., Ltd., motion capture & animation integration software “PV STUDIO 3D”, http://www.privatestudio.co.jp/pvs3d.html 株式会社ライブラリー、動画像処理専用機「なのはなシリーズ」、http://www.library-inc.co.jp/products/nanohana/03.htmLibrary Co., Ltd., “Nanohana Series” dedicated to video processing, http://www.library-inc.co.jp/products/nanohana/03.htm 株式会社アイティーティー、単眼ビデオカメラによるリアルタイム三次元計測「シングルビュー 3D」、http://www.ittc.co.jp/sproduct/photocalc/SingleView3D/SingleView3D.htmIT, Inc., Real-time 3D measurement with a single-camera video camera "Single View 3D", http://www.ittc.co.jp/sproduct/photocalc/SingleView3D/SingleView3D.htm

しかし、前記した計測技術では、静止座標系を用いているため、バイアス誤差及びランダム誤差などの誤差に関する問題と、計測点数及び不定に関する問題とが生じる。計測点(基準点)又は計測対象点の一方が移動する場合、これら問題の影響を受け、特に、計測点と計測対象点の双方が移動する場合、これら問題が顕著となる。   However, since the measurement technique described above uses a stationary coordinate system, problems relating to errors such as bias errors and random errors, and problems relating to the number of measurement points and indefiniteness arise. When one of the measurement point (reference point) or the measurement target point moves, it is affected by these problems. In particular, when both the measurement point and the measurement target point move, these problems become significant.

まず、誤差に関する問題について説明する。
任意点Pの位置の真値を(x^,y^,z^)とし、計測誤差を(ε,ε,ε)とする。この場合、任意点Pの位置の計測値が(x^+ε,y^+ε,z^+ε)となり、静止座標系では個々の計測値の真値に誤差が加算されることになる。
First, problems related to errors will be described.
The true value of the position of the arbitrary point P is (x ^, y ^, z ^), and the measurement error is (ε x , ε y , ε z ). In this case, the measurement value at the position of the arbitrary point P is (x ^ + ε x , y ^ + ε y , z ^ + ε z ), and an error is added to the true value of each measurement value in the stationary coordinate system. .

次に、計測点数及び不定に関する問題について説明する。
非特許文献1,2に記載の技術では、三点法の原理により3点以上の計測が必要になり、誤差を軽減するためには多くの計測点(例えば、非特許文献2に記載の技術では8点)が必要となる。また、非特許文献3に記載の技術では、計測点が3点未満のため、寸法が既知のスケールが複数(例えば、5点)必要になる。そして、非特許文献1〜3に記載の技術では、それぞれの計測条件が整わない場合、計測値が不定になるという問題がある。
Next, problems related to the number of measurement points and indefiniteness will be described.
In the techniques described in Non-Patent Documents 1 and 2, three or more points are required due to the principle of the three-point method, and many measurement points (for example, the technique described in Non-Patent Document 2 are used to reduce errors). Then 8 points) are required. In the technique described in Non-Patent Document 3, since the number of measurement points is less than 3, a plurality of scales with known dimensions (for example, 5 points) are required. And in the technique of a nonpatent literature 1-3, when each measurement condition is not prepared, there exists a problem that a measured value becomes indefinite.

そこで、本願発明は、前記した問題を解決し、正確な計測を可能とした計測装置及びそのプログラムを提供することを課題とする。   Then, this invention makes it a subject to solve the above-mentioned problem and to provide the measuring device which enabled the exact measurement, and its program.

前記した課題に鑑みて、本願第1発明に係る計測装置は、距離の計測基準となる計測基準物と、距離の計測対象である計測対象物との少なくとも一方が移動しているときに、計測基準物が位置する計測点と計測対象物が位置する計測対象点との距離を計測する計測装置であって、動座標基底ベクトル分解手段と、距離算出手段と、を備えることを特徴とする。 In view of the above-described problems, the measurement apparatus according to the first invention of the present application performs measurement when at least one of a measurement reference object that is a distance measurement reference and a measurement object that is a distance measurement target is moving. A measuring apparatus for measuring a distance between a measurement point where a reference object is located and a measurement object point where a measurement object is located, and is characterized by comprising a dynamic coordinate basis vector decomposition means and a distance calculation means.

かかる構成によれば、計測装置は、動座標基底ベクトル分解手段によって、計測基準物の位置の差分又は距離を計測するためのスケールの寸法を示すスケール情報と、計測対象物に対する計測基準物の方向又は当該方向の差分とを、3次元の動座標系における第1の動座標基底ベクトルと、第1の動座標基底ベクトルに直交する第2の動座標基底ベクトルと、第1の動座標基底ベクトル及び第2の動座標基底ベクトルに直交する第3の動座標基底ベクトルとに分解するAccording to such a configuration, the measuring apparatus uses the dynamic coordinate basis vector decomposing means to measure the scale information indicating the dimension of the scale for measuring the difference in position or distance of the measurement reference object, and the direction of the measurement reference object with respect to the measurement object. Alternatively, the difference between the directions is obtained by using a first dynamic coordinate basis vector in a three-dimensional dynamic coordinate system, a second dynamic coordinate basis vector orthogonal to the first dynamic coordinate basis vector, and a first dynamic coordinate basis vector. And a third dynamic coordinate basis vector orthogonal to the second dynamic coordinate basis vector .

また、計測装置は、距離算出手段によって、動座標基底ベクトル分解手段で分解した動座標基底ベクトルと方向又は方向の差分が含まれる距離算出式により、計測点と計測対象点との相対的な距離を算出する。 In addition, the measurement device may calculate the relative distance between the measurement point and the measurement target point by using a distance calculation unit including a distance calculation formula including a difference in direction or direction from the dynamic coordinate base vector decomposed by the dynamic coordinate base vector decomposition unit. Is calculated.

ここで、任意点Pの位置の真値を(x^,y^,z^)とし、(P+ΔP)点の位置の真値を(x^+Δx^,y^+Δy^,z^+Δz^)とし、P点とΔP点との位置の計測誤差を(ε,ε,ε)とする。この場合、(P+ΔP)点とP点との位置の差が(Δx^,Δy^,Δz^)となり、バイアス誤差が相殺される。このように、計測装置は、相対的な角度を算出することで、誤差を相殺することができる。 Here, the true value of the position of the arbitrary point P is (x ^, y ^, z ^), and the true value of the position (P + ΔP) is (x ^ + Δx ^, y ^ + Δy ^, z ^ + Δz ^). And (ε x , ε y , ε z ) is a measurement error of the position between the point P and the point ΔP. In this case, the difference in position between the (P + ΔP) point and the P point becomes (Δx ^, Δy ^, Δz ^), and the bias error is canceled out. Thus, the measuring device can cancel the error by calculating the relative angle.

また、願第発明に係る計測装置は、動座標基底ベクトル分解手段が、スケール情報(Δx ,Δy ,Δz )と、方向(φ t, θ )とを、式(5)に示すように、第1の動座標基底ベクトルE1 と、第2の動座標基底ベクトルE2 と、第3の動座標基底ベクトルE3 とに分解することで、微分形式の動座標系で方向の変化を示す角度Δφ ,Δθ を算出し、距離算出手段が、式(6)で表される距離算出式により、第2の動座標基底ベクトルE2 及び第3の動座標基底ベクトルE3 と、角度Δφ ,Δθ とに基づいて、微分形式の動座標系で計測点と計測対象点との距離r を算出することを特徴とする。 Further, the measuring apparatus according to the present Application the second invention, the dynamic coordinate basis vector decomposition unit, scale information (Δx t, Δy t, Δz t) and the direction (phi t, theta t) and the formula (5) As shown in FIG. 4, by decomposing the first dynamic coordinate basis vector E1 t , the second dynamic coordinate basis vector E2 t , and the third dynamic coordinate basis vector E3 t , The angles Δφ t and Δθ t indicating the change in direction are calculated, and the distance calculation means calculates the second dynamic coordinate base vector E2 t and the third dynamic coordinate base vector according to the distance calculation formula represented by Expression (6). Based on E3 t and the angles Δφ t and Δθ t , the distance r t between the measurement point and the measurement target point is calculated using a differential dynamic coordinate system .

また、本願第発明に係る計測装置は、計測基準物としての撮影カメラで撮影された撮影画像に含まれる計測対象物をテンプレートマッチングにより抽出し、抽出した計測対象物を近似する図形に変換することで、撮影画像に含まれる計測対象物を認識する計測対象物認識手段と、動座標基底ベクトル分解手段で算出された角度と、距離算出手段で算出された距離と、計測対象物認識手段で認識された計測対象物の面積とを用いて、撮影カメラを制御するカメラ制御手段と、をさらに備えることを特徴とする。
かかる構成によれば、計測装置は、計測対象物を向くように撮影カメラを正確に制御することができる。
Moreover, the measuring device according to the third invention of the present application extracts a measurement object included in a photographed image photographed by a photographing camera as a measurement reference object by template matching, and converts the extracted measurement object into an approximate figure. The measurement object recognition means for recognizing the measurement object included in the captured image, the angle calculated by the dynamic coordinate basis vector decomposition means , the distance calculated by the distance calculation means, and the measurement object recognition means Camera control means for controlling the photographing camera using the recognized area of the measurement object is further provided.
According to such a configuration, the measurement device can accurately control the photographing camera so as to face the measurement object.

また、本願第発明に係る計測装置は、計測基準物の位置及び計測対象物に対する計測基準物の方向を示す位置方向情報が示す計測点の位置及び方向と、距離算出手段で算出された距離とから、予め設定された位置算出式により、計測対象点の位置を算出する位置算出手段、をさらに備えることを特徴とする。 Further, the measuring device according to the fourth invention of the present application provides the position and direction of the measurement point indicated by the position and direction information indicating the position of the measurement reference object and the direction of the measurement reference object with respect to the measurement object, and the distance calculated by the distance calculation means And a position calculation means for calculating the position of the measurement target point using a preset position calculation formula.

なお、本願第1発明に係る計測装置は、コンピュータが備えるCPU(Central Processing Unit)、メモリ、HDD(Hard Disk Drive)などのハードウェア資源を、前記した各手段として協調動作させるための計測プログラムとして実現することもできる。この計測プログラムは、通信回線を介して配布してもよく、CD−ROMやフラッシュメモリ等の記録媒体に書き込んで配布してもよい(本願第発明)。 The measurement apparatus according to the first invention of the present application is a measurement program for causing hardware resources such as a CPU (Central Processing Unit), a memory, and an HDD (Hard Disk Drive) included in a computer to cooperate with each other as described above. It can also be realized. This measurement program may be distributed via a communication line, or may be distributed by writing in a recording medium such as a CD-ROM or a flash memory (the fifth invention of the present application).

本願発明によれば、以下のような優れた効果を奏する。
本願第1,5発明によれば、相対的な角度を算出するため、誤差が相殺され、正確に計測を行うことができる。
本願第発明によれば、計測対象物を向くように撮影カメラを正確に制御することができる。
本願第発明によれば、正確な計測対象物の位置を提示することができる。
According to the present invention, the following excellent effects can be obtained.
According to the first and fifth inventions of the present application, since the relative angle is calculated, the error is canceled and the measurement can be performed accurately.
According to the third aspect of the present invention, the photographing camera can be accurately controlled so as to face the measurement object.
According to the fourth invention of the present application, it is possible to present an accurate position of the measurement object.

本願発明の第1,2実施形態に係る位置計測装置の構成を示すブロック図である。It is a block diagram which shows the structure of the position measuring apparatus which concerns on 1st, 2nd embodiment of this invention. 本願発明の第1実施形態において、対象物の変換を説明する説明図であり、(a)はカメラ映像から抽出した対象物を示し、(b)は対象物に近似する形状の図形を示す。In 1st Embodiment of this invention, it is explanatory drawing explaining conversion of a target object, (a) shows the target object extracted from the camera image | video, (b) shows the figure of the shape approximated to a target object. 本願発明の第1実施形態において、カメラ位置情報及び撮影方向情報を説明する説明図である。In 1st Embodiment of this invention, it is explanatory drawing explaining camera position information and imaging | photography direction information. 本願発明の第1実施形態において、動座標基底ベクトルへの分解を説明する説明図である。In 1st Embodiment of this invention, it is explanatory drawing explaining decomposition | disassembly to a dynamic coordinate basis vector. 図1の位置計測装置の動作を示すフローチャートである。It is a flowchart which shows operation | movement of the position measuring apparatus of FIG. 本願発明の第2実施形態において、スケールを説明する説明図である。In 2nd Embodiment of this invention, it is explanatory drawing explaining a scale. 本願発明の第2実施形態において、動座標基底ベクトルへの分解を説明する説明図である。In 2nd Embodiment of this invention, it is explanatory drawing explaining decomposition | disassembly to a dynamic coordinate basis vector. 本願発明の第3実施形態に係るカメラ制御装置の構成を示すブロック図である。It is a block diagram which shows the structure of the camera control apparatus which concerns on 3rd Embodiment of this invention. 本願発明の第3実施形態において、動座標基底ベクトルへの分解を説明する説明図である。In 3rd Embodiment of this invention, it is explanatory drawing explaining decomposition | disassembly to a dynamic coordinate basis vector. 本願発明の第3実施形態において、角度及び距離の算出を説明する説明図であり、(a)は仮想的な2台の撮影カメラを示し、(b)は(a)の一点鎖線部分の拡大図であり、(c)は(b)の交点部分の拡大図である。In 3rd Embodiment of this invention, it is explanatory drawing explaining calculation of an angle and distance, (a) shows two virtual imaging | photography cameras, (b) is an enlargement of the dashed-dotted line part of (a). It is a figure, (c) is an enlarged view of the intersection part of (b). 本願発明の第3実施形態において、距離の移動平均を説明する説明図である。In 3rd Embodiment of this invention, it is explanatory drawing explaining the moving average of distance. 本願発明に係る計測装置の構成を示すブロック図である。It is a block diagram which shows the structure of the measuring device which concerns on this invention. 参考例1において、計測装置の動作原理を説明する説明図である。In the reference example, it is explanatory drawing explaining the operation principle of a measuring device.

以下、本発明の実施形態について、適宜図面を参照しながら詳細に説明する。なお、各実施形態において、同一の機能を有する手段には同一の符号を付し、説明を省略した。   Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings as appropriate. In each embodiment, means having the same function are denoted by the same reference numerals and description thereof is omitted.

[位置計測装置の概略]
図1を参照し、位置計測装置1の概略について、説明する。
位置計測装置(計測装置)1は、計測基準物が位置する計測点と対象物が位置する計測対象点との距離を計測し、この距離に基づいて対象物の位置を計測するものである。
[Outline of position measuring device]
The outline of the position measuring apparatus 1 will be described with reference to FIG.
The position measuring device (measuring device) 1 measures the distance between the measurement point where the measurement reference object is located and the measurement target point where the object is located, and measures the position of the object based on this distance.

本実施形態では、距離の計測基準となる計測基準物が、1台の撮影カメラ92(図3)であることとする。この計測基準物は、撮影カメラ92に限定されず、無線器、赤外線照射装置又はレーザ照射装置であってもよい。
また、本実施形態では、距離の計測対象である対象物90(図3)が、撮影カメラ92で撮影される被写体であることとする。
なお、対象物90が、請求項に記載の計測対象物に相当する。
In the present embodiment, it is assumed that a measurement reference object serving as a distance measurement reference is one photographing camera 92 (FIG. 3). The measurement reference object is not limited to the photographing camera 92, and may be a wireless device, an infrared irradiation device, or a laser irradiation device.
Further, in the present embodiment, it is assumed that the object 90 (FIG. 3), which is a distance measurement target, is a subject photographed by the photographing camera 92.
The object 90 corresponds to the measurement object described in the claims.

位置計測装置1は、撮影カメラ92及び対象物90の両方が移動する通常モード、又は、撮影カメラ92が静止する静止モードの何れかで処理を行うこととする。以下、第1実施形態で通常モードを説明した後、第2実施形態で静止モードを説明する。   The position measuring apparatus 1 performs processing in either a normal mode in which both the photographing camera 92 and the object 90 move or a stationary mode in which the photographing camera 92 is stationary. Hereinafter, after describing the normal mode in the first embodiment, the stationary mode will be described in the second embodiment.

(第1実施形態:通常モード)
[位置計測装置の構成]
位置計測装置1の構成について、説明する。
図1に示すように、位置計測装置1は、モード選択手段10と、対象物認識手段(計測対象物認識手段)11と、入力手段12と、動座標基底ベクトル分解手段(角度算出手段)13と、対象物位置検出手段14と、地図表示手段15とを備える。
(First embodiment: normal mode)
[Configuration of position measuring device]
The configuration of the position measuring device 1 will be described.
As shown in FIG. 1, the position measurement apparatus 1 includes a mode selection unit 10, an object recognition unit (measurement target recognition unit) 11, an input unit 12, and a dynamic coordinate basis vector decomposition unit (angle calculation unit) 13. And an object position detection means 14 and a map display means 15.

モード選択手段10は、通常モード又は静止モードの何れか一方が、手動で選択されるものである。本実施形態では、モード選択手段10は、通常モードが予め選択されていることとする。つまり、位置計測装置1は、通常モードの場合、第1実施形態で説明する処理を行い、静止モードの場合、第2実施形態で説明する処理を行う。   The mode selection means 10 is for manually selecting either the normal mode or the stationary mode. In the present embodiment, it is assumed that the mode selection unit 10 has selected the normal mode in advance. That is, the position measuring apparatus 1 performs the process described in the first embodiment in the normal mode, and performs the process described in the second embodiment in the stationary mode.

また、モード選択手段10は、位置計測装置1が通常サンプリングを行う通常サンプリングモード、又は、高速サンプリングを行う高速サンプリングモードの何れか一方が、手動で選択されてもよい。例えば、モード選択手段10は、対象物が高速で移動する場合、高速サンプリングモードが選択される。そして、モード選択手段10は、通常サンプリングモード又は高速サンプリングモードを示す選択モード情報を、入力手段12に出力する。   Further, the mode selection means 10 may manually select either the normal sampling mode in which the position measurement apparatus 1 performs normal sampling or the high-speed sampling mode in which high-speed sampling is performed. For example, the mode selection means 10 selects the high speed sampling mode when the object moves at high speed. Then, the mode selection unit 10 outputs selection mode information indicating the normal sampling mode or the high-speed sampling mode to the input unit 12.

対象物認識手段11は、撮影カメラ92で対象物が撮影されたカメラ映像(撮影画像)が入力され、このカメラ映像に含まれる対象物を認識するものである。そして、対象物認識手段11は、対象物の認識結果を入力手段12に出力する。   The object recognizing means 11 receives a camera image (captured image) obtained by photographing the object with the photographing camera 92 and recognizes the object included in the camera image. Then, the object recognition unit 11 outputs the recognition result of the object to the input unit 12.

図2に示すように、対象物認識手段11は、カメラ映像に含まれる対象物90を抽出し、抽出した対象物90を近似する図形91に変換することが好ましい。例えば、対象物認識手段11は、対象物90を様々な角度から撮影した事前データ(テンプレート画像)を予め登録しておく。また、対象物認識手段11は、事前データを用いたテンプレートマッチングを行い、カメラ映像から対象物90を抽出する(図2(a))。そして、対象物認識手段11は、抽出した対象物90の輪郭に最も近い図形91を求める(図2(b))。すなわち、対象物認識手段11は、対象物90を、円形、矩形、三角形のように、この対象物90に近似した簡易な形状の図形91に変換する。これによって、対象物認識手段11は、対象物90の認識率を向上させることができる。   As shown in FIG. 2, it is preferable that the object recognition means 11 extracts the object 90 included in the camera image and converts the extracted object 90 into a figure 91 that approximates the object 90. For example, the object recognition unit 11 registers in advance pre-data (template images) obtained by photographing the object 90 from various angles. Moreover, the target object recognition means 11 performs template matching using prior data, and extracts the target object 90 from the camera video (FIG. 2A). Then, the object recognizing means 11 obtains a graphic 91 that is closest to the contour of the extracted object 90 (FIG. 2B). That is, the target object recognition means 11 converts the target object 90 into a figure 91 having a simple shape that approximates the target object 90, such as a circle, a rectangle, or a triangle. Thereby, the target object recognition means 11 can improve the recognition rate of the target object 90.

入力手段12は、外部から、カメラ情報と、カメラ位置情報と、撮影方向情報とが入力されるものである。また、入力手段12は、モード選択手段10から選択モード情報が入力され、対象物認識手段11から対象物90の認識結果が入力される。   The input unit 12 receives camera information, camera position information, and shooting direction information from the outside. The input unit 12 receives selection mode information from the mode selection unit 10 and receives a recognition result of the target 90 from the target recognition unit 11.

カメラ情報は、撮影カメラ92のピントを示す情報である。
カメラ位置情報は、撮影カメラ92の位置を示す情報である。
撮影方向情報は、対象物90に対する撮影カメラ92の方向を示す情報である。
このカメラ位置情報及び撮影方向情報が、特許請求の範囲に記載の位置方向情報に相当する。
The camera information is information indicating the focus of the photographing camera 92.
The camera position information is information indicating the position of the photographing camera 92.
The shooting direction information is information indicating the direction of the shooting camera 92 with respect to the object 90.
The camera position information and the shooting direction information correspond to the position / direction information described in the claims.

なお、入力手段12は、モード選択手段10から入力された選択モード情報が高速サンプリングモードを示す場合、高いサンプリング周波数で対象物90を認識することを対象物認識手段11に指示してもよい。   Note that the input unit 12 may instruct the object recognition unit 11 to recognize the object 90 at a high sampling frequency when the selection mode information input from the mode selection unit 10 indicates the high-speed sampling mode.

<カメラ位置情報及び撮影方向情報>
図3を参照し、カメラ位置情報及び撮影方向情報について、具体的に説明する(適宜図1参照)。
<Camera position information and shooting direction information>
With reference to FIG. 3, the camera position information and the shooting direction information will be specifically described (see FIG. 1 as appropriate).

図3では、撮影カメラ92を黒丸で図示し、対象物90を黒三角で図示した(図4,図6,図7も同様)。また、図3では、時刻tにおける対象物の位置を符号90と図示し、時刻t+1における対象物の位置を符号90t+1と図示した(図4も同様)。 In FIG. 3, the photographing camera 92 is illustrated by a black circle, and the object 90 is illustrated by a black triangle (the same applies to FIGS. 4, 6, and 7). Further, in FIG. 3, the position of the object at time t is illustrated as 90 t, and the position of the object at time t + 1 is illustrated as 90 t + 1 (the same applies to FIG. 4).

図3に示すように、入力手段12は、時刻tの計測値として、カメラ位置P=(x,y,z)を示すカメラ位置情報と、撮影方向D=(φt,θ)を示す撮影方向情報とが入力される。この撮影方向Dは、カメラ位置Pから対象物の位置90を指している。また、時刻tにおいて、φがX軸及びY軸上での撮影方向を示し、θがX軸、Y軸及びZ軸上での撮影方向を示している。 As shown in FIG. 3, the input unit 12 uses the camera position information indicating the camera position P t = (x t , y t , z t ) and the shooting direction D t = (φ t, The shooting direction information indicating θ t ) is input. This shooting direction D t points from the camera position P t to the position 90 t of the object. Further, at time t, φ t indicates the shooting direction on the X axis and the Y axis, and θ t indicates the shooting direction on the X axis, the Y axis, and the Z axis.

また、入力手段12は、時刻t+1の計測値として、カメラ位置Pt+1=(xt+1,yt+1,zt+1)を示すカメラ位置情報と、撮影方向Dt+1=(φt+1,θt+1)を示す撮影方向情報とが入力される。この撮影方向Dt+1は、カメラ位置Pt+1から対象物の位置90t+1を指している。また、時刻t+1において、φt+1がX軸及びY軸上での撮影方向を示し、θt+1がX軸、Y軸及びZ軸上での撮影方向を示している。 In addition, the input unit 12 uses the camera position information indicating the camera position P t + 1 = (x t + 1 , y t + 1 , z t + 1 ) as the measurement value at time t + 1, and the shooting direction D t + 1. = Shooting direction information indicating (φ t + 1, θ t + 1 ). This shooting direction D t + 1 points from the camera position P t + 1 to the position 90 t + 1 of the object. In addition, at time t + 1, φ t + 1 indicates the shooting direction on the X axis and the Y axis, and θ t + 1 indicates the shooting direction on the X axis, the Y axis, and the Z axis.

このように、入力手段12は、時刻t,t+1という2点分のカメラ位置情報及び撮影方向情報が入力される。そして、入力手段12は、入力された2点分のカメラ位置P,Pt+1と、撮影方向D,Dt+1と、対象物90の認識結果とを、動座標基底ベクトル分解手段13に出力する。 Thus, the input means 12 receives the camera position information and the shooting direction information for two points of time t and t + 1. Then, the input means 12 converts the input camera positions P t and P t + 1 for the two points, the shooting directions D t and D t + 1 and the recognition result of the object 90 into a dynamic coordinate basis vector decomposition. Output to means 13.

図1に戻り、位置計測装置1の構成について、説明を続ける。
動座標基底ベクトル分解手段13は、入力手段12から入力された2点分のカメラ位置情報及び撮影方向情報の差分を動座標基底ベクトルに分解することで、微分形式の動座標系で撮影方向の変化を示す角度を算出するものである。
この角度は、後記する差分(Δφt+1,Δθt+1)のことである。
Returning to FIG. 1, the description of the configuration of the position measuring device 1 will be continued.
The moving coordinate basis vector decomposition unit 13 decomposes the difference between the camera position information and the shooting direction information for two points input from the input unit 12 into a moving coordinate basis vector, so that the shooting direction of the shooting direction can be obtained in the differential type moving coordinate system. An angle indicating a change is calculated.
This angle is a difference (Δφ t + 1 , Δθ t + 1 ) described later.

<動座標基底ベクトルへの分解>
図4を参照し、動座標基底ベクトルへの分解について、具体的に説明する(適宜図1参照)。
<Decomposition into dynamic coordinate basis vectors>
With reference to FIG. 4, the decomposition into the dynamic coordinate basis vectors will be specifically described (see FIG. 1 as appropriate).

図4に示すように、動座標基底ベクトル分解手段13は、カメラ位置P,Pt+1について、時刻tと時刻t+1との差分ΔPt+1=(xt+1−x,yt+1−y,zt+1−z)を算出する。また、動座標基底ベクトル分解手段13は、撮影方向D,Dt+1について、時刻tと時刻t+1との差分(Δφt+1,Δθt+1)=(φt+1−φ,θt+1−θ)を算出する。 As shown in FIG. 4, the dynamic coordinate basis vector decomposing means 13 determines the difference ΔP t + 1 from time t to time t + 1 = (x t + 1 −x t , y) for the camera positions P t and P t + 1. t + 1 -y t, calculates the z t + 1 -z t). Further, the dynamic coordinate basis vector decomposing means 13 has the difference (Δφ t + 1 , Δθ t + 1 ) = (φ t + 1t ) between the time t and the time t + 1 with respect to the shooting directions D t and D t + 1. , Θ t + 1 −θ t ).

そして、動座標基底ベクトル分解手段13は、下記の式(1)に示すように、カメラ位置の差分ΔPt+1と、撮影方向の差分Δφt+1,Δθt+1とを、動座標基底ベクトルE1t+1,E2t+1,E3t+1に分解する。 Then, the dynamic coordinate basis vector decomposing means 13 calculates the camera position difference ΔP t + 1 and the imaging direction differences Δφ t + 1 , Δθ t + 1 as dynamic coordinates as shown in the following equation (1). It decomposes into basis vectors E1 t + 1 , E2 t + 1 , and E3 t + 1 .

Figure 0006340113
Figure 0006340113

微分形式(微分又は差分)の動座標系は、動座標数理を用いた座標系であり、例えば、下記の参考文献1,2に記載されている。
参考文献1:栗田稔、“微分形式とその応用”、2002年6月22日、現代数学社
参考文献2:H.フランダース、“微分形式の理論”、1967年6月30日、岩波書店
A differential coordinate (differential or differential) dynamic coordinate system is a coordinate system using dynamic coordinate mathematics, and is described in, for example, the following references 1 and 2.
Reference 1: Akira Kurita, “Differential Form and Its Applications”, June 22, 2002, Hyundai Mathematics Reference 2: H. Flanders, “Theory of Differential Form”, June 30, 1967, Iwanami Shoten

動座標基底ベクトルとは、微分形式の動座標系を表すための基底ベクトルのことである。ここで、微分形式の動座標系が3次元であるため、3つの動座標基底ベクトルE1t+1,E2t+1,E3t+1が用いられる。 The dynamic coordinate basis vector is a basis vector for representing a differential type coordinate system. Here, since the differential-form dynamic coordinate system is three-dimensional, three dynamic coordinate basis vectors E1 t + 1 , E2 t + 1 , and E3 t + 1 are used.

その後、動座標基底ベクトル分解手段13は、撮影方向D,Dt+1の変化を示す角度Δφt+1,Δθt+1を対象物位置検出手段14に出力する。さらに、動座標基底ベクトル分解手段13は、動座標基底ベクトルE1t+1,E2t+1,E3t+1と、カメラ位置Pt+1と、撮影方向Dt+1とを、対象物位置検出手段14に出力する。 Thereafter, the dynamic coordinate basis vector decomposition unit 13 outputs the shooting direction D t, the angle [Delta] [phi t + 1, the object position detecting means 14 a [Delta] [theta] t + 1 showing the change in D t + 1. Furthermore, the dynamic coordinate basis vector decomposition means 13 determines the dynamic coordinate basis vectors E1 t + 1 , E2 t + 1 , E3 t + 1 , the camera position P t + 1, and the shooting direction D t + 1 as the object. Output to the position detection means 14.

図1に戻り、位置計測装置1の構成について、説明を続ける。
対象物位置検出手段14は、動座標基底ベクトル分解手段13より入力された角度Δφt+1,Δθt+1から、動座標数理により、微分形式の動座標系で計測点と計測対象点との距離を算出するものである。さらに、対象物位置検出手段14は、算出した距離と、カメラ位置Pt+1と、撮影方向Dt+1とから、予め設定された位置算出式により、計測対象点の位置を算出する。
この対象物位置検出手段14が、特許請求の範囲に記載の距離算出手段及び位置算出手段に相当する。
Returning to FIG. 1, the description of the configuration of the position measuring device 1 will be continued.
The object position detection means 14 uses the dynamic coordinates based on the angles Δφ t + 1 and Δθ t + 1 input from the dynamic coordinate basis vector decomposition means 13 to calculate the measurement points and measurement target points in the differential dynamic coordinate system. The distance is calculated. Further, the object position detection unit 14 calculates the position of the measurement target point from the calculated distance, the camera position P t + 1, and the shooting direction D t + 1 by a preset position calculation formula.
The object position detection means 14 corresponds to the distance calculation means and the position calculation means described in the claims.

具体的には、対象物位置検出手段14は、式(2)及び式(3)で表される距離算出式により、動座標基底ベクトルE1t+1,E2t+1,E3t+1と、角度Δφt+1,Δθt+1とに基づいて、計測点から計測対象点までの距離rt+1を算出する。 Specifically, the object position detection unit 14 uses dynamic coordinate basis vectors E1 t + 1 , E2 t + 1 , E3 t + 1 and the distance calculation formulas expressed by the equations (2) and (3). Based on the angles Δφ t + 1 and Δθ t + 1 , the distance r t + 1 from the measurement point to the measurement target point is calculated.

Figure 0006340113
Figure 0006340113

Figure 0006340113
Figure 0006340113

次に、対象物位置検出手段14は、式(4)で表される位置算出式により、カメラ位置Pt+1=(xt+1,yt+1,zt+1)と、撮影方向Dt+1=(φt+1,θt+1)と、距離rt+1とに基づいて、対象物の位置Pmt+1を算出する。 Next, the object position detection means 14 captures the camera position P t + 1 = (x t + 1 , y t + 1 , z t + 1 ) according to the position calculation formula represented by Expression (4). Based on the direction D t + 1 = (φ t + 1, θ t + 1 ) and the distance r t + 1 , the position Pm t + 1 of the object is calculated.

Figure 0006340113
Figure 0006340113

その後、対象物位置検出手段14は、算出した対象物の位置Pmt+1を、地図表示手段15に出力する。 Thereafter, the object position detection unit 14 outputs the calculated position Pmt + 1 of the object to the map display unit 15.

地図表示手段15は、対象物位置検出手段14から入力された対象物の位置Pmt+1を、地図上に表示するものである。例えば、地図表示手段15は、この対象物の位置Pmt+1を地図座標系に変換して、変換された対象物の位置Pmt+1を示すマーカを、ディスプレイに表示された地図に合成する。 The map display means 15 displays the position Pmt + 1 of the object input from the object position detection means 14 on the map. For example, the map display unit 15, synthesizes the position Pm t + 1 of the object is converted into a map coordinate system, the marker indicating the position Pm t + 1 of the transformed object, the map displayed on the display To do.

[位置計測装置の動作]
図5を参照し、位置計測装置1の動作について、説明する(適宜図1参照)。
位置計測装置1は、対象物認識手段11によって、カメラ映像に含まれる対象物90を認識する(ステップS1)。
[Operation of position measuring device]
The operation of the position measuring apparatus 1 will be described with reference to FIG. 5 (see FIG. 1 as appropriate).
The position measuring device 1 recognizes the object 90 included in the camera image by the object recognition means 11 (step S1).

位置計測装置1は、入力手段12によって、カメラ情報、カメラ位置情報、撮影方向情報などの各種情報が入力される(ステップS2)。
位置計測装置1は、動座標基底ベクトル分解手段13によって、動座標基底ベクトルへの分解を行う(ステップS3)。
In the position measuring apparatus 1, various information such as camera information, camera position information, and shooting direction information is input by the input unit 12 (step S2).
The position measuring apparatus 1 performs decomposition into dynamic coordinate basis vectors by the dynamic coordinate basis vector decomposing means 13 (step S3).

位置計測装置1は、対象物位置検出手段14によって、微分形式の動座標系で計測点と計測対象点との距離を算出する(ステップS4)。
位置計測装置1は、対象物位置検出手段14によって、計測対象点の位置を算出する(ステップS5)。
位置計測装置1は、地図表示手段15によって、対象物の位置Pmt+1を地図上に表示する(ステップS6)。
The position measuring device 1 calculates the distance between the measurement point and the measurement target point in the differential dynamic coordinate system by the object position detection means 14 (step S4).
The position measurement apparatus 1 calculates the position of the measurement target point by the object position detection unit 14 (step S5).
The position measuring device 1 displays the position Pmt + 1 of the object on the map by the map display means 15 (step S6).

[作用・効果]
以上のように、位置計測装置1は、相対的な角度Δφt+1,Δθt+1を算出するため、バイアス誤差を相殺し、正確に距離rt+1を算出することができる。その結果、位置計測装置1は、対象物の正確な位置Pmt+1を地図上に表示することができる。
[Action / Effect]
As described above, since the position measuring device 1 calculates the relative angles Δφ t + 1 and Δθ t + 1 , it can cancel the bias error and accurately calculate the distance r t + 1 . As a result, the position measuring apparatus 1 can display the accurate position Pmt + 1 of the object on the map.

さらに、位置計測装置1は、時刻t,時刻t+1,…というように順次処理を繰り返すことで、対象物認識手段11における対象物の認識結果に基づいて、移動する対象物を補足(追跡)し、その位置を地図上にリアルタイムで表示することができる。   Furthermore, the position measuring device 1 supplements (tracks) the moving object based on the recognition result of the object in the object recognizing means 11 by sequentially repeating the processing such as time t, time t + 1,. The position can be displayed on the map in real time.

なお、位置計測装置1(対象物位置検出手段14)は、例えば、撮影カメラ92が自動でピントを合わせる場合、カメラ情報を用いて、撮影カメラから対象物までの距離を求めてもよい。   Note that the position measurement device 1 (object position detection means 14) may obtain the distance from the photographic camera to the object using camera information, for example, when the photographic camera 92 automatically focuses.

(第2実施形態:静止モード)
[位置計測装置の構成]
図1に戻り、位置計測装置1Bの構成について、第1実施形態と異なる点を説明する。
本実施形態では、第1実施形態と異なり、撮影カメラが静止し、対象物が移動していることとする。従って、モード選択手段10では、静止モードが予め選択されている。
(Second embodiment: stationary mode)
[Configuration of position measuring device]
Returning to FIG. 1, the configuration of the position measurement device 1 </ b> B will be described while referring to differences from the first embodiment.
In the present embodiment, unlike the first embodiment, the photographing camera is stationary and the object is moving. Accordingly, in the mode selection means 10, the still mode is selected in advance.

また、本実施形態では、位置計測装置1を符号1Bと記載し、入力手段12を符号12Bと記載し、動座標基底ベクトル分解手段13を符号13Bと記載し、対象物位置検出手段14を符号14Bと記載し、第1実施形態と区別することとした。
なお、対象物認識手段11及び地図表示手段15は、第1実施形態と同様のため、説明を省略する。
In the present embodiment, the position measuring device 1 is denoted by reference numeral 1B, the input means 12 is denoted by reference numeral 12B, the dynamic coordinate basis vector decomposing means 13 is denoted by reference numeral 13B, and the object position detecting means 14 is denoted by reference numeral. 14B and distinguished from the first embodiment.
Note that the object recognition unit 11 and the map display unit 15 are the same as those in the first embodiment, and thus description thereof is omitted.

入力手段12Bは、外部から、カメラ情報、カメラ位置情報及び撮影方向情報に加え、スケール情報がさらに入力されるものである。   The input means 12B receives scale information from the outside in addition to camera information, camera position information, and shooting direction information.

図6に示すように、スケール93とは、対象物90の付近にあり、距離を計測するための物体(例えば、普通自動車)である。
スケール情報とは、スケール93の寸法を示す情報である。図6の例では、スケール情報は、普通自動車の高さが1.5メートルで幅が2メートルといった情報である。この他、スケール情報は、電柱の高さが14メートル、大人の身長が1.6メートル、又は、2階建て住居の高さが6メートルといった情報であってもよい。
As shown in FIG. 6, the scale 93 is an object (for example, an ordinary automobile) that is near the object 90 and measures a distance.
The scale information is information indicating the dimensions of the scale 93. In the example of FIG. 6, the scale information is information that the height of a normal car is 1.5 meters and the width is 2 meters. In addition, the scale information may be information such that the height of the utility pole is 14 meters, the height of an adult is 1.6 meters, or the height of a two-story residence is 6 meters.

そして、入力手段12Bは、カメラ位置P=(x,y,z)と、撮影方向D=(φt,θ)と、対象物90の認識結果と、スケールΔP=(Δx,Δy,Δz)とを、動座標基底ベクトル分解手段13Bに出力する。 Then, the input unit 12B includes the camera position P t = (x t , y t , z t ), the shooting direction D t = (φ t, θ t ), the recognition result of the object 90, and the scale ΔP t = (Δx t , Δy t , Δz t ) is output to the dynamic coordinate basis vector decomposing means 13B.

動座標基底ベクトル分解手段13Bは、入力手段12Bから入力された撮影方向情報とスケール情報とを動座標基底ベクトルに分解することで、微分形式の動座標系で撮影方向の変化を示す角度を算出するものである。   The moving coordinate basis vector decomposing means 13B calculates the angle indicating the change in the shooting direction in the differential moving coordinate system by decomposing the shooting direction information and the scale information input from the input means 12B into a moving coordinate basis vector. To do.

<動座標基底ベクトルへの分解>
図7を参照し、動座標基底ベクトルへの分解について、具体的に説明する(適宜図1参照)。
<Decomposition into dynamic coordinate basis vectors>
With reference to FIG. 7, the decomposition into the dynamic coordinate basis vectors will be specifically described (see FIG. 1 as appropriate).

図7に示すように、動座標基底ベクトル分解手段13Bは、下記の式(5)に示すように、撮影方向D=(φt,θ)と、対象物の認識結果と、スケール情報ΔP=(Δx,Δy,Δz)とを、動座標基底ベクトルE1,E2,E3に分解する。 As shown in FIG. 7, the dynamic coordinate basis vector decomposing means 13B, as shown in the following equation (5), the shooting direction D t = (φ t, θ t ), the recognition result of the object, and the scale information ΔP t = (Δx t , Δy t , Δz t ) is decomposed into dynamic coordinate basis vectors E1 t , E2 t , E3 t .

Figure 0006340113
Figure 0006340113

その後、動座標基底ベクトル分解手段13Bは、撮影方向Dの変化を示す角度Δφ,Δθを対象物位置検出手段14Bに出力する。さらに、動座標基底ベクトル分解手段13Bは、動座標基底ベクトルE1,E2,E3と、カメラ位置Pと、撮影方向Dとを、対象物位置検出手段14Bに出力する。 Thereafter, the dynamic coordinate basis vector decomposition unit 13B, the angle [Delta] [phi t showing changes in imaging direction D t, and outputs the [Delta] [theta] t the object position detecting means 14B. Further, the dynamic coordinate basis vector decomposition unit 13B outputs the dynamic coordinate basis vectors E1 t , E2 t , E3 t , the camera position P t, and the shooting direction D t to the object position detection unit 14B.

図1に戻り、位置計測装置1Bの構成について、説明を続ける。
対象物位置検出手段14Bは、動座標基底ベクトル分解手段13Bより入力された角度Δφ,Δθから、動座標数理により、微分形式の動座標系で計測点と計測対象点との距離を算出するものである。さらに、対象物位置検出手段14Bは、算出した距離と、カメラ位置Pと、撮影方向Dとから、予め設定された位置算出式により、計測対象点の位置を算出する。
Returning to FIG. 1, the description of the configuration of the position measurement apparatus 1B will be continued.
The object position detection means 14B calculates the distance between the measurement point and the measurement target point in the differential dynamic coordinate system by dynamic coordinate mathematics from the angles Δφ t and Δθ t input from the dynamic coordinate basis vector decomposition means 13B. To do. Furthermore, the object position detecting means 14B includes a calculated distance, a camera position P t, and a photographing direction D t, the predetermined position calculation formula to calculate the position of the measurement object point.

具体的には、対象物位置検出手段14Bは、式(6)で表される距離算出式により、動座標基底ベクトルE2,E3と、角度Δφ,Δθと、撮影方向φとに基づいて、計測点から計測対象点までの距離rを算出する。 Specifically, the object position detection unit 14B calculates the dynamic coordinate base vectors E2 t and E3 t , the angles Δφ t and Δθ t, and the shooting direction φ t according to the distance calculation formula represented by the formula (6). based on the calculated distance r t from the measuring point to the measurement target point.

Figure 0006340113
Figure 0006340113

次に、対象物位置検出手段14Bは、式(7)で表される位置算出式により、カメラ位置P=(x,y,z)と、撮影方向D=(φt,θ)と、距離rとに基づいて、対象物の位置Pmを算出する。 Next, the object position detection unit 14B calculates the camera position P t = (x t , y t , z t ) and the shooting direction D t = (φ t, The position Pm t of the object is calculated based on θ t ) and the distance r t .

Figure 0006340113
Figure 0006340113

その後、対象物位置検出手段14Bは、算出した対象物の位置Pmを、地図表示手段15に出力する。 Then, the object position detecting means 14B includes a position Pm t of the calculated object, and outputs the map display unit 15.

[作用・効果]
以上のように、位置計測装置1Bは、撮影カメラが静止している場合でも、第1実施形態と同様の効果を奏する。
また、第1,2実施形態では、対象物が移動することとして説明したが、撮影カメラ(計測基準物)が移動し、対象物(計測対象物)が移動又は静止してもよい。
[Action / Effect]
As described above, the position measuring apparatus 1B has the same effect as that of the first embodiment even when the photographing camera is stationary.
In the first and second embodiments, the object has been described as moving. However, the photographing camera (measurement reference object) may be moved, and the object (measurement object) may be moved or stationary.

(第3実施形態)
[カメラ制御装置の構成]
図8を参照し、カメラ制御装置2の構成について、説明する。
(Third embodiment)
[Configuration of camera control unit]
The configuration of the camera control device 2 will be described with reference to FIG.

カメラ制御装置(計測装置)2は、計測点と計測対象点との方向が変化した角度、及び、計測点と計測対象点との距離を算出し、これら角度及び距離に基づいて、撮影カメラ92を制御するものである。図8に示すように、カメラ制御装置2は、対象物認識手段20と、角度算出手段21,21と、距離算出手段22と、面積算出手段23と、ズーム制御手段24と、パン・チルト制御手段25とを備える。 The camera control device (measuring device) 2 calculates the angle at which the direction between the measurement point and the measurement target point has changed, and the distance between the measurement point and the measurement target point, and based on the angle and the distance, the photographing camera 92 is calculated. Is to control. As shown in FIG. 8, the camera control device 2 includes an object recognition unit 20, angle calculation units 21 1 and 21 2 , a distance calculation unit 22, an area calculation unit 23, a zoom control unit 24, And tilt control means 25.

本実施形態では、計測基準物が静止した被写体90(図3)であり、対象物が撮影カメラ92であることとする。
また、本実施形態では、1台の撮影カメラ92が移動することとし、移動前の撮影カメラ92と、移動後の撮影カメラ92とを仮想的に2台の撮影カメラ92として扱うこととする。
以後、1台目の撮影カメラに符号92を付し、2台目の撮影カメラに符号92を付して説明する。
In the present embodiment, it is assumed that the measurement reference object is a stationary subject 90 (FIG. 3) and the object is a photographing camera 92.
Further, in this embodiment, and the imaging camera 92 of one is moved, the imaging camera 92 1 before the movement, and to handle the imaging camera 92 2 after movement virtually as photographing camera 92 two To do.
Hereinafter, reference numeral 92 1 on one eye imaging camera will be described by reference numeral 92 2 onto a second imaging camera.

撮影カメラ92は、カメラ本体92aと、雲台92bとを備える。
カメラ本体92aは、ズーム制御信号に基づいて、レンズのズームを駆動する。
雲台92bは、カメラ本体92aを搭載すると共に、パン・チルト制御信号に基づいて、カメラ本体92aをパン方向及びチルト方向に駆動する。
The photographing camera 92 includes a camera body 92a and a pan head 92b.
The camera body 92a drives the zoom of the lens based on the zoom control signal.
The camera platform 92b mounts the camera body 92a and drives the camera body 92a in the pan direction and the tilt direction based on the pan / tilt control signal.

対象物認識手段20は、画像認識・追跡手段20,20を備える。
画像認識・追跡手段20は、撮影カメラ92のカメラ映像(撮影画像)が入力され、このカメラ映像に含まれる被写体90を認識するものである。そして、対象物認識手段20は、被写体90の認識結果(画面上の座標)を角度算出手段21及び面積算出手段23に出力する。
The object recognition unit 20 includes image recognition / tracking units 20 1 and 20 2 .
Image recognition and tracking means 20 1 is input photographing camera 92 1 of the camera image (captured image) is one that recognizes an object 90 included in the camera image. Then, the object recognition unit 20 1 outputs the recognition result of the object 90 (coordinates on the screen) to the angle calculating means 21 1 and the area calculation section 23.

画像認識・追跡手段20は、撮影カメラ92のカメラ映像を対象とする以外、画像認識・追跡手段20と同様のため、説明を省略する。 Image recognition and tracking means 20 2 is omitted except that target camera image of the imaging camera 92 2, the same as in image recognition and tracking means 20 1, the description.

角度算出手段21は、撮影カメラ92について、カメラ位置情報及び撮影方向情報の差分を動座標基底ベクトルに分解することで、微分形式の動座標系で方向の変化を示す角度を算出するものである。
なお、本実施形態では、被写体90の位置が既知(固定)であり、撮影カメラ92に対する姿勢制御の結果として、撮影方向が定まるため、カメラ位置情報及び撮影方向情報を外部から入力せずともよい。
The angle calculation means 21 1 calculates an angle indicating a change in direction in the differential dynamic coordinate system by decomposing the difference between the camera position information and the shooting direction information into a dynamic coordinate basis vector for the shooting camera 92 1. It is.
In this embodiment, since the position of the subject 90 is known (fixed) and the shooting direction is determined as a result of the attitude control with respect to the shooting camera 92, it is not necessary to input camera position information and shooting direction information from the outside. .

具体的には、角度算出手段21は、図9に示すように、下記の式(8)〜式(10)を用いて、動座標基底ベクトルex1〜ez3への分解を行い、角度φθを算出する。 Specifically, the angle calculating means 21 1, as shown in FIG. 9, using the following equation (8) to Formula (10), the degradation of the motion coordinate basis vector e x1 to e z3, angle Calculate φ and θ.

この図9では、撮影カメラ92が原点O=(0,0,0)に位置し、撮影カメラ92(図9では省略)が任意の場所に位置することとする。また、被写体90の位置Pは、デカルト座標で(x,y,z)で表される。また、点O−P間の距離がrである。すなわち、この図9は、デカルト座標(x,y,z)と、球座標系(r,θ,φ)との対応関係を表している。ここで、距離rも、距離の差分drも未知であることとする。 In FIG. 9, the photographing camera 92 1 is located at the origin O = (0,0,0), photographing camera 92 2 (omitted in FIG. 9) is to be in any position. Further, the position P of the subject 90 is represented by (x, y, z) in Cartesian coordinates. Further, the distance between the points OP is r. That is, FIG. 9 shows the correspondence between Cartesian coordinates (x, y, z) and the spherical coordinate system (r, θ, φ). Here, the distance r and the distance difference dr are unknown.

Figure 0006340113
Figure 0006340113

Figure 0006340113
Figure 0006340113

Figure 0006340113
Figure 0006340113

その後、角度算出手段21は、算出した動座標基底ベクトルex1〜ez3と、角度φθとを、距離算出手段22に出力する。
角度算出手段21は、撮影カメラ92を対象とする以外、角度算出手段21と同様のため、説明を省略する。
Then, the angle calculating means 21 1 includes a moving coordinate base vector e x1 to e z3 calculated, the angle phi, and theta, and outputs the distance calculating unit 22.
Angle calculating means 21 2, except that target imaging camera 92 2, the same as in the angle calculating unit 21 1, the description thereof is omitted.

距離算出手段22は、角度算出手段21,21より入力された角度から、動座標数理により、微分形式の動座標系で計測点と計測対象点との距離を算出するものである。 The distance calculation means 22 calculates the distance between the measurement point and the measurement target point in the differential dynamic coordinate system by the dynamic coordinate mathematics from the angles input from the angle calculation means 21 1 and 21 2 .

ここで、距離rを求める説明を簡易にするため、式(9)のdx及びdyが変化し、dzが一定の場合を考える。すなわち、dz=0、dθ=0、sinθ=1が成立する。この場合、下記の式(11)から式(12)を導き出すことができる。   Here, in order to simplify the description for obtaining the distance r, consider a case where dx and dy in Equation (9) change and dz is constant. That is, dz = 0, dθ = 0, and sin θ = 1. In this case, Expression (12) can be derived from Expression (11) below.

Figure 0006340113
Figure 0006340113

Figure 0006340113
Figure 0006340113

そして、式(12)を下記の式(13)に代入して、式(14)を導き出すことができる。さらに、式(14)を距離rで解いて、式(15)を導き出すことができる。従って、距離算出手段22は、式(15)で表される距離算出式を用いて、距離rを算出する。   Then, the equation (12) can be substituted into the following equation (13) to derive the equation (14). Furthermore, equation (15) can be derived by solving equation (14) with distance r. Therefore, the distance calculation means 22 calculates the distance r using the distance calculation formula represented by Formula (15).

Figure 0006340113
Figure 0006340113

Figure 0006340113
Figure 0006340113

Figure 0006340113
Figure 0006340113

ここで、dφを微小とし、dφがsindφに近似する場合、下記の式(16)が成立する。従って、距離算出手段22は、下記の式(17)及び式(18)を用いて、距離の差分drを算出する。ここで、dsは、任意の2点間の距離を表す。   Here, when dφ is minute and dφ approximates to sindφ, the following equation (16) is established. Therefore, the distance calculation means 22 calculates the distance difference dr using the following equations (17) and (18). Here, ds represents the distance between any two points.

Figure 0006340113
Figure 0006340113

Figure 0006340113
Figure 0006340113

Figure 0006340113
Figure 0006340113

図10(a)に示すように、時刻tにおける撮影カメラ92を符号92で図示し、時刻t+1における撮影カメラ92を符号92t+1で図示した。この場合、図10(b)に示すように、距離算出手段22は、撮影カメラ92t,92t+1の光軸交点で、基底による動きの抽出を行って、時刻tにおける距離方向の基底ベクトルertと、角度方向の基底ベクトルeθt,eφtとを抽出する(時刻t+1も同様)。図10(c)に示すように、距離算出手段22は、動座標数理による動きの接続を行って、基底ベクトルertと基底ベクトルert+1との差分を、距離の差分drとして算出する。 As shown in FIG. 10 (a), the imaging camera 92 1 at time t shown by reference numeral 92 t, the imaging camera 92 2 at time t + 1 shown by reference numeral 92 t + 1. In this case, as shown in FIG. 10 (b), the distance calculating means 22 extracts the motion by the base at the intersection of the optical axes of the photographing cameras 92t and 92t + 1 , and the base in the distance direction at time t. The vector e rt and the angular direction base vectors e θt and e φt are extracted (the same applies to the time t + 1). As shown in FIG. 10C, the distance calculating unit 22 performs motion connection by dynamic coordinate mathematics, and calculates a difference between the base vector e rt and the base vector e rt + 1 as a distance difference dr. .

その後、距離算出手段22は、距離r及び距離の差分drをズーム制御手段24に出力し、角度φθをパン・チルト制御手段25に出力する。
なお、距離算出手段22に入力された直交座標は、デカルト座標系で撮影カメラ92と被写体90との位置を表すために用いられる。
Thereafter, the distance calculation unit 22 outputs the distance r and the distance difference dr to the zoom control unit 24 and outputs the angles φ 1 and θ to the pan / tilt control unit 25.
Note that the orthogonal coordinates input to the distance calculation means 22 are used to represent the positions of the photographing camera 92 and the subject 90 in the Cartesian coordinate system.

図8に戻り、カメラ制御装置2の構成について、説明を続ける。
面積算出手段23は、角度算出手段21,21から入力された被写体90の面積を算出するものである。例えば、面積算出手段23は、被写体90のエッジを抽出し、このエッジ領域の面積を求める。そして、面積算出手段23は、算出した被写体90の面積をズーム制御手段24に出力する。
Returning to FIG. 8, the description of the configuration of the camera control device 2 will be continued.
The area calculation unit 23 calculates the area of the subject 90 input from the angle calculation units 21 1 and 21 2 . For example, the area calculating unit 23 extracts the edge of the subject 90 and obtains the area of the edge region. Then, the area calculation unit 23 outputs the calculated area of the subject 90 to the zoom control unit 24.

ズーム制御手段24は、距離算出手段22から入力された距離r及び距離の差分drと、面積算出手段23から入力された被写体90の面積とに基づいて、撮影カメラ92(カメラ本体92a)のズームを制御するものである。   The zoom control unit 24 zooms in the photographing camera 92 (camera body 92 a) based on the distance r and the distance difference dr input from the distance calculation unit 22 and the area of the subject 90 input from the area calculation unit 23. Is to control.

例えば、ズーム制御手段24は、距離rが遠くなる程、撮影カメラ92がズームインし、距離rが近くなる程、撮影カメラ92がズームアウトするようなズーム制御信号を生成し、カメラ本体92aに出力する。   For example, the zoom control unit 24 generates a zoom control signal such that the photographing camera 92 zooms in as the distance r increases, and the photographing camera 92 zooms out as the distance r decreases, and outputs the zoom control signal to the camera body 92a. To do.

このとき、ズーム制御手段24は、距離rの移動平均を用いて、ズーム制御を行うことが好ましい。図11に示すように、ズーム制御手段24は、距離rの計算値(黒丸で図示)から、距離rの移動平均94を算出する。そして、ズーム制御手段24は、この移動平均94で表される距離rに基づいて、ズーム制御信号を生成する。これによって、カメラ制御装置2は、ズーム制御の誤差を低減することができる。   At this time, the zoom control unit 24 preferably performs zoom control using a moving average of the distance r. As shown in FIG. 11, the zoom control means 24 calculates a moving average 94 of the distance r from the calculated value of the distance r (illustrated by a black circle). Then, the zoom control unit 24 generates a zoom control signal based on the distance r represented by the moving average 94. Thereby, the camera control device 2 can reduce an error in zoom control.

また、例えば、ズーム制御手段24は、被写体90の面積が狭くなる程、撮影カメラ92がズームインし、被写体90の面積が広くなる程、撮影カメラ92がズームアウトするようなズーム制御信号を生成し、カメラ本体92aに出力する。   In addition, for example, the zoom control unit 24 generates a zoom control signal so that the photographing camera 92 zooms in as the area of the subject 90 becomes smaller, and the photographing camera 92 zooms out as the area of the subject 90 becomes larger. And output to the camera body 92a.

パン・チルト制御手段25は、距離算出手段22から入力された角度φθに基づいて、撮影カメラ92(雲台92b)のパン及びチルトを制御するものである。つまり、パン・チルト制御手段25は、この角度φθに基づいて、撮影カメラ92が被写体90を向くようなパン・チルト制御信号を生成し、雲台92bに出力する。
ズーム制御手段24及びパン・チルト制御手段25が、特許請求の範囲に記載のカメラ制御手段に相当する。
The pan / tilt control means 25 controls the pan and tilt of the photographing camera 92 (the pan head 92 b) based on the angles φ 1 and θ input from the distance calculation means 22. That is, the pan / tilt control means 25 generates a pan / tilt control signal such that the photographing camera 92 faces the subject 90 based on the angles φ 1 and θ, and outputs the pan / tilt control signal to the pan head 92b.
The zoom control means 24 and the pan / tilt control means 25 correspond to the camera control means described in the claims.

[作用・効果]
以上のように、カメラ制御装置2は、相対的な角度φ,θを算出するため、バイアス誤差が相殺され、正確に距離rを算出することができる。その結果、カメラ制御装置2は、被写体90を向くように撮影カメラ92を正確に制御することができる。
[Action / Effect]
As described above, the camera control unit 2, in order to calculate the relative angle phi, theta t, bias error are canceled, it is possible to accurately calculate the distance r. As a result, the camera control device 2 can accurately control the photographing camera 92 so as to face the subject 90.

なお、前記した実施形態では、本願発明に係る計測装置の一例として、位置計測装置1,1B及びカメラ制御装置2を説明したが、本願発明はこれらに限定されない。すなわち、図12に示すように、本願発明に係る計測装置3は、角度算出手段21,21と、距離算出手段22とを備えることで、実現可能である。 In the above-described embodiment, the position measurement devices 1 and 1B and the camera control device 2 have been described as examples of the measurement device according to the present invention. However, the present invention is not limited to these. That is, as shown in FIG. 12, the measuring device 3 according to the present invention can be realized by including angle calculation means 21 1 , 21 2 and a distance calculation means 22.

また、第3実施形態では、被写体90の位置を計測しないこととして説明したが、図1の対象物位置検出手段14(14B)と同様の手法で、被写体90の位置を計測してもよい。この場合、カメラ制御装置2は、計測した被写体90の位置に基づいて、この撮影カメラ92のズーム比を制御することができる。   In the third embodiment, it has been described that the position of the subject 90 is not measured. However, the position of the subject 90 may be measured by the same method as the object position detection unit 14 (14B) in FIG. In this case, the camera control device 2 can control the zoom ratio of the photographing camera 92 based on the measured position of the subject 90.

(参考例1:計測装置の動作原理)
図13を参照し、参考例1として、本願発明に係る計測装置の動作原理について、説明する。
(Reference example 1: Operating principle of measuring device)
With reference to FIG. 13, the operation principle of the measuring apparatus according to the present invention will be described as Reference Example 1.

図13に示すように、1台目の撮影カメラ92が原点(0,0,0)に配置され、2台目の撮影カメラ92が座標(x,y,z)に配置されていることとする。 As shown in FIG. 13, imaging camera 92 1 of first unit is arranged at the origin (0,0,0), placed onto a second imaging camera 92 2 coordinates (x 0, y 0, z 0) Suppose that it is done.

また、対象物の位置がPからPに移動し、その移動量ΔP=(Δx,Δy,Δz)が不明であることとする。
また、撮影カメラ92から位置Pまでの距離がrであり、撮影カメラ92から位置Pまでの距離がr´である。
Further, it is assumed that the position of the object moves from P 1 to P 2 and the movement amount ΔP = (Δx, Δy, Δz) is unknown.
The distance from the photographing camera 92 1 to the position P 1 is r 1 , and the distance from the photographing camera 92 1 to the position P 2 is r 1 ′.

また、撮影カメラ92から位置Pまでの距離がrであり、撮影カメラ92から位置Pまでの距離がr´である。
また、Δr=r−rであり、Δr=r´−r´である。また、撮影カメラ92の角度がφ,θであり、撮影カメラ92の角度がφ,θである。
The distance from the imaging camera 92 2 to the position P 1 is r 2, the distance from the photographic camera 92 2 to the position P 2 is r 2 '.
Further, Δr 1 = r 1 −r 2 and Δr 2 = r 1 ′ −r 2 ′. Further, the angle of the photographing camera 92 1 is φ 1 , θ 1 , and the angle of the photographing camera 92 2 is φ 2 , θ 2 .

撮影カメラ92から見て、ΔPは、下記の式(19)で表すことができる。また、撮影カメラ92から見て、ΔPは、下記の式(20)で表すことができる。 When viewed from the photographic camera 92 1, [Delta] P can be expressed by the following equation (19). Also, as viewed from the imaging camera 92 2, [Delta] P can be expressed by the following equation (20).

Figure 0006340113
Figure 0006340113

Figure 0006340113
Figure 0006340113

式(19)及び式(20)より、距離r,rは、下記の式(21)で表すことができる。 From the equations (19) and (20), the distances r 1 and r 2 can be expressed by the following equation (21).

Figure 0006340113
Figure 0006340113

また、撮影カメラ92について、式(22)〜式(24)に示すように、角度φ1,θを動座標基底ベクトルe11,21,31に分解する。 Further, decomposing the photographing camera 92 1, as shown in equation (22) to (24), the angle phi 1, the theta 1 to the moving coordinate basis vectors e 11, e 21, e 31 .

Figure 0006340113
Figure 0006340113

Figure 0006340113
Figure 0006340113

Figure 0006340113
Figure 0006340113

また、撮影カメラ92について、式(25)〜式(27)に示すように、角度φ2,θを動座標基底ベクトルe12,22,32に分解する。 Further, decomposing the photographing camera 92 2, as shown in equation (25) to (27), the angle phi 2, the theta 2 to the moving coordinate basis vectors e 12, e 22, e 32 .

Figure 0006340113
Figure 0006340113

Figure 0006340113
Figure 0006340113

Figure 0006340113
Figure 0006340113

前記した式(21)〜式(27)を解くことで、距離r,rと、移動量ΔPとを求めることができる。 The distances r 1 and r 2 and the movement amount ΔP can be obtained by solving the above-described equations (21) to (27).

(参考例2:参考例1の別解法)
参考例2として、参考例1の別解法について、説明する。
(Reference Example 2: Another solution of Reference Example 1)
As Reference Example 2, another solution of Reference Example 1 will be described.

ここで、動座標基底ベクトルe1,2,は、下記の式(28)で表される。また、移動量dP=P−Pは、下記の式(29)で表される。 Here, the dynamic coordinate basis vectors e 1, e 2, and e 3 are expressed by the following equation (28). Further, the movement amount dP = P 2 −P 1 is expressed by the following formula (29).

Figure 0006340113
Figure 0006340113

Figure 0006340113
Figure 0006340113

式(28)及び式(29)を連立方程式で解くと、下記の式(30)が成立し、2台の撮影カメラ921,92から見て、移動量dPが等しくなる。この式(30)を、式(31)の微分方程式として解く。 When the equations (28) and (29) are solved by simultaneous equations, the following equation (30) is established, and the movement amount dP is equal when viewed from the two photographing cameras 92 1 and 92 2 . This equation (30) is solved as a differential equation of equation (31).

Figure 0006340113
Figure 0006340113

Figure 0006340113
Figure 0006340113

なお、φA,θA,1A〜e3Aは、撮影カメラ92についての角度φθと、動座標基底ベクトルe〜eである。また、φB,θB,1B〜e3Bは、撮影カメラ92についての角度φθと、動座標基底ベクトルe〜eである。
ここで、式(32)が成立し、t=0のときにr=rであるから、式(33)が成立する。
Φ A, θ A, e 1A to e 3A are the angles φ and θ and the dynamic coordinate basis vectors e 1 to e 3 with respect to the photographing camera 92 1 . Also, φ B, θ B, e 1B ~e 3B , the angle phi, and theta for photographing camera 92 2, a motion coordinate basis vectors e 1 to e 3.
Here, since Expression (32) is satisfied and r = r 1 when t = 0, Expression (33) is satisfied.

Figure 0006340113
Figure 0006340113

Figure 0006340113
Figure 0006340113

式(33)の‘C’を式(32)に代入して式(34)が得られ、この式を2台の撮影カメラに対応した式(35)及び式(36)に変換する。   By substituting ‘C’ in Expression (33) into Expression (32), Expression (34) is obtained, and this Expression is converted into Expression (35) and Expression (36) corresponding to the two photographing cameras.

Figure 0006340113
Figure 0006340113

Figure 0006340113
Figure 0006340113

Figure 0006340113
Figure 0006340113

ここで、式(37)のように位置Pを定義し、X軸方向で考えると、式(38)及び式(39)が成立する。   Here, when the position P is defined as in Expression (37) and considered in the X-axis direction, Expression (38) and Expression (39) are established.

Figure 0006340113
Figure 0006340113

Figure 0006340113
Figure 0006340113

Figure 0006340113
Figure 0006340113

また、X軸方向と同様、Y軸方向で考えると、式(40)及び式(41)が成立する。   Further, when considered in the Y-axis direction as in the X-axis direction, Expressions (40) and (41) are established.

Figure 0006340113
Figure 0006340113

Figure 0006340113
Figure 0006340113

また、X軸方向と同様、Z軸方向で考えると、式(42)及び式(43)が成立する。   Similarly to the X-axis direction, Expression (42) and Expression (43) are established when considered in the Z-axis direction.

Figure 0006340113
Figure 0006340113

Figure 0006340113
Figure 0006340113

前記した式(39)、式(41)及び式(43)により、距離rAx,rBx,rAy,rBy,rAz,rBzを求めることができる。以上のように、参考例1,2の何れでも、計算結果が一致する。 The distances r Ax , r Bx , r Ay , r By , r Az , and r Bz can be obtained from the above equations (39), (41), and (43). As described above, in both Reference Examples 1 and 2, the calculation results match.

1,1B 位置計測装置
10 モード選択手段
11,20 対象物認識手段(計測対象物認識手段)
12,12B 入力手段
13,13B 動座標基底ベクトル分解手段(角度算出手段)
14,14B 対象物位置検出手段(距離算出手段及び位置算出手段)
15 地図表示手段
2 カメラ制御装置
20,20 画像認識・追跡手段
21,21 角度算出手段
22 距離算出手段
23 面積算出手段
24 ズーム制御手段(カメラ制御手段)
25 パン・チルト制御手段(カメラ制御手段)
1, 1B Position measurement device 10 Mode selection means 11, 20 Object recognition means (measurement object recognition means)
12, 12B input means 13, 13B dynamic coordinate basis vector decomposition means (angle calculation means)
14, 14B Object position detection means (distance calculation means and position calculation means)
15 Map display means 2 Camera control device 20 1 , 20 2 Image recognition / tracking means 21 1 , 21 2 Angle calculation means 22 Distance calculation means 23 Area calculation means 24 Zoom control means (camera control means)
25 Pan / tilt control means (camera control means)

Claims (5)

距離の計測基準となる計測基準物と、前記距離の計測対象である計測対象物との少なくとも一方が移動しているときに、前記計測基準物が位置する計測点と前記計測対象物が位置する計測対象点との距離を計測する計測装置であって、
前記計測基準物の位置の差分又は前記距離を計測するためのスケールの寸法を示すスケール情報と、前記計測対象物に対する計測基準物の方向又は当該方向の差分とを、3次元の動座標系における第1の動座標基底ベクトルと、前記第1の動座標基底ベクトルに直交する第2の動座標基底ベクトルと、前記第1の動座標基底ベクトル及び前記第2の動座標基底ベクトルに直交する第3の動座標基底ベクトルとに分解する動座標基底ベクトル分解手段と、
前記動座標基底ベクトル分解手段で分解した動座標基底ベクトルと前記方向又は前記方向の差分が含まれる距離算出式により、前記計測点と前記計測対象点との距離を算出する距離算出手段と、
を備えることを特徴とする計測装置。
When at least one of a measurement reference object that is a distance measurement reference and a measurement target that is the distance measurement object is moving , the measurement point where the measurement reference object is located and the measurement object are located A measuring device for measuring a distance from a measurement target point,
Scale information indicating a difference in position of the measurement reference object or a scale for measuring the distance, and a direction of the measurement reference object with respect to the measurement object or a difference in the direction in a three-dimensional dynamic coordinate system A first moving coordinate basis vector; a second moving coordinate basis vector orthogonal to the first moving coordinate basis vector; a first moving coordinate basis vector; and a second moving coordinate basis vector orthogonal to the first moving coordinate basis vector. Dynamic coordinate basis vector decomposition means for decomposing into three dynamic coordinate basis vectors;
A distance calculation means for calculating a distance between the measurement point and the measurement target point by a distance calculation formula including the dynamic coordinate base vector decomposed by the dynamic coordinate base vector decomposition means and the direction or a difference between the directions ;
A measuring device comprising:
前記動座標基底ベクトル分解手段は、前記スケール情報(ΔxThe dynamic coordinate basis vector decomposing means is configured to generate the scale information (Δx t ,Δy, Δy t ,Δz, Δz t )と、前記方向(φ) And the direction (φ t,t, θθ t )とを、式(5)に示すように、前記第1の動座標基底ベクトルE1) As shown in Expression (5), the first moving coordinate basis vector E1 t と、前記第2の動座標基底ベクトルE2And the second dynamic coordinate basis vector E2 t と、前記第3の動座標基底ベクトルE3And the third dynamic coordinate basis vector E3 t とに分解することで、微分形式の動座標系で前記方向の変化を示す角度ΔφAnd the angle Δφ indicating the change in the direction in the differential dynamic coordinate system. t ,Δθ, Δθ t を算出し、To calculate
Figure 0006340113
Figure 0006340113
前記距離算出手段は、式(6)で表される前記距離算出式により、前記第2の動座標基底ベクトルE2The distance calculation means calculates the second dynamic coordinate basis vector E2 by the distance calculation formula represented by the formula (6). t 及び前記第3の動座標基底ベクトルE3And the third dynamic coordinate basis vector E3 t と、前記角度ΔφAnd the angle Δφ t ,Δθ, Δθ t とに基づいて、前記微分形式の動座標系で前記計測点と前記計測対象点との距離rBased on the above, the distance r between the measurement point and the measurement target point in the differential dynamic coordinate system t を算出するCalculate
Figure 0006340113
Figure 0006340113
ことを特徴とする請求項1に記載の計測装置。The measuring apparatus according to claim 1.
前記計測基準物としての撮影カメラで撮影された撮影画像に含まれる計測対象物をテンプレートマッチングにより抽出し、抽出した前記計測対象物を近似する図形に変換し、前記撮影画像に含まれる計測対象物を認識する計測対象物認識手段と、
前記動座標基底ベクトル分解手段で算出された角度と、前記距離算出手段で算出された距離と、前記計測対象物認識手段で認識された計測対象物の面積とを用いて、前記撮影カメラを制御するカメラ制御手段と、
をさらに備えることを特徴とする請求項に記載の計測装置。
A measurement object included in a photographed image photographed by a photographing camera as the measurement reference object is extracted by template matching, and the extracted measurement object is converted into a figure that approximates, and the measurement object contained in the photographed image Measurement object recognition means for recognizing
The photographing camera is controlled using the angle calculated by the moving coordinate basis vector decomposition means , the distance calculated by the distance calculation means, and the area of the measurement object recognized by the measurement object recognition means. Camera control means,
The measuring device according to claim 2 , further comprising:
前記計測基準物の位置及び前記計測対象物に対する計測基準物の方向を示す位置方向情報が示す計測点の位置及び方向と、前記距離算出手段で算出された距離とから、予め設定された位置算出式により、前記計測対象点の位置を算出する位置算出手段、
をさらに備えることを特徴とする請求項1から請求項の何れか一項に記載の計測装置。
A position calculation set in advance from the position and direction of the measurement point indicated by the position and direction information indicating the position of the measurement reference object and the direction of the measurement reference object with respect to the measurement object, and the distance calculated by the distance calculation means A position calculating means for calculating the position of the measurement target point by an equation;
Measurement apparatus according to any one of claims 1 to 3, characterized by further comprising a.
コンピュータを、請求項1に記載の計測装置として機能させるための計測プログラム。   A measurement program for causing a computer to function as the measurement apparatus according to claim 1.
JP2017093525A 2017-05-10 2017-05-10 Measuring device and program thereof Active JP6340113B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017093525A JP6340113B2 (en) 2017-05-10 2017-05-10 Measuring device and program thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017093525A JP6340113B2 (en) 2017-05-10 2017-05-10 Measuring device and program thereof

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2013086217A Division JP6192157B2 (en) 2013-04-17 2013-04-17 Measuring device and program thereof

Publications (2)

Publication Number Publication Date
JP2017142267A JP2017142267A (en) 2017-08-17
JP6340113B2 true JP6340113B2 (en) 2018-06-06

Family

ID=59629019

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017093525A Active JP6340113B2 (en) 2017-05-10 2017-05-10 Measuring device and program thereof

Country Status (1)

Country Link
JP (1) JP6340113B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024150402A1 (en) * 2023-01-13 2024-07-18 日本電気株式会社 Information processing system, information processing device, information processing method, and recording medium

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06347219A (en) * 1993-06-10 1994-12-20 Oyo Keisoku Kenkyusho:Kk Measuring instrument of traveling object
JP2003329771A (en) * 2002-05-16 2003-11-19 Mitsubishi Electric Corp Tracking apparatus and tracking processing method
GB2480422B (en) * 2010-02-25 2014-07-09 Imagination Tech Ltd Object tracking using graphics engine derived vectors in a motion estimation system

Also Published As

Publication number Publication date
JP2017142267A (en) 2017-08-17

Similar Documents

Publication Publication Date Title
JP6011548B2 (en) Camera calibration apparatus, camera calibration method, and camera calibration program
JP4708752B2 (en) Information processing method and apparatus
EP3421930B1 (en) Three-dimensional shape data and texture information generation system, photographing control program, and three-dimensional shape data and texture information generation method
US20150062123A1 (en) Augmented reality (ar) annotation computer system and computer-readable medium and method for creating an annotated 3d graphics model
JP6589636B2 (en) 3D shape measuring apparatus, 3D shape measuring method, and 3D shape measuring program
US11490062B2 (en) Information processing apparatus, information processing method, and storage medium
JP5388921B2 (en) Three-dimensional distance measuring apparatus and method
JP2011179908A (en) Three-dimensional measurement apparatus, method for processing the same, and program
JPH07286837A (en) Instrument and method for measuring rotational amount of spherical body
JP2017134617A (en) Position estimation device, program and position estimation method
JP7173285B2 (en) Camera calibration device, camera calibration method, and program
JP7151879B2 (en) Camera calibration device, camera calibration method, and program
JP2013171523A (en) Ar image processing device and method
JP6340113B2 (en) Measuring device and program thereof
WO2018134866A1 (en) Camera calibration device
JP2000205821A (en) Instrument and method for three-dimensional shape measurement
JP2003006618A (en) Method and device for generating three-dimensional model and computer program
JP6192157B2 (en) Measuring device and program thereof
JP3512894B2 (en) Relative moving amount calculating apparatus and relative moving amount calculating method
CN115731304A (en) Road data generation method, device and equipment
WO2017057426A1 (en) Projection device, content determination device, projection method, and program
WO2021111613A1 (en) Three-dimensional map creation device, three-dimensional map creation method, and three-dimensional map creation program
CN110785792A (en) 3D modeling method, electronic device, storage medium, and program product
JP2005323905A (en) Instrument and program for measuring eyeball movement
JP3655065B2 (en) Position / attitude detection device, position / attitude detection method, three-dimensional shape restoration device, and three-dimensional shape restoration method

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170607

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170607

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180405

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180417

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180511

R150 Certificate of patent or registration of utility model

Ref document number: 6340113

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250