JP2007249978A - Image measurement method, image measurement apparatus, and image measurement program storage medium - Google Patents

Image measurement method, image measurement apparatus, and image measurement program storage medium Download PDF

Info

Publication number
JP2007249978A
JP2007249978A JP2007080375A JP2007080375A JP2007249978A JP 2007249978 A JP2007249978 A JP 2007249978A JP 2007080375 A JP2007080375 A JP 2007080375A JP 2007080375 A JP2007080375 A JP 2007080375A JP 2007249978 A JP2007249978 A JP 2007249978A
Authority
JP
Japan
Prior art keywords
measurement
point
points
space
observation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2007080375A
Other languages
Japanese (ja)
Inventor
Susumu Kawakami
進 川上
Masahiro Matsuoka
雅裕 松岡
Hiroaki Okamoto
浩明 岡本
Shinya Hosoki
信也 細木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2007080375A priority Critical patent/JP2007249978A/en
Publication of JP2007249978A publication Critical patent/JP2007249978A/en
Withdrawn legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide a technique for measuring the three-dimensional geometrical information of a plane and the positional information of a point, etc. from an optical flow pattern or a stereographic image. <P>SOLUTION: When defining p<SB>0</SB>, p<SB>1</SB>as the respective positions of an arbitrary point at two different times in a space appeared in an image, when the inside of the space is viewed from a predetermined observation point, and when p<SB>inf</SB>as the position of the point after the lapse of an infinite time, and p<SB>c</SB>as the position of the point at the time, when the plane including the point is overlaid on the observation point, the time at which the direction of the plane and the plane is overlaid on the observation point is obtained, by using a cross-ratio äp<SB>inf</SB>p<SB>0</SB>p<SB>1</SB>p<SB>c</SB>} determined by the four points, p<SB>inf</SB>, p<SB>0</SB>, p<SB>1</SB>and p<SB>c</SB>. <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

本発明は、画像にあらわれた点や面から、空間内におけるそれらの位置や向きなどを計測する画像計測方法、その画像計測方法を実施する画像計測装置、およびその画像計測を実現する画像計測プログラムが記憶されてなる画像計測プログラム記憶媒体に関する。   The present invention relates to an image measurement method for measuring the position and orientation in a space from points and surfaces appearing in an image, an image measurement apparatus for implementing the image measurement method, and an image measurement program for realizing the image measurement. Is stored in the image measurement program storage medium.

移動ロボット、自動車、そして飛行機などを環境に適応して移動させるには、カメラなどの動画像から、環境を3次元的に計測する必要がある。飛行機を着陸させる場合と歩行する場合に、人間は視覚により(正確には運動視により)どのような3次元計測を行っているかを考えてみる。   In order to move mobile robots, automobiles, airplanes, and the like in accordance with the environment, it is necessary to measure the environment three-dimensionally from a moving image such as a camera. Let us consider what kind of three-dimensional measurement is being performed by humans when visually landing and walking.

図1にパイロットの網膜に写るオプティカルフロー・パターンを示す。パイロットはこのパターンから、滑走路の傾き(3次元方位)や“このままで進むと何秒後に滑走路に到達するか”を知覚して、的確に飛行機を着陸させている。すなわち、パイロットはこのパターンから、平面(滑走路)の3次元方位と“平面を横切るまでの時間”を計測して着陸している。   FIG. 1 shows an optical flow pattern reflected in the retina of the pilot. From this pattern, the pilot perceives the slope of the runway (three-dimensional azimuth) and “how many seconds it will take to reach the runway if it continues as it is” to land the airplane accurately. In other words, the pilot is landing from this pattern by measuring the three-dimensional orientation of the plane (runway) and “time to cross the plane”.

我々が廊下を歩く場合を考えてみる。廊下の壁にぶつかる方向に歩くと、上述のオプティカルフロー・パターンが網膜上に生じ、そのパターンから壁を横切るまでの時間(壁に衝突するまでの時間)を計測して、同時に計測される壁の3次元方位からそれを避ける方向に回避移動をする。一方、壁に平行に歩いている場合にはいつまでもぶつかることがない(すなわち、無限時間経過後後にぶつかる)ことを計測して、そのままの方向に歩き続ける。このようにして、曲がりくねった廊下でも壁を的確に回避して歩くことができる。また、事務所内をあるく場合も、ホワイトボード・机・ローカーなどの“平面で構成される物体”を同じように回避して歩くことができる。さらに、自動車を運転する場合も、同様な“平面の3次元計測”を行って高速道路の走行や車庫入れなどを行っている。   Consider the case where we walk in the hallway. When walking in the direction of hitting the hallway wall, the optical flow pattern described above is generated on the retina, and the time taken to cross the wall from that pattern (time to collide with the wall) is measured, and the wall is measured simultaneously The avoidance movement is made from the three-dimensional direction in the direction to avoid it. On the other hand, when walking parallel to the wall, it is measured that it will not collide indefinitely (that is, it will collide after an infinite time has passed), and it will continue walking in that direction. In this way, even a winding corridor can be walked with accurate avoidance of the walls. In addition, when going inside the office, it is possible to walk while avoiding “objects composed of planes” such as whiteboards, desks, and lokers. Furthermore, when driving a car, the same “three-dimensional measurement of a plane” is performed to run on a highway or put in a garage.

このように、我々は視覚により、平面から構成される物体――そのような物体が沢山ある−−の三次元幾何情報(平面の3次元方位と平面を横切るまでの時間)を計測して的確な移動を可能にしている。曲面の物体でも“それに接する平面群”の3次元的幾何情報を計測して空間的に認識することができる。   In this way, we accurately measure the three-dimensional geometrical information (the three-dimensional orientation of the plane and the time until it crosses the plane) of an object composed of a plane-there are many such objects. Movement is possible. Even a curved object can be spatially recognized by measuring three-dimensional geometric information of a “plane group in contact with it”.

このような“平面の三次元幾何情報”を画像から計測できるようになれば、移動ロボット、自動車、そして飛行機などを環境に適応してあるいは障害物を回避しながら移動させることが可能になる。   If such “three-dimensional geometric information of a plane” can be measured from an image, it becomes possible to move a mobile robot, a car, an airplane, etc. while adapting to the environment or avoiding an obstacle.

図1のオプティカルフロー・パターンの各速度要素――すなわち、図1の局所領域内の運動(局所運動)――については、それを動画像から計測する技術がこれまでに報告されている(特開平05−165956号公報、特開平05−165957号公報、特開平06−044364号公報、特開平09−081369号公報;“2次元相関およびコンボリューションをハフ平面のρ座標に沿って1次元的に行う方法,” 川上と岡本, 信学技報, vol. IE96−19, pp.31−38, 1996;“A cell model for the detection of local image motion on the magnocellular pathway of the visual cortex,”Kawakami, S. and Okamoto, H., Vision Research, vol. 36, pp. 117−147, 1996)。   For each velocity element of the optical flow pattern in Fig. 1, that is, the motion in the local region (local motion) in Fig. 1, a technique for measuring it from the moving image has been reported so far. Kaihei 05-16595, JP-A 05-165957, JP-A 06-044364, JP-A 09-081369; “two-dimensional correlation and convolution one-dimensionally along the ρ coordinate of the Hough plane ”Kawakami and Okamoto, IEICE Technical Report, vol. IE 96-19, pp. 31-38, 1996; ami, S. and Okamoto, H., Vision Research, vol. 36, pp. 117-147, 1996).

しかし、このオプティカルフロー・パターンを統合して“平面の三次元幾何情報(平面の3次元方位、平面を横切るまでの時間、平面までの最短距離)”を計測する方法は、これまでに報告されていない。   However, a method for integrating this optical flow pattern and measuring “three-dimensional geometric information of a plane (three-dimensional orientation of the plane, time to cross the plane, shortest distance to the plane)” has been reported so far. Not.

また、動画像から空間内の直線や円柱の三次元幾何情報(それらの3次元方位、それらまでの最短距離など)を計測する技術がこれまでに報告されている(特公平03−52106号公報、特公平06−14356号公報、特公平06−14355号公報、特公平06−10603号公報、特開平02−816037号公報; “球面写像による線分の三次元方位と距離の計測,”稲本など,コンピュータビジョン研究会, vol. 45−2, pp.1−8, 1986; “鳥まねで単眼立体視を実現,”科学朝日, 6月号, pp.28−331987; “Measurement in three dimensions by motion stereo and spherical mapping,”Morita, T. et.al., CVPR, pp. 422−428, 1989; “Motion stereo vision system,”Inamoto, Y. et.al., Proceeding of ’91 ISART, pp. 239−246, 1991;「昭和60年度実用原子力発電施設作業ロボット開発委託研究成果報告書(極限作業ロボット技術研究組合)」の4.2.2.1節)。   In addition, a technique for measuring three-dimensional geometric information (such as their three-dimensional orientation and the shortest distance to them) of a straight line or a cylinder in a space from a moving image has been reported so far (Japanese Patent Publication No. 03-52106). , Japanese Patent Publication No. 06-14356, Japanese Patent Publication No. 06-14355, Japanese Patent Publication No. 06-10603, Japanese Patent Laid-Open No. 02-816037; “Measurement of three-dimensional azimuth and distance of line segment by spherical mapping,” Inamoto , Computer Vision Study Group, vol. 45-2, pp. 1-8, 1986; “Realization of monocular stereoscopic vision with bird mimics,” Science Asahi, June issue, pp. 28-331987; “Measurement in three dimensions” by motion stereo and spatial mapping, "Morita, T. et al. et al., CVPR, pp. 422-428, 1989; “Motion stereo vision system,” Inamoto, Y. et al., Proceeding of '91 ISART, pp. 239-246, 1991; Nuclear power generation facility work robot development commissioned research results report (extreme work robot technology research association) ”section 4.2.2.1).

しかし、平面の三次元幾何情報を計測する方法はこれまでに報告されていない。   However, no method for measuring the three-dimensional geometric information of a plane has been reported so far.

本発明では、このオプティカルフローパターンなどの画像から、平面の三次元幾何情報や点の位置情報などを計測する技術を提供することを目的とする。なお、この三次元幾何情報の計測には、後述するように、平面までの最短距離の計測も含まれる。また、ステレオ画像から平面の三次元幾何情報を計測する技術を提供することも目的とする。   It is an object of the present invention to provide a technique for measuring plane three-dimensional geometric information, point position information, and the like from an image such as an optical flow pattern. Note that the measurement of the three-dimensional geometric information includes measurement of the shortest distance to the plane, as will be described later. It is another object of the present invention to provide a technique for measuring planar three-dimensional geometric information from a stereo image.

本発明の画像計測方法のうちの第1の画像計測方法は、所定の計測空間内の所定の観察点から該計測空間内を眺めたときの画像にあらわれた、該計測空間内の任意の計測点の、相互に異なる2つの計測時刻における各計測位置をそれぞれp,p、前記計測点の、前記観察点に対する相対的な、前記2つの計測時刻の間における移動方向vと同一の方向への、かつ前記2つの計測時刻の間の移動速度と同一の速度での移動がそのまま継続されるものと予定した移動継続状態における無限時間経過後の前記計測点の位置をpinf、前記移動継続状態において前記計測点を含む計測平面が前記観察点に重なる重畳時刻における前記計測点の位置をpとしたとき、
前記計測点の4つの位置pinf,p,p,pで決まる複比{pinf}あるいは該複比と等価な演算を用いて、前記計測平面の方位、及び/又は、該計測平面が前記観察点に重なる重畳時刻を指標する物理量を求めることを特徴とする。
The first image measurement method among the image measurement methods of the present invention is an arbitrary measurement in the measurement space that appears in an image when the measurement space is viewed from a predetermined observation point in the predetermined measurement space. The measurement positions of the points at two different measurement times are denoted by p 0 and p 1 , respectively, and the direction of the measurement point relative to the observation point is the same as the moving direction v between the two measurement times. P inf is the position of the measurement point after the infinite time has elapsed in the planned movement continuation state where the movement at the same speed as the movement speed between the two measurement times is continued. when measuring plane including the measurement point in the continuous state is a position of the measurement points in the overlay time overlapping the observation point and p c,
The four positions p inf measurement point, p 0, p 1, using the cross ratio {p inf p 0 p 1 p c} or plurality ratio equivalent operations determined by p c, the orientation of the measurement plane, And / or it is characterized in that a physical quantity indicating the superposition time at which the measurement plane overlaps the observation point is obtained.

ここで、上記第1の画像計測方法において、前記複比{pinf}あるいは該複比と等価な演算には、前記計測点の、前記2つの計測時刻における2つの計測位置p,pに代えて、前記計測点の、前記2つの計測時刻のうちの一方の計測時刻における計測位置pと、前記計測点の、前記2つの計測時刻における2つの計測位置p,pどうしの間の位置の差である運動視差τとを用いる演算が包含される。 Here, in the first image measurement method, the compound ratio {p inf p 0 p 1 p c} or plurality ratio equivalent calculation, the measurement point, two measurement in the two measurement time Instead of the positions p 0 and p 1 , the measurement point p 0 of the measurement point at one of the two measurement times and the two measurement positions p of the measurement point at the two measurement times Computation using motion parallax τ, which is the difference in position between 0 and p 1 , is included.

また、上記第1の画像計測方法では、前記重畳時刻を指標する物理量として、前記2つの計測時刻のうちの一方の計測時刻と前記重畳時刻との間の時間をt、前記2つの計測時刻どうしの間の時間をΔtとしたときの、
=t/Δt
であらわされる規格化時間を採用し、該規格化時間を、
={pinf
の関係式あるいは該関係式と等価な関係式を用いて求めてもよい。
In the first image measurement method, as a physical quantity indicating the superposition time, a time between one measurement time of the two measurement times and the superposition time is t c , and the two measurement times are measured. When the time between them is Δt,
n t c = t c / Δt
The normalized time n t c expressed by the following is adopted, and the normalized time n t c is
n t c = {p inf p 0 p 1 p c}
Alternatively, the relational expression may be obtained by using a relational expression or a relational expression equivalent to the relational expression.

また、上記第1の画像計測方法では、前記計測点の、前記重畳時刻における位置pを極変換することにより該位置pに対応する極線を求めるプロセスを、前記計測空間内に存在する複数の計測点について実行し、これらのプロセスにより求められた複数の極線を極線描画空間に描画したときの極線どうしの交差点を求めることにより、該交差点で交わる複数の極線に対応する複数の計測点を含む計測平面の方位、及び/又は、該計測平面が前記観察点に重なる重畳時刻を指標する物理量を求めてもよい。 Further, in the first image measurement method, the measurement point, the process for obtaining the polar corresponding to the position p c by polar transformation the position p c in the superimposed time, present in the measuring space By executing a plurality of measurement points and obtaining the intersections between the polar lines when the plurality of polar lines obtained by these processes are drawn in the polar drawing space, it corresponds to the plurality of polar lines intersecting at the intersections. An orientation of a measurement plane including a plurality of measurement points and / or a physical quantity indicating a superposition time at which the measurement plane overlaps the observation point may be obtained.

また、上記第1の画像計測方法は、前記画像上にあらわれた計測点が強度の情報を有するものである場合に、前記計測点の、前記重畳時刻における位置pを極変換することにより該計測点に対応する極線を求めるとともに、求められた極線を極線描画空間に描画したときの該極線の軌跡上の各点それぞれに該極線に対応する計測点の強度に対応する値を投票するプロセスを、前記計測空間内に存在する複数の計測点について実行し、これらのプロセスの実行の間の投票による値が極大値となる極大点を求めることにより、該極大点の投票に参加した複数の極線に対応する複数の計測点を含む計測平面の方位、及び/又は、該計測平面が前記観察点に重なる重畳時刻を指標する物理量を求めるものであってもよい。 Further, the first image measurement method, said by measurement points appearing on the image when the one having an intensity information, the measurement point, to polar transformation the position p c in the overlapped time A polar line corresponding to the measurement point is obtained, and each point on the trajectory of the polar line when the obtained polar line is drawn in the polar drawing space corresponds to the intensity of the measurement point corresponding to the polar line. The process of voting a value is executed for a plurality of measurement points existing in the measurement space, and the voting of the maximum point is obtained by obtaining a maximum point at which the value by voting during the execution of these processes becomes a maximum value. The orientation of the measurement plane including a plurality of measurement points corresponding to the plurality of polar lines that participated in and / or the physical quantity indicating the superposition time at which the measurement plane overlaps the observation point may be obtained.

さらに、上記第1の画像計測方法は、前記画像上にあらわれた計測点が強度の情報を有するものである場合に、前記計測点の前記重畳時刻における位置pを極変換することにより該計測点に対応する極線を求めるとともに、前記計測点の、前記2つの計測時刻における2つの計測位置p,pどうしの間の運動視差τに対応する応答強度を求め、求められた極線を極線描画空間に描画したときの該極線の軌跡上の各点それぞれに、該極線に対応する計測点の、前記運動視差τに対応する応答強度を投票するプロセスを、前記計測空間内に存在する複数の計測点について実行し、これらのプロセスの実行の間の投票による値が極大値となる極大点を求めることにより、該極大点の投票に参加した複数の極線に対応する複数の計測点を含む計測平面の方位、及び/又は、該計測平面が前記観察点に重なる重畳時刻を指標する物理量を求めるものであってもよい。

さらに、上記第1の画像計測方法では、位置pを求めるにあたっては、前記重畳時刻を指標する物理量と、前記計測点の、前記2つの計測時刻における各計測位置p,pあるいは、これら2つの計測位置p,pに代わる、該計測点の、前記2つの計測時刻のうちの一方の計測時刻における計測位置pおよび該計測点の、前記2つの計測時刻における2つの計測位置p,pどうしの間の運動視差τと、前記計測点の、前記移動継続状態における無限時間経過後の位置pinfとを知って、前記複比{pinf}あるいは該複比と等価な演算を用いて、前記計測点の前記重畳時刻における位置pを求めてもよい。
Furthermore, the first image measurement method, the measurement by the measurement points appearing on the image when the one having an intensity information, converts the position p c in the superimposed time of the measurement point electrode The polar line corresponding to the point is obtained, the response intensity corresponding to the motion parallax τ between the two measurement positions p 0 and p 1 at the two measurement times of the measurement point is obtained, and the obtained polar line The process of voting the response intensity corresponding to the motion parallax τ of the measurement point corresponding to the polar line to each point on the trajectory of the polar line when This is executed for a plurality of measurement points existing in the process, and by obtaining a maximum point where the value obtained by voting during the execution of these processes becomes a maximum value, it corresponds to a plurality of polar lines participating in the vote of the maximum point. Includes multiple measurement points Orientation of the measurement plane, and / or it may be one that obtains a physical quantity indicative of the superimposed time the measurement plane overlaps the observation point.
a
Furthermore, in the first image measurement method, when the seek position p c, a physical quantity which indicates the superposition time, the measurement point, the respective measurement position p 0 in the two measurement time, p 1 or they Instead of the two measurement positions p 0 , p 1 , the measurement point p 0 of the measurement point at one of the two measurement times and the two measurement positions of the measurement point at the two measurement times Knowing the motion parallax τ between p 0 and p 1 and the position p inf of the measurement point after the infinite time in the movement continuation state, the cross ratio {p inf p 0 p 1 p c } or by using a plurality ratio equivalent operation may be obtained position p c in the superimposed time of the measurement point.

さらに、上記第1の画像計測方法は、
前記重畳時刻を指標する物理量をパラメータとして設定する第1のステップと、
前記第1のステップで設定された、前記重畳時刻を指標する物理量と、前記計測点の前記2つの計測時刻における各計測位置p,pあるいは、これら2つの計測位置p,pに代わる、該計測点の、前記2つの計測時刻のうちの一方の計測時刻における計測位置pおよび該計測点の、前記2つの計測時刻における2つの計測位置p,pどうしの間の運動視差τと、前記移動継続状態における無限時間経過後の位置pinfとから、前記複比{pinf}あるいは該複比と等価な演算を用いて、該計測点の前記重畳時刻における位置pを求める第2のステップと、
前記計測点の、前記重畳時刻における位置pを極変換することにより該計測点に対応する極線を求める第3のステップとを有し、
前記計測空間内の複数の計測点について、前記第2のステップと前記第3のステップを、前記パラメータの値を前記第1のステップで変更しながら複数回繰り返し、その後、
前記第1から第3までのステップを複数回繰り返す間に求められた複数の極線を極線描画空間に描画したときの極線どうしの交差点を求めることにより、該交差点で交わる複数の極線に対応する複数の計測点を含む計測平面の方位、及び/又は、該計測平面が前記観察点に重なる重畳時刻を指標する物理量を求める第4ステップを実行するものであってもよい。
Furthermore, the first image measurement method includes:
A first step of setting a physical quantity indicating the superposition time as a parameter;
The physical quantity indicating the superposition time set in the first step and the measurement positions p 0 , p 1 at the two measurement times of the measurement points, or these two measurement positions p 0 , p 1 alternative, the measurement point, movement between the two measurement positions in one of the measurement time p 0 and the measurement point of the measurement time, the two measurement positions p 0 in the two measurement time, p 1 How to and parallax tau, and a position p inf of after infinite time in the moving continuous state, using the double ratio {p inf p 0 p 1 p c} or plurality ratio equivalent calculation, the of the measuring points a second step of obtaining a position p c in the overlay time,
The measurement point, and a third step of obtaining a polar corresponding to the measurement point by polar transformation the position p c in the superimposed time,
For a plurality of measurement points in the measurement space, the second step and the third step are repeated a plurality of times while changing the value of the parameter in the first step, and then
A plurality of polar lines intersecting at the intersections are obtained by obtaining intersections between the polar lines when the plurality of polar lines obtained while repeating the first to third steps are repeated in the polar drawing space. The fourth step may be performed in which the orientation of a measurement plane including a plurality of measurement points corresponding to and / or a physical quantity indicating the superposition time at which the measurement plane overlaps the observation point is obtained.

この場合に、前記画像上にあらわれた計測点が強度の情報を有するものであって、
前記第3のステップが、前記極線を求めるとともに、求められた極線を極線描画空間に描画したときの該極線の軌跡上の各点それぞれに該極線に対応する計測点の強度に対応する値を投票するステップであり、
前記第4のステップが、前記交差点を求めることに代わり、前記第1から第3までのステップを複数回繰り返す間の投票による値が極大値となる極大点を求めることにより、該極大点の投票に参加した複数の極線に対応する複数の計測点を含む計測平面の方位、及び/又は、該計測平面が前記観察点に重なる重畳時刻を指標する物理量を求めるステップであることが好ましく、あるいは、
前記画像上にあらわれた計測点が強度の情報を有するものであって、
前記計測点の前記2つの計測時刻における2つの計測位置p,pどうしの間の運動視差τを第2のパラメータとして設定する第5のステップを有し、
前記第2のステップが、前記第1のステップで設定された、前記重量時刻を指標する物理量と、前記計測点の前記2つの計測時刻のうちの一方の計測時刻における計測位置pと、前記第5のステップで設定された前記運動視差τと、該計測点の前記移動継続状態における無限時間経過後の位置pinfとを用いて、該計測点の前記重畳時刻における位置pを求めるステップであり、
前記第3のステップが、前記計測点に対応する極線を求めるとともに、該計測点の、前記運動視差τに対応する応答強度を求め、求められた極線を極線描画空間に描画したときの該極線の軌跡上の各点それぞれに、該極線に対応する計測点の、前記運動視差τに対応する応答強度を投票するステップであって、
前記計測空間内の複数の計測点について、前記第2のステップと前記第3のステップを、前記第1のステップおよび前記第5のステップで各パラメータの各値を変更しながら複数回繰り返し、
その後実行される第4のステップが、前記交差点を求めることに代わり、前記第1、第5、第2および第3のステップを複数回繰り返す間の投票による値が極大値となる極大点を求めることにより、該極大点の投票に参加した複数の極線に対応する複数の計測点を含む計測平面の方位、及び/又は、該計測平面が前記観察点に重なる重畳時刻を指標する物理量を求めるステップであることも好ましい態様である。
In this case, the measurement point appearing on the image has intensity information,
In the third step, the polar line is obtained, and the intensity of the measurement point corresponding to the polar line at each point on the trajectory of the polar line when the obtained polar line is drawn in the polar drawing space. Voting for the value corresponding to
Instead of obtaining the intersection in the fourth step, the voting of the maximum point is obtained by obtaining a maximum point at which the value by voting becomes a maximum value while repeating the first to third steps a plurality of times. Preferably, it is a step of obtaining a physical quantity that indicates the orientation of a measurement plane including a plurality of measurement points corresponding to a plurality of polar lines that participated in and / or an overlapping time at which the measurement plane overlaps the observation point, or ,
Measurement points appearing on the image have intensity information,
A fifth step of setting a motion parallax τ between the two measurement positions p 0 and p 1 at the two measurement times of the measurement point as a second parameter;
In the second step, the physical quantity indicating the weight time set in the first step, the measurement position p 0 at one measurement time of the two measurement times of the measurement point, and the using the the motion parallax τ set in the fifth step, the position p inf after infinite time has elapsed in the mobile continuity state of the measurement point, determining the position p c in the superimposed time of the measurement point And
When the third step obtains a polar line corresponding to the measurement point, obtains a response intensity corresponding to the motion parallax τ of the measurement point, and draws the obtained polar line in the polar drawing space Voting the response intensity corresponding to the motion parallax τ of the measurement point corresponding to the polar line for each point on the trajectory of the polar line,
For a plurality of measurement points in the measurement space, the second step and the third step are repeated a plurality of times while changing each value of each parameter in the first step and the fifth step,
The fourth step executed thereafter obtains the maximum point where the value obtained by voting becomes the maximum value while repeating the first, fifth, second and third steps a plurality of times instead of obtaining the intersection. Thus, the orientation of the measurement plane including a plurality of measurement points corresponding to the plurality of polar lines participating in the voting of the local maximum point and / or the physical quantity that indicates the superposition time at which the measurement plane overlaps the observation point is obtained. It is also a preferred embodiment that it is a step.

ここで前記第3のステップが、前記位置pを極変換することにより球面上に大円として描かれる極線を求めるステップであることが好ましく、さらには、前記第3のステップが、前記位置pを極変換することにより球面上に大円として描かれ、さらに平面上の円の内部に射影された極線を求めるステップであることがさらに好ましい。あるいは、前記第3のステップが、前記位置pを極変換することにより平面上に直線として描かれる極線を求めるステップであってもよい。 Wherein the third step is preferably a step of obtaining a polar depicted as great circle on a sphere by converting the position p c poles, further, the third step is, the location depicted as a great circle on a sphere by converting p c poles, more preferably a step of obtaining a more polar, which is projected inside the circle on the plane. Alternatively, the third step may be a step of obtaining a polar line drawn as a straight line on a plane by subjecting the position pc to polar conversion.

また、上記第1の画像計測方法は、
前記移動方向vを第1のパラメータとして設定することにより前記移動継続状態における無限時間経過後の前記計測点の位置pinfを設定する第1のステップと、
前記重畳時刻を指標する物理量を第2のパラメータとして設定する第2のステップと、
前記第1のステップで設定された位置pinfと、前記第2のステップで設定された、前記重畳時刻を指標する物理量と、前記計測点の前記2つの計測時刻における各計測位置p,pあるいは、これら2つの計測位置p,pに代わる、該計測点の、前記2つの計測時刻のうちの一方の計測時刻における計測位置pおよび該計測点の、前記2つの計測時刻における2つの計測位置p,pどうしの間の運動視差τとから、前記複比{pinf}あるいは該複比と等価な演算を用いて、該計測点の前記重畳時刻における位置pを求める第3のステップと、
前記計測点の、前記重畳時刻における位置pを極変換することにより該計測点に対応する極線を求める第4のステップとを有し、
前記計測空間内の複数の計測点について、前記第1から第4までのステップのうちの前記第3のステップと前記第4のステップを、前記第1のパラメータおよび前記第2のパラメータの各値をそれぞれ前記第1のステップおよび前記第2のステップで変更しながら複数回繰り返し、その後、
前記第1から第4までのステップを複数回繰り返す間に求められた複数の極線を前記第1のパラメータの値に応じた複数の極線描画空間のうちのそれぞれ対応する極線描画空間に描画したときの極線どうしの交差点を各極線描画空間ごとに求め該交差点で交わる極線の本数の情報に基づいて前記計測点の前記観察点に対する相対的な真の移動方向に対応する極線描画空間を選択することにより該真の移動方向を求めるとともに、該真の移動方向に対応する極線描画空間について求められた交差点で交わる複数の極線に対応する複数の計測点を含む計測平面の方位、及び/又は、該計測平面が前記観察点に重なる重畳時刻を指標する物理量を求める第5ステップを実行するものであってもよい。
In addition, the first image measurement method includes:
A first step of setting a position p inf of the measurement point after an infinite time in the moving continuous state by setting the moving direction v as the first parameter,
A second step of setting a physical quantity indicating the superposition time as a second parameter;
The position p inf set in the first step, the physical quantity indicating the superposition time set in the second step, and the measurement positions p 0 , p at the two measurement times of the measurement point 1 or, alternative to these two measurement positions p 0, p 1, of the measurement point, the two one measurement position p 0 and the measurement point in the measurement time of the measurement time, in the two measurement time and a motion parallax τ between two measuring positions p 0, p 1 if and using equivalent operations and the cross ratio {p inf p 0 p 1 p c} or plurality ratio, the superposition of the measuring points a third step of obtaining a position p c at time,
The measurement point, and a fourth step of obtaining a polar corresponding to the measurement point by polar transformation the position p c in the superimposed time,
For the plurality of measurement points in the measurement space, the third step and the fourth step of the first to fourth steps are changed to values of the first parameter and the second parameter, respectively. Are repeated several times while changing in the first step and the second step, respectively,
A plurality of polar lines obtained while repeating the first to fourth steps a plurality of times are respectively converted into corresponding polar line drawing spaces among a plurality of polar line drawing spaces according to the value of the first parameter. A pole corresponding to the true movement direction relative to the observation point of the measurement point based on information on the number of polar lines intersecting at the intersection, where intersections between polar lines at the time of drawing are obtained for each polar line drawing space A measurement including a plurality of measurement points corresponding to a plurality of polar lines intersecting at intersections obtained for the polar drawing space corresponding to the true movement direction while obtaining the true movement direction by selecting a line drawing space The fifth step of obtaining the physical quantity indicating the orientation of the plane and / or the superimposition time at which the measurement plane overlaps the observation point may be executed.

その場合に、前記画像上にあらわれた計測点が強度の情報を有するものであって、
前記第4のステップが、前記極線を求めるとともに、求められた極線を該極線に対応する極線描画空間に描画したときの該極線の軌跡上の各点それぞれに該極線に対応する計測点の強度に対応する値を投票するステップであり、
前記第5のステップが、前記交差点を求めることに代わり、前記第1から第4までのステップを複数回繰り返す間の投票による値が極大値となる極大点を各極線描画空間ごとに求め該極大点における極大値の情報に基づいて前記真の移動方向に対応する極線描画空間を選択することにより該真の移動方向を求めるとともに、該真の移動方向に対応する極線描画空間について求められた極大点の投票に参加した複数の極線に対応する複数の計測点を含む計測平面の方位、及び/又は、該計測平面が前記観察点に重なる重畳時刻を指標する物理量を求めるステップであることが好ましく、あるいは、
前記画像上にあらわれた計測点が強度の情報を有するものであって、
前記計測点の前記2つの計測時刻における2つの計測位置p,pどうしの間の運動視差τを第3のパラメータとして設定する第6のステップを有し、
前記第3のステップが、前記第1のステップで設定された位置pinfと、前記第2のステップで設定された、前記重量時刻を指標する物理量と、前記計測点の前記2つの計測時刻のうちの一方の計測時刻における計測位置pと、前記第6のステップで設定された前記運動視差τとを用いて、該計測点の前記重畳時刻における位置pを求めるステップであり、
前記第4のステップが、前記計測点に対応する極線を求めるとともに、該計測点の、前記運動視差τに対応する応答強度を求め、求められた極線を極線描画空間に描画したときの該極線の軌跡上の各点それぞれに、該極線に対応する計測点の、前記運動視差τに対応する応答強度を投票するステップであって、
前記計測空間内の複数の計測点について、前記第3のステップと前記第4のステップを、前記第1のステップ、前記第2のステップおよび前記第6のステップで各パラメータの各値を変更しながら複数回繰り返し、
その後実行される第5のステップが、前記交差点を求めることに代わり、前記第1、第2、第6、第3および第4のステップを複数回繰り返す間の投票による値が極大値となる極大点を各極線描画空間ごとに求め該極大点における極大値の情報に基づいて前記真の移動方向に対応する極線描画空間を選択することにより該真の移動方向を求めるとともに、該真の移動方向に対応する極線描画空間について求められた極大点の投票に参加した複数の極線に対応する複数の計測点を含む計測平面の方位、及び/又は、該計測平面が前記観察点に重なる重畳時刻を指標する物理量を求めるステップであることも好ましい態様である。
In that case, the measurement point appearing on the image has intensity information,
In the fourth step, the polar line is obtained, and at the respective points on the trajectory of the polar line when the obtained polar line is drawn in the polar drawing space corresponding to the polar line, Voting a value corresponding to the intensity of the corresponding measurement point,
Instead of obtaining the intersection in the fifth step, a maximum point at which the value by voting becomes a maximum value while repeating the first to fourth steps is determined for each polar drawing space. The true movement direction is obtained by selecting the polar drawing space corresponding to the true movement direction based on the local maximum information at the local maximum point, and the polar drawing space corresponding to the true movement direction is obtained. Determining the orientation of a measurement plane including a plurality of measurement points corresponding to a plurality of polar lines participating in voting of the maximum points and / or a physical quantity indicating the superposition time at which the measurement plane overlaps the observation point Preferably, or
Measurement points appearing on the image have intensity information,
A sixth step of setting a motion parallax τ between the two measurement positions p 0 and p 1 at the two measurement times of the measurement point as a third parameter;
In the third step, the position p inf set in the first step, the physical quantity indicating the weight time set in the second step, and the two measurement times of the measurement point are set. a measurement position p 0 in the measurement time of one among the sixth using said motion parallax τ set in step, a step of determining the position p c in the superimposed time of the measurement points,
When the fourth step obtains a polar line corresponding to the measurement point, obtains a response intensity corresponding to the motion parallax τ of the measurement point, and draws the obtained polar line in the polar drawing space Voting a response intensity corresponding to the motion parallax τ of a measurement point corresponding to the polar line for each point on the trajectory of the polar line,
For each of a plurality of measurement points in the measurement space, the third step and the fourth step are changed, and the values of the parameters are changed in the first step, the second step, and the sixth step. While repeating several times,
The fifth step executed thereafter is not the determination of the intersection, but the maximum value obtained by voting while repeating the first, second, sixth, third and fourth steps a plurality of times. A point is obtained for each polar drawing space, and the true moving direction is obtained by selecting the polar drawing space corresponding to the true moving direction based on the local maximum information at the local maximum point, and the true moving direction is obtained. The orientation of the measurement plane including a plurality of measurement points corresponding to a plurality of polar lines participating in the voting of the maximum points obtained for the polar drawing space corresponding to the moving direction, and / or the measurement plane as the observation point It is also a preferred aspect that it is a step of obtaining a physical quantity that indicates the overlapping superposition time.

また、本発明の画像計測方法のうちの第2の画像計測方法は、所定の計測空間内の所定の観察点から該計測空間内を眺めたときの画像にあらわれた、該計測空間内の任意の計測点の、相互に異なる2つの計測時刻における各計測位置をそれぞれp,p、前記計測点の、前記観察点に対する相対的な、前記2つの計測時刻の間における移動方向をv、前記計測点の、前記観察点に対する相対的な、前記2つの計測時刻の間における移動方向vと同一方向への、かつ前記2つの計測時刻の間の移動速度と同一の速度での移動がそのまま継続されるものと予定した移動継続状態における無限時間経過後の前記計測点の位置をpinf、前記移動継続状態において前記計測点を含む計測平面が前記観察点に重なる重畳時刻における前記計測点の位置をp、前記計測平面の方位をnとしたとき、
前記計測点の4つの位置pinf,p,p,pで決まる複比{pinf}あるいは該複比と等価な演算と、前記計測平面の方位nと前記移動方向vとの内積(n・v)とを用いて、前記計測平面の方位n、及び/又は、前記観察点から前記2つの計測時刻のうちの一方の計測時刻における前記計測平面までの最短距離を指標する物理量を求めることを特徴とする。
The second image measurement method of the image measurement methods of the present invention is an arbitrary image in the measurement space that appears in an image when the measurement space is viewed from a predetermined observation point in the predetermined measurement space. P 0 , p 1 , and the moving direction of the measurement point relative to the observation point v between the two measurement times v, The movement of the measurement point relative to the observation point in the same direction as the movement direction v between the two measurement times and at the same speed as the movement speed between the two measurement times remains unchanged. the measurement points in the overlay time position p inf of the measurement points after an infinite time in the movement continues while scheduled shall be continued, measuring plane including the measurement point in the movement continuation state overlaps the observation point When the position of the p c, the orientation of the measurement plane and the n s,
Four positions p inf of the measurement points, and p 0, p 1, p cross ratios determined by c and the equivalent operations {p inf p 0 p 1 p c} or plurality ratio, orientation n s of the measurement plane Using the inner product ( ns / v) with the moving direction v, the measurement plane at the measurement time of one of the two measurement times from the observation point azimuth ns and / or the observation point It is characterized in that a physical quantity indicating the shortest distance is obtained.

ここで、上記第2の画像計測方法における、前記複比{pinf}あるいは該複比と等価な演算には、前記計測点の、前記2つの計測時刻における2つの計測位置p,pに代えて、前記計測点の、前記2つの計測時刻のうちの一方の計測時刻における計測位置pと、前記計測点の、前記2つの計測時刻における2つの計測位置p,pどうしの間の位置の差である運動視差τとを用いる演算が包含される。 Here, the in the second image measuring method, wherein the cross-ratio {p inf p 0 p 1 p c} or plurality ratio equivalent calculation, the measurement point, the two measurement at two measurement times Instead of the positions p 0 and p 1 , the measurement position p 0 of the measurement point at one of the two measurement times and the two measurement positions p of the measurement point at the two measurement times Computation using motion parallax τ, which is the difference in position between 0 and p 1 , is included.

上記第2の画像計測方法は、前記最短距離を指標とする物理量として、前記観察点と、前記2つの計測時刻のうちの一方の計測時刻における前記計測平面との間の最短距離をd、前記2つの計測時刻のうちの一方の計測時刻と前記重量時刻との間の時間をt、前記2つの計測時刻どうしの間の、前記計測点の、前記観察点に対する相対的な移動距離をΔx、前記2つの計測時刻どうしの間の時間をΔtとしたときの、
=d/Δx
であらわされる規格化最短距離を採用し、該規格化最短距離を、
=t/Δt
であらわされる規格化時間と前記内積(n・v)とを用いた、
(n・v)
の関係式を用いて求めるものであることが好ましい。
In the second image measurement method, as a physical quantity using the shortest distance as an index, the shortest distance between the observation point and the measurement plane at one of the two measurement times is represented as d s , The time between one measurement time of the two measurement times and the weight time is t c , and the relative movement distance of the measurement point with respect to the observation point between the two measurement times is Δx, where the time between the two measurement times is Δt,
n d s = d s / Δx
The standardized shortest distance n d s expressed by the following formula is adopted, and the standardized shortest distance n d s
n t c = t c / Δt
Using the normalized time n t c expressed by: and the inner product (n s · v),
n d s = n t c ( n s · v)
It is preferable to use the following relational expression.

上記第2の画像計測方法は、
前記最短距離を指標する物理量を第1のパラメータとして設定する第1のステップと、
前記内積(n・v)を第2のパラメータとして設定する第2のステップと、
前記第1のステップで設定された、前記最短距離を指標する物理量と、前記第2のステップで設定された内積(n・v)と、前記計測点の前記2つの計測時刻における各計測位置p,pあるいは、これら2つの計測位置p,pに代わる、該計測点の、前記2つの計測時刻のうちの一方の計測時刻における計測位置pおよび該計測点の、前記2つの計測時刻における2つの計測位置p,pどうしの間の運動視差τと、前記移動継続状態における無限時間経過後の位置pinfとから、前記複比{pinf}あるいは該複比と等価な演算を用いて、該計測点の前記重畳時刻における位置pを求める第3のステップと、
前記計測点の、前記重畳時刻における位置pを極変換することにより該位置pに対応する極線を求める第4のステップと、
前記極線上の点であって、かつ前記移動方向vと角度
r=cos−1(n・v)
を成す点を求める第5のステップとを有し、
前記計測空間内の複数の計測点について、前記第1から第5のステップのうちの前記第3から第5までのステップを、前記第1のパラメータおよび前記第2のパラメータの各値をそれぞれ前記第1のステップおよび前記第2のステップで変更しながら複数回繰り返すことにより、前記第5のステップの、1つの計測点に関する、前記第1のパラメータの値が同一であって、かつ前記第2のパラメータの値がそれぞれ異なる複数回の実行により求められる複数の点を結ぶ曲線を、前記第1のパラメータの各値ごとに前記複数の計測点について求め、その後、
前記第1から第5のステップを複数回繰り返す間に求められた複数の曲線を曲線描画空間に描画したときの曲線どうしの交差点を求めることにより、該交差点で交わる複数の曲線に対応する複数の計測点を含む計測平面の方位n、及び/又は、前記観察点から前記2つの計測時刻のうちの一方の計測時刻における前記計測平面までの最短距離を指標する物理量を求める第6のステップを実行するものであってもよい。
The second image measurement method is:
A first step of setting a physical quantity indicating the shortest distance as a first parameter;
A second step of setting the inner product ( ns / v) as a second parameter;
The physical quantity that is set in the first step and that indicates the shortest distance, the inner product ( ns / v) that is set in the second step, and each measurement position at the two measurement times of the measurement point p 0, p 1 or the two measuring positions p 0, replaces the p 1, of the measurement point, the measurement position p 0 and the measurement point at one measurement time of said two measurement time, the 2 From the motion parallax between the two measurement positions p 0 and p 1 at one measurement time and the position p inf after the infinite time has elapsed in the movement continuation state, the cross ratio {p inf p 0 p 1 p c } or using a plurality ratio equivalent operation, a third step of obtaining a position p c in the superimposed time of the measurement points,
A fourth step of obtaining the polar corresponding to the position p c by converting the measurement point, the position p c in the superimposed time pole,
Said a point of pole line, and the moving direction v and angle r = cos -1 (n s · v)
And a fifth step for obtaining a point comprising
For a plurality of measurement points in the measurement space, the third to fifth steps of the first to fifth steps are set as the respective values of the first parameter and the second parameter. By repeating a plurality of times while changing in the first step and the second step, the value of the first parameter relating to one measurement point in the fifth step is the same, and the second step A curve connecting a plurality of points obtained by a plurality of executions with different values of the parameter is obtained for each of the plurality of measurement points for each value of the first parameter;
A plurality of curves corresponding to a plurality of curves intersecting at the intersection are obtained by obtaining intersections between the curves when the plurality of curves obtained while repeating the first to fifth steps are drawn in the curve drawing space. orientation n s measurement plane including a measurement point, and / or, a sixth step of obtaining a physical quantity that indicates the shortest distance to the measuring plane in the measurement time of one of the two measurement time from the observation point It may be executed.

この場合に、前記画像上にあらわれた計測点が強度の情報を有するものであって、
前記第5のステップが、前記点を求めるとともに、該点に対応する計測点の強度に対応する値を該点に対応する、前記曲線描画空間内の点に投票するステップであり、
前記第6のステップが、前記交差点を求めることに代わり、前記第1から第5までのステップを複数回繰り返す間の投票による値が極大値となる極大点を求めることにより、該極大点の投票に参加した複数の曲線に対応する複数の計測点を含む計測平面の方位n、及び/又は、前記観察点から前記2つの計測時刻のうちの一方の計測時刻における前記計測平面までの最短距離を指標する物理量を求めるステップであることが好ましく、あるいは、
前記画像上にあらわれた計測点が強度の情報を有するものであって、
前記計測点の前記2つの計測時間における2つの計測位置p,pどうしの間の運動視差τを第3のパラメータとして設定する第7のステップを有し、
前記第3のステップが、前記第1のステップで設定された、前記最短距離を指標する物理量と、前記第2のステップで設定された内積(n・v)と、前記計測点の、前記2つの計測時刻のうちの一方の計測時刻における計測位置pと、前記第7のステップで設定された前記運動視差τと、該計測点の、前記移動継続状態における無限時間経過後の位置pinfとを用いて、該計測点の、前記重畳時刻における位置pを求めるステップであり、
前記第5のステップが、前記計測点に対応する極線上の前記点を求めるとともに、該計測点の、前記運動視差τに対応する応答強度を求め、該極線上の前記点に対応する計測点の、前記運動視差τに対応する応答強度を、該極線上の前記点に対応する、前記曲線描画空間内の点に投票するステップであって、
前記計測空間内の複数の計測点について、前記第3から第5までのステップを、前記第1、第2、および第7のステップで各パラメータの各値を変更しながら複数回繰り返し、
その後実行される前記第6のステップが、前記交差点を求めることに代わり、前記第1、第2、第7および前記第3から第5までのステップを複数回繰り返す間の投票による値が極大値となる極大点を求めることにより、該極大点の投票に参加した複数の曲線に対応する複数の計測点を含む計測平面の方位n、及び/又は、前記観察点から前記2つの計測時刻のうちの一方の計測時刻における前記計測平面までの最短距離を指標する物理量を求めるステップであることも好ましい態様である。
In this case, the measurement point appearing on the image has intensity information,
The fifth step is a step of obtaining the point and voting a value corresponding to the intensity of the measurement point corresponding to the point to the point in the curve drawing space corresponding to the point;
Instead of obtaining the intersection in the sixth step, the voting of the maximum point is obtained by obtaining the maximum point at which the value by voting becomes a maximum value while repeating the first to fifth steps a plurality of times. Azimuth n s of a measurement plane including a plurality of measurement points corresponding to a plurality of curves that participated in and / or the shortest distance from the observation point to the measurement plane at one of the two measurement times Preferably, this is a step of obtaining a physical quantity that indicates
Measurement points appearing on the image have intensity information,
A seventh step of setting a motion parallax τ between the two measurement positions p 0 and p 1 at the two measurement times of the measurement point as a third parameter;
In the third step, the physical quantity indexed in the shortest distance set in the first step, the inner product ( ns / v) set in the second step, and the measurement point, The measurement position p 0 at one of the two measurement times, the motion parallax τ set in the seventh step, and the position p of the measurement point after the infinite time has elapsed in the movement continuation state by using the inf, of the measurement point, a step of determining the position p c in the superimposed time,
The fifth step obtains the point on the polar line corresponding to the measurement point, obtains a response intensity corresponding to the motion parallax τ of the measurement point, and measures the measurement point corresponding to the point on the polar line Voting a response intensity corresponding to the motion parallax τ to a point in the curve drawing space corresponding to the point on the polar line,
For a plurality of measurement points in the measurement space, the third to fifth steps are repeated a plurality of times while changing each value of each parameter in the first, second, and seventh steps,
Instead of obtaining the intersection, the sixth step to be executed thereafter is a maximum value obtained by voting while repeating the first, second, seventh and third to fifth steps a plurality of times. Is obtained from the azimuth n s of the measurement plane including a plurality of measurement points corresponding to a plurality of curves that participated in the vote of the maximum point and / or the two measurement times from the observation point. It is also a preferred aspect that it is a step of obtaining a physical quantity that indicates the shortest distance to the measurement plane at one of the measurement times.

ここで、上記第2の画像計測方法における前記第5のステップが、該第5のステップの繰り返しにより求められる、1つの計測点に関する複数の点を結ぶ曲線として、球面上に描かれる曲線を求めるステップであることが好ましく、さらには、前記第5のステップが、該第5のステップの繰り返しにより求められる、1つの計測点に関する複数の点を結ぶ曲線として、球面上に描かれ、さらに平面上の円の内部に射影された曲線を求めるステップであることがさらに好ましい。   Here, the fifth step in the second image measurement method obtains a curve drawn on the spherical surface as a curve connecting a plurality of points related to one measurement point obtained by repeating the fifth step. Preferably, the fifth step is drawn on a spherical surface as a curve connecting a plurality of points related to one measurement point obtained by repeating the fifth step, and further on a plane. More preferably, it is a step of obtaining a curve projected inside the circle.

また、上記第2の画像計測方法は、
前記移動方向vを第1のパラメータとして設定することにより前記移動継続状態における無限時間経過後の前記計測点の位置pinfを設定する第1のステップと、
前記最短距離を指標する物理量を第2のパラメータとして設定する第2のステップと、
前記内積(n・v)を第3のパラメータとして設定する第3のステップと、
前記第1のステップで設定された、前記移動継続状態における無限時間経過後の前記計測点の位置pinfと、前記第2のステップで設定された、前記最短距離を指標する物理量と、前記第3のステップで設定された内積(n・v)と、前記計測点の前記2つの計測時刻における各計測位置p,pあるいは、これら2つの計測位置p,pに代わる、該計測点の、前記2つの計測時刻のうちの一方の計測時刻における計測位置pおよび該計測点の、前記2つの計測時刻における2つの計測位置p,pどうしの間の運動視差τとから、前記複比{pinf}あるいは該複比と等価な演算を用いて、該計測点の前記重畳時刻における位置pを求める第4のステップと、
前記計測点の、前記重畳時刻における位置pを極変換することにより該位置pに対応する極線を求める第5のステップと、
前記極線上の点であって、かつ前記移動方向vと角度
r=cos−1(n・v)
を成す点を求める第6のステップとを有し、
前記計測空間内の複数の計測点について、前記第1から第6のステップのうちの前記第4から第6までのステップを、前記第1から第3までのパラメータの各値を、それぞれ前記第1から第3までの各ステップで変更しながら複数回繰り返すことにより、前記第6のステップの、1つの計測点に関する、前記第1のパラメータの値が同一であるとともに前記第2のパラメータの値が同一であって、かつ前記第3のパラメータの値がそれぞれ異なる複数回の実行により求められる複数の点を結ぶ曲線を、前記第1のパラメータの各値と前記第2のパラメータの各値との各組合せごとに前記複数の計測点について求め、その後、
前記第1から第6までのステップを複数回繰り返す間に求められた複数の曲線を前記第1のパラメータの値に応じた複数の曲線描画空間のうちのそれぞれ対応する曲線描画空間に描画したときの曲線どうしの交差点を各曲線描画空間ごとに求め該交差点で交わる曲線の本数の情報に基づいて前記計測点の前記観察点に対する相対的な真の移動方向に対応する曲線描画空間を選択することにより該真の移動方向を求めるとともに、該真の移動方向に対応する曲線描画空間について求められた交差点で交わる複数の曲線に対応する複数の計測点を含む計測平面の方位n、及び/又は、前記観察点から前記2つの計測時刻のうちの一方の計測時刻における前記計測平面までの最短距離を指標する物理量を求める第7のステップを実行するものであってもよく、その場合に、
前記画像上にあらわれた計測点が強度の情報を有するものであって、
前記第6のステップが、前記点を求めるとともに、該点に対応する計測点の強度に対応する値を該点に対応する、該点を含む曲線が描かれる曲線描画空間内の点に投票するステップであり、
前記第7のステップが、前記交差点を求めることに代わり、前記第1から第6までのステップを複数回繰り返す間の投票による値が極大値となる極大点を各曲線描画空間ごとに求め該極大点における極大値の情報に基づいて前記真の移動方向に対応する曲線描画空間を選択することにより該真の移動方向を求めるとともに、該真の移動方向に対応する曲線描画空間について求められた極大点の投票に参加した複数の曲線に対応する複数の計測点を含む計測平面の方位n、及び/又は、前記観察点から前記2つの計測時間のうちの一方の計測時間における前記計測平面までの最短距離を指標する物理量を求めるステップであることが好ましく、あるいは、
前記画像上にあらわれた計測点が強度の情報を有するものであって、
前記計測点の前記2つの計測時間における2つの計測位置p,pどうしの間の運動視差τを第4のパラメータとして設定する第8のステップを有し、
前記第4のステップが、前記第1のステップで設定された、前記移動継続状態における無限時間経過後の前記計測点の位置pinfと、前記第2のステップで設定された、前記最短距離を指標する物理量と、前記第3のステップで設定された内積(n・v)と、前記計測点の、前記2つの計測時刻のうちの一方の計測時刻における計測位置pと、前記第8のステップで設定された前記運動視差τとを用いて、該計測点の、前記重畳時刻における位置pを求めるステップであり、
前記第6のステップが、前記計測点に対応する極線上の前記点を求めるとともに、該計測点の、前記運動視差τに対応する応答強度を求め、該極線上の前記点に対応する計測点の、前記運動視差τに対応する応答強度を、該極線上の前記点に対応する、前記曲線描画空間内の点に投票するステップであって、
前記計測空間内の複数の計測点について、前記第4から第6までのステップを、前記第1、第2、第3および第8のステップで各パラメータの各値を変更しながら複数回繰り返し、
その後実行される前記第7のステップが、前記交差点を求めることに代わり、前記第1、第2、第3、第8および前記第4から第6までのステップを複数回繰り返す間の投票による値が極大値となる極大点を各曲線描画空間ごとに求め該極大点における極大値の情報に基づいて前記真の移動方向に対応する曲線描画空間を選択することにより該真の移動方向を求めるとともに、該真の移動方向に対応する曲線描画空間について求められた極大点の投票に参加した複数の曲線に対応する複数の計測点を含む計測平面の方位n、及び/又は、前記観察点から前記2つの計測時刻のうちの一方の計測時刻における前記計測平面までの最短距離を指標する物理量を求めるステップであることも好ましい態様である。
In addition, the second image measurement method includes:
A first step of setting a position p inf of the measurement point after an infinite time in the moving continuous state by setting the moving direction v as the first parameter,
A second step of setting a physical quantity indicative of the shortest distance as a second parameter;
A third step of setting the inner product ( ns / v) as a third parameter;
The position p inf of the measurement point after the infinite time has elapsed in the movement continuation state set in the first step, the physical quantity indicating the shortest distance set in the second step, and the first The inner product ( ns · v) set in step 3 and the measurement positions p 0 , p 1 at the two measurement times of the measurement point, or these two measurement positions p 0 , p 1 , The measurement position p 0 of the measurement point at one of the two measurement times and the motion parallax τ between the two measurement positions p 0 and p 1 of the measurement point at the two measurement times from using the cross ratio {p inf p 0 p 1 p c} or plurality ratio equivalent calculation, a fourth step of obtaining a position p c in the superimposed time of the measurement points,
A fifth step of obtaining a polar corresponding to the position p c by converting the measurement point, the position p c in the superimposed time pole,
Said a point of pole line, and the moving direction v and angle r = cos -1 (n s · v)
And a sixth step for obtaining a point comprising
For the plurality of measurement points in the measurement space, the fourth to sixth steps of the first to sixth steps, the respective values of the first to third parameters, respectively, By repeating a plurality of times while changing in each step from 1 to 3, the value of the first parameter and the value of the second parameter are the same for one measurement point in the sixth step. Are the same, and a curve connecting a plurality of points obtained by a plurality of executions with different values of the third parameter is represented by each value of the first parameter and each value of the second parameter. For each of the combinations, the plurality of measurement points is obtained, and then
When a plurality of curves obtained while repeating the first to sixth steps a plurality of times are drawn in the corresponding curve drawing spaces among the plurality of curve drawing spaces according to the value of the first parameter. Obtaining an intersection between the curves for each curve drawing space, and selecting a curve drawing space corresponding to the true movement direction of the measurement point relative to the observation point based on information on the number of curves intersected at the intersection. To determine the true movement direction, and the orientation n s of the measurement plane including a plurality of measurement points corresponding to a plurality of curves intersecting at the intersection obtained with respect to the curve drawing space corresponding to the true movement direction, and / or The seventh step of obtaining a physical quantity indicating the shortest distance from the observation point to the measurement plane at one of the two measurement times is performed. May I, in that case,
Measurement points appearing on the image have intensity information,
In the sixth step, the point is obtained, and a value corresponding to the intensity of the measurement point corresponding to the point is voted for the point in the curve drawing space corresponding to the point where the curve including the point is drawn. Step,
Instead of determining the intersection in the seventh step, a maximum point at which the value obtained by voting becomes a maximum value while repeating the first to sixth steps is determined for each curve drawing space. The true movement direction is obtained by selecting the curve drawing space corresponding to the true movement direction based on the local maximum information at the point, and the maximum obtained for the curve drawing space corresponding to the true movement direction a plurality of orientations n s measurement plane including a measurement point corresponding to a plurality of curves participated in the vote of points, and / or from the observation point to the measurement plane at one measurement time of said two measurement time Preferably, this is a step for obtaining a physical quantity that indicates the shortest distance of
Measurement points appearing on the image have intensity information,
An eighth step of setting a motion parallax τ between the two measurement positions p 0 and p 1 at the two measurement times of the measurement point as a fourth parameter;
In the fourth step, the position p inf of the measurement point after the infinite time has elapsed in the movement continuation state set in the first step and the shortest distance set in the second step. The physical quantity to be indexed, the inner product ( ns · v) set in the third step, the measurement position p 0 of the measurement point at one of the two measurement times, and the eighth using said motion parallax τ set in step, of the measurement point, a step of determining the position p c in the superimposed time,
The sixth step obtains the point on the polar line corresponding to the measurement point, obtains a response intensity corresponding to the motion parallax τ of the measurement point, and measures the measurement point corresponding to the point on the polar line Voting a response intensity corresponding to the motion parallax τ to a point in the curve drawing space corresponding to the point on the polar line,
For a plurality of measurement points in the measurement space, the steps from the fourth to the sixth are repeated a plurality of times while changing each value of each parameter in the first, second, third and eighth steps,
The value obtained by voting during the repetition of the first, second, third, eighth, and fourth to sixth steps a plurality of times, instead of the seventh step executed thereafter obtaining the intersection. Finds a local maximum point for each curve drawing space, and obtains the true moving direction by selecting a curve drawing space corresponding to the true moving direction based on the local maximum information at the local maximum point. Azimuth n s of a measurement plane including a plurality of measurement points corresponding to a plurality of curves that participated in the voting of local maximum points obtained for the curve drawing space corresponding to the true moving direction, and / or from the observation point It is also a preferred aspect that it is a step of obtaining a physical quantity indicating the shortest distance to the measurement plane at one of the two measurement times.

また、本発明の画像計測方法のうちの第3の画像計測方法は、所定の計測空間内の所定の観察点から該計測空間内を眺めたときの画像にあらわれた、該計測空間内の任意の計測点の、相互に異なる2つの計測時刻における各計測位置をそれぞれp,p、前記計測点の、前記観察点に対する相対的な、前記2つの計測時刻の間における移動方向をv、前記計測点の、前記観察点に対する相対的な、前記2つの計測時刻の間における移動方向vと同一方向への、かつ前記2つの計測時刻の間の移動速度と同一の速度での移動がそのまま継続されるものと予定した移動継続状態における無限時間経過後の前記計測点の位置をpinfとしたとき、
前記計測点の3つの位置pinf,p,pで決まる単比(pinf)あるいは該単比と等価な演算を用いて、前記計測平面の方位、及び/又は、前記観察点から前記2つの計測時刻のうちの一方の計測時刻における前記計測平面までの最短距離を指標する物理量を求めることも好ましい態様である。
Further, the third image measurement method of the image measurement methods of the present invention is an arbitrary one in the measurement space that appears in an image when the measurement space is viewed from a predetermined observation point in the predetermined measurement space. P 0 , p 1 , respectively, at the two different measurement times of the measurement point, and v, the movement direction of the measurement point between the two measurement times relative to the observation point, v, The movement of the measurement point relative to the observation point in the same direction as the movement direction v between the two measurement times and at the same speed as the movement speed between the two measurement times remains unchanged. When the position of the measurement point after elapse of infinite time in the movement continuation state scheduled to be continued is pinf ,
Using a single ratio (p inf p 0 p 1 ) determined by the three positions p inf , p 0 , and p 1 of the measurement point (p inf p 0 p 1 ) or an operation equivalent to the single ratio, and / or It is also a preferable aspect to obtain a physical quantity that indicates the shortest distance from the observation point to the measurement plane at one of the two measurement times.

ここで、上記の第3の画像計測方法における、前記単比(pinf)あるいは該単比と等価な演算には、前記計測点の、前記2つの計測時刻における2つの計測位置p,pに代えて、前記計測点の、前記2つの計測時刻のうちの一方の計測時刻における計測位置pと、前記計測点の、前記2つの計測時刻における2つの計測位置p,pどうしの間の位置の差である運動視差τとを用いる演算が包含される。 Here, in the third image measurement method, the single ratio (p inf p 0 p 1 ) or an operation equivalent to the single ratio includes two measurement positions of the measurement point at the two measurement times. instead of p 0, p 1, wherein the measurement point, the the measurement position p 0 in one of the measurement time of the two measurement time, the measurement point, the two measurement positions p in the two measurement time 0 , P 1 and a calculation using motion parallax τ, which is a difference in position between the two.

上記第3の画像計測方法は、前記計測点の各位置pinf,p,pとして球面上に射影された各位置を採用すると共に、前記最短距離を指標する物理量として、前記観察点と前記2つの計測時刻のうちの一方の計測時刻における前記計測平面との間の最短距離をd、前記2つの計測時刻どうしの間の前記計測点の、前記観察点に対する相対的な移動距離をΔxとしたときの、
=d/Δx
であらわされる規格化最短距離を採用し、
前記規格化最短距離をパラメータとして設定する第1のステップと、
前記第1のステップで設定された規格化最短距離と、単比(pinf)あるいは該単比と等価な演算とを用いて、
R=cos−1/(pinf))
なる関係式あるいは該関係式と等価な関係式で規定される半径Rを求める第2のステップと、
前記2つの計測時刻のうちの一方の計測時刻における前記計測点の計測位置を中心とした半径Rの小円を求める第3のステップとを有し、
前記計測空間内の複数の計測点について、前記第2のステップと前記第3のステップを、前記パラメータを前記第1のステップで変更しながら複数回繰り返し、その後、
前記第1から第3までのステップを複数回繰り返す間に求められた複数の小円を小円描画空間に描画したときの小円どうしの交差点を求めることにより、該交差点で交わる複数の小円に対応する複数の計測点を含む計測平面の方位nso、及び/又は、該計測平面についての規格化最短距離s0を求める第4ステップを実行するものであってもよい。
The third image measurement method employs each position projected on the spherical surface as each position p inf , p 0 , and p 1 of the measurement point, and uses the observation point as a physical quantity that indicates the shortest distance. D s is the shortest distance from the measurement plane at one of the two measurement times, and the relative movement distance of the measurement point between the two measurement times is the observation point. Δx
n d s = d s / Δx
In adopting the normalized shortest distance n d s represented,
A first step of setting the normalized shortest distance n d s as a parameter;
Using the normalized shortest distance n d s set in the first step and a simple ratio (p inf p 0 p 1 ) or an operation equivalent to the simple ratio,
R = cos -1 (n d s / (p inf p 0 p 1))
A second step for obtaining a radius R defined by the relational expression or a relational expression equivalent to the relational expression,
A third step of obtaining a small circle with a radius R centered on the measurement position of the measurement point at one of the two measurement times;
For a plurality of measurement points in the measurement space, the second step and the third step are repeated a plurality of times while changing the parameters in the first step, and then
A plurality of small circles that intersect at the intersections by obtaining intersections between the small circles when the plurality of small circles obtained while repeating the first to third steps a plurality of times are drawn in the small circle drawing space. the azimuth n so the measurement plane including a plurality of measurement points corresponding, and / or may be one that performs a fourth step of determining a normalized shortest distance n d s0 for the measurement plane.

その場合に、前記画像上にあらわれた計測点が強度の情報を有するものであって、前記第3のステップが、前記小円を求めるとともに、求められた小円を小円描画空間に描画したときの該小円の軌跡上の各点それぞれに該小円に対応する計測点の強度に対応する値を投票するステップであり、前記第4のステップが、前記交差点を求めることに代わり、前記第1から第3までのステップを複数回繰り返す間の投票による値が極大値となる極大点を求めることにより、該極大点の投票に参加した複数の小円に対応する複数の計測点を含む計測平面の方位nso、及び/又は、該計測平面についての規格化最短距離s0を求めるステップであることが好ましく、あるいは、
前記画像上にあらわれた計測点が強度の情報を有するものであって、
前記計測点の前記2つの計測時刻における2つの計測位置p,pどうしの間の運動視差τを第2のパラメータとして設定する第5のステップを有し、
前記第2のステップが、前記第1のステップで設定された規格化最短距離と、前記移動継続状態における無限時間経過後の前記計測点の位置pinfと、該計測点の前記2つの計測時間のうちの一方の計測時刻における計測位置pと、前記第5のステップで設定された前記運動視差τとを用いて、前記半径Rを求めるステップであり、
前記第3のステップが、前記計測点に対応する前記小円を求めるとともに、該計測点の、前記運動視差τに対応する応答強度を求め、求められた小円を小円描画空間に描画したときの該小円の軌跡上の各点それぞれに該小円に対応する計測点の、前記運動視差τに対応する応答強度を投票するステップであり、
前記計測空間内の複数の計測点について、前記第2のステップと前記第3のステップを、前記第1のステップおよび前記第5のステップで各パラメータの各値を変更しながら複数回繰り返し、
その後実行される前記第4のステップが、前記交差点を求めることに代わり、前記第1、第5、第2および第3のステップを複数回繰り返す間の投票による値が極大値となる極大点を求めることにより、該極大点の投票に参加した複数の小円に対応する複数の計測点を含む計測平面の方位nso、及び/又は、該計測平面についての規格化最短距離s0を求めるステップであることも好ましい態様であり、
また、前記第3のステップが、半径Rの小円を前記球面上に求め、さらに該球面上の小円が平面上の円の内部に射影されてなる小円を求めるステップであることも好ましい態様である。
In this case, the measurement point appearing on the image has intensity information, and the third step obtains the small circle and draws the obtained small circle in the small circle drawing space. Voting a value corresponding to the intensity of the measurement point corresponding to the small circle for each point on the trajectory of the small circle, and the fourth step instead of obtaining the intersection, Including a plurality of measurement points corresponding to a plurality of small circles that participated in the voting of the local maximum by obtaining a local maximum at which the value obtained by voting becomes a local maximum while repeating the first to third steps a plurality of times orientation n so the measurement plane, and / or is preferably a step of obtaining a normalized shortest distance n d s0 for the measurement plane, or,
Measurement points appearing on the image have intensity information,
A fifth step of setting a motion parallax τ between the two measurement positions p 0 and p 1 at the two measurement times of the measurement point as a second parameter;
In the second step, the standardized shortest distance n d s set in the first step, the position p inf of the measurement point after the infinite time has elapsed in the movement continuation state, and the 2 of the measurement point Using the measurement position p 0 at one of the two measurement times and the motion parallax τ set in the fifth step to determine the radius R;
In the third step, the small circle corresponding to the measurement point is obtained, the response intensity corresponding to the motion parallax τ of the measurement point is obtained, and the obtained small circle is drawn in the small circle drawing space. Voting a response intensity corresponding to the motion parallax τ of each measurement point corresponding to the small circle for each point on the trajectory of the small circle when
For a plurality of measurement points in the measurement space, the second step and the third step are repeated a plurality of times while changing each value of each parameter in the first step and the fifth step,
The fourth step executed thereafter is not the determination of the intersection, but the maximum point at which the value by voting becomes a maximum value while repeating the first, fifth, second and third steps a plurality of times. By obtaining the azimuth n so of the measurement plane including a plurality of measurement points corresponding to the plurality of small circles participating in the voting of the local maximum point, and / or the normalized shortest distance n d s0 for the measurement plane is obtained. It is a preferable aspect that it is a step,
It is also preferable that the third step is a step of obtaining a small circle having a radius R on the spherical surface, and further obtaining a small circle obtained by projecting the small circle on the spherical surface into a circle on the plane. It is an aspect.

また、上記第3の画像計測方法は、前記計測点の各位置pinf,p,pとして球面上に写影された各位置を採用すると共に、前記最短距離を指標する物理量として、前記観察点と前記2つの計測時刻のうちの一方の計測時刻における前記計測平面との間の最短距離をd、2つの計測時刻どうしの間の前記計測点の、前記観察点に対する相対的な移動距離をΔxとしたときの、
=d/Δx
であらわされる規格化最短距離を採用し、
前記移動方向vを第1のパラメータとして設定することにより前記移動継続状態における無限時間経過後の前記計測点の位置pinfを設定する第1のステップと、
前記規格化最短距離を第2のパラメータとして設定する第2のステップと、
前記第1のステップで設定された、前記移動継続状態における無限時間経過後の前記計測点の位置pinfと、前記第2のステップで設定された規格化最短距離と、単比(pinf)あるいは該単比と等価な演算とを用いて、
R=cos−1/(pinf))
なる関係式あるいは該関係式と等価な関係式で規定される半径Rを求める第3のステップと、
前記2つの計測時刻のうちの一方の計測時刻における前記計測点の計測位置を中心とした半径Rの小円を求める第4のステップとを有し、
前記計測空間内の複数の計測点について、前記第3のステップと前記第4のステップを、前記第1のパラメータおよび前記第2のパラメータの各値をそれぞれ前記第1のステップおよび前記第2のステップで変更しながら複数回繰り返し、その後、
前記第1から第4までのステップを複数回繰り返す間に求められた複数の小円を前記第1のパラメータの値に応じた複数の小円描画空間のうちのそれぞれ対応する小円描画空間に描画したときの小円どうしの交差点を各小円描画空間ごとに求め該交差点で交わる小円の本数の情報に基づいて前記計測点の前記観察点に対する相対的な真の移動方向に対応する小円描画空間を選択することにより該真の移動方向を求めるとともに、該真の移動方向に対応する小円描画空間について求められた交差点で交わる複数の小円に対応する複数の計測点を含む計測平面の方位nso、及び/又は、該計測平面についての規格化最短距離s0を求める第5のステップを実行するものであってもよく、
その場合に、前記画像上にあらわれた計測点が強度の情報を有するものであって、
前記第4のステップが、前記小円を求めるとともに、求められた小円を該小円に対応する小円描画空間に描画したときの該小円の軌跡上の各点それぞれに該小円に対応する計測点の強度に対応する値を投票するステップであり、
前記第5のステップが、前記交差点を求めることに代わり、前記第1から第4までのステップを複数回繰り返す間の投票による値が極大値となる極大点を各小円描画空間ごとに求め該極大点における極大値の情報に基づいて前記真の移動方向に対応する小円描画空間を選択することにより該真の移動方向を求めるとともに、該真の移動方向に対応する小円描画空間について求められた極大点の投票に参加した複数の小円に対応する複数の計測点を含む計測平面の方位nso、及び/又は、該計測平面についての規格化最短距離s0を求めるステップであることが好ましく、あるいは、
前記画像上にあらわれた計測点が強度の情報を有するものであって、
前記計測点の前記2つの計測時刻における2つの計測位置p,pどうしの間の運動視差τを第3のパラメータとして設定する第6のステップを有し、
前記第2のステップが、前記第1のステップで設定された、前記移動継続状態における無限時間経過後の前記計測点の位置pinfと、前記第3のステップで設定された規格化最短距離と、該計測点の前記2つの計測時刻のうちの一方の計測時刻における計測位置pと、前記第5のステップで設定された前記運動視差τとを用いて、前記半径Rを求めるステップであり、
前記第4のステップが、前記計測点に対応する前記小円を求めるとともに、該計測点の、前記運動視差τに対応する応答強度を求め、求められた小円を該小円に対応する小円描画空間に描画したときの該小円の軌跡上の各点それぞれに該小円に対応する計測点の、前記運動視差τに対応する応答強度を投票するステップであり、
前記計測空間内の複数の計測点について、前記第3のステップと前記第4のステップを、前記第1、第2および第6のステップで各パラメータの各値を変更しながら複数回繰り返し、
その後実行される前記第5のステップが、前記交差点を求めることに代わり、前記第1、第2、第6、第3および第4のステップを複数回繰り返す間の投票による値が極大値となる極大点を各小円描画空間ごとに求め該極大点における極大値の情報に基づいて前記真の移動方向に対応する小円描画空間を選択することにより該真の移動方向を求めるとともに、該真の移動方向に対応する小円描画空間について求められた極大点の投票に参加した複数の小円に対応する複数の計測点を含む計測平面の方位nso、及び/又は、該計測平面についての規格化最短距離s0を求めるステップであることも好ましい態様である。
Further, the third image measurement method employs each position projected on the spherical surface as each position p inf , p 0 , p 1 of the measurement point, and the physical quantity indicating the shortest distance is used as the physical quantity. D s is the shortest distance between the observation point and the measurement plane at one of the two measurement times, and the relative movement of the measurement point between the two measurement times with respect to the observation point When the distance is Δx,
n d s = d s / Δx
In adopting the normalized shortest distance n d s represented,
A first step of setting a position p inf of the measurement point after an infinite time in the moving continuous state by setting the moving direction v as the first parameter,
A second step of setting the normalized shortest distance n d s as a second parameter;
The position p inf of the measurement point after the infinite time has elapsed in the movement continuation state set in the first step, the normalized shortest distance n d s set in the second step, and a simple ratio ( p inf p 0 p 1 ) or an operation equivalent to the simple ratio,
R = cos -1 (n d s / (p inf p 0 p 1))
A third step for obtaining a radius R defined by the following relational expression or a relational expression equivalent to the relational expression:
A fourth step of obtaining a small circle having a radius R around the measurement position of the measurement point at one of the two measurement times;
For the plurality of measurement points in the measurement space, the third step and the fourth step are performed, and the values of the first parameter and the second parameter are respectively set to the first step and the second step. Repeat multiple times while changing in steps, then
A plurality of small circles obtained while repeating the first to fourth steps a plurality of times are respectively transferred to corresponding small circle drawing spaces among the plurality of small circle drawing spaces according to the value of the first parameter. A small intersection corresponding to the true movement direction of the measurement point relative to the observation point is obtained based on information on the number of small circles intersecting at the intersection by obtaining intersections between the small circles at the time of drawing for each small circle drawing space. Measurement including a plurality of measurement points corresponding to a plurality of small circles intersecting at intersections obtained for a small circle drawing space corresponding to the true movement direction while obtaining the true movement direction by selecting a circle drawing space plane orientation n so, and / or may be one that performs a fifth step of obtaining a normalized shortest distance n d s0 for the measurement plane,
In that case, the measurement point appearing on the image has intensity information,
In the fourth step, the small circle is obtained, and each small point on the locus of the small circle when the obtained small circle is drawn in the small circle drawing space corresponding to the small circle is added to the small circle. Voting a value corresponding to the intensity of the corresponding measurement point,
Instead of obtaining the intersection in the fifth step, a maximum point at which the value by voting becomes a maximum value while repeating the first to fourth steps is determined for each small circle drawing space. The true movement direction is obtained by selecting the small circle drawing space corresponding to the true movement direction based on the local maximum information at the local maximum point, and the small circle drawing space corresponding to the true movement direction is obtained. This is a step of obtaining the orientation n so of the measurement plane including a plurality of measurement points corresponding to the plurality of small circles participating in the vote of the given maximum point and / or the normalized shortest distance n d s0 for the measurement plane. Preferably, or
Measurement points appearing on the image have intensity information,
A sixth step of setting a motion parallax τ between the two measurement positions p 0 and p 1 at the two measurement times of the measurement point as a third parameter;
The second step includes the position p inf of the measurement point after the infinite time has elapsed in the movement continuation state set in the first step, and the normalized shortest distance n set in the third step. The radius R is obtained using d s , the measurement position p 0 at one of the two measurement times of the measurement point, and the motion parallax τ set in the fifth step. Step,
The fourth step obtains the small circle corresponding to the measurement point, obtains the response strength of the measurement point corresponding to the motion parallax τ, and determines the obtained small circle as a small circle corresponding to the small circle. Voting the response intensity corresponding to the motion parallax τ of each measurement point corresponding to the small circle for each point on the trajectory of the small circle when drawn in a circle drawing space;
For a plurality of measurement points in the measurement space, the third step and the fourth step are repeated a plurality of times while changing each value of each parameter in the first, second and sixth steps,
Subsequent to the fifth step being executed, instead of obtaining the intersection, the value obtained by voting during the repetition of the first, second, sixth, third and fourth steps becomes a maximum value. A local maximum point is obtained for each small circle drawing space, and the true moving direction is obtained by selecting a small circular drawing space corresponding to the true moving direction based on information on the local maximum value at the local maximum point. Azimuth n so of a measurement plane including a plurality of measurement points corresponding to a plurality of small circles that participated in the voting of the maximum points obtained for the small circle drawing space corresponding to the moving direction of the circle, and / or It is also a preferred aspect that it is a step of obtaining the normalized shortest distance n d s0 .

さらに、本発明の画像計測方法のうちの第4の画像計測方法は、所定の計測空間内の所定の観察点から該計測空間内を眺めたときの画像にあらわれた、該計測空間内の任意の計測点の、相互に異なる2つの計測時刻における各計測位置をそれぞれp,p、前記計測点の、前記観察点に対する相対的な、前記2つの計測時刻の間における移動方向vと同一の方向への、かつ前記2つの計測時刻の間の移動速度と同一の速度での移動がそのまま継続されるものと予定した移動継続状態における無限時間経過後の前記計測点の位置をpinfとしたとき、
前記計測点の3つの位置pinf,p,pで決まる単比(pinf)あるいは該単比と等価な演算を用いて、
前記観察点と、前記2つの計測時刻のうちの一方の計測時刻における前記計測点との間の距離を指標する物理量を求めることを特徴とする。
Furthermore, a fourth image measurement method of the image measurement methods of the present invention is an arbitrary image in the measurement space that appears in an image when the measurement space is viewed from a predetermined observation point in the predetermined measurement space. P 0 , p 1 , and the movement direction v between the two measurement times relative to the observation point are the same as the measurement positions at two measurement times different from each other. P inf is the position of the measurement point after elapse of infinite time in the planned movement continuation state where the movement at the same speed as the movement speed between the two measurement times is continued as it is. When
Using a single ratio (p inf p 0 p 1 ) determined by the three positions p inf , p 0 , and p 1 of the measurement point, or an operation equivalent to the single ratio,
A physical quantity indicating a distance between the observation point and the measurement point at one of the two measurement times is obtained.

ここで、第4の画像計測方法における、前記単比(pinf)あるいは該単比と等価な演算には、前記計測点の、前記2つの計測時刻における2つの計測位置p,pに代えて、前記計測点の、前記2つの計測時刻のうちの一方の計測時刻における計測位置pと、前記計測点の、前記2つの計測時刻における2つの計測位置p,pどうしの間の位置の差である運動視差τとを用いる演算が包含される。 Here, in the fourth image measurement method, for the calculation of the single ratio (p inf p 0 p 1 ) or equivalent to the single ratio, two measurement positions p 0 of the measurement point at the two measurement times are used. , in place of p 1, wherein the measurement point, the the measurement position p 0 in one of the measurement time of the two measurement time, the measurement point, the two measurement positions p in the two measurement time 0, p Computation using motion parallax τ, which is the difference in position between one, is included.

上記第4の画像計測方法は、前記距離を指標する物理量として、前記観察点と前記2つの計測時刻のうちの一方の計測時刻における前記計測点との間の距離をd、前記2つの計測時刻どうしの間の前記計測点の、前記観察点に対する移動距離をΔxとしたときの、
=d/Δx
であらわされる規格化距離を採用し、該規格化距離を、
=(pinf
の関係式あるいは該関係式と等価な関係式を用いて求めるものであってもよい。
In the fourth image measurement method, as a physical quantity indicating the distance, a distance between the observation point and the measurement point at one of the two measurement times is set as d 0 , and the two measurements are performed. When the movement distance of the measurement point between the times with respect to the observation point is Δx,
n d 0 = d 0 / Δx
In the normalized distance n d 0 represented adopted, the normalized distance n d 0,
n d 0 = (p inf p 0 p 1 )
Or a relational expression equivalent to the relational expression.

また、本発明の画像計測方法のうちの第5の画像計測方法は、所定の計測空間内の所定の観察点から該計測空間内を眺めたときの画像にあらわれる、該計測空間内の任意の計測点の、相互に異なる2つの計測時刻の間における前記観察点に対する相対的な移動方向と同一方向への、かつ前記2つの計測時刻の間の移動速度と同一速度での移動がそのまま継続されるものと予定した移動継続状態における、前記計測点を含む計測平面が前記観察点に重なる重畳時刻を指標する物理量と、該計測平面の方位nとで規定される投票空間内の座標をパラメータとして設定する第1のステップと、
前記計測点の、前記2つの計測時刻のうちの一方の計測時刻における計測位置pと、該計測点の、前記移動継続状態における無限時間経過後の位置pinfと、前記第1のステップで設定された、前記投票空間内の座標とから、前記計測点の、前記2つの計測時刻における2つの計測位置p,pどうしの位置の差である運動視差τを求める第2のステップと、
前記2つの計測時刻における、前記観察点から前記計測空間内を眺めたときの2つの画像に基づいて、前記計測点の、前記運動視差τに対応する応答強度を求める第3のステップと、
前記第3のステップで求められた応答強度を、前記投票空間内の、前記第1のステップで設定された座標に投票する第4のステップとを有し、
前記計測空間内の複数の計測点について、前記第1から第4までのステップのうちの第2から第4までのステップを、前記第1のステップでパラメータの値を変更しながら複数回実行することを特徴とする。
A fifth image measurement method of the image measurement methods of the present invention is an arbitrary image in the measurement space that appears in an image when the measurement space is viewed from a predetermined observation point in the predetermined measurement space. The movement of the measurement point in the same direction as the movement direction relative to the observation point between two different measurement times and at the same speed as the movement speed between the two measurement times is continued as it is. in a mobile continuous state of events and shall, wherein the physical quantity measuring plane including the measurement point indicative of the superimposed time overlapping the observation point, the coordinates of the voting space defined by the azimuth n s of the measurement plane parameters A first step to set as
In the first step, the measurement position p 0 of the measurement point at one of the two measurement times, the position p inf of the measurement point after the infinite time has elapsed in the movement continuation state, set, from the coordinates of the voting space, the measurement point, a second step of obtaining the two measurement positions p 0, p 1 if motion parallax is the difference in the position of and τ in the two measurement time ,
A third step of determining a response intensity corresponding to the motion parallax τ of the measurement point based on two images when the inside of the measurement space is viewed from the observation point at the two measurement times;
A fourth step of voting the response intensity obtained in the third step to the coordinates set in the first step in the voting space,
For a plurality of measurement points in the measurement space, the second to fourth steps of the first to fourth steps are executed a plurality of times while changing parameter values in the first step. It is characterized by that.

また、本発明の画像計測方法のうちの第6の画像計測方法は、所定の計測空間内の所定の観察点から該計測空間内を眺めたときの画像にあらわれる、該計測空間内の任意の計測点の、相互に異なる2つの計測時刻の間における前記観察点に対する相対的な移動方向vを第1のパラメータとして設定することにより、前記計測点の、該移動方向と同一方向への、かつ前記2つの計測時刻の間の移動速度と同一速度での移動がそのまま継続されるものと予定した移動継続状態における無限時間経過後の該計測点の位置pinfを設定する第1のステップと、
前記移動継続状態における、前記計測点を含む計測平面が前記観察点に重なる重畳時刻を指標する物理量と、該計測平面の方位nとで規定される、前記第1のパラメータに応じた投票空間内の座標を第2のパラメータとして設定する第2のステップと、
前記計測点の、前記2つの計測時刻のうちの一方の計測時刻における計測位置pと、前記第1のステップで設定された位置pinfと、前記第2のステップで設定された、前記投票空間内の座標とから、前記計測点の、前記2つの計測時刻における2つの計測位置p,pどうしの位置の差である運動視差τを求める第3のステップと、
前記2つの計測時刻における、前記観察点から前記計測空間内を眺めたときの2つの画像に基づいて、前記計測点の、前記運動視差τに対応する応答強度を求める第4のステップと、
前記第4のステップで求められた応答強度を、前記第1のパラメータに応じた投票空間内の、前記第2のステップで設定された座標に投票する第5のステップとを有し、
前記計測空間内の複数の計測点について、前記第1から第5までのステップのうちの第3から第5までのステップを、前記第1および第2のステップで各パラメータの各値を変更しながら複数回実行することを特徴とする。
The sixth image measurement method of the image measurement methods of the present invention is an arbitrary image in the measurement space that appears in an image when the measurement space is viewed from a predetermined observation point in the predetermined measurement space. By setting, as a first parameter, a moving direction v of the measuring point relative to the observation point between two different measurement times, the measuring point is moved in the same direction as the moving direction, and A first step of setting a position p inf of the measurement point after elapse of an infinite time in a scheduled movement continuation state, in which the movement at the same speed as the movement speed between the two measurement times is continued;
In the mobile continuity state, and the physical quantity measuring plane including the measurement point indicative of the superimposed time overlapping the observation point, defined by the azimuth n s of the measurement plane, voting space corresponding to the first parameter A second step of setting the coordinates in as a second parameter;
The measurement position p 0 of the measurement point at one of the two measurement times, the position p inf set in the first step, and the voting set in the second step A third step of obtaining a motion parallax τ that is a difference between two measurement positions p 0 and p 1 at the two measurement times of the measurement point from coordinates in space;
A fourth step of obtaining response intensity corresponding to the motion parallax τ of the measurement point based on two images when the inside of the measurement space is viewed from the observation point at the two measurement times;
A fifth step of voting the response strength obtained in the fourth step to the coordinates set in the second step in a voting space corresponding to the first parameter;
For a plurality of measurement points in the measurement space, the third to fifth steps of the first to fifth steps are changed, and each value of each parameter is changed in the first and second steps. It is characterized by being executed multiple times.

また、本発明の画像計測方法のうちの第7の画像計測方法は、
所定の計測空間内を観察する、該計測空間内の所定の観察点と、該観察点から該計測空間内を眺めたときの画像にあらわれる、該計測空間内の任意の計測点を含む、相互に異なる2つの計測時刻のうちの一方の計測時刻における計測平面との間の最短距離を指標する物理量と、該計測平面の方位nとで規定される投票空間内の座標をパラメータとして設定する第1のステップと、
前記計測点の、前記2つの計測時刻のうちの一方の計測時刻における計測位置pと、該計測点の、該2つの計測時刻の間における前記観察点に対する相対的な移動方向と同一方向への、かつ前記2つの計測時刻の間の移動速度と同一速度での移動がそのまま継続されるものと予定した移動継続状態における無限時間経過後の位置pinfと、前記第1のステップで設定された、前記投票空間内の座標とから、前記計測点の、前記2つの計測時刻における2つの計測位置p,pどうしの位置の差である運動視差τを求める第2のステップと、
前記2つの計測時刻における、前記観察点から前記計測空間内を眺めたときの2つの画像に基づいて、前記計測点の、前記運動視差τに対応する応答強度を求める第3のステップと、
前記第3のステップで求められた応答強度を、前記投票空間内の、前記第1のステップで設定された座標に投票する第4のステップとを有し、
前記計測空間内の複数の計測点について、前記第1から第4までのステップのうちの第2から第4までのステップを、前記第1のステップでパラメータの値を変更しながら複数回実行することを特徴とする。
The seventh image measurement method of the image measurement methods of the present invention is:
A predetermined observation point in the measurement space for observing the predetermined measurement space, and an arbitrary measurement point in the measurement space that appears in an image when the measurement space is viewed from the observation point. to set a physical quantity that indicates the shortest distance between the measurement plane at one measurement time of the two different measurement times, the coordinates of the voting space defined by the azimuth n s of the measuring plane as a parameter A first step;
In the same direction as the relative movement direction of the measurement point relative to the observation point between the measurement point p 0 at one of the two measurement times and the measurement point between the two measurement times. And the position p inf after the infinite time has elapsed in the planned movement continuation state where the movement at the same speed as the movement speed between the two measurement times is continued as it is, and is set in the first step. A second step of obtaining a motion parallax τ that is a difference between the two measurement positions p 0 and p 1 at the two measurement times of the measurement point from the coordinates in the voting space;
A third step of determining a response intensity corresponding to the motion parallax τ of the measurement point based on two images when the inside of the measurement space is viewed from the observation point at the two measurement times;
A fourth step of voting the response intensity obtained in the third step to the coordinates set in the first step in the voting space,
For a plurality of measurement points in the measurement space, the second to fourth steps of the first to fourth steps are executed a plurality of times while changing parameter values in the first step. It is characterized by that.

また、本発明の画像計測方法のうちの第8の画像計測方法は、
所定の計測空間内の所定の観察点から該計測空間内を眺めたときの画像にあらわれる、該計測空間内の任意の計測点の、相互に異なる2つの計測時刻の間における前記観察点に対する相対的な移動方向vを第1のパラメータとして設定することにより、前記計測点の、該移動方向と同一方向への、かつ前記2つの計測時刻の間の移動速度と同一速度での移動がそのまま継続されるものと予定した移動継続状態における無限時間経過後の該計測点の位置pinfを設定する第1のステップと、
前記観測点から、前記計測点を含む、前記2つの計測時刻のうちの一方の計測時刻における計測平面までの最短距離を指標する物理量と、該計測平面の方位nとで規定される、前記第1のパラメータに応じた投票空間内の座標を第2のパラメータとして設定する第2のステップと、
前記計測点の、前記2つの計測時刻のうちの一方の計測時刻における計測位置pと、前記第1のステップで設定された位置pinfと、前記第2のステップで設定された、前記投票空間内の座標とから、前記計測点の、前記2つの計測時刻における2つの計測位置p,pどうしの位置の差である運動視差τを求める第3のステップと、
前記2つの計測時刻における、前記観察点から前記計測空間内を眺めたときの2つの画像に基づいて、前記計測点の、前記運動視差τに対応する応答強度を求める第4のステップと、
前記第4のステップで求められた応答強度を、前記第1のパラメータに応じた投票空間内の、前記第2のステップで設定された座標に投票する第5のステップとを有し、
前記計測空間内の複数の計測点について、前記第1から第5までのステップのうちの第3から第5までのステップを、前記第1および第2のステップで各パラメータの各値を変更しながら複数回実行することを特徴とする。
The eighth image measurement method of the image measurement methods of the present invention is:
Relative to the observation point between two different measurement times of any measurement point in the measurement space, which appears in the image when the inside of the measurement space is viewed from the predetermined observation point in the predetermined measurement space By setting the general moving direction v as the first parameter, the movement of the measurement point in the same direction as the movement direction and at the same speed as the movement speed between the two measurement times continues. A first step of setting the position p inf of the measurement point after an infinite time has elapsed in the scheduled movement continuation state;
Wherein from the observation point, comprising said measuring points, and the physical quantity that indicates the shortest distance to the measurement plane at the measurement time of one of the two measurement time is defined by the azimuth n s of the measurement plane, the A second step of setting the coordinates in the voting space according to the first parameter as a second parameter;
The measurement position p 0 of the measurement point at one of the two measurement times, the position p inf set in the first step, and the voting set in the second step A third step of obtaining a motion parallax τ that is a difference between two measurement positions p 0 and p 1 at the two measurement times of the measurement point from coordinates in space;
A fourth step of obtaining response intensity corresponding to the motion parallax τ of the measurement point based on two images when the inside of the measurement space is viewed from the observation point at the two measurement times;
A fifth step of voting the response strength obtained in the fourth step to the coordinates set in the second step in a voting space corresponding to the first parameter;
For a plurality of measurement points in the measurement space, the third to fifth steps of the first to fifth steps are changed, and each value of each parameter is changed in the first and second steps. It is characterized by being executed multiple times.

また、本発明の画像計測方法のうちの第9の画像計測方法は、
所定の計測空間内の所定の観察点から該計測空間内を眺めたときの画像にあらわれる、該計測空間内の任意の計測点の、相互に異なる2つの計測時刻における2つの計測位置p,pどうしの間の位置の差である運動視差τをパラメータとして設定する第1のステップと、
前記計測点の、前記2つの計測時刻のうちの一方の計測時刻における計測位置pと、該計測点の、前記2つの計測時刻の間における前記観察点に対する相対的な移動方向と同一方向への、かつ前記2つの計測時刻の間の移動速度と同一速度での移動がそのまま継続されるものと予定した移動継続状態における、該計測点の無限時間経過後の位置pinfと、前記第1のステップで設定された運動視差τとから、前記移動継続状態における、前記計測点を含む計測平面が前記観察点に重なる重畳時刻を指標する物理量と、該計測平面の方位nとで規定される投票空間内の座標を求める第2のステップと、
前記2つの計測時刻における、前記観察点から前記計測空間を眺めたときの2つの画像に基づいて、前記計測点の、前記第1のステップで設定された運動視差τに対応する応答強度を求める第3のステップと、
前記第3のステップで求められた応答強度を、前記投票空間内の、前記第2のステップで求められた座標に投票する第4のステップとを有し、
前記計測空間内の複数の計測点について、前記第1から第4までのステップのうちの第2から第4までのステップを、前記第1のステップでパラメータの値を順次変更しながら複数回実行することを特徴とする。
The ninth image measurement method of the image measurement methods of the present invention is:
Two measurement positions p 0 , at two different measurement times of arbitrary measurement points in the measurement space, which appear in an image when the measurement space is viewed from a predetermined observation point in the predetermined measurement space. a first step of setting, as a parameter, motion parallax τ, which is a difference in position between p 1 ;
In the same direction as the relative movement direction of the measurement point relative to the observation point between the measurement point p 0 at one of the two measurement times and the measurement point between the two measurement times. And the position p inf after elapse of an infinite time of the measurement point in the movement continuation state where the movement at the same speed as the movement speed between the two measurement times is continued as it is, and the first Is determined by a physical quantity that indicates a superimposition time at which the measurement plane including the measurement point overlaps the observation point and the orientation n s of the measurement plane in the movement continuation state. A second step for determining coordinates in a voting space;
Based on the two images when the measurement space is viewed from the observation point at the two measurement times, the response intensity corresponding to the motion parallax τ set in the first step is obtained at the measurement point. A third step;
Voting the response strength determined in the third step to the coordinates determined in the second step in the voting space; and
For the plurality of measurement points in the measurement space, the second to fourth steps among the first to fourth steps are executed a plurality of times while sequentially changing the parameter values in the first step. It is characterized by doing.

また、本発明の画像計測方法のうちの第10の画像計測方法は、
所定の計測空間内の所定の観察点から該計測空間内を眺めたときの画像にあらわれる、該計測空間内の任意の計測点の、相互に異なる2つの計測時刻の間における前記観察点に対する相対的な移動方向vを第1のパラメータとして設定することにより、前記計測点の、該移動方向と同一方向への、かつ前記2つの計測時刻の間の移動速度と同一速度での移動がそのまま継続されるものと予定した移動継続状態における無限時間経過後の該計測点の位置pinfを設定する第1のステップと、
前記計測点の、前記2つの計測時刻における2つの計測位置p,pどうしの間の位置の差である運動視差τを第2のパラメータとして設定する第2のステップと、
前記計測点の、前記2つの計測時刻のうちの一方の計測時刻における計測位置pと、前記第1のステップで設定された位置pinfと、前記第2のステップで設定された運動視差τとから、前記移動継続状態における、前記計測点を含む計測平面が前記観察点に重なる重畳時刻を指標する物理量と、該計測平面の方位nとで規定される、前記第1のパラメータに応じた投票空間内の座標を求める第3のステップと、
前記2つの計測時刻における、前記観察点から前記計測空間を眺めたときの2つの画像に基づいて、前記計測点の、前記第2のステップで設定された運動視差τに対応する応答強度を求める第4のステップと、
前記第4のステップで求められた応答強度を、前記第1のパラメータに応じた投票空間内の、前記第3のステップで求められた座標に投票する第5のステップとを有し、
前記計測空間内の複数の計測点について、前記第1から第5までのステップのうちの第3から第5までのステップを、前記第1および第2のステップで各パラメータの各値を変更しながら複数回実行することを特徴とする。
The tenth image measurement method of the image measurement methods of the present invention is:
Relative to the observation point between two different measurement times of any measurement point in the measurement space, which appears in the image when the inside of the measurement space is viewed from the predetermined observation point in the predetermined measurement space By setting the general moving direction v as the first parameter, the movement of the measurement point in the same direction as the movement direction and at the same speed as the movement speed between the two measurement times continues. A first step of setting the position p inf of the measurement point after an infinite time has elapsed in the scheduled movement continuation state;
A second step of setting, as a second parameter, motion parallax τ, which is a difference in position between the two measurement positions p 0 and p 1 at the two measurement times, of the measurement point;
The measurement position p 0 of the measurement point at one of the two measurement times, the position p inf set in the first step, and the motion parallax τ set in the second step and a, the in the mobile continuity state, and the physical quantity measuring plane including the measurement point indicative of the superimposed time overlapping the observation point, defined by the azimuth n s of the measurement plane, according to the first parameter A third step for determining coordinates in the voting space;
Based on the two images when the measurement space is viewed from the observation point at the two measurement times, the response intensity corresponding to the motion parallax τ set in the second step is obtained at the measurement point. A fourth step;
Voting the response intensity obtained in the fourth step to the coordinates obtained in the third step in the voting space corresponding to the first parameter,
For a plurality of measurement points in the measurement space, the third to fifth steps of the first to fifth steps are changed, and each value of each parameter is changed in the first and second steps. It is characterized by being executed multiple times.

また、本発明の画像計測方法のうちの第11の画像計測方法は、
所定の計測空間内の所定の観察点から該計測空間内を眺めたときの画像にあらわれる、該計測空間内の任意の計測点の、相互に異なる2つの計測時刻における2つの計測位置p,pどうしの間の位置の差である運動視差τをパラメータとして設定する第1のステップと、
前記計測点の、前記2つの計測時刻のうちの一方の計測時刻における、計測位置pと、該計測点の、前記2つの計測時刻の間における前記観察点に対する相対的な移動方向と同一方向への、かつ前記2つの計測時刻の間の移動速度と同一速度での移動がそのまま継続されるものと予定した移動継続状態における、該計測点の無限時間経過後の位置pinfと、前記第1のステップで設定された運動視差τとに基づいて、前記観察点から、前記計測点を含む、2つの計測時刻のうちの一方の計測時刻における計測平面までの間の最短距離を指標する物理量と、該計測平面の方位nとで規定される投票空間内の座標を求める第2のステップと、
前記2つの計測時刻における、前記観察点から前記計測空間を眺めたときの2つの画像に基づいて、前記計測点の、前記第1のステップで設定された運動視差τに対応する応答強度を求める第3のステップと、
前記第3のステップで求められた応答強度を、前記投票空間内の、前記第2のステップで求められた座標に投票する第4のステップとを有し、
前記計測空間内の複数の計測点について、前記第1から第4までのステップのうちの第2から第4までのステップを、前記第1のステップでパラメータの値を変更しながら複数回実行することを特徴とする。
The eleventh image measurement method of the image measurement methods of the present invention is:
Two measurement positions p 0 , at two different measurement times of arbitrary measurement points in the measurement space, which appear in an image when the measurement space is viewed from a predetermined observation point in the predetermined measurement space. a first step of setting, as a parameter, motion parallax τ, which is a difference in position between p 1 ;
The same direction as the relative movement direction of the measurement point with respect to the observation point between the two measurement times and the measurement position p 0 at one of the two measurement times. And a position p inf after the infinite time of the measurement point in a state where the movement continues at the same speed as the movement speed between the two measurement times and the scheduled movement continuation state, A physical quantity that indicates the shortest distance from the observation point to the measurement plane at one of the two measurement times, including the measurement point, based on the motion parallax τ set in step 1 When, a second step of obtaining the coordinates of the voting space defined by the azimuth n s of the measurement plane,
Based on the two images when the measurement space is viewed from the observation point at the two measurement times, the response intensity corresponding to the motion parallax τ set in the first step is obtained at the measurement point. A third step;
Voting the response strength determined in the third step to the coordinates determined in the second step in the voting space; and
For a plurality of measurement points in the measurement space, the second to fourth steps of the first to fourth steps are executed a plurality of times while changing parameter values in the first step. It is characterized by that.

また、本発明の画像計測方法のうちの第12の画像計測方法は、
所定の計測空間内の所定の観察点から該計測空間内を眺めたときの画像にあらわれる、該計測空間内の任意の計測点の、相互に異なる2つの計測時刻の間における前記観察点に対する相対的な移動方向vを第1のパラメータとして設定することにより、前記計測点の、該移動方向と同一方向への、かつ前記2つの計測時刻の間の移動速度と同一速度での移動がそのまま継続されるものと予定した移動継続状態における無限時間経過後の該計測点の位置pinfを設定する第1のステップと、
前記計測点の、前記2つの計測時刻における2つの計測位置p,pどうしの位置の差である運動視差τを第2のパラメータとして設定する第2のステップと、
前記計測点の、前記2つの計測時刻のうちの一方の計測時刻における計測位置pと、前記第1のステップで設定された位置pinfと、前記第2のステップで設定された運動視差τとに基づいて、前記観察点から、前記計測点を含む、前記2つの計測時刻のうちの一方の計測時刻における計測平面までの間の最短距離を指標する物理量と、該計測平面の方位nとで規定される、前記第1のパラメータに応じた投票空間内の座標を求める第3のステップと、
前記2つの計測時刻における、前記観察点から前記計測空間を眺めたときの2つの画像に基づいて、前記計測点の、前記第2のステップで設定された運動視差τに対応する応答強度を求める第4のステップと、
前記第4のステップで求められた応答強度を、前記第1のパラメータに応じた投票空間内の、前記第3のステップで求められた座標に投票する第5のステップとを有し、
前記計測空間内の複数の計測点について、前記第1から第5までのステップのうちの第3から第5までのステップを、前記第1および第2のステップで各パラメータの各値を変更しながら複数回実行することを特徴とする。
The twelfth image measurement method of the image measurement methods of the present invention is:
Relative to the observation point between two different measurement times of any measurement point in the measurement space, which appears in the image when the inside of the measurement space is viewed from the predetermined observation point in the predetermined measurement space By setting the general moving direction v as the first parameter, the movement of the measurement point in the same direction as the movement direction and at the same speed as the movement speed between the two measurement times continues. A first step of setting the position p inf of the measurement point after an infinite time has elapsed in the scheduled movement continuation state;
A second step of setting, as a second parameter, motion parallax τ, which is a difference between two measurement positions p 0 and p 1 at the two measurement times of the measurement point;
The measurement position p 0 of the measurement point at one of the two measurement times, the position p inf set in the first step, and the motion parallax τ set in the second step And a physical quantity indicating the shortest distance from the observation point to the measurement plane at one of the two measurement times, including the measurement point, and the direction n s of the measurement plane A third step for obtaining coordinates in the voting space according to the first parameter, defined by:
Based on the two images when the measurement space is viewed from the observation point at the two measurement times, the response intensity corresponding to the motion parallax τ set in the second step is obtained at the measurement point. A fourth step;
Voting the response intensity obtained in the fourth step to the coordinates obtained in the third step in the voting space corresponding to the first parameter,
For a plurality of measurement points in the measurement space, the third to fifth steps of the first to fifth steps are changed, and each value of each parameter is changed in the first and second steps. It is characterized by being executed multiple times.

さらに、本発明の画像計測方法のうちの第13の画像計測方法は、
所定の計測空間内の所定の観察点から、該計測空間内を、相互に異なる2つの計測時刻において眺めたときの2つの画像に基づいて、該計測空間内の任意の計測点の、該2つの計測時刻における2つの計測位置どうしの位置の差である運動視差に対応する応答強度を求める第1のステップと、
前記第1のステップで求められた応答強度を、前記計測点の、前記2つの計測時刻の間における前記観察点に対する相対的な移動方向と同一方向への、かつ前記2つの計測時刻の間の移動速度と同一速度での移動がそのまま継続されるものと予定した移動継続状態における、前記計測点を含む計測平面が前記観察点に重なる重畳時刻を指標する物理量と、該計測平面の方位とで規定される投票空間内の、前記計測点と前記運動視差とに対応した座標に投票する第2のステップとを有し、
前記計測空間内の複数の計測点について前記第1のステップと前記第2のステップを複数回実行することを特徴とする。
Furthermore, the thirteenth image measurement method of the image measurement methods of the present invention is:
Based on two images when the measurement space is viewed at two different measurement times from a predetermined observation point in the predetermined measurement space, any two measurement points in the measurement space A first step of obtaining a response intensity corresponding to motion parallax, which is a difference between positions of two measurement positions at one measurement time;
The response intensity obtained in the first step is set in the same direction as the movement direction of the measurement point relative to the observation point between the two measurement times and between the two measurement times. A physical quantity that indicates a superposition time at which a measurement plane including the measurement point overlaps the observation point in a planned movement continuation state in which the movement at the same speed as the movement speed is continued, and an orientation of the measurement plane A second step of voting on coordinates corresponding to the measurement points and the motion parallax within a defined voting space;
The first step and the second step are executed a plurality of times for a plurality of measurement points in the measurement space.

ここで、上記第13の画像計測方法は、前記投票空間内の、前記投票による値が極大値となる極大点を求めることにより、該極大点の投票に参加した複数の計測点を含む計測平面の方位、及び/又は、該計測平面が前記観察点に重なる重畳時刻を指標する物理量を求める第3のステップを有するものであってもよい。   Here, in the thirteenth image measurement method, a measurement plane including a plurality of measurement points participating in the voting of the maximum point by obtaining a maximum point in the voting space where the value by the vote becomes a maximum value. And / or a third step for obtaining a physical quantity that indicates a superimposition time at which the measurement plane overlaps the observation point.

また、本発明の画像計測方法のうちの第14の画像計測方法は、
所定の計測空間内の所定の観察点から該計測空間内を眺めたときの画像にあらわれる、該計測空間内の任意の計測点の、相互に異なる2つの計測時刻の間における前記観察点に対する相対的な移動方向をパラメータとして設定する第1のステップと、
前記観察点から、前記計測空間内を前記2つの計測時刻において眺めたときの2つの画像に基づいて、前記計測点の、該2つの計測時刻における2つの計測位置どうしの位置の差である運動視差に対応する応答強度を求める第2のステップと、
前記第2のステップで求められた応答強度を、前記計測点の、前記2つの計測時刻の間における前記観察点に対する相対的な移動方向と同一方向への、かつ前記2つの計測時刻の間の移動速度と同一速度での移動がそのまま継続されるものと予定した移動継続状態における、前記計測点を含む計測平面が前記観察点に重なる重畳時刻を指標する物理量と、該計測平面の方位とで規定される、前記第1のステップで設定されたパラメータに応じた投票空間内の、前記計測点と前記運動視差とに対応した座標に投票する第3のステップとを有し、
前記計測空間内の複数の計測点について、前記第1から第3までのステップのうちの第2および第3のステップを、前記第1のステップでパラメータの値を変更しながら複数回実行することを特徴とする。
The fourteenth image measurement method of the image measurement methods of the present invention is:
Relative to the observation point between two different measurement times of any measurement point in the measurement space that appears in the image when the inside of the measurement space is viewed from the predetermined observation point in the predetermined measurement space A first step of setting a general moving direction as a parameter;
Based on two images when the measurement space is viewed from the observation point at the two measurement times, the movement is a difference between the two measurement positions at the two measurement times of the measurement point. A second step for obtaining a response intensity corresponding to the parallax;
The response intensity obtained in the second step is set in the same direction as the movement direction of the measurement point relative to the observation point between the two measurement times, and between the two measurement times. The physical quantity indicating the superposition time when the measurement plane including the measurement point overlaps the observation point in the planned movement continuation state in which the movement at the same speed as the movement speed is continued as it is and the direction of the measurement plane A third step of voting on coordinates corresponding to the measurement point and the motion parallax in a voting space defined by the parameters set in the first step,
Executing the second and third steps of the first to third steps for a plurality of measurement points in the measurement space a plurality of times while changing parameter values in the first step. It is characterized by.

ここで、上記第14の画像計測方法は、前記投票による値が極大値となる極大点を各投票空間ごとに求め該極大点における極大値の情報に基づいて前記計測点の前記観察点に対する相対的な真の移動方向に対応する投票空間を選択することにより該真の移動方向を求めるとともに、該真の移動方向に対応する投票空間について求められた極大点の投票に参加した複数の計測点を含む計測平面の方位、及び/又は、該計測平面が前記観察点に重なる重畳時刻を指標する物理量を求める第4のステップを有するものであってもよい。   Here, in the fourteenth image measurement method, a local maximum point at which the value obtained by voting becomes a local maximum value is obtained for each voting space, and the measurement point is relative to the observation point based on information on the local maximum value at the local maximum point. A plurality of measurement points participating in the voting of the maximum points obtained for the voting space corresponding to the true movement direction while obtaining the true movement direction by selecting a voting space corresponding to the true movement direction. And / or a fourth step of obtaining a physical quantity that indicates a superposition time at which the measurement plane overlaps the observation point.

また、本発明の画像計測方法のうちの第15の画像計測方法は、
所定の計測空間内の所定の観察点から該計測空間内を相互に異なる2つの計測時刻において眺めたときの2つの画像に基づいて、該計測空間内の任意の計測点の、該2つの計測時刻における2つの計測位置どうしの位置の差である運動視差に対応する応答強度を求める第1のステップと、
前記第1のステップで求められた応答強度を、前記観察点から、前記計測点を含む、前記2つの計測時刻のうちの一方の計測時刻における計測平面までの間の最短距離を指標する物理量と、該計測平面の方位とで規定される投票空間内の、前記計測点と前記運動視差τとに対応した座標に投票する第2のステップとを有し、
前記計測空間内の複数の計測点について、前記第1のステップと前記第2のステップを複数回実行することを特徴とする。
The fifteenth image measurement method of the image measurement methods of the present invention is:
Based on two images when the measurement space is viewed at two different measurement times from a predetermined observation point in the predetermined measurement space, the two measurements at arbitrary measurement points in the measurement space A first step of obtaining a response intensity corresponding to a motion parallax that is a difference between positions of two measurement positions at a time;
The response intensity obtained in the first step is a physical quantity that indicates the shortest distance from the observation point to the measurement plane at one of the two measurement times, including the measurement point. Voting to coordinates corresponding to the measurement point and the motion parallax τ in a voting space defined by the orientation of the measurement plane,
The first step and the second step are executed a plurality of times for a plurality of measurement points in the measurement space.

ここで、上記画像計測方法は、前記投票空間内の、前記投票による値が極大値となる極大点を求めることにより、該極大点の投票に参加した複数の計測点を含む計測平面の方位、及び/又は、前記観察点から前記2つの計測時刻のうちの一方の計測時刻における前記計測平面までの最短距離を指標する物理量を求める第3のステップを有するものであってもよい。   Here, in the image measurement method, the azimuth of a measurement plane including a plurality of measurement points participating in the voting of the maximum point by obtaining a maximum point in the voting space where the value by the voting becomes a maximum value, And / or a third step of obtaining a physical quantity indicating the shortest distance from the observation point to the measurement plane at one of the two measurement times.

また、本発明の画像計測方法のうちの第16の画像計測方法は、
所定の計測空間内の所定の観察点から該計測空間内を眺めたときの画像にあらわれる、該計測空間内の任意の計測点の、相互に異なる2つの計測時刻の間における前記観察点に対する相対的な移動方向をパラメータとして設定する第1のステップと、
前記観察点から前記計測空間内を前記2つの計測時刻において眺めたときの2つの画像に基づいて、前記計測点の、該2つの計測時刻における2つの計測位置どうしの位置の差である運動視差に対応する応答強度を求める第2のステップと、
前記第2のステップで求められた応答強度を、前記観察点から、前記計測点を含む、前記2つの計測時刻のうちの一方の計測時刻における計測平面までの間の最短距離を指標する物理量と、該計測平面の方位とで規定される、前記第1のステップで設定されたパラメータに応じた投票空間内の、前記計測点と前記運動視差とに対応した座標に投票する第3のステップとを有し、
前記計測空間内の複数の計測点について、前記第1から第3までのステップのうちの第2および第3のステップを、前記第1のステップでパラメータの値を変更しながら複数回実行することを特徴とする。
The sixteenth image measurement method of the image measurement methods of the present invention is:
Relative to the observation point between two different measurement times of any measurement point in the measurement space that appears in the image when the inside of the measurement space is viewed from the predetermined observation point in the predetermined measurement space A first step of setting a general moving direction as a parameter;
Motion parallax, which is the difference between the two measurement positions at the two measurement times of the measurement point, based on the two images when the measurement space is viewed from the observation point at the two measurement times. A second step for obtaining a response intensity corresponding to
The response intensity obtained in the second step is a physical quantity that indicates the shortest distance from the observation point to the measurement plane at one of the two measurement times, including the measurement point. A third step of voting on coordinates corresponding to the measurement points and the motion parallax in a voting space according to the parameters set in the first step, defined by the orientation of the measurement plane; Have
Executing the second and third steps of the first to third steps for a plurality of measurement points in the measurement space a plurality of times while changing parameter values in the first step. It is characterized by.

ここで、上記第16の画像計測方法は、前記投票による値が極大値となる極大点を各投票空間ごとに求め該極大点における極大値の情報に基づいて前記計測点の前記観察点に対する相対的な真の移動方向に対応する投票空間を選択することにより該真の移動方向を求めるとともに、該真の移動方向に対応する投票空間について求められた極大点の投票に参加した複数の計測点を含む計測平面の方位、及び/又は、前記観察点から前記2つの計測時刻のうちの一方の計測時刻における前記計測平面までの最短距離を指標する物理量を求める第4のステップを有するものであってもよい。   Here, in the sixteenth image measurement method, a local maximum point at which the value by voting becomes a local maximum is obtained for each voting space, and the relative measurement point relative to the observation point is based on the local maximum information at the local maximum point. A plurality of measurement points participating in the voting of the maximum points obtained for the voting space corresponding to the true movement direction while obtaining the true movement direction by selecting a voting space corresponding to the true movement direction. And / or a fourth step of obtaining a physical quantity indicating the shortest distance from the observation point to the measurement plane at one of the two measurement times. May be.

また、本発明の画像計測方法のうちの第17の画像計測方法は、
所定の計測空間内の所定の2つの観察点から該計測空間内を眺めたときの画像にあらわれた、該計測空間内の任意の計測点の、前記2つの観察点それぞれから観察したときの各計測位置をそれぞれp,p、前記計測点を含み、前記2つの観察点どうしを結ぶ視軸方向vと同一の方向に延びる直線上の無限遠点の位置をpaxis、前記2つの観察点のうちの一方の観察点を含み、前記計測点を含む計測平面と平行に広がる観察平面上の、前記直線との交点の位置をpとしたとき、
前記4つの位置paxis,p,p,pで決まる複比{paxis}あるいは該複比と等価な演算を用いて、前記計測平面の方位、及び/又は、該計測平面と前記2つの観察点のうちの一方の観察点との間の前記視軸方向の距離を指標する物理量を求めることを特徴とする。
The seventeenth image measurement method of the image measurement methods of the present invention is
Each of the arbitrary measurement points in the measurement space, as seen from an image when the measurement space is viewed from two predetermined observation points in the predetermined measurement space, is observed from each of the two observation points. The measurement positions are p R and p L , respectively, and the position of an infinite point on a straight line that includes the measurement points and extends in the same direction as the visual axis direction v connecting the two observation points is represented by p axis . wherein one of the observation points of the point, when on the viewing plane extending parallel to the measurement plane including the measurement point, the position of intersection between the straight line and the p c,
The four positions p axis, using p R, p L, the cross ratio {p axis p R p L p c} or plurality ratio equivalent operations determined by p c, the orientation of the measurement plane, and / or A physical quantity indicating the distance in the visual axis direction between the measurement plane and one of the two observation points is obtained.

ここで、上記第17の画像計測方法において、前記複比{paxis}あるいは該複比と等価な演算には、前記計測点の、前記2つの観察点から観察したときの2つの計測位置p,pに代えて、前記計測点の、前記2つの観察点のうちの一方の観察点から観察したときの計測位置pと、前記計測点の、前記2つの観察点から観察したときの計測位置p,pどうしの間の位置の差である両眼視差σとを用いる演算が包含される。 Here, in the seventeenth image measurement method, the cross ratio {p axis p R p L p c } or an operation equivalent to the cross ratio is obtained by observing the measurement point from the two observation points. Instead of the two measurement positions p R and p L , the measurement position p R when the measurement point is observed from one of the two observation points and the two measurement points. Calculations using binocular parallax σ, which is the difference in position between the measurement positions p R and p L when observed from the observation point, are included.

また、上記第17の画像計測方法では、前記計測平面と前記2つの観察点との間の前記視軸方向の距離を指標する物理量として、前記計測平面と前記2つの観察点のうちの一方の観察点との間の前記視軸方向の距離をd、前記2つの観察点どうしの間の距離をΔxLRとしたときの、
=d/ΔxLR
であらわされる規格化距離を採用し、該規格化距離を、
={paxis
の関係式あるいは該関係式と等価な関係式を用いて求めてもよい。
In the seventeenth image measurement method, one of the measurement plane and the two observation points is used as a physical quantity that indicates a distance in the visual axis direction between the measurement plane and the two observation points. When the distance in the visual axis direction between the observation points is d c and the distance between the two observation points is Δx LR ,
n d c = d c / Δx LR
In adopting the normalized distance n d c represented, the normalized distance n d c,
n d c = {p axis p R p L p c }
Alternatively, the relational expression may be obtained by using a relational expression or a relational expression equivalent to the relational expression.

また、上記第17の画像計測方法では、前記観察平面上の交点の位置pを極変換することにより該位置pに対応する極線を求めるプロセスを、前記計測空間内に存在する複数の計測点について実行し、これらのプロセスにより求められた複数の極線を極線描画空間に描画したときの極線どうしの交差点を求めることにより、該交差点で交わる複数の極線に対応する複数の計測点を含む計測平面の方位、及び/又は、該計測平面と前記2つの観察点のうちの一方の観察点との間の前記視軸方向の距離を指標する物理量を求めてもよい。 Further, in the seventeenth image measuring method, a process for obtaining a polar corresponding to the position p c by converting the position p c of the intersection on the observation plane electrode, the plurality present in the measuring space By executing the measurement points and obtaining the intersections between the polar lines when the plurality of polar lines obtained by these processes are drawn in the polar drawing space, a plurality of polar lines intersecting at the intersections are obtained. A physical quantity that indicates the azimuth of the measurement plane including the measurement point and / or the distance in the visual axis direction between the measurement plane and one of the two observation points may be obtained.

また、上記第17の画像計測方法は、前記画像上にあらわれた計測点が強度の情報を有するものである場合に、前記観察平面上の交点の位置pを極変換することにより該計測点に対応する極線を求めるとともに、求められた極線を極線描画空間に描画したときの該極線の軌跡上の各点それぞれに該極線に対応する計測点の強度に対応する値を投票するプロセスを、前記計測空間内に存在する複数の計測点について実行し、これらのプロセスの実行の間の投票による値が極大値となる極大点を求めることにより、該極大点の投票に参加した複数の極線に対応する複数の計測点を含む計測平面の方位、及び/又は、該計測平面と前記2つの観察点のうちの一方の観察点との間の前記視軸方向の距離を指標する物理量を求めるものであってもよい。 Further, the image measuring method of the 17, when the measurement point appearing on an image is one that has information of intensity, the measurement point by converting a position p c of intersection on said viewing plane electrode And a value corresponding to the intensity of the measurement point corresponding to the polar line for each point on the trajectory of the polar line when the calculated polar line is drawn in the polar line drawing space. A voting process is executed for a plurality of measurement points existing in the measurement space, and a maximal point at which the value obtained by voting during the execution of these processes becomes a maximal value is obtained, thereby participating in the voting of the maximal point The orientation of the measurement plane including a plurality of measurement points corresponding to the plurality of polar lines and / or the distance in the visual axis direction between the measurement plane and one of the two observation points The physical quantity to be indexed may be obtained .

また、上記第17の画像計測方法は、前記画像上にあらわれた計測点が強度の情報を有するものであって、前記観察平面上の交点の位置pを極変換することにより該計測点に対応する極線を求めるとともに、該計測点の、前記2つの観察点から観察したときの2つの計測位置p,pどうしの間の両眼視差σに対応する応答強度を求め、求められた極線を極線描画空間に描画したときの該極線の軌跡上の各点それぞれに、該極線に対応する計測点の、前記両眼視差σに対応する応答強度を投票するプロセスを、前記計測空間内に存在する複数の計測点について実行し、これらのプロセスの実行の間の投票による値が極大値となる極大点を求めることにより、該極大点の投票に参加した複数の極線に対応する複数の計測点を含む計測平面の方位、及び/又は、該計測平面と前記2つの観察点のうちの一方の観察点との間の前記視軸方向の距離を指標する物理量を求めるものであってもよい。 Further, in the seventeenth image measurement method, the measurement point appearing on the image has intensity information, and the position p c of the intersection point on the observation plane is subjected to polar conversion to obtain the measurement point. The corresponding polar line is obtained, and the response intensity corresponding to the binocular parallax σ between the two measurement positions p R and p L when observed from the two observation points is obtained and obtained. A process of voting a response intensity corresponding to the binocular parallax σ of each measurement point corresponding to the polar line for each point on the polar line trajectory when the polar line is drawn in the polar drawing space. , Executing a plurality of measurement points existing in the measurement space, and obtaining a maximum point at which a value obtained by voting during the execution of these processes becomes a maximum value, thereby obtaining a plurality of extreme points participating in the vote of the maximum point. Measurement plane with multiple measurement points corresponding to the line Orientation, and / or it may be one that obtains a physical quantity indicative of the distance of the visual axis direction between one of the observation point of the measuring plane and the two observation points.

さらに、上記第17の画像計測方法では、位置pを求めるにあたっては、前記計測平面と前記2つの観察点のうちの一方の観察点との間の前記視軸方向の距離を指標する物理量と、前記計測点の、前記2つの観察点それぞれから観察したときの各計測位置p,pあるいは、これら2つの計測位置p,pに代わる、該計測点の、前記2つの観察点のうちの一方の観察点から観察したときの計測位置pおよび該計測点の、前記2つの観察点から観察したときの2つの計測位置p,pどうしの間の両眼視差σと、前記計測点の、前記無限遠点の位置paxisとを知って、前記複比{paxis}あるいは該複比と等価な演算を用いて、前記観察平面上の交点の位置pを求めてもよい。 Furthermore, in the 17th image measuring method, when the seek position p c, a physical quantity indicative of the distance of the visual axis direction between one of the observation point of the measuring plane and the two observation points The measurement points p R and p L when observed from the two observation points, or the two observation points of the measurement points instead of the two measurement positions p R and p L. And binocular parallax σ between the two measurement positions p R and p L when observed from the two observation points, and the measurement position p R when observed from one of the observation points. Knowing the position p axis of the infinite point of the measurement point, and using the cross ratio {p axi p R p L p c } or an operation equivalent to the cross ratio, the intersection point on the observation plane it may be determined position p c of.

さらに、上記第17の画像計測方法は、前記計測平面と前記2つの観察点のうちの一方の観察点との間の前記視軸方向の距離を指標する物理量をパラメータとして設定する第1のステップと、
前記第1のステップで設定された、前記計測平面と前記2つの観察点のうちの一方の観察点との間の前記視軸方向の距離を指標する物理量と、前記計測点の、前記2つの観察点から観察したときの各計測位置p,pあるいは、これら2つの計測位置p,pに代わる、該計測点の、前記2つの観察点のうちの一方の観察点から観察したときの計測位置pおよび該計測点の、前記2つの観察点から観察したときの2つの計測位置p,pどうしの間の両眼視差σと、前記無限遠点の位置paxisとから、前記複比{paxis}あるいは該複比と等価な演算を用いて、前記観察平面上の交点の位置pを求める第2のステップと、
前記観察平面上の交点の位置pを極変換することにより前記計測点に対応する極線を求める第3のステップとを有し、
前記計測空間内の複数の計測点について、前記第2のステップと前記第3のステップを、前記パラメータの値を前記第1のステップで変更しながら複数回繰り返し、その後、
前記第1から第3までのステップを複数回繰り返す間に求められた複数の極線を極線描画空間に描画したときの極線どうしの交差点を求めることにより、該交差点で交わる複数の極線に対応する複数の計測点を含む計測平面の方位、及び/又は、該計測平面と前記2つの観察点のうちの一方の観察点との間の前記視軸方向の距離を指標する物理量を求める第4ステップを実行するものであってもよい。
Furthermore, in the seventeenth image measurement method, a first step of setting, as a parameter, a physical quantity that indicates a distance in the visual axis direction between the measurement plane and one of the two observation points. When,
A physical quantity indicating the distance in the visual axis direction between the measurement plane and one of the two observation points set in the first step, and the two measurement points. Each measurement position p R , p L when observed from the observation point, or these measurement points instead of these two measurement positions p R , p L were observed from one of the two observation points a binocular parallax σ between the measurement position p R and the measurement point, the two two measurement positions p R when observed from the observation point, and if p L of the time, the position p axis of the point at infinity from a second step of using the double ratio {p axis p R p L p c} or plurality ratio equivalent calculation to determine the position p c of the intersection on the observation plane,
And a third step of obtaining a polar corresponding to the measurement point by polar transformation the position p c of the intersection on the observation plane,
For a plurality of measurement points in the measurement space, the second step and the third step are repeated a plurality of times while changing the value of the parameter in the first step, and then
A plurality of polar lines intersecting at the intersections by obtaining intersections between the polar lines when the plurality of polar lines obtained while repeating the first to third steps a plurality of times are drawn in the polar drawing space. A physical quantity that indicates the orientation of the measurement plane including a plurality of measurement points corresponding to and / or the distance in the visual axis direction between the measurement plane and one of the two observation points is obtained. The fourth step may be executed.

この場合に、前記画像上にあらわれた計測点が強度の情報を有するものであって、前記第3のステップが、前記極線を求めるとともに、求められた極線を極線描画空間に描画したときの該極線の軌跡上の各点それぞれに該極線に対応する計測点の強度に対応する値を投票するステップであり、前記第4のステップが、前記交差点を求めることに代わり、前記第1から第3までのステップを複数回繰り返す間の投票による値が極大値となる極大点を求めることにより、該極大点の投票に参加した複数の極線に対応する複数の計測点を含む計測平面の方位、及び/又は、該計測平面と前記2つの観察点のうちの一方の観察点との間の前記視軸方向の距離を指標する物理量を求めるステップであることが好ましく、あるいは、
前記画像上にあらわれた計測点が強度の情報を有するものであって、
前記計測点の、前記2つの観察点から観察したときの2つの計測位置p,pどうしの間の両眼視差σを第2のパラメータとして設定する第5のステップを有し、
前記第2のステップが、前記第1のステップで設定された、前記計測平面と前記2つの観察点のうちの一方の観察点との間の前記視軸方向の距離を指標する物理量と、前記計測点の前記2つの観察点のうちの一方の観察点から観察したときの計測位置pと、前記第5のステップで設定された前記両眼視差σと、前記無限遠点の位置paxisとを用いて、前記観察平面上の交点pを求めるステップであり、
前記第3のステップが、前記計測点に対応する極線を求めるとともに、該計測点の、前記両眼視差σに対応する応答強度を求め、求められた極線を極線描画空間に描画したときの該極線の軌跡上の各点それぞれに、該極線に対応する計測点の、前記両眼視差σに対応する応答強度を投票するステップであって、
前記計測空間内の複数の計測点について、前記第2のステップと前記第3のステップを、前記第1のステップおよび前記第5のステップで各パラメータの各値を変更しながら複数回繰り返し、
その後実行される第4のステップが、前記交差点を求めることに代わり、前記第1、第5、第2および第3のステップを複数回繰り返す間の投票による値が極大値となる極大点を求めることにより、該極大点の投票に参加した複数の極線に対応する複数の計測点を含む計測平面の方位、及び/又は、該計測平面と前記2つの観察点のうちの一方の観察点との間の前記視軸方向の距離を指標する物理量を求めるステップであることも好ましい形態である。
In this case, the measurement point appearing on the image has intensity information, and the third step obtains the polar line and draws the obtained polar line in the polar drawing space. Voting a value corresponding to the intensity of the measurement point corresponding to the polar line for each point on the trajectory of the polar line, and the fourth step instead of obtaining the intersection, Including a plurality of measurement points corresponding to a plurality of polar lines participating in the voting of the local maximum points by obtaining a local maximum point at which the value by voting becomes a maximum value while repeating the first to third steps a plurality of times Preferably, it is a step of obtaining a physical quantity indicating the orientation of the measurement plane and / or the distance in the visual axis direction between the measurement plane and one of the two observation points, or
Measurement points appearing on the image have intensity information,
The measurement point, a fifth step of setting two measurement positions p R when observed from the two observation points, the binocular parallax σ between and if p L as the second parameter,
The second step is a physical quantity that indicates the distance in the visual axis direction between the measurement plane and one of the two observation points set in the first step; The measurement position p R when observed from one of the two observation points of the measurement point, the binocular parallax σ set in the fifth step, and the position p axis of the infinity point with bets, a step of obtaining an intersection p c on the observation plane,
The third step obtains a polar line corresponding to the measurement point, obtains a response intensity corresponding to the binocular parallax σ of the measurement point, and draws the obtained polar line in the polar drawing space Voting a response intensity corresponding to the binocular parallax σ of a measurement point corresponding to the polar line for each point on the trajectory of the polar line when
For a plurality of measurement points in the measurement space, the second step and the third step are repeated a plurality of times while changing each value of each parameter in the first step and the fifth step,
The fourth step executed thereafter obtains the maximum point where the value obtained by voting becomes the maximum value while repeating the first, fifth, second and third steps a plurality of times instead of obtaining the intersection. Thus, the orientation of the measurement plane including a plurality of measurement points corresponding to the plurality of polar lines participating in the vote of the local maximum point, and / or one observation point of the measurement plane and the two observation points It is also a preferred form that it is a step of obtaining a physical quantity indicating the distance in the visual axis direction between the two.

ここで、上記第17の画像計測方法において、前記第3のステップが、前記位置pを極変換することにより球面上に大円として描かれる極線を求めるステップであることが好ましく、さらには、前記第3のステップが、前記位置pを極変換することにより球面上に大円として描かれ、さらに平面上の円の内部に射影された極線を求めるステップであることがさらに好ましい。あるいは、前記第3のステップが、前記位置pを極変換することにより平面上に直線として描かれる極線を求めるステップであってもよい。 Here, in the image measuring method of the first 17, the third step is preferably a step of obtaining a polar depicted as great circle on a sphere by converting the position p c poles, more the third step is, the drawn as a great circle on a sphere by converting the position p c poles, more preferably a further step of obtaining the polar which is projected inside the circle on the plane. Alternatively, the third step may be a step of obtaining a polar line drawn as a straight line on a plane by subjecting the position pc to polar conversion.

また、上記第17の画像計測方法は、
前記視軸の方向vを第1のパラメータとして設定することにより前記無限遠点の位置paxisを設定する第1のステップと、
前記計測平面と前記2つの観察点のうちの一方の観察点との間の前記視軸方向の距離を指標する物理量を第2のパラメータとして設定する第2のステップと、
前記第1のステップで設定された位置paxisと、前記第2のステップで設定された、前記視軸方向の距離を指標する物理量と、前記計測点の前記2つの観察点それぞれから観察したときの各計測位置p,pあるいは、これら2つの計測位置p,pに代わる、該計測点の、前記2つの観察点のうちの一方の観察点から観察したときの計測位置pおよび該計測点の、前記2つの観察点から観察したときの2つの計測位置p,pどうしの間の両眼視差σとから、前記複比{paxis}あるいは該複比と等価な演算を用いて、該計測点の前記観察平面上の交点の位置pを求める第3のステップと、
前記計測点の、前記観察平面上の交点の位置pを極変換することにより該計測点に対応する極線を求める第4のステップとを有し、
前記計測空間内の複数の計測点について、前記第1から第4までのステップのうちの前記第3のステップと前記第4のステップを、前記第1のパラメータおよび前記第2のパラメータの各値をそれぞれ前記第1のステップおよび前記第2のステップで変更しながら複数回繰り返し、その後、
前記第1から第4までのステップを複数回繰り返す間に求められた複数の極線を前記第1のパラメータの値に応じた複数の極線描画空間のうちのそれぞれ対応する極線描画空間に描画したときの極線どうしの交差点を各極線描画空間ごとに求め該交差点で交わる極線の本数の情報に基づいて真の視軸方向に対応する極線描画空間を選択することにより該真の視軸方向を求めるとともに、該真の視軸方向に対応する極線描画空間について求められた交差点で交わる複数の極線に対応する複数の計測点を含む計測平面の方位、及び/又は、該計測平面と前記2つの観察点のうちの一方の観察点との間の前記視軸方向の距離を指標する物理量を求める第5ステップを実行するものであってもよい。
The seventeenth image measurement method is
A first step of setting the position p axis of the infinity point by setting the direction v of the visual axis as a first parameter;
A second step of setting, as a second parameter, a physical quantity that indicates a distance in the visual axis direction between the measurement plane and one of the two observation points;
When observing from the position p axis set in the first step, the physical quantity indexed in the visual axis direction set in the second step, and the two observation points of the measurement point each measurement position p R of, p L or the two measuring positions p R, replaces the p L, of the measurement point, the measurement position when observed from one of the observation point of said two observation point p R And the binocular parallax σ between the two measurement positions p R and p L when the measurement points are observed from the two observation points, or the cross ratio {p axis p R p L p c } or using said plurality ratio equivalent operation, a third step of determining the position p c of the intersection on the observation plane of the measurement point,
The measurement point, and a fourth step of obtaining a polar corresponding to the measurement point by polar transformation the position p c of the intersection on the observation plane,
For the plurality of measurement points in the measurement space, the third step and the fourth step of the first to fourth steps are changed to values of the first parameter and the second parameter, respectively. Are repeated several times while changing in the first step and the second step, respectively,
A plurality of polar lines obtained while repeating the first to fourth steps a plurality of times are respectively converted into corresponding polar line drawing spaces among a plurality of polar line drawing spaces according to the value of the first parameter. An intersection between polar lines at the time of drawing is obtained for each polar drawing space, and the true line drawing space corresponding to the true visual axis direction is selected based on information on the number of polar lines intersecting at the intersection. And / or the orientation of a measurement plane including a plurality of measurement points corresponding to a plurality of polar lines intersecting at the intersection obtained for the polar drawing space corresponding to the true visual axis direction, and / or The fifth step of obtaining a physical quantity indicating the distance in the visual axis direction between the measurement plane and one of the two observation points may be executed.

その場合に、前記画像上にあらわれた計測点が強度の情報を有するものであって、前記第4のステップが、前記極線を求めるとともに、求められた極線を該極線に対応する極線描画空間に描画したときの該極線の軌跡上の各点それぞれに該極線に対応する計測点の強度に対応する値を投票するステップであり、前記第5のステップが、前記交差点を求めることに代わり、前記第1から第4までのステップを複数回繰り返す間の投票による値が極大値となる極大点を各極線描画空間ごとに求め該極大点における極大値の情報に基づいて前記真の視軸方向に対応する極線描画空間を選択することにより該真の視軸方向を求めるとともに、該真の視軸方向に対応する極線描画空間について求められた極大点の投票に参加した複数の極線に対応する複数の計測点を含む計測平面の方位、及び/又は、該計測平面と前記2つの観察点のうちの一方の観察点との間の前記視軸方向の距離を指標する物理量を求めるステップであることが好ましく、あるいは、
前記画像上にあらわれた計測点が強度の情報を有するものであって、
前記計測点の、前記2つの観察点から観察したときの2つの計測位置p,pどうしの間の両眼視差σを第3のパラメータとして設定する第6のステップを有し、
前記第3のステップが、前記第1のステップで設定された位置paxisと、前記第2のステップで設定された、前記計測平面と前記2つの観察点のうちの一方の観察点との間の前記視軸方向の距離を指標する物理量と、前記計測点の、前記2つの観察点のうちの一方の観察点から観察したときの計測位置pと、前記第5のステップで設定された前記両眼視差σとを用いて、前記観察平面上の交点pを求めるステップであり、
前記第4のステップが、前記計測点に対応する極線を求めるとともに、該計測点の、前記両眼視差σに対応する応答強度を求め、求められた極線を極線描画空間に描画したときの該極線の軌跡上の各点それぞれに、該極線に対応する計測点の、前記両眼視差σに対応する応答強度を投票するステップであって、
前記計測空間内の複数の計測点について、前記第3のステップと前記第4のステップを、前記第1のステップ、前記第2のステップおよび前記第6のステップで各パラメータの各値を変更しながら複数回繰り返し、
その後実行される第5のステップが、前記交差点を求めることに代わり、前記第1、第2、第6、第3および第4のステップを複数回繰り返す間の投票による値が極大値となる極大点を各極線描画空間ごとに求め該極大点における極大値の情報に基づいて前記真の視軸方向に対応する極線描画空間を選択することにより該真の視軸方向を求めるとともに、該真の視軸方向に対応する極線描画空間について求められた極大点の投票に参加した複数の極線に対応する複数の計測点を含む計測平面の方位、及び/又は、該計測平面と前記2つの観察点のうちの一方の観察点との間の前記視軸方向の距離を指標する物理量を求めるステップであることも好ましい形態である。
In this case, the measurement point appearing on the image has intensity information, and the fourth step obtains the polar line, and the obtained polar line corresponds to the polar line. Voting a value corresponding to the intensity of the measurement point corresponding to the polar line for each point on the trajectory of the polar line when drawn in the line drawing space, and the fifth step is a step of voting the intersection. Instead of obtaining the maximum point where the value obtained by voting during the repetition of the first to fourth steps a plurality of times is determined for each polar drawing space, and based on the information on the maximum value at the maximum point. The true visual axis direction is obtained by selecting the polar drawing space corresponding to the true visual axis direction, and the maximum point obtained for the polar drawing space corresponding to the true visual axis direction is voted Duplicate corresponding to multiple participating polar lines A physical quantity indicating the orientation of the measurement plane including the measurement point and / or the distance in the visual axis direction between the measurement plane and one of the two observation points. Is preferred, or
Measurement points appearing on the image have intensity information,
A sixth step of setting a binocular parallax σ between the two measurement positions p R and p L when observed from the two observation points of the measurement point as a third parameter;
The third step is between the position paxis set in the first step and the measurement plane and one of the two observation points set in the second step. A physical quantity indicating a distance in the visual axis direction, a measurement position p R when the measurement point is observed from one of the two observation points, and the fifth step. wherein by using the binocular parallax sigma, a step of obtaining an intersection p c on the observation plane,
In the fourth step, a polar line corresponding to the measurement point is obtained, a response intensity corresponding to the binocular parallax σ of the measurement point is obtained, and the obtained polar line is drawn in the polar drawing space. Voting a response intensity corresponding to the binocular parallax σ of a measurement point corresponding to the polar line for each point on the trajectory of the polar line when
For each of a plurality of measurement points in the measurement space, the third step and the fourth step are changed, and the values of the parameters are changed in the first step, the second step, and the sixth step. While repeating several times,
The fifth step executed thereafter is not the determination of the intersection, but the maximum value obtained by voting while repeating the first, second, sixth, third and fourth steps a plurality of times. A point is obtained for each polar drawing space, and the true visual axis direction is obtained by selecting a polar drawing space corresponding to the true visual axis direction based on the local maximum information at the local maximum point, and The orientation of the measurement plane including a plurality of measurement points corresponding to a plurality of polar lines participating in the voting of the maximum points obtained for the polar drawing space corresponding to the true visual axis direction, and / or the measurement plane and the aforementioned It is also a preferred embodiment that it is a step of obtaining a physical quantity indicating the distance in the visual axis direction between one of the two observation points.

また、本発明の画像計測方法のうちの第18の画像計測方法は、所定の計測空間内の所定の2つの観察点から該計測空間内を眺めたときの画像にあらわれた、該計測空間内の任意の計測点の、前記2つの観察点それぞれから観察したときの各計測位置をそれぞれp,p、前記2つの観察点どうしを結ぶ視軸方向をv、前記計測点を含み、前記視軸方向vと同一方向に延びる直線上の無限遠点の位置をpaxis、前記2つの観察点のうちの一方の観察点を含み、前記計測点を含む計測平面と平行に広がる観察平面上の、前記直線との交点の位置をp、前記計測平面の方位をnとしたとき、
前記4つの位置paxis,p,p,pで決まる複比{paxis}あるいは該複比と等価な演算と、前記計測平面の方位nと前記視軸の方向vとの内積(n・v)とを用いて、前記計測平面の方位n、及び/又は、該計測平面と前記2つの観察点のうちの一方の観察点との間の最短距離を指標する物理量を求めることを特徴とする。
An eighteenth image measurement method of the image measurement methods of the present invention is an image in the measurement space that appears in an image when the measurement space is viewed from two predetermined observation points in the predetermined measurement space. P R , p L , the visual axis direction connecting the two observation points, v, the measurement points when the measurement positions of the arbitrary observation points when observed from the two observation points are respectively included, The position of an infinite point on a straight line extending in the same direction as the visual axis direction v is p axis , including one observation point of the two observation points, and on an observation plane extending in parallel with the measurement plane including the measurement point Where the position of the intersection with the straight line is p c and the orientation of the measurement plane is n s ,
The four positions p axis, p R, p L , cross ratios determined by p c {p axis p R p L p c} or plurality ratio equivalent operations and the visual axis and the orientation n s of the measurement plane by using the inner product of the direction v of the (n s · v), the azimuth n s measurement plane, and / or the shortest between one observation point of the said measurement plane the two observation points It is characterized in that a physical quantity indicating a distance is obtained.

ここで、上記第18の画像計測方法における、前記複比{paxis}あるいは該複比と等価な演算には、前記計測点の、前記2つの観察点から観察したときの2つの計測位置p,pに代えて、前記計測点の、前記2つの観察点のうちの一方の観察点から観察したときの計測位置pと、前記計測点の、前記2つの観察点から観察したときの2つの計測位置p,pどうしの間の位置の差である両眼視差σとを用いる演算が包含される。 Here, in the eighteenth image measurement method, the cross ratio {p axis p R p L p c } or an operation equivalent to the cross ratio is obtained by observing the measurement point from the two observation points. Instead of the two measurement positions p R and p L , the measurement position p R when the measurement point is observed from one of the two observation points and the two measurement points. Computation using binocular parallax σ, which is the difference in position between the two measurement positions p R and p L when observed from the observation point, is included.

上記第18の画像計測方法は、前記最短距離を指標とする物理量として、前記計測平面と前記2つの観察点のうちの一方の観察点との間の最短距離をd、前記計測平面と前記2つの観察点のうちの一方の観察点との間の前記視軸方向の距離をd、前記2つの観察点どうしの間の距離をΔxLRとしたときの、
=d/ΔxLR
であらわされる規格化最短距離を採用し、該規格化最短距離を、
=d/ΔxLR
であらわされる規格化距離と前記内積(n・v)とを用いた、
(n・v)
の関係式を用いて求めるものであることが好ましい。
In the eighteenth image measurement method, as a physical quantity using the shortest distance as an index, the shortest distance between the measurement plane and one of the two observation points is d s , and the measurement plane and the measurement point when the distance of the visual axis direction between one of the observation points of the two observation points were d c, the distance between the each other two observation points and [Delta] x LR,
n d s = d s / Δx LR
The standardized shortest distance n d s expressed by the following formula is adopted, and the standardized shortest distance n d s
n d c = d c / Δx LR
Using the normalized distance n d c expressed by the above and the inner product (n s · v),
n d s = n d c (n s · v)
It is preferable to use the following relational expression.

上記第18の画像計測方法は、
前記最短距離を指標する物理量を第1のパラメータとして設定する第1のステップと、
前記内積(n・v)を第2のパラメータとして設定する第2のステップと、
前記第1のステップで設定された前記最短距離を指標する物理量と、前記第2のステップで設定された内積(n・v)と、前記計測点の前記2つの観察点それぞれから観察したときの各計測位置p,pあるいは、これら2つの計測位置p,pに代わる、該計測点の、前記2つの観察点のうちの一方の観察点から観察したときの計測位置pおよび該計測点の、前記2つの観察点から観察したときの2つの計測位置p,pどうしの間の両眼視差σと、前記無限遠点の位置paxisとから、前記複比{paxis}あるいは該複比と等価な演算を用いて、前記観察平面上の交点の位置pを求める第3のステップと、
前記観察平面上の交点の位置pを極変換することにより該位置pに対応する極線を求める第4のステップと、
前記極線上の点であって、かつ前記視軸の方向vと角度
r=cos−1(n・v)
を成す点を求める第5のステップとを有し、
前記計測空間内の複数の計測点について、前記第1から第5のステップのうちの前記第3から第5までのステップを、前記第1のパラメータおよび前記第2のパラメータの各値をそれぞれ前記第1のステップおよび前記第2のステップで変更しながら複数回繰り返すことにより、前記第5のステップの、1つの計測点に関する、前記第1のパラメータの値が同一であって、かつ前記第2のパラメータの値がそれぞれ異なる複数回の実行により求められる複数の点を結ぶ曲線を、前記第1のパラメータの各値ごとに前記複数の計測点について求め、その後、
前記第1から第5のステップを複数回繰り返す間に求められた複数の曲線を曲線描画空間に描画したときの曲線どうしの交差点を求めることにより、該交差点で交わる複数の曲線に対応する複数の計測点を含む計測平面の方位n、及び/又は、該計測平面と前記2つの観察点のうちの一方の観察点との間の最短距離を指標する物理量を求める第6のステップを実行するものであってもよく、
その場合に、前記画像上にあらわれた計測点が強度の情報を有するものであって、前記第5のステップが、前記点を求めるとともに、該点に対応する計測点の強度に対応する値を該点に対応する、前記曲線描画空間内の点に投票するステップであり、前記第6のステップが、前記交差点を求めることに代わり、前記第1から第5までのステップを複数回繰り返す間の投票による値が極大値となる極大点を求めることにより、該極大点の投票に参加した複数の曲線に対応する複数の計測点を含む計測平面の方位n、及び/又は、該計測平面と前記2つの観察点のうちの一方の観察点との間の最短距離を指標する物理量を求めるステップであることが好ましく、あるいは、
前記画像上にあらわれた計測点が強度の情報を有するものであって、
前記計測点の、前記2つの観察点から観察したときの2つの計測位置p,pどうしの間の両眼視差σを第3のパラメータとして設定する第7のステップを有し、
前記第3のステップが、前記第1のステップで設定された、前記最短距離を指標する物理量と、前記第2のステップで設定された内積(n・v)と、前記計測点の、前記2つの観察点のうちの一方の観察点から観察したときの計測位置pと、前記第7のステップで設定された前記両眼視差σと、前記無限遠点の位置paxisとを用いて、前記観察平面上の交点の位置pを求めるステップであり、
前記第5のステップが、前記計測点に対応する極線上の前記点を求めるとともに、該計測点の、前記両眼視差σに対応する応答強度を求め、該極線上の前記点に対応する計測点の、前記両眼視差σに対応する応答強度を、該極線上の前記点に対応する、前記曲線描画空間内の点に投票するステップであって、
前記計測空間内の複数の計測点について、前記第3から第5までのステップを、前記第1、第2、および第7のステップで各パラメータの各値を変更しながら複数回繰り返し、
その後実行される前記第6のステップが、前記交差点を求めることに代わり、前記第1、第2、第7および前記第3から第5までのステップを複数回繰り返す間の投票による値が極大値となる極大点を求めることにより、該極大点の投票に参加した複数の曲線に対応する複数の計測点を含む計測平面の方位n、及び/又は、該計測平面と前記2つの観察点のうちの一方の観察点との間の最短距離を指標する物理量を求めるステップであることも好ましい態様である。
The eighteenth image measurement method is
A first step of setting a physical quantity indicating the shortest distance as a first parameter;
A second step of setting the inner product ( ns / v) as a second parameter;
When observing from each of the two observation points of the measurement point, the physical quantity indicating the shortest distance set in the first step, the inner product ( ns / v) set in the second step each measurement position p R of, p L or the two measuring positions p R, replaces the p L, of the measurement point, the measurement position when observed from one of the observation point of said two observation point p R And the binocular parallax σ between the two measurement positions p R and p L when observed from the two observation points and the position p axis of the infinity point of the measurement point. with p axis p R p L p c } or plurality ratio equivalent operation, a third step of determining the position p c of the intersection on the observation plane,
A fourth step of obtaining the polar corresponding to the position p c by polar transformation the position p c of the intersection on the observation plane,
The point on the polar line, and the direction v and angle of the visual axis r = cos −1 (n s · v)
And a fifth step for obtaining a point comprising
For a plurality of measurement points in the measurement space, the third to fifth steps of the first to fifth steps are set as the respective values of the first parameter and the second parameter. By repeating a plurality of times while changing in the first step and the second step, the value of the first parameter relating to one measurement point in the fifth step is the same, and the second step A curve connecting a plurality of points obtained by a plurality of executions with different values of the parameter is obtained for each of the plurality of measurement points for each value of the first parameter;
A plurality of curves corresponding to a plurality of curves intersecting at the intersection are obtained by obtaining intersections between the curves when the plurality of curves obtained while repeating the first to fifth steps a plurality of times are drawn in the curve drawing space. A sixth step of obtaining a physical quantity indicating the orientation n s of the measurement plane including the measurement point and / or the shortest distance between the measurement plane and one of the two observation points is executed. May be,
In that case, the measurement point appearing on the image has intensity information, and the fifth step obtains the point and sets a value corresponding to the intensity of the measurement point corresponding to the point. Voting for a point in the curve drawing space corresponding to the point, wherein the sixth step repeats the first to fifth steps a plurality of times instead of obtaining the intersection by obtaining the maximum point value by vote becomes the maximum value, azimuth n s measurement plane including a plurality of measurement points corresponding to a plurality of curves participated in the vote of ultra large point, and / or, and the measurement plane Preferably, it is a step of obtaining a physical quantity that indicates the shortest distance between one of the two observation points, or
Measurement points appearing on the image have intensity information,
A seventh step of setting a binocular parallax σ between the two measurement positions p R and p L when observed from the two observation points of the measurement point as a third parameter;
In the third step, the physical quantity indexed in the shortest distance set in the first step, the inner product ( ns / v) set in the second step, and the measurement point, Using the measurement position p R when observing from one of the two observation points, the binocular parallax σ set in the seventh step, and the position p axis of the infinity point a step of determining the position p c of the intersection on the observation plane,
The fifth step obtains the point on the polar line corresponding to the measurement point, obtains the response intensity of the measurement point corresponding to the binocular parallax σ, and measures the point corresponding to the point on the polar line Voting a response intensity of a point corresponding to the binocular disparity σ to a point in the curve drawing space corresponding to the point on the polar line,
For a plurality of measurement points in the measurement space, the third to fifth steps are repeated a plurality of times while changing each value of each parameter in the first, second, and seventh steps,
Instead of obtaining the intersection, the sixth step to be executed thereafter is a maximum value obtained by voting while repeating the first, second, seventh and third to fifth steps a plurality of times. Is obtained by obtaining the azimuth n s of the measurement plane including a plurality of measurement points corresponding to the plurality of curves that participated in the vote of the maximum point and / or the measurement plane and the two observation points. It is also a preferable aspect that it is a step of obtaining a physical quantity indicating the shortest distance between one of the observation points.

この場合において、前記第5のステップが、該第5のステップの繰り返しにより求められる、1つの計測点に関する複数の点を結ぶ曲線として、球面上に描かれる曲線を求めるステップであることが好ましく、さらには、前記第5のステップが、該第5のステップの繰り返しにより求められる、1つの計測点に関する複数の点を結ぶ曲線として、球面上に描かれ、さらに平面上の円の内部に射影された曲線を求めることがさらに好ましい。   In this case, it is preferable that the fifth step is a step of obtaining a curve drawn on a spherical surface as a curve connecting a plurality of points related to one measurement point obtained by repeating the fifth step. Further, the fifth step is drawn on a spherical surface as a curve connecting a plurality of points related to one measurement point, which is obtained by repeating the fifth step, and is further projected into a circle on the plane. More preferably, the obtained curve is obtained.

また、上記第18の画像計測方法は、
前記視軸方向vを第1のパラメータとして設定することにより前記無限遠点の位置paxisを設定する第1のステップと、
前記最短距離を指標する物理量を第2のパラメータとして設定する第2のステップと、
前記内積(n・v)を第3のパラメータとして設定する第3のステップと、
前記第1のステップで設定された、前記無限遠点の位置paxisと、前記第2のステップで設定された、前記最短距離を指標する物理量と、前記第3のステップで設定された内積(n・v)と、前記計測点の前記2つの観察点それぞれから観察したときの各計測位置p,pあるいは、これら2つの計測位置p,pに代わる、該計測点の、前記2つの観察点のうちの一方の観察点から観察したときの計測位置pおよび該計測点の、前記2つの観察点から観察したときの2つの計測位置p,pどうしの間の両眼視差σとから、前記複比{paxis}あるいは該複比と等価な演算を用いて、前記観察平面上の交点の位置pを求める第4のステップと、
前記観察平面上の交点の位置pを極変換することにより該位置pに対応する極線を求める第5のステップと、
前記極線上の点であって、かつ前記視軸の方向vと角度
r=cos−1(n・v)
を成す点を求める第6のステップとを有し、
前記計測空間内の複数の計測点について、前記第1から第6のステップのうちの前記第4から第6までのステップを、前記第1から第3までのパラメータの各値を、それぞれ前記第1から第3までの各ステップで変更しながら複数回繰り返すことにより、前記第6のステップの、1つの計測点に関する、前記第1のパラメータの値が同一であるとともに前記第2のパラメータの値が同一であって、かつ前記第3のパラメータの値がそれぞれ異なる複数回の実行により求められる複数の点を結ぶ曲線を、前記第1のパラメータの各値と前記第2のパラメータの各値との各組合せごとに前記複数の計測点について求め、その後、
前記第1から第6までのステップを複数回繰り返す間に求められた複数の曲線を前記第1のパラメータの値に応じた複数の曲線描画空間のうちのそれぞれ対応する曲線描画空間に描画したときの曲線どうしの交差点を各曲線描画空間ごとに求め該交差点で交わる曲線の本数の情報に基づいて真の視軸方向に対応する曲線描画空間を選択することにより該真の視軸方向を求めるとともに、該真の視軸方向に対応する曲線描画空間について求められた交差点で交わる複数の曲線に対応する複数の計測点を含む計測平面の方位n、及び/又は、該計測平面と前記2つの観察点のうちの一方の観察点との間の最短距離を指標する物理量を求める第7のステップを実行するものであってもよく、
その場合に、前記画像上にあらわれた計測点が強度の情報を有するものであって、前記第6のステップが、前記点を求めるとともに、該点に対応する計測点の強度に対応する値を該点に対応する、該点を含む曲線が描かれる曲線描画空間内の点に投票するステップであり、前記第7のステップが、前記交差点を求めることに代わり、前記第1から第6までのステップを複数回繰り返す間の投票による値が極大値となる極大点を各曲線描画空間ごとに求め該極大点における極大値の情報に基づいて前記真の視軸方向に対応する曲線描画空間を選択することにより該真の視軸方向を求めるとともに、該真の視軸方向に対応する曲線描画空間について求められた極大点の投票に参加した複数の曲線に対応する複数の計測点を含む計測平面の方位n、及び/又は、該計測平面と前記2つの観察点のうちの一方の観察点との間の最短距離を指標する物理量を求めるステップであることが好ましく、あるいは、
前記画像上にあらわれた計測点が強度の情報を有するものであって、
前記計測点の、前記2つの観察点から観察したときの2つの計測位置p,pどうしの間の両眼視差σを第4のパラメータとして設定する第8のステップを有し、
前記第4のステップが、前記第1のステップで設定された、前記無限遠点の位置paxisと、前記第2のステップで設定された、前記最短距離を指標する物理量と、前記第3のステップで設定された内積(n・v)と、前記計測点の、前記2つの観察点のうちの一方の観察点から観察したときの計測位置pと、前記第8のステップで設定された前記両眼視差σとを用いて、前記観察平面上の交点の位置pを求めるステップであり、
前記第6のステップが、前記計測点に対応する極線上の前記点を求めるとともに、該計測点の、前記両眼視差σに対応する応答強度を求め、該極線上の前記点に対応する計測点の、前記両眼視差σに対応する応答強度を、該極線上の前記点に対応する、前記曲線描画空間内の点に投票するステップであって、
前記計測空間内の複数の計測点について、前記第4から第6までのステップを、前記第1、第2、第3および第8のステップで各パラメータの各値を変更しながら複数回繰り返し、
その後実行される前記第7のステップが、前記交差点を求めることに代わり、前記第1、第2、第3、第8および前記第4から第6までのステップを複数回繰り返す間の投票による値が極大値となる極大点を各曲線描画空間ごとに求め該極大点における極大値の情報に基づいて前記真の視軸方向に対応する曲線描画空間を選択することにより該真の視軸方向を求めるとともに、該真の視軸方向に対応する曲線描画空間について求められた極大点の投票に参加した複数の曲線に対応する複数の計測点を含む計測平面の方位n、及び/又は、該計測平面と前記2つの観察点のうちの一方の観察点との間の最短距離を指標する物理量を求めるステップであることも好ましい態様である。
The eighteenth image measurement method is as follows.
A first step of setting the position p axis of the infinity point by setting the visual axis direction v as a first parameter;
A second step of setting a physical quantity indicative of the shortest distance as a second parameter;
A third step of setting the inner product ( ns / v) as a third parameter;
The position p axis of the infinity point set in the first step, the physical quantity indicating the shortest distance set in the second step, and the inner product set in the third step ( n s · v) and each of the measurement points p R and p L when observed from each of the two observation points of the measurement point, or the measurement points instead of these two measurement positions p R and p L , The measurement position p R when observed from one of the two observation points and the two measurement positions p R and p L when observed from the two observation points. and a binocular parallax sigma, a fourth step of using the double ratio {p axis p R p L p c} or plurality ratio equivalent calculation to determine the position p c of the intersection on the observation plane,
A fifth step of obtaining a polar corresponding to the position p c by polar transformation the position p c of the intersection on the observation plane,
The point on the polar line, and the direction v and angle of the visual axis r = cos −1 (n s · v)
And a sixth step for obtaining a point comprising
For the plurality of measurement points in the measurement space, the fourth to sixth steps of the first to sixth steps, the respective values of the first to third parameters, respectively, By repeating a plurality of times while changing in each step from 1 to 3, the value of the first parameter and the value of the second parameter are the same for one measurement point in the sixth step. Are the same, and a curve connecting a plurality of points obtained by a plurality of executions with different values of the third parameter is represented by each value of the first parameter and each value of the second parameter. For each of the combinations, the plurality of measurement points is obtained, and then
When a plurality of curves obtained while repeating the first to sixth steps a plurality of times are drawn in the corresponding curve drawing spaces among the plurality of curve drawing spaces according to the value of the first parameter. Obtaining the true visual axis direction by selecting the curve drawing space corresponding to the true visual axis direction based on the information on the number of curves intersecting at the intersection. Azimuth n s of the measurement plane including a plurality of measurement points corresponding to a plurality of curves intersecting at the intersection obtained with respect to the curve drawing space corresponding to the true visual axis direction, and / or the measurement plane and the two The seventh step of obtaining a physical quantity indicating the shortest distance between one of the observation points may be performed,
In this case, the measurement point appearing on the image has intensity information, and the sixth step obtains the point and sets a value corresponding to the intensity of the measurement point corresponding to the point. Voting for a point in the curve drawing space corresponding to the point in which a curve including the point is drawn, wherein the seventh step is to replace the first to sixth in place of obtaining the intersection A maximum point where the value obtained by voting during a plurality of steps is maximized is obtained for each curve drawing space, and a curve drawing space corresponding to the true visual axis direction is selected based on information on the maximum value at the maximum point. And a measurement plane including a plurality of measurement points corresponding to a plurality of curves that participated in the voting of the maximum points obtained for the curve drawing space corresponding to the true visual axis direction. Direction ns And / or is preferably a step of obtaining a physical quantity indicating the shortest distance between the measurement plane and one of the two observation points, or
Measurement points appearing on the image have intensity information,
An eighth step of setting binocular parallax σ between the two measurement positions p R and p L when observed from the two observation points of the measurement point as a fourth parameter;
The fourth step includes the position p axis of the infinity point set in the first step, the physical quantity indicating the shortest distance set in the second step, and the third step. The inner product ( ns · v) set in step, the measurement position p R when the measurement point is observed from one of the two observation points, and the eighth step. wherein by using the binocular parallax σ was a step of determining a position p c of the intersection on the observation plane,
The sixth step obtains the point on the polar line corresponding to the measurement point, obtains the response intensity of the measurement point corresponding to the binocular parallax σ, and measures the point corresponding to the point on the polar line Voting a response intensity of a point corresponding to the binocular disparity σ to a point in the curve drawing space corresponding to the point on the polar line,
For a plurality of measurement points in the measurement space, the steps from the fourth to the sixth are repeated a plurality of times while changing each value of each parameter in the first, second, third and eighth steps,
Instead of obtaining the intersection, the seventh step executed thereafter is a value obtained by voting while repeating the first, second, third, eighth, and fourth to sixth steps a plurality of times. Is determined for each curve drawing space by selecting a curve drawing space corresponding to the true visual axis direction based on information on the maximum value at the local maximum point. And azimuth n s of a measurement plane including a plurality of measurement points corresponding to a plurality of curves that participated in the voting of the maximum points obtained for the curve drawing space corresponding to the true visual axis direction, and / or It is also a preferred aspect that it is a step of obtaining a physical quantity that indicates the shortest distance between the measurement plane and one of the two observation points.

また、本発明の画像計測方法のうちの第19の画像計測方法は、所定の計測空間内の所定の2つの観察点から該計測空間内を眺めたときの画像にあらわれた、該計測空間内の任意の計測点の、前記2つの観察点それぞれから観察したときの各計測位置をそれぞれp,p、前記2つの観察点どうしを結ぶ視軸方向をv、前記計測点を含み、前記2つの視軸と同一方向に延びる直線上の無限遠点の位置をpaxisとしたとき、
前記3つの位置paxis,p,pで決まる単比(paxis)あるいは該単比と等価な演算を用いて、前記計測平面の方位、及び/又は、該計測平面と前記2つの観察点のうちの一方の観察点との間の最短距離を指標する物理量を求めることを特徴とする。
In addition, a nineteenth image measurement method of the image measurement methods of the present invention is an image in the measurement space that appears in an image when the measurement space is viewed from two predetermined observation points in the predetermined measurement space. Each of the measurement points when observed from each of the two observation points p R and p L , the visual axis direction connecting the two observation points v, and the measurement point, When the position of an infinite point on a straight line extending in the same direction as the two visual axes is p axis ,
Using a single ratio determined by the three positions p axis , p R , and p L (p axis p R p L ) or an operation equivalent to the single ratio, the orientation of the measurement plane and / or the measurement plane A physical quantity indicating the shortest distance between one of the two observation points is obtained.

ここで、上記の第19の画像計測方法における、前記単比(paxis)あるいは該単比と等価な演算には、前記計測点の、前記2つの観察点から観察したときの2つの計測位置p,pに代えて、前記計測点の、前記2つの観察点のうちの一方の観察点から観察したときの計測位置pと、前記計測点の、前記2つの観察点から観察したときの2つの計測位置p,pどうしの間の位置の差である両眼視差σとを用いる演算が包含される。 Here, in the nineteenth image measurement method, the unit ratio (p axis p R p L ) or an operation equivalent to the unit ratio is obtained when the measurement point is observed from the two observation points. Instead of the two measurement positions p R and p L , the measurement position p R when the measurement point is observed from one of the two observation points, and the two observations of the measurement point Calculations using binocular parallax σ, which is the difference in position between the two measurement positions p R and p L when observed from a point, are included.

上記第19の画像計測方法は、前記各位置paxis,p,pとして球面上に写影された各位置を採用すると共に、前記最短距離を指標する物理量として、前記計測平面と前記2つの観察点のうちの一方の観察点との間の最短距離をd、2つの観察点どうしの間の距離をΔxLRとしたときの、
=d/ΔxLR
であらわされる規格化最短距離を採用し、
前記規格化最短距離をパラメータとして設定する第1のステップと、
前記第1のステップで設定された規格化最短距離と、単比(paxis)あるいは該単比と等価な演算とを用いて、
R=cos−1/(paxis))
なる関係式あるいは該関係式と等価な関係式で規定される半径Rをを求める第2のステップと、
前記2つの観察点のうちの一方の観察点から観察したときの前記計測点の計測位置を中心とした半径Rの小円を求める第3のステップとを有し、
前記計測空間内の複数の計測点について、前記第2のステップと前記第3のステップを、前記パラメータを前記第1のステップで変更しながら複数回繰り返し、その後、
前記第1から第3までのステップを複数回繰り返す間に求められた複数の小円を小円描画空間に描画したときの小円どうしの交差点を求めることにより、該交差点で交わる複数の小円に対応する複数の計測点を含む計測平面の方位nso、及び/又は、該計測平面についての規格化最短距離s0を求める第4ステップを実行するものであってもよく、
その場合に、前記画像上にあらわれた計測点が強度の情報を有するものであって、前記第3のステップが、前記小円を求めるとともに、求められた小円を小円描画空間に描画したときの該小円の軌跡上の各点それぞれに該小円に対応する計測点の強度に対応する値を投票するステップであり、前記第4のステップが、前記交差点を求めることに代わり、前記第1から第3までのステップを複数回繰り返す間の投票による値が極大値となる極大点を求めることにより、該極大点の投票に参加した複数の小円に対応する複数の計測点を含む計測平面の方位nso、及び/又は、該計測平面についての規格化最短距離s0を求めるステップであることが好ましく、あるいは、
前記画像上にあらわれた計測点が強度の情報を有するものであって、
前記計測点の前記2つの観察点から観察したときの2つの計測位置p,pどうしの間の両眼視差σを第2のパラメータとして設定する第5のステップを有し、
前記第2のステップが、前記第1のステップで設定された規格化最短距離と、前記無限遠点の位置paxisと、該計測点の、前記2つの観察点のうちの一方の観察点から観察したときの計測位置pと、前記第5のステップで設定された前記両眼視差σとを用いて、前記半径Rを求めるステップであり、
前記第3のステップが、前記計測点に対応する前記小円を求めるとともに、該計測点の、前記両眼視差σに対応する応答強度を求め、求められた小円を小円描画空間に描画したときの該小円の軌跡上の各点それぞれに該小円に対応する計測点の、前記両眼視差に対応する応答強度を投票するステップであり、
前記計測空間内の複数の計測点について、前記第2のステップと前記第3のステップを、前記第1のステップおよび前記第5のステップで各パラメータの各値を変更しながら複数回繰り返し、
その後実行される前記第4のステップが、前記交差点を求めることに代わり、前記第1、第5、第2および第3のステップを複数回繰り返す間の投票による値が極大値となる極大点を求めることにより、該極大点の投票に参加した複数の小円に対応する複数の計測点を含む計測平面の方位nso、及び/又は、該計測平面についての規格化最短距離s0を求めるステップであることも好ましい態様である。
In the nineteenth image measurement method, each position projected on a spherical surface is adopted as each of the positions p axis , p R , and p L , and the measurement plane and the 2 are used as physical quantities indicating the shortest distance. When the shortest distance between one of the two observation points is d s and the distance between the two observation points is Δx LR ,
n d s = d s / Δx LR
In adopting the normalized shortest distance n d s represented,
A first step of setting the normalized shortest distance n d s as a parameter;
Using the normalized shortest distance n d s set in the first step and a simple ratio (p axis p R p L ) or an operation equivalent to the simple ratio,
R = cos −1 ( n d s / (p axis p R p L ))
A second step for obtaining a radius R defined by the following relational expression or a relational expression equivalent to the relational expression:
A third step of obtaining a small circle with a radius R centered on the measurement position of the measurement point when observed from one of the two observation points;
For a plurality of measurement points in the measurement space, the second step and the third step are repeated a plurality of times while changing the parameters in the first step, and then
A plurality of small circles intersecting at the intersections by obtaining intersections between the small circles when the plurality of small circles obtained while repeating the first to third steps a plurality of times are drawn in the small circle drawing space. The fourth step of obtaining the orientation n so of the measurement plane including a plurality of measurement points corresponding to and / or the normalized shortest distance n d s0 for the measurement plane may be performed,
In this case, the measurement point appearing on the image has intensity information, and the third step obtains the small circle and draws the obtained small circle in the small circle drawing space. Voting a value corresponding to the intensity of the measurement point corresponding to the small circle for each point on the trajectory of the small circle, and the fourth step instead of obtaining the intersection, Including a plurality of measurement points corresponding to a plurality of small circles that participated in the voting of the local maximum by obtaining a local maximum at which the value obtained by voting becomes a local maximum while repeating the first to third steps a plurality of times orientation n so the measurement plane, and / or is preferably a step of obtaining a normalized shortest distance n d s0 for the measurement plane, or,
Measurement points appearing on the image have intensity information,
A fifth step of setting, as a second parameter, binocular parallax σ between the two measurement positions p R and p L when observed from the two observation points of the measurement points;
In the second step, the normalized shortest distance n d s set in the first step, the position p axis of the infinity point, and one of the two observation points of the measurement point Using the measurement position p 0 when observed from the observation point and the binocular parallax σ set in the fifth step, to determine the radius R;
The third step obtains the small circle corresponding to the measurement point, obtains the response intensity corresponding to the binocular parallax σ of the measurement point, and draws the obtained small circle in the small circle drawing space Voting the response intensity corresponding to the binocular parallax of the measurement point corresponding to the small circle for each point on the trajectory of the small circle when
For a plurality of measurement points in the measurement space, the second step and the third step are repeated a plurality of times while changing each value of each parameter in the first step and the fifth step,
The fourth step executed thereafter is not the determination of the intersection, but the maximum point at which the value by voting becomes a maximum value while repeating the first, fifth, second and third steps a plurality of times. By obtaining the azimuth n so of the measurement plane including a plurality of measurement points corresponding to the plurality of small circles participating in the voting of the local maximum point, and / or the normalized shortest distance n d s0 for the measurement plane is obtained. It is also a preferred embodiment that it is a step.

また、前記第3のステップが、半径Rの小円を前記球面上に求め、さらに該球面上の小円が平面上の円の内部に射影されてなる小円を求めるステップであることが好ましい。   Preferably, the third step is a step of obtaining a small circle having a radius R on the spherical surface, and further obtaining a small circle obtained by projecting the small circle on the spherical surface into a circle on the plane. .

また、上記第19の画像計測方法は、前記各位置paxis,p,pとして球面上に写影された各位置を採用すると共に、前記最短距離を指標する物理量として、前記計測平面と前記2つの観察点のうちの一方の観察点との間の最短距離をd、前記2つの観察点どうしの間の距離をΔxLRとしたときの、
=d/ΔxLR
であらわされる規格化最短距離を採用し、
前記視軸方向vを第1のパラメータとして設定することにより前記無限遠点の位置paxisを設定する第1のステップと、
前記規格化最短距離を第2のパラメータとして設定する第2のステップと、
前記第1のステップで設定された、前記無限遠点の位置paxisと、前記第2のステップで設定された規格化最短距離と、単比(paxis)あるいは該単比と等価な演算とを用いて、
R=cos−1/(paxis))
なる関係式あるいは該関係式と等価な関係式で規定される半径Rを求める第3のステップと、
前記2つの観察点のうちの一方の観察点とから観察したときの前記計測点の計測位置を中心とした半径Rの小円を求める第4のステップとを有し、
前記計測空間内の複数の計測点について、前記第3のステップと前記第4のステップを、前記第1のパラメータおよび前記第2のパラメータの各値をそれぞれ前記第1のステップおよび前記第2のステップで変更しながら複数回繰り返し、その後、
前記第1から第4までのステップを複数回繰り返す間に求められた複数の小円を前記第1のパラメータの値に応じた複数の小円描画空間のうちのそれぞれ対応する小円描画空間に描画したときの小円どうしの交差点を各小円描画空間ごとに求め該交差点で交わる小円の本数の情報に基づいて真の視軸方向に対応する小円描画空間を選択することにより該真の視軸方向を求めるとともに、該真の視軸方向に対応する小円描画空間について求められた交差点で交わる複数の小円に対応する複数の計測点を含む計測平面の方位nso、及び/又は、該計測平面についての規格化最短距離s0を求める第5のステップを実行するものであってもよく、
その場合に、前記画像上にあらわれた計測点が強度の情報を有するものであって、前記第4のステップが、前記小円を求めるとともに、求められた小円を該小円に対応する小円描画空間に描画したときの該小円の軌跡上の各点それぞれに該小円に対応する計測点の強度に対応する値を投票するステップであり、前記第5のステップが、前記交差点を求めることに代わり、前記第1から第4までのステップを複数回繰り返す間の投票による値が極大値となる極大点を各小円描画空間ごとに求め該極大点における極大値の情報に基づいて前記真の視軸方向に対応する小円描画空間を選択することにより該真の視軸方向を求めるとともに、該真の視軸方向に対応する小円描画空間について求められた極大点の投票に参加した複数の小円に対応する複数の計測点を含む計測平面の方位nso、及び/又は、該計測平面についての規格化最短距離s0を求めるステップであることが好ましく、あるいは、
前記画像上にあらわれた計測点が強度の情報を有するものであって、
前記計測点の前記2つの観察点から観察したときの2つの計測位置p,pどうしの間の両眼視差σを第3のパラメータとして設定する第6のステップを有し、
前記第2のステップが、前記第1のステップで設定された、前記無限遠点の位置paxisと、前記第2のステップで設定された規格化最短距離と、該計測点の、前記2つの観察点のうちの一方の観察点から観察したときの計測位置pと、前記第5のステップで設定された前記両眼視差σとを用いて、前記半径Rを求めるステップであり、
前記第4のステップが、前記計測点に対応する前記小円を求めるとともに、該計測点の、前記両眼視差σに対応する応答強度を求め、求められた小円を該小円に対応する小円描画空間に描画したときの該小円の軌跡上の各点それぞれに該小円に対応する計測点の、前記両眼視差σに対応する応答強度を投票するステップであり、
前記計測空間内の複数の計測点について、前記第3のステップと前記第4のステップを、前記第1、第2および第6のステップで各パラメータの各値を変更しながら複数回繰り返し、
その後実行される前記第5のステップが、前記交差点を求めることに代わり、前記第1、第2、第6、第3および第4のステップを複数回繰り返す間の投票による値が極大値となる極大点を各小円描画空間ごとに求め該極大点における極大値の情報に基づいて前記真の視軸方向に対応する小円描画空間を選択することにより該真の視軸方向を求めるとともに、該真の視軸方向に対応する小円描画空間について求められた極大点の投票に参加した複数の小円に対応する複数の計測点を含む計測平面の方位nso、及び/又は、該計測平面についての規格化最短距離s0を求めるステップであることも好ましい態様である。
The nineteenth image measurement method employs each position projected on a spherical surface as each position p axis , p R , and p L , and uses the measurement plane as a physical quantity indicating the shortest distance. When the shortest distance between one of the two observation points is d s and the distance between the two observation points is Δx LR ,
n d s = d s / Δx LR
In adopting the normalized shortest distance n d s represented,
A first step of setting the position p axis of the infinity point by setting the visual axis direction v as a first parameter;
A second step of setting the normalized shortest distance n d s as a second parameter;
The position p axis of the infinity point set in the first step, the normalized shortest distance n d s set in the second step, and a simple ratio (p axi p R p L ) or the Using simple ratio and equivalent operations,
R = cos −1 ( n d s / (p axis p R p L ))
A third step for obtaining a radius R defined by the following relational expression or a relational expression equivalent to the relational expression:
A fourth step of obtaining a small circle having a radius R around the measurement position of the measurement point when observed from one of the two observation points;
For the plurality of measurement points in the measurement space, the third step and the fourth step are performed, and the values of the first parameter and the second parameter are respectively set to the first step and the second step. Repeat multiple times while changing in steps, then
A plurality of small circles obtained while repeating the first to fourth steps a plurality of times are respectively transferred to corresponding small circle drawing spaces among the plurality of small circle drawing spaces according to the value of the first parameter. The intersection between the small circles at the time of drawing is obtained for each small circle drawing space, and the true circle is selected by selecting the small circle drawing space corresponding to the true visual axis direction based on the information on the number of small circles intersecting at the intersection. And the orientation n so of the measurement plane including a plurality of measurement points corresponding to a plurality of small circles intersecting at the intersection obtained for the small circle drawing space corresponding to the true visual axis direction, and / or Alternatively, the fifth step of obtaining the normalized shortest distance n d s0 for the measurement plane may be performed.
In this case, the measurement point appearing on the image has intensity information, and the fourth step obtains the small circle, and the obtained small circle corresponds to the small circle. Voting a value corresponding to the intensity of the measurement point corresponding to the small circle for each point on the trajectory of the small circle when drawn in a circle drawing space, and the fifth step is for locating the intersection. Instead of obtaining, a local maximum point at which the value by voting during the first to fourth steps is repeated a plurality of times is determined for each small circle drawing space, and based on the local maximum information at the local maximum point. The true visual axis direction is obtained by selecting the small circle drawing space corresponding to the true visual axis direction, and the maximum point obtained for the small circle drawing space corresponding to the true visual axis direction is voted The compound corresponding to the participating small circles Orientation n so the measurement plane including a measurement point, and / or is preferably a step of obtaining a normalized shortest distance n d s0 for the measurement plane, or,
Measurement points appearing on the image have intensity information,
A sixth step of setting a binocular parallax σ between the two measurement positions p R and p L when observed from the two observation points of the measurement point as a third parameter;
In the second step, the position p axis of the infinity point set in the first step, the normalized shortest distance n d s set in the second step, and the measurement point The step of obtaining the radius R using the measurement position p R when observed from one of the two observation points and the binocular parallax σ set in the fifth step. ,
The fourth step obtains the small circle corresponding to the measurement point, obtains a response intensity corresponding to the binocular parallax σ of the measurement point, and corresponds the obtained small circle to the small circle. Voting the response intensity corresponding to the binocular parallax σ of the measurement point corresponding to the small circle for each point on the trajectory of the small circle when drawn in the small circle drawing space;
For a plurality of measurement points in the measurement space, the third step and the fourth step are repeated a plurality of times while changing each value of each parameter in the first, second and sixth steps,
Subsequent to the fifth step being executed, instead of obtaining the intersection, the value obtained by voting during the repetition of the first, second, sixth, third and fourth steps becomes a maximum value. A local maximum point is determined for each small circle drawing space, and the true visual axis direction is determined by selecting a small circular drawing space corresponding to the true visual axis direction based on local maximum information at the local maximum point. Direction n so of a measurement plane including a plurality of measurement points corresponding to a plurality of small circles that participated in the voting of local maximum points obtained for the small circle drawing space corresponding to the true visual axis direction, and / or the measurement It is also a preferred aspect that it is a step of obtaining the normalized shortest distance n d s0 for the plane.

さらに、本発明の画像計測方法のうちの第20の画像計測方法は、所定の計測空間内の所定の2つの観察点から該計測空間内を眺めたときの画像にあらわれた、該計測空間内の任意の計測点の、前記2つの観察点それぞれから観察したときの各計測位置をそれぞれp,p、前記計測点を含み、前記2つの観察点どうしを結ぶ視軸方向vと同一の方向に延びる直線上の無限遠点の位置をpaxisとしたとき、
前記3つの位置paxis,p,p,で決まる単比(paxis)あるいは該単比と等価な演算を用いて、前記計測点と、前記2つの観察点のうちの一方の観察点との間の距離を指標する物理量を求めることを特徴とする。
Furthermore, a twentieth image measurement method of the image measurement methods of the present invention is an image in the measurement space that appears in an image when the measurement space is viewed from two predetermined observation points in the predetermined measurement space. The measurement positions of any of the measurement points when observed from each of the two observation points are p R , p L , and include the measurement points, respectively, and are the same as the visual axis direction v connecting the two observation points. When the position of the infinity point on the straight line extending in the direction is p axis ,
The three positions p axis, using p R, p L, single-ratio determined by the (p axis p R p L) or single-ratio and equivalent operation, and the measuring point, one of the two observation points It is characterized in that a physical quantity indicating the distance between one observation point is obtained.

ここで、第20の画像計測方法における、前記単比(paxis)あるいは該単比と等価な演算には、前記計測点の、前記2つの観察点それぞれから観察したときの2つの計測位置p,pに代えて、前記計測点の、前記2つの観察点のうちの一方の観察点から観察したときの計測位置pと、前記計測点の、前記2つの観察点から観察したときの2つの計測位置p,pどうしの間の位置の差である両眼視差σとを用いる演算が包含される。
上記第20の画像計測方法は、前記距離を指標する物理量として、前記計測点と前記2つの観察点のうちの一方の観察点との間の距離をd、前記2つの観察点どうしの間の距離をΔxLRとしたときの、
=d/ΔxLR
であらわされる規格化距離を採用し、該規格化距離を、
=(paxis
の関係式あるいは該関係式と等価な関係式を用いて求めるものであってもよい。
Here, in the twentieth image measurement method, the single ratio (p axis p R p L ) or an operation equivalent to the single ratio is calculated as 2 when the measurement point is observed from each of the two observation points. Instead of the two measurement positions p R and p L , the measurement position p R when the measurement point is observed from one of the two observation points, and the two observation points of the measurement point Calculation using the binocular parallax σ which is the difference in position between the two measurement positions p R and p L when observed from FIG.
In the twentieth image measurement method, as a physical quantity indicating the distance, the distance between the measurement point and one of the two observation points is d 0 , and the distance between the two observation points is when the distance was set to Δx LR,
n d 0 = d 0 / Δx LR
In the normalized distance n d 0 represented adopted, the normalized distance n d 0,
n d 0 = (p axis p R p L )
Or a relational expression equivalent to the relational expression.

また、本発明の画像計測方法のうちの第21の画像計測方法は、所定の計測空間内の所定の2つの観察点から該計測空間内を眺めたときの画像にあらわれる、該計測空間内の任意の計測点を含む計測平面と、前記2つの観察点のうちの一方の観察点との間の、前記2つの観察点どうしを結ぶ視軸方向の距離を指標する物理量と、該計測平面の方位nとで規定される投票空間内の座標をパラメータとして設定する第1のステップと、
前記計測点の、前記2つの観察点のうちの一方の観察点から観察したときの計測位置pと、該計測点を含み、前記視軸方向と同一方向に延びる直線上の無限遠点の位置paxisと、前記第1のステップで設定された、前記投票空間内の座標とから、前記計測点の、前記2つの観察点から観察したときの2つの計測位置p,pどうしの位置の差である両眼視差σを求める第2のステップと、
前記2つの観察点から前記計測空間内を眺めたときの2つの画像に基づいて、前記計測点の、前記両眼視差σに対応する応答強度を求める第3のステップと、
前記第3のステップで求められた応答強度を、前記投票空間内の、前記第1のステップで設定された座標に投票する第4のステップとを有し、
前記計測空間内の複数の計測点について、前記第1から第4までのステップのうちの第2から第4までのステップを、前記第1のステップでパラメータの値を変更しながら複数回実行することを特徴とする。
In addition, a twenty-first image measurement method of the image measurement methods of the present invention is an image in the measurement space that appears in an image when the measurement space is viewed from two predetermined observation points in the predetermined measurement space. A physical quantity that indicates a distance in a visual axis direction connecting the two observation points between a measurement plane including an arbitrary measurement point and one of the two observation points; a first step of setting the coordinates of the voting space defined by the azimuth n s as a parameter,
A measurement position p R when the measurement point is observed from one of the two observation points, and an infinite point on a straight line including the measurement point and extending in the same direction as the visual axis direction. From the position p axis and the coordinates in the voting space set in the first step, between the two measurement positions p R and p L when the measurement point is observed from the two observation points. A second step of obtaining a binocular parallax σ which is a position difference;
A third step of obtaining a response intensity corresponding to the binocular parallax σ of the measurement point based on two images when the inside of the measurement space is viewed from the two observation points;
A fourth step of voting the response intensity obtained in the third step to the coordinates set in the first step in the voting space,
For a plurality of measurement points in the measurement space, the second to fourth steps of the first to fourth steps are executed a plurality of times while changing parameter values in the first step. It is characterized by that.

また、本発明の画像計測方法のうちの第22の画像計測方法は、所定の計測空間内を観察する、該計測空間内の所定の2つの観察点どうしを結ぶ視軸方向vを第1のパラメータとして設定することにより、前記2つの観察点から該計測空間内を眺めたときの画像にあらわれる、該計測空間内の任意の計測点を含み、該視軸方向と同一方向に延びる直線上の無限遠点の位置paxisを設定する第1のステップと、
前記計測点を含む計測平面と前記2つの観察点のうちの一方の観察点との間の前記視軸方向の距離を指標する物理量と、該計測平面の方位nとで規定される、前記第1のパラメータに応じた投票空間内の座標を第2のパラメータとして設定する第2のステップと、
前記計測点の、前記2つの観察点のうちの一方の観察点から観察したときの計測位置pと、前記第1のステップで設定された位置paxisと、前記第2のステップで設定された、前記投票空間内の座標とから、前記計測点の、前記2つの観察点から観察したときの2つの計測位置p,pどうしの位置の差である両眼視差σを求める第3のステップと、
前記2つの観察点から前記計測空間内を眺めたときの2つの画像に基づいて、前記計測点の、前記両眼視差σに対応する応答強度を求める第4のステップと、
前記第4のステップで求められた応答強度を、前記第1のパラメータに応じた投票空間内の、前記第2のステップで設定された座標に投票する第5のステップとを有し、
前記計測空間内の複数の計測点について、前記第1から第5までのステップのうちの第3から第5までのステップを、前記第1および第2のステップで各パラメータの各値を変更しながら複数回実行することを特徴とする。
A twenty-second image measurement method of the image measurement methods of the present invention observes the inside of a predetermined measurement space, and sets the visual axis direction v connecting two predetermined observation points in the measurement space to the first. By setting it as a parameter, on the straight line that includes any measurement point in the measurement space that appears in the image when the measurement space is viewed from the two observation points, and extends in the same direction as the visual axis direction A first step of setting a position p axis of the infinity point;
A physical quantity indicative of the distance of the visual axis direction between one of the observation point of said the measurement plane including a measurement point the two observation points, defined by the azimuth n s of the measurement plane, the A second step of setting the coordinates in the voting space according to the first parameter as a second parameter;
The measurement point p R when the measurement point is observed from one of the two observation points, the position p axis set in the first step, and the second step are set. Further, from the coordinates in the voting space, a third binocular parallax σ that is a difference between the two measurement positions p R and p L when the measurement point is observed from the two observation points is obtained. And the steps
A fourth step of obtaining a response intensity corresponding to the binocular parallax σ of the measurement point based on two images when the inside of the measurement space is viewed from the two observation points;
A fifth step of voting the response strength obtained in the fourth step to the coordinates set in the second step in a voting space corresponding to the first parameter;
For a plurality of measurement points in the measurement space, the third to fifth steps of the first to fifth steps are changed, and each value of each parameter is changed in the first and second steps. It is characterized by being executed multiple times.

また、本発明の画像計測方法のうちの第23の画像計測方法は、所定の計測空間内を観察する、該計測空間内の所定の2つの観察点のうちの一方の観察点と、該2つの観察点から該計測空間を眺めたときの画像にあらわれた該計測空間内の任意の計測点を含む計測平面との間の最短距離を指標する物理量と、該計測平面の方位nとで規定される投票空間内の座標をパラメータとして設定する第1のステップと、
前記計測点の、前記2つの観察点のうちの一方の観察点から観察したときの計測位置pと、該計測点を含み、前記2つの観察点どうしを結ぶ視軸方向と同一方向に延びる直線上の無限遠点の位置paxisと、前記第1のステップで設定された前記投票空間内の座標とから、前記計測点の、前記2つの観察点から観察したときの2つの計測位置p,pどうしの位置の差である両眼視差σを求める第2のステップと、
前記2つの観察点から前記計測空間内を眺めたときの2つの画像に基づいて、前記計測点の、前記両眼視差σに対応する応答強度を求める第3のステップと、
前記第3のステップで求められた応答強度を、前記投票空間内の、前記第1のステップで設定された座標に投票する第4のステップとを有し、
前記計測空間内の複数の計測点について、前記第1から第4までのステップのうちの第2から第4までのステップを、前記第1のステップでパラメータの値を変更しながら複数回実行することを特徴とする。
A twenty-third image measurement method of the image measurement methods of the present invention observes the inside of a predetermined measurement space, one observation point of the two predetermined observation points in the measurement space, and the two in the One observation point and a physical quantity that indicates the shortest distance between the measurement plane including the arbitrary measurement point within the measurement space appeared in the image when viewing the said measurement space, the azimuth n s of the measurement plane A first step of setting coordinates in a prescribed voting space as parameters;
A measurement position p R when the measurement point is observed from one of the two observation points and the visual axis direction that includes the measurement point and connects the two observation points. Two measurement positions p of the measurement point observed from the two observation points, based on the position p axis of the infinity point on the straight line and the coordinates in the voting space set in the first step. A second step of obtaining a binocular parallax σ which is a difference in position between R 1 and p L ;
A third step of obtaining a response intensity corresponding to the binocular parallax σ of the measurement point based on two images when the inside of the measurement space is viewed from the two observation points;
A fourth step of voting the response intensity obtained in the third step to the coordinates set in the first step in the voting space,
For a plurality of measurement points in the measurement space, the second to fourth steps of the first to fourth steps are executed a plurality of times while changing parameter values in the first step. It is characterized by that.

また、本発明の画像計測方法のうちの第24の画像計測方法は、所定の計測空間内を観察する、該計測空間内の所定の2つの観察点どうしを結ぶ視軸方向vを第1のパラメータとして設定することにより、前記2つの観察点から該計測空間を眺めたときの画像にあらわれる、該計測空間内の任意の計測点を含み、該視軸方向と同一方向に延びる直線上の無限遠点の位置paxisを設定する第1のステップと、
前記2つの観測点のうちの一方の観察点と、前記計測点を含む計測平面までの最短距離を指標する物理量と、該計測平面の方位nとで規定される、前記第1のパラメータに応じた投票空間内の座標を第2のパラメータとして設定する第2のステップと、
前記計測点の、前記2つの観察点のうちの一方の観察点から観察したときの計測位置pと、前記第1のステップで設定された位置paxisと、前記第2のステップで設定された、前記投票空間内の座標とから、前記計測点の、前記2つの観察点から観察したときの2つの計測位置p,pどうしの位置の差である両眼視差σを求める第3のステップと、
前記2つの観察点から前記計測空間内を眺めたときの2つの画像に基づいて、前記計測点の、前記両眼視差σに対応する応答強度を求める第4のステップと、
前記第4のステップで求められた応答強度を、前記第1のパラメータに応じた投票空間内の、前記第2のステップで設定された座標に投票する第5のステップとを有し、
前記計測空間内の複数の計測点について、前記第1から第5までのステップのうちの第3から第5までのステップを、前記第1および第2のステップで各パラメータの各値を変更しながら複数回実行することを特徴とする。
According to a twenty-fourth image measurement method of the image measurement methods of the present invention, a visual axis direction v linking two predetermined observation points in the measurement space is observed in the first measurement space. By setting as a parameter, an infinite line on a straight line that includes any measurement point in the measurement space that appears in the image when the measurement space is viewed from the two observation points and extends in the same direction as the visual axis direction. A first step of setting a far point position p axis ;
And one of the observation point of said two observation points, the physical quantity that indicates the shortest distance to the measurement plane including a measurement point is defined by the azimuth n s of the measurement plane, said first parameter A second step of setting the corresponding coordinates in the voting space as a second parameter;
The measurement point p R when the measurement point is observed from one of the two observation points, the position p axis set in the first step, and the second step are set. Further, from the coordinates in the voting space, a third binocular parallax σ that is a difference between the two measurement positions p R and p L when the measurement point is observed from the two observation points is obtained. And the steps
A fourth step of obtaining a response intensity corresponding to the binocular parallax σ of the measurement point based on two images when the inside of the measurement space is viewed from the two observation points;
A fifth step of voting the response strength obtained in the fourth step to the coordinates set in the second step in a voting space corresponding to the first parameter;
For a plurality of measurement points in the measurement space, the third to fifth steps of the first to fifth steps are changed, and each value of each parameter is changed in the first and second steps. It is characterized by being executed multiple times.

また、本発明の画像計測方法のうちの第25の画像計測方法は、所定の計測空間内の所定の2つの観察点から該計測空間内を眺めたときの2つの画像にあらわれる、該計測空間内の任意の計測点の2つの計測位置p,pどうしの間の位置の差である両眼視差σをパラメータとして設定する第1のステップと、
前記計測点の、前記2つの観察点のうちの一方の観察点から観察したときの計測位置pと、該計測点を含み、前記2つの観察点どうしを結ぶ視軸方向と同一方向に延びる直線上の無限遠点の位置paxisと、前記第1のステップで設定された両眼視差σとから、前記計測点を含む計測平面と前記2つの観察点のうちの一方の観察点との間の、前記視軸方向の距離を指標する物理量と、該計測平面の方位nとで規定される投票空間内の座標を求める第2のステップと、
前記2つの観察点から前記計測空間を眺めたときの2つの画像に基づいて、前記計測点の、前記第1のステップで設定された両眼視差σに対応する応答強度を求める第3のステップと、
前記第3のステップで求められた応答強度を、前記投票空間内の、前記第2のステップで求められた座標に投票する第4ののステップとを有し、
前記計測空間内の複数の計測点について、前記第1から第4までのステップのうちの第2から第4までのステップを、前記第1のステップでパラメータの値を変更しながら複数回実行することを特徴とする。
A twenty-fifth image measurement method of the image measurement methods of the present invention is a measurement space that appears in two images when the measurement space is viewed from two predetermined observation points in the predetermined measurement space. A first step of setting, as a parameter, binocular parallax σ which is a difference in position between two measurement positions p R and p L at any measurement point
A measurement position p R when the measurement point is observed from one of the two observation points, and the visual axis direction that includes the measurement point and connects the two observation points. From the position p axis of the infinity point on the straight line and the binocular parallax σ set in the first step, the measurement plane including the measurement point and one observation point of the two observation points a physical quantity which indicates the, the distance of the visual axis direction between, a second step of obtaining the coordinates of the voting space defined by the azimuth n s of the measurement plane,
A third step of obtaining a response intensity corresponding to the binocular parallax σ set in the first step based on two images when the measurement space is viewed from the two observation points. When,
A fourth step of voting the response strength determined in the third step to the coordinates determined in the second step in the voting space;
For a plurality of measurement points in the measurement space, the second to fourth steps of the first to fourth steps are executed a plurality of times while changing parameter values in the first step. It is characterized by that.

また、本発明の画像計測方法のうちの第26の画像計測方法は、所定の計測空間内を観察する、該計測空間内の所定の2つの観察点どうしを結ぶ視軸方向vを第1のパラメータとして設定することにより、前記2つの観察点から該計測空間を眺めたときの画像にあらわれる、該計測空間内の任意の計測点を含み、該視軸方向と同一方向に延びる直線上の無限遠点の位置paxisを設定する第1のステップと、
前記計測点の、前記2つの観察点から観察したときの2つの計測位置p,pどうしの位置の差である両眼視差σを第2のパラメータとして設定する第2のステップと、
前記計測点の、前記2つの観察点のうちの一方の観察点から観察したときの計測位置pと、前記第1のステップで設定された位置paxisと、前記第2のステップで設定された両眼視差σとから、前記計測点を含む計測平面と前記2つの観察点のうちの一方の観察点との間の、前記視軸方向の距離を指標する物理量と、該計測平面の方位nとで規定される、前記第1のパラメータに応じた投票空間内の座標を求める第3のステップと、
前記2つの観察点から前記計測空間を眺めたときの2つの画像に基づいて、前記計測点の、前記第2のステップで設定された両眼視差σに対応する応答強度を求める第4のステップと、
前記第4のステップで求められた応答強度を、前記第1のパラメータに応じた投票空間内の、前記第3のステップで求められた座標に投票する第5のステップとを有し、
前記計測空間内の複数の計測点について、前記第1から第5までのステップのうちの第3から第5までのステップを、前記第1および第2のステップで各パラメータの各値を変更しながら複数回実行することを特徴とする。
According to a twenty-sixth image measurement method of the image measurement methods of the present invention, the visual axis direction v linking two predetermined observation points in the measurement space is observed in the first measurement space. By setting as a parameter, an infinite line on a straight line that includes any measurement point in the measurement space that appears in the image when the measurement space is viewed from the two observation points and extends in the same direction as the visual axis direction. A first step of setting a far point position p axis ;
A second step of setting, as a second parameter, binocular parallax σ which is a difference between two measurement positions p R and p L when the measurement point is observed from the two observation points;
The measurement point p R when the measurement point is observed from one of the two observation points, the position p axis set in the first step, and the second step are set. From the binocular parallax σ, the physical quantity indicating the distance in the visual axis direction between the measurement plane including the measurement point and one of the two observation points, and the orientation of the measurement plane is defined by a n s, a third step of obtaining the coordinates of the voting space corresponding to the first parameter,
Fourth step of obtaining response intensity corresponding to the binocular parallax σ set in the second step based on two images when the measurement space is viewed from the two observation points. When,
Voting the response intensity obtained in the fourth step to the coordinates obtained in the third step in the voting space corresponding to the first parameter,
For a plurality of measurement points in the measurement space, the third to fifth steps of the first to fifth steps are changed, and each value of each parameter is changed in the first and second steps. It is characterized by being executed multiple times.

また、本発明の画像計測方法のうちの第27の画像計測方法は、所定の計測空間内の所定の2つの観察点から該計測空間内を眺めたときの2つの画像にあらわれる、該計測空間内の任意の計測点の2つの計測位置p,pどうしの間の位置の差である両眼視差σをパラメータとして設定する第1のステップと、
前記計測点の、前記2つの観察点のうちの一方の観察点から観察したときの計測位置pと、該計測点を含み、前記2つの観察点どうしを結ぶ視軸方向と同一方向に延びる直線上の無限遠点の位置paxisと、前記第1のステップで設定された両眼視差σとに基づいて、前記2つの観察点のうちの一方の観察点と、前記計測点を含む計測平面との間の最短距離を指標する物理量と、該計測平面の方位nとで規定される投票空間内の座標を求める第2のステップと、
前記2つの観察点から前記計測空間を眺めたときの2つの画像に基づいて、前記計測点の、前記第1のステップで設定された両眼視差σに対応する応答強度を求める第3のステップと、
前記第3のステップで求められた応答強度を、前記投票空間内の、前記第2のステップで求められた座標に投票する第4のステップとを有し、
前記計測空間内の複数の計測点について、前記第1から第4までのステップのうちの第2から第4までのステップを、前記第1のステップでパラメータの値を変更しながら複数回実行することを特徴とする。
A twenty-seventh image measurement method of the image measurement methods of the present invention is a measurement space that appears in two images when the measurement space is viewed from two predetermined observation points in the predetermined measurement space. A first step of setting, as a parameter, binocular parallax σ which is a difference in position between two measurement positions p R and p L at any measurement point
A measurement position p R when the measurement point is observed from one of the two observation points and the visual axis direction that includes the measurement point and connects the two observation points. Measurement including one observation point of the two observation points and the measurement point based on the position p axis of the infinity point on the straight line and the binocular parallax σ set in the first step a physical quantity which indicates the shortest distance between the plane and a second step of obtaining the coordinates of the voting space defined by the azimuth n s of the measurement plane,
A third step of obtaining a response intensity corresponding to the binocular parallax σ set in the first step based on two images when the measurement space is viewed from the two observation points. When,
Voting the response strength determined in the third step to the coordinates determined in the second step in the voting space; and
For a plurality of measurement points in the measurement space, the second to fourth steps of the first to fourth steps are executed a plurality of times while changing parameter values in the first step. It is characterized by that.

さらに、本発明の画像計測方法のうちの第28の画像計測方法は、所定の計測空間内を観察する、該計測空間内の所定の2つの観察点どうしを結ぶ視軸方向方向vを第1のパラメータとして設定することにより、前記2つの観察点から該計測空間内を眺めたときの画像にあらわれる該計測空間内の任意の計測点を含み、該視軸方向と同一方向に延びる直線上の無限遠点の位置paxisを設定する第1のステップと、
前記計測点の、前記2つの観察点から観察したときの2つの計測位置p,pどうしの位置の差である両眼視差σを第2のパラメータとして設定する第2のステップと、
前記計測点の、前記2つの観察点のうちの一方の観察点から観察したときの計測位置pと、前記第1のステップで設定された位置paxisと、前記第2のステップで設定された両眼視差σとに基づいて、前記2つの観察点のうちの一方の観察点と、前記計測点を含む計測平面との間の最短距離を指標する物理量と、該計測平面の方位nとで規定される、前記第1のパラメータに応じた投票空間内の座標を求める第3のステップと、
前記2つの観察点から前記計測空間を眺めたときの2つの画像に基づいて、前記計測点の、前記第2のステップで設定された両眼視差σに対応する応答強度を求める第4のステップと、
前記第4のステップで求められた応答強度を、前記第1のパラメータに応じた投票空間内の、前記第3のステップで求められた座標に投票する第5のステップとを有し、
前記計測空間内の複数の計測点について、前記第1から第5までのステップのうちの第3から第5までのステップを、前記第1および第2のステップで各パラメータの各値を変更しながら複数回実行することを特徴とする。
Furthermore, the twenty-eighth image measurement method of the image measurement methods of the present invention observes the inside of a predetermined measurement space, and sets the visual axis direction v connecting the two predetermined observation points in the measurement space to the first. By setting as a parameter, the arbitrary measurement points in the measurement space appearing in the image when the measurement space is viewed from the two observation points, and on a straight line extending in the same direction as the visual axis direction A first step of setting a position p axis of the infinity point;
A second step of setting, as a second parameter, binocular parallax σ which is a difference between two measurement positions p R and p L when the measurement point is observed from the two observation points;
The measurement position p R when the measurement point is observed from one of the two observation points, the position p axis set in the first step, and the second step are set. Based on the binocular parallax σ, the physical quantity indicating the shortest distance between one of the two observation points and the measurement plane including the measurement point, and the direction n s of the measurement plane A third step for obtaining coordinates in the voting space according to the first parameter, defined by:
Fourth step of obtaining response intensity corresponding to the binocular parallax σ set in the second step based on two images when the measurement space is viewed from the two observation points. When,
Voting the response intensity obtained in the fourth step to the coordinates obtained in the third step in the voting space corresponding to the first parameter,
For a plurality of measurement points in the measurement space, the third to fifth steps of the first to fifth steps are changed, and each value of each parameter is changed in the first and second steps. It is characterized by being executed multiple times.

また、本発明の画像計測方法のうちの第29の画像計測方法は、所定の計測空間内の所定の2つの観察点から、該計測空間内を眺めたときの2つの画像に基づいて、該計測空間内の任意の計測点の、該2つの観察点から観察したときの2つの計測位置どうしの位置の差である両眼視差に対応する応答強度を求める第1のステップと、
前記第1のステップで求められた応答強度を、前記計測点を含む計測平面と、前記2つの観察点のうちの一方の観察点との間の、前記2つの観察点どうしを結ぶ視軸方向の距離を指標する物理量と、該計測平面の方位とで規定される投票空間内の、前記計測点と前記両眼視差とに対応した座標に投票する第2のステップとを有し、
前記計測空間内の複数の計測点について前記第1のステップと前記第2のステップを複数回実行することを特徴とする。
The twenty-ninth image measurement method of the image measurement methods of the present invention is based on two images when the measurement space is viewed from two predetermined observation points in the predetermined measurement space. A first step of obtaining a response intensity corresponding to binocular parallax, which is a difference between positions of two measurement positions when observing from any of the two observation points at an arbitrary measurement point in the measurement space;
The visual axis direction connecting the two observation points between the measurement plane including the measurement points and one observation point of the two observation points with the response intensity obtained in the first step. A second step of voting to coordinates corresponding to the measurement point and the binocular parallax in a voting space defined by a physical quantity that indicates the distance of the measurement plane and the orientation of the measurement plane;
The first step and the second step are executed a plurality of times for a plurality of measurement points in the measurement space.

ここで、上記第29の画像計測方法は、前記投票空間内の、前記投票による値が極大値となる極大点を求めることにより、該極大点の投票に参加した複数の計測点を含む計測平面の方位、及び/又は、該計測平面と前記2つの観察点のうちの一方の観察点との間の、前記視軸方向の距離を指標する物理量を求める第3のステップを有するものであってもよい。   Here, in the twenty-ninth image measurement method, a measurement plane including a plurality of measurement points participating in the voting of the maximum point by obtaining a maximum point in the voting space where the value by the voting becomes a maximum value. And / or a third step of obtaining a physical quantity indicating a distance in the visual axis direction between the measurement plane and one of the two observation points. Also good.

また、本発明の画像計測方法のうちの第30の画像計測方法は、所定の計測空間内を観察する該計測空間内の所定の2つの観察点どうしを結ぶ視軸方向をパラメータとして設定する第1のステップと、
前記2つの観察点から前記計測空間内を眺めたときの2つの画像に基づいて、該計測空間内の任意の計測点の、該2つの観察点から観察したときの2つの計測位置どうしの位置の差である両眼視差に対応する応答強度を求める第2のステップと、
前記第2のステップで求められた応答強度を、前記計測点を含む計測平面と、前記2つの観察点のうちの一方の観察点との間の、前記視軸方向の距離を指標する物理量と、該計測平面の方位とで規定される、前記第1のステップで設定されたパラメータに応じた投票空間内の、前記計測点と前記両眼視差とに対応した座標に投票する第3のステップとを有し、
前記計測空間内の複数の計測点について、前記第1から第3までのステップのうちの第2および第3のステップを、前記第1のステップでパラメータの値を変更しながら複数回実行することを特徴とする。
A thirtieth image measurement method of the image measurement methods of the present invention is a method for setting, as a parameter, a visual axis direction connecting two predetermined observation points in the measurement space for observing the predetermined measurement space. 1 step,
Based on two images when the inside of the measurement space is viewed from the two observation points, a position between two measurement positions of the arbitrary measurement point in the measurement space when observed from the two observation points A second step of obtaining a response intensity corresponding to binocular parallax that is a difference between
The response intensity obtained in the second step is a physical quantity indicating the distance in the visual axis direction between the measurement plane including the measurement point and one of the two observation points. A third step of voting on coordinates corresponding to the measurement point and the binocular parallax in a voting space defined by the orientation of the measurement plane and according to the parameter set in the first step And
Executing the second and third steps of the first to third steps for a plurality of measurement points in the measurement space a plurality of times while changing parameter values in the first step. It is characterized by.

ここで、上記第30の画像計測方法は、前記投票による値が極大値となる極大点を各投票空間ごとに求め該極大点における極大値の情報に基づいて前記計測点の前記観察点に対する相対的な真の視軸方向に対応する投票空間を選択することにより該真の視軸方向を求めるとともに、該真の視軸方向に対応する投票空間について求められた極大点の投票に参加した複数の計測点を含む計測平面の方位、及び/又は、該計測平面と前記2つの観察点のうちの一方の観察点との間の、前記視軸方向の距離を指標する物理量を求める第4のステップを有するものであってもよい。   Here, in the thirtieth image measurement method, a maximum point at which the value by voting becomes a maximum value is obtained for each voting space, and the measurement point is relative to the observation point based on information on the maximum value at the maximum point. The voting space corresponding to the true visual axis direction is selected to obtain the true visual axis direction, and a plurality of participants who participated in the voting of the maximum points obtained for the voting space corresponding to the true visual axis direction 4th which calculates | requires the physical quantity which indexes the direction of the measurement plane containing this measurement point and / or the distance of the said visual axis direction between this measurement plane and one observation point of said two observation points It may have a step.

また、本発明の画像計測方法のうちの第31の画像計測方法は、所定の計測空間内の所定の2つの観察点から該計測空間内を眺めたときの2つの画像に基づいて、該計測空間内の任意の計測点の、該2つの観察点から観察したときの2つの計測位置どうしの位置の差である両眼視差σに対応する応答強度を求める第1のステップと、
前記第1のステップで求められた応答強度を、前記2つの観察点のうちの一方の観察点と、前記計測点を含む計測平面との間の最短距離を指標する物理量と、該計測平面の方位とで規定される投票空間内の、前記計測点と前記両眼視差σとに対応した座標に投票する第2のステップとを有し、
前記計測空間内の複数の計測点について、前記第1のステップと前記第2のステップを複数回実行することを特徴とする。
The thirty-first image measurement method of the image measurement methods of the present invention is based on two images when the measurement space is viewed from two predetermined observation points in the predetermined measurement space. A first step of obtaining a response intensity corresponding to a binocular parallax σ that is a difference between positions of two measurement positions when observing from two observation points at an arbitrary measurement point in space;
The response intensity obtained in the first step is calculated by using a physical quantity indicating the shortest distance between one of the two observation points and the measurement plane including the measurement point, and the measurement plane Voting to coordinates corresponding to the measurement point and the binocular parallax σ in a voting space defined by an orientation,
The first step and the second step are executed a plurality of times for a plurality of measurement points in the measurement space.

ここで、第31の画像計測方法は、前記投票空間内の、前記投票による値が極大値となる極大点を求めることにより、該極大点の投票に参加した複数の計測点を含む計測平面の方位n、及び/又は、前記2つの観察点のうちの一方の観察点と、前記計測平面との間の最短距離を指標する物理量を求める第3のステップを有するものであってもよい。 Here, in the thirty-first image measuring method, by obtaining a local maximum point in the voting space where the value by the voting becomes a local maximum value, a measurement plane including a plurality of measuring points participating in the local maximum voting is obtained. There may be provided a third step of obtaining a physical quantity that indicates the shortest distance between the azimuth ns and / or one of the two observation points and the measurement plane.

さらに、本発明の画像計測方法のうちの第32の画像計測方法は、所定の計測空間内を観察する、該計測空間内の所定の2つの観察点どうしを結ぶ視軸方向をパラメータとして設定する第1のステップと、
前記2つの観察点から前記計測空間内を眺めたときの2つの画像に基づいて、該計測空間内の任意の計測点の、該2つの観察点から観察したときの2つの計測位置どうしの位置の差である両眼視差に対応する応答強度を求める第2のステップと、
前記第2のステップで求められた応答強度を、前記2つの観察点のうちの一方の観察点と、前記計測点を含む計測平面との間の最短距離を指標する物理量と、該計測平面の方位とで規定される、前記第1のステップで設定されたパラメータに応じた投票空間内の、前記計測点と前記両眼視差とに対応する座標に投票する第3のステップとを有し、
前記計測空間内の複数の計測点について、前記第1から第3までのステップのうちの第2および第3のステップを、前記第1のステップでパラメータの値を変更しながら複数回実行することを特徴とする。
Furthermore, a thirty-second image measurement method of the image measurement methods of the present invention observes the inside of a predetermined measurement space, and sets the visual axis direction connecting two predetermined observation points in the measurement space as a parameter. A first step;
Based on two images when the inside of the measurement space is viewed from the two observation points, a position between two measurement positions of the arbitrary measurement point in the measurement space when observed from the two observation points A second step of obtaining a response intensity corresponding to binocular parallax that is a difference between
The response intensity obtained in the second step is obtained by using a physical quantity indicating the shortest distance between one of the two observation points and the measurement plane including the measurement point, and the measurement plane. And a third step of voting on coordinates corresponding to the measurement point and the binocular parallax in the voting space according to the parameter set in the first step, defined by the azimuth,
Executing the second and third steps of the first to third steps for a plurality of measurement points in the measurement space a plurality of times while changing parameter values in the first step. It is characterized by.

ここで、第32の画像計測方法は、前記投票による値が極大値となる極大点を各投票空間ごとに求め該極大点における極大値の情報に基づいて前記計測点の前記観察点に対する相対的な真の視軸方向に対応する投票空間を選択することにより該真の視軸方向を求めるとともに、該真の視軸方向に対応する投票空間について求められた極大点の投票に参加した複数の計測点を含む計測平面の方位、及び/又は、前記2つの観察点のうちの一方の観察点と、前記計測平面との最短距離を指標する物理量を求める第4のステップを有するものであってもよい。   Here, in the thirty-second image measurement method, a local maximum point at which the value obtained by voting becomes a local maximum value is obtained for each voting space, and the measurement point is relative to the observation point based on information on the local maximum value at the local maximum point. The true visual axis direction is determined by selecting a voting space corresponding to the true visual axis direction, and a plurality of voting points determined for the voting space corresponding to the true visual axis direction A fourth step of obtaining a physical quantity indicating the azimuth of the measurement plane including the measurement point and / or the shortest distance between one of the two observation points and the measurement plane; Also good.

また、本発明の画像計測方法は、以下のようにも表現される。   The image measurement method of the present invention is also expressed as follows.

(1) 画像内の任意の点の、現時刻の位置をp、次の時刻の位置をp、無限時間経過後の位置をpinf、そして“その点が載っている平面がカメラ中心を横切る時刻”の位置をpとしたときに、これら四つの位置で決まる複比{pinf}を用いて、平面の3次元方位nおよび平面を横切るまでの規格化時間を求める方法。ここで、規格化時間は、平面を横切るまでの時間tを、現在から次の時刻までの時間差Δtで規格化した時間であり、下式で表される。 (1) of an arbitrary point in the image, the position of the current time p 0, p 1 the position of the next time, an infinite time position after lapse p inf, and "plane camera center the point rests the position of the time "crossing when the p c a standard up using a cross ratio determined by these four locations {p inf p 0 p 1 p c}, across the three-dimensional orientation n s and the plane of the plane A method for obtaining the conversion time n t c . Here, the normalization time is a time obtained by normalizing the time t c until crossing the plane with the time difference Δt from the present time to the next time, and is represented by the following equation.

=t/Δt (a)
(2) 平面を横切るまでの規格化時間を次の関係式を用いて求める方法。
n t c = t c / Δt (a)
(2) A method of obtaining the normalized time n t c until crossing the plane using the following relational expression.

={pinf} (b)
(2−1) 画像内の複数の点について“それらの点が載っている平面がカメラ中心を横切る時刻”での位置pを極変換(あるいは双対変換)し、その結果得られる極線の交差点として平面の3次元方位nを求める方法。
n t c = {p inf p 0 p 1 p c} (b)
(2-1) for a plurality of points in the image to polar transformation the position p c for "time plane in terms of their rests crosses camera center" (or dual conversion), the polar resultant method of determining the three-dimensional orientation n s of the plane as the intersection.

(2−2) 規格化時間および“三つの時刻での上記の位置p,p,pinf”を知って、位置pを式(b)を用いて計算する方法。この方法を、複比{pinf}を用いることから複比変換と言うことにする。 (2-2) How to know the "above the position p 0, p 1, p inf at three time" normalized time n t c and calculates the position p c using Equation (b). This method will be referred to as a cross-ratio conversion from using cross ratio {p inf p 0 p 1 p c}.

(3) (1)において、画像内の各点について“その点が載っている平面がカメラ中心を横切る時刻”での位置pを請求項2−1の複比変換を行って決定し、次にそれら位置を極変換した極線の交差点として、平面の3次元方位nを求める方法。 (3) In (1), for each point in the image position p c for "time when the point is on the plane crosses the center of the camera" determined by performing a multi-ratio conversion of claims 2-1, then the way they position as the intersection of polar that polar transformation to obtain a three-dimensional orientation n s plane.

(4) (3)において、下記のステップを実行して平面の3次元方位ns0および平面を横切るまでの規格化時間c0を求める方法。 (4) In (3), a method for obtaining the three-dimensional orientation n s0 of the plane and the normalized time n t c0 until crossing the plane by executing the following steps.

ステップ1:規格化時間パラメータを任意に設定し、画像内の各点について、(2−2)の複比変換を行って位置pを計算する。 Step 1: The normalization time parameter n t c is arbitrarily set, and the position pc is calculated by performing the cross ratio conversion of (2-2) for each point in the image.

ステップ2:次にそれら位置を極変換して、対応する複数の極線を描く。その極線の強度は“画像内の位置pの明るさ”とし、複数の極線が交わる場所ではそれら強度を加算した強度とする。 Step 2: Next, polar positions of these positions are converted to draw a plurality of corresponding polar lines. The intensity of the polar line is “brightness at position p 0 in the image”, and the intensity obtained by adding these intensities at a place where a plurality of polar lines intersect.

ステップ3:以上のステップを規格化時間パラメータを変えて行い、ステップ2で描かれる複数の極線が一点で交差するパラメータ値c0を求める。そのパラメータ値として“平面を横切るまでの規格化時間c0”が得られる。また、上記の交差点の座標として、平面の方位ns0が得られる。 Step 3: The above steps are performed by changing the normalized time parameter n t c, and a parameter value n t c0 at which the plurality of polar lines drawn in step 2 intersect at one point is obtained. As the parameter value, “normalized time n t c0 until crossing the plane” is obtained. In addition, the plane direction ns0 is obtained as the coordinates of the intersection.

(5) (4)において、ステップ2の極線を球面上に大円として描く方法。   (5) The method of drawing the polar line in step 2 as a great circle on the spherical surface in (4).

(5−1) (5)における大円を、平面上の円の内部に射影して描く方法。   (5-1) A method of projecting and drawing the great circle in (5) onto the inside of a circle on a plane.

(6) (4)において、ステップ2の極線を平面上に直線として描く方法。   (6) A method of drawing the polar line in step 2 as a straight line on a plane in (4).

(7) (3),(4)において、移動方向v(すなわち、無限時間経過後の位置pinf)を知らなくても、下記のステップで平面の3次元方位nおよび平面を横切るまでの規格化時間を求める方法。 (7) (3), (4), the moving direction v (i.e., p inf position after lapse infinite time) without knowing, to traverse the three-dimensional orientation n s and planes of the following steps A method for obtaining the normalized time n t c .

ステップ1:移動方向パラメータvを任意に設定する。   Step 1: The moving direction parameter v is arbitrarily set.

ステップ2:そのパラメータvの方向を“無限時間経過後の位置pinf”とする。 Step 2: The direction of the parameter v is set to “position p inf after elapse of infinite time”.

ステップ3:(3)あるいは(4)を実行する。   Step 3: (3) or (4) is executed.

ステップ4:以上のステップをパラメータvを変えて行い、ステップ3で描かれる極線が一点で交差するパラメータ値vを求める。このパラメータ値が真の移動方向vであり、その交差点の座標として、平面の方位nおよび平面を横切るまでの規格化時間が求められる。 Step 4: The above steps are performed by changing the parameter v, and the parameter value v 0 at which the polar line drawn in Step 3 intersects at one point is obtained. This parameter value is the true moving direction v 0 , and the plane direction ns and the normalized time n t c until crossing the plane are obtained as the coordinates of the intersection.

(8) 画像内の任意の点の、現時刻の位置をp、次の時刻の位置をp、無限時間経過後の位置をpinf、そして“その点が載っている平面がカメラ中心を横切る時刻”での位置をpとしたときに、式(b)の関係および式(c)の関係を用いて、平面の3次元方位nおよび平面までの規格化最短距離を求める方法。ここで規格化最短距離は、平面までの最短距離dを、現在から次の時刻までにカメラ(あるいは平面)が移動した距離Δxで規格化した距離であり、式(d)で表される。また、下式のvはカメラあるいは平面の移動方向である。 (8) of an arbitrary point in the image, the position of the current time p 0, p 1 the position of the next time, an infinite time position after lapse p inf, and "plane camera center the point rests when the p c the position at time "across, using the relationship and relation of the formula (c) of the formula (b), normalized shortest distance to the 3-dimensional orientation n s and the plane of the plane n d s How to ask. Here, the standardized shortest distance is a distance obtained by normalizing the shortest distance d s to the plane by the distance Δx that the camera (or plane) has moved from the present time to the next time, and is expressed by Expression (d). . Further, v in the following expression is the moving direction of the camera or the plane.

(n・v) (c)
=d/Δx (d)
(9) (8)において、下記のステップを実行して平面の3次元方位ns0および平面までの規格化最短距離s0を求める方法。
n d s = n t c ( n s · v) (c)
n d s = d s / Δx (d)
(9) In (8), a method for determining the normalized shortest distance n d s0 to 3D orientation n s0 and planes of running the following steps.

ステップ1:規格化最短距離パラメータを任意に設定する。 Step 1: The normalized shortest distance parameter n d s is arbitrarily set.

ステップ2:移動方向vと3次元方位nとの角度rを任意に設定−−すなわち、vとnとの内積(n・v)をcos(r)と任意に設定−−し、式(c)を用いて規格化時間パラメータ/cos(r)と計算する。 Step 2: arbitrarily set the angle r between the direction of movement v and the three-dimensional orientation n s - i.e., the inner product of v and n s a (n s · v) cos ( r) and optionally set - and, The normalized time parameter n t c is calculated as n d s / cos (r) using equation (c).

ステップ3:画像内の各点について、請求項2−1の複比変換を行って位置pを計算する。 Step 3: For each point in the image, the position ratio pc is calculated by performing the cross ratio conversion of claim 2-1.

ステップ4:次にそれら位置を極変換した極線上で、移動方向vと角度rをなす点を求める。   Step 4: Next, a point that forms an angle r with the moving direction v is obtained on the polar line obtained by converting the positions.

ステップ5:上記の角度rを変えながらステップ4の点を計算し、それら点群からなる曲線を描く。その曲線の強度は“画像内の位置pの明るさ”とし、複数の曲線が交わる場所ではそれら強度を加算した強度とする。 Step 5: Calculate the points in Step 4 while changing the angle r, and draw a curve composed of these points. The intensity of the curve is the "brightness of the position p 0 in the image", in a place where a plurality of curves intersect the strength obtained by adding them strength.

ステップ6:以上のステップを規格化最短距離パラメータを変えて行い、ステップ5で描かれる複数の曲線が一点で交差するパラメータ値s0を求める。そのパラメータ値として“平面までの規格化最短距離s0”が得られる。また、上記の交差点の座標として、平面の方位ns0が得られる。 Step 6: The above steps are performed by changing the normalized shortest distance parameter n d s, and a parameter value n d s0 at which the plurality of curves drawn in step 5 intersect at one point is obtained. As the parameter value, “normalized shortest distance n d s0 to the plane” is obtained. In addition, the plane direction ns0 is obtained as the coordinates of the intersection.

(10) (8)において、下記のステップを実行して平面の3次元方位ns0および平面までの規格化最短距離s0を求める方法。 (10) A method for obtaining the three-dimensional orientation n s0 of the plane and the normalized shortest distance n d s0 to the plane by executing the following steps in (8).

ステップ1:規格化最短距離パラメータを任意に設定し、画像内の各点について“三つの位置p,p,pinfで決まる単比(pinf)”を用いて式(e)によりパラメータRを計算する。 Step 1: The normalized shortest distance parameter n d s is arbitrarily set, and “single ratio determined by three positions p 0 , p 1 , p inf (p inf p 0 p 1 )” is used for each point in the image. Then, the parameter R is calculated by the equation (e).

R=cos−1/(pinf)) (e)
ステップ2:次に“現在時刻の位置p”を中心として、半径Rの小円を描く。その小円の強度は“画像内の位置pの明るさ”とし、複数の小円が交わる場所ではそれら強度を加算した強度とする。
R = cos -1 (n d s / (p inf p 0 p 1)) (e)
Step 2: Next, a small circle having a radius R is drawn around the “current time position p 0 ”. The intensity of the small circle is “brightness at position p 0 in the image”, and the intensity obtained by adding these intensities at a place where a plurality of small circles intersect.

ステップ3:以上のステップを規格化最短距離パラメータを変えて行い、ステップ2で描かれる複数の小円が一点で交差するパラメータ値s0を求める。そのパラメータ値として“平面までの規格化最短距離s0”が得られる。また、上記の交差点の座標として、平面の方位ns0が得られる。 Step 3: The above steps are performed by changing the normalized shortest distance parameter n d s, and a parameter value n d s0 at which a plurality of small circles drawn in Step 2 intersect at one point is obtained. As the parameter value, “normalized shortest distance n d s0 to the plane” is obtained. In addition, the plane direction ns0 is obtained as the coordinates of the intersection.

(11) (9)におけるステップ5の曲線、および請求項12におけるステップ2の小円を球面上に描く方法。   (11) A method of drawing the curve of step 5 in (9) and the small circle of step 2 in claim 12 on a spherical surface.

(11−1) (11)における曲線あるいは小円を、平面上の円の内部に射影して描く方法。   (11-1) A method of projecting and drawing the curve or small circle in (11) onto a circle on a plane.

(12) (9)におけるステップ5の曲線、および請求項12におけるステップ2の小円を平面上に投影して描く方法。   (12) A method of projecting and drawing the curve of step 5 in (9) and the small circle of step 2 in claim 12 on a plane.

(13) (8),(9),(10)において、移動方向v(すなわち、無限時間経過後の位置pinf)を知らなくても、下記のステップで平面の3次元方位nおよび平面までの規格化最短距離を求める方法。 (13) In (8), (9), and (10), even if the moving direction v (that is, the position p inf after elapse of infinite time) is not known, the three-dimensional orientation ns and the plane method of determining the normalized shortest distance n d s up.

ステップ1:移動方向パラメータvを任意に設定する。   Step 1: The moving direction parameter v is arbitrarily set.

ステップ2:そのパラメータvの方向を“無限時間経過後の位置pinf”とする。 Step 2: The direction of the parameter v is set to “position p inf after elapse of infinite time”.

ステップ3:(8)あるいは(9)あるいは(10)を実行する。   Step 3: (8) or (9) or (10) is executed.

ステップ4:以上のステップをパラメータvを変えて行い、ステップ3で描かれる曲線(あるいは小円)が一点で交差するパラメータ値vを求める。このパラメータ値が真の移動方向vであり、その交差点の座標として、平面の方位nおよびあるいは平面までの規格化最短距離が求められる。 Step 4: The above steps are performed by changing the parameter v, and the parameter value v 0 at which the curve (or small circle) drawn in Step 3 intersects at one point is obtained. This parameter value is true in the moving direction v 0, as the coordinates of the intersection, the normalized shortest distance n d s up orientation n s and or the plane of the plane is determined.

(14) 画像内の任意の点について、現時刻の位置をp、次の時刻の位置をp、無限時間経過後の位置をpinfとしたときに、これら三つの位置で決まる単比(pinf)を用いて、カメラ中心から空間内の点の位置までの規格化距離を、式(f)により求める方法。ここで規格化距離は、点までの距離dを、現在から次の時刻までにカメラ(あるいは点)が移動した距離Δxで規格化した距離であり、式(g)で表される。 (14) For an arbitrary point in the image, a unit ratio determined by these three positions, where p 0 is the current time position, p 1 is the position of the next time, and p inf is the position after the infinite time has elapsed. A method of obtaining a normalized distance n d 0 from the center of the camera to the position of a point in the space using (p inf p 0 p 1 ) according to equation (f). Here, the standardized distance is a distance obtained by normalizing the distance d 0 to the point by the distance Δx that the camera (or point) has moved from the present time to the next time, and is represented by the equation (g).

=(pinf) (f)
=d/Δx (g)
(15) (10)のステップ1において、“規格化した点距離”を用いて下式によりパラメータRを計算する方法。
n d 0 = (p inf p 0 p 1 ) (f)
n d 0 = d 0 / Δx (g)
(15) A method of calculating the parameter R by the following equation using “standardized point distance n d 0 ” in Step 1 of (10).

R=cos−1) (h)
(16) (1)〜(15)において、次時刻の位置の代わりに“現在の位置と次の時刻の位置との差(運動視差)”を用いる方法。
R = cos −1 ( n d s / n d 0 ) (h)
(16) A method using the “difference (motion parallax) between the current position and the next time position” instead of the next time position in (1) to (15).

(17) (1)〜(7)において、現時刻の位置p、次の時刻の位置p、そして無限時間経過後の位置pinf、移動方向v、そして平面を横切るまでの規格化時間を、それぞれ、右カメラ画像での位置p、左カメラ画像での位置p、左右カメラを結ぶ視軸上の位置paxis、視軸方向axis、そして“視軸方向に平面を横切るまでの規格化距離”に置き換えて、ステレオ画像により平面の3次元方位nおよびそれを横切るまでの規格化距離を求める方法。ここで、この規格化距離は、視軸方向に平面を横切るまでの距離dを、左右カメラ間の距離ΔxLRで規格化した距離である。ここで、右カメラと左カメラを交換してもよい。 (17) In (1) to (7), the current time position p 0 , the next time position p 1 , the position p inf after infinite time, the moving direction v, and the standardized time until crossing the plane the n t c, respectively, the position p R in the right camera image, the position p L in the left camera image, the position p axis on visual axis connecting the left and right cameras, visual axis direction a xis, and "visual axis direction in the plane Is replaced with the standardized distance n d c ″ until crossing the plane, and the three-dimensional orientation n s of the plane and the standardized distance n d c until crossing the plane are obtained from the stereo image. Here, the normalized distance is the distance d c to cross the plane visual axis direction, the distance normalized by the distance [Delta] x LR between the right and left cameras. Here, the right camera and the left camera may be exchanged.

(18) (8)〜(13)、(15)において、現時刻の位置p、次の時刻の位置p、そして無限時間経過後の位置pinf、移動方向v、そして平面までの規格化最短距離を、それぞれ、右カメラ画像での位置p、左カメラ画像での位置p、左右カメラを結ぶ視軸上の位置paxis、視軸方向axis、そして“ステレオ画像での平面までの規格化最短距離s,stero”に置き換えて、ステレオ画像により平面の3次元方位nおよび平面までの規格化最短距離を求める方法。ここで、この規格化距離s,steroは、平面までの最短距離dを、左右カメラ間の距離ΔxLRで規格化した距離である。ここで、右カメラと左カメラを交換してもよい。 (18) (8) to (13), in (15), the position p 0 at the present time, the position p 1 at the next time, and infinite time position after lapse p inf, movement direction v and up plane standard, the reduction shortest distance n d s, respectively, the position p R in the right camera image, the position p L in the left camera image, the position p axis on visual axis connecting the left and right cameras, visual axis direction a xis, and "stereo image The standardized shortest distance n d s, stero ”to the plane in FIG. 4 is used to obtain the three-dimensional orientation n s of the plane and the standardized shortest distance n d s to the plane from the stereo image. Here, the normalized distance n d s, stero is a distance obtained by normalizing the shortest distance d s to the plane by the distance Δx LR between the left and right cameras. Here, the right camera and the left camera may be exchanged.

(19) (14)において、現時刻の位置p、次の時刻の位置p、そして無限時間経過後の位置pinfを、それぞれ、右カメラ画像での位置p、左カメラ画像での位置p、そして“左右カメラを結ぶ視軸上の位置paxis”に置き換えて、ステレオ画像により“空間内の点の位置までの規格化距離”を求める方法。ここで、この規格化距離は、点までの距離dを、左右カメラ間の距離ΔxLRで規格化した距離である。ここで、右カメラと左カメラを交換してもよい。 (19) In (14), the position p 0 at the present time, the position p 1 at the next time, and the position p inf after infinite time has elapsed, respectively, the position p R in the right camera image of the left camera image A method of obtaining a “normalized distance n d 0 to the position of a point in space” from a stereo image by replacing the position p L with “a position p axis on the visual axis connecting the left and right cameras”. Here, the standardized distance is a distance obtained by normalizing the distance d 0 to the point with the distance Δx LR between the left and right cameras. Here, the right camera and the left camera may be exchanged.

(20) (17)〜(19)において、左カメラ画像での位置pの代わりに“左カメラ画像位置と右カメラ画像位置との差(両眼視差)”を用いる方法。 (20) A method of using the “difference (binocular parallax) between the left camera image position and the right camera image position” instead of the position p L in the left camera image in (17) to (19).

(21) (1)〜(20)において、平面カメラで撮影した画像を入力画像とする方法。   (21) The method according to any one of (1) to (20), wherein an image taken by a flat camera is used as an input image.

(22) (1)〜(20)において、球面カメラで撮影した画像を入力画像とする方法。   (22) The method according to any one of (1) to (20), wherein an image captured by a spherical camera is used as an input image.

(23) 平面カメラ画像から“現在の位置と次の時刻の位置との差(運動視差)”を求め、次にその運動視差を球面上に投影して請求項30を行う方法。   (23) The method according to claim 30, wherein a “difference (motion parallax) between a current position and a next time position (motion parallax)” is obtained from a planar camera image, and then the motion parallax is projected onto a spherical surface.

(24) 平面カメラ画像から“左カメラ画像位置と右カメラ画像位置との差(両眼視差)”を求め、次にその両眼視差を球面上に投影して請求項43を行う方法。   (24) The method according to claim 43, wherein a “difference (binocular parallax) between a left camera image position and a right camera image position” is obtained from a planar camera image, and then the binocular parallax is projected on a spherical surface.

(25) (21),(22),(23)のうち(3)に関する方法で計測される“平面の3次元方位n”と“それを横切るまでの規格化時間”に基づいて、ロボットやホビ−用機器および自動車、飛行機などの移動機械を制御する方法。 (25) Based on “three-dimensional azimuth n s of plane” and “normalized time n t c until crossing” measured by the method relating to (3) among (21), (22), and (23) A method for controlling robots, hobby equipment, and mobile machines such as automobiles and airplanes.

(26) (21),(22),(23)のうち(8)(あるいは(3))に関する方法で計測される“平面の3次元方位n”と“平面までの規格化最短距離(あるいは平面を横切るまでの規格化時間)”に基づいて、“画像内に重なり合って見える複数物体や環境を奥行き分離”する方法。 (26) “3-dimensional orientation n s of plane” measured by the method related to (8) (or (3)) of (21), (22), and (23) and “normalized shortest distance n to the plane” A method of “depth-separating multiple objects and environments that appear to overlap in an image” based on d s (or normalized time n t c until crossing a plane) ”.

(27) (21),(22),(23)のうち(18)あるいは(17)に関する方法で計測される“平面の3次元方位n”と“平面までの規格化最短距離(あるいは視軸方向に平面までの規格化距離)”に基づいて、“画像内に重なり合って見える複数物体や環境を奥行き分離”する方法。
(I)順方向法
(I−1)規格化時間
(16)のうちの(4)において、運動視差を検出する方法(あるいは、装置)により得られる応答強度を投票する方法。
(I−2)規格化時間+v未知
(16)のうちの(7)かつ(4)において、運動視差を検出する方法(あるいは、装置)により得られる応答強度を投票する方法。
(I−3)規格化最短距離
(16)のうちの(10)において、運動視差を検出する方法(あるいは、装置)により得られる応答強度を投票する方法。
(I−4)規格化最短距離+v未知
(16)のうちの(13)かつ(10)において、運動視差を検出する方法(あるいは、装置)により得られる応答強度を投票する方法。
(I−5)ステレオ+規格化距離
(20)のうちの(17)かつ(4)において、両眼視差を検出する方法(あるいは、装置)により得られる応答強度を投票する方法。
(I−6)ステレオ+規格化距離+aaxis未知
(20)のうちの(17)かつ(7)かつ(4)において、両眼視差を検出する方法(あるいは、装置)により得られる応答強度を投票する方法。
(I−7)ステレオ+規格化最短距離
(20)のうちの(18)かつ(10)において、両眼視差を検出する方法(あるいは、装置)により得られる応答強度を投票する方法。
(I−8)ステレオ+規格化最短距離+aaxis未知
(20)のうちの(18)かつ(13)かつ(10)において、両眼視差を検出する方法(あるいは、装置)により得られる応答強度を投票する方法。
(I−9)規格化最短距離
(16)のうちの(9)において、運動視差を検出する方法(あるいは、装置)により得られる応答強度を投票する方法。
(I−10)規格化最短距離+v未知
(16)のうちの(13)かつ(9)において、運動視差を検出する方法(あるいは、装置)により得られる応答強度を投票する方法。
(I−11)ステレオ+規格化最短距離
(20)のうちの(18)かつ(9)において、両眼視差を検出する方法(あるいは、装置)により得られる応答強度を投票する方法。
(I−12)ステレオ+規格化最短距離+axis 未知
(20)のうちの(18)かつ(13)かつ(9)において、両眼視差を検出する方法(あるいは、装置)により得られる応答強度を投票する方法。
(II)逆方向法
(II−1)規格化時間
ステップ1:現時刻での、画像内の任意画素 の番号iを考える。
(27) Among the (21), (22), and (23), the “three-dimensional orientation n s of the plane” measured by the method related to (18) or (17) and the “normalized shortest distance n d s to the plane” (or visual axis direction normalized distance n d c to plane) "based on the" method of depth separating "multiple objects and environments seen overlap in the image.
(I) Forward method (I-1) Normalization time In (4) of (16), a method for voting the response intensity obtained by the method (or device) for detecting motion parallax.
(I-2) Normalization time + v unknown Method of voting the response intensity obtained by the method (or device) for detecting motion parallax in (7) and (4) of (16).
(I-3) Standardized shortest distance In (10) of (16), a method for voting the response intensity obtained by the method (or device) for detecting motion parallax.
(I-4) Normalized shortest distance + v unknown In (13) and (10) of (16), a method for voting the response intensity obtained by the method (or device) for detecting motion parallax.
(I-5) Stereo + standardized distance In (17) and (4) of (20), a method of voting the response intensity obtained by the method (or device) for detecting binocular parallax.
(I-6) Stereo + standardized distance + a axis unknown In (17) and (7) and (4) of (20), the response intensity obtained by the method (or device) for detecting binocular parallax is How to vote.
(I-7) Stereo + standardized shortest distance A method for voting the response intensity obtained by the method (or device) for detecting binocular parallax in (18) and (10) of (20).
(I-8) Stereo + Normalized shortest distance + a axis unknown Response intensity obtained by the method (or apparatus) for detecting binocular parallax in (18), (13) and (10) of (20) How to vote.
(I-9) Standardized shortest distance In (9) of (16), a method for voting the response intensity obtained by the method (or device) for detecting motion parallax.
(I-10) Normalized shortest distance + v unknown In (13) and (9) of (16), a method for voting the response intensity obtained by the method (or device) for detecting motion parallax.
(I-11) Stereo + standardized shortest distance In (18) and (9) of (20), a method for voting the response intensity obtained by the method (or device) for detecting binocular parallax.
(I-12) Stereo + Normalized shortest distance + a xis unknown Response intensity obtained by the method (or apparatus) for detecting binocular parallax in (18), (13) and (9) of (20) How to vote.
(II) Reverse Direction Method (II-1) Normalization Time Step 1: Consider the number i of an arbitrary pixel i p 0 in the image at the current time.

ステップ2:また、3自由度配列(平面の方位ベクトルn の2自由度、規格化時間 のl自由度)内の任意要素(nsjcj)の番号jを考える。 Step 2: The three (two degrees of freedom of a plane orientation vector n s, l freedom of normalized time n t c) freedom SEQ consider any element (n sj, n t cj) number j in.

ステップ3:それら番号iとjに対応する“画素 での運動視差ijτ”を計算する。 Step 3: Calculate “motion parallax ij τ at pixel i p 0 ” corresponding to the numbers i and j.

ステップ4:運動視差を検出する方法(あるいは、装置)により、上記運動視差ijτでの応答強度を入力画像から計算する。 Step 4: The response intensity at the motion parallax ij τ is calculated from the input image by a method (or apparatus) for detecting motion parallax.

ステップ5:その応答強度を、3自由度配列内の要素(nsjcj)に投票する。 Step 5: Vote for the response strength to the elements (n sj , n t cj ) in the 3- DOF array.

ステップ6:以上を所定範囲の画素iおよび画素jについて繰り返す。   Step 6: The above is repeated for a predetermined range of pixels i and j.

以上で投票された3自由度配列の中で極大応答をする要素を検出して、そのアドレス(ns0c0)から“平面の方位と規格時間”を検出できる。
(II−2)規格時間+v未知
(II−1)において、移動方向V(すなわち、無限時間経過後の位置pinf )を知らなくても、下記のステップで平面の3次元方位n および平面を横切るまでの規格化時間 を求める方法。
The element having the maximum response in the voted three-degree-of-freedom array is detected, and the “plane orientation and standard time” can be detected from the address (n s0 , n t c0 ).
(II-2) Standard time + v unknown In (II-1), even if the moving direction V (that is, the position p inf after elapse of infinite time) is not known, the three-dimensional orientation ns and the plane Of obtaining the normalized time n t c until crossing

ステップ1:移動方向パラメータvを任意に設定する。   Step 1: The moving direction parameter v is arbitrarily set.

ステップ2:(II−1)を実行する。   Step 2: (II-1) is executed.

ステップ3:以上のステップをパラメータvを変えて行う。   Step 3: The above steps are performed by changing the parameter v.

以上で投票された3自由度配列の中で、最大の応答をするパラメータ値V を求めると、そのパラメータ値として真の移動方向V を検出できる。また、3自由度配列(ステップ2)の中で極大の応答するアドレス(ns0c0)から“平面の方位と規格化時間”を検出できる。
(II−3)規格化最短距離
ステップ1:現時刻での、画像内の任意画素 の番号iを考える。
When the parameter value V 0 that gives the maximum response in the three-degree-of-freedom array voted above is obtained, the true movement direction V 0 can be detected as the parameter value. Further, it is possible to detect the three degrees of freedom sequence (Step 2) address that responds maximum in (n s0, n t c0) "plane orientation and the normalized time" from.
(II-3) Normalized shortest distance Step 1: Consider the number i of an arbitrary pixel i p 0 in the image at the current time.

ステップ2:また、3自由度配列(平面の方位ベクトルn の2自由度、規格化最短距離 のl自由度)内の任意要素(nsjsj)の番号jを考える。 Step 2: In addition, consider the number j of the three degrees of freedom sequences (two degrees of freedom of a plane orientation vector n s, l freedom of normalized shortest distance n d s) any element (n sj, n d sj) in .

ステップ3:それら番号iとjに対応する“画素 での運動視差ijτ”を計算する。 Step 3: Calculate “motion parallax ij τ at pixel i p 0 ” corresponding to the numbers i and j.

ステップ4:運動視差を検出する方法(あるいは、装置)により、上記運動視差ijτでの応答強度を入力画像から計算する。 Step 4: The response intensity at the motion parallax ij τ is calculated from the input image by a method (or apparatus) for detecting motion parallax.

ステップ5:その応答強度を、3自由度配列内の要素(nsjsj)に投票する。 Step 5: Vote the response strength to the elements (n sj , n d sj ) in the 3- DOF array.

ステップ6:以上を所定範囲の画素iおよび画素jについて繰り返す。   Step 6: The above is repeated for a predetermined range of pixels i and j.

以上で投票された3自由度配列の中で極大応答をする要素を検出して、そのアドレス(ns0s0)から“平面の方位と規格化最短距離”を検出できる。
(II−4)規格化最短距離+v未知
(II−3)において、移動方向v(すなわち、無限時間経過後の位置pinf )を知らなくても、下記のステップで平面の3次元方位n および規格化最短距離 を求める方法。
The element having the maximum response is detected in the voted three-degree-of-freedom array, and the “plane orientation and standardized shortest distance” can be detected from the address (n s0 , n d s0 ).
(II-4) Normalized shortest distance + v unknown In (II-3), even if the moving direction v (that is, the position p inf after elapse of infinite time) is not known, the three-dimensional orientation n s of the plane in the following steps And a method for obtaining the normalized shortest distance n d s .

ステップ1:移動方向パラメータvを任意に設定する。   Step 1: The moving direction parameter v is arbitrarily set.

ステップ2:(II−3)を実行する。   Step 2: (II-3) is executed.

ステップ3:以上のステップをパラメータvを変えて行う。   Step 3: The above steps are performed by changing the parameter v.

以上で投票された3自由度配列の中で、最大の応答をするパラメータ値v を求めると、そのパラメータ値として真の移動方向v を検出できる。また、3自由度配列(ステップ2)の中で極大の応答するアドレス(ns0s0)から“平面の方位と規格化最短距離”を検出できる。
(II−5)ステレオ+規格化距離
ステップ1:右カメラ画像内の任意画素 の番号iを考える。
When the parameter value v 0 that gives the maximum response in the three-degree-of-freedom array voted above is obtained, the true movement direction v 0 can be detected as the parameter value. In addition, the “plane orientation and normalized shortest distance” can be detected from the address (n s0 , n d s0 ) that responds to the maximum in the three-degree-of-freedom array (step 2).
(II-5) Stereo + standardized distance Step 1: Consider the number i of an arbitrary pixel i p R in the right camera image.

ステップ2:また、3自由度配列(平面の方位ベクトルn の2自由度、規格化距離 の1自由度)内の任意要素(nsjcj)の番号jを考える。 Step 2: In addition, consider three degrees of freedom sequences (two degrees of freedom of a plane orientation vector n s, 1 degree of freedom normalized distance n d c) any element (n sj, n d cj) in the number j.

ステップ3:それら番号iとjに対応する“画素 での両眼視差ijσ”を計算する。 Step 3: Calculate “binocular parallax ij σ at pixel i p R ” corresponding to the numbers i and j.

ステップ4:両眼視差を検出する方法(あるいは、装置)により、上記両眼視差ijσでの応答強度を入力画像から計算する。 Step 4: The response intensity at the binocular parallax ij σ is calculated from the input image by the method (or apparatus) for detecting the binocular parallax.

ステップ5:その応答強度を、3自由度配列内の要素(nsjcj)に投票する。 Step 5: Vote for the response strength to the elements (n sj , n d cj ) in the 3- DOF array.

ステップ6:以上を所定範囲の画素iおよび要素jについて繰り返す。   Step 6: The above is repeated for a predetermined range of pixels i and elements j.

以上で投票された3自由度配列の中で極大応答をする要素を検出して、そのアドレス(ns0c0)から“平面の方位と規格化距離”を検出できる。
(II−6)ステレオ+規格化距離+axis未知
(II−5)において、視軸方向axis(すなわち、左右カメラを結ぶ視軸上の位置paxis)を知らなくても、下記のステップで平面の3次元方位n および規格化距離 を求める方法。
Detecting elements for the maximum response of the 3 DOF sequences found above, it can detect the address (n s0, n d c0) from "plane orientation and the normalized distance".
(II-6) Stereo + standardized distance + a xis unknown In (II-5), even if the visual axis direction a xis (that is, the position p axis on the visual axis connecting the left and right cameras) is not known, the following steps are performed. 3D orientation n s and a method for determining the normalized distance n d c plane.

ステップ1:視軸方向パラメータaxisを任意に設定する。 Step 1: The visual axis direction parameter a xis is arbitrarily set.

ステップ2:(II−5)を実行する。   Step 2: (II-5) is executed.

ステップ3:以上のステップをパラメータaxisを変えて行う。 Step 3: The above steps are performed by changing the parameter axis .

以上で投票された3自由度配列の中で、最大の応答をするパラメータ値axis0 を求めると、そのパラメータ値として真の視軸方向axis0 を検出できる。また、3自由度配列(ステップ2)の中で極大の応答するアドレス(ns0c0)から“平面の方位と規格化距離”を検出できる。
(II−7)ステレオ+規格化最短距離
ステップ1:右カメラ画像内の任意画素 の番号iを考える。
When the parameter value axis0 that gives the maximum response is obtained from the three-degree-of-freedom array voted above, the true visual axis direction axis0 can be detected as the parameter value. Further, it is possible to detect the three degrees of freedom sequence (Step 2) address that responds maximum in (n s0, n d c0) from "plane orientation and the normalized distance".
(II-7) Stereo + standardized shortest distance Step 1: Consider number i of an arbitrary pixel i p R in the right camera image.

ステップ2:また、3自由度配列(平面の方位ベクトルn の2自由度、規格化最短距離 の1自由度)内の任意要素(nsjsj)の番号jを考える。 Step 2: In addition, consider 3 (two degrees of freedom of a plane orientation vector n s, 1 degree of freedom normalized shortest distance n d s) freedom SEQ any element (n sj, n d sj) in the number j .

ステップ3:それら番号iとjに対応する“画素 での両眼視差ijσを計算する。 Step 3: “Binocular disparity ij σ at pixel i p R corresponding to the numbers i and j is calculated.

ステップ4:両眼視差を検出する方法(あるいは、装置)により上記両眼視差ijσでの応答強度を入力画像から計算する。 Step 4: The response intensity at the binocular parallax ij σ is calculated from the input image by a method (or apparatus) for detecting binocular parallax.

ステップ5:その応答強度を、3自由度配列内の要素(nsjsj)に投票する。 Step 5: Vote the response strength to the elements (n sj , n d sj ) in the 3- DOF array.

ステップ6:以上を所定範囲の画素iおよび要素jについて繰り返す。   Step 6: The above is repeated for a predetermined range of pixels i and elements j.

以上で投票された3自由度配列の中で極大応答をする要素を検出して、そのアドレス(ns0s0)から“平面の方位と規格化最短距離”を検出できる。
(II−8)ステレオ+規格化最短距離+axis未知
(II−7)において、視軸方向axis (すなわち、左右カメラを結ぶ視軸上の位置paxis)を知らなくても、下記のステップで平面の3次元方位n および規格化最短距離 を求める方法。
The element having the maximum response is detected in the voted three-degree-of-freedom array, and the “plane orientation and standardized shortest distance” can be detected from the address (n s0 , n d s0 ).
(II-8) Stereo + standardized shortest distance + a xis unknown (II-7), the following steps can be performed without knowing the visual axis direction a xis (that is, the position p axis on the visual axis connecting the left and right cameras). in 3-dimensional orientation n s and a method for determining the normalized shortest distance n d s plane.

ステップ1:視軸方向パラメータaxis を任意に設定する。 Step 1: The visual axis direction parameter a xis is arbitrarily set.

ステップ2:(II−7)を実行する。   Step 2: (II-7) is executed.

ステップ3:以上のステップをパラメータaxis を変えて行う。 Step 3: The above steps are performed by changing the parameter axis .

以上で投票された3自由度配列の中で、最大の応答をするパラメータ値axis0を求めると、そのパラメータ値として真の視軸方向axis0を検出できる。また、3自由度配列(ステップ2)の中で極大の応答するアドレス(ns0s0)から“平面の方位と規格化最短距離”を検出できる。

(III)複合法
(III−1)規格化時間
ステップ1:現時刻での、画像内の任意の画素 の番号iを考える。
When the parameter value axis0 that gives the maximum response is obtained from the three-degree-of-freedom array voted above, the true visual axis direction axis0 can be detected as the parameter value. In addition, the “plane orientation and normalized shortest distance” can be detected from the address (n s0 , n d s0 ) that responds to the maximum in the three-degree-of-freedom array (step 2).

(III) Compound Method (III-1) Normalization Time Step 1: Consider number i of an arbitrary pixel i p 0 in the image at the current time.

ステップ2:任意の運動視差 τの番号kを考える。 Step 2: Consider an arbitrary motion parallax k τ number k.

ステップ3:それら番号iとkに対応する“3自由度配列(平面の方位ベクトルn の2自由度、規格化時間 の1自由度)内の要素群{(nsjcj)}”を決定する。 Step 3: those corresponding to the numbers i and k "3 DOF sequence (two degrees of freedom of a plane orientation vector n s, 1 degree of freedom normalized time n t c) in the element group {(n sj, n t cj )} ".

ステップ4:運動視差を検出する方法(あるいは、装置)により、上記運動視差 τでの応答強度を入力画像から計算する。 Step 4: The response intensity at the motion parallax k τ is calculated from the input image by a method (or device) for detecting motion parallax.

ステップ5:その応答強度を、上記の要素群{(nsjcj)}に投票する。 Step 5: Vote the response strength for the above element group {(n sj , n t cj )}.

ステップ6:以上を所定範囲のiおよびkについて繰り返す。   Step 6: The above is repeated for a predetermined range of i and k.

以上で投票された3自由度配列の中で極大応答をする要素を検出して、そのアドレス(ns0c0)から“平面の方位と規格化時間”を検出できる。
(III−2)規格化時間+v未知
(III−1)において、移動方向v(すなわち無限時間経過後の位置pinf )を知らなくても、下記のステップで平面の3次元方位n および平面を横切るまでの規格化時間 を求める方法。
The element having the maximum response is detected in the voted three-degree-of-freedom array, and the “plane orientation and normalized time” can be detected from the address (n s0 , n t c0 ).
(III-2) Normalization time + v unknown In (III-1), even if the moving direction v (that is, the position p inf after elapse of infinite time) is not known, the three-dimensional orientation ns and the plane Of obtaining the normalized time n t c until crossing

ステップ1:移動方向パラメータvを任意に設定する。   Step 1: The moving direction parameter v is arbitrarily set.

ステップ2:(III−1)を実行する。   Step 2: (III-1) is executed.

ステップ3:以上のステップをパラメータvを変えて行う。   Step 3: The above steps are performed by changing the parameter v.

以上で投票された3自由度配列の中で、最大の応答をするパラメータ値v を求めると、そのパラメータ値として真の移動方向v を検出できる。また、3自由度配列(ステップ2)の中で極大の応答するアドレス(ns0c0)から“平面の方位と規格化時間”を検出できる。
(III−3)規格化最短距離
ステップ1:現時刻での、画像内の任意の画素 の番号iを考える。
When the parameter value v 0 that gives the maximum response in the three-degree-of-freedom array voted above is obtained, the true movement direction v 0 can be detected as the parameter value. Further, it is possible to detect the three degrees of freedom sequence (Step 2) address that responds maximum in (n s0, n t c0) "plane orientation and the normalized time" from.
(III-3) Normalized shortest distance Step 1: Consider the number i of an arbitrary pixel i p 0 in the image at the current time.

ステップ2:任意の運動視差 τの番号kを考える。 Step 2: Consider an arbitrary motion parallax k τ number k.

ステップ3:それら番号iとkに対応する“3自由度配列(平面の方位ベクトルn の2自由度、規格化最短距離 の1自由度)内の要素群{(nsjsj)}”を決定する。 Step 3: (2 degrees of freedom, one degree of freedom of the normalized shortest distance n d s of planar orientation vector n s) in element group thereof number i and corresponding to the k "3 DOF sequence {(n sj, n d sj )} ”.

ステップ4:運動視差を検出する方法(あるいは、装置)により、上記運動視差 τでの応答強度を入力画像から計算する。 Step 4: The response intensity at the motion parallax k τ is calculated from the input image by a method (or device) for detecting motion parallax.

ステップ5:その応答強度を、上記の要素群{(nsjsj)}に投票する。 Step 5: Vote the response strength for the above element group {(n sj , n d sj )}.

ステップ6:以上を所定範囲のiおよびkについて繰り返す。   Step 6: The above is repeated for a predetermined range of i and k.

以上で投票された3自由度配列の中で極大応答をする要素を検出して、そのアドレス(ns0s0)から“平面の方位と規格化最短距離”を検出できる。
(III−4)規格化最短距離+v未知
(III−3)において、移動方向v(すなわち、無限時間経過後の位置pinf )を知らなくても、下記のステップで平面の3次元方位n および規格化最短距離 を求める方法。
The element having the maximum response is detected in the voted three-degree-of-freedom array, and the “plane orientation and standardized shortest distance” can be detected from the address (n s0 , n d s0 ).
(III-4) Normalized shortest distance + v unknown In (III-3), even if the moving direction v (that is, the position p inf after elapse of infinite time) is not known, the three-dimensional orientation n s of the plane in the following steps And a method for obtaining the normalized shortest distance n d s .

ステップ1:移動方向パラメータvを任意に設定する。   Step 1: The moving direction parameter v is arbitrarily set.

ステップ2:(III−2)を実行する。   Step 2: (III-2) is executed.

ステップ3:以上のステップをパラメータvを変えて行う。   Step 3: The above steps are performed by changing the parameter v.

以上で投票された3自由度配列の中で、最大の応答をするパラメータ値v を求めると、そのパラメータ値として真の移動方向v を検出できる。また、3自由度配列(ステップ2)の中で極大の応答するアドレス(ns0s0)から“平面の方位と規格化最短距離”を検出できる。
(III−5)ステレオ+規格化距離
ステップ1:右カメラ画像内の任意画素 の番号iを考える。
When the parameter value v 0 that gives the maximum response in the three-degree-of-freedom array voted above is obtained, the true movement direction v 0 can be detected as the parameter value. In addition, the “plane orientation and normalized shortest distance” can be detected from the address (n s0 , n d s0 ) that responds to the maximum in the three-degree-of-freedom array (step 2).
(III-5) Stereo + standardized distance Step 1: Consider number i of an arbitrary pixel i p R in the right camera image.

ステップ2:任意の両眼視差 σの番号kを考える。 Step 2: Consider the number k of any binocular parallax k sigma.

ステップ3:それら番号iとkに対応する“3自由度配列(平面の方位ベクトルn の2自由度、規格化距離 の1自由度)内の要素群{(nsjcj)}”を決定する。 Step 3: they correspond to the numbers i and k "3 (2 degree of freedom of a plane orientation vector n s, 1 degree of freedom normalized distance n d c) freedom array in the element group {(n sj, n d cj )} ".

ステップ4:両眼視差を検出する方法(あるいは、装置)により、上記両眼視差 σでの応答強度を入力画像から計算する。 Step 4: a method for detecting a binocular parallax (or device) by, calculating the response intensity in the binocular disparity k sigma from the input image.

ステップ5:その応答強度を、上記の要素群{(nsjcj)}に投票する。 Step 5: Vote the response strength for the above element group {(n sj , n d cj )}.

ステップ6:以上を所定範囲のiおよびkについて繰り返す。   Step 6: The above is repeated for a predetermined range of i and k.

以上で投票された3自由度配列の中で極大応答をする要素を検出して、そのアドレス(ns0c0)から“平面の方位と規格化距離”を検出できる。
(III−6)ステレオ+規格化距離+aaxis未知
(III−5)において、視軸方向axis (すなわち、左右カメラを結ぶ視軸上の位置paxis)を知らなくても、下記のステップで平面の3次元方位n および規格化距離 を求める方法。
Detecting elements for the maximum response of the 3 DOF sequences found above, it can detect the address (n s0, n d c0) from "plane orientation and the normalized distance".
(III-6) Stereo + standardized distance + a axis unknown In (III-5), even if the visual axis direction a xis (that is, the position p axis on the visual axis connecting the left and right cameras) is not known, the following steps are performed. 3D orientation n s and a method for determining the normalized distance n d c plane.

ステップ1:視軸方向パラメータaxis を任意に設定する。 Step 1: The visual axis direction parameter a xis is arbitrarily set.

ステップ2:(III−5)を実行する。   Step 2: (III-5) is executed.

ステップ3:以上のステップをパラメータaxis を変えて行う。 Step 3: The above steps are performed by changing the parameter axis .

以上で投票された3自由度配列の中で、最大の応答をするパラメータ値axis0を求めると、そのパラメータ値として真の視軸方向axis00 を検出できる。また、3自由度配列(ステップ2)の中で極大の応答するアドレス(ns0c0)から“平面の方位と規格化距離”を検出できる。
(III−7)ステレオ+規格化最短距離
ステップ1:右カメラ画像内の任意画素 の番号iを考える。
When the parameter value axis0 that gives the maximum response in the three-degree-of-freedom array voted above is obtained, the true visual axis direction axis00 can be detected as the parameter value. Further, it is possible to detect the three degrees of freedom sequence (Step 2) address that responds maximum in (n s0, n d c0) from "plane orientation and the normalized distance".
(III-7) Stereo + standardized shortest distance Step 1: Consider number i of an arbitrary pixel i p k in the right camera image.

ステップ2:任意の両眼視差 σの番号kを考える。 Step 2: Consider the number k of any binocular parallax k sigma.

ステップ3:それら番号iとkに対応する“3自由度配列(平面の方位ベクトルn の2自由度、規格化最短距離 の1自由度)内の要素群{(nsjsj)}を決定する。 Step 3: (2 degrees of freedom, one degree of freedom of the normalized shortest distance n d s of planar orientation vector n s) in element group thereof number i and corresponding to the k "3 DOF sequence {(n sj, n d sj )}.

ステップ4:両眼視差を検出する方法(あるいは、装置)により、上記両眼視差 kσでの応答強度を入力画像から計算する。   Step 4: The response intensity at the binocular parallax kσ is calculated from the input image by the method (or apparatus) for detecting the binocular parallax.

ステップ5:その応答強度を、上記の要素群{(nsjsj)}に投票する。 Step 5: Vote the response strength for the above element group {(n sj , n d sj )}.

ステップ6:以上を所定範囲のiおよびkについて繰り返す。   Step 6: The above is repeated for a predetermined range of i and k.

以上で投票された3自由度配列の中で極大応答をする要素を検出して、そのアドレス(ns0s0)から“平面の方位と規格化最短距離”を検出できる。
(III−8)ステレオ+規格化最短距離+aaxis未知
(III−7)において、視軸方向axis (すなわち、左右カメラを結ぶ視軸上の位置paxis)を知らなくても、下記のステップで平面の3次元方位n および規格化最短距離 を求める方法。
The element having the maximum response is detected in the voted three-degree-of-freedom array, and the “plane orientation and standardized shortest distance” can be detected from the address (n s0 , n d s0 ).
(III-8) Stereo + standardized shortest distance + a axis unknown (III-7) Even if the visual axis direction a xis (that is, the position p axis on the visual axis connecting the left and right cameras) is not known, the following steps in 3-dimensional orientation n s and a method for determining the normalized shortest distance n d s plane.

ステップ1:視軸方向パラメータaxis を任意に設定する。 Step 1: The visual axis direction parameter a xis is arbitrarily set.

ステップ2:(III−7)を実行する。   Step 2: (III-7) is executed.

ステップ3:以上のステップをパラメータaxis を変えて行う。 Step 3: The above steps are performed by changing the parameter axis .

以上で投票された3自由度配列の中で、最大の応答をするパラメータ値axis0を求めると、そのパラメータ値として真の視軸方向axis0を検出できる。また、3自由度配列(ステップ2)の中で極大の応答するアドレス(ns0s0)から“平面の方位と規格化最短距離”を検出できる。

(IV)一般化
(IV−1)規格化時間
3自由度配列(平面の方位ベクトルn の2自由度、規格化時間 の1自由度)に、運動視差を検出する方法(あるいは、装置)により得られる応答強度を投票する方法。その配列の中で極大応答をする要素を検出することにより、そのアドレス(ns0c0)から“平面の方位と規格化時間”を検出できる。
When the parameter value axis0 that gives the maximum response is obtained from the three-degree-of-freedom array voted above, the true visual axis direction axis0 can be detected as the parameter value. In addition, the “plane orientation and normalized shortest distance” can be detected from the address (n s0 , n d s0 ) that responds to the maximum in the three-degree-of-freedom array (step 2).

To (IV) Generalized (IV-1) normalized time of 3 degrees of freedom sequences (two degrees of freedom of a plane orientation vector n s, 1 degree of freedom normalized time n t c), a method of detecting a motion parallax (or A method for voting the response strength obtained by the device. By detecting the element having the maximum response in the array, it is possible to detect the “plane orientation and normalization time” from the address (n s0 , n t c0 ).

尚、本発明の全てにおいて、“視差を検出する方法(あるいは、装置)により得られる応答強度を投票する”は、“入力画像の輝度に関連する量を投票する”でもよい。また、“視差を検出する方法(あるいは、装置)”は、“画像内の速度を検出する方法(あるいは、装置)”でもよい。
(IV−2)規格化時間+v未知
ステップ1:移動方向パラメータvを任意に設定する。
In all of the present invention, “voting the response intensity obtained by the method (or apparatus) for detecting parallax” may be “voting an amount related to the luminance of the input image”. Further, the “method (or device) for detecting parallax” may be a “method (or device) for detecting the speed in an image”.
(IV-2) Normalization time + v unknown Step 1: The moving direction parameter v is arbitrarily set.

ステップ2:(IV−1)を実行する。   Step 2: (IV-1) is executed.

ステップ3:以上のステップをパラメータvを変えて行う。   Step 3: The above steps are performed by changing the parameter v.

以上で投票された3自由度配列の中で、最大の応答をするパラメータ値v を求めると、そのパラメータ値として真の移動方向v を検出できる。また、3自由度配列(ステップ2)の中で極大の応答するアドレス(ns0c0)から“平面の方位と規格化時間”を検出できる。
(IV−3)規格化最短距離
3自由度配列(平面の方位ベクトルn の2自由度、規格化最短距離 の1自由度)に、運動視差を検出する方法(あるいは、装置)により得られる応答強度を投票する方法。その配列の中で極大応答をする要素を検出することにより、そのアドレス(ns0s0)から“平面の方位と規格化最短距離”を検出できる。
(IV−4)規格化最短距離+v未知
ステップ1:移動方向パラメータvを任意に設定する。
When the parameter value v 0 that gives the maximum response in the three-degree-of-freedom array voted above is obtained, the true movement direction v 0 can be detected as the parameter value. Further, it is possible to detect the three degrees of freedom sequence (Step 2) address that responds maximum in (n s0, n t c0) "plane orientation and the normalized time" from.
(IV-3) normalized shortest distance 3 degrees of freedom sequences (two degrees of freedom of a plane orientation vector n s, 1 degree of freedom normalized shortest distance n d s), the method of detecting a motion parallax (or device) A method of voting the response strength obtained by By detecting the element having the maximum response in the array, it is possible to detect the “plane orientation and normalized shortest distance” from the address (n s0 , n d s0 ).
(IV-4) Normalized shortest distance + v unknown Step 1: The moving direction parameter v is arbitrarily set.

ステップ2:(IV−3)を実行する。   Step 2: (IV-3) is executed.

ステップ3:以上のステップをパラメータvを変えて行う。   Step 3: The above steps are performed by changing the parameter v.

以上で投票された3自由度配列の中で、最大の応答をするパラメータ値v を求めると、そのパラメータ値として真の移動方向v を検出できる。また、3自由度配列(ステップ2)の中で極大の応答するアドレス(ns0s0)から“平面の方位と規格化最短距離”を検出できる。
(IV−5)ステレオ+規格化距離
3自由度配列(平面の方位ベクトルn の2自由度、規格化距離 の1自由度)に、両眼視差を検出する方法(あるいは、装置)により得られる応答強度を投票する方法。その配列の中で極大応答をする要素を検出することにより、そのアドレス(ns0c0)から“平面の方位と規格化距離”を検出できる。
(IV−6)ステレオ+規格化距離+axis 未知
ステップ1:視軸方向パラメータaxis を任意に設定する。
When the parameter value v 0 that gives the maximum response in the three-degree-of-freedom array voted above is obtained, the true movement direction v 0 can be detected as the parameter value. In addition, the “plane orientation and normalized shortest distance” can be detected from the address (n s0 , n d s0 ) that responds to the maximum in the three-degree-of-freedom array (step 2).
(Two degrees of freedom of a plane orientation vector n s, 1 degree of freedom normalized distance n d c) (IV-5 ) Stereo + normalized distance 3 degrees of freedom array, a method of detecting a binocular parallax (or device The method of voting the response intensity obtained by By detecting the element having the maximum response in the array, the “plane orientation and normalized distance” can be detected from the address (n s0 , n d c0 ).
(IV-6) Stereo + standardized distance + a xis unknown Step 1: The visual axis direction parameter a xis is arbitrarily set.

ステップ2:(IV−5)を実行する。   Step 2: (IV-5) is executed.

ステップ3:以上のステップをパラメータaxis を変えて行う。 Step 3: The above steps are performed by changing the parameter axis .

以上で投票された3自由度配列の中で、最大の応答をするパラメータ値axis0を求めると、そのパラメータ値として真の視軸方向axis0を検出できる。また、3自由度配列(ステップ2)の中で極大の応答するアドレス(ns0c0)から“平面の方位と規格化距離”を検出できる。
(IV−7)ステレオ+規格化最短距離
3自由度配列(平面の方位ベクトルn の2自由度、規格化最短距離 の1自由度)に、両眼視差を検出する方法(あるいは、装置)により得られる応答強度を投票する方法。その配列の中で極大応答をする要素を検出することにより、そのアドレス(ns0s0)から“平面の方位と規格化最短距離”を検出できる。
(IV−8)ステレオ+規格化最短距離+axis 未知
ステップ1:視軸方向パラメータaxis を任意に設定する。
When the parameter value axis0 that gives the maximum response is obtained from the three-degree-of-freedom array voted above, the true visual axis direction axis0 can be detected as the parameter value. Further, it is possible to detect the three degrees of freedom sequence (Step 2) address that responds maximum in (n s0, n d c0) from "plane orientation and the normalized distance".
(IV-7) to the stereo + normalized shortest distance 3 degrees of freedom sequences (two degrees of freedom of a plane orientation vector n s, 1 degree of freedom normalized shortest distance n d s), a method for detecting a binocular parallax (or A method for voting the response strength obtained by the device. By detecting the element having the maximum response in the array, it is possible to detect the “plane orientation and normalized shortest distance” from the address (n s0 , n d s0 ).
(IV-8) Stereo + standardized shortest distance + a xis unknown Step 1: The visual axis direction parameter a xis is arbitrarily set.

ステップ2:(IV−7)を実行する。   Step 2: (IV-7) is executed.

ステップ3:以上のステップをパラメータaxis を変えて行う。 Step 3: The above steps are performed by changing the parameter axis .

以上で投票された3自由度配列の中で、最大の応答をするパラメータ値axis0を求めると、そのパラメータ値として真の視軸方向axis0を検出できる。また、3自由度配列(ステップ2)の中で極大の応答するアドレス(ns0s0)から“平面の方位と規格化最短距離”を検出できる。 When the parameter value axis0 that gives the maximum response is obtained from the three-degree-of-freedom array voted above, the true visual axis direction axis0 can be detected as the parameter value. In addition, the “plane orientation and normalized shortest distance” can be detected from the address (n s0 , n d s0 ) that responds to the maximum in the three-degree-of-freedom array (step 2).

また、本発明の画像計測装置のうちの第1の画像計測装置は、
所定の計測空間内の所定の観察点から該計測空間内を眺めたときの画像にあらわれた、該計測空間内の任意の計測点の、相互に異なる2つの計測時刻における各計測位置をそれぞれp,p、前記計測点の、前記観察点に対する相対的な、前記2つの計測時刻の間における移動方向vと同一の方向への、かつ前記2つの計測時刻の間の移動速度と同一の速度での移動がそのまま継続されるものと予定した移動継続状態における無限時間経過後の前記計測点の位置をpinf、前記移動継続状態において前記計測点を含む計測平面が前記観察点に重なる重畳時刻における前記計測点の位置をpとしたとき、
前記計測点の4つの位置pinf,p,p,pで決まる複比{pinf}あるいは該複比と等価な演算を用いて、前記計測平面の方位、及び/又は、該計測平面が前記観察点に重なる重畳時刻を指標する物理量を求める演算部を備えたことを特徴とする。
The first image measurement device of the image measurement device of the present invention is:
Each measurement position at two different measurement times of an arbitrary measurement point in the measurement space, which appears in an image when the measurement space is viewed from a predetermined observation point in the predetermined measurement space, is p. 0 , p 1 , relative to the observation point, in the same direction as the movement direction v between the two measurement times, and the same as the movement speed between the two measurement times The position of the measurement point after infinite time has elapsed in the scheduled movement continuation state where the movement at the speed is continued as is, p inf , and the measurement plane including the measurement point in the movement continuation state is superimposed on the observation point when the position of the measurement point in time was p c,
The four positions p inf measurement point, p 0, p 1, using the cross ratio {p inf p 0 p 1 p c} or plurality ratio equivalent operations determined by p c, the orientation of the measurement plane, And / or a calculation unit that obtains a physical quantity that indicates a superposition time at which the measurement plane overlaps the observation point.

ここで、上記第1の画像計測装置において、前記演算部において実行される、前記複比{pinf}あるいは該複比と等価な演算には、前記計測点の、前記2つの計測時刻における2つの計測位置p,pに代えて、前記計測点の、前記2つの計測時刻のうちの一方の計測時刻における計測位置pと、前記計測点の、前記2つの計測時刻における2つの計測位置p,pどうしの間の位置の差である運動視差τとを用いる演算が包含されるものである。 Here, in the above-described first image measurement device, said executed in the arithmetic unit, the compound ratio {p inf p 0 p 1 p c} or plurality ratio equivalent operations, the measurement point, the two measurement instead of the position p 0, p 1 at two measurement time, the measurement point, the measurement position p 0 at one measurement time of said two measurement time, the measurement point, the two Calculations using motion parallax τ, which is the difference in position between the two measurement positions p 0 and p 1 at the measurement time, are included.

上記第1の画像計測装置において、前記演算部が、前記重畳時刻を指標する物理量として、前記2つの計測時刻のうちの一方の計測時刻と前記重畳時刻との間の時間をt、前記2つの計測時刻どうしの間の時間をΔtとしたときの、
=t/Δt
であらわされる規格化時間を採用し、該規格化時間を、
={pinf
の関係式あるいは該関係式と等価な関係式を用いて求めるものであってもよい。
In the first image measurement device, the arithmetic unit calculates a time between one measurement time of the two measurement times and the superposition time as a physical quantity indicating the superposition time by t c , 2 When the time between two measurement times is Δt,
n t c = t c / Δt
The normalized time n t c expressed by the following is adopted, and the normalized time n t c is
n t c = {p inf p 0 p 1 p c}
Or a relational expression equivalent to the relational expression.

また、上記第1の画像計測装置において、前記演算部が、
前記重畳時刻を指標する物理量をパラメータとして該パラメータの値を変更するパラメータ変更部と、
前記パラメータ変更部で設定された、前記重畳時刻を指標する物理量と、前記計測点の前記2つの計測時刻における各計測位置p,pあるいは、これら2つの計測位置p,pに代わる、該計測点の、前記2つの計測時刻のうちの一方の計測時刻における計測位置pおよび該計測点の、前記2つの計測時刻における2つの計測位置p,pどうしの間の運動視差τと、前記移動継続状態における無限時間経過後の位置pinfとから、前記複比{pinf}あるいは該複比と等価な演算を用いて、該計測点の前記重畳時刻における位置pを求める複比変換部と、
前記計測点の、前記重畳時刻における位置pを極変換することにより該計測点に対応する極線を求める極変換部と、
前記計測空間内の複数の計測点について、前記複比変換部および前記複比変換部における各演算が、前記パラメータの値を前記パラメータ設定部で変更されながら複数回繰り返される間に求められた複数の極線を極線描画空間に描画したときの極線どうしの交差点を求めることにより、該交差点で交わる複数の極線に対応する複数の計測点を含む計測平面の方位、及び/又は、該計測平面が前記観察点に重なる重畳時刻を指標する物理量を求める検出部とを備えたものであってもよい。
In the first image measurement device, the calculation unit includes:
A parameter changing unit that changes the value of the parameter with the physical quantity indicating the superposition time as a parameter;
Instead of the physical quantity indexed by the superimposition time set by the parameter changing unit and the measurement positions p 0 and p 1 at the two measurement times of the measurement points, or these two measurement positions p 0 and p 1 . The motion parallax between the measurement position p 0 of the measurement point at one of the two measurement times and the two measurement positions p 0 and p 1 of the measurement point at the two measurement times. and tau, wherein a and a position p inf of after infinite time in a mobile continuous state, using the equivalent operation with the cross ratio {p inf p 0 p 1 p c} or plurality ratio, the superposition of the measuring points a compound ratio conversion unit for determining the position p c at time,
A polar transformation unit for obtaining the polar corresponding to the measurement point by converting the measurement point, the position p c in the superimposed time pole,
The plurality of measurement points obtained in the measurement space while each calculation in the multi-ratio conversion unit and the multi-ratio conversion unit is repeated a plurality of times while the parameter value is changed by the parameter setting unit. Of the measurement plane including a plurality of measurement points corresponding to a plurality of polar lines intersecting at the intersection, and / or And a detection unit that obtains a physical quantity indicating the superposition time at which the measurement plane overlaps the observation point.

その場合に、前記画像上にあらわれた計測点が強度の情報を有するものであって、前記極変換部が、前記極線を求めるとともに、求められた極線を極線描画空間に描画したときの該極線の軌跡上の各点それぞれに該極線に対応する計測点の強度に対応する値を投票するものであり、前記検出部が、前記交差点を求めることに代わり、前記複比変換部および前記極変換部における各演算が、前記パラメータの値が前記パラメータ変更部で変更しながら複数回繰り返される間の投票による値が極大値となる極大点を求めることにより、該極大点の投票に参加した複数の極線に対応する複数の計測点を含む計測平面の方位、及び/又は、該計測平面が前記観察点に重なる重畳時刻を指標する物理量を求めるものであることが好ましい。   In that case, when the measurement point appearing on the image has intensity information, the polar conversion unit obtains the polar line and draws the obtained polar line in the polar drawing space. A value corresponding to the intensity of the measurement point corresponding to the polar line is voted for each point on the trajectory of the polar line, and the detection unit replaces the cross ratio conversion instead of obtaining the intersection. Voting of the maximum point by obtaining a maximum point where the value by voting becomes a maximum value while each of the operations in the unit and the maximum conversion unit is repeated a plurality of times while the value of the parameter is changed by the parameter changing unit It is preferable to obtain the orientation of a measurement plane including a plurality of measurement points corresponding to a plurality of polar lines that participated in and / or a physical quantity that indicates a superposition time at which the measurement plane overlaps the observation point.

また、上記の第1画像計測装置において、前記画像上にあらわれた計測点が強度の情報を有するものであって、
前記演算部が、前記計測点の前記2つの計測時刻における2つの計測位置p,pどうしの間の運動視差τを第2のパラメータとして該第2のパラメータの値を変更する第2のパラメータ変更部を備え、
前記複比変換部が、前記パラメータ変更部で設定された、前記重畳時刻を指標する物理量と、前記計測点の前記2つの計測時刻のうちの一方の計測時刻における計測位置pと、前記第2のパラメータ変更部で設定された前記運動視差τと、該計測点の前記移動継続状態における無限時間経過後の位置pinfとから、該計測点の前記重畳時刻における位置pを求めるものであり、
前記極変換部が、前記計測点に対応する極線を求めるとともに、該計測点の、前記運動視差τに対応する応答強度を求め、求められた極線を極線描画空間に描画したときの該極線の軌跡上の各点それぞれに、該極線に対応する計測点の、前記運動視差τに対応する応答強度を投票するものであって、
前記検出部が、前記交差点を求めることに代わり、前記計測空間内の複数の計測点について、前記複比変換部および極変換部における各演算を前記パラメータ変更部および前記第2のパラメータ変更部において各パラメータの各値を変更しながら複数回繰り返す間の投票による値が極大値となる極大点を求めることにより、該極大点の投票に参加した複数の極線に対応する複数の計測点を含む計測平面の方位、及び/又は、該計測平面が前記観察点に重なる重畳時刻を指標する物理量を求めるものであることも好ましい態様である。
In the first image measurement apparatus, the measurement point appearing on the image has intensity information,
The arithmetic unit changes the value of the second parameter using the motion parallax τ between the two measurement positions p 0 and p 1 at the two measurement times of the measurement point as a second parameter. With a parameter changer,
The multi-ratio conversion unit sets the physical quantity that is set by the parameter changing unit to index the superposition time, the measurement position p 0 at one of the two measurement times of the measurement point, and the first from said motion parallax τ set by the second parameter change unit, and the position p inf after infinite time has elapsed in the mobile continuity state of the measurement point, and requests the position p c in the superimposed time of the measurement point Yes,
The polar converter obtains a polar line corresponding to the measurement point, obtains a response intensity corresponding to the motion parallax τ of the measurement point, and draws the obtained polar line in the polar drawing space Voting the response intensity corresponding to the motion parallax τ of the measurement point corresponding to the polar line for each point on the trajectory of the polar line,
Instead of obtaining the intersection, the detection unit performs each calculation in the cross ratio conversion unit and the pole conversion unit on the plurality of measurement points in the measurement space in the parameter change unit and the second parameter change unit. Including a plurality of measurement points corresponding to a plurality of polar lines participating in the voting of the maximum points by obtaining a maximum point where the value by voting during a plurality of repetitions while changing each value of each parameter becomes a maximum value It is also a preferred aspect to obtain a physical quantity that indicates the orientation of the measurement plane and / or the superposition time at which the measurement plane overlaps the observation point.

また、上記第1の画像計測装置において、前記演算部が、
前記移動方向vを第1のパラメータとして該第1のパラメータの値を変更することにより前記移動継続状態における無限時間経過後の前記計測点の位置pinfを変更する第1のパラメータ変更部と、
前記重畳時刻を指標する物理量を第2のパラメータとして該第2のパラメータの値を変更する第2のパラメータ変更部と、
前記第1のパラメータ変更部で設定された位置pinfと、前記第2のパラメータ変更部で設定された、前記重畳時刻を指標する物理量と、前記計測点の前記2つの計測時刻における各計測位置p,pあるいは、これら2つの計測位置p,pに代わる、該計測点の、前記2つの計測時刻のうちの一方の計測時刻における計測位置pおよび該計測点の、前記2つの計測時刻における2つの計測位置p,pどうしの間の運動視差τとから、前記複比{pinf}あるいは該複比と等価な演算を用いて、該計測点の前記重畳時刻における位置pを求める複比変換部と、
前記計測点の、前記重畳時刻における位置pを極変換することにより該計測点に対応する極線を求める極変換部と、
前記計測空間内の複数の計測点について、前記複比変換部および前記極変換部における各演算が、前記第1のパラメータおよび前記第2のパラメータの各値がそれぞれ前記第1のパラメータおよび前記第2のパラメータ変更部で変更されながら複数回繰り返される間に求められた複数の極線を前記第1のパラメータの値に応じた複数の極線描画空間のうちのそれぞれ対応する極線描画空間に描画したときの極線どうしの交差点を各極線描画空間ごとに求め該交差点で交わる極線の本数の情報に基づいて前記計測点の前記観察点に対する相対的な真の移動方向に対応する極線描画空間を選択することにより該真の移動方向を求めるとともに、該真の移動方向に対応する極線描画空間について求められた交差点で交わる複数の極線に対応する複数の計測点を含む計測平面の方位、及び/又は、該計測平面が前記観察点に重なる重畳時刻を指標する物理量を求める検出部とを備えたものであることが好ましく、
その場合に、前記画像上にあらわれた計測点が強度の情報を有するものであって、前記極変換部が、前記極線を求めるとともに、求められた極線を該極線に対応する極線描画空間に描画したときの該極線の軌跡上の各点それぞれに該極線に対応する計測点の強度に対応する値を投票するものであり、前記検出部が、前記交差点を求めることに代わり、前記複比変換部および前記極変換部における各演算が、前記第1のパラメータおよび前記第2のパラメータの各値が順次変更されながら複数回繰り返される間の投票による値が極大値となる極大点を各極線描画空間ごとに求め該極大点における極大値の情報に基づいて前記真の移動方向に対応する極線描画空間を選択することにより該真の移動方向を求めるとともに、該真の移動方向に対応する極線描画空間について求められた極大点の投票に参加した複数の極線に対応する複数の計測点を含む計測平面の方位、及び/又は、該計測平面が前記観察点に交わる重畳時刻を指標する物理量を求めるものであることが好ましく、あるいは、
前記画像上にあらわれた計測点が強度の情報を有するものであって、
前記演算部が、前記計測点の前記2つの計測時刻における2つの計測位置p,pどうしの間の運動視差τを第3のパラメータとして該第3のパラメータの値を変更する第3のパラメータ変更部を備え、
前記複比変換部が、前記第1のパラメータ変更部で設定された位置pinfと、前記第2のパラメータ変更部で設定された、前記重畳時刻を指標する物理量と、前記計測点の前記2つの計測時刻のうちの一方の計測時刻における計測位置pと、前記第3のパラメータ変更部で設定された前記運動視差τとを用いて、該計測点の前記重畳時刻における位置pを求めるものであり、
前記極変換部が、前記計測点に対応する極線を求めるとともに、該計測点の、前記運動視差τに対応する応答強度を求め、求められた極線を極線描画空間に描画したときの該極線の軌跡上の各点それぞれに、該極線に対応する計測点の、前記運動視差τに対応する応答強度を投票するものであって、
前記検出部が、前記交差点を求めることに代わり、前記計測空間内の複数の計測点について、前記複比変換部および前記極変換部における各演算を前記第1、第2、および第3のパラメータ変更部において各パラメータの各値を変更しながら複数回繰り返す間の投票による値が極大値となる極大点を各極線描画空間ごとに求め該極大点における極大値の情報に基づいて前記真の移動方向に対応する極線描画空間を選択することにより該真の移動方向を求めるとともに、該真の移動方向に対応する極線描画空間について求められた極大点の投票に参加した複数の極線に対応する複数の計測点を含む計測平面の方位、及び/又は、該計測平面が前記観察点に重なる重畳時刻を指標する物理量を求めるものであることも好ましい態様である。
In the first image measurement device, the calculation unit includes:
A first parameter changing unit that changes the position p inf of the measurement point after the infinite time has elapsed in the movement continuation state by changing the value of the first parameter using the movement direction v as a first parameter;
A second parameter changing unit that changes the value of the second parameter using the physical quantity indicating the superposition time as a second parameter;
The position p inf set by the first parameter changing unit, the physical quantity indexed by the superposition time set by the second parameter changing unit, and each measurement position at the two measurement times of the measurement point p 0, p 1 or the two measuring positions p 0, replaces the p 1, of the measurement point, the measurement position p 0 and the measurement point at one measurement time of said two measurement time, the 2 one of the measuring two measuring positions p at time 0, the p 1 if the motion parallax τ between, using the double ratio {p inf p 0 p 1 p c} or plurality ratio equivalent calculation, the measurement a cross-ratio conversion unit for determining the position p c in the superimposed time point,
A polar transformation unit for obtaining the polar corresponding to the measurement point by converting the measurement point, the position p c in the superimposed time pole,
With respect to a plurality of measurement points in the measurement space, each calculation in the cross ratio conversion unit and the polar conversion unit is performed by using the first parameter and the second parameter as the first parameter and the second parameter, respectively. The plurality of polar lines obtained while being repeated a plurality of times while being changed by the two parameter changing units are respectively converted into corresponding polar line drawing spaces among the plurality of polar line drawing spaces according to the value of the first parameter. A pole corresponding to the true movement direction relative to the observation point of the measurement point based on information on the number of polar lines intersecting at the intersection, where intersections between polar lines at the time of drawing are obtained for each polar line drawing space The true movement direction is determined by selecting a line drawing space, and a plurality of polar lines that intersect at the intersections obtained for the polar drawing space corresponding to the true movement direction Azimuth measurement plane including a measurement point, and / or is preferably one that includes a detector for determining a physical quantity indicative of the superimposed time the measurement plane overlaps the observation point,
In that case, the measurement point appearing on the image has intensity information, and the polar converter obtains the polar line, and the obtained polar line corresponds to the polar line. A value corresponding to the intensity of the measurement point corresponding to the polar line is voted for each point on the trajectory of the polar line when drawn in the drawing space, and the detection unit determines the intersection. Instead, a value obtained by voting becomes a maximum value while each calculation in the cross ratio conversion unit and the maximum conversion unit is repeated a plurality of times while each value of the first parameter and the second parameter is sequentially changed. A local maximum point is obtained for each polar line drawing space, and the true moving direction is obtained by selecting a polar line drawing space corresponding to the true moving direction based on information on the local maximum value at the local maximum point. Corresponding to the direction of movement The direction of the measurement plane including a plurality of measurement points corresponding to a plurality of polar lines that participated in the voting of the maximum points obtained for the polar drawing space, and / or the superimposition time at which the measurement plane intersects the observation points is used as an index Preferably to determine the physical quantity to be
Measurement points appearing on the image have intensity information,
The arithmetic unit changes a value of the third parameter using a motion parallax τ between the two measurement positions p 0 and p 1 at the two measurement times of the measurement point as a third parameter. With a parameter changer,
The multi-ratio conversion unit includes a position p inf set by the first parameter changing unit, a physical quantity indicating the superposition time set by the second parameter changing unit, and the 2 of the measurement points. one of the measurement position p 0 in the measurement time of one of the measurement time, the third with said motion parallax τ set by the parameter changing unit of determining the position p c in the superimposed time of the measurement point Is,
The polar converter obtains a polar line corresponding to the measurement point, obtains a response intensity corresponding to the motion parallax τ of the measurement point, and draws the obtained polar line in the polar drawing space Voting the response intensity corresponding to the motion parallax τ of the measurement point corresponding to the polar line for each point on the trajectory of the polar line,
Instead of obtaining the intersection by the detection unit, the first, second, and third parameters are calculated in the cross ratio conversion unit and the pole conversion unit for a plurality of measurement points in the measurement space. In the changing unit, each value of each parameter is changed a plurality of times, and a maximum point at which the value obtained by voting becomes a maximum value is obtained for each polar drawing space, and the true value is calculated based on the maximum value information at the maximum point. The polar line drawing space corresponding to the moving direction is selected to obtain the true moving direction, and a plurality of polar lines participating in voting for the maximum points obtained for the polar line drawing space corresponding to the true moving direction It is also a preferred aspect to obtain the orientation of the measurement plane that includes a plurality of measurement points corresponding to and / or a physical quantity that indicates the superposition time at which the measurement plane overlaps the observation point.

また、上記本発明の画像計測装置のうちの第2の画像計測装置は、
所定の計測空間内の所定の観察点から該計測空間内を眺めたときの画像にあらわれた、該計測空間内の任意の計測点の、相互に異なる2つの計測時刻における各計測位置をそれぞれp,p、前記計測点の、前記観察点に対する相対的な、前記2つの計測時刻の間における移動方向をv、前記計測点の、前記観察点に対する相対的な、前記2つの計測時刻の間における移動方向vと同一方向への、かつ前記2つの計測時刻の間の移動速度と同一の速度での移動がそのまま継続されるものと予定した移動継続状態における無限時間経過後の前記計測点の位置をpinf、前記移動継続状態において前記計測点を含む計測平面が前記観察点に重なる重畳時刻における前記計測点の位置をp、前記計測平面の方位をnとしたとき、
前記計測点の4つの位置pinf,p,p,pで決まる複比{pinf}あるいは該複比と等価な演算と、前記計測平面の方位nと前記移動方向vとの内積(n・v)とを用いて、前記計測平面の方位n、及び/又は、前記観察点から前記2つの計測時刻のうちの一方の計測時刻における前記計測平面までの最短距離を指標する物理量を求める演算部を備えたことを特徴とする。
The second image measuring device of the image measuring device of the present invention is
Each measurement position at two different measurement times of an arbitrary measurement point in the measurement space, which appears in an image when the measurement space is viewed from a predetermined observation point in the predetermined measurement space, is p. 0 , p 1 , v is the moving direction between the two measurement times relative to the observation point, v, and the two measurement times are relative to the observation point. In the same direction as the moving direction v between and at the same speed as the moving speed between the two measurement times, the measurement point after the infinite time has elapsed in the scheduled movement continuation state P inf , the position of the measurement point at the time of superimposition where the measurement plane including the measurement point overlaps the observation point in the movement continuation state is p c , and the orientation of the measurement plane is n s ,
Four positions p inf of the measurement points, and p 0, p 1, p cross ratios determined by c and the equivalent operations {p inf p 0 p 1 p c} or plurality ratio, orientation n s of the measurement plane Using the inner product ( ns / v) with the moving direction v, the measurement plane at the one measurement time of the two measurement times from the observation point azimuth n s and / or the observation point And an arithmetic unit that obtains a physical quantity that indicates the shortest distance up to.

ここで、上記第2の画像計測装置において、前記演算部において実行される、前記複比{pinf}あるいは該複比と等価な演算には、前記計測点の、前記2つの計測時刻における2つの計測位置p,pに代えて、前記計測点の、前記2つの計測時刻のうちの一方の計測時刻における計測位置pと、前記計測点の、前記2つの計測時刻における2つの計測位置p,pどうしの間の位置の差である運動視差τとを用いる演算が包含されるものである。 Here, in the above-described second image measuring apparatus, the executed in the arithmetic unit, the compound ratio {p inf p 0 p 1 p c} or plurality ratio equivalent operations, the measurement point, the two measurement instead of the position p 0, p 1 at two measurement time, the measurement point, the measurement position p 0 at one measurement time of said two measurement time, the measurement point, the two Computation using motion parallax τ, which is the difference in position between the two measurement positions p 0 and p 1 at the measurement time, is included.

上記第2の画像計測装置は、前記演算部が、前記最短距離を指標とする物理量として、前記観察点と、前記2つの計測時刻のうちの一方の計測時刻における前記計測平面との間の最短距離をd、前記2つの計測時刻のうちの前記一方の計測時刻と前記重量時刻との間の時間をt、前記2つの計測時刻どうしの間の前記計測点の、前記観察点に対する相対的な移動距離をΔx、前記2つの計測時刻どうしの間の時間をΔtとしたときの、
=d/Δx
であらわされる規格化最短距離を採用し、該規格化最短距離を、
=t/Δt
であらわされる規格化時間と前記内積(n・v)とを用いた、
(n・v)
の関係式を用いて求めるものであってもよい。
In the second image measurement device, the calculation unit uses the shortest distance as an index to measure the shortest distance between the observation point and the measurement plane at one of the two measurement times. The distance is d s , the time between the one measurement time of the two measurement times and the weight time is t c , and the measurement point between the two measurement times is relative to the observation point When the typical movement distance is Δx and the time between the two measurement times is Δt,
n d s = d s / Δx
The standardized shortest distance n d s expressed by the following formula is adopted, and the standardized shortest distance n d s
n t c = t c / Δt
Using the normalized time n t c expressed by: and the inner product (n s · v),
n d s = n t c ( n s · v)
It may be obtained using the following relational expression.

また、上記第2の画像計測装置において、前記演算部が、
前記最短距離を指標する物理量を第1のパラメータとして該第1のパラメータの値を変更する第1のパラメータ変更部と、
前記内積(n・v)を第2のパラメータとして該第2のパラメータの値を変更する第2のパラメータ変更部と、
前記第1のパラメータ変更部で設定された、前記最短距離を指標する物理量と、前記第2のパラメータ変更部で設定された内積(n・v)と、前記計測点の前記2つの計測時刻における各計測位置p,pあるいは、これら2つの計測位置p,pに代わる、該計測点の、前記2つの計測時刻のうちの一方の計測時刻における計測位置pおよび該計測点の、前記2つの計測時刻における2つの計測位置p,pどうしの間の運動視差τと、前記移動継続状態における無限時間経過後の位置pinfとから、前記複比{pinf}あるいは該複比と等価な演算を用いて、該計測点の前記重畳時刻における位置pを求める複比変換部と、
前記計測点の、前記重畳時刻における位置pを極変換することにより該位置pに対応する極線を求める極変換部と、
前記極線上の点であって、かつ前記移動方向vと角度
r=cos−1(n・v)
を成す点を求める点演算部とを備えるとともに、
前記計測空間内の複数の計測点について、前記複比変換部、前記極変換部、および前記点演算部における各演算が、前記第1のパラメータおよび前記第2のパラメータの各値がそれぞれ前記第1のパラメータ変更部および前記第2のパラメータ変更部で変更されながら複数回繰り返されることにより、前記点演算部における、1つの計測点に関する、前記第1のパラメータの値が同一であって、かつ前記第2のパラメータの値がそれぞれ異なる複数回の演算により求められる複数の点を結ぶ曲線が、前記第1のパラメータの各値ごとに前記複数の計測点について求められた後に演算を実行する、
前記複比変換部、前記極変換部、および前記点演算部における各演算が複数回繰り返される間に求められた複数の曲線を曲線描画空間に描画したときの曲線どうしの交差点を求めることにより、該交差点で交わる複数の曲線に対応する複数の計測点を含む計測平面の方位n、及び/又は、前記観察点から前記2つの計測時刻のうちの一方の計測時刻における前記計測平面までの最短距離を指標する物理量を求める検出部を備えたものであってもよく、
その場合に、前記画像上にあらわれた計測点が強度の情報を有するものであって、前記点演算部が、前記点を求めるとともに、該点に対応する計測点の強度に対応する値を該点に対応する、前記曲線描画空間内の点に投票するものであり、前記検出部が、前記交差点を求めることに代わり、前記複比変換部、前記極変換部、および前記点演算部における各演算が複数回繰り返される間の投票による値が極大値となる極大点を求めることにより、該極大点の投票に参加した複数の曲線に対応する複数の計測点を含む計測平面の方位n、及び/又は、前記観察点から前記2つの計測時刻のうちの一方の計測時刻における前記計測平面までの最短距離を指標する物理量を求めるものであることが好ましく、あるいは、
前記画像上にあらわれた計測点が強度の情報を有するものであって、
前記演算部が、前記計測点の前記2つの計測時間における2つの計測位置p,pどうしの間の運動視差τを第3のパラメータとして該第3のパラメータを変更する第3のパラメータ変更部を備え、
前記複比変換部が、前記第1のパラメータ変更部で設定された、前記最短距離を指標する物理量と、前記第2のパラメータ変更部で設定された内積(n・v)と、前記計測点の、前記2つの計測時刻のうちの一方の計測時刻における計測位置pと、前記第3のパラメータで設定された前記運動視差τと、該計測点の、前記移動継続状態における無限時間経過後の位置pinfとを用いて、該計測点の、前記重畳時刻における位置pを求めるものであり、
前記演算部が、前記計測点に対応する極線上の前記点を求めるとともに、該計測点の、前記運動視差τに対応する応答強度を求め、該極線上の前記点に対応する計測点の、前記運動視差τに対応する応答強度を、該極線上の前記点に対応する、前記曲線描画空間内の点に投票するものであって、
前記検出部が、前記交差点を求めることに代わり、前記計測空間内の複数の計測点について、前記複比変換部、前記極変換部、および前記演算部における各演算を前記第1、第2、および第3のパラメータ変更部において各パラメータの各値を変更しながら複数回繰り返す間の投票による値が極大値となる極大点を求めることにより、該極大点の投票に参加した複数の曲線に対応する複数の計測点を含む計測平面の方位n、及び/又は、前記観察点から前記2つの計測時刻のうちの一方の計測時刻における前記計測平面までの最短距離を指標する物理量を求めるものであることも好ましい態様である。
In the second image measurement device, the calculation unit includes:
A first parameter changing unit that changes the value of the first parameter using the physical quantity indicating the shortest distance as a first parameter;
A second parameter changing unit that changes the value of the second parameter using the inner product ( ns / v) as a second parameter;
The physical quantity indicating the shortest distance set by the first parameter changing unit, the inner product ( ns / v) set by the second parameter changing unit, and the two measurement times of the measurement points each measurement position p 0, p 1, or in, the two measuring positions p 0, replaces the p 1, of the measurement point, the two measurement positions in one of the measurement time p 0 and the measurement point of the measurement time Of the motion parallax τ between the two measurement positions p 0 and p 1 at the two measurement times and the position p inf after the infinite time has elapsed in the movement continuation state, the cross ratio {p inf p 0 with p 1 p c} or plurality ratio equivalent calculation, the cross-ratio conversion unit for determining the position p c in the superimposed time of the measurement points,
A polar transformation unit for obtaining the polar corresponding to the position p c by converting the measurement point, the position p c in the superimposed time pole,
Said a point of pole line, and the moving direction v and angle r = cos -1 (n s · v)
And a point calculation unit for obtaining a point forming
With respect to a plurality of measurement points in the measurement space, each calculation in the cross ratio conversion unit, the pole conversion unit, and the point calculation unit is performed by using each value of the first parameter and the second parameter, respectively. The value of the first parameter for one measurement point in the point calculation unit is the same by being repeated a plurality of times while being changed by the one parameter changing unit and the second parameter changing unit, and Performing a calculation after a curve connecting a plurality of points obtained by a plurality of calculations with different values of the second parameter is obtained for the plurality of measurement points for each value of the first parameter;
By calculating intersections between curves when drawing a plurality of curves obtained while repeating each calculation in the cross ratio conversion unit, the polar conversion unit, and the point calculation unit a plurality of times in a curve drawing space, shortest orientation n s measurement plane including a plurality of measurement points corresponding to a plurality of curves which intersect in the intersection, and / or from the observation point to the measurement plane at one measurement time of said two measurement time It may be provided with a detection unit for obtaining a physical quantity indicating the distance,
In this case, the measurement point appearing on the image has intensity information, and the point calculation unit obtains the point and sets a value corresponding to the intensity of the measurement point corresponding to the point. Voting for a point in the curve drawing space corresponding to a point, and instead of obtaining the intersection, each of the detection unit in the cross ratio conversion unit, the pole conversion unit, and the point calculation unit By obtaining a local maximum point at which the value obtained by voting during the calculation is repeated a plurality of times, the azimuth n s of the measurement plane including a plurality of measurement points corresponding to the plurality of curves participating in the voting of the local maximum point, And / or preferably to obtain a physical quantity indicating the shortest distance from the observation point to the measurement plane at one of the two measurement times, or
Measurement points appearing on the image have intensity information,
A third parameter change in which the computing unit changes the third parameter using the motion parallax τ between the two measurement positions p 0 and p 1 at the two measurement times of the measurement point as a third parameter. Part
The cross ratio conversion unit sets the physical quantity indicating the shortest distance set by the first parameter changing unit, the inner product ( ns / v) set by the second parameter changing unit, and the measurement The measurement position p 0 of the point at one of the two measurement times, the motion parallax τ set by the third parameter, and the infinite time lapse of the measurement point in the movement continuation state using the position p inf after, of the measurement points, which determine the position p c in the superimposed time,
The calculation unit obtains the point on the polar line corresponding to the measurement point, obtains a response intensity corresponding to the motion parallax τ of the measurement point, and determines the measurement point corresponding to the point on the polar line, Voting a response intensity corresponding to the motion parallax τ to a point in the curve drawing space corresponding to the point on the polar line,
Instead of obtaining the intersection, the detection unit performs each calculation in the cross ratio conversion unit, the polar conversion unit, and the calculation unit for the plurality of measurement points in the measurement space. In addition, the third parameter changing unit corresponds to a plurality of curves that participated in the voting of the local maximum point by calculating the local maximum point at which the value obtained by the voting during the multiple repetitions while changing each value of each parameter. A physical quantity indicating the shortest distance from the observation point to the measurement plane at one of the two measurement times, and / or the direction n s of the measurement plane including a plurality of measurement points. It is also a preferred embodiment.

また、上記第2の画像計測装置において、前記演算部が、
前記移動方向vを第1のパラメータとして該第1のパラメータの値を変更することにより前記移動継続状態における無限時間経過後の前記計測点の位置pinfを変更する第1のパラメータ変更部と、
前記最短距離を指標する物理量を第2のパラメータとして該第2のパラメータの値を変更する第2のパラメータ変更部と、
前記内積(n・v)を第3のパラメータとして該第3のパラメータの値を変更する第3のパラメータ変更部と、
前記第1のパラメータ演算部で設定された、前記移動継続状態における無限時間経過後の前記計測点の位置pinfと、前記第2のパラメータ演算部で設定された、前記最短距離を指標する物理量と、前記第3のパラメータ演算部で設定された内積(n・v)と、前記計測点の前記2つの計測時刻における各計測位置p,pあるいは、これら2つの計測位置p,pに代わる、該計測点の、前記2つの計測時刻のうちの一方の計測時刻における計測位置pおよび該計測点の、前記2つの計測時刻における2つの計測位置p,pどうしの間の運動視差τとから、前記複比{pinf}あるいは該複比と等価な演算を用いて、該計測点の前記重畳時刻における位置pを求める複比変換部と、
前記計測点の、前記重畳時刻における位置pを極変換することにより該位置pに対応する極線を求める極変換部と、
前記極線上の点であって、かつ前記移動方向vと角度
r=cos−1(n・v)
を成す点を求める点演算部とを備えるとともに、
前記計測空間内の複数の計測点について、前記複比変換部、前記極変換部、および前記点演算部における各演算が、前記第1から第3までのパラメータの各値がそれぞれ前記第1から第3までの各パラメータ変更部で変更されながら複数回繰り返されることにより、前記点演算部における、1つの計測点に関する、前記第1のパラメータの値が同一であるとともに前記第2のパラメータの値が同一であって、かつ前記第3のパラメータの値がそれぞれ異なる複数回の演算により求められる複数の点を結ぶ曲線が、前記第1のパラメータの各値と前記第2のパラメータの各値との各組合せごとに前記複数の計測点について求められた後に演算を実行する、
前記複比変換部、前記極変換部、および前記点演算部における各演算が複数回繰り返される間に求められた複数の曲線を前記第1のパラメータの値に応じた複数の曲線描画空間のうちのそれぞれ対応する曲線描画空間に描画したときの曲線どうしの交差点を各曲線描画空間ごとに求め該交差点で交わる曲線の本数の情報に基づいて前記計測点の前記観察点に対する相対的な真の移動方向に対応する曲線描画空間を選択することにより該真の移動方向を求めるとともに、該真の移動方向に対応する曲線描画空間について求められた交差点で交わる複数の曲線に対応する複数の計測点を含む計測平面の方位n、及び/又は、前記観察点から前記2つの計測時刻のうちの一方の計測時刻における前記計測平面までの最短距離を指標する物理量を求める検出部を備えたものであってもよく、
その場合に、前記画像上にあらわれた計測点が強度の情報を有するものであって、
前記点演算部が、前記点を求めるとともに、該点に対応する計測点の強度に対応する値を該点に対応する、該点を含む曲線が描かれる曲線描画空間内の点に投票するものであり、前記検出部が、前記交差点を求めることに代わり、前記複比変換部、前記極変換部、および前記点演算部における各演算が複数回繰り返される間の投票による値が極大値となる極大点を各曲線描画空間ごとに求め該極大点における極大値の情報に基づいて前記真の移動方向に対応する曲線描画空間を選択することにより該真の移動方向を求めるとともに、該真の移動方向に対応する曲線描画空間について求められた極大点の投票に参加した複数の曲線に対応する複数の計測点を含む計測平面の方位n、及び/又は、前記観察点から前記2つの計測時間のうちの一方の計測時間における前記計測平面までの最短距離を指標する物理量を求めるものであることが好ましく、あるいは、
前記画像上にあらわれた計測点が強度の情報を有するものであって、
前記演算部が、前記計測点の前記2つの計測時間における2つの計測位置p,pどうしの間の運動視差τを第4のパラメータとして該第4のパラメータの値を変更する第4のパラメータ変更部を備え、
前記複比変換部が、前記第1のパラメータ変更部で設定された、前記移動継続状態における無限時間経過後の前記計測点の位置pinfと、前記第2のパラメータ変更部で設定された、前記最短距離を指標する物理量と、前記第3のパラメータ変更部で設定された内積(n・v)と、前記計測点の、前記2つの計測時刻のうちの一方の計測時刻における計測位置pと、前記第4のパラメータ変更部で設定された前記運動視差τとを用いて、該計測点の、前記重畳時刻における位置pを求めるものであり、
前記点演算部が、前記計測点に対応する極線上の前記点を求めるとともに、該計測点の、前記運動視差τに対応する応答強度を求め、該極線上の前記点に対応する計測点の、前記運動視差τに対応する応答強度を、該極線上の前記点に対応する、前記曲線描画空間内の点に投票するものであって、
前記検出部が、前記交差点を求めることに代わり、前記計測空間内の複数の計測点について、前記複比変換部、前記極変換部、および前記演算部における各演算を前記第1、第2、第3、および第4のパラメータ変更部において各パラメータの各値を変更しながら複数回繰り返す間の投票による値が極大値となる極大点を各曲線描画空間ごとに求め該極大点における極大値の情報に基づいて前記真の移動方向に対応する曲線描画空間を選択することにより該真の移動方向を求めるとともに、該真の移動方向に対応する曲線描画空間について求められた極大点の投票に参加した複数の曲線に対応する複数の計測点を含む計測平面の方位n、及び/又は、前記観察点から前記2つの計測時刻のうちの一方の計測時刻における前記計測平面までの最短距離を指標する物理量を求めるステップであることも好ましい態様である。
In the second image measurement device, the calculation unit includes:
A first parameter changing unit that changes the position p inf of the measurement point after the infinite time has elapsed in the movement continuation state by changing the value of the first parameter using the movement direction v as a first parameter;
A second parameter changing unit that changes the value of the second parameter using the physical quantity indicating the shortest distance as a second parameter;
A third parameter changing unit that changes the value of the third parameter using the inner product ( ns / v) as a third parameter;
A physical quantity indicative of the shortest distance set by the second parameter calculation unit and the position p inf of the measurement point after the infinite time has elapsed in the movement continuation state set by the first parameter calculation unit And the inner product ( ns · v) set by the third parameter calculation unit and the measurement positions p 0 , p 1 at the two measurement times of the measurement points, or these two measurement positions p 0 , Instead of p 1 , the measurement point p 0 of the measurement point at one of the two measurement times and the two measurement positions p 0 and p 1 of the measurement point at the two measurement times and a motion parallax τ between, using the double ratio {p inf p 0 p 1 p c} or plurality ratio equivalent operations, cross-ratio conversion unit for determining the position p c in the superimposed time of the measurement point When,
A polar transformation unit for obtaining the polar corresponding to the position p c by converting the measurement point, the position p c in the superimposed time pole,
Said a point of pole line, and the moving direction v and angle r = cos -1 (n s · v)
And a point calculation unit for obtaining a point forming
With respect to a plurality of measurement points in the measurement space, each calculation in the cross-ratio conversion unit, the pole conversion unit, and the point calculation unit is performed using each of the first to third parameter values from the first to third measurement points. By being repeated a plurality of times while being changed by each parameter changing unit up to the third, the value of the first parameter for the one measurement point in the point calculation unit is the same and the value of the second parameter Are the same, and a curve connecting a plurality of points obtained by a plurality of computations with different values of the third parameter is a value of each of the first parameter and each value of the second parameter. The calculation is performed after the plurality of measurement points are obtained for each combination of
Among a plurality of curve drawing spaces according to the value of the first parameter, a plurality of curves obtained while each calculation in the cross ratio conversion unit, the polar conversion unit, and the point calculation unit is repeated a plurality of times The intersection of curves when drawn in the corresponding curve drawing space is obtained for each curve drawing space, and the true movement of the measurement point relative to the observation point based on the information on the number of curves intersected at the intersection The true movement direction is obtained by selecting a curve drawing space corresponding to the direction, and a plurality of measurement points corresponding to a plurality of curves intersecting at the intersection obtained for the curve drawing space corresponding to the true movement direction are obtained. orientation n s measurement plane containing, and / or a physical quantity that indicates the shortest distance to the measurement plane at one measurement time of said two measurement time from the observation point May be a structure having a Mel detection unit,
In that case, the measurement point appearing on the image has intensity information,
The point calculation unit obtains the point and votes a value corresponding to the intensity of the measurement point corresponding to the point to a point in the curve drawing space corresponding to the point where a curve including the point is drawn In place of obtaining the intersection, the detection unit becomes a maximum value by voting while each calculation in the cross ratio conversion unit, the polar conversion unit, and the point calculation unit is repeated a plurality of times. A maximum point is obtained for each curve drawing space, and the true movement direction is obtained by selecting a curve drawing space corresponding to the true movement direction based on information on the maximum value at the maximum point, and the true movement The direction n s of the measurement plane including a plurality of measurement points corresponding to a plurality of curves that participated in the voting of the maximum points obtained for the curve drawing space corresponding to the direction, and / or the two measurement times from the observation points Out of Is preferably seeks a physical quantity that indicates the shortest distance to the measuring plane in a square of the measurement time, or,
Measurement points appearing on the image have intensity information,
The arithmetic unit changes a value of the fourth parameter using a motion parallax τ between the two measurement positions p 0 and p 1 at the two measurement times of the measurement point as a fourth parameter. With a parameter changer,
The multi-ratio conversion unit is set by the first parameter changing unit, and the measurement point position p inf after the infinite time has elapsed in the movement continuation state, and the second parameter changing unit is set, The measurement position p at one measurement time of the two measurement times of the physical quantity indicating the shortest distance, the inner product ( ns / v) set by the third parameter changing unit, and the measurement point 0, by using the a motion parallax τ set by the fourth parameter changing unit, of the measurement points, which determine the position p c in the superimposed time,
The point calculation unit obtains the point on the polar line corresponding to the measurement point, obtains a response intensity of the measurement point corresponding to the motion parallax τ, and determines the measurement point corresponding to the point on the polar line. Voting a response intensity corresponding to the motion parallax τ to a point in the curve drawing space corresponding to the point on the polar line,
Instead of obtaining the intersection, the detection unit performs each calculation in the cross ratio conversion unit, the polar conversion unit, and the calculation unit for the plurality of measurement points in the measurement space. In each of the third and fourth parameter changing units, a maximum point at which the value obtained by voting during a plurality of repetitions is changed while changing each value of each parameter is determined for each curve drawing space, and the maximum value at the maximum point is determined. The true movement direction is obtained by selecting the curve drawing space corresponding to the true movement direction based on the information, and the maximal point obtained for the curve drawing space corresponding to the true movement direction is participated in the vote. orientation n s measurement plane including a plurality of measurement points corresponding to a plurality of curves, and / or until the measurement plane at one measurement time of said two measurement time from the observation point It is a step of obtaining a physical quantity that indicates the shortest distance is also a preferred embodiment.

また、本発明の画像計測装置のうち第3の画像計測装置は、
所定の計測空間内の所定の観察点から該計測空間内を眺めたときの画像にあらわれた、該計測空間内の任意の計測点の、相互に異なる2つの計測時刻における各計測位置をそれぞれp,p、前記計測点の、前記観察点に対する相対的な、前記2つの計測時刻の間における移動方向をv、前記計測点の、前記観察点に対する相対的な、前記2つの計測時刻の間における移動方向vと同一方向への、かつ前記2つの計測時刻の間の移動速度と同一の速度での移動がそのまま継続されるものと予定した移動継続状態における無限時間経過後の前記計測点の位置をpinfとしたとき、
前記計測点の3つの位置pinf,p,pで決まる単比(pinf)あるいは該単比と等価な演算を用いて、前記計測平面の方位、及び/又は、前記観察点から前記2つの計測時刻のうちの一方の計測時刻における前記計測平面までの最短距離を指標する物理量を求める演算部を備えたことを特徴とする。
The third image measuring device of the image measuring device of the present invention is:
Each measurement position at two different measurement times of an arbitrary measurement point in the measurement space, which appears in the image when the measurement space is viewed from a predetermined observation point in the predetermined measurement space, is p. 0 , p 1 , v is the moving direction between the two measurement times relative to the observation point, v, and the two measurement times are relative to the observation point. In the same direction as the moving direction v between and at the same speed as the moving speed between the two measurement times, the measurement point after the infinite time has elapsed in the scheduled movement continuation state Where p inf is the position of
Using a single ratio (p inf p 0 p 1 ) determined by the three positions p inf , p 0 , and p 1 of the measurement point (p inf p 0 p 1 ) or an operation equivalent to the single ratio, the orientation of the measurement plane and / or the An arithmetic unit is provided that calculates a physical quantity that indicates the shortest distance from the observation point to the measurement plane at one of the two measurement times.

ここで、上記第3の画像計測装置の、前記演算部において実行される、前記単比(pinf)あるいは該単比と等価な演算には、前記計測点の、前記2つの計測時刻における2つの計測位置p,pに代えて、前記計測点の、前記2つの計測時刻のうちの一方の計測時刻における計測位置pと、前記計測点の、前記2つの計測時刻における2つの計測位置p,pどうしの間の位置の差である運動視差τとを用いる演算が包含されるものである。 Here, in the calculation performed by the calculation unit of the third image measurement apparatus, the single ratio (p inf p 0 p 1 ) or calculation equivalent to the single ratio is performed by using the two measurement points. Instead of the two measurement positions p 0 and p 1 at the measurement time, the measurement position p 0 of the measurement point at one of the two measurement times and the two measurement times of the measurement point The calculation using the motion parallax τ that is the difference in position between the two measurement positions p 0 and p 1 is included.

上記第3の画像計測装置は、前記演算部が、前記計測点の各位置pinf,p,pとして球面上に写影された各位置を採用すると共に、前記最短距離を指標する物理量として、前記観察点と前記2つの計測時刻のうちの一方の計測時刻における前記計測平面との間の最短距離をd、2つの計測時刻どうしの間の前記計測点の、前記観察点に対する相対的な移動距離をΔxとしたときの、
=d/Δx
であらわされる規格化最短距離を採用し、
前記規格化最短距離をパラメータとして該パラメータを変更するパラメータ変更部と、
前記パラメータ変更部で設定された規格化最短距離と、単比(pinf)あるいは該単比と等価な演算とを用いて、
R=cos−1/(pinf))
なる関係式あるいは該関係式と等価な関係式で規定される半径Rを求めるパラメータ演算部と、
前記2つの計測時刻のうちの一方の計測時刻における前記計測点の計測位置を中心とした半径Rの小円を求める小円演算部と、
前記計測空間内の複数の計測点について、前記パラメータ演算部および前記小円演算部における各演算が、前記パラメータが前記パラメータ変更部で変更されながら複数回繰り返される間に求められた複数の小円どうしの交差点を求めることにより、該交差点で交わる複数の小円を小円描画空間に描画したときの小円に対応する複数の計測点を含む計測平面の方位nso、及び/又は、該計測平面についての規格化最短距離s0を求める検出部とを備えたものであってもよく、
その場合に、前記画像上にあらわれた計測点が強度の情報を有するものであって、前記小円演算部が、前記小円を求めるとともに、求められた小円を小円描画空間に描画したときの該小円の軌跡上の各点それぞれに該小円に対応する計測点の強度に対応する値を投票するものであり、前記検出部が、前記交差点を求めることに代わり、前記パラメータ演算部および前記小円演算部における各演算が複数回繰り返される間の投票による値が極大値となる極大点を求めることにより、該極大点の投票に参加した複数の小円に対応する複数の計測点を含む計測平面の方位nso、及び/又は、該計測平面についての規格化最短距離s0を求めることが好ましく、あるいは、
前記画像上にあらわれた計測点が強度の情報を有するものであって、
前記演算部が、前記計測点の前記2つの計測時刻における2つの計測位置p,pどうしの間の運動視差τを第2のパラメータとして該第2のパラメータの値を変更する第2のパラメータ変更部を備え、
前記パラメータ演算部が、前記パラメータ変更部で設定された規格化最短距離と、前記移動継続状態における無限時間経過後の前記計測点の位置pinfと、該計測点の前記2つの計測時間のうちの一方の計測時刻における計測位置pと、前記第2のパラメータ変更部で設定された前記運動視差τとを用いて、前記半径Rを求めるものであり、
前記小円変換部が、前記計測点に対応する前記小円を求めるとともに、該計測点の、前記運動視差τに対応する応答強度を求め、求められた小円を小円描画空間に描画したときの該小円の軌跡上の各点それぞれに該小円に対応する計測点の、前記運動視差τに対応する応答強度を投票するものであり、
前記検出部が、前記交差点を求めることに代わり、前記計測空間内の複数の計測点について、前記パラメータ演算部と前記小円変換部における各演算を、前記パラメータ変更部および前記第2のパラメータ変更部で各パラメータの各値を変更しながら複数回繰り返す間の投票による値が極大値となる極大点を求めることにより、該極大点の投票に参加した複数の小円に対応する複数の計測点を含む計測平面の方位nso、及び/又は、該計測平面についての規格化最短距離s0を求めるものであることも好ましい態様である。
In the third image measuring apparatus, the arithmetic unit employs each position projected on the spherical surface as each position p inf , p 0 , and p 1 of the measurement point, and a physical quantity that indicates the shortest distance And d s is the shortest distance between the observation point and the measurement plane at one of the two measurement times, and the measurement point between the two measurement times is relative to the observation point. When the typical movement distance is Δx,
n d s = d s / Δx
In adopting the normalized shortest distance n d s represented,
A parameter changing unit that changes the parameter using the normalized shortest distance n d s as a parameter;
Using the normalized shortest distance n d s set in the parameter changing unit and a simple ratio (p inf p 0 p 1 ) or an operation equivalent to the simple ratio,
R = cos -1 (n d s / (p inf p 0 p 1))
A parameter calculation unit for obtaining a radius R defined by the following relational expression or a relational expression equivalent to the relational expression:
A small circle calculation unit for obtaining a small circle with a radius R centered on the measurement position of the measurement point at one of the two measurement times;
A plurality of small circles obtained while each calculation in the parameter calculation unit and the small circle calculation unit is repeated a plurality of times while the parameter is changed by the parameter change unit for a plurality of measurement points in the measurement space By determining the intersections between each other, the orientation n so of the measurement plane including a plurality of measurement points corresponding to the small circles when the plurality of small circles intersecting at the intersections are drawn in the small circle drawing space, and / or the measurement And a detector for obtaining a normalized shortest distance n d s0 about the plane,
In this case, the measurement point appearing on the image has intensity information, and the small circle calculation unit obtains the small circle and draws the obtained small circle in the small circle drawing space. A value corresponding to the intensity of the measurement point corresponding to the small circle is voted for each point on the trajectory of the small circle, and the parameter calculation is performed instead of obtaining the intersection. A plurality of measurements corresponding to a plurality of small circles that participated in the voting of the local maximum point by obtaining a local maximum point at which the value by voting becomes a local maximum value while each calculation in the unit and the small circle arithmetic unit is repeated a plurality of times orientation n so the measurement plane including the point, and / or, it is preferable to determine the normalized shortest distance n d s0 for the measurement plane, or,
Measurement points appearing on the image have intensity information,
The arithmetic unit changes the value of the second parameter using the motion parallax τ between the two measurement positions p 0 and p 1 at the two measurement times of the measurement point as a second parameter. With a parameter changer,
The parameter calculation unit includes the standardized shortest distance n d s set by the parameter changing unit, the position p inf of the measurement point after the infinite time has elapsed in the movement continuation state, and the two measurements of the measurement point The radius R is obtained using the measurement position p 0 at one measurement time of the time and the motion parallax τ set by the second parameter changing unit,
The small circle conversion unit obtains the small circle corresponding to the measurement point, obtains a response intensity corresponding to the motion parallax τ of the measurement point, and draws the obtained small circle in the small circle drawing space. Voting the response intensity corresponding to the motion parallax τ of the measurement point corresponding to the small circle for each point on the trajectory of the small circle when
Instead of the detection unit obtaining the intersection, the parameter calculation unit and the second parameter change are performed for each calculation in the parameter calculation unit and the small circle conversion unit for a plurality of measurement points in the measurement space. A plurality of measurement points corresponding to a plurality of small circles that participated in the voting of the local maximum point by obtaining a local maximum point at which the value by voting becomes a local maximum value while changing each value of each parameter in the section It is also a preferable aspect to obtain the azimuth n so of the measurement plane including, and / or the normalized shortest distance n d s0 for the measurement plane.

また、上記第3の画像計測装置は、前記演算部が、前記計測点の各位置pinf,p,pとして球面上に写影された各位置を採用すると共に、前記最短距離を指標する物理量として、前記観察点と前記2つの計測時刻のうちの一方の計測時刻における前記計測平面との間の最短距離をd、2つの計測時刻どうしの間の前記計測点の、前記観察点に対する相対的な移動距離をΔxとしたときの、
=d/Δx
であらわされる規格化最短距離を採用し、
前記移動方向vを第1のパラメータとして該第1のパラメータの値を変更することにより前記移動継続状態における無限時間経過後の前記計測点の位置pinfを変更する第1のパラメータ変更部と、
前記規格化最短距離を第2のパラメータとして該第2のパラメータの値を変更する第2のパラメータ変更部と、
前記第1のパラメータ変更部で設定された、前記移動継続状態における無限時間経過後の前記計測点の位置pinfと、前記第2のパラメータ変更部で設定された規格化最短距離と、単比(pinf)あるいは該単比と等価な演算とを用いて、
R=cos−1/(pinf))
なる関係式あるいは該関係式と等価な関係式で規定される半径Rを求めるパラメータ演算部と、
前記2つの計測時刻のうちの一方の計測時刻における前記計測点の計測位置を中心とした半径Rの小円を求める小円演算部と、
前記計測空間内の複数の計測点について、前記パラメータ演算部および前記小演算部における各演算が、前記第1のパラメータおよび前記第2のパラメータの各値をそれぞれ前記第1のパラメータ変更部および前記第2のパラメータ変更部で変更しながら複数回繰り返される間に求められた複数の小円を前記第1のパラメータの値に応じた複数の小円描画空間のうちのそれぞれ対応する小円描画空間に描画したときの小円どうしの交差点を各小円描画空間ごとに求め該交差点で交わる小円の本数の情報に基づいて前記計測点の前記観察点に対する相対的な真の移動方向に対応する小円描画空間を選択することにより該真の移動方向を求めるとともに、該真の移動方向に対応する小円描画空間について求められた交差点で交わる複数の小円に対応する複数の計測点を含む計測平面の方位nso、及び/又は、該計測平面についての規格化最短距離s0を求める検出部とを備えたものであってもよく、
その場合に、前記画像上にあらわれた計測点が強度の情報を有するものであって、前記小円演算部が、前記小円を求めるとともに、求められた小円を該小円に対応する小円描画空間に描画したときの該小円の軌跡上の各点それぞれに該小円に対応する計測点の強度に対応する値を投票するものであり、前記検出部が、前記交差点を求めることに代わり、前記パラメータ演算部および前記小円演算部における各演算が繰り返される間の投票による値が極大値となる極大点を各小円描画空間ごとに求め該極大点における極大値の情報に基づいて前記真の移動方向に対応する小円描画空間を選択することにより該真の移動方向を求めるとともに、該真の移動方向に対応する小円描画空間について求められた極大点の投票に参加した複数の小円に対応する複数の計測点を含む計測平面の方位nso、及び/又は、該計測平面についての規格化最短距離s0を求めるものであることが好ましく、あるいは、
前記画像上にあらわれた計測点が強度の情報を有するものであって、
前記演算部が、前記計測点の前記2つの計測時刻における2つの計測位置p,pどうしの間の運動視差τを第3のパラメータとして該第3のパラメータの値を変更する第3のパラメータ変更部を備え、
前記パラメータ変更部が、前記第1のパラメータ変更部で設定された、前記移動継続状態における無限時間経過後の前記計測点の位置pinfと、前記第2のパラメータ変更部で設定された規格化最短距離と、該計測点の前記2つの計測時刻のうちの一方の計測時刻における計測位置pと、前記第3のパラメータ変更部で設定された前記運動視差τとを用いて、前記半径Rを求めるステップであり、
前記小円演算部が、前記計測点に対応する前記小円を求めるとともに、該計測点の、前記運動視差τに対応する応答強度を求め、求められた小円を該小円に対応する小円描画空間に描画したときの該小円の軌跡上の各点それぞれに該小円に対応する計測点の、前記運動視差τに対応する応答強度を投票するものであり、
前記検出部が、前記交差点を求めることに代わり、前記計測空間内の複数の計測点について、前記パラメータ演算部および前記小円演算部における各演算を、前記第1、第2および第3のパラメータ変更部で各パラメータの各値を変更しながら複数回繰り返す間の投票による値が極大値となる極大点を各小円描画空間ごとに求め該極大点における極大値の情報に基づいて前記真の移動方向に対応する小円描画空間を選択することにより該真の移動方向を求めるとともに、該真の移動方向に対応する小円描画空間について求められた極大点の投票に参加した複数の小円に対応する複数の計測点を含む計測平面の方位nso、及び/又は、該計測平面についての規格化最短距離s0を求めるものであることも好ましい形態である。
In the third image measurement apparatus, the calculation unit employs each position projected on the spherical surface as each position p inf , p 0 , and p 1 of the measurement point, and uses the shortest distance as an index. As the physical quantity to be calculated, the shortest distance between the observation point and the measurement plane at one of the two measurement times is d s , and the observation point of the measurement point between the two measurement times When the relative movement distance with respect to is Δx,
n d s = d s / Δx
In adopting the normalized shortest distance n d s represented,
A first parameter changing unit that changes the position p inf of the measurement point after the infinite time has elapsed in the movement continuation state by changing the value of the first parameter using the movement direction v as a first parameter;
A second parameter changing unit that changes the value of the second parameter using the normalized shortest distance n d s as a second parameter;
The measurement point position p inf set after the infinite time in the movement continuation state set by the first parameter change unit, and the normalized shortest distance n d s set by the second parameter change unit , Using a simple ratio (p inf p 0 p 1 ) or an operation equivalent to the simple ratio,
R = cos -1 (n d s / (p inf p 0 p 1))
A parameter calculation unit for obtaining a radius R defined by the following relational expression or a relational expression equivalent to the relational expression:
A small circle calculation unit for obtaining a small circle with a radius R centered on the measurement position of the measurement point at one of the two measurement times;
For each of the plurality of measurement points in the measurement space, each calculation in the parameter calculation unit and the small calculation unit is performed by changing each value of the first parameter and the second parameter to the first parameter change unit and the A plurality of small circles obtained while being repeated a plurality of times while being changed by the second parameter changing unit are each corresponding to a small circle drawing space among a plurality of small circle drawing spaces corresponding to the value of the first parameter. Corresponding to the true movement direction of the measurement point relative to the observation point based on information on the number of small circles intersecting at the intersection. The true movement direction is obtained by selecting a small circle drawing space, and a plurality of small circles intersecting at intersections obtained for the small circle drawing space corresponding to the true movement direction are determined. A plurality of orientations n so the measurement plane including a measurement point, and / or may be one that includes a detector for determining the normalized shortest distance n d s0 for the measurement plane,
In this case, the measurement point appearing on the image has intensity information, and the small circle calculation unit obtains the small circle, and the obtained small circle corresponds to the small circle. A value corresponding to the intensity of the measurement point corresponding to the small circle is voted for each point on the path of the small circle when drawn in a circle drawing space, and the detection unit obtains the intersection Instead, a maximum point at which a value obtained by voting becomes a maximum value while each calculation in the parameter calculation unit and the small circle calculation unit is repeated is obtained for each small circle drawing space, and is based on information on the maximum value at the maximum point. The true movement direction was determined by selecting the small circle drawing space corresponding to the true movement direction, and the maximal point obtained for the small circle drawing space corresponding to the true movement direction was voted Supports multiple small circles That a plurality of azimuth n so the measurement plane including a measurement point, and / or, preferably and requests the normalized shortest distance n d s0 for the measurement plane, or,
Measurement points appearing on the image have intensity information,
The arithmetic unit changes a value of the third parameter using a motion parallax τ between the two measurement positions p 0 and p 1 at the two measurement times of the measurement point as a third parameter. With a parameter changer,
The parameter change unit is set by the first parameter change unit, the position p inf of the measurement point after the infinite time has elapsed in the movement continuation state, and the normalization set by the second parameter change unit Using the shortest distance n d s , the measurement position p 0 at one of the two measurement times of the measurement point, and the motion parallax τ set by the third parameter changing unit, Determining the radius R;
The small circle calculation unit obtains the small circle corresponding to the measurement point, obtains a response intensity of the measurement point corresponding to the motion parallax τ, and determines the obtained small circle as a small circle corresponding to the small circle. Voting the response intensity corresponding to the motion parallax τ of each measurement point corresponding to the small circle for each point on the trajectory of the small circle when drawn in a circle drawing space;
Instead of the detection unit obtaining the intersection, the first, second, and third parameters are calculated in the parameter calculation unit and the small circle calculation unit for a plurality of measurement points in the measurement space. The maximum value at which the value obtained by voting during a plurality of repetitions is changed while changing each value of each parameter in the changing unit is determined for each small circle drawing space, and the true value is calculated based on the information on the maximum value at the maximum point. A plurality of small circles that participated in voting for the maximum points obtained for the small circle drawing space corresponding to the true moving direction while obtaining the true moving direction by selecting the small circle drawing space corresponding to the moving direction It is also a preferred embodiment to obtain the azimuth n so of the measurement plane including a plurality of measurement points corresponding to and / or the normalized shortest distance n d s0 for the measurement plane.

さらに、本発明の画像計測装置のうちの第4の画像計測装置は、
所定の計測空間内の所定の観察点から該計測空間内を眺めたときの画像にあらわれた、該計測空間内の任意の計測点の、相互に異なる2つの計測時刻における各計測位置をそれぞれp,p、前記計測点の、前記観察点に対する相対的な、前記2つの計測時刻の間における移動方向vと同一の方向への、かつ前記2つの計測時刻の間の移動速度と同一の速度での移動がそのまま継続されるものと予定した移動継続状態における無限時間経過後の前記計測点の位置をpinfとしたとき、
前記計測点の3つの位置pinf,p,pで決まる単比(pinf)あるいは該単比と等価な演算を用いて、前記観察点と、前記2つの計測時刻のうちの一方の計測時刻における前記計測点との間の距離を指標する物理量を求める演算部を備えたことを特徴とする。
Furthermore, the 4th image measuring device of the image measuring devices of this invention is:
Each measurement position at two different measurement times of an arbitrary measurement point in the measurement space, which appears in an image when the measurement space is viewed from a predetermined observation point in the predetermined measurement space, is p. 0 , p 1 , relative to the observation point, in the same direction as the movement direction v between the two measurement times, and the same as the movement speed between the two measurement times When the position of the measurement point after elapse of an infinite time in a state where the movement at the speed is continued as it is and when the movement is continuously planned is p inf ,
Using the single ratio (p inf p 0 p 1 ) determined by the three positions p inf , p 0 , and p 1 of the measurement point (p inf p 0 p 1 ) or an operation equivalent to the single ratio, the observation point and the two measurement times An arithmetic unit that obtains a physical quantity indicating the distance from the measurement point at one of the measurement times is provided.

ここで、上記第4の画像計測装置の、前記演算部において実行される、前記単比(pinf)あるいは該単比と等価な演算には、前記計測点の、前記2つの計測時刻における2つの計測位置p,pに代えて、前記計測点の、前記2つの計測時刻のうちの一方の計測時刻における計測位置pと、前記計測点の、前記2つの計測時刻における2つの計測位置p,pどうしの間の位置の差である運動視差τとを用いる演算が包含されるものである。 Here, for the calculation performed by the calculation unit of the fourth image measurement device, the single ratio (p inf p 0 p 1 ) or equivalent to the single ratio, the two measurement points may be calculated using the two measurement points. Instead of the two measurement positions p 0 and p 1 at the measurement time, the measurement position p 0 of the measurement point at one of the two measurement times and the two measurement times of the measurement point The calculation using the motion parallax τ which is the difference in position between the two measurement positions p 0 and p 1 in FIG.

上記第4の画像計測装置は、前記演算部が、前記距離を指標する物理量として、前記観察点と前記2つの計測時刻のうちの一方の計測時刻における前記計測点との間の距離をd、前記2つの計測時刻どうしの間の前記計測点の、前記観察点に対する移動距離をΔxとしたときの、
=d/Δx
であらわされる規格化距離を採用し、該規格化距離を、
=(pinf
の関係式あるいは該関係式と等価な関係式を用いて求めるものであってもよい。
In the fourth image measurement device, the arithmetic unit calculates a distance between the observation point and the measurement point at one of the two measurement times as a physical quantity indicating the distance, d 0. When the movement distance of the measurement point between the two measurement times with respect to the observation point is Δx,
n d 0 = d 0 / Δx
In the normalized distance n d 0 represented adopted, the normalized distance n d 0,
n d 0 = (p inf p 0 p 1 )
Or a relational expression equivalent to the relational expression.

また、本発明の画像計測装置のうちの第5の画像計測装置は、
所定の計測空間内の所定の観察点から該計測空間内を眺めたときの画像にあらわれる、該計測空間内の任意の計測点の、相互に異なる2つの計測時刻の間における前記観察点に対する相対的な移動方向と同一方向への、かつ前記2つの計測時刻の間の移動速度と同一速度での移動がそのまま継続されるものと予定した移動継続状態における、前記計測点を含む計測平面が前記観察点に重なる重畳時刻を指標する物理量と、該計測平面の方位nとで規定される投票空間内の座標をパラメータとして設定するパラメータ設定部と、
前記計測点の、前記2つの計測時刻のうちの一方の計測時刻における計測位置pと、該計測点の、前記移動継続状態における無限時間経過後の位置pinfと、前記パラメータ設定部で設定された、前記投票空間内の座標とから、前記計測点の、前記2つの計測時刻における2つの計測位置p,pどうしの位置の差である運動視差τを求める運動視差演算部と、
前記2つの計測時刻における、前記観察点から前記計測空間内を眺めたときの2つの画像に基づいて、前記計測点の、前記運動視差τに対応する応答強度を求める応答強度演算部と、
前記応答強度演算部で求められた応答強度を、前記投票空間内の、前記パラメータ設定部で設定された座標に投票する投票部とを備え、
前記計測空間内の複数の計測点について、前記運動視差演算部、前記応答強度演算部、および前記投票部における各処理を、前記パラメータ設定部でパラメータの値を変更しながら複数回実行することを特徴とする。
The fifth image measuring device of the image measuring device of the present invention is:
Relative to the observation point between two different measurement times of any measurement point in the measurement space, which appears in the image when the inside of the measurement space is viewed from the predetermined observation point in the predetermined measurement space A measurement plane including the measurement point in a movement continuation state in which the movement in the same direction as the general movement direction and the movement at the same speed as the movement speed between the two measurement times is continued as it is. a physical quantity indicative of the superimposed time overlapping the observation point, a parameter setting unit that sets as a parameter the coordinates of voting space defined by the azimuth n s of the measurement plane,
The measurement position p 0 of the measurement point at one of the two measurement times, the position p inf of the measurement point after the infinite time has elapsed in the movement continuation state, and the parameter setting unit A motion parallax calculation unit that obtains a motion parallax τ that is a difference between the two measurement positions p 0 and p 1 at the two measurement times of the measurement point from the coordinates in the voting space,
A response intensity calculation unit for obtaining a response intensity corresponding to the motion parallax τ of the measurement point based on two images when the inside of the measurement space is viewed from the observation point at the two measurement times;
A voting unit for voting the response strength obtained by the response strength computing unit to the coordinates set by the parameter setting unit in the voting space;
For each of a plurality of measurement points in the measurement space, each process in the motion parallax calculation unit, the response intensity calculation unit, and the voting unit is executed a plurality of times while changing a parameter value in the parameter setting unit. Features.

また、本発明の画像計測装置のうちの第6の画像計測装置は、
所定の計測空間内の所定の観察点から該計測空間内を眺めたときの画像にあらわれる、該計測空間内の任意の計測点の、相互に異なる2つの計測時刻の間における前記観察点に対する相対的な移動方向vを第1のパラメータとして設定することにより、前記計測点の、該移動方向と同一方向への、かつ前記2つの計測時刻の間の移動速度と同一速度での移動がそのまま継続されるものと予定した移動継続状態における無限時間経過後の該計測点の位置pinfを設定する第1のパラメータ設定部と、
前記移動継続状態における、前記計測点を含む計測平面が前記観察点に重なる重畳時刻を指標する物理量と、該計測平面の方位nとで規定される、前記第1のパラメータに応じた投票空間内の座標を第2のパラメータとして設定する第2のパラメータ設定部と、
前記計測点の、前記2つの計測時刻のうちの一方の計測時刻における計測位置pと、前記第1のパラメータ設定部で設定された位置pinfと、前記第2のパラメータ設定部で設定された、前記投票空間内の座標とから、前記計測点の、前記2つの計測時刻における2つの計測位置p,pどうしの位置の差である運動視差τを求める運動視差演算部と、
前記2つの計測時刻における、前記観察点から前記計測空間内を眺めたときの2つの画像に基づいて、前記計測点の、前記運動視差τに対応する応答強度を求める応答強度演算部と、
前記応答強度演算部で求められた応答強度を、前記第1のパラメータに応じた投票空間内の、前記第2のパラメータ設定部で設定された座標に投票する第5の投票部とを備え、
前記計測空間内の複数の計測点について、前記運動視差演算部、前記応答強度演算部、および前記投票部における各処理を、前記第1および第2のパラメータ設定部で各パラメータの各値を変更しながら複数回実行することを特徴とする。
The sixth image measuring device of the image measuring device of the present invention is
Relative to the observation point between two different measurement times of any measurement point in the measurement space that appears in the image when the inside of the measurement space is viewed from the predetermined observation point in the predetermined measurement space By setting a specific moving direction v as the first parameter, the movement of the measurement point in the same direction as the movement direction and at the same speed as the movement speed between the two measurement times continues. A first parameter setting unit that sets the position p inf of the measurement point after an infinite time has elapsed in the scheduled movement continuation state;
In the mobile continuity state, and the physical quantity measuring plane including the measurement point indicative of the superimposed time overlapping the observation point, defined by the azimuth n s of the measurement plane, voting space corresponding to the first parameter A second parameter setting unit for setting the coordinates in the second parameter,
The measurement position p 0 of the measurement point at one of the two measurement times, the position p inf set by the first parameter setting unit, and the second parameter setting unit are set. A motion parallax calculation unit for obtaining a motion parallax τ which is a difference between the two measurement positions p 0 and p 1 at the two measurement times of the measurement point from the coordinates in the voting space;
A response intensity calculation unit for obtaining a response intensity corresponding to the motion parallax τ of the measurement point based on two images when the inside of the measurement space is viewed from the observation point at the two measurement times;
A fifth voting unit for voting the response strength obtained by the response strength calculating unit to the coordinates set by the second parameter setting unit in a voting space corresponding to the first parameter;
For each of the plurality of measurement points in the measurement space, each process in the motion parallax calculation unit, the response intensity calculation unit, and the voting unit is changed, and each value of each parameter is changed in the first and second parameter setting units. It is characterized by being executed a plurality of times.

また、本発明の画像計測装置のうちの第7の画像計測装置は、
所定の計測空間内を観察する、該計測空間内の所定の観察点と、該観察点から該計測空間内を眺めたときの画像にあらわれる、該計測空間内の任意の計測点を含む、相互に異なる2つの計測時刻のうちの一方の計測時刻における計測平面との間の最短距離を指標する物理量と、該計測平面の方位nとで規定される投票空間内の座標をパラメータとして設定するパラメータ設定部と、
前記計測点の、前記2つの計測時刻のうちの一方の計測時刻における計測位置pと、該計測点の、該2つの計測時刻の間における前記観察点に対する相対的な移動方向と同一方向への、かつ前記2つの計測時刻の間の移動速度と同一速度での移動がそのまま継続されるものと予定した移動継続状態における無限時間経過後の位置pinfと、前記パラメータ設定部で設定された、前記投票空間内の座標とから、前記計測点の、前記2つの計測時刻における2つの計測位置p,pどうしの位置の差である運動視差τを求める運動視差演算部と、
前記2つの計測時刻における、前記観察点から前記計測空間内を眺めたときの2つの画像に基づいて、前記計測点の、前記運動視差τに対応する応答強度を求める応答強度演算部と、
前記応答強度演算部で求められた応答強度を、前記投票空間内の、前記パラメータ設定部で設定された座標に投票する投票部とを備え、
前記計測空間内の前記運動視差演算部、前記応答強度演算部、および投票部における各処理を、前記パラメータ設定部でパラメータの値を変更しながら複数回実行することを特徴とする。
The seventh image measuring device of the image measuring device of the present invention is
A predetermined observation point in the measurement space that observes the measurement space, and an arbitrary measurement point in the measurement space that appears in an image when the measurement space is viewed from the observation point. to set a physical quantity that indicates the shortest distance between the measurement plane at one measurement time of the two different measurement times, the coordinates of the voting space defined by the azimuth n s of the measuring plane as a parameter A parameter setting section;
In the same direction as the relative movement direction of the measurement point relative to the observation point between the measurement point p 0 at one of the two measurement times and the measurement point between the two measurement times. And the position p inf after the infinite time has elapsed in the planned movement continuation state where the movement at the same speed as the movement speed between the two measurement times is continued as it is, and the parameter setting unit sets A motion parallax calculation unit that obtains a motion parallax τ that is a difference between the two measurement positions p 0 and p 1 at the two measurement times of the measurement point from the coordinates in the voting space;
A response intensity calculation unit for obtaining a response intensity corresponding to the motion parallax τ of the measurement point based on two images when the inside of the measurement space is viewed from the observation point at the two measurement times;
A voting unit for voting the response strength obtained by the response strength computing unit to the coordinates set by the parameter setting unit in the voting space;
Each process in the motion parallax calculation unit, the response intensity calculation unit, and the voting unit in the measurement space is executed a plurality of times while changing parameter values in the parameter setting unit.

さらに、本発明の画像計測装置のうちの第8の画像計測装置は、
所定の計測空間内の所定の観察点から該計測空間内を眺めたときの画像にあらわれる、該計測空間内の任意の計測点の、相互に異なる2つの計測時刻の間における前記観察点に対する相対的な移動方向vを第1のパラメータとして設定することにより、前記計測点の、該移動方向と同一方向への、かつ前記2つの計測時刻の間の移動速度と同一速度での移動がそのまま継続されるものと予定した移動継続状態における無限時間経過後の該計測点の位置pinfを設定する第1のパラメータ設定部と、
前記観測点から、前記計測点を含む、前記2つの計測時刻のうちの一方の計測時刻における計測平面までの最短距離を指標する物理量と、該計測平面の方位nとで規定される、前記第1のパラメータに応じた投票空間内の座標を第2のパラメータとして設定する第2のパラメータ設定部と、
前記計測点の、前記2つの計測時刻のうちの一方の計測時刻における計測位置pと、前記第1のパラメータ設定部で設定された位置pinfと、前記第2のパラメータ設定部で設定された、前記投票空間内の座標とから、前記計測点の、前記2つの計測時刻における2つの計測位置p,pどうしの位置の差である運動視差τを求める運動視差演算部と、
前記2つの計測時刻における、前記観察点から前記計測空間内を眺めたときの2つの画像に基づいて、前記計測点の、前記運動視差τに対応する応答強度を求める応答強度演算部と、
前記応答強度演算部で求められた応答強度を、前記第1のパラメータに応じた投票空間内の、前記第2のパラメータ設定部で設定された座標に投票する投票部とを備え、
前記計測空間内の複数の計測点について、前記運動視差演算部、前記応答強度演算部、および前記投票部における各処理を、前記第1および第2のパラメータ設定部で各パラメータの各値を変更しながら複数回実行することを特徴とする。
Further, the eighth image measuring device of the image measuring device of the present invention is:
Relative to the observation point between two different measurement times of any measurement point in the measurement space that appears in the image when the inside of the measurement space is viewed from the predetermined observation point in the predetermined measurement space By setting a specific moving direction v as the first parameter, the movement of the measurement point in the same direction as the movement direction and at the same speed as the movement speed between the two measurement times continues. A first parameter setting unit that sets the position p inf of the measurement point after an infinite time has elapsed in the scheduled movement continuation state;
Wherein from the observation point, comprising said measuring points, and the physical quantity that indicates the shortest distance to the measurement plane at the measurement time of one of the two measurement time is defined by the azimuth n s of the measurement plane, the A second parameter setting unit that sets the coordinates in the voting space according to the first parameter as a second parameter;
The measurement position p 0 of the measurement point at one of the two measurement times, the position p inf set by the first parameter setting unit, and the second parameter setting unit are set. A motion parallax calculation unit for obtaining a motion parallax τ which is a difference between the two measurement positions p 0 and p 1 at the two measurement times of the measurement point from the coordinates in the voting space;
A response intensity calculation unit for obtaining a response intensity corresponding to the motion parallax τ of the measurement point based on two images when the inside of the measurement space is viewed from the observation point at the two measurement times;
A voting unit for voting the response strength obtained by the response strength computing unit to the coordinates set by the second parameter setting unit in a voting space corresponding to the first parameter;
For each of the plurality of measurement points in the measurement space, each process in the motion parallax calculation unit, the response intensity calculation unit, and the voting unit is changed, and each value of each parameter is changed in the first and second parameter setting units. It is characterized by being executed a plurality of times.

また、本発明の画像計測装置のうちの第9の画像計測装置は、
所定の計測空間内の所定の観察点から該計測空間内を眺めたときの画像にあらわれる、該計測空間内の任意の計測点の、相互に異なる2つの計測時刻における2つの計測位置p,pどうしの間の位置の差である運動視差τをパラメータとして設定するパラメータ設定部と、
前記計測点の、前記2つの計測時刻のうちの一方の計測時刻における計測位置pと、該計測点の、前記2つの計測時刻の間における前記観察点に対する相対的な移動方向と同一方向への、かつ前記2つの計測時刻の間の移動速度と同一速度での移動がそのまま継続されるものと予定した移動継続状態における、該計測点の無限時間経過後の位置pinfと、前記パラメータ設定部で設定された運動視差τとから、前記移動継続状態における、前記計測点を含む計測平面が前記観察点に重なる重畳時刻を指標する物理量と、該計測平面の方位nとで規定される投票空間内の座標を求める座標演算部と、
前記2つの計測時刻における、前記観察点から前記計測空間を眺めたときの2つの画像に基づいて、前記計測点の、前記第1のステップで設定された運動視差τに対応する応答強度を求める応答強度演算部と、
前記応答強度演算部で求められた応答強度を、前記投票空間内の、前記座標演算部で求められた座標に投票する投票部とを備え、
前記計測空間内の複数の計測点について、前記座標演算部、前記応答強度演算部、および前記投票部における処理を、前記パラメータ設定部でパラメータの値を変更しながら複数回実行することを特徴とする。
The ninth image measuring device of the image measuring device of the present invention is
Two measurement positions p 0 , at two measurement times different from each other at arbitrary measurement points in the measurement space that appear in an image when the measurement space is viewed from a predetermined observation point in the predetermined measurement space. a parameter setting unit that sets a motion parallax τ that is a difference in position between p 1 as a parameter;
In the same direction as the relative movement direction of the measurement point relative to the observation point between the measurement point p 0 at one of the two measurement times and the measurement point between the two measurement times. In addition, the position p inf after the infinite time has elapsed in the movement continuation state where the movement at the same speed as the movement speed between the two measurement times is continued as it is and the parameter setting The movement parallax τ set by the unit is defined by a physical quantity that indicates a superposition time at which the measurement plane including the measurement point overlaps the observation point in the movement continuation state, and the direction n s of the measurement plane A coordinate calculation unit for obtaining coordinates in the voting space;
Based on two images when the measurement space is viewed from the observation point at the two measurement times, a response intensity corresponding to the motion parallax τ set in the first step is obtained at the measurement point. A response strength calculator,
A voting unit for voting the response strength obtained by the response strength computing unit to the coordinates obtained by the coordinate computing unit in the voting space;
For the plurality of measurement points in the measurement space, the process in the coordinate calculation unit, the response strength calculation unit, and the voting unit is executed a plurality of times while changing the parameter value in the parameter setting unit. To do.

また、本発明の画像計測装置のうちの第10の画像計測装置は、
所定の計測空間内の所定の観察点から該計測空間内を眺めたときの画像にあらわれる、該計測空間内の任意の計測点の、相互に異なる2つの計測時刻の間における前記観察点に対する相対的な移動方向vを第1のパラメータとして設定することにより、前記計測点の、該移動方向と同一方向への、かつ前記2つの計測時刻の間の移動速度と同一速度での移動がそのまま継続されるものと予定した移動継続状態における無限時間経過後の該計測点の位置pinfを設定する第1のパラメータ設定部と、
前記計測点の、前記2つの計測時刻における2つの計測位置p,pどうしの間の位置の差である運動視差τを第2のパラメータとして設定する第2のパラメータ設定部と、
前記計測点の、前記2つの計測時刻のうちの一方の計測時刻における計測位置pと、前記第1のパラメータ設定部で設定された位置pinfと、前記第2のパラメータ設定部で設定された運動視差τとから、前記移動継続状態における、前記計測点を含む計測平面が前記観察点に重なる重畳時刻を指標する物理量と、該計測平面の方位nとで規定される、前記第1のパラメータに応じた投票空間内の座標を求める座標演算部と、
前記2つの計測時刻における、前記観察点から前記計測空間を眺めたときの2つの画像に基づいて、前記計測点の、前記第2のステップで設定された運動視差τに対応する応答強度を求める応答強度演算部と、
前記応答強度演算部で求められた応答強度を、前記第1のパラメータに応じた投票空間内の、前記座標演算部で求められた座標に投票する投票部とを備え、
前記計測空間内の複数の計測点について、前記座標演算部、前記応答強度演算部、および前記投票部における各処理を、前記第1および第2のパラメータ設定部で各パラメータの各値を変更しながら複数回実行することを特徴とする。
The tenth image measuring device of the image measuring device of the present invention is
Relative to the observation point between two different measurement times of any measurement point in the measurement space that appears in the image when the inside of the measurement space is viewed from the predetermined observation point in the predetermined measurement space By setting a specific moving direction v as the first parameter, the movement of the measurement point in the same direction as the movement direction and at the same speed as the movement speed between the two measurement times continues. A first parameter setting unit that sets the position p inf of the measurement point after an infinite time has elapsed in the scheduled movement continuation state;
A second parameter setting unit that sets, as a second parameter, a motion parallax τ that is a difference in position between the two measurement positions p 0 and p 1 at the two measurement times of the measurement point;
The measurement position p 0 of the measurement point at one of the two measurement times, the position p inf set by the first parameter setting unit, and the second parameter setting unit are set. and a motion parallax τ was, in the mobile continuity state, and the physical quantity measuring plane including the measurement point indicative of the superimposed time overlapping the observation point, defined by the azimuth n s of the measurement plane, said first A coordinate calculation unit for obtaining coordinates in the voting space according to the parameters of
Based on the two images when the measurement space is viewed from the observation point at the two measurement times, the response intensity corresponding to the motion parallax τ set in the second step is obtained at the measurement point. A response strength calculator,
A voting unit for voting the response strength obtained by the response strength computing unit in the voting space according to the first parameter to the coordinates obtained by the coordinate computing unit;
For each of a plurality of measurement points in the measurement space, each process in the coordinate calculation unit, the response strength calculation unit, and the voting unit is changed, and each value of each parameter is changed in the first and second parameter setting units. It is characterized by being executed multiple times.

また、本発明の画像計測装置のうちの第11の画像計測装置は、
所定の計測空間内の所定の観察点から該計測空間内を眺めたときの画像にあらわれた該計測空間内の任意の計測点の、相互に異なる2つの計測時刻における2つの計測位置p,pどうしの間の位置の差である運動視差τをパラメータとして設定するパラメータ設定部と、
前記計測点の、前記2つの計測時刻のうちの一方の計測時刻における、計測位置pと、該計測点の、前記2つの計測時刻の間における前記観察点に対する相対的な移動方向と同一方向への、かつ前記2つの計測時刻の間の移動速度と同一速度での移動がそのまま継続されるものと予定した移動継続状態における、該計測点の無限時間経過後の位置pinfと、前記パラメータ設定部で設定された運動視差τとに基づいて、前記観察点から、前記計測点を含む、2つの計測時刻のうちの一方の計測時刻における計測平面までの間の最短距離を指標する物理量と、該計測平面の方位nとで規定される投票空間内の座標を求める座標演算部と、
前記2つの計測時刻における、前記観察点から前記計測空間を眺めたときの2つの画像に基づいて、前記計測点の、前記第1のステップで設定された運動視差τに対応する応答強度を求める応答強度演算部と、
前記応答強度演算部で求められた応答強度を、前記投票空間内の、前記座標演算部で求められた座標に投票する投票部とを備え、
前記計測空間内の複数の計測点について、前記座標演算部、前記応答強度演算部、および前記投票部における各処理を、前記パラメータ設定部でパラメータの値を変更しながら複数回実行することを特徴とする。
The eleventh image measuring device of the image measuring device of the present invention is
Two measurement positions p 0 , at two different measurement times of arbitrary measurement points in the measurement space that appear in the image when the inside of the measurement space is viewed from a predetermined observation point in the predetermined measurement space. a parameter setting unit that sets a motion parallax τ that is a difference in position between p 1 as a parameter;
The same direction as the relative movement direction of the measurement point with respect to the observation point between the two measurement times and the measurement position p 0 at one of the two measurement times. And the position p inf after the infinite time of the measurement point in a state where the movement at the same speed as the movement speed between the two measurement times is continued as it is, and the parameter Based on the motion parallax set by the setting unit, a physical quantity indicating the shortest distance from the observation point to the measurement plane at one of the two measurement times including the measurement point; , a coordinate calculation unit for obtaining the coordinates of the voting space defined by the azimuth n s of the measurement plane,
Based on two images when the measurement space is viewed from the observation point at the two measurement times, a response intensity corresponding to the motion parallax τ set in the first step is obtained at the measurement point. A response strength calculator,
A voting unit for voting the response strength obtained by the response strength computing unit to the coordinates obtained by the coordinate computing unit in the voting space;
For each of a plurality of measurement points in the measurement space, each process in the coordinate calculation unit, the response strength calculation unit, and the voting unit is executed a plurality of times while changing parameter values in the parameter setting unit. And

さらに、本発明の画像計測装置のうちの第12の画像計測装置は、
所定の計測空間内の所定の観察点から該計測空間内を眺めたときの画像にあらわれた該計測空間内の任意の計測点の、相互に異なる2つの計測時刻の間における前記観察点に対する相対的な移動方向vを第1のパラメータとして設定することにより、前記計測点の、該移動方向と同一方向への、かつ前記2つの計測時刻の間の移動速度と同一速度での移動がそのまま継続されるものと予定した移動継続状態における無限時間経過後の該計測点の位置pinfを設定する第1のパラメータ設定部と、
前記計測点の、前記2つの計測時刻における2つの計測位置p,pどうしの位置の差である運動視差τを第2のパラメータとして設定する第2のパラメータ設定部と、
前記計測点の、前記2つの計測時刻のうちの一方の計測時刻における計測位置pと、前記第1のパラメータ設定部で設定された位置pinfと、前記第2のパラメータ設定部で設定された運動視差τとに基づいて、前記観察点から、前記計測点を含む、前記2つの計測時刻のうちの一方の計測時刻における計測平面までの間の最短距離を指標する物理量と、該計測平面の方位nとで規定される、前記第1のパラメータに応じた投票空間内の座標を求める座標演算部と、
前記2つの計測時刻における、前記観察点から前記計測空間を眺めたときの2つの画像に基づいて、前記計測点の、前記第2のパラメータ設定部で設定された運動視差τに対応する応答強度を求める応答強度演算部と、
前記応答強度演算部で求められた応答強度を、前記第1のパラメータに応じた投票空間内の、前記座標演算部で求められた座標に投票する投票部とを備え、
前記計測空間内の複数の計測点について、前記座標演算部、前記応答強度演算部、および前記投票部における各処理を、前記第1および第2のパラメータ設定部で各パラメータの各値を変更しながら複数回実行することを特徴とする。
Furthermore, the twelfth image measuring device of the image measuring device of the present invention is
Relative to the observation point between two different measurement times of any measurement point in the measurement space that appears in the image when the inside of the measurement space is viewed from the predetermined observation point in the predetermined measurement space By setting the general moving direction v as the first parameter, the movement of the measurement point in the same direction as the movement direction and at the same speed as the movement speed between the two measurement times continues. A first parameter setting unit for setting the position p inf of the measurement point after an infinite time has elapsed in the scheduled movement continuation state;
A second parameter setting unit that sets, as a second parameter, a motion parallax τ that is a difference between positions of the two measurement positions p 0 and p 1 at the two measurement times of the measurement point;
The measurement position p 0 of the measurement point at one of the two measurement times, the position p inf set by the first parameter setting unit, and the second parameter setting unit are set. A physical quantity that indicates the shortest distance from the observation point to the measurement plane at one of the two measurement times, including the measurement point, based on the motion parallax τ, and the measurement plane of it is defined by the azimuth n s, and a coordinate calculation unit for obtaining the coordinates of the voting space corresponding to the first parameter,
Based on two images when the measurement space is viewed from the observation point at the two measurement times, the response intensity corresponding to the motion parallax τ set by the second parameter setting unit at the measurement point A response intensity calculation unit for obtaining
A voting unit for voting the response strength obtained by the response strength computing unit in the voting space according to the first parameter to the coordinates obtained by the coordinate computing unit;
For each of a plurality of measurement points in the measurement space, each process in the coordinate calculation unit, the response strength calculation unit, and the voting unit is changed, and each value of each parameter is changed in the first and second parameter setting units. It is characterized by being executed multiple times.

また、本発明の画像計測装置のうちの第13の画像計測装置は、
所定の計測空間内の所定の観察点から、該計測空間内を、相互に異なる2つの計測時刻において眺めたときの2つの画像に基づいて、該計測空間内の任意の計測点の、該2つの計測時刻における2つの計測位置どうしの位置の差である運動視差に対応する応答強度を求める応答強度演算部と、
前記応答強度演算部で求められた応答強度を、前記計測点の、前記2つの計測時刻の間における前記観察点に対する相対的な移動方向と同一方向への、かつ前記2つの計測時刻の間の移動速度と同一速度での移動がそのまま継続されるものと予定した移動継続状態における、前記計測点を含む計測平面が前記観察点に重なる重畳時刻を指標する物理量と、該計測平面の方位とで規定される投票空間内の、前記計測点と前記運動視差とに対応した座標に投票する投票部とを備え、
前記計測空間内の複数の計測点について前記応答強度演算部および前記投票部における各処理を複数回実行することを特徴とする。
The thirteenth image measuring device of the image measuring device of the present invention is
Based on two images when the measurement space is viewed at two different measurement times from a predetermined observation point in the predetermined measurement space, any two measurement points in the measurement space A response intensity calculation unit for obtaining a response intensity corresponding to motion parallax, which is a difference between positions of two measurement positions at one measurement time;
The response intensity obtained by the response intensity calculator is set in the same direction as the movement direction of the measurement point relative to the observation point between the two measurement times and between the two measurement times. A physical quantity that indicates a superposition time at which a measurement plane including the measurement point overlaps the observation point in a planned movement continuation state in which the movement at the same speed as the movement speed is continued, and an orientation of the measurement plane A voting unit for voting on coordinates corresponding to the measurement points and the motion parallax within a prescribed voting space;
Each process in the response intensity calculation unit and the voting unit is executed a plurality of times for a plurality of measurement points in the measurement space.

ここで、上記第13の画像計測装置は、前記投票空間内の、前記投票による値が極大値となる極大点を求めることにより、該極大点の投票に参加した複数の計測点を含む計測平面の方位、及び/又は、該計測平面が前記観察点に重なる重畳時刻を指標する物理量を求める検出部を備えたものであってもよい。   Here, the thirteenth image measuring apparatus includes a measurement plane including a plurality of measurement points participating in the voting of the local maximum by obtaining a local maximum in the voting space where the value by the voting becomes a local maximum. And / or a detection unit that obtains a physical quantity that indicates a superimposition time at which the measurement plane overlaps the observation point.

また、本発明の画像計測装置のうちの第14の画像計測装置は、
所定の計測空間内の所定の観察点から該計測空間内を眺めたときの画像にあらわれた該計測空間内の任意の計測点の、相互に異なる2つの計測時刻の間における前記観察点に対する相対的な移動方向をパラメータとして設定するパラメータ設定部と、
前記観察点から、前記計測空間内を前記2つの計測時刻において眺めたときの2つの画像に基づいて、前記計測点の、該2つの計測時刻における2つの計測位置どうしの位置の差である運動視差に対応する応答強度を求める応答強度演算部と、
前記応答強度演算部で求められた応答強度を、前記計測点の、前記2つの計測時刻の間における前記観察点に対する相対的な移動方向と同一方向への、かつ前記2つの計測時刻の間の移動速度と同一速度での移動がそのまま継続されるものと予定した移動継続状態における、前記計測点を含む計測平面が前記観察点に重なる重畳時刻を指標する物理量と、該計測平面の方位とで規定される、前記第1のステップで設定されたパラメータに応じた投票空間内の、前記計測点と前記運動視差とに対応した座標に投票する投票部とを備え、
前記計測空間内の複数の計測点について、前記応答強度演算部および前記投票部における各処理を、前記パラメータ設定部でパラメータの値を変更しながら複数回実行することを特徴とする。
The fourteenth image measuring device of the image measuring device of the present invention is
Relative to the observation point between two different measurement times of any measurement point in the measurement space that appears in the image when the inside of the measurement space is viewed from the predetermined observation point in the predetermined measurement space A parameter setting unit for setting a general moving direction as a parameter;
Based on the two images when the measurement space is viewed from the observation point at the two measurement times, the movement that is the difference between the two measurement positions at the two measurement times of the measurement point A response intensity calculation unit for obtaining a response intensity corresponding to the parallax;
The response intensity obtained by the response intensity calculator is set in the same direction as the movement direction of the measurement point relative to the observation point between the two measurement times and between the two measurement times. A physical quantity that indicates a superposition time at which a measurement plane including the measurement point overlaps the observation point in a planned movement continuation state in which the movement at the same speed as the movement speed is continued, and an orientation of the measurement plane A voting unit for voting on coordinates corresponding to the measurement points and the motion parallax in a voting space defined according to the parameters set in the first step;
For each of a plurality of measurement points in the measurement space, each process in the response intensity calculation unit and the voting unit is executed a plurality of times while changing parameter values in the parameter setting unit.

ここで、上記第14の画像計測装置は、前記投票による値が極大値となる極大点を各投票空間ごとに求め該極大点における極大値の情報に基づいて前記計測点の前記観察点に対する相対的な真の移動方向に対応する投票空間を選択することにより該真の移動方向を求めるとともに、該真の移動方向に対応する投票空間について求められた極大点の投票に参加した複数の計測点を含む計測平面の方位、及び/又は、該計測平面が前記観察点に重なる重畳時刻を指標する物理量を求める検出部を備えたものであってもよい。   Here, the fourteenth image measuring device obtains a local maximum point at which the value obtained by voting becomes a local maximum value for each voting space, and makes the relative measurement point relative to the observation point based on information on the local maximum value at the local maximum point. A plurality of measurement points participating in the voting of the maximum points obtained for the voting space corresponding to the true movement direction while obtaining the true movement direction by selecting a voting space corresponding to the true movement direction. May be provided with a detection unit that obtains a physical quantity indicating the azimuth of a measurement plane that includes and / or a superposition time at which the measurement plane overlaps the observation point.

また、本発明の画像計測装置のうちの第15の画像計測装置は、
所定の計測空間内の所定の観察点から該計測空間内を相互に異なる2つの計測時刻において眺めたときの2つの画像に基づいて、該計測空間内の任意の計測点の、該2つの計測時刻における2つの計測位置どうしの位置の差である運動視差に対応する応答強度を求める応答強度演算部と、
前記応答強度演算部で求められた応答強度を、前記観察点から、前記計測点を含む、前記2つの計測時刻のうちの一方の計測時刻における計測平面までの間の最短距離を指標する物理量と、該計測平面の方位とで規定される投票空間内の、前記計測点と前記運動視差とに対応した座標に投票する投票部とを備え、
前記計測空間内の複数の計測点について、前記応答強度演算部および前記投票部における各処理を複数回実行することを特徴とする。
The fifteenth image measuring device of the image measuring device of the present invention is
Based on two images when the measurement space is viewed at two different measurement times from a predetermined observation point in the predetermined measurement space, the two measurements at arbitrary measurement points in the measurement space A response intensity calculation unit for obtaining a response intensity corresponding to a motion parallax that is a difference between positions of two measurement positions at time;
The response intensity obtained by the response intensity calculator is a physical quantity that indicates the shortest distance from the observation point to the measurement plane at one of the two measurement times, including the measurement point. A voting unit for voting on coordinates corresponding to the measurement points and the motion parallax in a voting space defined by the orientation of the measurement plane,
For each of a plurality of measurement points in the measurement space, each process in the response intensity calculation unit and the voting unit is executed a plurality of times.

ここで、上記第15の画像計測装置は、前記投票空間内の、前記投票による値が極大値となる極大点を求めることにより、該極大点の投票に参加した複数の計測点を含む計測平面の方位、及び/又は、前記観察点から前記2つの計測時刻のうちの一方の計測時刻における前記計測平面までの最短距離を指標する物理量を求める検出部を備えたものであってもよい。   Here, the fifteenth image measuring apparatus includes a measurement plane including a plurality of measurement points participating in the voting of the local maximum point by obtaining a local maximum point in the voting space where the value by the voting becomes a local maximum value. And / or a detector that obtains a physical quantity that indicates the shortest distance from the observation point to the measurement plane at one of the two measurement times.

さらに、本発明の画像計測装置のうちの第16の画像計測装置は、
所定の計測空間内の所定の観察点から該計測空間内を眺めたときの画像にあらわれた該計測空間内の任意の計測点の、相互に異なる2つの計測時刻の間における前記観察点に対する相対的な移動方向をパラメータとして設定するパラメータ設定部と、
前記観察点から前記計測空間内を前記2つの計測時刻において眺めたときの2つの画像に基づいて、前記計測点の、該2つの計測時刻における2つの計測位置どうしの位置の差である運動視差に対応する応答強度を求める応答強度演算部と、
前記応答強度演算部で求められた応答強度を、前記観察点から、前記計測点を含む、前記2つの計測時刻のうちの一方の計測時刻における計測平面までの間の最短距離を指標する物理量と、該計測平面の方位とで規定される、前記第1のステップで設定されたパラメータに応じた投票空間内の、前記計測点と前記運動視差とに対応した座標に投票する投票部とを備え、
前記計測空間内の複数の計測点について、前記応答強度演算部および前記投票部における各処理を、前記パラメータ設定部でパラメータの値を変更しながら複数回実行することを特徴とする。
Furthermore, the sixteenth image measurement device of the image measurement devices of the present invention is
Relative to the observation point between two different measurement times of any measurement point in the measurement space that appears in the image when the inside of the measurement space is viewed from the predetermined observation point in the predetermined measurement space A parameter setting unit for setting a general moving direction as a parameter;
Motion parallax, which is the difference between the two measurement positions at the two measurement times of the measurement point, based on the two images when the measurement space is viewed from the observation point at the two measurement times. A response intensity calculation unit for obtaining a response intensity corresponding to
The response intensity obtained by the response intensity calculator is a physical quantity that indicates the shortest distance from the observation point to the measurement plane at one of the two measurement times, including the measurement point. A voting unit for voting on coordinates corresponding to the measurement points and the motion parallax in a voting space defined by the orientation of the measurement plane and according to the parameter set in the first step. ,
For each of a plurality of measurement points in the measurement space, each process in the response intensity calculation unit and the voting unit is executed a plurality of times while changing parameter values in the parameter setting unit.

ここで、第16の画像計測装置は、前記投票による値が極大値となる極大点を各投票空間ごとに求め該極大点における極大値の情報に基づいて前記計測点の前記観察点に対する相対的な真の移動方向に対応する投票空間を選択することにより該真の移動方向を求めるとともに、該真の移動方向に対応する極線描画空間について求められた極大点の投票に参加した複数の計測点を含む計測平面の方位、及び/又は、前記観察点から前記2つの計測時刻のうちの一方の計測時刻における前記計測平面までの最短距離を指標する物理量を求める検出部を備えたものであってもよい。   Here, the sixteenth image measuring device obtains a local maximum point at which the value obtained by voting becomes a local maximum value for each voting space, and makes the measurement point relative to the observation point based on information on the local maximum value at the local maximum point. A plurality of measurements that participated in the voting of the maximum points obtained for the polar drawing space corresponding to the true movement direction while obtaining the true movement direction by selecting a voting space corresponding to the true movement direction A detector that obtains a physical quantity indicating the azimuth of the measurement plane including the point and / or the shortest distance from the observation point to the measurement plane at one of the two measurement times. May be.

また、本発明の画像計測装置のうちの第17の画像計測装置は、
所定の計測空間内の所定の2つの観察点から該計測空間内を眺めたときの画像にあらわれた、該計測空間内の任意の計測点の、前記2つの観察点それぞれから観察したときの各計測位置をそれぞれp,p、前記計測点を含み、前記2つの観察点どうしを結ぶ視軸方向vと同一の方向に延びる直線上の無限遠点の位置をpaxis、前記2つの観察点のうちの一方の観察点を含み、前記計測点を含む計測平面と平行に広がる観察平面上の、前記直線との交点の位置をpとしたとき、
前記4つの位置paxis,p,p,pで決まる複比{paxis}あるいは該複比と等価な演算を用いて、前記計測平面の方位、及び/又は、該計測平面と前記2つの観察点のうちの一方の観察点との間の前記視軸方向の距離を指標する物理量を求める演算部を備えたことを特徴とする。
The seventeenth image measurement device of the image measurement devices of the present invention is
Each of the arbitrary measurement points in the measurement space, as seen from an image when the measurement space is viewed from two predetermined observation points in the predetermined measurement space, is observed from each of the two observation points. The measurement positions are p R and p L , respectively, and the position of an infinite point on a straight line that includes the measurement points and extends in the same direction as the visual axis direction v connecting the two observation points is represented by p axis . wherein one of the observation points of the point, when on the viewing plane extending parallel to the measurement plane including the measurement point, the position of intersection between the straight line and the p c,
The four positions p axis, using p R, p L, the cross ratio {p axis p R p L p c} or plurality ratio equivalent operations determined by p c, the orientation of the measurement plane, and / or And an arithmetic unit for obtaining a physical quantity indicating the distance in the visual axis direction between the measurement plane and one of the two observation points.

ここで、上記第17の画像計測装置において、前記演算部において実行される、前記複比{paxis}あるいは該複比と等価な演算には、前記計測点の、前記2つの観察点から観察したときの2つの計測位置p,pに代えて、前記計測点の、前記2つの観察点のうちの一方の観察点から観察したときの計測位置pと、前記計測点の、前記2つの観察点から観察したときの2つの計測位置p,pどうしの間の位置の差である両眼視差σとを用いる演算が包含されるものである。 Here, in the seventeenth image measuring device, the cross ratio {p axis p R p L p c } or a calculation equivalent to the cross ratio is executed in the calculation unit. Instead of the two measurement positions p R and p L when observed from two observation points, the measurement position p R when the measurement point is observed from one of the two observation points; Computation using the binocular parallax σ which is the difference in position between the two measurement positions p R and p L when the measurement point is observed from the two observation points is included.

上記第17の画像計測装置において、前記演算部が、前記計測平面と前記2つの観察点との間の前記視軸方向の距離を指標する物理量として、前記計測平面と前記2つの観察点のうちの一方の観察点との間の前記視軸方向の距離をd、前記2つの観察点どうしの間の距離をΔxLRとしたときの、
=d/ΔxLR
であらわされる規格化距離を採用し、該規格化距離を、
={paxis
の関係式あるいは該関係式と等価な関係式を用いて求めるものであってもよい。
In the seventeenth image measurement apparatus, the calculation unit includes, as a physical quantity that indicates a distance in the visual axis direction between the measurement plane and the two observation points, of the measurement plane and the two observation points. When the distance in the visual axis direction between the one observation point is d c and the distance between the two observation points is Δx LR ,
n d c = d c / Δx LR
In adopting the normalized distance n d c represented, the normalized distance n d c,
n d c = {p axis p R p L p c }
Or a relational expression equivalent to the relational expression.

また、上記第17の画像計測装置において、前記演算部が、
前記計測平面と前記2つの観察点のうちの一方の観察点との間の前記視軸方向の距離を指標する物理量をパラメータとして該パラメータの値を変更するパラメータ変更部と、
前記パラメータ変更部で設定された、前記計測平面と前記2つの観察点のうちの一方の観察点との間の前記視軸方向の距離を指標する物理量と、前記計測点の、前記2つの観察点から観察したときの各計測位置p,pあるいは、これら2つの計測位置p,pに代わる、該計測点の、前記2つの観察点のうちの一方の観察点から観察したときの計測位置pおよび該計測点の、前記2つの観察点から観察したときの2つの計測位置p,pどうしの間の両眼視差σと、前記無限遠点の位置paxisとから、前記複比{paxis}あるいは該複比と等価な演算を用いて、前記観察平面上の交点の位置pを求める複比変換部と、
前記観察平面上の交点の位置pを極変換することにより前記計測点に対応する極線を求める極変換部と、
前記計測空間内の複数の計測点について、前記複比変換部および前記極変換部における各演算が、前記パラメータの値が前記パラメータ変更部で変更されながら複数回繰り返される間に求められた複数の極線を極線描画空間に描画したときの極線どうしの交差点を求めることにより、該交差点で交わる複数の極線に対応する複数の計測点を含む計測平面の方位、及び/又は、該計測平面と前記2つの観察点のうちの一方の観察点との間の前記視軸方向の距離を指標する物理量を求める検出部と備えたものであってもよく、
その場合に、前記画像上にあらわれた計測点が強度の情報を有するものであって、前記極変換部が、前記極線を求めるとともに、求められた極線のを極線描画空間に描画したときの該極線軌跡上の各点それぞれに該極線に対応する計測点の強度に対応する値を投票するものであり、前記第4のステップが、前記交差点を求めることに代わり、前記複比変換部および前記極変換部における各演算を、前記パラメータの値を前記パラメータ変換部で変更しながら複数回繰り返す間の投票による値が極大値となる極大点を求めることにより、該極大点の投票に参加した複数の極線に対応する複数の計測点を含む計測平面の方位、及び/又は、該計測平面と前記2つの観察点のうちの一方の観察点との間の前記視軸方向の距離を指標する物理量を求めるものであることが好ましく、あるいは、
前記画像上にあらわれた計測点が強度の情報を有するものであって、
前記演算部が、前記計測点の、前記2つの観察点から観察したときの2つの計測位置p,pどうしの間の両眼視差σを第2のパラメータとして該第2のパラメータの値を変更する第2のパラメータ変更部を備え、
前記複比変換部が、前記パラメータ変更部で設定された、前記計測平面と前記2つの観察点のうちの一方の観察点との間の前記視軸方向の距離を指標する物理量と、前記計測点の前記2つの観察点のうちの一方の観察点から観察したときの計測位置pと、前記第2のパラメータ変更部で設定された前記両眼視差σと、前記無限遠点の位置paxisとから、前記観察平面上の交点pを求めるものであり、
前記極変換部が、前記計測点に対応する極線を求めるとともに、該計測点の、前記両眼視差σに対応する応答強度を求め、求められた極線を極線描画空間に描画したときの該極線の軌跡上の各点それぞれに、該極線に対応する計測点の、前記両眼視差σに対応する応答強度を投票するものであって、
前記検出部が、前記交差点を求めることに代わり、前記計測空間内の複数の計測点について、前記複比変換部および前記極変換部における各演算を、前記パラメータ変更部および前記第2のパラメータ変更部で各パラメータの各値を変更しながら複数回繰り返す間の投票による値が極大値となる極大点を求めることにより、該極大点の投票に参加した複数の極線に対応する複数の計測点を含む計測平面の方位、及び/又は、該計測平面と前記2つの観察点のうちの一方の観察点との間の前記視軸方向の距離を指標する物理量を求めるものであることも好ましい態様である。
In the seventeenth image measurement apparatus, the calculation unit includes:
A parameter changing unit that changes a value of the parameter using a physical quantity indicating a distance in the visual axis direction between the measurement plane and one of the two observation points as a parameter;
The two observations of the physical quantity that is set by the parameter changing unit and indicates the distance in the visual axis direction between the measurement plane and one of the two observation points, and the measurement point When observing from one of the two observation points instead of the two measurement positions p R and p L or the two measurement positions p R and p L when observed from the point the measurement position p R and the measurement point, two measurement positions p R when observed from the two observation points, and binocular parallax σ between and if p L, and a position p axis of the point at infinity , by using the double ratio {p axis p R p L p c} or plurality ratio equivalent calculation, the cross-ratio conversion unit for determining the position p c of the intersection on the observation plane,
A polar transformation unit for obtaining the polar corresponding to the measurement point by polar transformation the position p c of the intersection on the observation plane,
For a plurality of measurement points in the measurement space, each calculation in the multi-ratio conversion unit and the pole conversion unit is performed while being repeated a plurality of times while the parameter value is changed by the parameter change unit. By obtaining the intersection of the polar lines when the polar lines are drawn in the polar drawing space, the orientation of the measurement plane including a plurality of measurement points corresponding to the plurality of polar lines intersecting at the intersection and / or the measurement It may be provided with a detection unit for obtaining a physical quantity that indicates a distance in the visual axis direction between a plane and one of the two observation points,
In that case, the measurement point appearing on the image has intensity information, and the polar converter obtains the polar line and draws the obtained polar line in the polar drawing space. A value corresponding to the intensity of the measurement point corresponding to the polar line is voted for each point on the polar line trajectory, and the fourth step replaces the intersection with the compound point. By calculating each of the operations in the ratio conversion unit and the maximum conversion unit a plurality of times while changing the value of the parameter by the parameter conversion unit, a maximum point where the value by voting becomes a maximum value is obtained. The orientation of the measurement plane including a plurality of measurement points corresponding to the plurality of polar lines participating in the voting and / or the visual axis direction between the measurement plane and one of the two observation points The physical quantity to index the distance of Is preferably one, or
Measurement points appearing on the image have intensity information,
The calculation unit uses the binocular parallax σ between the two measurement positions p R and p L when the measurement point is observed from the two observation points as a second parameter value. A second parameter changing unit for changing
The cross ratio conversion unit, which is set by the parameter change unit, is a physical quantity that indicates a distance in the visual axis direction between the measurement plane and one of the two observation points; and the measurement A measurement position p R when observed from one of the two observation points, the binocular parallax σ set by the second parameter changing unit, and the position p of the infinity point and a axis, is intended to determine the intersection p c on the observation plane,
When the polar conversion unit obtains a polar line corresponding to the measurement point, obtains a response intensity corresponding to the binocular parallax σ of the measurement point, and draws the obtained polar line in the polar drawing space Voting the response intensity corresponding to the binocular parallax σ of the measurement point corresponding to the polar line for each point on the trajectory of the polar line,
Instead of the detection unit obtaining the intersection, the calculation in the cross ratio conversion unit and the polar conversion unit is performed on the plurality of measurement points in the measurement space by the parameter change unit and the second parameter change. A plurality of measurement points corresponding to a plurality of polar lines participating in the voting of the local maximum points by obtaining a local maximum point at which the value obtained by voting during a plurality of repetitions is changed while changing each value of each parameter in the section It is also preferable to obtain a physical quantity that indicates the orientation of the measurement plane including the and / or the distance in the visual axis direction between the measurement plane and one of the two observation points. It is.

また、上記第17の画像計測装置において、前記演算部が、
前記視軸方向vを第1のパラメータとして該パラメータの値を変更することにより前記無限遠点の位置paxisを変更する第1のパラメータ変更部と、
前記計測平面と前記2つの観察点のうちの一方の観察点との間の前記視軸方向の距離を指標する物理量を第2のパラメータとして該第2のパラメータの値を変更する第2のパラメータ変更部と、
前記第1のパラメータ変更部で設定された位置paxisと、前記第2のパラメータ変更部で設定された、前記視軸方向の距離を指標する物理量と、前記計測点の前記2つの観察点それぞれから観察したときの各計測位置p,pあるいは、これら2つの計測位置p,pに代わる、該計測点の、前記2つの観察点のうちの一方の観察点から観察したときの計測位置pおよび該計測点の、前記2つの観察点から観察したときの2つの計測位置p,pどうしの間の両眼視差σとから、前記複比{paxis}あるいは該複比と等価な演算を用いて、該計測点の前記観察平面上の交点の位置pを求める複比変換部と、
前記計測点の、前記観察平面上の交点の位置pを極変換することにより該計測点に対応する極線を求める極変換部と、
前記計測空間内の複数の計測点について、前記複比変換部および前記極変換部における各演算が、前記第1のパラメータおよび前記第2のパラメータの各値がそれぞれ前記第1のパラメータ変更部および前記パラメータ変更部で変更されながら複数回繰り返される間に求められた複数の極線を前記第1のパラメータの値に応じた複数の極線描画空間のうちのそれぞれ対応する極線描画空間に描画したときの極線どうしの交差点を各極線描画空間ごとに求め該交差点で交わる極線の本数の情報に基づいて真の視軸方向に対応する極線描画空間を選択することにより該真の視軸方向を求めるとともに、該真の視軸方向に対応する極線描画空間について求められた交差点で交わる複数の極線に対応する複数の計測点を含む計測平面の方位、及び/又は、該計測平面と前記観察点と前記2つの観察点のうちの一方の観察点との間の前記視軸方向の距離を指標する物理量を求める検出部とを備えたものであることが好ましく、
その場合に、前記画像上にあらわれた計測点が強度の情報を有するものであって、前記第極変換部が、前記極線を求めるとともに、求められた極線を該極線に対応する極線描画空間に描画したときの該極線の軌跡上の各点それぞれに該極線に対応する計測点の強度に対応する値を投票するものであり、前記検出部が、前記交差点を求めることに代わり、前記複比変換部および前記極変換部における各演算が、前記第1のパラメータおよび前記第2のパラメータの各値が変更されながら複数回繰り返される間の投票による値が極大値となる極大点を各極線描画空間ごとに求め該極大点における極大値の情報に基づいて前記真の視軸方向に対応する極線描画空間を選択することにより該真の視軸方向を求めるとともに、該真の視軸方向に対応する極線描画空間について求められた極大点の投票に参加した複数の極線に対応する複数の計測点を含む計測平面の方位、及び/又は、該計測平面と前記2つの観察点のうちの一方の観察点との間の前記視軸方向の距離を指標する物理量を求めるものであることが好ましく、あるいは、
前記画像上にあらわれた計測点が強度の情報を有するものであって、
前記演算部が、前記計測点の、前記2つの観察点から観察したときの2つの計測位置p,pどうしの間の両眼視差σを第3のパラメータとして該第3のパラメータの値を変更する第3のパラメータ変更部を備え、
前記複比変換部が、前記第1のパラメータ変更部で設定された位置paxisと、前記第2のパラメータ変更部で設定された、前記計測平面と前記2つの観察点のうちの一方の観察点との間の前記視軸方向の距離を指標する物理量と、前記計測点の、前記2つの観察点のうちの一方の観察点から観察したときの計測位置pと、前記第3のパラメータ変更部で設定された前記両眼視差σとを用いて、前記観察平面上の交点pを求めるものであり、
前記極変換部が、前記計測点に対応する極線を求めるとともに、該計測点の、前記両眼視差σに対応する応答強度を求め、求められた極線を極線描画空間に描画したときの該極線の軌跡上の各点それぞれに、該極線に対応する計測点の、前記両眼視差σに対応する応答強度を投票するものであって、
前記検出部が、前記交差点を求めることに代わり、前記計測空間内の複数の計測点について、前記複比変換部および前記極変換部における各演算を、前記第1、第2、および第3のパラメータ変更部で各パラメータの各値を変更しながら複数回繰り返す間の投票による値が極大値となる極大点を各極線描画空間ごとに求め該極大点における極大値の情報に基づいて前記真の視軸方向に対応する極線描画空間を選択することにより該真の視軸方向を求めるとともに、該真の視軸方向に対応する極線描画空間について求められた極大点の投票に参加した複数の極線に対応する複数の計測点を含む計測平面の方位、及び/又は、該計測平面と前記2つの観察点のうちの一方の観察点との間の前記視軸方向の距離を指標する物理量を求めるものであることも好ましい態様である。
In the seventeenth image measurement apparatus, the calculation unit includes:
A first parameter changing unit that changes the position p axis of the infinity point by changing the value of the visual axis direction v as a first parameter;
A second parameter that changes the value of the second parameter using a physical quantity indicating the distance in the visual axis direction between the measurement plane and one of the two observation points as a second parameter. Change part,
The position p axis set by the first parameter changing unit, the physical quantity set by the second parameter changing unit for indicating the distance in the visual axis direction, and the two observation points of the measurement point, respectively each measurement position p R, p L or when observed from these two measurement positions p R, replaces the p L, of the measurement point, when observed from one of the observation point of said two observation point From the measurement position p R and the binocular parallax σ between the two measurement positions p R and p L when observed from the two observation points, the cross ratio {p axis p R p L using p c} or plurality ratio equivalent calculation, the cross-ratio conversion unit for determining the position p c of the intersection on the observation plane of the measurement point,
A polar transformation unit for obtaining the polar corresponding to the measurement point by converting the measurement point, the position p c of intersection on said viewing plane electrode,
With respect to a plurality of measurement points in the measurement space, each calculation in the cross-ratio conversion unit and the pole conversion unit is performed by using the first parameter change unit and the first parameter change value and the second parameter value, respectively. Drawing a plurality of polar lines obtained while being changed a plurality of times while being changed by the parameter changing unit in a corresponding polar drawing space among a plurality of polar drawing spaces corresponding to the value of the first parameter The intersection of the polar lines is determined for each polar drawing space, and the true line drawing space is selected by selecting the polar drawing space corresponding to the true visual axis direction based on the information on the number of polar lines intersecting at the intersection. An orientation of the measurement plane including a plurality of measurement points corresponding to a plurality of polar lines intersecting at the intersection obtained for the polar drawing space corresponding to the true visual axis direction, and / or obtaining a visual axis direction, and / or , Preferably with the measuring plane and the observation point said at that a detecting section for obtaining a physical quantity indicative of the distance of the visual axis direction between one of the observation points of the two observation points,
In this case, the measurement point appearing on the image has intensity information, and the second pole conversion unit obtains the polar line, and the obtained polar line corresponds to the polar line. A value corresponding to the intensity of the measurement point corresponding to the polar line is voted for each point on the trajectory of the polar line when drawn in the line drawing space, and the detection unit obtains the intersection Instead, the value obtained by voting while each calculation in the cross ratio conversion unit and the maximum conversion unit is repeated a plurality of times while the values of the first parameter and the second parameter are changed becomes a maximum value. A maximum point is obtained for each polar drawing space, and the true visual axis direction is determined by selecting a polar drawing space corresponding to the true visual axis direction based on the local maximum information at the local maximum point, Corresponding to the true visual axis direction The orientation of a measurement plane including a plurality of measurement points corresponding to a plurality of polar lines that participated in the voting of local maximum points obtained for the line drawing space and / or one of the measurement plane and the two observation points It is preferable to obtain a physical quantity that indicates the distance in the visual axis direction between the observation point, or
Measurement points appearing on the image have intensity information,
The calculation unit uses the binocular parallax σ between the two measurement positions p R and p L when the measurement point is observed from the two observation points as a third parameter value of the third parameter. A third parameter changing unit for changing
The cross ratio conversion unit is configured to observe one of the measurement plane and the two observation points set by the position p axis set by the first parameter change unit and the second parameter change unit. A physical quantity indicating the distance in the visual axis direction between the point, the measurement position p R of the measurement point when observed from one of the two observation points, and the third parameter the set change unit by using the binocular parallax sigma, is intended to determine the intersection p c on the observation plane,
When the polar conversion unit obtains a polar line corresponding to the measurement point, obtains a response intensity corresponding to the binocular parallax σ of the measurement point, and draws the obtained polar line in the polar drawing space Voting the response intensity corresponding to the binocular parallax σ of the measurement point corresponding to the polar line for each point on the trajectory of the polar line,
Instead of obtaining the intersection, the detection unit performs the first, second, and third calculations for the plurality of measurement points in the measurement space in the cross ratio conversion unit and the polar conversion unit. The parameter changing unit obtains a maximum point at which the value obtained by voting during a plurality of repetitions while changing each value of each parameter, for each polar drawing space, and calculates the true value based on the maximum value information at the maximum point. The true visual axis direction was obtained by selecting a polar drawing space corresponding to the visual axis direction of the user, and participated in voting for the maximum points obtained for the polar drawing space corresponding to the true visual axis direction An indication of the orientation of the measurement plane including a plurality of measurement points corresponding to a plurality of polar lines and / or the distance in the visual axis direction between the measurement plane and one of the two observation points Is to calculate the physical quantity to be And also a preferred embodiment.

また、上記本発明の画像計測装置のうちの第18の画像計測装置は、
所定の計測空間内の所定の2つの観察点から該計測空間内を眺めたときの画像にあらわれた、該計測空間内の任意の計測点の、前記2つの観察点それぞれから観察したときの各計測位置をそれぞれp,p、前記2つの観察点どうしを結ぶ視軸方向をv、前記計測点を含み、前記視軸方向vと同一方向に延びる直線上の無限遠点の位置をpaxis、前記2つの観察点のうちの一方の観察点を含み、前記計測点を含む計測平面と平行に広がる観察平面上の、前記直線との交点の位置をp、前記計測平面の方位をnとしたとき、
前記4つの位置paxis,p,p,pで決まる複比{paxis}あるいは該複比と等価な演算と、前記計測平面の方位nと前記視軸の方向vとの内積(n・v)とを用いて、前記計測平面の方位n、及び/又は、該計測平面と前記2つの観察点のうちの一方の観察点との間の最短距離を指標する物理量を求める演算部を備えたことを特徴とする。
The eighteenth image measuring device of the image measuring device of the present invention is
Each of the arbitrary measurement points in the measurement space, as seen from an image when the measurement space is viewed from the two predetermined observation points in the predetermined measurement space, is observed from each of the two observation points. The measurement positions are p R and p L , the visual axis direction connecting the two observation points is v, and the position of an infinite point on a straight line that includes the measurement points and extends in the same direction as the visual axis direction v is p. axis , the position of the intersection with the straight line on the observation plane including one observation point of the two observation points and extending in parallel with the measurement plane including the measurement point, p c , and the orientation of the measurement plane where n s
The four positions p axis, p R, p L , cross ratios determined by p c {p axis p R p L p c} or plurality ratio equivalent operations and the visual axis and the orientation n s of the measurement plane by using the inner product of the direction v of the (n s · v), the azimuth n s measurement plane, and / or the shortest between one observation point of the said measurement plane the two observation points An arithmetic unit for obtaining a physical quantity indicating the distance is provided.

ここで、上記第18の画像計測装置において、演算部により実行される、前記複比{paxis}あるいは該複比と等価な演算には、前記計測点の、前記2つの観察点から観察したときの2つの計測位置p,pに代えて、前記計測点の、前記2つの観察点のうちの一方の観察点から観察したときの計測位置pと、前記計測点の、前記2つの観察点から観察したときの2つの計測位置p,pどうしの間の位置の差である両眼視差σとを用いる演算が包含されるものである。 Here, in the eighteenth image measuring apparatus, the calculation point is calculated by performing the calculation of the cross ratio {p axis p R p L p c } or the calculation equivalent to the cross ratio by the 2 Instead of the two measurement positions p R and p L when observed from one observation point, the measurement position p R when the measurement point is observed from one of the two observation points; Computation using the binocular parallax σ which is the difference in position between the two measurement positions p R and p L when the measurement point is observed from the two observation points is included.

上記第18の画像計測装置は、前記最短距離を指標とする物理量として、前記計測平面と前記2つの観察点のうちの一方の観察点との間の最短距離をd、前記計測平面と前記2つの観察点のうちの一方の観察点との間の前記視軸方向の距離をd、前記2つの観察点どうしの間の距離をΔxLRとしたときの、
=d/ΔxLR
であらわされる規格化最短距離を採用し、該規格化最短距離を、
=d/ΔxLR
であらわされる規格化距離と前記内積(n・v)とを用いた、
(n・v)
の関係式を用いて求めるものであってもよい。
The eighteenth image measuring apparatus, as a physical quantity as an index the shortest distance, the shortest distance between one of the observation point of the measuring plane and the two observation points d s, and the measuring plane when the distance of the visual axis direction between one of the observation points of the two observation points were d c, the distance between the each other two observation points and [Delta] x LR,
n d s = d s / Δx LR
The standardized shortest distance n d s expressed by the following formula is adopted, and the standardized shortest distance n d s
n d c = d c / Δx LR
Using the normalized distance n d c expressed by the above and the inner product (n s · v),
n d s = n d c (n s · v)
It may be obtained using the following relational expression.

また、上記第18の画像計測装置において、前記演算部が前記最短距離を指標する物理量を第1のパラメータとして該第1のパラメータの値を変更する第1のパラメータ変更部と、
前記内積(n・v)を第2のパラメータとして該第2のパラメータの値を変更する第2のパラメータ変更部と、
前記第1のパラメータ変更部で設定された前記最短距離を指標する物理量と、前記第2のパラメータ変更部で設定された内積(n・v)と、前記計測点の前記2つの観察点それぞれから観察したときの各計測位置p,pあるいは、これら2つの計測位置p,pに代わる、該計測点の、前記2つの観察点のうちの一方の観察点から観察したときの計測位置pおよび該計測点の、前記2つの観察点から観察したときの2つの計測位置p,pどうしの間の両眼視差σと、前記無限遠点の位置paxisとから、前記複比{paxis}あるいは該複比と等価な演算を用いて、前記観察平面上の交点の位置pを求める複比変換部と、
前記観察平面上の交点の位置pを極変換することにより該位置pに対応する極線を求める極変換部と、
前記極線上の点であって、かつ前記視軸の方向vと角度
r=cos−1(n・v)
を成す点を求める点演算部とを備えるとともに、
前記計測空間内の複数の計測点について、前記複比変換部、前記極変換部、および前記点演算部における各演算が、前記第1のパラメータおよび前記第2のパラメータの各値がそれぞれ第1のパラメータ変更部および前記第2のパラメータ変更部で変更されながら複数回繰り返されることにより、前記点演算部における、1つの計測点に関する、前記第1のパラメータの値が同一であって、かつ前記第2のパラメータの値がそれぞれ異なる複数回の演算により求められる複数の点を結ぶ曲線が、前記第1のパラメータの各値ごとに前記複数の計測点について求められた後に演算を実行する、
前記複比変換部、前記極変換部、および前記点演算部における各演算が複数回繰り返される間に求められた複数の曲線を曲線描画空間に描画したときの曲線どうしの交差点を求めることにより、該交差点で交わる複数の曲線に対応する複数の計測点を含む計測平面の方位n、及び/又は、該計測平面と前記2つの観察点のうちの一方の観察点との間の最短距離を指標する物理量を求める検出部を備えたものであってもよく、
その場合に、前記画像上にあらわれた計測点が強度の情報を有するものであって、前記点演算部が、前記点を求めるとともに、該点に対応する計測点の強度に対応する値を該点に対応する、前記曲線描画空間内の点に投票するものであり、前記検出部が、前記交差点を求めることに代わり、前記複比変換部、前記極変換部、および前記点演算部における各演算が複数回繰り返される間の投票による値が極大値となる極大点を求めることにより、該極大点の投票に参加した複数の曲線に対応する複数の計測点を含む計測平面の方位n、及び/又は、該計測平面と前記2つの観察点のうちの一方の観察点との間の最短距離を指標する物理量を求めるものであることが好ましく、あるいは、
前記画像上にあらわれた計測点が強度の情報を有するものであって、
前記演算部が、前記計測点の、前記2つの観察点から観察したときの2つの計測位置p,pどうしの間の両眼視差σを第3のパラメータとして該第3のパラメータの値を変更する第3のパラメータ変更部を備え、
前記複比変換部が、前記第1のパラメータ変更部で設定された、前記最短距離を指標する物理量と、前記第2のパラメータ変更部で設定された内積(n・v)と、前記計測点の、前記2つの観察点のうちの一方の観察点から観察したときの計測位置pと、前記第3のパラメータ変更部で設定された前記両眼視差σと、前記無限遠点の位置paxisとを用いて、前記観察平面上の交点の位置pを求めるものであり、
前記点演算部が、前記計測点に対応する極線上の前記点を求めるとともに、該計測点の、前記両眼視差σに対応する応答強度を求め、該極線上の前記点に対応する計測点の、前記両眼視差σに対応する応答強度を、該極線上の前記点に対応する、前記曲線描画空間内の点に投票するものであって、
前記検出部が、前記交差点を求めることに代わり、前記計測空間内の複数の計測点について、前記複比変換部、前記極変換部、および前記点演算部における各演算を、前記第1、第2、および第3のパラメータ変更部で各パラメータの各値を変更しながら複数回繰り返す間の投票による値が極大値となる極大点を求めることにより、該極大点の投票に参加した複数の曲線に対応する複数の計測点を含む計測平面の方位n、及び/又は、該計測平面と前記2つの観察点のうちの一方の観察点との間の最短距離を指標する物理量を求めるものであることも好ましい態様である。
In the eighteenth image measuring apparatus, a first parameter changing unit that changes a value of the first parameter using a physical quantity that indicates the shortest distance as a first parameter by the arithmetic unit;
A second parameter changing unit that changes the value of the second parameter using the inner product ( ns / v) as a second parameter;
A physical quantity indicating the shortest distance set by the first parameter change unit, an inner product ( ns / v) set by the second parameter change unit, and the two observation points of the measurement points, respectively each measurement position p R, p L or when observed from these two measurement positions p R, replaces the p L, of the measurement point, when observed from one of the observation point of said two observation point From the measurement position p R and the binocular parallax σ between the two measurement positions p R and p L when observed from the two observation points and the position p axis of the infinity point, using an equivalent operation with the cross ratio {p axis p R p L p c} or plurality ratio, the cross-ratio conversion unit for determining the position p c of the intersection on the observation plane,
A polar transformation unit for obtaining the polar corresponding to the position p c by polar transformation the position p c of the intersection on the observation plane,
The point on the polar line, and the direction v and angle of the visual axis r = cos −1 (n s · v)
And a point calculation unit for obtaining a point forming
With respect to a plurality of measurement points in the measurement space, each calculation in the cross-ratio conversion unit, the pole conversion unit, and the point calculation unit is the first value of each of the first parameter and the second parameter. The parameter changing unit and the second parameter changing unit are repeated a plurality of times while being changed, whereby the value of the first parameter relating to one measurement point in the point calculation unit is the same, and the Performing a calculation after a curve connecting a plurality of points obtained by a plurality of calculations with different values of the second parameter is obtained for the plurality of measurement points for each value of the first parameter;
By calculating intersections between curves when drawing a plurality of curves obtained while repeating each calculation in the cross ratio conversion unit, the polar conversion unit, and the point calculation unit a plurality of times in a curve drawing space, An orientation n s of a measurement plane including a plurality of measurement points corresponding to a plurality of curves intersecting at the intersection, and / or the shortest distance between the measurement plane and one of the two observation points It may be provided with a detection unit for obtaining a physical quantity to be indexed
In this case, the measurement point appearing on the image has intensity information, and the point calculation unit obtains the point and sets a value corresponding to the intensity of the measurement point corresponding to the point. Voting for a point in the curve drawing space corresponding to a point, and instead of obtaining the intersection, each of the detection unit in the cross ratio conversion unit, the pole conversion unit, and the point calculation unit By obtaining a local maximum point at which the value obtained by voting during the calculation is repeated a plurality of times, the azimuth n s of the measurement plane including a plurality of measurement points corresponding to the plurality of curves participating in the voting of the local maximum point And / or it is preferable to obtain a physical quantity indicating the shortest distance between the measurement plane and one of the two observation points, or
Measurement points appearing on the image have intensity information,
The calculation unit uses the binocular parallax σ between the two measurement positions p R and p L when the measurement point is observed from the two observation points as a third parameter value of the third parameter. A third parameter changing unit for changing
The cross ratio conversion unit sets the physical quantity indicating the shortest distance set by the first parameter changing unit, the inner product ( ns / v) set by the second parameter changing unit, and the measurement Measurement point p R when observed from one of the two observation points, the binocular parallax σ set by the third parameter changing unit, and the position of the infinity point by using the p axis, it is intended to determine the position p c of the intersection on the observation plane,
The point calculation unit obtains the point on the polar line corresponding to the measurement point, obtains a response intensity corresponding to the binocular parallax σ of the measurement point, and measures the measurement point corresponding to the point on the polar line Voting a response intensity corresponding to the binocular parallax σ to a point in the curve drawing space corresponding to the point on the polar line,
Instead of obtaining the intersection, the detection unit performs each calculation in the cross ratio conversion unit, the polar conversion unit, and the point calculation unit for the plurality of measurement points in the measurement space. A plurality of curves that participated in the voting of the local maximum points by obtaining the local maximum point at which the value obtained by voting during a plurality of repetitions while changing each value of each parameter in the second and third parameter changing units the azimuth n s measurement plane including a plurality of measurement points corresponding, and / or, and requests a physical quantity that indicates the shortest distance between one of the observation points of the with the measuring plane two observation point It is also a preferred embodiment.

また、上記第18の画像計測装置において、前記演算部が、
前記視軸の方向vを第1のパラメータとして該第1のパラメータの値を変更することにより前記無限遠点の位置paxisを変更する第1のパラメータ変更部と、
前記最短距離を指標する物理量を第2のパラメータとして該第2のパラメータを変更する第2のパラメータ変更部と、
前記内積(n・v)を第3のパラメータとして該第3のパラメータの値を変更する第3のパラメータ変更部と、
前記第2のパラメータ変更部で設定された、前記無限遠点の位置paxisと、前記第3のパラメータ変更部で設定された、前記最短距離を指標する物理量と、前記極変換部で設定された内積(n・v)と、前記計測点の前記2つの観察点それぞれから観察したときの各計測位置p,pあるいは、これら2つの計測位置p,pに代わる、該計測点の、前記2つの観察点のうちの一方の観察点から観察したときの計測位置pおよび該計測点の、前記2つの観察点から観察したときの2つの計測位置p,pどうしの間の両眼視差σとから、前記複比{paxis}あるいは該複比と等価な演算を用いて、前記観察平面上の交点の位置pを求める複比変換部と、
前記観察平面上の交点の位置pを極変換することにより該位置pに対応する極線を求める極変換部と、
前記極線上の点であって、かつ前記視軸方向vと角度
r=cos−1(n・v)
を成す点を求める点演算部とを備えるとともに、
前記計測空間内の複数の計測点について、前記複比変換部、前記極変換部、および前記点演算部における各演算が、前記第1から第3までのパラメータの各値がそれぞれ前記第1から第3までの各パラメータ変更部で変更されながら複数回繰り返されることにより、前記点演算部における、1つの計測点に関する、前記第1のパラメータの値が同一であるとともに前記第2のパラメータの値が同一であって、かつ前記第3のパラメータの値がそれぞれ異なる複数回の演算により求められる複数の点を結ぶ曲線が、前記第1のパラメータの各値と前記第2のパラメータの各値との各組合せごとに前記複数の計測点について求められた後に演算を実行する、
前記複比変換部、前記極変換部、および前記点演算部における各演算が複数回繰り返される間に求められた複数の曲線を前記第1のパラメータの値に応じた複数の曲線描画空間のうちのそれぞれ対応する曲線描画空間に描画したときの曲線どうしの交差点を各曲線描画空間ごとに求め該交差点で交わる曲線の本数の情報に基づいて真の視軸方向に対応する曲線描画空間を選択することにより該真の視軸方向を求めるとともに、該真の視軸方向に対応する曲線描画空間について求められた交差点で交わる複数の曲線に対応する複数の計測点を含む計測平面の方位n、及び/又は、該計測平面と前記2つの観察点のうちの一方の観察点との間の最短距離を指標する物理量を求める検出部を備えたものであってもよく、
その場合に、前記画像上にあらわれた計測点が強度の情報を有するものであって、前記点演算部が、前記点を求めるとともに、該点に対応する計測点の強度に対応する値を該点に対応する、該点を含む曲線が描かれる曲線描画空間内の点に投票するステップであり、前記検出部が、前記交差点を求めることに代わり、前記複比変換部、前記極変換部、および前記点演算部における各演算が複数回繰り返される間の投票による値が極大値となる極大点を各曲線描画空間ごとに求め該極大点における極大値の情報に基づいて前記真の視軸方向に対応する曲線描画空間を選択することにより該真の視軸方向を求めるとともに、該真の視軸方向に対応する曲線描画空間について求められた極大点の投票に参加した複数の曲線に対応する複数の計測点を含む計測平面の方位n、及び/又は、該計測平面と前記2つの観察点のうちの一方の観察点との間の最短距離を指標する物理量を求めるものであることが好ましく、あるいは、
前記画像上にあらわれた計測点が強度の情報を有するものであって、
前記演算部が、前記計測点の、前記2つの観察点から観察したときの2つの計測位置p,pどうしの間の両眼視差σを第4のパラメータとして該第4のパラメータを変更する第4のパラメータ変更部を備え、
前記複比変換部が、前記第1のパラメータ変更部で設定された、前記無限遠点の位置paxisと、前記第2のパラメータ変更部で設定された、前記最短距離を指標する物理量と、前記第3のパラメータ変更部で設定された内積(n・v)と、前記計測点の、前記2つの観察点のうちの一方の観察点から観察したときの計測位置pと、前記第4のパラメータ変更部で設定された前記両眼視差σとを用いて、前記観察平面上の交点の位置pを求めるものであり、
前記点演算部が、前記計測点に対応する極線上の前記点を求めるとともに、該計測点の、前記両眼視差σに対応する応答強度を求め、該極線上の前記点に対応する計測点の、前記両眼視差σに対応する応答強度を、該極線上の前記点に対応する、前記曲線描画空間内の点に投票するものであって、
前記検出部が、前記交差点を求めることに代わり、前記計測空間内の複数の計測点について、前記複比変換部、前記極変換部、および前記点演算部における各演算部を、前記第1、第2、第3および第4のパラメータ変更部で各パラメータの各値を変更しながら複数回繰り返す間の投票による値が極大値となる極大点を各曲線描画空間ごとに求め該極大点における極大値の情報に基づいて前記真の視軸方向に対応する曲線描画空間を選択することにより該真の視軸方向を求めるとともに、該真の視軸方向に対応する曲線描画空間について求められた極大点の投票に参加した複数の曲線に対応する複数の計測点を含む計測平面の方位n、及び/又は、該計測平面と前記2つの観察点のうちの一方の観察点との間の最短距離を指標する物理量を求めるステップであることも好ましい態様である。
In the eighteenth image measurement apparatus, the calculation unit includes:
A first parameter changing unit that changes the position p axis of the infinity point by changing the value of the first parameter using the direction v of the visual axis as a first parameter;
A second parameter changing unit that changes the second parameter using the physical quantity indicating the shortest distance as a second parameter;
A third parameter changing unit that changes the value of the third parameter using the inner product ( ns / v) as a third parameter;
The position p axis of the infinity point set by the second parameter changing unit, the physical quantity indicating the shortest distance set by the third parameter changing unit, and the pole converting unit are set. and the inner product (n s · v), wherein each measurement position p R when observed from each of the two observation points of measurement points, p L or replaces the two measuring positions p R, the p L, the measurement The measurement position p R when the point is observed from one of the two observation points and the two measurement positions p R and p L when the point is observed from the two observation points and a binocular parallax σ between, using the double ratio {p axis p R p L p c} or plurality ratio equivalent operations, cross-ratio conversion for determining the position p c of intersection on said viewing plane And
A polar transformation unit for obtaining the polar corresponding to the position p c by polar transformation the position p c of the intersection on the observation plane,
Said a point of pole line, and the visual axis direction v and angle r = cos -1 (n s · v)
And a point calculation unit for obtaining a point forming
With respect to a plurality of measurement points in the measurement space, each calculation in the cross-ratio conversion unit, the pole conversion unit, and the point calculation unit is performed using each of the first to third parameter values from the first to third measurement points. By being repeated a plurality of times while being changed by each parameter changing unit up to the third, the value of the first parameter for the one measurement point in the point calculation unit is the same and the value of the second parameter Are the same, and a curve connecting a plurality of points obtained by a plurality of computations with different values of the third parameter is a value of each of the first parameter and each value of the second parameter. The calculation is performed after the plurality of measurement points are obtained for each combination of
Among a plurality of curve drawing spaces according to the value of the first parameter, a plurality of curves obtained while each calculation in the cross ratio conversion unit, the polar conversion unit, and the point calculation unit is repeated a plurality of times The intersection of the curves when drawn in the corresponding curve drawing space is obtained for each curve drawing space, and the curve drawing space corresponding to the true visual axis direction is selected based on the information on the number of curves intersecting at the intersection. Thereby determining the true visual axis direction, and the orientation n s of the measurement plane including a plurality of measurement points corresponding to a plurality of curves intersecting at the intersection obtained with respect to the curve drawing space corresponding to the true visual axis direction, And / or a detector for obtaining a physical quantity that indicates the shortest distance between the measurement plane and one of the two observation points.
In this case, the measurement point appearing on the image has intensity information, and the point calculation unit obtains the point and sets a value corresponding to the intensity of the measurement point corresponding to the point. Voting on a point in a curve drawing space corresponding to a point in which a curve including the point is drawn, and instead of obtaining the intersection, the detection unit converts the cross ratio conversion unit, the polar conversion unit, And the true visual axis direction based on information on the local maximum value at each local area, for each curve drawing space, where a local maximum value is obtained by voting while each calculation in the point arithmetic unit is repeated a plurality of times. The true visual axis direction is obtained by selecting a curve drawing space corresponding to the two, and corresponding to a plurality of curves that participated in voting for the maximum points obtained for the curved drawing space corresponding to the true visual axis direction Multiple measurement points Orientation n s free measurement plane, and / or, preferably and requests a physical quantity that indicates the shortest distance between one of the observation points of the with the measuring plane two observation points, or,
Measurement points appearing on the image have intensity information,
The arithmetic unit changes the fourth parameter using the binocular parallax σ between the two measurement positions p R and p L when the measurement point is observed from the two observation points as a fourth parameter. And a fourth parameter changing unit
The multi-ratio conversion unit is configured by the first parameter changing unit, the position p axis of the infinity point, and the physical quantity indicating the shortest distance set by the second parameter changing unit; The inner product ( ns · v) set by the third parameter changing unit, the measurement position p R when the measurement point is observed from one of the two observation points, the first wherein set in the fourth parameter changing section by using the binocular parallax sigma, it is intended to determine the position p c of the intersection on the observation plane,
The point calculation unit obtains the point on the polar line corresponding to the measurement point, obtains a response intensity corresponding to the binocular parallax σ of the measurement point, and measures the measurement point corresponding to the point on the polar line Voting a response intensity corresponding to the binocular parallax σ to a point in the curve drawing space corresponding to the point on the polar line,
Instead of the detection unit obtaining the intersection, for each of a plurality of measurement points in the measurement space, each calculation unit in the cross ratio conversion unit, the pole conversion unit, and the point calculation unit is set to the first, A maximum point at which the value obtained by voting during a plurality of repetitions is maximized while changing each value of each parameter in the second, third, and fourth parameter changing units is determined for each curve drawing space, and the maximum at the maximum point is determined. The true visual axis direction is obtained by selecting the curved drawing space corresponding to the true visual axis direction based on the value information, and the maximum obtained for the curved drawing space corresponding to the true visual axis direction orientation n s measurement plane including a plurality of measurement points corresponding to a plurality of curves participated in the vote of points, and / or the shortest between one observation point of the said measurement plane the two observation points Physical quantity indicating distance It is also a preferred embodiment is a step of obtaining.

また、本発明の画像計測装置のうち第19の画像計測装置は、
所定の計測空間内の所定の2つの観察点から該計測空間内を眺めたときの画像にあらわれた、該計測空間内の任意の計測点の、前記2つの観察点それぞれから観察したときの各計測位置をそれぞれp,p、前記2つの観察点どうしを結ぶ視軸の方向をv、前記計測点を含み、前記2つの視軸と同一方向に延びる直線上の無限遠点の位置をpaxisとしたとき、
前記3つの位置paxis,p,pで決まる単比(paxis)あるいは該単比と等価な演算を用いて、前記計測平面の方位、及び/又は、該計測平面と前記2つの観察点のうちの一方の観察点との間の最短距離を指標する物理量を求める演算部を備えたことを特徴とする。
In addition, the nineteenth image measuring device among the image measuring devices of the present invention is:
Each of the arbitrary measurement points in the measurement space, as seen from an image when the measurement space is viewed from the two predetermined observation points in the predetermined measurement space, is observed from each of the two observation points. The measurement positions are p R and p L , the direction of the visual axis connecting the two observation points is v, and the position of an infinite point on a straight line that includes the measurement points and extends in the same direction as the two visual axes. When it is p axis
Using a single ratio determined by the three positions p axis , p R , and p L (p axis p R p L ) or an operation equivalent to the single ratio, the orientation of the measurement plane and / or the measurement plane An arithmetic unit for obtaining a physical quantity indicating the shortest distance between one of the two observation points is provided.

ここで、上記第19の画像計測装置の、前記演算部により実行される、前記単比(paxis)あるいは該単比と等価な演算には、前記計測点の、前記2つの観察点のうちの一方の観察点から観察したときの計測位置pと、前記計測点の、前記2つの観察点から観察したときの2つの計測位置p,pどうしの間の位置の差である両眼視差σとを用いる演算が包含されるものである。 Here, for the calculation performed by the calculation unit of the nineteenth image measurement apparatus, the single ratio (p axis p R p L ) or equivalent to the single ratio, the two measurement points may be calculated using the two measurement points. a measurement position p R when observed from one of the observation points of the observation point, the measurement point, two measurement positions p R when observed from the two observation points, the position between and if p L The calculation using the binocular parallax σ which is the difference is included.

上記第19の画像計測装置は、前記演算部が、前記各位置paxis,p,pとして球面上に写影された各位置を採用すると共に、前記最短距離を指標する物理量として、前記計測平面と前記2つの観察点のうちの一方の観察点との間の最短距離をd、2つの観察点どうしの間の距離をΔxLRとしたときの、
=d/ΔxLR
であらわされる規格化最短距離を採用し、
前記規格化最短距離をパラメータとして該パラメータを変更するパラメータ変更部と、
前記パラメータ変更部で設定された規格化最短距離と、単比(paxis)あるいは該単比と等価な演算とを用いて、
R=cos−1/(paxis))
なる関係式あるいは該関係式と等価な関係式で規定される半径Rを求めるパラメータ演算部と、
前記2つの観察点のうちの一方の観察点から観察したときの前記計測点の計測位置を中心とした半径Rの小円を求める小円演算部と、
前記計測空間内の複数の計測点について、前記パラメータ演算部および前記小演算部における各演算が、前記パラメータが前記パラメータ変更部で変更されながら複数回繰り返される間に求められた複数の小円を小円描画空間に描画したときの小円どうしの交差点を求めることにより、該交差点で交わる複数の小円に対応する複数の計測点を含む計測平面の方位nso、及び/又は、該計測平面についての規格化最短距離s0を求める検出部とを備えたものであってもよく、
その場合に、前記画像上にあらわれた計測点が強度の情報を有するものであって、前記小円演算部が、前記小円を求めるとともに、求められた小円を小円描画空間に描画したときの該小円の軌跡上の各点それぞれに該小円に対応する計測点の強度に対応する値を投票するものであり、
前記検出部が、前記交差点を求めることに代わり、前記パラメータ演算部および前記小円演算部における各演算が複数回繰り返される間の投票による値が極大値となる極大点を求めることにより、該極大点の投票に参加した複数の小円に対応する複数の計測点を含む計測平面の方位nso、及び/又は、該計測平面についての規格化最短距離s0を求めることが好ましく、あるいは、
前記画像上にあらわれた計測点が強度の情報を有するものであって、
前記演算部が、前記計測点の前記2つの観察点から観察したときの2つの計測位置p,pどうしの間の両眼視差σを第2のパラメータとして該第2のパラメータの値を変更する第2のパラメータ変更部を備え、
前記パラメータ演算部が、前記パラメータ変更部で設定された規格化最短距離と、前記無限遠点の位置paxisと、該計測点の、前記2つの観察点のうちの一方の観察点から観察したときの計測位置pと、前記第2のパラメータ変更部で設定された前記両眼視差σとを用いて、前記半径Rを求めるものであり、
前記小円変換部が、前記計測点に対応する前記小円を求めるとともに、該計測点の、前記両眼視差σに対応する応答強度を求め、求められた小円を小円描画空間に描画したときの該小円の軌跡上の各点それぞれに該小円に対応する計測点の、前記両眼視差に対応する応答強度を投票するステップであり、
前記計測空間内の複数の計測点について、前記第2のパラメータ演算部およびと前記小円変換部における各演算を、前記パラメータ変更部および前記第2のパラメータ変更部で各パラメータの各値を変更しながら複数回繰り返し、前記検出部が、前記交差点を求めることに代わり、前記第1、第5、第2および第3のステップを複数回繰り返す間の投票による値が極大値となる極大点を求めることにより、該極大点の投票に参加した複数の小円に対応する複数の計測点を含む計測平面の方位nso、及び/又は、該計測平面についての規格化最短距離s0を求めるステップであることも好ましい態様である。
In the nineteenth image measuring apparatus, the calculation unit employs each position projected on a spherical surface as each position p axis , p R , and p L, and as a physical quantity indicating the shortest distance, When the shortest distance between the measurement plane and one of the two observation points is d s , and the distance between the two observation points is Δx LR ,
n d s = d s / Δx LR
In adopting the normalized shortest distance n d s represented,
A parameter changing unit that changes the parameter using the normalized shortest distance n d s as a parameter;
Using the standardized shortest distance n d s set in the parameter changing unit and a simple ratio (p axis p R p L ) or an operation equivalent to the simple ratio,
R = cos −1 ( n d s / (p axis p R p L ))
A parameter calculation unit for obtaining a radius R defined by the following relational expression or a relational expression equivalent to the relational expression:
A small circle calculation unit for obtaining a small circle having a radius R centered on the measurement position of the measurement point when observed from one of the two observation points;
For a plurality of measurement points in the measurement space, a plurality of small circles obtained while each calculation in the parameter calculation unit and the small calculation unit is repeated a plurality of times while the parameter is changed by the parameter change unit. By obtaining the intersection of small circles when drawn in the small circle drawing space, the orientation n so of the measurement plane including a plurality of measurement points corresponding to the plurality of small circles intersecting at the intersection and / or the measurement plane And a detection unit for obtaining a normalized shortest distance n d s0 for
In this case, the measurement point appearing on the image has intensity information, and the small circle calculation unit obtains the small circle and draws the obtained small circle in the small circle drawing space. Voting a value corresponding to the strength of the measurement point corresponding to the small circle for each point on the trajectory of the small circle when
Instead of obtaining the intersection, the detection unit obtains a local maximum point at which a value obtained by voting during each calculation in the parameter computation unit and the small circle computation unit is repeated a plurality of times, thereby obtaining the local maximum. It is preferable to determine the orientation n so of the measurement plane including a plurality of measurement points corresponding to a plurality of small circles participating in the point voting and / or the normalized shortest distance n d s0 for the measurement plane, or
Measurement points appearing on the image have intensity information,
The calculation unit uses the binocular parallax σ between the two measurement positions p R and p L when observed from the two observation points of the measurement point as a second parameter, and sets the value of the second parameter. A second parameter changing unit for changing,
The parameter calculation unit includes a standardized shortest distance n d s set by the parameter changing unit, a position p axis of the infinity point, and one observation point of the two observation points of the measurement point The radius R is obtained using the measurement position p R when observed from the binocular parallax σ set by the second parameter changing unit,
The small circle conversion unit obtains the small circle corresponding to the measurement point, obtains a response intensity corresponding to the binocular parallax σ of the measurement point, and draws the obtained small circle in the small circle drawing space Voting the response intensity corresponding to the binocular parallax of the measurement point corresponding to the small circle for each point on the trajectory of the small circle when
For each of a plurality of measurement points in the measurement space, each calculation in the second parameter calculation unit and the small circle conversion unit is changed, and each value of each parameter is changed in the parameter change unit and the second parameter change unit. However, instead of obtaining the intersection, the detection unit obtains a maximum point at which the value obtained by voting during the first, fifth, second, and third steps is repeated a plurality of times instead of obtaining the intersection. By obtaining the azimuth n so of the measurement plane including a plurality of measurement points corresponding to the plurality of small circles participating in the voting of the local maximum point, and / or the normalized shortest distance n d s0 for the measurement plane is obtained. It is also a preferred embodiment that it is a step.

また、上記第19の画像計測装置は、前記演算部が、前記各位置paxis,p,pとして球面上に写影された各位置を採用すると共に、前記最短距離を指標する物理量として、前記計測平面と前記2つの観察点のうちの一方の観察点との間の最短距離をd、前記2つの観察点どうしの間の距離をΔxLRとしたときの、
=d/ΔxLR
であらわされる規格化最短距離を採用し、
前記視軸方向vを第1のパラメータとして該第1のパラメータの値を変更することにより前記無限遠点の位置paxisを変更する第1のパラメータ変更部と、
前記規格化最短距離を第2のパラメータとして該第2のパラメータの値を変更する第2のパラメータ変更部と、
前記第1のパラメータ変更部で設定された、前記無限遠点の位置paxisと、前記パラメータ変更部で設定された規格化最短距離と、単比(paxis)あるいは該単比と等価な演算とを用いて、
R=cos−1/(paxis))
なる関係式あるいは該関係式と等価な関係式で規定される半径Rを求めるパラメータ演算部と、
前記2つの観察点のうちの一方の観察点とから観察したときの前記計測点の計測位置を中心とした半径Rの小円を求める小円演算部とを有し、
前記計測空間内の複数の計測点について、前記パラメータ演算部および前記小円演算部における各演算が、前記第1のパラメータおよび前記第2のパラメータの各値がそれぞれ前記第1のパラメータ変更部および前記第2のパラメータ演算部で変更されながら複数回繰り返される間に求められた複数の小円を前記第1のパラメータの値に応じた複数の小円描画空間のうちのそれぞれ対応する小円描画空間に描画したときの小円どうし交差点を各小円描画空間ごとに求め該交差点で交わる小円の本数の情報に基づいて真の視軸方向に対応する小円描画空間を選択することにより該真の視軸方向を求めるとともに、該真の視軸方向に対応する小円描画空間について求められた交差点で交わる複数の小円に対応する複数の計測点を含む計測平面の方位nso、及び/又は、該計測平面についての規格化最短距離s0を求める検出部とをそなえたものであってもよく、
その場合に、前記画像上にあらわれた計測点が強度の情報を有するものであって、前記小円演算部が、前記小円を求めるとともに、求められた小円を該小円に対応する小円描画空間に描画したときの該小円の軌跡上の各点それぞれに該小円に対応する計測点の強度に対応する値を投票するものであり、前記検出部が、前記交差点を求めることに代わり、前記パラメータ演算部および前記小円演算部における各演算が複数回繰り返される間の投票による値が極大値となる極大点を各小円描画空間ごとに求め該極大点における極大値の情報に基づいて前記真の視軸方向に対応する小円描画空間を選択することにより該真の視軸方向を求めるとともに、該真の視軸方向に対応する小円描画空間について求められた極大点の投票に参加した複数の小円に対応する複数の計測点を含む計測平面の方位nso、及び/又は、該計測平面についての規格化最短距離s0を求めるものであることが好ましく、あるいは、
前記画像上にあらわれた計測点が強度の情報を有するものであって、
前記演算部が、前記計測点の前記2つの観察点から観察したときの2つの計測位置p,pどうしの間の両眼視差σを第3のパラメータとして該第3のパラメータの値を変更する第3のパラメータ変更部を備え、
前記パラメータ演算部が、前記第1のパラメータ変更部で設定された、前記無限遠点の位置paxisと、前記第2のステップで設定された規格化最短距離と、該計測点の、前記2つの観察点のうちの一方の観察点から観察したときの計測位置pと、前記第3のパラメータ変更部で設定された前記両眼視差σとを用いて、前記半径Rを求めるステップであり、
前記小円演算部が、前記計測点に対応する前記小円を求めるとともに、該計測点の、前記両眼視差σに対応する応答強度を求め、求められた小円を該小円に対応する小円描画空間に描画したときの該小円の軌跡上の各点それぞれに該小円に対応する計測点の、前記両眼視差σに対応する応答強度を投票するものであり、
前記検出部が、前記交差点を求めることに代わり、前記計測空間内の複数の計測点について、前記パラメータ演算部および前記小円演算部における各演算を、前記第1、第2および第3のパラメータ変更部で各パラメータの各値を変更しながら複数回繰り返す間の投票による値が極大値となる極大点を各小円描画空間ごとに求め該極大点における極大値の情報に基づいて前記真の視軸方向に対応する小円描画空間を選択することにより該真の視軸方向を求めるとともに、該真の視軸方向に対応する小円描画空間について求められた極大点の投票に参加した複数の小円に対応する複数の計測点を含む計測平面の方位nso、及び/又は、該計測平面についての規格化最短距離s0を求めるものであることも好ましい態様である。
In the nineteenth image measuring apparatus, the calculation unit employs each position projected on a spherical surface as each position p axis , p R , and p L , and uses the shortest distance as a physical quantity. , Where d s is the shortest distance between the measurement plane and one of the two observation points, and Δx LR is the distance between the two observation points.
n d s = d s / Δx LR
In adopting the normalized shortest distance n d s represented,
A first parameter changing unit that changes the position p axis of the infinity point by changing the value of the first parameter using the visual axis direction v as a first parameter;
A second parameter changing unit that changes the value of the second parameter using the normalized shortest distance n d s as a second parameter;
The position p axis of the infinity point set by the first parameter changing unit, the normalized shortest distance n d s set by the parameter changing unit, and a single ratio (p axis p R p L ) or Using an operation equivalent to the simple ratio,
R = cos −1 ( n d s / (p axis p R p L ))
A parameter calculation unit for obtaining a radius R defined by the following relational expression or a relational expression equivalent to the relational expression:
A small circle calculation unit for obtaining a small circle with a radius R centered on the measurement position of the measurement point when observed from one of the two observation points;
With respect to a plurality of measurement points in the measurement space, each calculation in the parameter calculation unit and the small circle calculation unit is performed by using each value of the first parameter and the second parameter as the first parameter change unit and Drawing a plurality of small circles obtained while being changed a plurality of times while being changed by the second parameter calculation unit, corresponding to small circle drawing in a plurality of small circle drawing spaces according to the value of the first parameter By determining the intersections between the small circles when drawn in space for each small circle drawing space, and selecting the small circle drawing space corresponding to the true visual axis direction based on the information on the number of small circles intersecting at the intersection A measurement plane including a plurality of measurement points corresponding to a plurality of small circles intersecting at intersections obtained for a small circle drawing space corresponding to the true visual axis direction while obtaining a true visual axis direction. n so, and / or it may be one equipped with a detection unit for determining the normalized shortest distance n d s0 for the measurement plane,
In this case, the measurement point appearing on the image has intensity information, and the small circle calculation unit obtains the small circle, and the obtained small circle corresponds to the small circle. A value corresponding to the intensity of the measurement point corresponding to the small circle is voted for each point on the path of the small circle when drawn in a circle drawing space, and the detection unit obtains the intersection Instead of this, information on the local maximum value at each local maximum point is obtained for each small circle drawing space by determining the local maximum point at which the value obtained by voting becomes a local maximum value while each calculation in the parameter arithmetic unit and the small circle arithmetic unit is repeated several times. And determining the true visual axis direction by selecting the small circle drawing space corresponding to the true visual axis direction based on the maximum point obtained for the small circle drawing space corresponding to the true visual axis direction. Multiple small circles that participated in voting A corresponding plurality of orientations n so the measurement plane including a measurement point, and / or, preferably and requests the normalized shortest distance n d s0 for the measurement plane, or,
Measurement points appearing on the image have intensity information,
The calculation unit uses the binocular parallax σ between the two measurement positions p R and p L when observed from the two observation points of the measurement point as a third parameter, and sets the value of the third parameter. A third parameter changing unit for changing,
The parameter calculation unit includes the position p axis of the infinity point set by the first parameter changing unit, the normalized shortest distance n d s set by the second step, and the measurement point The radius R is obtained by using the measurement position p R when observed from one of the two observation points and the binocular parallax σ set by the third parameter changing unit. Step,
The small circle calculation unit obtains the small circle corresponding to the measurement point, obtains a response intensity corresponding to the binocular parallax σ of the measurement point, and corresponds the obtained small circle to the small circle. Voting the response intensity corresponding to the binocular parallax σ of the measurement point corresponding to the small circle for each point on the locus of the small circle when drawn in the small circle drawing space;
Instead of the detection unit obtaining the intersection, the first, second, and third parameters are calculated in the parameter calculation unit and the small circle calculation unit for a plurality of measurement points in the measurement space. The maximum value at which the value obtained by voting during a plurality of repetitions is changed while changing each value of each parameter in the changing unit is determined for each small circle drawing space, and the true value is calculated based on the information on the maximum value at the maximum point. The true visual axis direction is obtained by selecting a small circle drawing space corresponding to the visual axis direction, and a plurality of participants who participated in voting for the maximum points obtained for the small circle drawing space corresponding to the true visual axis direction orientation n so the measurement plane including a plurality of measurement points corresponding to the small circle, and / or, it is also a preferred embodiment is intended to determine the normalized shortest distance n d s0 for the measurement plane.

さらに、本発明の画像計測装置のうちの第20の画像計測装置は、
所定の計測空間内の所定の2つの観察点から該計測空間内を眺めたときの画像にあらわれた、該計測空間内の任意の計測点の、前記2つの観察点それぞれから観察したときの各計測位置をそれぞれp,p、前記計測点を含み、前記2つの観察点どうしを結ぶ視軸の方向vと同一の方向に延びる直線上の無限遠点の位置をpaxisとしたとき、
前記3つの位置paxis,p,p,で決まる単比(paxis)あるいは該単比と等価な演算を用いて、前記計測点と、前記2つの観察点のうちの一方の観察点との間の距離を指標する物理量を求める演算部を備えたことを特徴とする。
Furthermore, the twentieth image measurement device of the image measurement devices of the present invention is
Each of the arbitrary measurement points in the measurement space, as seen from an image when the measurement space is viewed from the two predetermined observation points in the predetermined measurement space, is observed from each of the two observation points. When the measurement position is p R , p L , the measurement point, and the position of the point at infinity on a straight line extending in the same direction as the visual axis direction v connecting the two observation points is p axis ,
Using the single ratio (p axis p R p L ) determined by the three positions p axis , p R , p L , or an operation equivalent to the single ratio, the measurement point and the two observation points An arithmetic unit for obtaining a physical quantity indicating the distance to one observation point is provided.

ここで、上記第20の画像計測装置の、前記演算部により実行される、前記単比(paxis)あるいは該単比と等価な演算には、前記計測点の、前記2つの観察点それぞれから観察したときの2つの計測位置p,pに代えて、前記計測点の、前記2つの観察点のうちの一方の観察点から観察したときの計測位置pと、前記計測点の、前記2つの観察点から観察したときの2つの計測位置p,pどうしの間の位置の差である両眼視差σとを用いる演算が包含されるものである。 Here, in the calculation of the twentieth image measuring apparatus, which is executed by the calculation unit, the single ratio (p axis p R p L ) or the calculation equivalent to the single ratio includes the two measurement points. Instead of the two measurement positions p R and p L when observed from each observation point, the measurement position p R when the measurement point is observed from one of the two observation points; The calculation includes the binocular parallax σ that is the difference in position between the two measurement positions p R and p L when the measurement point is observed from the two observation points.

上記第20の画像計測装置は、前記距離を指標する物理量として、前記計測点と前記2つの観察点のうちの一方の観察点との間の距離をd、前記2つの観察点どうしの間の距離をΔxLRとしたときの、
=d/ΔxLR
であらわされる規格化距離を採用し、該規格化距離を、
=(paxis
の関係式あるいは該関係式と等価な関係式を用いて求めるものであってもよい。
In the twentieth image measurement apparatus, as a physical quantity indicating the distance, the distance between the measurement point and one of the two observation points is d 0 , and the distance between the two observation points is when the distance was set to Δx LR,
n d 0 = d 0 / Δx LR
In the normalized distance n d 0 represented adopted, the normalized distance n d 0,
n d 0 = (p axis p R p L )
Or a relational expression equivalent to the relational expression.

また、本発明の画像計測装置のうちの第21の画像計測装置は、
所定の計測空間内の所定の2つの観察点から該計測空間内を眺めたときの画像にあらわれる該計測空間内の任意の計測点を含む計測平面と、前記2つの観察点のうちの一方の観察点との間の、前記2つの観察点どうしを結ぶ視軸方向の距離を指標する物理量と、該計測平面の方位nとで規定される投票空間内の座標をパラメータとして設定するパラメータ設定部と、
前記計測点の、前記2つの観察点のうちの一方の観察点から観察したときの計測位置pと、該計測点を含み、前記視軸方向と同一方向に延びる直線上の無限遠点の位置paxisと、前記パラメータ設定部で設定された、前記投票空間内の座標とから、前記計測点の、前記2つの観察点から観察したときの2つの計測位置p,pどうしの位置の差である両眼視差σを求める両眼視差演算部と、
前記2つの観察点から前記計測空間内を眺めたときの2つの画像に基づいて、前記計測点の、前記両眼視差σに対応する応答強度を求める応答強度演算部と、
前記応答強度演算部で求められた応答強度を、前記投票空間内の、前記パラメータ設定部で設定された座標に投票する投票部とを備え、
前記計測空間内の複数の計測点について、前記両眼視差演算部、前記応答強度演算部、および前記投票部における各処理を、前記パラメータ設定部でパラメータの値を変更しながら複数回実行することを特徴とする。
The twenty-first image measuring device of the image measuring device of the present invention is
A measurement plane including an arbitrary measurement point in the measurement space that appears in an image when the measurement space is viewed from two predetermined observation points in the predetermined measurement space; and one of the two observation points between observation point, a physical quantity indicative of the distance of the visual axis direction connecting the two observation points with each other, the parameter setting for setting the coordinates of the voting space defined by the azimuth n s of the measuring plane as a parameter And
A measurement position p R when the measurement point is observed from one of the two observation points, and an infinite point on a straight line including the measurement point and extending in the same direction as the visual axis direction. From the position p axis and the coordinates in the voting space set by the parameter setting unit, the positions of the two measurement positions p R and p L when the measurement point is observed from the two observation points A binocular parallax calculation unit for obtaining a binocular parallax σ which is a difference between
A response intensity calculation unit for obtaining a response intensity corresponding to the binocular parallax σ of the measurement point based on two images when the measurement space is viewed from the two observation points;
A voting unit for voting the response strength obtained by the response strength computing unit to the coordinates set by the parameter setting unit in the voting space;
For each of a plurality of measurement points in the measurement space, each process in the binocular parallax calculation unit, the response intensity calculation unit, and the voting unit is executed a plurality of times while changing parameter values in the parameter setting unit. It is characterized by.

また、本発明の画像計測装置のうちの第22の画像計測装置は、
所定の計測空間内を観察する、該計測空間内の所定の2つの観察点どうしを結ぶ視軸方向vを第1のパラメータとして設定することにより、前記2つの観察点から該計測空間内を眺めたときの画像にあらわれる、該計測空間内の任意の計測点を含み、該視軸方向と同一方向に延びる直線上の無限遠点の位置paxisを設定する第1のパラメータ設定部と、
前記計測点を含む計測平面と前記2つの観察点のうちの一方の観察点との間の前記視軸方向の距離を指標する物理量と、該計測平面の方位nとで規定される、前記第1のパラメータに応じた投票空間内の座標を第2のパラメータとして設定する第2のパラメータ設定部と、
前記計測点の、前記2つの観察点のうちの一方の観察点から観察したときの計測位置pと、前記第1のパラメータ設定部で設定された位置paxisと、前記第2のパラメータ設定部で設定された、前記投票空間内の座標とから、前記計測点の、前記2つの観察点から観察したときの2つの計測位置p,pどうしの位置の差である両眼視差σを求める両眼視差演算部と、
前記2つの観察点から前記計測空間内を眺めたときの2つの画像に基づいて、前記計測点の、前記両眼視差σに対応する応答強度を求める応答強度演算部と、
前記応答強度演算部で求められた応答強度を、前記第1のパラメータに応じた投票空間内の、前記第2のパラメータ設定部で設定された座標に投票する投票部とを備え、
前記計測空間内の複数の計測点について、前記両眼視差演算部、前記応答強度演算部、および前記投票部における各処理を、前記第1および第2のパラメータ設定部で各パラメータの各値を変更しながら複数回実行することを特徴とする。
The twenty-second image measuring device of the image measuring device of the present invention is
By observing the inside of the predetermined measurement space and setting the visual axis direction v connecting the two predetermined observation points in the measurement space as the first parameter, the inside of the measurement space can be viewed from the two observation points. A first parameter setting unit for setting a position p axis of an infinite point on a straight line including an arbitrary measurement point in the measurement space and extending in the same direction as the visual axis direction, which appears in the image when
A physical quantity indicative of the distance of the visual axis direction between one of the observation point of said the measurement plane including a measurement point the two observation points, defined by the azimuth n s of the measurement plane, the A second parameter setting unit that sets coordinates in the voting space according to the first parameter as a second parameter;
The measurement point p R when the measurement point is observed from one of the two observation points, the position p axis set by the first parameter setting unit, and the second parameter setting Binocular parallax σ which is the difference between the two measurement positions p R and p L when the measurement point is observed from the two observation points, based on the coordinates in the voting space set in the unit Binocular parallax calculation unit for obtaining
A response intensity calculation unit for obtaining a response intensity corresponding to the binocular parallax σ of the measurement point based on two images when the measurement space is viewed from the two observation points;
A voting unit for voting the response strength obtained by the response strength computing unit to the coordinates set by the second parameter setting unit in a voting space corresponding to the first parameter;
For each of the plurality of measurement points in the measurement space, each process in the binocular parallax calculation unit, the response intensity calculation unit, and the voting unit is performed, and each value of each parameter is set in the first and second parameter setting units. It is characterized by being executed multiple times while changing.

また、本発明の画像計測装置のうちの第23の画像計測装置は、
所定の計測空間内を観察する、該計測空間内の所定の2つの観察点のうちの一方の観察点と、該2つの観察点から該計測空間を眺めたときの画像にあらわれた該計測空間内の任意の計測点を含む計測平面との間の最短距離を指標する物理量と、該計測平面の方位nとで規定される投票空間内の座標をパラメータとして設定するパラメータ設定部と、
前記計測点の、前記2つの観察点のうちの一方の観察点から観察したときの計測位置pと、該計測点を含み、前記2つの観察点どうしを結ぶ視軸方向と同一方向に延びる直線上の無限遠点の位置paxisと、前記パラメータ設定部で設定された、前記投票空間内の座標とから、前記計測点の、前記2つの観察点から観察したときの2つの計測位置p,pどうしの位置の差である両眼視差σを求める両眼視差演算部と、
前記2つの観察点から前記計測空間内を眺めたときの2つの画像に基づいて、前記計測点の、前記両眼視差σに対応する応答強度を求める応答強度演算部と、
前記応答強度演算部で求められた応答強度を、前記投票空間内の、前記パラメータ設定部で設定された座標に投票する投票部とを備え、
前記計測空間内の複数の計測点について、前記両眼視差演算部、前記応答強度演算部、および前記投票部における各処理を、前記パラメータ設定部でパラメータの値を変更しながら複数回実行することを特徴とする。
The twenty-third image measuring device of the image measuring device of the present invention is
One observation point of two predetermined observation points in the measurement space for observing the predetermined measurement space, and the measurement space appearing in an image when the measurement space is viewed from the two observation points a parameter setting unit for setting a physical quantity that indicates the shortest distance between the measurement plane including the arbitrary measurement points, the coordinates of the voting space defined by the azimuth n s of the measuring plane as a parameter of the inner,
A measurement position p R when the measurement point is observed from one of the two observation points, and the visual axis direction that includes the measurement point and connects the two observation points. Two measurement positions p when the observation point is observed from the two observation points, based on the position p axis of the infinity point on the straight line and the coordinates in the voting space set by the parameter setting unit. A binocular parallax calculation unit for obtaining a binocular parallax σ which is a difference in position between R 1 and p L ;
A response intensity calculation unit for obtaining a response intensity corresponding to the binocular parallax σ of the measurement point based on two images when the measurement space is viewed from the two observation points;
A voting unit for voting the response strength obtained by the response strength computing unit to the coordinates set by the parameter setting unit in the voting space;
For each of a plurality of measurement points in the measurement space, each process in the binocular parallax calculation unit, the response intensity calculation unit, and the voting unit is executed a plurality of times while changing parameter values in the parameter setting unit. It is characterized by.

さらに、本発明の画像計測装置のうちの第24の画像計測装置は、
所定の計測空間内を観察する、該計測空間内の所定の2つの観察点どうしを結ぶ視軸方向vを第1のパラメータとして設定することにより、前記2つの観察点から該計測空間を眺めたときの画像にあらわれる、該計測空間内の任意の計測点を含み、該視軸方向と同一方向に延びる直線上の無限遠点の位置paxisを設定する第1のパラメータ設定部と、
前記2つの観測点のうちの一方の観察点と、前記計測点を含む計測平面までの最短距離を指標する物理量と、該計測平面の方位nとで規定される、前記第1のパラメータに応じた投票空間内の座標を第2のパラメータとして設定する第2のパラメータ設定部と、
前記計測点の、前記2つの観察点のうちの一方の観察点から観察したときの計測位置pと、前記第1のパラメータ設定部で設定された位置paxisと、前記第2のパラメータ設定部で設定された、前記投票空間内の座標とから、前記計測点の、前記2つの観察点から観察したときの2つの計測位置p,pどうしの位置の差である両眼視差σを求める両眼視差演算部と、
前記2つの観察点から前記計測空間内を眺めたときの2つの画像に基づいて、前記計測点の、前記両眼視差σに対応する応答強度を求める応答強度演算部と、
前記応答強度演算部で求められた応答強度を、前記第1のパラメータに応じた投票空間内の、前記第2のパラメータ設定部で設定された座標に投票する投票部とを備え、
前記計測空間内の複数の計測点について、前記両眼視差演算部、前記応答強度演算部、および前記投票部における各処理を、前記第1および第2のパラメータ設定部で各パラメータの各値を変更しながら複数回実行することを特徴とする。
Furthermore, the 24th image measurement device of the image measurement devices of the present invention is:
By observing the inside of the predetermined measurement space and setting the visual axis direction v connecting the two predetermined observation points in the measurement space as the first parameter, the measurement space is viewed from the two observation points. A first parameter setting unit for setting a position p axis of an infinite point on a straight line including an arbitrary measurement point in the measurement space and extending in the same direction as the visual axis direction, which appears in the image of time
And one of the observation point of said two observation points, the physical quantity that indicates the shortest distance to the measurement plane including a measurement point is defined by the azimuth n s of the measurement plane, said first parameter A second parameter setting unit that sets the coordinates in the corresponding voting space as a second parameter;
The measurement point p R when the measurement point is observed from one of the two observation points, the position p axis set by the first parameter setting unit, and the second parameter setting Binocular parallax σ which is the difference between the two measurement positions p R and p L when the measurement point is observed from the two observation points, based on the coordinates in the voting space set in the unit Binocular parallax calculation unit for obtaining
A response intensity calculation unit for obtaining a response intensity corresponding to the binocular parallax σ of the measurement point based on two images when the measurement space is viewed from the two observation points;
A voting unit for voting the response strength obtained by the response strength computing unit to the coordinates set by the second parameter setting unit in a voting space corresponding to the first parameter;
For each of the plurality of measurement points in the measurement space, each process in the binocular parallax calculation unit, the response intensity calculation unit, and the voting unit is performed, and each value of each parameter is set in the first and second parameter setting units. It is characterized by being executed multiple times while changing.

また、本発明の画像計測装置のうちの第25の画像計測装置は、
所定の計測空間内の所定の2つの観察点から該計測空間内を眺めたときの2つの画像にあらわれる、該計測空間内の任意の計測点の2つの計測位置p,pどうしの間の位置の差である両眼視差σをパラメータとして設定するパラメータ設定部と、
前記計測点の、前記2つの観察点のうちの一方の観察点から観察したときの計測位置pと、該計測点を含み、前記2つの観察点どうしを結ぶ視軸方向と同一方向に延びる直線上の無限遠点の位置paxisと、前記パラメータ設定部で設定された両眼視差σとから、前記計測点を含む計測平面と前記2つの観察点のうちの一方の観察点との間の、前記視軸方向の距離を指標する物理量と、該計測平面の方位nとで規定される投票空間内の座標を求める座標演算部と、
前記2つの観察点から前記計測空間を眺めたときの2つの画像に基づいて、前記計測点の、前記第1のステップで設定された両眼視差σに対応する応答強度を求める応答強度演算部と、
前記応答強度演算部で求められた応答強度を、前記投票空間内の、前記座標演算部で求められた座標に投票する投票部とを備え、
前記計測空間内の複数の計測点について、前記座標演算部、前記応答強度演算部、および前記投票部における各処理を、前記パラメータ設定部でパラメータの値を変更しながら複数回実行することを特徴とする。
The 25th image measuring device of the image measuring device of the present invention is:
Between two measurement positions p R and p L at an arbitrary measurement point in the measurement space, which appear in two images when the measurement space is viewed from two predetermined observation points in the predetermined measurement space A parameter setting unit that sets binocular parallax σ, which is a difference in position of
A measurement position p R when the measurement point is observed from one of the two observation points and the visual axis direction that includes the measurement point and connects the two observation points. From the position p axis of the infinity point on the straight line and the binocular parallax σ set by the parameter setting unit, between the measurement plane including the measurement point and one of the two observation points of a physical quantity indicative of the distance of the visual axis direction, and a coordinate calculation unit for obtaining the coordinates of the voting space defined by the azimuth n s of the measurement plane,
Based on two images when the measurement space is viewed from the two observation points, a response intensity calculation unit that obtains a response intensity corresponding to the binocular parallax σ set in the first step of the measurement point When,
A voting unit for voting the response strength obtained by the response strength computing unit to the coordinates obtained by the coordinate computing unit in the voting space;
For each of a plurality of measurement points in the measurement space, each process in the coordinate calculation unit, the response strength calculation unit, and the voting unit is executed a plurality of times while changing parameter values in the parameter setting unit. And

また、本発明の画像計測装置のうちの第26の画像計測装置は、
所定の計測空間内を観察する、該計測空間内の所定の2つの観察点どうしを結ぶ視軸方向vを第1のパラメータとして設定することにより、前記2つの観察点から該計測空間を眺めたときの画像にあらわれる該計測空間内の任意の計測点を含み、該視軸方向と同一方向に延びる直線上の無限遠点の位置paxisを設定する第1のパラメータ設定部と、
前記計測点の、前記2つの観察点から観察したときの2つの計測位置p,pどうしの位置の差である両眼視差σを第2のパラメータとして設定する第2のパラメータ設定部と、
前記計測点の、前記2つの観察点のうちの一方の観察点から観察したときの計測位置pと、前記第1のパラメータ設定部で設定された位置paxisと、前記第2のパラメータ設定部で設定された両眼視差σとから、前記計測点を含む計測平面と前記2つの観察点のうちの一方の観察点との間の、前記視軸方向の距離を指標する物理量と、該計測平面の方位nとで規定される、前記第1のパラメータに応じた投票空間内の座標を求める座標演算部と、
前記2つの観察点から前記計測空間を眺めたときの2つの画像に基づいて、前記計測点の、前記第2のステップで設定された両眼視差σに対応する応答強度を求める応答強度演算部と、
前記応答強度演算部で求められた応答強度を、前記第1のパラメータに応じた投票空間内の、前記座標演算部で求められた座標に投票する投票部とを備え、
前記計測空間内の複数の計測点について、前記座標演算部、前記応答強度演算部、および前記投票部における各処理を、前記第1および第2のパラメータ設定部で各パラメータの各値を変更しながら複数回実行することを特徴とする。
The twenty-sixth image measuring device of the image measuring device of the present invention is
By observing the inside of the predetermined measurement space and setting the visual axis direction v connecting the two predetermined observation points in the measurement space as the first parameter, the measurement space is viewed from the two observation points. A first parameter setting unit for setting a position p axis of an infinite point on a straight line including an arbitrary measurement point in the measurement space appearing in the image of time and extending in the same direction as the visual axis direction;
A second parameter setting unit configured to set, as a second parameter, binocular parallax σ that is a difference between two measurement positions p R and p L when the measurement point is observed from the two observation points; ,
The measurement point p R when the measurement point is observed from one of the two observation points, the position p axis set by the first parameter setting unit, and the second parameter setting From the binocular parallax set in the unit, a physical quantity indicating the distance in the visual axis direction between the measurement plane including the measurement point and one of the two observation points; is defined by the azimuth n s measurement plane, a coordinate calculation unit for obtaining the coordinates of the voting space corresponding to the first parameter,
Based on two images when the measurement space is viewed from the two observation points, a response intensity calculation unit that obtains a response intensity corresponding to the binocular parallax σ set in the second step of the measurement point When,
A voting unit for voting the response strength obtained by the response strength computing unit in the voting space according to the first parameter to the coordinates obtained by the coordinate computing unit;
For each of a plurality of measurement points in the measurement space, each process in the coordinate calculation unit, the response strength calculation unit, and the voting unit is changed, and each value of each parameter is changed in the first and second parameter setting units. It is characterized by being executed multiple times.

また、本発明の画像計測装置のうちの第27の画像計測装置は、
所定の計測空間内の所定の2つの観察点から該計測空間内を眺めたときの2つの画像にあらわれた、該計測空間内の任意の計測点の2つの計測位置p,pどうしの間の位置の差である両眼視差σをパラメータとして設定するパラメータ設定部と、
前記計測点の、前記2つの観察点のうちの一方の観察点から観察したときの計測位置pと、該計測点を含み、前記2つの観察点どうしを結ぶ視軸方向と同一方向に延びる直線上の無限遠点の位置paxisと、前記パラメータ設定部で設定された両眼視差σとに基づいて、前記2つの観察点のうちの一方の観察点と、前記計測点を含む計測平面との間の最短距離を指標する物理量と、該計測平面の方位nとで規定される投票空間内の座標を求める座標演算部と、
前記2つの観察点から前記計測空間を眺めたときの2つの画像に基づいて、前記計測点の、前記第1のステップで設定された両眼視差σに対応する応答強度を求める応答強度演算部と、
前記応答強度演算部で求められた応答強度を、前記投票空間内の、前記座標演算部で求められた座標に投票する投票部とを備え、
前記計測空間内の複数の計測点について、前記座標演算部、前記応答強度演算部、および前記投票部における各処理を、前記パラメータ設定部でパラメータの値を変更しながら複数回実行することを特徴とする。
The twenty-seventh image measuring device of the image measuring device of the present invention is
Between two measurement positions p R and p L of arbitrary measurement points in the measurement space, which appear in two images when the measurement space is viewed from two predetermined observation points in the predetermined measurement space. A parameter setting unit that sets binocular parallax σ, which is a difference in position between the two, as a parameter;
A measurement position p R when the measurement point is observed from one of the two observation points and the visual axis direction that includes the measurement point and connects the two observation points. A measurement plane including one observation point of the two observation points and the measurement point based on the position p axis of the infinity point on the straight line and the binocular parallax σ set by the parameter setting unit A coordinate calculation unit for obtaining coordinates in a voting space defined by a physical quantity that indicates the shortest distance between and a direction n s of the measurement plane;
Based on two images when the measurement space is viewed from the two observation points, a response intensity calculation unit that obtains a response intensity corresponding to the binocular parallax σ set in the first step of the measurement point When,
A voting unit for voting the response strength obtained by the response strength computing unit to the coordinates obtained by the coordinate computing unit in the voting space;
For each of a plurality of measurement points in the measurement space, each process in the coordinate calculation unit, the response strength calculation unit, and the voting unit is executed a plurality of times while changing parameter values in the parameter setting unit. And

さらに、本発明の画像計測装置のうちの第28の画像計測装置は、
所定の計測空間内を観察する、該計測空間内の所定の2つの観察点どうしを結ぶ視軸方向vを第1のパラメータとして設定することにより、前記2つの観察点から該計測空間内を眺めたときの画像にあらわれる、該計測空間内の任意の計測点を含み、該視軸方向と同一方向に延びる直線上の無限遠点の位置paxisを設定する第1のパラメータ設定部と、
前記計測点の、前記2つの観察点から観察したときの2つの計測位置p,pどうしの位置の差である両眼視差σを第2のパラメータとして設定する第2のパラメータ設定部と、
前記計測点の、前記2つの観察点のうちの一方の観察点から観察したときの計測位置pと、前記第1のパラメータ設定部で設定された位置paxisと、前記第2のパラメータ設定部で設定された両眼視差σとに基づいて、前記2つの観察点のうちの一方の観察点と、前記計測点を含む計測平面との間の最短距離を指標する物理量と、該計測平面の方位nとで規定される、前記第1のパラメータに応じた投票空間内の座標を求める座標演算部と、
前記2つの観察点から前記計測空間を眺めたときの2つの画像に基づいて、前記計測点の、前記第2のパラメータ設定部で設定された両眼視差σに対応する応答強度を求める応答強度演算部と、
前記応答強度演算部で求められた応答強度を、前記第1のパラメータに応じた投票空間内の、前記座標演算部で求められた座標に投票する投票部とを備え、
前記計測空間内の複数の計測点について、前記座標演算部、前記応答強度演算部、および前記投票部における各処理を、前記第1および第2のパラメータ設定部で各パラメータの各値を変更しながら複数回実行することを特徴とする。
Further, the twenty-eighth image measurement device of the image measurement devices of the present invention is:
By observing the inside of the predetermined measurement space and setting the visual axis direction v connecting the two predetermined observation points in the measurement space as the first parameter, the inside of the measurement space can be viewed from the two observation points. A first parameter setting unit for setting a position p axis of an infinite point on a straight line including an arbitrary measurement point in the measurement space and extending in the same direction as the visual axis direction, which appears in the image when
A second parameter setting unit configured to set, as a second parameter, binocular parallax σ that is a difference between two measurement positions p R and p L when the measurement point is observed from the two observation points; ,
The measurement point p R when the measurement point is observed from one of the two observation points, the position p axis set by the first parameter setting unit, and the second parameter setting A physical quantity that indicates the shortest distance between one of the two observation points and the measurement plane including the measurement point, based on the binocular parallax set in the unit, and the measurement plane of it is defined by the azimuth n s, and a coordinate calculation unit for obtaining the coordinates of the voting space corresponding to the first parameter,
Response intensity for obtaining response intensity corresponding to binocular parallax σ set by the second parameter setting unit of the measurement point based on two images when the measurement space is viewed from the two observation points An arithmetic unit;
A voting unit for voting the response strength obtained by the response strength computing unit in the voting space according to the first parameter to the coordinates obtained by the coordinate computing unit;
For each of a plurality of measurement points in the measurement space, each process in the coordinate calculation unit, the response strength calculation unit, and the voting unit is changed, and each value of each parameter is changed in the first and second parameter setting units. It is characterized by being executed multiple times.

また、本発明の画像計測装置のうちの第29の画像計測装置は、
所定の計測空間内の所定の2つの観察点から、該計測空間内を眺めたときの2つの画像に基づいて、該計測空間内の任意の計測点の、該2つの観察点から観察したときの2つの計測位置どうしの位置の差である両眼視差に対応する応答強度を求める応答強度演算部と、
前記応答強度演算部で求められた応答強度を、前記計測点を含む計測平面と、前記2つの観察点のうちの一方の観察点との間の、前記2つの観察点どうしを結ぶ視軸方向の距離を指標する物理量と、該計測平面の方位とで規定される投票空間内の、前記計測点と前記両眼視差とに対応した座標に投票する投票部とを備え、
前記計測空間内の複数の計測点について前記応答強度演算部および前記投票部における各処理を複数回実行することを特徴とする。
Moreover, the 29th image measuring device of the image measuring devices of this invention is
When observing an arbitrary measurement point in the measurement space from the two observation points based on two images when the measurement space is viewed from the two predetermined observation points in the predetermined measurement space A response intensity calculation unit for obtaining a response intensity corresponding to binocular parallax, which is a difference between the two measurement positions;
The visual axis direction connecting the two observation points between the measurement plane including the measurement points and one of the two observation points, the response intensity obtained by the response intensity calculation unit A voting unit for voting on coordinates corresponding to the measurement points and the binocular parallax in a voting space defined by a physical quantity that indicates the distance of the measurement plane and the orientation of the measurement plane;
Each process in the response intensity calculation unit and the voting unit is executed a plurality of times for a plurality of measurement points in the measurement space.

ここで、上記第29の画像計測装置は、前記投票空間内の、前記投票による値が極大値となる極大点を求めることにより、該極大点の投票に参加した複数の計測点を含む計測平面の方位、及び/又は、該計測平面と前記2つの観察点のうちの一方の観察点との間の、前記視軸方向の距離を指標する物理量を求める検出部を備えたものであってもよい。   Here, the twenty-ninth image measurement apparatus obtains a maximum point in the voting space where the value obtained by voting becomes a maximum value, thereby including a plurality of measurement points participating in the voting of the maximum point. And / or a detector that obtains a physical quantity that indicates the distance in the visual axis direction between the measurement plane and one of the two observation points. Good.

また、本発明の画像計測装置のうちの第30の画像計測装置は、
所定の計測空間内を観察する該計測空間内の所定の2つの観察点どうしを結ぶ視軸方向をパラメータとして設定するパラメータ設定部と、
前記2つの観察点から前記計測空間内を眺めたときの2つの画像に基づいて、該計測空間内の任意の計測点の、該2つの観察点から観察したときの2つの計測位置どうしの位置の差である両眼視差に対応する応答強度を求める応答強度演算部と、
前記応答強度演算部で求められた応答強度を、前記計測点を含む計測平面と、前記2つの観察点のうちの一方の観察点との間の、前記視軸方向の距離を指標する物理量と、該計測平面の方位とで規定される、前記第1のステップで設定されたパラメータに応じた投票空間内の、前記計測点と前記両眼視差とに対応した座標に投票する投票部とを備え、
前記計測空間内の複数の計測点について、前記応答強度演算部および前記投票部における各処理を、前記第1のパラメータ設定部でパラメータの値を変更しながら複数回実行することを特徴とする。
The thirtieth image measuring device of the image measuring device of the present invention is
A parameter setting unit for setting a visual axis direction connecting two predetermined observation points in the measurement space as a parameter for observing the predetermined measurement space;
Based on two images when the inside of the measurement space is viewed from the two observation points, a position between two measurement positions of the arbitrary measurement point in the measurement space when observed from the two observation points A response intensity calculation unit for obtaining a response intensity corresponding to binocular parallax that is a difference between
The response intensity obtained by the response intensity calculator is a physical quantity that indicates the distance in the visual axis direction between the measurement plane including the measurement point and one of the two observation points. A voting unit for voting on coordinates corresponding to the measurement point and the binocular parallax in a voting space according to the parameter set in the first step defined by the orientation of the measurement plane Prepared,
For each of a plurality of measurement points in the measurement space, each process in the response intensity calculation unit and the voting unit is executed a plurality of times while changing a parameter value in the first parameter setting unit.

ここで、上記第30の画像計測装置は、前記投票による値が極大値となる極大点を各投票空間ごとに求め該極大点における極大値の情報に基づいて前記計測点の前記観察点に対する相対的な真の視軸方向に対応する投票空間を選択することにより該真の視軸方向を求めるとともに、該真の視軸方向に対応する投票空間について求められた極大点の投票に参加した複数の計測点を含む計測平面の方位、及び/又は、該計測平面と前記2つの観察点のうちの一方の観察点との間の、前記視軸方向の距離を指標する物理量を求める検出部を備えたものであってもよい。   Here, the thirtieth image measurement device obtains a local maximum point at which the value obtained by voting becomes a local maximum value for each voting space, and makes the measurement point relative to the observation point based on information on the local maximum value at the local maximum point. The voting space corresponding to the true visual axis direction is selected to obtain the true visual axis direction, and a plurality of participants who participated in the voting of the maximum points obtained for the voting space corresponding to the true visual axis direction A detection unit for obtaining a physical quantity that indicates the orientation of the measurement plane including the measurement point and / or the distance in the visual axis direction between the measurement plane and one of the two observation points. It may be provided.

また、本発明の画像計測装置のうちの第31の画像計測装置は、
所定の計測空間内の所定の2つの観察点から該計測空間内を眺めたときの2つの画像に基づいて、該計測空間内の任意の計測点の、該2つの観察点から観察したときの2つの計測位置どうしの位置の差である両眼視差に対応する応答強度を求める応答強度演算部と、
前記応答強度演算部で求められた応答強度を、前記2つの観察点のうちの一方の観察点と、前記計測点を含む計測平面との間の最短距離を指標する物理量と、該計測平面の方位とで規定される投票空間内の、前記計測点と前記両眼視差σとに対応した座標に投票する投票部とを有し、
前記計測空間内の複数の計測点について、前記応答強度演算部および前記投票部における各処理を複数回実行することを特徴とする。
The thirty-first image measuring device of the image measuring device of the present invention is
When an arbitrary measurement point in the measurement space is observed from the two observation points based on two images when the measurement space is viewed from the two predetermined observation points in the predetermined measurement space. A response intensity calculation unit for obtaining a response intensity corresponding to binocular parallax, which is a difference between two measurement positions;
The response intensity obtained by the response intensity calculator is a physical quantity indicating the shortest distance between one of the two observation points and the measurement plane including the measurement point, and the measurement plane A voting unit for voting on coordinates corresponding to the measurement point and the binocular parallax σ in a voting space defined by an orientation,
For each of a plurality of measurement points in the measurement space, each process in the response intensity calculation unit and the voting unit is executed a plurality of times.

ここで、上記第31の画像計測装置は、前記投票空間内の、前記投票による値が極大値となる極大点を求めることにより、該極大点の投票に参加した複数の計測点を含む計測平面の方位、及び/又は、前記2つの観察点のうちの一方の観察点と、前記計測平面との間の最短距離を指標する物理量を求める検出部を備えたものであってもよい。   Here, the thirty-first image measuring apparatus includes a measurement plane including a plurality of measurement points participating in the voting of the local maximum point by obtaining a local maximum point in the voting space where the value by the voting becomes a local maximum value. And / or a detector that obtains a physical quantity that indicates the shortest distance between one observation point of the two observation points and the measurement plane.

また、本発明の画像計測装置のうちの第32の画像計測装置は、
所定の計測空間内を観察する、該計測空間内の所定の2つの観察点どうしを結ぶ視軸方向をパラメータとして設定するパラメータ設定部と、
前記2つの観察点から前記計測空間内を眺めたときの2つの画像に基づいて、該計測空間内の任意の計測点の、該2つの観察点から観察したときの2つの計測位置どうしの位置の差である両眼視差に対応する応答強度を求める応答強度演算部と、
前記応答強度演算部で求められた応答強度を、前記2つの観察点のうちの一方の観察点と、前記計測点を含む計測平面との間の最短距離を指標する物理量と、該計測平面の方位とで規定される、前記第1のステップで設定されたパラメータに応じた投票空間内の、前記計測点と前記両眼視差とに対応する座標に投票する投票部とを備え、
前記計測空間内の複数の計測点について、前記応答強度演算部および前記投票部における各処理を、前記パラメータ設定部でパラメータの値を変更しながら複数回実行することを特徴とする。
The thirty-second image measuring device of the image measuring device of the present invention is
A parameter setting unit that observes the inside of a predetermined measurement space, sets a visual axis direction connecting two predetermined observation points in the measurement space as a parameter,
Based on two images when the inside of the measurement space is viewed from the two observation points, a position between two measurement positions of the arbitrary measurement point in the measurement space when observed from the two observation points A response intensity calculation unit for obtaining a response intensity corresponding to binocular parallax that is a difference between
The response intensity obtained by the response intensity calculator is a physical quantity indicating the shortest distance between one of the two observation points and the measurement plane including the measurement point, and the measurement plane A voting unit for voting on coordinates corresponding to the measurement point and the binocular parallax in the voting space according to the parameter set in the first step, which is defined by the azimuth,
For each of a plurality of measurement points in the measurement space, each process in the response intensity calculation unit and the voting unit is executed a plurality of times while changing parameter values in the parameter setting unit.

ここで、上記第32の画像計測装置は、前記投票による値が極大値となる極大点を各投票空間ごとに求め該極大点における極大値の情報に基づいて前記計測点の前記観察点に対する相対的な真の視軸方向に対応する投票空間を選択することにより該真の視軸方向を求めるとともに、該真の視軸方向に対応する投票空間について求められた極大点の投票に参加した複数の計測点を含む計測平面の方位、及び/又は、前記2つの観察点のうちの一方の観察点と、前記計測平面との最短距離を指標する物理量を求める検出部を備えたものであってもよい。   Here, the thirty-second image measuring apparatus obtains a local maximum point at which the value obtained by voting becomes a local maximum value for each voting space, and makes the relative measurement point relative to the observation point based on information on the local maximum value at the local maximum point. The voting space corresponding to the true visual axis direction is selected to obtain the true visual axis direction, and a plurality of participants who participated in the voting of the maximum points obtained for the voting space corresponding to the true visual axis direction A detection unit that obtains a physical quantity that indicates the azimuth of the measurement plane including the measurement point and / or the shortest distance between one of the two observation points and the measurement plane. Also good.

また、本発明は画像計測プログラム記憶媒体に記憶された画像計測プログラムのうちの、本発明の第1の画像計測プログラム記憶媒体に記憶された画像計測プログラムは、
所定の計測空間内の所定の観察点から該計測空間内を眺めたときの画像にあらわれた、該計測空間内の任意の計測点の、相互に異なる2つの計測時刻における各計測位置をそれぞれp,p、前記計測点の、前記観察点に対する相対的な、前記2つの計測時刻の間における移動方向vと同一の方向への、かつ前記2つの計測時刻の間の移動速度と同一の速度での移動がそのまま継続されるものと予定した移動継続状態における無限時間経過後の前記計測点の位置をpinf、前記移動継続状態において前記計測点を含む計測平面が前記観察点に重なる重畳時刻における前記計測点の位置をpとしたとき、
前記計測点の4つの位置pinf,p,p,pで決まる複比{pinf}あるいは該複比と等価な演算を用いて、前記計測平面の方位、及び/又は、該計測平面が前記観察点に重なる重畳時刻を指標する物理量を求める画像計測プログラムが記憶されてなることを特徴とする。
In addition, the image measurement program stored in the first image measurement program storage medium of the present invention is the image measurement program stored in the image measurement program storage medium.
Each measurement position at two different measurement times of an arbitrary measurement point in the measurement space, which appears in an image when the measurement space is viewed from a predetermined observation point in the predetermined measurement space, is p. 0 , p 1 , relative to the observation point, in the same direction as the movement direction v between the two measurement times, and the same as the movement speed between the two measurement times The position of the measurement point after infinite time has elapsed in the scheduled movement continuation state where the movement at the speed is continued as is, p inf , and the measurement plane including the measurement point in the movement continuation state is superimposed on the observation point when the position of the measurement point in time was p c,
The four positions p inf measurement point, p 0, p 1, using the cross ratio {p inf p 0 p 1 p c} or plurality ratio equivalent operations determined by p c, the orientation of the measurement plane, And / or an image measurement program for obtaining a physical quantity that indicates a superposition time at which the measurement plane overlaps the observation point.

ここで、上記第1の画像計測プログラム記憶媒体に記憶された画像計測プログラムが実行する、前記複比{pinf}あるいは該複比と等価な演算には、前記計測点の、前記2つの計測時刻における2つの計測位置p,pに代えて、前記計測点の、前記2つの計測時刻のうちの一方の計測時刻における計測位置pと、前記計測点の、前記2つの計測時刻における2つの計測位置p,pどうしの間の位置の差である運動視差τとを用いる演算が包含されるものである。 Here, the first image measurement program storage medium a stored image measurement program runs, the compound ratio {p inf p 0 p 1 p c} or plurality ratio equivalent operations, the measuring point of the place of the two measuring positions p 0, p 1 at two measurement time, the measurement point, the measurement position p 0 at one measurement time of said two measurement time, the measurement point, Computation using motion parallax τ, which is the difference in position between the two measurement positions p 0 and p 1 at the two measurement times, is included.

上記第1の画像計測プログラム記憶媒体に記憶された画像計測プログラムは、前記重畳時刻を指標する物理量として、前記2つの計測時刻のうちの一方の計測時刻と前記重畳時刻との間の時間をt、前記2つの計測時刻どうしの間の時間をΔtとしたときの、
=t/Δt
であらわされる規格化時間を採用し、該規格化時間を、
={pinf
の関係式あるいは該関係式と等価な関係式を用いて求めるプログラムであってもよい。
The image measurement program stored in the first image measurement program storage medium uses a time between one measurement time of the two measurement times and the overlap time as a physical quantity indicating the overlap time. c , when the time between the two measurement times is Δt,
n t c = t c / Δt
The normalized time n t c expressed by the following is adopted, and the normalized time n t c is
n t c = {p inf p 0 p 1 p c}
Or a program obtained using a relational expression equivalent to the relational expression.

また、上記第1の画像計測プログラム記憶媒体に記憶された画像計測プログラムは、
前記重畳時刻を指標する物理量をパラメータとして設定する第1のステップと、
前記第1のステップで設定された、前記重畳時刻を指標する物理量と、前記計測点の前記2つの計測時刻における各計測位置p,pあるいは、これら2つの計測位置p,pに代わる、該計測点の、前記2つの計測時刻のうちの一方の計測時刻における計測位置pおよび該計測点の、前記2つの計測時刻における2つの計測位置p,pどうしの間の運動視差τと、前記移動継続状態における無限時間経過後の位置pinfとから、前記複比{pinf}あるいは該複比と等価な演算を用いて、該計測点の前記重畳時刻における位置pを求める第2のステップと、
前記計測点の、前記重畳時刻における位置pを極変換することにより該計測点に対応する極線を求める第3のステップとを有し、
前記計測空間内の複数の計測点について、前記第2のステップと前記第3のステップを、前記パラメータの値を前記第1のステップで順次変更しながら複数回繰り返し、その後、
前記第1から第3までのステップを複数回繰り返す間に求められた複数の極線を極線描画空間に描画したときの極線どうしの交差点を求めることにより、該交差点で交わる複数の極線に対応する複数の計測点を含む計測平面の方位、及び/又は、該計測平面が前記観察点に重なる重畳時刻を指標する物理量を求める第4ステップを実行するプログラムであってもよく、
この場合に、前記画像上にあらわれた計測点が強度の情報を有するものであって、前記第3のステップが、前記極線を求めるとともに、求められた極線を極線描画空間に描画したときの該極線の軌跡上の各点それぞれに該極線に対応する計測点の強度に対応する値を投票するステップであり、前記第4のステップが、前記交差点を求めることに代わり、前記第1から第3までのステップを複数回繰り返す間の投票による値が極大値となる極大点を求めることにより、該極大点の投票に参加した複数の極線に対応する複数の計測点を含む計測平面の方位、及び/又は、該計測平面が前記観察点に重なる重畳時刻を指標する物理量を求めるステップであることが好ましく、あるいは、
前記画像上にあらわれた計測点が強度の情報を有するものであって、
前記画像計測プログラムが、前記計測点の前記2つの計測時刻における2つの計測位置p,pどうしの間の運動視差τを第2のパラメータとして設定する第5のステップを有するプログラムであって、
前記第2のステップが、前記第1のステップで設定された、前記重畳時刻を指標する物理量と、前記計測点の前記2つの計測時刻のうちの一方の計測時刻における計測位置pと、前記第5のステップで設定された前記運動視差τと、該計測点の前記移動継続状態における無限時間経過後の位置pinfとを用いて、該計測点の前記重畳時刻における位置pを求めるステップであり、
前記第3のステップが、前記計測点に対応する極線を求めるとともに、該計測点の、前記運動視差τに対応する応答強度を求め、求められた極線を極線描画空間に描画したときの該極線の軌跡上の各点それぞれに、該極線に対応する計測点の、前記運動視差τに対応する応答強度を投票するステップであって、
前記計測空間内の複数の計測点について、前記第2のステップと前記第3のステップを、前記第1のステップおよび前記第5のステップで各パラメータの各値を変更しながら複数回繰り返し、
その後実行される第4のステップが、前記交差点を求めることに代わり、前記第1、第5、第2および第3のステップを複数回繰り返す間の投票による値が極大値となる極大点を求めることにより、該極大点の投票に参加した複数の極線に対応する複数の計測点を含む計測平面の方位、及び/又は、該計測平面が前記観察点に重なる重畳時刻を指標する物理量を求めるステップであることも好ましい態様である。
The image measurement program stored in the first image measurement program storage medium is:
A first step of setting a physical quantity indicating the superposition time as a parameter;
The physical quantity indicating the superposition time set in the first step and the measurement positions p 0 , p 1 at the two measurement times of the measurement points, or these two measurement positions p 0 , p 1 alternative, the measurement point, movement between the two measurement positions in one of the measurement time p 0 and the measurement point of the measurement time, the two measurement positions p 0 in the two measurement time, p 1 How to and parallax tau, and a position p inf of after infinite time in the moving continuous state, using the double ratio {p inf p 0 p 1 p c} or plurality ratio equivalent calculation, the of the measuring points a second step of obtaining a position p c in the overlay time,
The measurement point, and a third step of obtaining a polar corresponding to the measurement point by polar transformation the position p c in the superimposed time,
For a plurality of measurement points in the measurement space, the second step and the third step are repeated a plurality of times while sequentially changing the parameter values in the first step, and then
A plurality of polar lines intersecting at the intersections by obtaining intersections between the polar lines when the plurality of polar lines obtained while repeating the first to third steps a plurality of times are drawn in the polar drawing space. May be a program that executes the fourth step for obtaining the orientation of the measurement plane including a plurality of measurement points corresponding to and / or the physical quantity that indicates the superposition time at which the measurement plane overlaps the observation point,
In this case, the measurement point appearing on the image has intensity information, and the third step obtains the polar line and draws the obtained polar line in the polar drawing space. Voting a value corresponding to the intensity of the measurement point corresponding to the polar line for each point on the trajectory of the polar line, and the fourth step instead of obtaining the intersection, Including a plurality of measurement points corresponding to a plurality of polar lines participating in the voting of the local maximum points by obtaining a local maximum point at which the value by voting becomes a maximum value while repeating the first to third steps a plurality of times It is preferable that it is a step of obtaining a physical quantity that indicates the orientation of the measurement plane and / or the superposition time at which the measurement plane overlaps the observation point, or
Measurement points appearing on the image have intensity information,
The image measurement program includes a fifth step of setting a motion parallax τ between two measurement positions p 0 and p 1 at the two measurement times of the measurement point as a second parameter. ,
In the second step, the physical quantity that is set in the first step and that indicates the superposition time, and the measurement position p 0 at one of the two measurement times of the measurement point, using the the motion parallax τ set in the fifth step, the position p inf after infinite time has elapsed in the mobile continuity state of the measurement point, determining the position p c in the superimposed time of the measurement point And
When the third step obtains a polar line corresponding to the measurement point, obtains a response intensity corresponding to the motion parallax τ of the measurement point, and draws the obtained polar line in the polar drawing space Voting the response intensity corresponding to the motion parallax τ of the measurement point corresponding to the polar line for each point on the trajectory of the polar line,
For a plurality of measurement points in the measurement space, the second step and the third step are repeated a plurality of times while changing each value of each parameter in the first step and the fifth step,
The fourth step executed thereafter obtains the maximum point where the value obtained by voting becomes the maximum value while repeating the first, fifth, second and third steps a plurality of times instead of obtaining the intersection. Thus, the orientation of the measurement plane including a plurality of measurement points corresponding to the plurality of polar lines participating in the voting of the local maximum point and / or the physical quantity that indicates the superposition time at which the measurement plane overlaps the observation point is obtained. It is also a preferred embodiment that it is a step.

また、上記第1の画像計測プログラム記憶媒体に記憶された画像計測プログラムは、
前記移動方向vを第1のパラメータとして設定することにより前記移動継続状態における無限時間経過後の前記計測点の位置pinfを設定する第1のステップと、
前記重畳時刻を指標する物理量を第2のパラメータとして設定する第2のステップと、
前記第1のステップで設定された位置pinfと、前記第2のステップで設定された、前記重畳時刻を指標する物理量と、前記計測点の前記2つの計測時刻における各計測位置p,pあるいは、これら2つの計測位置p,pに代わる、該計測点の、前記2つの計測時刻のうちの一方の計測時刻における計測位置pおよび該計測点の、前記2つの計測時刻における2つの計測位置p,pどうしの間の運動視差τとから、前記複比{pinf}あるいは該複比と等価な演算を用いて、該計測点の前記重畳時刻における位置pを求める第3のステップと、
前記計測点の、前記重畳時刻における位置pを極変換することにより該計測点に対応する極線を求める第4のステップとを有し、
前記計測空間内の複数の計測点について、前記第1から第4までのステップのうちの前記第3のステップと前記第4のステップを、前記第1のパラメータおよび前記第2のパラメータの各値をそれぞれ前記第1のステップおよび前記第2のステップで順次変更しながら複数回繰り返し、その後、
前記第1から第4までのステップを複数回繰り返す間に求められた複数の極線を前記第1のパラメータの値に応じた複数の極線描画空間のうちのそれぞれ対応する極線描画空間に描画したときの極線どうしの交差点を各極線描画空間ごとに求め該交差点で交わる極線の本数の情報に基づいて前記計測点の前記観察点に対する相対的な真の移動方向に対応する極線描画空間を選択することにより該真の移動方向を求めるとともに、該真の移動方向に対応する極線描画空間について求められた交差点で交わる複数の極線に対応する複数の計測点を含む計測平面の方位、及び/又は、該計測平面が前記観察点に重なる重畳時刻を指標する物理量を求める第5ステップを実行するプログラムであってもよく、
この場合に、前記画像上にあらわれた計測点が強度の情報を有するものであって、前記第4のステップが、前記極線を求めるとともに、求められた極線
を該極線に対応する極線描画空間に描画したときの該極線の軌跡上の各点それぞれに該極線に対応する計測点の強度に対応する値を投票するステップであり、前記第5のステップが、前記交差点を求めることに代わり、前記第1から第4までのステップを複数回繰り返す間の投票による値が極大値となる極大点
を各極線描画空間ごとに求め該極大点における極大値の情報に基づいて前記真の移動方向に対応する極線描画空間を選択することにより該真の移動方向を求めるとともに、該真の移動方向に対応する極線描画空間について求められた極大点の投票に参加した複数の極線に対応する複数の計測点を含む計測平面の方位、及び/又は、該計測平面が前記観察点に重なる重畳時刻を指標する物理量を求めるステップであることが好ましく、あるいは、
前記画像上にあらわれた計測点が強度の情報を有するものであって、
前記画像計測プログラムが、前記計測点の前記2つの計測時刻における2つの計測位置p,pどうしの間の運動視差τを第3のパラメータとして設定する第6のステップを有するプログラムであって、
前記第3のステップが、前記第2のステップで設定された、前記重畳時刻を指標する物理量と、前記第1のステップで設定された位置pinfと、前記計測点の前記2つの計測時刻のうちの一方の計測時刻における計測位置pと、前記第6のステップで設定された前記運動視差τとを用いて、該計測点の前記重畳時刻における位置pを求めるステップであり、
前記第4のステップが、前記計測点に対応する極線を求めるとともに、該計測点の、前記運動視差τに対応する応答強度を求め、求められた極線を極線描画空間に描画したときの該極線の軌跡上の各点それぞれに、該極線に対応する計測点の、前記運動視差τに対応する応答強度を投票するステップであって、
前記計測空間内の複数の計測点について、前記第3のステップと前記第4のステップを、前記第1のステップ、前記第2のステップおよび前記第6のステップで各パラメータの各値を変更しながら複数回繰り返し、
その後実行される第5のステップが、前記交差点を求めることに代わり、前記第1、第2、第6、第3および第4のステップを複数回繰り返す間の投票による値が極大値となる極大点を各極線描画空間ごとに求め該極大点における極大値の情報に基づいて前記真の移動方向に対応する極線描画空間を選択することにより該真の移動方向を求めるとともに、該真の移動方向に対応する極線描画空間について求められた極大点の投票に参加した複数の極線に対応する複数の計測点を含む計測平面の方位、及び/又は、該計測平面が前記観察点に重なる重畳時刻を指標する物理量を求めるステップであることも好ましい形態である。
The image measurement program stored in the first image measurement program storage medium is:
A first step of setting a position p inf of the measurement point after an infinite time in the moving continuous state by setting the moving direction v as the first parameter,
A second step of setting a physical quantity indicating the superposition time as a second parameter;
The position p inf set in the first step, the physical quantity indicating the superposition time set in the second step, and the measurement positions p 0 , p at the two measurement times of the measurement point 1 or, alternative to these two measurement positions p 0, p 1, of the measurement point, the two one measurement position p 0 and the measurement point in the measurement time of the measurement time, in the two measurement time and a motion parallax τ between two measuring positions p 0, p 1 if and using equivalent operations and the cross ratio {p inf p 0 p 1 p c} or plurality ratio, the superposition of the measuring points a third step of obtaining a position p c at time,
The measurement point, and a fourth step of obtaining a polar corresponding to the measurement point by polar transformation the position p c in the superimposed time,
For the plurality of measurement points in the measurement space, the third step and the fourth step of the first to fourth steps are changed to values of the first parameter and the second parameter, respectively. Are repeated a plurality of times while sequentially changing in the first step and the second step, respectively,
A plurality of polar lines obtained while repeating the first to fourth steps a plurality of times are respectively transferred to corresponding polar line drawing spaces among a plurality of polar line drawing spaces according to the value of the first parameter. A pole corresponding to the true movement direction relative to the observation point of the measurement point based on information on the number of polar lines intersecting at the intersection, where intersections between polar lines at the time of drawing are obtained for each polar line drawing space A measurement including a plurality of measurement points corresponding to a plurality of polar lines intersecting at intersections obtained for the polar drawing space corresponding to the true movement direction while obtaining the true movement direction by selecting a line drawing space It may be a program for executing a fifth step for obtaining a physical quantity indicating the orientation of the plane and / or the superposition time at which the measurement plane overlaps the observation point,
In this case, the measurement point appearing on the image has intensity information, and the fourth step obtains the polar line, and the obtained polar line corresponds to the polar line. Voting a value corresponding to the intensity of the measurement point corresponding to the polar line for each point on the trajectory of the polar line when drawn in the line drawing space, and the fifth step is a step of voting the intersection. Instead of obtaining the maximum point where the value obtained by voting during the repetition of the first to fourth steps a plurality of times is determined for each polar drawing space, and based on the information on the maximum value at the maximum point. The true movement direction is determined by selecting a polar drawing space corresponding to the true movement direction, and a plurality of participants who participated in voting for the maximum points obtained for the polar drawing space corresponding to the true movement direction Double line corresponding to Azimuth measurement plane including a measurement point, and / or, or preferably the measurement plane is a step of obtaining a physical quantity indicative of the superimposed time overlapping the observation point,
Measurement points appearing on the image have intensity information,
The image measurement program includes a sixth step of setting a motion parallax τ between two measurement positions p 0 and p 1 at the two measurement times of the measurement point as a third parameter. ,
In the third step, the physical quantity indicating the superposition time set in the second step, the position p inf set in the first step, and the two measurement times of the measurement point a measurement position p 0 in the measurement time of one among the sixth using said motion parallax τ set in step, a step of determining the position p c in the superimposed time of the measurement points,
When the fourth step obtains a polar line corresponding to the measurement point, obtains a response intensity corresponding to the motion parallax τ of the measurement point, and draws the obtained polar line in the polar drawing space Voting a response intensity corresponding to the motion parallax τ of a measurement point corresponding to the polar line for each point on the trajectory of the polar line,
For each of a plurality of measurement points in the measurement space, the third step and the fourth step are changed, and the values of the parameters are changed in the first step, the second step, and the sixth step. While repeating several times,
The fifth step executed thereafter is not the determination of the intersection, but the maximum value obtained by voting while repeating the first, second, sixth, third and fourth steps a plurality of times. A point is obtained for each polar drawing space, and the true moving direction is obtained by selecting the polar drawing space corresponding to the true moving direction based on the local maximum information at the local maximum point, and the true moving direction is obtained. The orientation of the measurement plane including a plurality of measurement points corresponding to a plurality of polar lines participating in the voting of the maximum points obtained for the polar drawing space corresponding to the moving direction, and / or the measurement plane as the observation point It is also a preferred form that it is a step of obtaining a physical quantity that indicates the overlapping superposition time.

本発明の画像計測プログラム記憶媒体のうちの本発明の第2の画像計測プログラム記憶媒体は、
所定の計測空間内の所定の観察点から該計測空間内を眺めたときの画像にあらわれた、該計測空間内の任意の計測点の、相互に異なる2つの計測時刻における各計測位置をそれぞれp,p、前記計測点の、前記観察点に対する相対的な、前記2つの計測時刻の間における移動方向をv、前記計測点の、前記観察点に対する相対的な、前記2つの計測時刻の間における移動方向vと同一方向への、かつ前記2つの計測時刻の間の移動速度と同一の速度での移動がそのまま継続されるものと予定した移動継続状態における無限時間経過後の前記計測点の位置をpinf、前記移動継続状態において前記計測点を含む計測平面が前記観察点に重なる重畳時刻における前記計測点の位置をp、前記計測平面の方位をnとしたとき、
前記計測点の4つの位置pinf,p,p,pで決まる複比{pinf}あるいは該複比と等価な演算と、前記計測平面の方位nと前記移動方向vとの内積(n・v)とを用いて、前記計測平面の方位n、及び/又は、前記観察点から前記2つの計測時刻のうちの一方の計測時刻における前記計測平面までの最短距離を指標する物理量を求める画像計測プログラムが記憶されてなることを特徴とする。
Of the image measurement program storage medium of the present invention, the second image measurement program storage medium of the present invention is:
Each measurement position at two different measurement times of an arbitrary measurement point in the measurement space, which appears in an image when the measurement space is viewed from a predetermined observation point in the predetermined measurement space, is p. 0 , p 1 , v is the moving direction between the two measurement times relative to the observation point, v, and the two measurement times are relative to the observation point. In the same direction as the moving direction v between and at the same speed as the moving speed between the two measurement times, the measurement point after the infinite time has elapsed in the scheduled movement continuation state P inf , the position of the measurement point at the time of superimposition where the measurement plane including the measurement point overlaps the observation point in the movement continuation state is p c , and the orientation of the measurement plane is n s ,
Four positions p inf of the measurement points, and p 0, p 1, p cross ratios determined by c and the equivalent operations {p inf p 0 p 1 p c} or plurality ratio, orientation n s of the measurement plane Using the inner product ( ns / v) with the moving direction v, the measurement plane at the measurement time of one of the two measurement times from the observation point azimuth ns and / or the observation point An image measurement program for obtaining a physical quantity indicating the shortest distance is stored.

ここで、上記第2の画像計測プログラム記憶媒体に記憶された画像計測プログラムが実行する、前記複比{pinf}あるいは該複比と等価な演算には、前記計測点の、前記2つの計測時刻における2つの計測位置p,pに代えて、前記計測点の、前記2つの計測時刻のうちの一方の計測時刻における計測位置pと、前記計測点の、前記2つの計測時刻における2つの計測位置p,pどうしの間の位置の差である運動視差τとを用いる演算が包含されるものである。 Here, the second image measuring program storage medium a stored image measurement program runs, the compound ratio {p inf p 0 p 1 p c} or plurality ratio equivalent operations, the measuring point of the place of the two measuring positions p 0, p 1 at two measurement time, the measurement point, the measurement position p 0 at one measurement time of said two measurement time, the measurement point, Computation using motion parallax τ, which is the difference in position between the two measurement positions p 0 and p 1 at the two measurement times, is included.

上記第2の画像計測プログラム記憶媒体に記憶された画像計測プログラムは、前記最短距離を指標とする物理量として、前記観察点と、前記2つの計測時刻のうちの一方の計測時刻における前記計測平面との間の最短距離をd、前記2つの計測時刻のうちの一方の計測時刻と前記重量時刻との間の時間をt、前記2つの計測時刻どうしの間の、前記計測点の、前記観察点に対する相対的な移動距離をΔx、前記2つの計測時刻どうしの間の時間をΔtとしたときの、
=d/Δx
であらわされる規格化最短距離を採用し、該規格化最短距離を、
=t/Δt
であらわされる規格化時間と前記内積(n・v)とを用いた、
(n・v)
の関係式を用いて求めるプログラムであってもよい。
The image measurement program stored in the second image measurement program storage medium includes the observation point and the measurement plane at one of the two measurement times as a physical quantity having the shortest distance as an index. D s , the time between one measurement time of the two measurement times and the weight time t c , and the measurement point between the two measurement times, When the relative movement distance with respect to the observation point is Δx, and the time between the two measurement times is Δt,
n d s = d s / Δx
The standardized shortest distance n d s expressed by the following formula is adopted, and the standardized shortest distance n d s
n t c = t c / Δt
Using the normalized time n t c expressed by: and the inner product (n s · v),
n d s = n t c ( n s · v)
It may be a program obtained using the relational expression.

また、上記第2の画像計測プログラム記憶媒体に記憶された画像計測プログラムは、
前記最短距離を指標する物理量を第1のパラメータとして設定する第1のステップと、
前記内積(n・v)を第2のパラメータとして設定する第2のステップと、
前記第1のステップで設定された、前記最短距離を指標する物理量と、前記第2のステップで設定された内積(n・v)と、前記計測点の前記2つの計測時刻における各計測位置p,pあるいは、これら2つの計測位置p,pに代わる、該計測点の、前記2つの計測時刻のうちの一方の計測時刻における計測位置pおよび該計測点の、前記2つの計測時刻における2つの計測位置p,pどうしの間の運動視差τと、前記移動継続状態における無限時間経過後の位置pinfとから、前記複比{pinf}あるいは該複比と等価な演算を用いて、該計測点の前記重畳時刻における位置pを求める第3のステップと、
前記計測点の、前記重畳時刻における位置pを極変換することにより該位置pに対応する極線を求める第4のステップと、
前記極線上の点であって、かつ前記移動方向vと角度
r=cos−1(n・v)
を成す点を求める第5のステップとを有し、
前記計測空間内の複数の計測点について、前記第1から第5のステップのうちの前記第3から第5までのステップを、前記第1のパラメータおよび前記第2のパラメータの各値をそれぞれ前記第1のステップおよび前記第2のステップで順次変更しながら複数回繰り返すことにより、前記第5のステップの、1つの計測点に関する、前記第1のパラメータの値が同一であって、かつ前記第2のパラメータの値がそれぞれ異なる複数回の実行により求められる複数の点を結ぶ曲線を、前記第1のパラメータの各値ごとに前記複数の計測点について求め、その後、
前記第1から第5のステップを複数回繰り返す間に求められた複数の曲線を曲線描画空間に描画したときの曲線どうしの交差点を求めることにより、該交差点で交わる複数の曲線に対応する複数の計測点を含む計測平面の方位n、及び/又は、前記観察点から前記2つの計測時刻のうちの一方の計測時刻における前記計測平面までの最短距離を指標する物理量を求める第6のステップを実行するプログラムであってもよく、
その場合に、前記画像上にあらわれた計測点が強度の情報を有するものであって、前記第5のステップが、前記点を求めるとともに、該点に対応する計測点の強度に対応する値を該点に対応する、前記曲線描画空間内の点に投票するステップであり、前記第6のステップが、前記交差点を求めることに代わり、前記第1から第5までのステップを複数回繰り返す間の投票による値が極大値となる極大点を求めることにより、該極大点の投票に参加した複数の曲線に対応する複数の計測点を含む計測平面の方位n、及び/又は、前記観察点から前記2つの計測時刻のうちの一方の計測時刻における前記計測平面までの最短距離を指標する物理量を求めるステップであることが好ましく、あるいは、
前記画像上にあらわれた計測点が強度の情報を有するものであって、
前記画像計測プログラムが、前記計測点の前記2つの計測時間における2つの計測位置p,pどうしの間の運動視差τを第3のパラメータとして設定する第7のステップを有するプログラムであって、
前記第3のステップが、前記第1のステップで設定された、前記最短距離を指標する物理量と、前記第2のステップで設定された内積(n・v)と、前記計測点の、前記2つの計測時刻のうちの一方の計測時刻における計測位置pと、前記第7のステップで設定された前記運動視差τと、該計測点の、前記移動継続状態における無限時間経過後の位置pinfとを用いて、該計測点の、前記重畳時刻における位置pを求めるステップであり、
前記第5のステップが、前記計測点に対応する極線上の前記点を求めるとともに、該計測点の、前記運動視差τに対応する応答強度を求め、該極線上の前記点に対応する計測点の、前記運動視差τに対応する応答強度を、該極線上の前記点に対応する、前記曲線描画空間内の点に投票するステップであって、
前記計測空間内の複数の計測点について、前記第3から第5までのステップを、前記第1、第2、および第7のステップで各パラメータの各値を変更しながら複数回繰り返し、その後実行される前記第6のステップが、前記交差点を求めることに代わり、前記第1、第2、第7および前記第3から第5までのステップを複数回繰り返す間の投票による値が極大値となる極大点を求めることにより、該極大点の投票に参加した複数の曲線に対応する複数の計測点を含む計測平面の方位n、及び/又は、前記観察点から前記2つの計測時刻のうちの一方の計測時刻における前記計測平面までの最短距離を指標する物理量を求めるステップであることも好ましい態様である。
The image measurement program stored in the second image measurement program storage medium is:
A first step of setting a physical quantity indicating the shortest distance as a first parameter;
A second step of setting the inner product ( ns / v) as a second parameter;
The physical quantity that is set in the first step and that indicates the shortest distance, the inner product ( ns / v) that is set in the second step, and each measurement position at the two measurement times of the measurement point p 0, p 1 or the two measuring positions p 0, replaces the p 1, of the measurement point, the measurement position p 0 and the measurement point at one measurement time of said two measurement time, the 2 From the motion parallax between the two measurement positions p 0 and p 1 at one measurement time and the position p inf after the infinite time has elapsed in the movement continuation state, the cross ratio {p inf p 0 p 1 p c } or using a plurality ratio equivalent operation, a third step of obtaining a position p c in the superimposed time of the measurement points,
A fourth step of obtaining the polar corresponding to the position p c by converting the measurement point, the position p c in the superimposed time pole,
Said a point of pole line, and the moving direction v and angle r = cos -1 (n s · v)
And a fifth step for obtaining a point comprising
For a plurality of measurement points in the measurement space, the third to fifth steps of the first to fifth steps are set as the respective values of the first parameter and the second parameter. By repeating a plurality of times while sequentially changing in the first step and the second step, the value of the first parameter for one measurement point in the fifth step is the same, and the first step A curve connecting a plurality of points obtained by a plurality of executions with different values of the parameter 2 is obtained for each of the plurality of measurement points for each value of the first parameter;
A plurality of curves corresponding to a plurality of curves intersecting at the intersection are obtained by obtaining intersections between the curves when the plurality of curves obtained while repeating the first to fifth steps a plurality of times are drawn in the curve drawing space. orientation n s measurement plane including a measurement point, and / or, a sixth step of obtaining a physical quantity that indicates the shortest distance to the measuring plane in the measurement time of one of the two measurement time from the observation point It can be a program to be executed,
In that case, the measurement point appearing on the image has intensity information, and the fifth step obtains the point and sets a value corresponding to the intensity of the measurement point corresponding to the point. Voting for a point in the curve drawing space corresponding to the point, wherein the sixth step repeats the first to fifth steps a plurality of times instead of obtaining the intersection By obtaining a local maximum point at which the value obtained by voting becomes a local maximum value, the orientation n s of the measurement plane including a plurality of measurement points corresponding to a plurality of curves participating in the voting of the local maximum point and / or the observation point Preferably, it is a step of obtaining a physical quantity indicating the shortest distance to the measurement plane at one of the two measurement times, or
Measurement points appearing on the image have intensity information,
The image measurement program includes a seventh step of setting a motion parallax τ between two measurement positions p 0 and p 1 at the two measurement times of the measurement point as a third parameter. ,
In the third step, the physical quantity indexed in the shortest distance set in the first step, the inner product ( ns / v) set in the second step, and the measurement point, The measurement position p 0 at one of the two measurement times, the motion parallax τ set in the seventh step, and the position p of the measurement point after the infinite time has elapsed in the movement continuation state by using the inf, of the measurement point, a step of determining the position p c in the superimposed time,
The fifth step obtains the point on the polar line corresponding to the measurement point, obtains a response intensity corresponding to the motion parallax τ of the measurement point, and measures the measurement point corresponding to the point on the polar line Voting a response intensity corresponding to the motion parallax τ to a point in the curve drawing space corresponding to the point on the polar line,
Steps 3 to 5 are repeated for a plurality of measurement points in the measurement space a plurality of times while changing each value of each parameter in the first, second and seventh steps, and then executed. Instead of obtaining the intersection, the sixth step is a value obtained by voting while repeating the first, second, seventh and third to fifth steps a plurality of times. By obtaining the local maximum point, the direction n s of the measurement plane including a plurality of measurement points corresponding to the plurality of curves that participated in the vote of the local maximum point, and / or the two measurement times from the observation point It is also a preferred aspect that it is a step of obtaining a physical quantity indicating the shortest distance to the measurement plane at one measurement time.

また、上記第2の画像計測プログラム記憶媒体に記憶された画像計測プログラムは、
前記移動方向vを第1のパラメータとして設定することにより前記移動継続状態における無限時間経過後の前記計測点の位置pinfを設定する第1のステップと、
前記最短距離を指標する物理量を第2のパラメータとして設定する第2のステップと、
前記内積(n・v)を第3のパラメータとして設定する第3のステップと、
前記第1のステップで設定された、前記移動継続状態における無限時間経過後の前記計測点の位置pinfと、前記第2のステップで設定された、前記最短距離を指標する物理量と、前記第3のステップで設定された内積(n・v)と、前記計測点の前記2つの計測時刻における各計測位置p,pあるいは、これら2つの計測位置p,pに代わる、該計測点の、前記2つの計測時刻のうちの一方の計測時刻における計測位置pおよび該計測点の、前記2つの計測時刻における2つの計測位置p,pどうしの間の運動視差τとから、前記複比{pinf}あるいは該複比と等価な演算を用いて、該計測点の前記重畳時刻における位置pを求める第4のステップと、
前記計測点の、前記重畳時刻における位置pを極変換することにより該位置pに対応する極線を求める第5のステップと、
前記極線上の点であって、かつ前記移動方向vと角度
r=cos−1(n・v)
を成す点を求める第6のステップとを有し、
前記計測空間内の複数の計測点について、前記第1から第6のステップのうちの前記第4から第6までのステップを、前記第1から第3までのパラメータの各値を、それぞれ前記第1から第3までの各ステップで順次変更しながら複数回繰り返すことにより、前記第6のステップの、1つの計測点に関する、前記第1のパラメータの値が同一であるとともに前記第2のパラメータの値が同一であって、かつ前記第3のパラメータの値がそれぞれ異なる複数回の実行により求められる複数の点を結ぶ曲線を、前記第1のパラメータの各値と前記第2のパラメータの各値との各組合せごとに前記複数の計測点について求め、その後、
前記第1から第6までのステップを複数回繰り返す間に求められた複数の曲線を前記第1のパラメータの値に応じた複数の曲線描画空間のうちのそれぞれ対応する曲線描画空間に描画したときの曲線どうしの交差点を各曲線描画空間ごとに求め該交差点で交わる曲線の本数の情報に基づいて前記計測点の前記観察点に対する相対的な真の移動方向に対応する曲線描画空間を選択することにより該真の移動方向を求めるとともに、該真の移動方向に対応する曲線描画空間について求められた交差点で交わる複数の曲線に対応する複数の計測点を含む計測平面の方位n、及び/又は、前記観察点から前記2つの計測時刻のうちの一方の計測時刻における前記計測平面までの最短距離を指標する物理量を求める第7のステップを実行するプログラムであってもよく、
この場合に、前記画像上にあらわれた計測点が強度の情報を有するものであって、前記第6のステップが、前記点を求めるとともに、該点に対応する計測点の強度に対応する値を該点に対応する、該点を含む曲線が描かれる曲線描画空間内の点に投票するステップであり、前記第7のステップが、前記交差点を求めることに代わり、前記第1から第6までのステップを複数回繰り返す間の投票による値が極大値となる極大点を各曲線描画空間ごとに求め該極大点における極大値の情報に基づいて前記真の移動方向に対応する曲線描画空間を選択することにより該真の移動方向を求めるとともに、該真の移動方向に対応する曲線描画空間について求められた極大点の投票に参加した複数の曲線に対応する複数の計測点を含む計測平面の方位n、及び/又は、前記観察点から前記2つの計測時間のうちの一方の計測時間における前記計測平面までの最短距離を指標する物理量を求めるステップであることが好ましく、あるいは、
前記画像上にあらわれた計測点が強度の情報を有するものであって、
前記画像計測プログラムが、前記計測点の前記2つの計測時間における2つの計測位置p,pどうしの間の運動視差τを第4のパラメータとして設定する第8のステップを有するプログラムであって、
前記第4のステップが、前記第1のステップで設定された、前記移動継続状態における無限時間経過後の前記計測点の位置pinfと、前記第2のステップで設定された、前記最短距離を指標する物理量と、前記第3のステップで設定された内積(n・v)と、前記計測点の、前記2つの計測時刻のうちの一方の計測時刻における計測位置pと、前記第8のステップで設定された前記運動視差τとを用いて、該計測点の、前記重畳時刻における位置pを求めるステップであり、
前記第6のステップが、前記計測点に対応する極線上の前記点を求めるとともに、該計測点の、前記運動視差τに対応する応答強度を求め、該極線上の前記点に対応する計測点の、前記運動視差τに対応する応答強度を、該極線上の前記点に対応する、前記曲線描画空間内の点に投票するステップであって、
前記計測空間内の複数の計測点について、前記第4から第6までのステップを、前記第1、第2、第3および第8のステップで各パラメータの各値を変更しながら複数回繰り返し、その後実行される前記第7のステップが、前記交差点を求めることに代わり、前記第1、第2、第3、第8および前記第4から第6までのステップを複数回繰り返す間の投票による値が極大値となる極大点を各曲線描画空間ごとに求め該極大点における極大値の情報に基づいて前記真の移動方向に対応する曲線描画空間を選択することにより該真の移動方向を求めるとともに、該真の移動方向に対応する曲線描画空間について求められた極大点の投票に参加した複数の曲線に対応する複数の計測点を含む計測平面の方位n、及び/又は、前記観察点から前記2つの計測時刻のうちの一方の計測時刻における前記計測平面までの最短距離を指標する物理量を求めるステップであることも好ましい態様である。
The image measurement program stored in the second image measurement program storage medium is:
A first step of setting a position p inf of the measurement point after an infinite time in the moving continuous state by setting the moving direction v as the first parameter,
A second step of setting a physical quantity indicative of the shortest distance as a second parameter;
A third step of setting the inner product ( ns / v) as a third parameter;
The position p inf of the measurement point after the infinite time has elapsed in the movement continuation state set in the first step, the physical quantity indicating the shortest distance set in the second step, and the first The inner product ( ns · v) set in step 3 and the measurement positions p 0 , p 1 at the two measurement times of the measurement point, or these two measurement positions p 0 , p 1 , The measurement position p 0 of the measurement point at one of the two measurement times and the motion parallax τ between the two measurement positions p 0 and p 1 of the measurement point at the two measurement times from using the cross ratio {p inf p 0 p 1 p c} or plurality ratio equivalent calculation, a fourth step of obtaining a position p c in the superimposed time of the measurement points,
A fifth step of obtaining a polar corresponding to the position p c by converting the measurement point, the position p c in the superimposed time pole,
Said a point of pole line, and the moving direction v and angle r = cos -1 (n s · v)
And a sixth step for obtaining a point comprising
For the plurality of measurement points in the measurement space, the fourth to sixth steps of the first to sixth steps, the respective values of the first to third parameters, respectively, By repeating a plurality of times while sequentially changing each step from 1 to 3, the value of the first parameter for one measurement point in the sixth step is the same and the second parameter Curves connecting a plurality of points that are obtained by a plurality of executions having the same value and different values of the third parameter are represented as values of the first parameter and values of the second parameter. For each of the combinations and the measurement points, and then
When a plurality of curves obtained while repeating the first to sixth steps a plurality of times are drawn in the corresponding curve drawing spaces among the plurality of curve drawing spaces according to the value of the first parameter. Obtaining an intersection between the curves for each curve drawing space, and selecting a curve drawing space corresponding to the true movement direction of the measurement point relative to the observation point based on information on the number of curves intersecting at the intersection. To determine the true movement direction, and the orientation n s of the measurement plane including a plurality of measurement points corresponding to a plurality of curves intersecting at the intersection obtained with respect to the curve drawing space corresponding to the true movement direction, and / or A program for executing a seventh step of obtaining a physical quantity indicating the shortest distance from the observation point to the measurement plane at one of the two measurement times It may be a beam,
In this case, the measurement point appearing on the image has intensity information, and the sixth step obtains the point and sets a value corresponding to the intensity of the measurement point corresponding to the point. Voting for a point in the curve drawing space corresponding to the point in which a curve including the point is drawn, wherein the seventh step is to replace the first to sixth in place of obtaining the intersection A maximum point at which the value obtained by voting during a plurality of steps is maximized is obtained for each curve drawing space, and a curve drawing space corresponding to the true movement direction is selected based on information on the maximum value at the maximum point. The direction n of the measurement plane including a plurality of measurement points corresponding to a plurality of curves participating in the voting of the maximum points obtained for the curve drawing space corresponding to the true movement direction s And / or is preferably a step of obtaining a physical quantity that indicates the shortest distance from the observation point to the measurement plane in one of the two measurement times, or
Measurement points appearing on the image have intensity information,
The image measurement program includes an eighth step of setting a motion parallax τ between two measurement positions p 0 and p 1 at the two measurement times of the measurement point as a fourth parameter. ,
In the fourth step, the position p inf of the measurement point after the infinite time has elapsed in the movement continuation state set in the first step and the shortest distance set in the second step. The physical quantity to be indexed, the inner product ( ns · v) set in the third step, the measurement position p 0 of the measurement point at one of the two measurement times, and the eighth using said motion parallax τ set in step, of the measurement point, a step of determining the position p c in the superimposed time,
The sixth step obtains the point on the polar line corresponding to the measurement point, obtains a response intensity corresponding to the motion parallax τ of the measurement point, and measures the measurement point corresponding to the point on the polar line Voting a response intensity corresponding to the motion parallax τ to a point in the curve drawing space corresponding to the point on the polar line,
For a plurality of measurement points in the measurement space, the steps from the fourth to the sixth are repeated a plurality of times while changing each value of each parameter in the first, second, third and eighth steps, The value obtained by voting during the repetition of the first, second, third, eighth, and fourth to sixth steps a plurality of times, instead of the seventh step executed thereafter obtaining the intersection. Finds a local maximum point for each curve drawing space, and obtains the true moving direction by selecting a curve drawing space corresponding to the true moving direction based on the local maximum information at the local maximum point. Azimuth n s of a measurement plane including a plurality of measurement points corresponding to a plurality of curves that participated in the voting of local maximum points obtained for the curve drawing space corresponding to the true moving direction, and / or from the observation point Said It is also preferable is a One step of obtaining a physical quantity that indicates the shortest distance to the measurement plane at one measurement time of the measurement time.

また、本発明の画像計測プログラム記憶媒体のうちの第3の画像計測プログラム記憶媒体は、
所定の計測空間内の所定の観察点から該計測空間内を眺めたときの画像にあらわれた、該計測空間内の任意の計測点の、相互に異なる2つの計測時刻における各計測位置をそれぞれp,p、前記計測点の、前記観察点に対する相対的な、前記2つの計測時刻の間における移動方向をv、前記計測点の、前記観察点に対する相対的な、前記2つの計測時刻の間における移動方向vと同一方向への、かつ前記2つの計測時刻の間の移動速度と同一の速度での移動がそのまま継続されるものと予定した移動継続状態における無限時間経過後の前記計測点の位置をpinfとしたとき、
前記計測点の3つの位置pinf,p,pで決まる単比(pinf)あるいは該単比と等価な演算を用いて、前記計測平面の方位、及び/又は、前記観察点から前記2つの計測時刻のうちの一方の計測時刻における前記計測平面までの最短距離を指標する物理量を求める画像計測プログラムが記憶されてなることを特徴とする。
The third image measurement program storage medium of the image measurement program storage medium of the present invention is:
Each measurement position at two different measurement times of an arbitrary measurement point in the measurement space, which appears in the image when the measurement space is viewed from a predetermined observation point in the predetermined measurement space, is p. 0 , p 1 , v is the moving direction between the two measurement times relative to the observation point, v, and the two measurement times are relative to the observation point. In the same direction as the moving direction v between and at the same speed as the moving speed between the two measurement times, the measurement point after the infinite time has elapsed in the scheduled movement continuation state Where p inf is the position of
Using a single ratio (p inf p 0 p 1 ) determined by the three positions p inf , p 0 , and p 1 of the measurement point (p inf p 0 p 1 ) or an operation equivalent to the single ratio, the orientation of the measurement plane and / or the An image measurement program for obtaining a physical quantity indicating the shortest distance from an observation point to the measurement plane at one of the two measurement times is stored.

ここで、上記第3の画像計測プログラム記憶媒体に記憶された画像計測プログラムが実行する、前記単比(pinf)あるいは該単比と等価な演算には、前記計測点の、前記2つの計測時刻における2つの計測位置p,pに代えて、前記計測点の、前記2つの計測時刻のうちの一方の計測時刻における計測位置pと、前記計測点の、前記2つの計測時刻における2つの計測位置p,pどうしの間の位置の差である運動視差τとを用いる演算が包含されるものである。 Here, for the calculation performed by the image measurement program stored in the third image measurement program storage medium, the unit ratio (p inf p 0 p 1 ) or the equivalent of the unit ratio, two instead of the measurement position p 0, p 1 in the two measurement time, the measurement point, the measurement position p 0 at one measurement time of said two measurement time, the measurement point, the 2 Computation using motion parallax τ, which is a difference in position between two measurement positions p 0 and p 1 at one measurement time, is included.

上記第3の画像計測プログラム記憶媒体に記憶された画像計測プログラムは、前記計測点の各位置pinf,p,pとして球面上に写影された各位置を採用すると共に、前記最短距離を指標する物理量として、前記観察点と前記2つの計測時刻のうちの一方の計測時刻における前記計測平面との間の最短距離をd、2つの計測時刻どうしの間の前記計測点の、前記観察点に対する相対的な移動距離をΔxとしたときの、
=d/Δx
であらわされる規格化最短距離を採用し、
前記規格化最短距離をパラメータとして設定する第1のステップと、
前記第1のステップで設定された規格化最短距離と、単比(pinf)あるいは該単比と等価な演算とを用いて、
R=cos−1/(pinf))
なる関係式あるいは該関係式と等価な関係式で規定される半径Rを求める第2のステップと、
前記2つの計測時刻のうちの一方の計測時刻における前記計測点の計測位置を中心とした半径Rの小円を求める第3のステップとを有し、
前記計測空間内の複数の計測点について、前記第2のステップと前記第3のステップを、前記パラメータを前記第1のステップで順次変更しながら複数回繰り返し、その後、
前記第1から第3までのステップを複数回繰り返す間に求められた複数の小円を小円描画空間に描画したときの小円どうしの交差点を求めることにより、該交差点で交わる複数の小円に対応する複数の計測点を含む計測平面の方位nso、及び/又は、該計測平面についての規格化最短距離s0を求める第4ステップを実行するプログラムであってもよく、
この場合に、前記画像上にあらわれた計測点が強度の情報を有するものであって、前記第3のステップが、前記小円を求めるとともに、求められた小円を小円描画空間に描画したときの該小円の軌跡上の各点それぞれに該小円に対応する計測点の強度に対応する値を投票するステップであり、前記第4のステップが、前記交差点を求めることに代わり、前記第1から第3までのステップを複数回繰り返す間の投票による値が極大値となる極大点を求めることにより、該極大点の投票に参加した複数の小円に対応する複数の計測点を含む計測平面の方位nso、及び/又は、該計測平面についての規格化最短距離s0を求めるステップであることが好ましく、あるいは、
前記画像上にあらわれた計測点が強度の情報を有するものであって、
前記画像計測プログラムが、前記計測点の前記2つの計測時刻における2つの計測位置p,pどうしの間の運動視差τを第2のパラメータとして設定する第5のステップを有するプログラムであって、
前記第2のステップが、前記第1のステップで設定された規格化最短距離と、前記移動継続状態における無限時間経過後の前記計測点の位置pinfと、該計測点の前記2つの計測時間のうちの一方の計測時刻における計測位置pと、前記第5のステップで設定された前記運動視差τとを用いて、前記半径Rを求めるステップであり、
前記第3のステップが、前記計測点に対応する前記小円を求めるとともに、該計測点の、前記運動視差τに対応する応答強度を求め、求められた小円を小円描画空間に描画したときの該小円の軌跡上の各点それぞれに該小円に対応する計測点の、前記運動視差τに対応する応答強度を投票するステップであり、
前記計測空間内の複数の計測点について、前記第2のステップと前記第3のステップを、前記第1のステップおよび前記第5のステップで各パラメータの各値を変更しながら複数回繰り返し、
その後実行される前記第4のステップが、前記交差点を求めることに代わり、前記第1、第5、第2および第3のステップを複数回繰り返す間の投票による値が極大値となる極大点を求めることにより、該極大点の投票に参加した複数の小円に対応する複数の計測点を含む計測平面の方位nso、及び/又は、該計測平面についての規格化最短距離s0を求めるステップであることも好ましい態様である。
The image measurement program stored in the third image measurement program storage medium employs each position projected on a spherical surface as each position p inf , p 0 , p 1 of the measurement point, and the shortest distance Is the shortest distance between the observation point and the measurement plane at one of the two measurement times, d s , and the measurement point between the two measurement times, When the relative movement distance with respect to the observation point is Δx,
n d s = d s / Δx
In adopting the normalized shortest distance n d s represented,
A first step of setting the normalized shortest distance n d s as a parameter;
Using the normalized shortest distance n d s set in the first step and a simple ratio (p inf p 0 p 1 ) or an operation equivalent to the simple ratio,
R = cos -1 (n d s / (p inf p 0 p 1))
A second step for obtaining a radius R defined by the relational expression or a relational expression equivalent to the relational expression,
A third step of obtaining a small circle with a radius R centered on the measurement position of the measurement point at one of the two measurement times;
For a plurality of measurement points in the measurement space, the second step and the third step are repeated a plurality of times while sequentially changing the parameters in the first step, and then
A plurality of small circles intersecting at the intersections by obtaining intersections between the small circles when the plurality of small circles obtained while repeating the first to third steps a plurality of times are drawn in the small circle drawing space. the azimuth n so the measurement plane including a plurality of measurement points corresponding, and / or may be a program for executing the fourth step of determining a normalized shortest distance n d s0 for the measurement plane,
In this case, the measurement point appearing on the image has intensity information, and the third step obtains the small circle and draws the obtained small circle in the small circle drawing space. Voting a value corresponding to the intensity of the measurement point corresponding to the small circle for each point on the trajectory of the small circle, and the fourth step instead of obtaining the intersection, Including a plurality of measurement points corresponding to a plurality of small circles that participated in the voting of the local maximum by obtaining a local maximum at which the value obtained by voting becomes a local maximum while repeating the first to third steps a plurality of times Preferably, this is the step of determining the orientation n so of the measurement plane and / or the normalized shortest distance n d s0 for the measurement plane, or
Measurement points appearing on the image have intensity information,
The image measurement program includes a fifth step of setting a motion parallax τ between two measurement positions p 0 and p 1 at the two measurement times of the measurement point as a second parameter. ,
In the second step, the standardized shortest distance n d s set in the first step, the position p inf of the measurement point after the infinite time has elapsed in the movement continuation state, and the 2 of the measurement point Using the measurement position p 0 at one of the two measurement times and the motion parallax τ set in the fifth step to determine the radius R;
In the third step, the small circle corresponding to the measurement point is obtained, the response intensity corresponding to the motion parallax τ of the measurement point is obtained, and the obtained small circle is drawn in the small circle drawing space. Voting a response intensity corresponding to the motion parallax τ of each measurement point corresponding to the small circle for each point on the trajectory of the small circle when
For a plurality of measurement points in the measurement space, the second step and the third step are repeated a plurality of times while changing each value of each parameter in the first step and the fifth step,
The fourth step executed thereafter is not the determination of the intersection, but the maximum point at which the value by voting becomes a maximum value while repeating the first, fifth, second and third steps a plurality of times. By obtaining the azimuth n so of the measurement plane including a plurality of measurement points corresponding to the plurality of small circles participating in the voting of the local maximum point, and / or the normalized shortest distance n d s0 for the measurement plane is obtained. It is also a preferred embodiment that it is a step.

また、上記第3の画像計測プログラム記憶媒体に格納された画像計測プログラムは、前記計測点の各位置pinf,p,pとして球面上に写影された各位置を採用すると共に、前記最短距離を指標する物理量として、前記観察点と前記2つの計測時刻のうちの一方の計測時刻における前記計測平面との間の最短距離をd、2つの計測時刻どうしの間の前記計測点の、前記観察点に対する相対的な移動距離をΔxとしたときの、
=d/Δx
であらわされる規格化最短距離を採用し、
前記移動方向vを第1のパラメータとして設定することにより前記移動継続状態における無限時間経過後の前記計測点の位置pinfを設定する第1のステップと、
前記規格化最短距離を第2のパラメータとして設定する第2のステップと、
前記第1のステップで設定された、前記移動継続状態における無限時間経過後の前記計測点の位置pinfと、前記第2のステップで設定された規格化最短距離と、単比(pinf)あるいは該単比と等価な演算とを用いて、
R=cos−1/(pinf))
なる関係式あるいは該関係式と等価な関係式で規定される半径Rを求める第3のステップと、
前記2つの計測時刻のうちの一方の計測時刻における前記計測点の計測位置を中心とした半径Rの小円を求める第4のステップとを有し、
前記計測空間内の複数の計測点について、前記第3のステップと前記第4のステップを、前記第1のパラメータおよび前記第2のパラメータの各値をそれぞれ前記第1のステップおよび前記第2のステップで順次変更しながら複数回繰り返し、その後、
前記第1から第4までのステップを複数回繰り返す間に求められた複数の小円を前記第1のパラメータの値に応じた複数の小円描画空間のうちのそれぞれ対応する小円描画空間に描画したときの小円どうし交差点を各小円描画空間ごとに求め該交差点で交わる小円の本数の情報に基づいて前記計測点の前記観察点に対する相対的な真の移動方向に対応する小円描画空間を選択することにより該真の移動方向を求めるとともに、該真の移動方向に対応する小円描画空間について求められた交差点で交わる複数の小円に対応する複数の計測点を含む計測平面の方位nso、及び/又は、該計測平面についての規格化最短距離s0を求める第5のステップを実行するプログラムであってもよく、
その場合に、前記画像上にあらわれた計測点が強度の情報を有するものであって、前記第4のステップが、前記小円を求めるとともに、求められた小円を該小円に対応する小円描画空間に描画したときの該小円の軌跡上の各点それぞれに該小円に対応する計測点の強度に対応する値を投票するステップであり、前記第5のステップが、前記交差点を求めることに代わり、前記第1から第4までのステップを複数回繰り返す間の投票による値が極大値となる極大点を該小円に対応する小円描画空間に描画したときの該小円極大点の投票に参加した複数の小円に対応する複数の計測点を含む計測平面の方位nso、及び/又は、該計測平面についての規格化最短距離s0を求めるステップであることが好ましく、あるいは、
前記画像上にあらわれた計測点が強度の情報を有するものであって、
前記画像計測プログラムが、前記計測点の前記2つの計測時刻における2つの計測位置p,pどうしの間の運動視差τを第3のパラメータとして設定する第6のステップを有するプログラムであって、
前記第2のステップが、前記第1のステップで設定された、前記移動継続状態における無限時間経過後の前記計測点の位置pinfと、前記第3のステップで設定された規格化最短距離と、該計測点の前記2つの計測時刻のうちの一方の計測時刻における計測位置pと、前記第5のステップで設定された前記運動視差τとを用いて、前記半径Rを求めるステップであり、
前記第4のステップが、前記計測点に対応する前記小円を求めるとともに、該計測点の、前記運動視差τに対応する応答強度を求め、求められた小円を該小円に対応する小円描画空間に描画したときの該小円の軌跡上の各点それぞれに該小円に対応する計測点の、前記運動視差τに対応する応答強度を投票するステップであり、
前記計測空間内の複数の計測点について、前記第3のステップと前記第4のステップを、前記第1、第2および第6のステップで各パラメータの各値を変更しながら複数回繰り返し、
その後実行される前記第5のステップが、前記交差点を求めることに代わり、前記第1、第2、第6、第3および第4のステップを複数回繰り返す間の投票による値が極大値となる極大点を各小円描画空間ごとに求め該極大点における極大値の情報に基づいて前記真の移動方向に対応する小円描画空間を選択することにより該真の移動方向を求めるとともに、該真の移動方向に対応する小円描画空間について求められた極大点の投票に参加した複数の小円に対応する複数の計測点を含む計測平面の方位nso、及び/又は、該計測平面についての規格化最短距離s0を求めるステップであることも好ましい態様である。
Further, the image measurement program stored in the third image measurement program storage medium adopts each position projected on the spherical surface as each position p inf , p 0 , p 1 of the measurement point, and As a physical quantity indicating the shortest distance, d s is the shortest distance between the observation point and the measurement plane at one of the two measurement times, and the measurement point between the two measurement times. , When the relative movement distance with respect to the observation point is Δx,
n d s = d s / Δx
In adopting the normalized shortest distance n d s represented,
A first step of setting a position p inf of the measurement point after an infinite time in the moving continuous state by setting the moving direction v as the first parameter,
A second step of setting the normalized shortest distance n d s as a second parameter;
The position p inf of the measurement point after the infinite time has elapsed in the movement continuation state set in the first step, the normalized shortest distance n d s set in the second step, and a simple ratio ( p inf p 0 p 1 ) or an operation equivalent to the simple ratio,
R = cos -1 (n d s / (p inf p 0 p 1))
A third step for obtaining a radius R defined by the following relational expression or a relational expression equivalent to the relational expression:
A fourth step of obtaining a small circle having a radius R around the measurement position of the measurement point at one of the two measurement times;
For the plurality of measurement points in the measurement space, the third step and the fourth step are performed, and the values of the first parameter and the second parameter are set to the first step and the second step, respectively. Repeated several times while changing sequentially in steps, then
A plurality of small circles obtained while repeating the first to fourth steps a plurality of times are respectively transferred to corresponding small circle drawing spaces among the plurality of small circle drawing spaces according to the value of the first parameter. A small circle corresponding to a true moving direction relative to the observation point of the measurement point based on information on the number of small circles intersecting at the intersection, where intersections between the small circles when drawn are obtained for each small circle drawing space. A measurement plane including a plurality of measurement points corresponding to a plurality of small circles intersecting at intersections obtained for the small circle drawing space corresponding to the true movement direction while obtaining the true movement direction by selecting a drawing space orientation n so, and / or may be a program for executing a fifth step of obtaining a normalized shortest distance n d s0 for the measurement plane,
In this case, the measurement point appearing on the image has intensity information, and the fourth step obtains the small circle, and the obtained small circle corresponds to the small circle. Voting a value corresponding to the intensity of the measurement point corresponding to the small circle for each point on the trajectory of the small circle when drawn in a circle drawing space, and the fifth step is for locating the intersection. Instead of obtaining the small circle maximum when the maximum point at which the value obtained by voting during the repetition of the first to fourth steps is a maximum value is drawn in the small circle drawing space corresponding to the small circle. Preferably, this is a step of obtaining the orientation n so of the measurement plane including a plurality of measurement points corresponding to a plurality of small circles participating in the voting of points and / or the normalized shortest distance n d s0 for the measurement plane. Or
Measurement points appearing on the image have intensity information,
The image measurement program includes a sixth step of setting a motion parallax τ between two measurement positions p 0 and p 1 at the two measurement times of the measurement point as a third parameter. ,
The second step includes the position p inf of the measurement point after the infinite time has elapsed in the movement continuation state set in the first step, and the normalized shortest distance n set in the third step. The radius R is obtained using d s , the measurement position p 0 at one of the two measurement times of the measurement point, and the motion parallax τ set in the fifth step. Step,
The fourth step obtains the small circle corresponding to the measurement point, obtains the response strength of the measurement point corresponding to the motion parallax τ, and determines the obtained small circle as a small circle corresponding to the small circle. Voting the response intensity corresponding to the motion parallax τ of each measurement point corresponding to the small circle for each point on the trajectory of the small circle when drawn in a circle drawing space;
For a plurality of measurement points in the measurement space, the third step and the fourth step are repeated a plurality of times while changing each value of each parameter in the first, second and sixth steps,
Subsequent to the fifth step being executed, instead of obtaining the intersection, the value obtained by voting during the repetition of the first, second, sixth, third and fourth steps becomes a maximum value. A local maximum point is obtained for each small circle drawing space, and the true moving direction is obtained by selecting a small circular drawing space corresponding to the true moving direction based on information on the local maximum value at the local maximum point. Azimuth n so of a measurement plane including a plurality of measurement points corresponding to a plurality of small circles that participated in the voting of the maximum points obtained for the small circle drawing space corresponding to the moving direction of the circle, and / or It is also a preferred aspect that it is a step of obtaining the normalized shortest distance n d s0 .

さらに、上記本発明の画像計測プログラム記憶媒体のうちの第4の画像計測プログラム記憶媒体は、
所定の計測空間内の所定の観察点から該計測空間内を眺めたときの画像にあらわれた、該計測空間内の任意の計測点の、相互に異なる2つの計測時刻における各計測位置をそれぞれp,p、前記計測点の、前記観察点に対する相対的な、前記2つの計測時刻の間における移動方向vと同一の方向への、かつ前記2つの計測時刻の間の移動速度と同一の速度での移動がそのまま継続されるものと予定した移動継続状態における無限時間経過後の前記計測点の位置をpinfとしたとき、
前記計測点の3つの位置pinf,p,pで決まる単比(pinf)あるいは該単比と等価な演算を用いて、
前記観察点と、前記2つの計測時刻のうちの一方の計測時刻における前記計測点との間の距離を指標する物理量を求める画像計測プログラムが記憶されてなることを特徴とする。
Furthermore, the fourth image measurement program storage medium of the image measurement program storage medium of the present invention is:
Each measurement position at two different measurement times of an arbitrary measurement point in the measurement space, which appears in an image when the measurement space is viewed from a predetermined observation point in the predetermined measurement space, is p. 0 , p 1 , relative to the observation point, in the same direction as the movement direction v between the two measurement times, and the same as the movement speed between the two measurement times When the position of the measurement point after elapse of an infinite time in a state where the movement at the speed is continued as it is and when the movement is continuously planned is p inf ,
Using a single ratio (p inf p 0 p 1 ) determined by the three positions p inf , p 0 , and p 1 of the measurement point, or an operation equivalent to the single ratio,
An image measurement program for obtaining a physical quantity indicating a distance between the observation point and the measurement point at one of the two measurement times is stored.

この第4の画像計測プログラム記憶媒体に記憶された画像計測プログラムが実行する、前記単比(pinf)あるいは該単比と等価な演算には、前記計測点の、前記2つの計測時刻における2つの計測位置p,pに代えて、前記計測点の、前記2つの計測時刻のうちの一方の計測時刻における計測位置pと、前記計測点の、前記2つの計測時刻における2つの計測位置p,pどうしの間の位置の差である運動視差τとを用いる演算が包含されるものである。 For the calculation performed by the image measurement program stored in the fourth image measurement program storage medium, the single ratio (p inf p 0 p 1 ) or the equivalent of the single ratio, Instead of the two measurement positions p 0 and p 1 at the measurement time, the measurement position p 0 of the measurement point at one of the two measurement times and the two measurement times of the measurement point The calculation using the motion parallax τ that is the difference in position between the two measurement positions p 0 and p 1 is included.

上記第4の画像計測プログラム記憶媒体に記憶された画像計測プログラムは、前記距離を指標する物理量として、前記観察点と前記2つの計測時刻のうちの一方の計測時刻における前記計測点との間の距離をd、前記2つの計測時刻どうしの間の前記計測点の、前記観察点に対する移動距離をΔxとしたときの、
=d/Δx
であらわされる規格化距離を採用し、該規格化距離を、
=(pinf
の関係式あるいは該関係式と等価な関係式を用いて求めるプログラムであってもよい。
The image measurement program stored in the fourth image measurement program storage medium is a physical quantity indicating the distance between the observation point and the measurement point at one of the two measurement times. When the distance is d 0 and the movement distance of the measurement point between the two measurement times with respect to the observation point is Δx,
n d 0 = d 0 / Δx
In the normalized distance n d 0 represented adopted, the normalized distance n d 0,
n d 0 = (p inf p 0 p 1 )
Or a program obtained using a relational expression equivalent to the relational expression.

また、本発明の画像計測プログラム記憶媒体のうちの第5の画像計測プログラム記憶媒体は、
所定の計測空間内の所定の観察点から該計測空間内を眺めたときの画像にあらわれる、該計測空間内の任意の計測点の、相互に異なる2つの計測時刻の間における前記観察点に対する相対的な移動方向と同一方向への、かつ前記2つの計測時刻の間の移動速度と同一速度での移動がそのまま継続されるものと予定した移動継続状態における、前記計測点を含む計測平面が前記観察点に重なる重畳時刻を指標する物理量と、該計測平面の方位nとで規定される投票空間内の座標をパラメータとして設定する第1のステップと、
前記計測点の、前記2つの計測時刻のうちの一方の計測時刻における計測位置pと、該計測点の、前記移動継続状態における無限時間経過後の位置pinfと、前記第1のステップで設定された前記投票空間内の座標とから、前記計測点の、前記2つの計測時刻における2つの計測位置p,pどうしの位置の差である運動視差τを求める第2のステップと、
前記2つの計測時刻における、前記観察点から前記計測空間内を眺めたときの2つの画像に基づいて、前記計測点の、前記運動視差τに対応する応答強度を求める第3のステップと、
前記第3のステップで求められた応答強度を、前記投票空間内の、前記第1のステップで設定された座標に投票する第4のステップとを有し、
前記計測空間内の複数の計測点について、前記第1から第4までのステップのうちの第2から第4までのステップを、前記第1のステップでパラメータの値を変更しながら複数回実行する画像計測プログラムが記憶されてなることを特徴とする。
The fifth image measurement program storage medium of the image measurement program storage medium of the present invention is:
Relative to the observation point between two different measurement times of any measurement point in the measurement space that appears in the image when the inside of the measurement space is viewed from the predetermined observation point in the predetermined measurement space A measurement plane including the measurement point in a movement continuation state in which the movement in the same direction as the general movement direction and the movement speed at the same speed as the movement speed between the two measurement times is continued a physical quantity indicative of the superimposed time overlapping the observation point, a first step of setting as a parameter coordinates voting space defined by the azimuth n s of the measurement plane,
In the first step, the measurement position p 0 of the measurement point at one of the two measurement times, the position p inf after the infinite time has elapsed in the movement continuation state, and the first step. A second step of obtaining a motion parallax τ which is a difference between the two measurement positions p 0 and p 1 at the two measurement times of the measurement point from the set coordinates in the voting space;
A third step of determining a response intensity corresponding to the motion parallax τ of the measurement point based on two images when the inside of the measurement space is viewed from the observation point at the two measurement times;
A fourth step of voting the response intensity obtained in the third step to the coordinates set in the first step in the voting space,
For a plurality of measurement points in the measurement space, the second to fourth steps among the first to fourth steps are executed a plurality of times while changing parameter values in the first step. An image measurement program is stored.

また、本発明の画像計測プログラム記憶媒体のうちの第6の画像計測プログラム記憶媒体は、
所定の計測空間内の所定の観察点から該計測空間内を眺めたときの画像にあらわれる、該計測空間内の任意の計測点の、相互に異なる2つの計測時刻の間における前記観察点に対する相対的な移動方向vを第1のパラメータとして設定することにより、前記計測点の、該移動方向と同一方向への、かつ前記2つの計測時刻の間の移動速度と同一速度での移動がそのまま継続されるものと予定した移動継続状態における無限時間経過後の該計測点の位置pinfを設定する第1のステップと、
前記移動継続状態における、前記計測点を含む計測平面が前記観察点に重なる重畳時刻を指標する物理量と、該計測平面の方位nとで規定される、前記第1のパラメータに応じた投票空間内の座標を第2のパラメータとして設定する第2のステップと、
前記計測点の、前記2つの計測時刻のうちの一方の計測時刻における計測位置pと、前記第1のステップで設定された位置pinfと、前記第2のステップで設定された、前記投票空間内の座標とから、前記計測点の、前記2つの計測時刻における2つの計測位置p,pどうしの位置の差である運動視差τを求める第3のステップと、
前記2つの計測時刻における、前記観察点から前記計測空間内を眺めたときの2つの画像に基づいて、前記計測点の、前記運動視差τに対応する応答強度を求める第4のステップと、
前記第4のステップで求められた応答強度を、前記第1のパラメータに応じた投票空間内の、前記第2のステップで設定された座標に投票する第5のステップとを有し、
前記計測空間内の複数の計測点について、前記第1から第5までのステップのうちの第3から第5までのステップを、前記第1および第2のステップで各パラメータの各値を変更しながら複数回実行する画像計測プログラムが記憶されてなることを特徴とする。
The sixth image measurement program storage medium of the image measurement program storage medium of the present invention is:
Relative to the observation point between two different measurement times of any measurement point in the measurement space, which appears in the image when the inside of the measurement space is viewed from the predetermined observation point in the predetermined measurement space By setting the general moving direction v as the first parameter, the movement of the measurement point in the same direction as the movement direction and at the same speed as the movement speed between the two measurement times continues. A first step of setting the position p inf of the measurement point after an infinite time has elapsed in the scheduled movement continuation state;
In the mobile continuity state, and the physical quantity measuring plane including the measurement point indicative of the superimposed time overlapping the observation point, defined by the azimuth n s of the measurement plane, voting space corresponding to the first parameter A second step of setting the coordinates in as a second parameter;
The measurement position p 0 of the measurement point at one of the two measurement times, the position p inf set in the first step, and the voting set in the second step A third step of obtaining a motion parallax τ that is a difference between two measurement positions p 0 and p 1 at the two measurement times of the measurement point from coordinates in space;
A fourth step of obtaining response intensity corresponding to the motion parallax τ of the measurement point based on two images when the inside of the measurement space is viewed from the observation point at the two measurement times;
A fifth step of voting the response strength obtained in the fourth step to the coordinates set in the second step in a voting space corresponding to the first parameter;
For a plurality of measurement points in the measurement space, the third to fifth steps of the first to fifth steps are changed, and each value of each parameter is changed in the first and second steps. However, an image measurement program to be executed a plurality of times is stored.

また、本発明の画像計測プログラム記憶媒体のうちの第7の画像計測プログラム記憶媒体は、
所定の計測空間内を観察する、該計測空間内の所定の観察点と、該観察点から該計測空間内を眺めたときの画像にあらわれる、該計測空間内の任意の計測点を含む、相互に異なる2つの計測時刻のうちの一方の計測時刻における計測平面との間の最短距離を指標する物理量と、該計測平面の方位nとで規定される投票空間内の座標をパラメータとして設定する第1のステップと、
前記計測点の、前記2つの計測時刻のうちの一方の計測時刻における計測位置pと、該計測点の、該2つの計測時刻の間における前記観察点に対する相対的な移動方向と同一方向への、かつ前記2つの計測時刻の間の移動速度と同一速度での移動がそのまま継続されるものと予定した移動継続状態における無限時間経過後の位置pinfと、前記第1のステップで設定された、前記投票空間内の座標とから、前記計測点の、前記2つの計測時刻における2つの計測位置p,pどうしの位置の差である運動視差τを求める第2のステップと、
前記2つの計測時刻における、前記観察点から前記計測空間内を眺めたときの2つの画像に基づいて、前記計測点の、前記運動視差τに対応する応答強度を求める第3のステップと、
前記第3のステップで求められた応答強度を、前記投票空間内の、前記第1のステップで設定された座標に投票する第4のステップとを有し、
前記計測空間内の複数の計測点について、前記第1から第4までのステップのうちの第2から第4までのステップを、前記第1のステップでパラメータの値を変更しながら複数回実行する画像計測プログラムが記憶されてなることを特徴とする。
The seventh image measurement program storage medium of the image measurement program storage medium of the present invention is:
A predetermined observation point in the measurement space for observing the predetermined measurement space, and an arbitrary measurement point in the measurement space that appears in an image when the measurement space is viewed from the observation point. to set a physical quantity that indicates the shortest distance between the measurement plane at one measurement time of the two different measurement times, the coordinates of the voting space defined by the azimuth n s of the measuring plane as a parameter A first step;
In the same direction as the relative movement direction of the measurement point relative to the observation point between the measurement point p 0 at one of the two measurement times and the measurement point between the two measurement times. And the position p inf after the infinite time has elapsed in the planned movement continuation state where the movement at the same speed as the movement speed between the two measurement times is continued as it is, and is set in the first step. A second step of obtaining a motion parallax τ that is a difference between the two measurement positions p 0 and p 1 at the two measurement times of the measurement point from the coordinates in the voting space;
A third step of determining a response intensity corresponding to the motion parallax τ of the measurement point based on two images when the inside of the measurement space is viewed from the observation point at the two measurement times;
A fourth step of voting the response intensity obtained in the third step to the coordinates set in the first step in the voting space,
For a plurality of measurement points in the measurement space, the second to fourth steps among the first to fourth steps are executed a plurality of times while changing parameter values in the first step. An image measurement program is stored.

さらに、本発明の画像計測プログラム記憶媒体のうちの第8の画像計測プログラム記憶媒体所定の計測空間内の所定の観察点から該計測空間内を眺めたときの画像にあらわれる、該計測空間内の任意の計測点の、相互に異なる2つの計測時刻の間における前記観察点に対する相対的な移動方向vを第1のパラメータとして設定することにより、前記計測点の、該移動方向と同一方向への、かつ前記2つの計測時刻の間の移動速度と同一速度での移動がそのまま継続されるものと予定した移動継続状態における無限時間経過後の該計測点の位置pinfを設定する第1のステップと、
前記観測点から、前記計測点を含む、前記2つの計測時刻のうちの一方の計測時刻における計測平面までの最短距離を指標する物理量と、該計測平面の方位nとで規定される、前記第1のパラメータに応じた投票空間内の座標を第2のパラメータとして設定する第2のステップと、
前記計測点の、前記2つの計測時刻のうちの一方の計測時刻における計測位置pと、前記第1のステップで設定された位置pinfと、前記第2のステップで設定された、前記投票空間内の座標とから、前記計測点の、前記2つの計測時刻における2つの計測位置p,pどうしの位置の差である運動視差τを求める第3のステップと、
前記2つの計測時刻における、前記観察点から前記計測空間内を眺めたときの2つの画像に基づいて、前記計測点の、前記運動視差τに対応する応答強度を求める第4のステップと、
前記第4のステップで求められた応答強度を、前記第1のパラメータに応じた投票空間内の、前記第2のステップで設定された座標に投票する第5のステップとを有し、
前記計測空間内の複数の計測点について、前記第1から第5までのステップのうちの第3から第5までのステップを、前記第1および第2のステップで各パラメータの各値を変更しながら複数回実行する画像計測プログラムが記憶されてなることを特徴とする。
Further, the eighth image measurement program storage medium of the image measurement program storage medium of the present invention is displayed in an image when the measurement space is viewed from a predetermined observation point in the predetermined measurement space. By setting, as the first parameter, the relative movement direction v of the arbitrary measurement point with respect to the observation point between two different measurement times, the measurement point can be moved in the same direction as the movement direction. And a first step of setting the position p inf of the measurement point after elapse of an infinite time in the scheduled movement continuation state where the movement at the same speed as the movement speed between the two measurement times is continued as it is. When,
Wherein from the observation point, comprising said measuring points, and the physical quantity that indicates the shortest distance to the measurement plane at the measurement time of one of the two measurement time is defined by the azimuth n s of the measurement plane, the A second step of setting the coordinates in the voting space according to the first parameter as a second parameter;
The measurement position p 0 of the measurement point at one of the two measurement times, the position p inf set in the first step, and the voting set in the second step A third step of obtaining a motion parallax τ that is a difference between two measurement positions p 0 and p 1 at the two measurement times of the measurement point from coordinates in space;
A fourth step of obtaining response intensity corresponding to the motion parallax τ of the measurement point based on two images when the inside of the measurement space is viewed from the observation point at the two measurement times;
A fifth step of voting the response strength obtained in the fourth step to the coordinates set in the second step in a voting space corresponding to the first parameter;
For a plurality of measurement points in the measurement space, the third to fifth steps of the first to fifth steps are changed, and each value of each parameter is changed in the first and second steps. However, an image measurement program to be executed a plurality of times is stored.

また、本発明の画像計測プログラム記憶媒体のうちの第9の画像計測プログラム記憶媒体は、
所定の計測空間内の所定の観察点から該計測空間内を眺めたときの画像にあらわれる、該計測空間内の任意の計測点の、相互に異なる2つの計測時刻における2つの計測位置p,pどうしの間の位置の差である運動視差τをパラメータとして設定する第1のステップと、
前記計測点の、前記2つの計測時刻のうちの一方の計測時刻における計測位置pと、該計測点の、前記2つの計測時刻の間における前記観察点に対する相対的な移動方向と同一方向への、かつ前記2つの計測時刻の間の移動速度と同一速度での移動がそのまま継続されるものと予定した移動継続状態における、該計測点の無限時間経過後の位置pinfと、前記第1のステップで設定された運動視差τとから、前記移動継続状態における、前記計測点を含む計測平面が前記観察点に重なる重畳時刻を指標する物理量と、該計測平面の方位nとで規定される投票空間内の座標を求める第2のステップと、
前記2つの計測時刻における、前記観察点から前記計測空間を眺めたときの2つの画像に基づいて、前記計測点の、前記第1のステップで設定された運動視差τに対応する応答強度を求める第3のステップと、
前記第3のステップで求められた応答強度を、前記投票空間内の、前記第2のステップで求められた座標に投票する第4ののステップとを有し、
前記計測空間内の複数の計測点について、前記第1から第4までのステップのうちの第2から第4までのステップを、前記第1のステップでパラメータの値を順次変更しながら複数回実行する画像計測プログラムが記憶されてなることを特徴とする。
The ninth image measurement program storage medium of the image measurement program storage medium of the present invention is:
Two measurement positions p 0 , at two different measurement times of arbitrary measurement points in the measurement space, which appear in an image when the measurement space is viewed from a predetermined observation point in the predetermined measurement space. a first step of setting, as a parameter, motion parallax τ, which is a difference in position between p 1 ;
In the same direction as the relative movement direction of the measurement point relative to the observation point between the measurement point p 0 at one of the two measurement times and the measurement point between the two measurement times. And the position p inf after elapse of an infinite time of the measurement point in the movement continuation state where the movement at the same speed as the movement speed between the two measurement times is continued as it is, and the first Is determined by a physical quantity that indicates a superimposition time at which the measurement plane including the measurement point overlaps the observation point and the orientation n s of the measurement plane in the movement continuation state. A second step for determining coordinates in a voting space;
Based on the two images when the measurement space is viewed from the observation point at the two measurement times, the response intensity corresponding to the motion parallax τ set in the first step is obtained at the measurement point. A third step;
A fourth step of voting the response strength determined in the third step to the coordinates determined in the second step in the voting space;
For the plurality of measurement points in the measurement space, the second to fourth steps among the first to fourth steps are executed a plurality of times while sequentially changing the parameter values in the first step. An image measurement program to be stored is stored.

また、本発明の画像計測プログラム記憶媒体のうちの第10の画像計測プログラム記憶媒体は、
所定の計測空間内の所定の観察点から該計測空間内を眺めたときの画像にあらわれる、該計測空間内の任意の計測点の、相互に異なる2つの計測時刻の間における前記観察点に対する相対的な移動方向vを第1のパラメータとして設定することにより、前記計測点の、該移動方向と同一方向への、かつ前記2つの計測時刻の間の移動速度と同一速度での移動がそのまま継続されるものと予定した移動継続状態における無限時間経過後の該計測点の位置pinfを設定する第1のステップと、
前記計測点の、前記2つの計測時刻における2つの計測位置p,pどうしの間の位置の差である運動視差τを第2のパラメータとして設定する第2のステップと、
前記計測点の、前記2つの計測時刻のうちの一方の計測時刻における計測位置pと、前記第1のステップで設定された位置pinfと、前記第2のステップで設定された運動視差τとから、前記移動継続状態における、前記計測点を含む計測平面が前記観察点に重なる重畳時刻を指標する物理量と、該計測平面の方位nとで規定される、前記第1のパラメータに応じた投票空間内の座標を求める第3のステップと、
前記2つの計測時刻における、前記観察点から前記計測空間を眺めたときの2つの画像に基づいて、前記計測点の、前記第2のステップで設定された運動視差τに対応する応答強度を求める第4のステップと、
前記第4のステップで求められた応答強度を、前記第1のパラメータに応じた投票空間内の、前記第3のステップで求められた座標に投票する第5のステップとを有し、
前記計測空間内の複数の計測点について、前記第1から第5までのステップのうちの第3から第5までのステップを、前記第1および第2のステップで各パラメータの各値を変更しながら複数回実行する画像計測プログラムが記憶されてなることを特徴とする。
The tenth image measurement program storage medium of the image measurement program storage medium of the present invention is:
Relative to the observation point between two different measurement times of any measurement point in the measurement space, which appears in the image when the inside of the measurement space is viewed from the predetermined observation point in the predetermined measurement space By setting the general moving direction v as the first parameter, the movement of the measurement point in the same direction as the movement direction and at the same speed as the movement speed between the two measurement times continues. A first step of setting the position p inf of the measurement point after an infinite time has elapsed in the scheduled movement continuation state;
A second step of setting, as a second parameter, motion parallax τ, which is a difference in position between the two measurement positions p 0 and p 1 at the two measurement times, of the measurement point;
The measurement position p 0 of the measurement point at one of the two measurement times, the position p inf set in the first step, and the motion parallax τ set in the second step and a, the in the mobile continuity state, and the physical quantity measuring plane including the measurement point indicative of the superimposed time overlapping the observation point, defined by the azimuth n s of the measurement plane, according to the first parameter A third step for determining coordinates in the voting space;
Based on the two images when the measurement space is viewed from the observation point at the two measurement times, the response intensity corresponding to the motion parallax τ set in the second step is obtained at the measurement point. A fourth step;
Voting the response intensity obtained in the fourth step to the coordinates obtained in the third step in the voting space corresponding to the first parameter,
For a plurality of measurement points in the measurement space, the third to fifth steps of the first to fifth steps are changed, and each value of each parameter is changed in the first and second steps. However, an image measurement program to be executed a plurality of times is stored.

また、本発明の画像計測プログラム記憶媒体のうちの第11の画像計測プログラム記憶媒体は、
所定の計測空間内の所定の観察点から該計測空間内を眺めたときの画像にあらわれる、該計測空間内の任意の計測点の、相互に異なる2つの計測時刻における2つの計測位置p,pどうしの間の位置の差である運動視差τをパラメータとして設定する第1のステップと、
前記計測点の、前記2つの計測時刻のうちの一方の計測時刻における、計測位置pと、該計測点の、前記2つの計測時刻の間における前記観察点に対する相対的な移動方向と同一方向への、かつ前記2つの計測時刻の間の移動速度と同一速度での移動がそのまま継続されるものと予定した移動継続状態における、該計測点の無限時間経過後の位置pinfと、前記第1のステップで設定された運動視差τとに基づいて、前記観察点から、前記計測点を含む、2つの計測時刻のうちの一方の計測時刻における計測平面までの間の最短距離を指標する物理量と、該計測平面の方位nとで規定される投票空間内の座標を求める第2のステップと、
前記2つの計測時刻における、前記観察点から前記計測空間を眺めたときの2つの画像に基づいて、前記計測点の、前記第1のステップで設定された運動視差τに対応する応答強度を求める第3のステップと、
前記第3のステップで求められた応答強度を、前記投票空間内の、前記第2のステップで求められた座標に投票する第4のステップとを有し、
前記計測空間内の複数の計測点について、前記第1から第4までのステップのうちの第2から第4までのステップを、前記第1のステップでパラメータの値を変更しながら複数回実行する画像計測プログラムが記憶されてなることを特徴とする。
The eleventh image measurement program storage medium of the image measurement program storage medium of the present invention is:
Two measurement positions p 0 , at two different measurement times of arbitrary measurement points in the measurement space, which appear in an image when the measurement space is viewed from a predetermined observation point in the predetermined measurement space. a first step of setting, as a parameter, motion parallax τ, which is a difference in position between p 1 ;
The same direction as the relative movement direction of the measurement point with respect to the observation point between the two measurement times and the measurement position p 0 at one of the two measurement times. And a position p inf after the infinite time of the measurement point in a state where the movement continues at the same speed as the movement speed between the two measurement times and the scheduled movement continuation state, A physical quantity that indicates the shortest distance from the observation point to the measurement plane at one of the two measurement times, including the measurement point, based on the motion parallax τ set in step 1 When, a second step of obtaining the coordinates of the voting space defined by the azimuth n s of the measurement plane,
Based on the two images when the measurement space is viewed from the observation point at the two measurement times, the response intensity corresponding to the motion parallax τ set in the first step is obtained at the measurement point. A third step;
Voting the response strength determined in the third step to the coordinates determined in the second step in the voting space; and
For a plurality of measurement points in the measurement space, the second to fourth steps among the first to fourth steps are executed a plurality of times while changing parameter values in the first step. An image measurement program is stored.

さらに、本発明の画像計測プログラム記憶媒体のうちの第12の画像計測プログラム記憶媒体は、
所定の計測空間内の所定の観察点から該計測空間内を眺めたときの画像にあらわれる、該計測空間内の任意の計測点の、相互に異なる2つの計測時刻の間における前記観察点に対する相対的な移動方向vを第1のパラメータとして設定することにより、前記計測点の、該移動方向と同一方向への、かつ前記2つの計測時刻の間の移動速度と同一速度での移動がそのまま継続されるものと予定した移動継続状態における無限時間経過後の該計測点の位置pinfを設定する第1のステップと、
前記計測点の、前記2つの計測時刻における2つの計測位置p,pどうしの位置の差である運動視差τを第2のパラメータとして設定する第2のステップと、
前記計測点の、前記2つの計測時刻のうちの一方の計測時刻における計測位置pと、前記第1のステップで設定された位置pinfと、前記第2のステップで設定された運動視差τとに基づいて、前記観察点から、前記計測点を含む、前記2つの計測時刻のうちの一方の計測時刻における計測平面までの間の最短距離を指標する物理量と、該計測平面の方位nとで規定される、前記第1のパラメータに応じた投票空間内の座標を求める第3のステップと、
前記2つの計測時刻における、前記観察点から前記計測空間を眺めたときの2つの画像に基づいて、前記計測点の、前記第2のステップで設定された運動視差τに対応する応答強度を求める第4のステップと、
前記第4のステップで求められた応答強度を、前記第1のパラメータに応じた投票空間内の、前記第3のステップで求められた座標に投票する第5のステップとを有し、
前記計測空間内の複数の計測点について、前記第1から第5までのステップのうちの第3から第5までのステップを、前記第1および第2のステップで各パラメータの各値を変更しながら複数回実行する画像計測プログラムが記憶されてなることを特徴とする。
Furthermore, the twelfth image measurement program storage medium of the image measurement program storage medium of the present invention is:
Relative to the observation point between two different measurement times of any measurement point in the measurement space, which appears in the image when the inside of the measurement space is viewed from the predetermined observation point in the predetermined measurement space By setting the general moving direction v as the first parameter, the movement of the measurement point in the same direction as the movement direction and at the same speed as the movement speed between the two measurement times continues. A first step of setting the position p inf of the measurement point after an infinite time has elapsed in the scheduled movement continuation state;
A second step of setting, as a second parameter, motion parallax τ, which is a difference between two measurement positions p 0 and p 1 at the two measurement times of the measurement point;
The measurement position p 0 of the measurement point at one of the two measurement times, the position p inf set in the first step, and the motion parallax τ set in the second step And a physical quantity indicating the shortest distance from the observation point to the measurement plane at one of the two measurement times, including the measurement point, and the direction n s of the measurement plane A third step for obtaining coordinates in the voting space according to the first parameter, defined by:
Based on the two images when the measurement space is viewed from the observation point at the two measurement times, the response intensity corresponding to the motion parallax τ set in the second step is obtained at the measurement point. A fourth step;
Voting the response intensity obtained in the fourth step to the coordinates obtained in the third step in the voting space corresponding to the first parameter,
For a plurality of measurement points in the measurement space, the third to fifth steps of the first to fifth steps are changed, and each value of each parameter is changed in the first and second steps. However, an image measurement program to be executed a plurality of times is stored.

また、本発明の画像計測プログラム記憶媒体のうちの第13の画像計測プログラム記憶媒体は、
所定の計測空間内の所定の観察点から、該計測空間内を、相互に異なる2つの計測時刻において眺めたときの2つの画像に基づいて、該計測空間内の任意の計測点の、該2つの計測時刻における2つの計測位置どうしの位置の差である運動視差に対応する応答強度を求める第1のステップと、
前記第1のステップで求められた応答強度を、前記計測点の、前記2つの計測時刻の間における前記観察点に対する相対的な移動方向と同一方向への、かつ前記2つの計測時刻の間の移動速度と同一速度での移動がそのまま継続されるものと予定した移動継続状態における、前記計測点を含む計測平面が前記観察点に重なる重畳時刻を指標する物理量と、該計測平面の方位とで規定される投票空間内の、前記計測点と前記運動視差とに対応した座標に投票する第2のステップとを有し、
前記計測空間内の複数の計測点について前記第1のステップと前記第2のステップを複数回実行する画像計測プログラムが記憶されてなることを特徴とする。
The thirteenth image measurement program storage medium of the image measurement program storage medium of the present invention is:
Based on two images when the measurement space is viewed at two different measurement times from a predetermined observation point in the predetermined measurement space, any two measurement points in the measurement space A first step of obtaining a response intensity corresponding to motion parallax, which is a difference between positions of two measurement positions at one measurement time;
The response intensity obtained in the first step is set in the same direction as the movement direction of the measurement point relative to the observation point between the two measurement times and between the two measurement times. A physical quantity that indicates a superposition time at which a measurement plane including the measurement point overlaps the observation point in a planned movement continuation state in which the movement at the same speed as the movement speed is continued, and an orientation of the measurement plane A second step of voting on coordinates corresponding to the measurement points and the motion parallax within a defined voting space;
An image measurement program for executing the first step and the second step a plurality of times for a plurality of measurement points in the measurement space is stored.

ここで、上記第13の画像計測プログラム記憶媒体に記憶された前記画像計測プログラムは、前記投票空間内の、前記投票による値が極大値となる極大点を求めることにより、該極大点の投票に参加した複数の計測点を含む計測平面の方位、及び/又は、該計測平面が前記観察点に重なる重畳時刻を指標する物理量を求める第3のステップを有するプログラムであってもよい。   Here, the image measurement program stored in the thirteenth image measurement program storage medium obtains a maximum point in the voting space where the value by the voting becomes a maximum value, thereby voting the maximum point. The program may include a third step of obtaining a azimuth of a measurement plane including a plurality of participating measurement points and / or a physical quantity indicating a superposition time at which the measurement plane overlaps the observation point.

また、本発明の画像計測プログラム記憶媒体のうちの第14の画像計測プログラム記憶媒体は、
所定の計測空間内の所定の観察点から該計測空間内を眺めたときの画像にあらわれる、該計測空間内の任意の計測点の、相互に異なる2つの計測時刻の間における前記観察点に対する相対的な移動方向をパラメータとして設定する第1のステップと、
前記観察点から、前記計測空間内を前記2つの計測時刻において眺めたときの2つの画像に基づいて、前記計測点の、該2つの計測時刻における2つの計測位置どうしの位置の差である運動視差に対応する応答強度を求める第2のステップと、
前記第2のステップで求められた応答強度を、前記計測点の、前記2つの計測時刻の間における前記観察点に対する相対的な移動方向と同一方向への、かつ前記2つの計測時刻の間の移動速度と同一速度での移動がそのまま継続されるものと予定した移動継続状態における、前記計測点を含む計測平面が前記観察点に重なる重畳時刻を指標する物理量と、該計測平面の方位とで規定される、前記第1のステップで設定されたパラメータに応じた投票空間内の、前記計測点と前記運動視差とに対応した座標に投票する第3のステップとを有し、
前記計測空間内の複数の計測点について、前記第1から第3までのステップのうちの第2および第3のステップを、前記第1のステップでパラメータの値を変更しながら複数回実行する画像計測プログラムが記憶されてなることを特徴とする。
In addition, the fourteenth image measurement program storage medium of the image measurement program storage medium of the present invention is:
Relative to the observation point between two different measurement times of any measurement point in the measurement space that appears in the image when the inside of the measurement space is viewed from the predetermined observation point in the predetermined measurement space A first step of setting a general moving direction as a parameter;
Based on two images when the measurement space is viewed from the observation point at the two measurement times, the movement is a difference between the two measurement positions at the two measurement times of the measurement point. A second step for obtaining a response intensity corresponding to the parallax;
The response intensity obtained in the second step is set in the same direction as the movement direction of the measurement point relative to the observation point between the two measurement times, and between the two measurement times. The physical quantity indicating the superposition time when the measurement plane including the measurement point overlaps the observation point in the planned movement continuation state in which the movement at the same speed as the movement speed is continued as it is and the direction of the measurement plane A third step of voting on coordinates corresponding to the measurement point and the motion parallax in a voting space defined by the parameters set in the first step,
An image in which the second and third steps of the first to third steps are executed a plurality of times while changing parameter values in the first step for a plurality of measurement points in the measurement space. A measurement program is stored.

ここで、上記第14の画像計測プログラム記憶媒体に記憶された画像計測プログラムは、前記投票による値が極大値となる極大点を各投票空間ごとに求め該極大点における極大値の情報に基づいて前記計測点の前記観察点に対する相対的な真の移動方向に対応する投票空間を選択することにより該真の移動方向を求めるとともに、該真の移動方向に対応する投票空間について求められた極大点の投票に参加した複数の計測点を含む計測平面の方位、及び/又は、該計測平面が前記観察点に重なる重畳時刻を指標する物理量を求める第4のステップを有するプログラムであってもよい。   Here, the image measurement program stored in the fourteenth image measurement program storage medium obtains a maximum point at which the value obtained by voting becomes a maximum value for each voting space, and is based on information on the maximum value at the maximum point. The true movement direction is determined by selecting a voting space corresponding to the true movement direction relative to the observation point of the measurement point, and the maximum point obtained for the voting space corresponding to the true movement direction A program having a fourth step for obtaining the orientation of the measurement plane including a plurality of measurement points participating in the voting and / or the physical quantity indicating the superposition time at which the measurement plane overlaps the observation point may be used.

また、本発明の画像計測プログラム記憶媒体のうちの第15の画像計測プログラム記憶媒体は、
所定の計測空間内の所定の観察点から該計測空間内を相互に異なる2つの計測時刻において眺めたときの2つの画像に基づいて、該計測空間内の任意の計測点の、該2つの計測時刻における2つの計測位置どうしの位置の差である運動視差に対応する応答強度を求める第1のステップと、
前記第1のステップで求められた応答強度を、前記観察点から、前記計測点を含む、前記2つの計測時刻のうちの一方の計測時刻における計測平面までの間の最短距離を指標する物理量と、該計測平面の方位とで規定される投票空間内の、前記計測点と前記運動視差とに対応した座標に投票する第2のステップとを有し、
前記計測空間内の複数の計測点について、前記第1のステップと前記第2のステップを複数回実行する画像計測プログラムが記憶されてなることを特徴とする。
The fifteenth image measurement program storage medium of the image measurement program storage medium of the present invention is:
Based on two images when the measurement space is viewed at two different measurement times from a predetermined observation point in the predetermined measurement space, the two measurements at arbitrary measurement points in the measurement space A first step of obtaining a response intensity corresponding to a motion parallax that is a difference between positions of two measurement positions at a time;
The response intensity obtained in the first step is a physical quantity indicating the shortest distance from the observation point to the measurement plane at one of the two measurement times, including the measurement point. Voting to coordinates corresponding to the measurement point and the motion parallax in a voting space defined by the orientation of the measurement plane,
An image measurement program for executing the first step and the second step a plurality of times for a plurality of measurement points in the measurement space is stored.

ここで、上記第15の画像計測プログラム記憶媒体に記憶された画像計測プログラムは、前記投票空間内の、前記投票による値が極大値となる極大点を求めることにより、該極大点の投票に参加した複数の計測点を含む計測平面の方位、及び/又は、前記観察点から前記2つの計測時刻のうちの一方の計測時刻における前記計測平面までの最短距離を指標する物理量を求める第3のステップを有するプログラムであってもよい。   Here, the image measurement program stored in the fifteenth image measurement program storage medium participates in the vote of the maximum point by obtaining the maximum point in the voting space where the value by the vote becomes a maximum value. A third step of obtaining a physical quantity indicating the azimuth of the measurement plane including the plurality of measurement points and / or the shortest distance from the observation point to the measurement plane at one of the two measurement times It may be a program having

さらに、本発明の画像計測プログラム記憶媒体のうちの第16の画像計測プログラム記憶媒体は、
所定の計測空間内の所定の観察点から該計測空間内を眺めたときの画像にあらわれる、該計測空間内の任意の計測点の、相互に異なる2つの計測時刻の間における前記観察点に対する相対的な移動方向をパラメータとして設定する第1のステップと、
前記観察点から前記計測空間内を前記2つの計測時刻において眺めたときの2つの画像に基づいて、前記計測点の、該2つの計測時刻における2つの計測位置どうしの位置の差である運動視差に対応する応答強度を求める第2のステップと、
前記第2のステップで求められた応答強度を、前記観察点から、前記計測点を含む、前記2つの計測時刻のうちの一方の計測時刻における計測平面までの間の最短距離を指標する物理量と、該計測平面の方位とで規定される、前記第1のステップで設定されたパラメータに応じた投票空間内の、前記計測点と前記運動視差に対応する座標に投票する第3のステップとを有し、
前記計測空間内の複数の計測点について、前記第1から第3までのステップのうちの第2および第3のステップを、前記第1のステップでパラメータの値を変更しながら複数回実行する画像計測プログラムが記憶されてなることを特徴とする。
Further, the sixteenth image measurement program storage medium of the image measurement program storage medium of the present invention is:
Relative to the observation point between two different measurement times of any measurement point in the measurement space that appears in the image when the inside of the measurement space is viewed from the predetermined observation point in the predetermined measurement space A first step of setting a general moving direction as a parameter;
Motion parallax, which is the difference between the two measurement positions at the two measurement times of the measurement point, based on the two images when the measurement space is viewed from the observation point at the two measurement times. A second step for obtaining a response intensity corresponding to
The response intensity obtained in the second step is a physical quantity that indicates the shortest distance from the observation point to the measurement plane at one of the two measurement times, including the measurement point. A third step of voting for the measurement point and the coordinates corresponding to the motion parallax in the voting space according to the parameter set in the first step defined by the orientation of the measurement plane Have
An image in which the second and third steps of the first to third steps are executed a plurality of times while changing parameter values in the first step for a plurality of measurement points in the measurement space. A measurement program is stored.

ここで、上記第16の画像計測プログラム記憶媒体に記憶された画像計測プログラム記憶媒体は、前記投票による値が極大値となる極大点を各投票空間ごとに求め該極大点における極大値の情報に基づいて前記計測点の前記観察点に対する相対的な真の移動方向に対応する投票空間を選択することにより該真の移動方向を求めるとともに、該真の移動方向に対応する投票空間について求められた極大点の投票に参加した複数の計測点を含む計測平面の方位、及び/又は、前記観察点から前記2つの計測時刻のうちの一方の計測時刻における前記計測平面までの最短距離を指標する物理量を求める第4のステップを有するプログラムであってもよい。   Here, the image measurement program storage medium stored in the sixteenth image measurement program storage medium obtains a local maximum point at which the value obtained by voting becomes a local maximum value for each voting space, and stores the local maximum information at the local maximum point. The true movement direction is obtained by selecting a voting space corresponding to the true movement direction relative to the observation point of the measurement point based on the voting space corresponding to the true movement direction. Physical quantity that indicates the orientation of the measurement plane including a plurality of measurement points that participated in the vote of the maximum point and / or the shortest distance from the observation point to the measurement plane at one of the two measurement times It may be a program having a fourth step for obtaining.

また、本発明は画像計測プログラム記憶媒体のうちの、第17の画像計測プログラム記憶媒体は、
所定の計測空間内の所定の2つの観察点から該計測空間内を眺めたときの画像にあらわれた、該計測空間内の任意の計測点の、前記2つの観察点それぞれから観察したときの各計測位置をそれぞれp,p、前記計測点を含み、前記2つの観察点どうしを結ぶ視軸方向vと同一の方向に延びる直線上の無限遠点の位置をpaxis、前記2つの観察点のうちの一方の観察点を含み、前記計測点を含む計測平面と平行に広がる観察平面上の、前記直線との交点の位置をpとしたとき、
前記4つの位置paxis,p,p,pで決まる複比{paxis}あるいは該複比と等価な演算を用いて、前記計測平面の方位、及び/又は、該計測平面と前記2つの観察点のうちの一方の観察点との間の前記視軸方向の距離を指標する物理量を求める画像計測プログラムが記憶されてなることを特徴とする。
In the present invention, the seventeenth image measurement program storage medium of the image measurement program storage medium is:
Each of the arbitrary measurement points in the measurement space, as seen from an image when the measurement space is viewed from two predetermined observation points in the predetermined measurement space, is observed from each of the two observation points. The measurement positions are p R and p L , respectively, and the position of an infinite point on a straight line that includes the measurement points and extends in the same direction as the visual axis direction v connecting the two observation points is represented by p axis . wherein one of the observation points of the point, when on the viewing plane extending parallel to the measurement plane including the measurement point, the position of intersection between the straight line and the p c,
The four positions p axis, using p R, p L, the cross ratio {p axis p R p L p c} or plurality ratio equivalent operations determined by p c, the orientation of the measurement plane, and / or An image measurement program for obtaining a physical quantity indicating a distance in the visual axis direction between the measurement plane and one of the two observation points is stored.

ここで、第17の画像計測プログラム記憶媒体に記憶された画像計測プログラムが実行する、前記複比{paxis}あるいは該複比と等価な演算には、前記計測点の、前記2つの観察点から観察したときの2つの計測位置p,pに代えて、前記計測点の、前記2つの観察点のうちの一方の観察点から観察したときの計測位置pと、前記計測点の、前記2つの観察点から観察したときの2つの計測位置p,pどうしの間の位置の差である両眼視差σとを用いる演算が包含されるものである。 Here, for the calculation performed by the image measurement program stored in the seventeenth image measurement program storage medium, the cross ratio {p axis p R p L p c } or an operation equivalent to the cross ratio, Instead of the two measurement positions p R and p L when observed from the two observation points, the measurement position p R when the measurement point is observed from one of the two observation points. And a calculation using the binocular parallax σ which is a difference in position between the two measurement positions p R and p L when the measurement point is observed from the two observation points. .

上記第17の画像計測プログラム記憶媒体に記憶された画像計測プログラムは、前記計測平面と前記2つの観察点との間の前記視軸方向の距離を指標する物理量として、前記計測平面と前記2つの観察点のうちの一方の観察点との間の前記視軸方向の距離をd、前記2つの観察点どうしの間の距離をΔxLRとしたときの、
=d/ΔxLR
であらわされる規格化距離を採用し、該規格化距離を、
={paxis
の関係式あるいは該関係式と等価な関係式を用いて求めるプログラムであってもよい。
The image measurement program stored in the seventeenth image measurement program storage medium is a physical quantity that indicates a distance in the visual axis direction between the measurement plane and the two observation points. When the distance in the visual axis direction between one of the observation points is d c and the distance between the two observation points is Δx LR ,
n d c = d c / Δx LR
In adopting the normalized distance n d c represented, the normalized distance n d c,
n d c = {p axis p R p L p c }
Or a program obtained using a relational expression equivalent to the relational expression.

また、上記第17の画像計測プログラム記憶媒体に記憶された第17の画像計測プログラムは、
前記計測平面と前記2つの観察点のうちの一方の観察点との間の前記視軸方向の距離を指標する物理量をパラメータとして設定する第1のステップと、
前記第1のステップで設定された、前記計測平面と前記2つの観察点のうちの一方の観察点との間の前記視軸方向の距離を指標する物理量と、前記計測点の、前記2つの観察点から観察したときの各計測位置p,pあるいは、これら2つの計測位置p,pに代わる、該計測点の、前記2つの観察点のうちの一方の観察点から観察したときの計測位置pおよび該計測点の、前記2つの観察点から観察したときの2つの計測位置p,pどうしの間の両眼視差σと、前記無限遠点の位置paxisとから、前記複比{paxis}あるいは該複比と等価な演算を用いて、前記観察平面上の交点の位置pを求める第2のステップと、
前記観察平面上の交点の位置pを極変換することにより前記計測点に対応する極線を求める第3のステップとを有し、
前記計測空間内の複数の計測点について、前記第2のステップと前記第3のステップを、前記パラメータの値を前記第1のステップで順次変更しながら複数回繰り返し、その後、
前記第1から第3までのステップを複数回繰り返す間に求められた複数の極線を極線描画空間に描画したときの極線どうしの交差点を求めることにより、該交差点で交わる複数の極線に対応する複数の計測点を含む計測平面の方位、及び/又は、該計測平面と前記2つの観察点のうちの一方の観察点との間の前記視軸方向の距離を指標する物理量を求める第4ステップを実行するプログラムであってもよく、
この場合に、前記画像上にあらわれた計測点が強度の情報を有するものであって、前記第3のステップが、前記極線を求めるとともに、求められた極線を極線描画空間に描画したときの該極線の軌跡上の各点それぞれに該極線に対応する計測点の強度に対応する値を投票するステップであり、前記第4のステップが、前記交差点を求めることに代わり、前記第1から第3までのステップを複数回繰り返す間の投票による値が極大値となる極大点を求めることにより、該極大点の投票に参加した複数の極線に対応する複数の計測点を含む計測平面の方位、及び/又は、該計測平面と前記2つの観察点のうちの一方の観察点との間の前記視軸方向の距離を指標する物理量を求めるステップであることが好ましく、あるいは、
前記画像上にあらわれた計測点が強度の情報を有するものであって、
前記画像計測プログラムが、前記計測点の、前記2つの観察点から観察したときの2つの計測位置p,pどうしの間の両眼視差σを第2のパラメータとして設定する第5のステップを有するプログラムであって、
前記第2のステップが、前記第1のステップで設定された、前記計測平面と前記2つの観察点のうちの一方の観察点との間の前記視軸方向の距離を指標する物理量と、前記計測点の前記2つの観察点のうちの一方の観察点から観察したときの計測位置pと、前記第5のステップで設定された前記両眼視差σと、前記無限遠点の位置paxisとを用いて、前記観察平面上の交点pを求めるステップであり、
前記第3のステップが、前記計測点に対応する極線を求めるとともに、該計測点の、前記両眼視差σに対応する応答強度を求め、求められた極線を極線描画空間に描画したときの該極線の軌跡上の各点それぞれに、該極線に対応する計測点の、前記両眼視差σに対応する応答強度を投票するステップであって、
前記計測空間内の複数の計測点について、前記第2のステップと前記第3のステップを、前記第1のステップおよび前記第5のステップで各パラメータの各値を変更しながら複数回繰り返し、
その後実行される第4のステップが、前記交差点を求めることに代わり、前記第1、第5、第2および第3のステップを複数回繰り返す間の投票による値が極大値となる極大点を求めることにより、該極大点の投票に参加した複数の極線に対応する複数の計測点を含む計測平面の方位、及び/又は、該計測平面と前記2つの観察点のうちの一方の観察点との間の前記視軸方向の距離を指標する物理量を求めるステップであってもよい。
The seventeenth image measurement program stored in the seventeenth image measurement program storage medium is:
A first step of setting, as a parameter, a physical quantity that indicates a distance in the visual axis direction between the measurement plane and one of the two observation points;
A physical quantity indicating the distance in the visual axis direction between the measurement plane and one of the two observation points set in the first step, and the two measurement points. Each measurement position p R , p L when observed from the observation point, or these measurement points instead of these two measurement positions p R , p L were observed from one of the two observation points a binocular parallax σ between the measurement position p R and the measurement point, the two two measurement positions p R when observed from the observation point, and if p L of the time, the position p axis of the point at infinity from a second step of using the double ratio {p axis p R p L p c} or plurality ratio equivalent calculation to determine the position p c of the intersection on the observation plane,
And a third step of obtaining a polar corresponding to the measurement point by polar transformation the position p c of the intersection on the observation plane,
For a plurality of measurement points in the measurement space, the second step and the third step are repeated a plurality of times while sequentially changing the parameter values in the first step, and then
A plurality of polar lines intersecting at the intersections by obtaining intersections between the polar lines when the plurality of polar lines obtained while repeating the first to third steps a plurality of times are drawn in the polar drawing space. A physical quantity that indicates the orientation of the measurement plane including a plurality of measurement points corresponding to and / or the distance in the visual axis direction between the measurement plane and one of the two observation points is obtained. It may be a program that executes the fourth step,
In this case, the measurement point appearing on the image has intensity information, and the third step obtains the polar line and draws the obtained polar line in the polar drawing space. Voting a value corresponding to the intensity of the measurement point corresponding to the polar line for each point on the trajectory of the polar line, and the fourth step instead of obtaining the intersection, Including a plurality of measurement points corresponding to a plurality of polar lines participating in the voting of the local maximum points by obtaining a local maximum point at which the value by voting becomes a maximum value while repeating the first to third steps a plurality of times Preferably, it is a step of obtaining a physical quantity indicating the orientation of the measurement plane and / or the distance in the visual axis direction between the measurement plane and one of the two observation points, or
Measurement points appearing on the image have intensity information,
A fifth step in which the image measurement program sets binocular parallax σ between two measurement positions p R and p L when the measurement point is observed from the two observation points as a second parameter. A program having
The second step is a physical quantity that indicates the distance in the visual axis direction between the measurement plane and one of the two observation points set in the first step; The measurement position p R when observed from one of the two observation points of the measurement point, the binocular parallax σ set in the fifth step, and the position p axis of the infinity point with bets, a step of obtaining an intersection p c on the observation plane,
The third step obtains a polar line corresponding to the measurement point, obtains a response intensity corresponding to the binocular parallax σ of the measurement point, and draws the obtained polar line in the polar drawing space Voting a response intensity corresponding to the binocular parallax σ of a measurement point corresponding to the polar line for each point on the trajectory of the polar line when
For a plurality of measurement points in the measurement space, the second step and the third step are repeated a plurality of times while changing each value of each parameter in the first step and the fifth step,
The fourth step executed thereafter obtains the maximum point where the value obtained by voting becomes the maximum value while repeating the first, fifth, second and third steps a plurality of times instead of obtaining the intersection. Thus, the orientation of the measurement plane including a plurality of measurement points corresponding to the plurality of polar lines participating in the vote of the local maximum point, and / or one observation point of the measurement plane and the two observation points It may be a step of obtaining a physical quantity indicating the distance in the visual axis direction between the two.

また、上記第17の画像計測プログラム記憶媒体に記憶された画像計測プログラムは、前記視軸方向vを第1のパラメータとして設定することにより前記無限遠点の位置paxisを設定する第1のステップと、
前記計測平面と前記2つの観察点のうちの一方の観察点との間の前記視軸方向の距離を指標する物理量を第2のパラメータとして設定する第2のステップと、
前記第1のステップで設定された位置paxisと、前記第2のステップで設定された、前記視軸方向の距離を指標する物理量と、前記計測点の前記2つの観察点それぞれから観察したときの各計測位置p,pあるいは、これら2つの計測位置p,pに代わる、該計測点の、前記2つの観察点のうちの一方の観察点から観察したときの計測位置pおよび該計測点の、前記2つの観察点から観察したときの2つの計測位置p,pどうしの間の両眼視差σとから、前記複比{paxis}あるいは該複比と等価な演算を用いて、該計測点の前記観察平面上の交点の位置pを求める第3のステップと、
前記計測点の、前記観察平面上の交点の位置pを極変換することにより該計測点に対応する極線を求める第4のステップとを有し、
前記計測空間内の複数の計測点について、前記第1から第4までのステップのうちの前記第3のステップと前記第4のステップを、前記第1のパラメータおよび前記第2のパラメータの各値をそれぞれ前記第1のステップおよび前記第2のステップで変更しながら複数回繰り返し、その後、
前記第1から第4までのステップを複数回繰り返す間に求められた複数の極線を前記第1のパラメータの値に応じた複数の極線描画空間のうちのそれぞれ対応する極線描画空間に描画したときの極線どうしの交差点を各極線描画空間ごとに求め該交差点で交わる極線の本数の情報に基づいて真の視軸方向に対応する極線描画空間を選択することにより該真の視軸方向を求めるとともに、該真の視軸方向に対応する極線描画空間について求められた交差点で交わる複数の極線に対応する複数の計測点を含む計測平面の方位n、及び/又は、該計測平面と前記観察点と前記2つの観察点のうちの一方の観察点との間の前記視軸方向の距離を指標する物理量を求める第5ステップを実行するプログラムであってもよく、
この場合に、前記画像上にあらわれた計測点が強度の情報を有するものであって、前記第4のステップが、前記極線を求めるとともに、求められた極線を該極線に対応する極線描画空間に描画したときの該極線の軌跡上の各点それぞれに該極線に対応する計測点の強度に対応する値を投票するステップであり、前記第5のステップが、前記交差点を求めることに代わり、前記第1から第4までのステップを複数回繰り返す間の投票による値が極大値となる極大点を各極線描画空間ごとに求め該極大点における極大値の情報に基づいて前記真の視軸方向に対応する極線描画空間を選択することにより該真の視軸方向を求めるとともに、該真の視軸方向に対応する極線描画空間について求められた極大点の投票に参加した複数の極線に対応する複数の計測点を含む計測平面の方位、及び/又は、該計測平面と前記2つの観察点のうちの一方の観察点との間の前記視軸方向の距離を指標する物理量を求めるステップであることが好ましく、あるいは、
前記画像上にあらわれた計測点が強度の情報を有するものであって、
前記画像計測プログラムが、前記計測点の、前記2つの観察点から観察したときの2つの計測位置p,pどうしの間の両眼視差σを第3のパラメータとして設定する第6のステップを有するプログラムであって、
前記第3のステップが、前記第1のステップで設定された位置paxisと、前記第2のステップで設定された、前記計測平面と前記2つの観察点のうちの一方の観察点との間の前記視軸方向の距離を指標する物理量と、前記計測点の前記2つの観察点のうちの一方の観察点から観察したときの計測位置pと、前記第5のステップで設定された前記両眼視差σとを用いて、前記観察平面上の交点pを求めるステップであり、
前記第4のステップが、前記計測点に対応する極線を求めるとともに、該計測点の、前記両眼視差σに対応する応答強度を求め、求められた極線を極線描画空間に描画したときの該極線の軌跡上の各点それぞれに、該極線に対応する計測点の、前記両眼視差σに対応する応答強度を投票するステップであって、
前記計測空間内の複数の計測点について、前記第3のステップと前記第4のステップを、前記第1のステップ、前記第2のステップおよび前記第6のステップで各パラメータの各値を変更しながら複数回繰り返し、
その後実行される第5のステップが、前記交差点を求めることに代わり、前記第1、第2、第6、第3および第4のステップを複数回繰り返す間の投票による値が極大値となる極大点を各極線描画空間ごとに求め該極大点における極大値の情報に基づいて前記真の視軸方向に対応する極線描画空間を選択することにより該真の視軸方向を求めるとともに、該真の視軸方向に対応する極線描画空間について求められた極大点の投票に参加した複数の極線に対応する複数の計測点を含む計測平面の方位、及び/又は、該計測平面と前記2つの観察点のうちの一方の観察点との間の前記視軸方向の距離を指標する物理量を求めるステップであってもよい。
The image measurement program stored in the seventeenth image measurement program storage medium is a first step of setting the infinity point position p axis by setting the visual axis direction v as a first parameter. When,
A second step of setting, as a second parameter, a physical quantity that indicates a distance in the visual axis direction between the measurement plane and one of the two observation points;
When observing from the position p axis set in the first step, the physical quantity indexed in the visual axis direction set in the second step, and the two observation points of the measurement point each measurement position p R of, p L or the two measuring positions p R, replaces the p L, of the measurement point, the measurement position when observed from one of the observation point of said two observation point p R And the binocular parallax σ between the two measurement positions p R and p L when the measurement points are observed from the two observation points, or the cross ratio {p axis p R p L p c } or using said plurality ratio equivalent operation, a third step of determining the position p c of the intersection on the observation plane of the measurement point,
The measurement point, and a fourth step of obtaining a polar corresponding to the measurement point by polar transformation the position p c of the intersection on the observation plane,
For the plurality of measurement points in the measurement space, the third step and the fourth step of the first to fourth steps are changed to values of the first parameter and the second parameter, respectively. Are repeated several times while changing in the first step and the second step, respectively,
A plurality of polar lines obtained while repeating the first to fourth steps a plurality of times are respectively converted into corresponding polar line drawing spaces among a plurality of polar line drawing spaces according to the value of the first parameter. An intersection between polar lines at the time of drawing is obtained for each polar drawing space, and the true line drawing space corresponding to the true visual axis direction is selected based on information on the number of polar lines intersecting at the intersection. Azimuth n s of a measurement plane including a plurality of measurement points corresponding to a plurality of polar lines intersecting at the intersection obtained for the polar drawing space corresponding to the true visual axis direction, and / or Alternatively, the program may execute a fifth step of obtaining a physical quantity that indicates a distance in the visual axis direction between the measurement plane, the observation point, and one of the two observation points. ,
In this case, the measurement point appearing on the image has intensity information, and the fourth step obtains the polar line, and the obtained polar line corresponds to the polar line. Voting a value corresponding to the intensity of the measurement point corresponding to the polar line for each point on the trajectory of the polar line when drawn in the line drawing space, and the fifth step is a step of voting the intersection. Instead of obtaining the maximum point where the value obtained by voting during the repetition of the first to fourth steps a plurality of times is determined for each polar drawing space, and based on the information on the maximum value at the maximum point. The true visual axis direction is obtained by selecting the polar drawing space corresponding to the true visual axis direction, and the maximum point obtained for the polar drawing space corresponding to the true visual axis direction is voted Duplicate corresponding to multiple participating polar lines A physical quantity indicating the orientation of the measurement plane including the measurement point and / or the distance in the visual axis direction between the measurement plane and one of the two observation points. Is preferred, or
Measurement points appearing on the image have intensity information,
Sixth step in which the image measurement program sets binocular parallax σ between two measurement positions p R and p L when the measurement point is observed from the two observation points as a third parameter. A program having
The third step is between the position paxis set in the first step and the measurement plane and one of the two observation points set in the second step. A physical quantity indicating the distance in the visual axis direction, a measurement position p R when observed from one of the two observation points of the measurement point, and the measurement step p R set in the fifth step by using the binocular parallax sigma, a step of obtaining an intersection p c on the observation plane,
In the fourth step, a polar line corresponding to the measurement point is obtained, a response intensity corresponding to the binocular parallax σ of the measurement point is obtained, and the obtained polar line is drawn in the polar drawing space. Voting a response intensity corresponding to the binocular parallax σ of a measurement point corresponding to the polar line for each point on the trajectory of the polar line when
For each of a plurality of measurement points in the measurement space, the third step and the fourth step are changed, and the values of the parameters are changed in the first step, the second step, and the sixth step. While repeating several times,
The fifth step executed thereafter is not the determination of the intersection, but the maximum value obtained by voting while repeating the first, second, sixth, third and fourth steps a plurality of times. A point is obtained for each polar drawing space, and the true visual axis direction is obtained by selecting a polar drawing space corresponding to the true visual axis direction based on the local maximum information at the local maximum point, and The orientation of the measurement plane including a plurality of measurement points corresponding to a plurality of polar lines participating in the voting of the maximum points obtained for the polar drawing space corresponding to the true visual axis direction, and / or the measurement plane and the aforementioned It may be a step of obtaining a physical quantity indicating the distance in the visual axis direction between one of the two observation points.

また、本発明の画像計測プログラム記憶媒体のうちの第18の画像計測プログラム記憶媒体は、
所定の計測空間内の所定の2つの観察点から該計測空間内を眺めたときの画像にあらわれた、該計測空間内の任意の計測点の、前記2つの観察点それぞれから観察したときの各計測位置をそれぞれp,p、前記2つの観察点どうしを結ぶ視軸方向をv、前記計測点を含み、前記視軸方向vと同一方向に延びる直線上の無限遠点の位置をpaxis、前記2つの観察点のうちの一方の観察点を含み、前記計測点を含む計測平面と平行に広がる観察平面上の、前記直線との交点の位置をp、前記計測平面の方位をnとしたとき、
前記4つの位置paxis,p,p,pで決まる複比{paxis}あるいは該複比と等価な演算と、前記計測平面の方位nと前記視軸の方向vとの内積(n・v)とを用いて、前記計測平面の方位n、及び/又は、該計測平面と前記2つの観察点のうちの一方の観察点との間の最短距離を指標する物理量を求める画像計測プログラムが記憶されてなることを特徴とする。
The 18th image measurement program storage medium of the image measurement program storage medium of the present invention is:
Each of the arbitrary measurement points in the measurement space, as seen from an image when the measurement space is viewed from the two predetermined observation points in the predetermined measurement space, is observed from each of the two observation points. The measurement positions are p R and p L , the visual axis direction connecting the two observation points is v, and the position of an infinite point on a straight line that includes the measurement points and extends in the same direction as the visual axis direction v is p. axis , the position of the intersection with the straight line on the observation plane including one observation point of the two observation points and extending in parallel with the measurement plane including the measurement point, p c , and the orientation of the measurement plane where n s
The four positions p axis, p R, p L , cross ratios determined by p c {p axis p R p L p c} or plurality ratio equivalent operations and the visual axis and the orientation n s of the measurement plane by using the inner product of the direction v of the (n s · v), the azimuth n s measurement plane, and / or the shortest between one observation point of the said measurement plane the two observation points An image measurement program for obtaining a physical quantity indicating the distance is stored.

ここで、上記第18の画像計測プログラムに記憶された画像計測プログラムが実行する、前記複比{paxis}あるいは該複比と等価な演算には、前記計測点の、前記2つの観察点から観察したときの2つの計測位置p,pに代えて、前記計測点の、前記2つの観察点のうちの一方の観察点から観察したときの計測位置pと、前記計測点の、前記2つの観察点から観察したときの2つの計測位置p,pどうしの間の位置の差である両眼視差σとを用いる演算が包含されるものである。 Here, the 18th image measuring program stored image measuring program is executed, the compound ratio {p axis p R p L p c} or plurality ratio equivalent operations, the measurement points, Instead of the two measurement positions p R and p L when observed from the two observation points, the measurement position p R when the measurement point is observed from one of the two observation points and The calculation includes using the binocular parallax σ which is the difference in position between the two measurement positions p R and p L when the measurement point is observed from the two observation points.

上記第18の画像計測プログラム記憶媒体に記憶された画像計測プログラムは、前記最短距離を指標とする物理量として、前記計測平面と前記2つの観察点のうちの一方の観察点との間の最短距離をd、前記計測平面と前記2つの観察点のうちの一方の観察点との間の前記視軸方向の距離をd、前記2つの観察点どうしの間の距離をΔxLRとしたときの、
=d/ΔxLR
であらわされる規格化最短距離を採用し、該規格化最短距離を、
=d/ΔxLR
であらわされる規格化距離と前記内積(n・v)とを用いた、
(n・v)
の関係式を用いて求めるプログラムであってもよい。
The image measurement program stored in the eighteenth image measurement program storage medium uses the shortest distance between the measurement plane and one of the two observation points as a physical quantity with the shortest distance as an index. D s , the distance in the visual axis direction between the measurement plane and one of the two observation points is d c , and the distance between the two observation points is Δx LR of,
n d s = d s / Δx LR
The standardized shortest distance n d s expressed by the following formula is adopted, and the standardized shortest distance n d s
n d c = d c / Δx LR
Using the normalized distance n d c expressed by the above and the inner product (n s · v),
n d s = n d c (n s · v)
It may be a program obtained using the relational expression.

上記第18の画像計測プログラム記憶媒体に記憶された画像計測プログラムは、
前記最短距離を指標する物理量を第1のパラメータとして設定する第1のステップと、
前記内積(n・v)を第2のパラメータとして設定する第2のステップと、
前記第1のステップで設定された前記最短距離を指標する物理量と、前記第2のステップで設定された内積(n・v)と、前記計測点の前記2つの観察点それぞれから観察したときの各計測位置p,pあるいは、これら2つの計測位置p,pに代わる、該計測点の、前記2つの観察点のうちの一方の観察点から観察したときの計測位置pおよび該計測点の、前記2つの観察点から観察したときの2つの計測位置p,pどうしの間の両眼視差σと、前記無限遠点の位置paxisとから、前記複比{paxis}あるいは該複比と等価な演算を用いて、前記観察平面上の交点の位置pを求める第3のステップと、
前記観察平面上の交点の位置pを極変換することにより該位置pに対応する極線を求める第4のステップと、
前記極線上の点であって、かつ前記視軸の方向vと角度
r=cos−1(n・v)
を成す点を求める第5のステップとを有し、
前記計測空間内の複数の計測点について、前記第1から第5のステップのうちの前記第3から第5までのステップを、前記第1のパラメータおよび前記第2のパラメータの各値をそれぞれ前記第1のステップおよび前記第2のステップで変更しながら複数回繰り返すことにより、前記第5のステップの、1つの計測点に関する、前記第1のパラメータの値が同一であって、かつ前記第2のパラメータの値がそれぞれ異なる複数回の実行により求められる複数の点を結ぶ曲線を、前記第1のパラメータの各値ごとに前記複数の計測点について求め、その後、
前記第1から第5のステップを複数回繰り返す間に求められた複数の曲線を曲線描画空間に描画したときの曲線どうしの交差点を求めることにより、該交差点で交わる複数の曲線に対応する複数の計測点を含む計測平面の方位n、及び/又は、該計測平面と前記2つの観察点のうちの一方の観察点との間の最短距離を指標する物理量を求める第6のステップを実行するプログラムであってもよく、
その場合に、前記画像上にあらわれた計測点が強度の情報を有するものであって、前記第5のステップが、前記点を求めるとともに、該点に対応する計測点の強度に対応する値を該点に対応する、前記曲線描画空間内の点に投票するステップであり、前記第6のステップが、前記交差点を求めることに代わり、前記第1から第5までのステップを複数回繰り返す間の投票による値が極大値となる極大点を求めることにより、該極大点の投票に参加した複数の曲線に対応する複数の計測点を含む計測平面の方位n、及び/又は、該計測平面と前記2つの観察点のうちの一方の観察点との間の最短距離を指標する物理量を求めるステップであることが好ましく、あるいは、
前記画像上にあらわれた計測点が強度の情報を有するものであって、
前記画像計測プログラムが、前記計測点の、前記2つの観察点から観察したときの2つの計測位置p,pどうしの間の両眼視差σを第3のパラメータとして設定する第7のステップを有するプログラムであって、
前記第3のステップが、前記第1のステップで設定された、前記最短距離を指標する物理量と、前記第2のステップで設定された内積(n・v)と、前記計測点の、前記2つの観察点のうちの一方の観察点から観察したときの計測位置pと、前記第7のステップで設定された前記両眼視差σと、前記無限遠点の位置paxisとを用いて、前記観察平面上の交点の位置pを求めるステップであり、
前記第5のステップが、前記計測点に対応する極線上の前記点を求めるとともに、該計測点の、前記両眼視差σに対応する応答強度を求め、該極線上の前記点に対応する計測点の、前記両眼視差σに対応する応答強度を、該極線上の前記点に対応する、前記曲線描画空間内の点に投票するステップであって、
前記計測空間内の複数の計測点について、前記第3から第5までのステップを、前記第1、第2、および第7のステップで各パラメータの各値を変更しながら複数回繰り返し、その後実行される前記第6のステップが、前記交差点を求めることに代わり、前記第1、第2、第7および前記第3から第5までのステップを複数回繰り返す間の投票による値が極大値となる極大点を求めることにより、該極大点の投票に参加した複数の曲線に対応する複数の計測点を含む計測平面の方位n、及び/又は、該計測平面と前記2つの観察点のうちの一方の観察点との間の最短距離を指標する物理量を求めるステップであることも好ましい態様である。
The image measurement program stored in the eighteenth image measurement program storage medium is:
A first step of setting a physical quantity indicating the shortest distance as a first parameter;
A second step of setting the inner product ( ns / v) as a second parameter;
When observing from each of the two observation points of the measurement point, the physical quantity indicating the shortest distance set in the first step, the inner product ( ns / v) set in the second step each measurement position p R of, p L or the two measuring positions p R, replaces the p L, of the measurement point, the measurement position when observed from one of the observation point of said two observation point p R And the binocular parallax σ between the two measurement positions p R and p L when observed from the two observation points and the position p axis of the infinity point of the measurement point. with p axis p R p L p c } or plurality ratio equivalent operation, a third step of determining the position p c of the intersection on the observation plane,
A fourth step of obtaining the polar corresponding to the position p c by polar transformation the position p c of the intersection on the observation plane,
The point on the polar line, and the direction v and angle of the visual axis r = cos −1 (n s · v)
And a fifth step for obtaining a point comprising
For a plurality of measurement points in the measurement space, the third to fifth steps of the first to fifth steps are set as the respective values of the first parameter and the second parameter. By repeating a plurality of times while changing in the first step and the second step, the value of the first parameter relating to one measurement point in the fifth step is the same, and the second step A curve connecting a plurality of points obtained by a plurality of executions with different values of the parameter is obtained for each of the plurality of measurement points for each value of the first parameter;
A plurality of curves corresponding to a plurality of curves intersecting at the intersection are obtained by obtaining intersections between the curves when the plurality of curves obtained while repeating the first to fifth steps a plurality of times are drawn in the curve drawing space. A sixth step of obtaining a physical quantity indicating the orientation n s of the measurement plane including the measurement point and / or the shortest distance between the measurement plane and one of the two observation points is executed. It can be a program,
In that case, the measurement point appearing on the image has intensity information, and the fifth step obtains the point and sets a value corresponding to the intensity of the measurement point corresponding to the point. Voting for a point in the curve drawing space corresponding to the point, wherein the sixth step repeats the first to fifth steps a plurality of times instead of obtaining the intersection by obtaining the maximum point value by vote becomes the maximum value, azimuth n s measurement plane including a plurality of measurement points corresponding to a plurality of curves participated in the vote of ultra large point, and / or, and the measurement plane Preferably, it is a step of obtaining a physical quantity that indicates the shortest distance between one of the two observation points, or
Measurement points appearing on the image have intensity information,
A seventh step in which the image measurement program sets binocular parallax σ between two measurement positions p R and p L when the measurement point is observed from the two observation points as a third parameter. A program having
In the third step, the physical quantity indexed in the shortest distance set in the first step, the inner product ( ns / v) set in the second step, and the measurement point, Using the measurement position p R when observing from one of the two observation points, the binocular parallax σ set in the seventh step, and the position p axis of the infinity point a step of determining the position p c of the intersection on the observation plane,
The fifth step obtains the point on the polar line corresponding to the measurement point, obtains the response intensity of the measurement point corresponding to the binocular parallax σ, and measures the point corresponding to the point on the polar line Voting a response intensity of a point corresponding to the binocular disparity σ to a point in the curve drawing space corresponding to the point on the polar line,
Steps 3 to 5 are repeated a plurality of times while changing each value of each parameter in the first, second and seventh steps for a plurality of measurement points in the measurement space, and then executed. Instead of obtaining the intersection, the sixth step is a value obtained by voting while repeating the first, second, seventh and third to fifth steps a plurality of times. By determining the local maximum point, the orientation n s of the measurement plane including a plurality of measurement points corresponding to the plurality of curves that participated in the vote of the local maximum point, and / or the measurement plane and the two observation points It is also a preferred aspect that it is a step of obtaining a physical quantity that indicates the shortest distance between one observation point.

また、上記第18の画像計測プログラム記憶媒体に記憶された画像計測プログラムは、
前記視軸の方向vを第1のパラメータとして設定することにより前記無限遠点の位置paxisを設定する第1のステップと、
前記最短距離を指標する物理量を第2のパラメータとして設定する第2のステップと、
前記内積(n・v)を第3のパラメータとして設定する第3のステップと、
前記第1のステップで設定された、前記無限遠点の位置paxisと、前記第2のステップで設定された、前記最短距離を指標する物理量と、前記第3のステップで設定された内積(n・v)と、前記計測点の前記2つの観察点それぞれから観察したときの各計測位置p,pあるいは、これら2つの計測位置p,pに代わる、該計測点の、前記2つの観察点のうちの一方の観察点から観察したときの計測位置pおよび該計測点の、前記2つの観察点から観察したときの2つの計測位置p,pどうしの間の両眼視差σとから、前記複比{paxis}あるいは該複比と等価な演算を用いて、前記観察平面上の交点の位置pを求める第4のステップと、
前記観察平面上の交点の位置pを極変換することにより該位置pに対応する極線を求める第5のステップと、
前記極線上の点であって、かつ前記視軸の方向vと角度
r=cos−1(n・v)
を成す点を求める第6のステップとを有し、
前記計測空間内の複数の計測点について、前記第1から第6のステップのうちの前記第4から第6までのステップを、前記第1から第3までのパラメータの各値を、それぞれ前記第1から第3までの各ステップで変更しながら複数回繰り返すことにより、前記第6のステップの、1つの計測点に関する、前記第1のパラメータの値が同一であるとともに前記第2のパラメータの値が同一であって、かつ前記第3のパラメータの値がそれぞれ異なる複数回の実行により求められる複数の点を結ぶ曲線を、前記第1のパラメータの各値と前記第2のパラメータの各値との各組合せごとに前記複数の計測点について求め、その後、
前記第1から第6までのステップを複数回繰り返す間に求められた複数の曲線を前記第1のパラメータの値に応じた複数の曲線描画空間のうちのそれぞれ対応する曲線描画空間に描画したときの曲線どうしの交差点を各曲線描画空間ごとに求め該交差点で交わる曲線の本数の情報に基づいて真の視軸方向に対応する曲線描画空間を選択することにより該真の視軸方向を求めるとともに、該真の視軸方向に対応する曲線描画空間について求められた交差点で交わる複数の曲線に対応する複数の計測点を含む計測平面の方位n、及び/又は、該計測平面と前記2つの観察点のうちの一方の観察点との間の最短距離を指標する物理量を求める第7のステップを実行するプログラムであってもよく、
この場合に、前記画像上にあらわれた計測点が強度の情報を有するものであって、前記第6のステップが、前記点を求めるとともに、該点に対応する計測点の強度に対応する値を該点に対応する、該点を含む曲線が描かれる曲線描画空間内の点に投票するステップであり、前記第7のステップが、前記交差点を求めることに代わり、前記第1から第6までのステップを複数回繰り返す間の投票による値が極大値となる極大点対応する、該点を含む曲線が描かれる曲線描画空間内の点に極大点の投票に参加した複数の曲線に対応する複数の計測点を含む計測平面の方位n、及び/又は、該計測平面と前記2つの観察点のうちの一方の観察点との間の最短距離を指標する物理量を求めるステップであることが好ましく、あるいは、
前記画像上にあらわれた計測点が強度の情報を有するものであって、
前記画像計測プログラムが、前記計測点の、前記2つの観察点から観察したときの2つの計測位置p,pどうしの間の両眼視差σを第4のパラメータとして設定する第8のステップを有するプログラムであって、
前記第4のステップが、前記第1のステップで設定された、前記無限遠点の位置paxisと、前記第2のステップで設定された、前記最短距離を指標する物理量と、前記第3のステップで設定された内積(n・v)と、前記計測点の、前記2つの観察点のうちの一方の観察点から観察したときの計測位置pと、前記第8のステップで設定された前記両眼視差σとを用いて、前記観察平面上の交点の位置pを求めるステップであり、
前記第6のステップが、前記計測点に対応する極線上の前記点を求めるとともに、該計測点の、前記両眼視差σに対応する応答強度を求め、該極線上の前記点に対応する計測点の、前記両眼視差σに対応する応答強度を、該極線上の前記点に対応する、前記曲線描画空間内の点に投票するステップであって、
前記計測空間内の複数の計測点について、前記第4から第6までのステップを、前記第1、第2、第3および第8のステップで各パラメータの各値を変更しながら複数回繰り返し、その後実行される前記第7のステップが、前記交差点を求めることに代わり、前記第1、第2、第3、第8および前記第4から第6までのステップを複数回繰り返す間の投票による値が極大値となる極大点を各曲線描画空間ごとに求め該極大点における極大値の情報に基づいて前記真の視軸方向に対応する曲線描画空間を選択することにより該真の視軸方向を求めるとともに、該真の視軸方向に対応する曲線描画空間について求められた極大点の投票に参加した複数の曲線に対応する複数の計測点を含む計測平面の方位n、及び/又は、該計測平面と前記2つの観察点のうちの一方の観察点との間の最短距離を指標する物理量を求めるステップであることも好ましい態様である。
The image measurement program stored in the eighteenth image measurement program storage medium is:
A first step of setting the position p axis of the infinity point by setting the direction v of the visual axis as a first parameter;
A second step of setting a physical quantity indicative of the shortest distance as a second parameter;
A third step of setting the inner product ( ns / v) as a third parameter;
The position p axis of the infinity point set in the first step, the physical quantity indicating the shortest distance set in the second step, and the inner product set in the third step ( n s · v) and each of the measurement points p R and p L when observed from each of the two observation points of the measurement point, or the measurement points instead of these two measurement positions p R and p L , The measurement position p R when observed from one of the two observation points and the two measurement positions p R and p L when observed from the two observation points. and a binocular parallax sigma, a fourth step of using the double ratio {p axis p R p L p c} or plurality ratio equivalent calculation to determine the position p c of the intersection on the observation plane,
A fifth step of obtaining a polar corresponding to the position p c by polar transformation the position p c of the intersection on the observation plane,
The point on the polar line, and the direction v and angle of the visual axis r = cos −1 (n s · v)
And a sixth step for obtaining a point comprising
For the plurality of measurement points in the measurement space, the fourth to sixth steps of the first to sixth steps, the respective values of the first to third parameters, respectively, By repeating a plurality of times while changing in each step from 1 to 3, the value of the first parameter and the value of the second parameter are the same for one measurement point in the sixth step. Are the same, and a curve connecting a plurality of points obtained by a plurality of executions with different values of the third parameter is represented by each value of the first parameter and each value of the second parameter. For each of the combinations, the plurality of measurement points is obtained, and then
When a plurality of curves obtained while repeating the first to sixth steps a plurality of times are drawn in the corresponding curve drawing spaces among the plurality of curve drawing spaces according to the value of the first parameter. Obtaining the true visual axis direction by selecting the curve drawing space corresponding to the true visual axis direction based on the information on the number of curves intersecting at the intersection. Azimuth n s of the measurement plane including a plurality of measurement points corresponding to a plurality of curves intersecting at the intersection obtained with respect to the curve drawing space corresponding to the true visual axis direction, and / or the measurement plane and the two The program may execute a seventh step for obtaining a physical quantity that indicates the shortest distance between one of the observation points.
In this case, the measurement point appearing on the image has intensity information, and the sixth step obtains the point and sets a value corresponding to the intensity of the measurement point corresponding to the point. Voting for a point in the curve drawing space corresponding to the point in which a curve including the point is drawn, wherein the seventh step is to replace the first to sixth in place of obtaining the intersection A plurality of points corresponding to a plurality of curves that participated in the voting of local maximum points corresponding to a local maximum point corresponding to a local maximum point at which the value obtained by voting during the step is repeated a plurality of times is drawn orientation n s measurement plane including a measurement point, and / or is preferably a step of obtaining a physical quantity that indicates the shortest distance between one of the observation points of the with the measuring plane two observation points, Or
Measurement points appearing on the image have intensity information,
An eighth step in which the image measurement program sets, as a fourth parameter, binocular parallax σ between the two measurement positions p R and p L when the measurement point is observed from the two observation points; A program having
The fourth step includes the position p axis of the infinity point set in the first step, the physical quantity indicating the shortest distance set in the second step, and the third step. The inner product ( ns · v) set in step, the measurement position p R when the measurement point is observed from one of the two observation points, and the eighth step. wherein by using the binocular parallax σ was a step of determining a position p c of the intersection on the observation plane,
The sixth step obtains the point on the polar line corresponding to the measurement point, obtains the response intensity of the measurement point corresponding to the binocular parallax σ, and measures the point corresponding to the point on the polar line Voting a response intensity of a point corresponding to the binocular disparity σ to a point in the curve drawing space corresponding to the point on the polar line,
For a plurality of measurement points in the measurement space, the steps from the fourth to the sixth are repeated a plurality of times while changing each value of each parameter in the first, second, third and eighth steps, The value obtained by voting during the repetition of the first, second, third, eighth, and fourth to sixth steps a plurality of times, instead of the seventh step executed thereafter obtaining the intersection. Is determined for each curve drawing space by selecting a curve drawing space corresponding to the true visual axis direction based on information on the maximum value at the local maximum point. And azimuth n s of a measurement plane including a plurality of measurement points corresponding to a plurality of curves that participated in the voting of the maximum points obtained for the curve drawing space corresponding to the true visual axis direction, and / or Measurement plane and 2 It is also a preferred embodiment is a step of obtaining a physical quantity that indicates the shortest distance between one point of observation of the observation point.

また、本発明の画像計測プログラム記憶媒体のうちの第19の画像計測プログラム記憶媒体は、
所定の計測空間内の所定の2つの観察点から該計測空間内を眺めたときの画像にあらわれた、該計測空間内の任意の計測点の、前記2つの観察点それぞれから観察したときの各計測位置をそれぞれp,p、前記2つの観察点どうしを結ぶ視軸方向をv、前記計測点を含み、前記2つの視軸と同一方向に延びる直線上の無限遠点の位置をpaxisとしたとき、
前記3つの位置paxis,p,pで決まる単比(paxis)あるいは該単比と等価な演算を用いて、前記計測平面の方位、及び/又は、該計測平面と前記2つの観察点のうちの一方の観察点との間の最短距離を指標する物理量を求める画像計測プログラムが記憶されてなることを特徴とする。
The 19th image measurement program storage medium of the image measurement program storage medium of the present invention is:
Each of the arbitrary measurement points in the measurement space, as seen from an image when the measurement space is viewed from the two predetermined observation points in the predetermined measurement space, is observed from each of the two observation points. The measurement positions are p R and p L , the visual axis direction connecting the two observation points is v, and the position of the infinity point on the straight line including the measurement points and extending in the same direction as the two visual axes is p. When it is axis ,
Using a single ratio determined by the three positions p axis , p R , and p L (p axis p R p L ) or an operation equivalent to the single ratio, the orientation of the measurement plane and / or the measurement plane An image measurement program for obtaining a physical quantity that indicates the shortest distance between one of the two observation points is stored.

ここで、上記第19の画像計測プログラム記憶された画像計測プログラムが実行する、前記単比(paxis)あるいは該単比と等価な演算には、前記計測点の、前記2つの観察点から観察したときの2つの計測位置p,pに代えて、前記計測点の、前記2つの観察点のうちの一方の観察点から観察したときの計測位置pと、前記計測点の、前記2つの観察点から観察したときの2つの計測位置p,pどうしの間の位置の差である両眼視差σとを用いる演算が包含されるものである。 Here, for the calculation executed by the image measurement program stored in the nineteenth image measurement program, the single ratio (p axis p R p L ) or the equivalent of the single ratio, the two measurement points may be Instead of the two measurement positions p R and p L when observed from the observation point, the measurement position p R when the measurement point is observed from one of the two observation points and the measurement The calculation includes the binocular parallax σ which is the difference in position between the two measurement positions p R and p L when the point is observed from the two observation points.

上記第19の画像計測プログラム記憶媒体に格納された画像計測プログラムは、前記各位置paxis,p,pとして球面上に写影された各位置を採用すると共に、前記最短距離を指標する物理量として、前記計測平面と前記2つの観察点のうちの一方の観察点との間の最短距離をd、2つの観察点どうしの間の距離をΔxLRとしたときの、
=d/ΔxLR
であらわされる規格化最短距離を採用し、
前記規格化最短距離をパラメータとして設定する第1のステップと、
前記第1のステップで設定された規格化最短距離と、単比(paxis)あるいは該単比と等価な演算とを用いて、
R=cos−1/(paxis))
なる関係式あるいは該関係式と等価な関係式で規定される半径Rをを求める第2のステップと、
前記2つの観察点のうちの一方の観察点から観察したときの前記計測点の計測位置を中心とした半径Rの小円を求める第3のステップとを有し、
前記計測空間内の複数の計測点について、前記第2のステップと前記第3のステップを、前記パラメータを前記第1のステップで変更しながら複数回繰り返し、その後、
前記第1から第3までのステップを複数回繰り返す間に求められた複数の小円を小円描画空間に描画したときの小円どうしの交差点を求めることにより、該交差点で交わる複数の小円に対応する複数の計測点を含む計測平面の方位nso、及び/又は、該計測平面についての規格化最短距離s0を求める第4ステップを実行するプログラムであってもよく、
この場合に、前記画像上にあらわれた計測点が強度の情報を有するものであって、前記第3のステップが、前記小円を求めるとともに、求められた小円を小円描画空間に描画したときの該小円の軌跡上の各点それぞれに該小円に対応する計測点の強度に対応する値を投票するステップであり、前記第4のステップが、前記交差点を求めることに代わり、前記第1から第3までのステップを複数回繰り返す間の投票による値が極大値となる極大点を求めることにより、該極大点の投票に参加した複数の小円に対応する複数の計測点を含む計測平面の方位nso、及び/又は、該計測平面についての規格化最短距離s0を求めるステップであることが好ましく、あるいは、
前記画像上にあらわれた計測点が強度の情報を有するものであって、
前記画像計測プログラムが、前記計測点の前記2つの観察点から観察したときの2つの計測位置p,pどうしの間の両眼視差σを第2のパラメータとして設定する第5のステップを有するプログラムであって、
前記第2のステップが、前記第1のステップで設定された規格化最短距離と、前記無限遠点の位置paxisと、該計測点の、前記2つの観察点のうちの一方の観察点から観察したときの計測位置pと、前記第5のステップで設定された前記両眼視差σとを用いて、前記半径Rを求めるステップであり、
前記第3のステップが、前記計測点に対応する前記小円を求めるとともに、該計測点の、前記両眼視差σに対応する応答強度を求め、求められた小円を小円描画空間に描画したときの該小円の軌跡上の各点それぞれに該小円に対応する計測点の、前記両眼視差に対応する応答強度を投票するステップであり、
前記計測空間内の複数の計測点について、前記第2のステップと前記第3のステップを、前記第1のステップおよび前記第5のステップで各パラメータの各値を変更しながら複数回繰り返し、
その後実行される前記第4のステップが、前記交差点を求めることに代わり、前記第1、第5、第2および第3のステップを複数回繰り返す間の投票による値が極大値となる極大点を求めることにより、該極大点の投票に参加した複数の小円に対応する複数の計測点を含む計測平面の方位nso、及び/又は、該計測平面についての規格化最短距離s0を求めるステップであることも好ましい態様である。
The image measurement program stored in the nineteenth image measurement program storage medium adopts each position projected on a spherical surface as each position p axis , p R , p L and indicates the shortest distance. As a physical quantity, when the shortest distance between the measurement plane and one of the two observation points is d s and the distance between the two observation points is Δx LR ,
n d s = d s / Δx LR
In adopting the normalized shortest distance n d s represented,
A first step of setting the normalized shortest distance n d s as a parameter;
Using the normalized shortest distance n d s set in the first step and a simple ratio (p axis p R p L ) or an operation equivalent to the simple ratio,
R = cos −1 ( n d s / (p axis p R p L ))
A second step for obtaining a radius R defined by the following relational expression or a relational expression equivalent to the relational expression:
A third step of obtaining a small circle with a radius R centered on the measurement position of the measurement point when observed from one of the two observation points;
For a plurality of measurement points in the measurement space, the second step and the third step are repeated a plurality of times while changing the parameters in the first step, and then
A plurality of small circles intersecting at the intersections by obtaining intersections between the small circles when the plurality of small circles obtained while repeating the first to third steps a plurality of times are drawn in the small circle drawing space. the azimuth n so the measurement plane including a plurality of measurement points corresponding, and / or may be a program for executing the fourth step of determining a normalized shortest distance n d s0 for the measurement plane,
In this case, the measurement point appearing on the image has intensity information, and the third step obtains the small circle and draws the obtained small circle in the small circle drawing space. Voting a value corresponding to the intensity of the measurement point corresponding to the small circle for each point on the trajectory of the small circle, and the fourth step instead of obtaining the intersection, Including a plurality of measurement points corresponding to a plurality of small circles that participated in the voting of the local maximum by obtaining a local maximum at which the value obtained by voting becomes a local maximum while repeating the first to third steps a plurality of times Preferably, this is the step of determining the orientation n so of the measurement plane and / or the normalized shortest distance n d s0 for the measurement plane, or
Measurement points appearing on the image have intensity information,
A fifth step in which the image measurement program sets the binocular parallax σ between the two measurement positions p R and p L when observed from the two observation points of the measurement point as a second parameter; A program comprising
In the second step, the normalized shortest distance n d s set in the first step, the position p axis of the infinity point, and one of the two observation points of the measurement point Using the measurement position p R when observed from the observation point and the binocular parallax σ set in the fifth step, obtaining the radius R;
The third step obtains the small circle corresponding to the measurement point, obtains the response intensity corresponding to the binocular parallax σ of the measurement point, and draws the obtained small circle in the small circle drawing space Voting the response intensity corresponding to the binocular parallax of the measurement point corresponding to the small circle for each point on the trajectory of the small circle when
For a plurality of measurement points in the measurement space, the second step and the third step are repeated a plurality of times while changing each value of each parameter in the first step and the fifth step,
The fourth step executed thereafter is not the determination of the intersection, but the maximum point at which the value by voting becomes a maximum value while repeating the first, fifth, second and third steps a plurality of times. By obtaining the azimuth n so of the measurement plane including a plurality of measurement points corresponding to the plurality of small circles participating in the voting of the local maximum point, and / or the normalized shortest distance n d s0 for the measurement plane is obtained. It is also a preferred embodiment that it is a step.

また、上記第19の画像計測プログラム記憶媒体に格納された画像計測プログラムは、前記各位置paxis,p,pとして球面上に写影された各位置を採用すると共に、前記最短距離を指標する物理量として、前記計測平面と前記2つの観察点のうちの一方の観察点との間の最短距離をd、前記2つの観察点どうしの間の距離をΔxLRとしたときの、
=d/ΔxLR
であらわされる規格化最短距離を採用し、
前記視軸方向vを第1のパラメータとして設定することにより前記無限遠点の位置paxisを設定する第1のステップと、
前記規格化最短距離を第2のパラメータとして設定する第2のステップと、
前記第1のステップで設定された、前記無限遠点の位置paxisと、前記第2のステップで設定された規格化最短距離と、単比(paxis)あるいは該単比と等価な演算とを用いて、
R=cos−1/(paxis))
なる関係式あるいは該関係式と等価な関係式で規定される半径Rを求める第3のステップと、
前記2つの観察点のうちの一方の観察点とから観察したときの前記計測点の計測位置を中心とした半径Rの小円を求める第4のステップとを有し、
前記計測空間内の複数の計測点について、前記第3のステップと前記第4のステップを、前記第1のパラメータおよび前記第2のパラメータの各値をそれぞれ前記第1のステップおよび前記第2のステップで変更しながら複数回繰り返し、その後、
前記第1から第4までのステップを複数回繰り返す間に求められた複数の小円を前記第1のパラメータの値に応じた複数の小円描画空間のうちのそれぞれ対応する小円描画空間に描画したときの小円どうし交差点を各小円描画空間ごとに求め該交差点で交わる小円の本数の情報に基づいて真の視軸方向に対応する小円描画空間を選択することにより該真の視軸方向を求めるとともに、該真の視軸方向に対応する小円描画空間について求められた交差点で交わる複数の小円に対応する複数の計測点を含む計測平面の方位nso、及び/又は、該計測平面についての規格化最短距離s0を求める第5のステップを実行するプログラムであってもよく、
その場合に、前記画像上にあらわれた計測点が強度の情報を有するものであって、前記第4のステップが、前記小円を求めるとともに、求められた小円を該小円に対応する小円描画空間に描画したときの該小円の軌跡上の各点それぞれに該小円に対応する計測点の強度に対応する値を投票するステップであり、前記第5のステップが、前記交差点を求めることに代わり、前記第1から第4までのステップを複数回繰り返す間の投票による値が極大値となる極大点を各小円描画空間ごとに求め該極大点における極大値の情報に基づいて前記真の視軸方向に対応する小円描画空間を選択することにより該真の視軸方向を求めるとともに、該真の視軸方向に対応する小円描画空間について求められた極大点の投票に参加した複数の小円に対応する複数の計測点を含む計測平面の方位nso、及び/又は、該計測平面についての規格化最短距離s0を求めるステップであることが好ましく、あるいは、
前記画像上にあらわれた計測点が強度の情報を有するものであって、
前記画像計測プログラムが、前記計測点の前記2つの観察点から観察したときの2つの計測位置p,pどうしの間の両眼視差σを第3のパラメータとして設定する第6のステップを有するプログラムであって、
前記第2のステップが、前記第1のステップで設定された、前記無限遠点の位置paxisと、前記第2のステップで設定された規格化最短距離と、該計測点の、前記2つの観察点のうちの一方の観察点から観察したときの計測位置pと、前記第5のステップで設定された前記両眼視差σとを用いて、前記半径Rを求めるステップであり、
前記第4のステップが、前記計測点に対応する前記小円を求めるとともに、該計測点の、前記両眼視差σに対応する応答強度を求め、求められた小円を該小円に対応する小円描画空間に描画したときの該小円の軌跡上の各点それぞれに該小円に対応する計測点の、前記両眼視差σに対応する応答強度を投票するステップであり、
前記計測空間内の複数の計測点について、前記第3のステップと前記第4のステップを、前記第1、第2および第6のステップで各パラメータの各値を変更しながら複数回繰り返し、その後実行される前記第5のステップが、前記交差点を求めることに代わり、前記第1、第2、第6、第3および第4のステップを複数回繰り返す間の投票による値が極大値となる極大点を各小円描画空間ごとに求め該極大点における極大値の情報に基づいて前記真の視軸方向に対応する小円描画空間を選択することにより該真の視軸方向を求めるとともに、該真の視軸方向に対応する小円描画空間について求められた極大点の投票に参加した複数の小円に対応する複数の計測点を含む計測平面の方位nso、及び/又は、該計測平面についての規格化最短距離s0を求めるステップであることも好ましい態様である。
The image measurement program stored in the nineteenth image measurement program storage medium adopts each position projected on a spherical surface as each of the positions p axis , p R , and p L and sets the shortest distance. as a physical quantity that indicates, the shortest distance d s between one observation point within the measurement plane and the two observation points, and the distance between the each other two observation point was set to [Delta] x LR,
n d s = d s / Δx LR
In adopting the normalized shortest distance n d s represented,
A first step of setting the position p axis of the infinity point by setting the visual axis direction v as a first parameter;
A second step of setting the normalized shortest distance n d s as a second parameter;
The position p axis of the infinity point set in the first step, the normalized shortest distance n d s set in the second step, and a simple ratio (p axi p R p L ) or the Using simple ratio and equivalent operations,
R = cos −1 ( n d s / (p axis p R p L ))
A third step for obtaining a radius R defined by the following relational expression or a relational expression equivalent to the relational expression:
A fourth step of obtaining a small circle having a radius R around the measurement position of the measurement point when observed from one of the two observation points;
For the plurality of measurement points in the measurement space, the third step and the fourth step are performed, and the values of the first parameter and the second parameter are respectively set to the first step and the second step. Repeat multiple times while changing in steps, then
A plurality of small circles obtained while repeating the first to fourth steps a plurality of times are respectively transferred to corresponding small circle drawing spaces among the plurality of small circle drawing spaces according to the value of the first parameter. The intersection between the small circles at the time of drawing is obtained for each small circle drawing space, and the true circle is selected by selecting the small circle drawing space corresponding to the true visual axis direction based on the information on the number of small circles intersecting at the intersection. An orientation n so of a measurement plane that includes a plurality of measurement points corresponding to a plurality of small circles intersecting at the intersection determined for the small circle drawing space corresponding to the true visual axis direction, and / or , A program for executing the fifth step for obtaining the normalized shortest distance n d s0 for the measurement plane may be used,
In this case, the measurement point appearing on the image has intensity information, and the fourth step obtains the small circle, and the obtained small circle corresponds to the small circle. Voting a value corresponding to the intensity of the measurement point corresponding to the small circle for each point on the trajectory of the small circle when drawn in a circle drawing space, and the fifth step is for locating the intersection. Instead of obtaining, a local maximum point at which the value by voting during the first to fourth steps is repeated a plurality of times is determined for each small circle drawing space, and based on the local maximum information at the local maximum point. The true visual axis direction is obtained by selecting the small circle drawing space corresponding to the true visual axis direction, and the maximum point obtained for the small circle drawing space corresponding to the true visual axis direction is voted The compound corresponding to the participating small circles Orientation n so the measurement plane including a measurement point, and / or is preferably a step of obtaining a normalized shortest distance n d s0 for the measurement plane, or,
Measurement points appearing on the image have intensity information,
A sixth step in which the image measurement program sets binocular parallax σ between the two measurement positions p R and p L when observed from the two observation points of the measurement point as a third parameter; A program comprising
In the second step, the position p axis of the infinity point set in the first step, the normalized shortest distance n d s set in the second step, and the measurement point The step of obtaining the radius R using the measurement position p R when observed from one of the two observation points and the binocular parallax σ set in the fifth step. ,
The fourth step obtains the small circle corresponding to the measurement point, obtains a response intensity corresponding to the binocular parallax σ of the measurement point, and corresponds the obtained small circle to the small circle. Voting the response intensity corresponding to the binocular parallax σ of the measurement point corresponding to the small circle for each point on the trajectory of the small circle when drawn in the small circle drawing space;
For a plurality of measurement points in the measurement space, the third step and the fourth step are repeated a plurality of times while changing each value of each parameter in the first, second and sixth steps, and thereafter Instead of obtaining the intersection, the fifth step to be executed is a local maximum where the value obtained by voting during the first, second, sixth, third and fourth steps is repeated a plurality of times. A point is obtained for each small circle drawing space, and the true visual axis direction is obtained by selecting a small circular drawing space corresponding to the true visual axis direction based on the local maximum information at the local maximum point, and Direction n so of a measurement plane including a plurality of measurement points corresponding to a plurality of small circles that participated in voting for the maximum point obtained for the small circle drawing space corresponding to the true visual axis direction, and / or the measurement plane About standardization shortest It is also a preferred embodiment is a step of obtaining a release n d s0.

さらに、上記本発明の画像計測プログラム記憶媒体のうちの第20の画像計測プログラム記憶媒体は、
所定の計測空間内の所定の2つの観察点から該計測空間内を眺めたときの画像にあらわれた、該計測空間内の任意の計測点の、前記2つの観察点それぞれから観察したときの各計測位置をそれぞれp,p、前記計測点を含み、前記2つの観察点どうしを結ぶ視軸の方向vと同一の方向に延びる直線上の無限遠点の位置をpaxisとしたとき、
前記3つの位置paxis,p,p,で決まる単比(paxis)あるいは該単比と等価な演算を用いて、前記計測点と、前記2つの観察点のうちの一方の観察点との間の距離を指標する物理量を求める画像計測プログラムが記憶されてなることを特徴とする。
Further, the twentieth image measurement program storage medium of the image measurement program storage medium of the present invention described above,
Each of the arbitrary measurement points in the measurement space, as seen from an image when the measurement space is viewed from the two predetermined observation points in the predetermined measurement space, is observed from each of the two observation points. When the measurement position is p R , p L , the measurement point, and the position of the point at infinity on a straight line extending in the same direction as the visual axis direction v connecting the two observation points is p axis ,
The three positions p axis, using p R, p L, single-ratio determined by the (p axis p R p L) or single-ratio and equivalent operation, and the measuring point, one of the two observation points An image measurement program for obtaining a physical quantity that indicates the distance to one observation point is stored.

この第20の画像計測プログラム記憶媒体に記録された画像計測プログラムが実行する、前記単比(paxis)あるいは該単比と等価な演算には、前記計測点の、前記2つの観察点それぞれから観察したときの2つの計測位置p,pに代えて、前記計測点の、前記2つの観察点のうちの一方の観察点から観察したときの計測位置pと、前記計測点の、前記2つの観察点から観察したときの2つの計測位置p,pどうしの間の位置の差である両眼視差σとを用いる演算が包含されるものである。 For the calculation performed by the image measurement program recorded in the twentieth image measurement program storage medium, the unit ratio (p axis p R p L ) or the equivalent of the unit ratio, the two measurement points are Instead of the two measurement positions p R and p L when observed from each observation point, the measurement position p R when the measurement point is observed from one of the two observation points; Computation using the binocular parallax σ which is the difference in position between the two measurement positions p R and p L when the measurement point is observed from the two observation points is included.

上記第20の画像計測プログラム記憶媒体に記憶された画像計測プログラムは、前記距離を指標する物理量として、前記計測点と前記2つの観察点のうちの一方の観察点との間の距離をd、前記2つの観察点どうしの間の距離をΔxLRとしたときの、
=d/ΔxLR
であらわされる規格化距離を採用し、該規格化距離を、
=(paxis
の関係式あるいは該関係式と等価な関係式を用いて求めるプログラムであってもよい。
The image measurement program stored in the twentieth image measurement program storage medium uses the distance between the measurement point and one of the two observation points as d 0 as a physical quantity indicating the distance. , when the distance between the each other two observation point was set to [Delta] x LR,
n d 0 = d 0 / Δx LR
In the normalized distance n d 0 represented adopted, the normalized distance n d 0,
n d 0 = (p axis p R p L )
Or a program obtained using a relational expression equivalent to the relational expression.

また、本発明の画像計測プログラム記憶媒体のうちの第21の画像計測プログラム記憶媒体は、
所定の計測空間内の所定の2つの観察点から該計測空間内を眺めたときの画像にあらわれる、該計測空間内の任意の計測点を含む計測平面と、前記2つの観察点のうちの一方の観察点との間の、前記2つの観察点どうしを結ぶ視軸方向の距離を指標する物理量と、該計測平面の方位nとで規定される投票空間内の座標をパラメータとして設定する第1のステップと、
前記計測点の、前記2つの観察点のうちの一方の観察点から観察したときの計測位置pと、該計測点を含み、前記視軸方向と同一方向に延びる直線上の無限遠点の位置paxisと、前記第1のステップで設定された、前記投票空間内の座標とから、前記計測点の、前記2つの観察点から観察したときの2つの計測位置p,pどうしの位置の差である両眼視差σを求める第2のステップと、
前記2つの観察点から前記計測空間内を眺めたときの2つの画像に基づいて、前記計測点の、前記両眼視差σに対応する応答強度を求める第3のステップと、
前記第3のステップで求められた応答強度を、前記投票空間内の、前記第1のステップで設定された座標に投票する第4のステップとを有し、
前記計測空間内の複数の計測点について、前記第1から第4までのステップのうちの第2から第4までのステップを、前記第1のステップでパラメータの値を変更しながら複数回実行する画像計測プログラムが記憶されてなることを特徴とする。
The twenty-first image measurement program storage medium of the image measurement program storage medium of the present invention is
A measurement plane including an arbitrary measurement point in the measurement space, which appears in an image when the measurement space is viewed from two predetermined observation points in the predetermined measurement space, and one of the two observation points the set of between observation point, a physical quantity indicative of the distance of the visual axis direction connecting the two observation points with each other, the coordinates of the voting space defined by the azimuth n s of the measuring plane as a parameter 1 step,
A measurement position p R when the measurement point is observed from one of the two observation points, and an infinite point on a straight line including the measurement point and extending in the same direction as the visual axis direction. From the position p axis and the coordinates in the voting space set in the first step, between the two measurement positions p R and p L when the measurement point is observed from the two observation points. A second step of obtaining a binocular parallax σ which is a position difference;
A third step of obtaining a response intensity corresponding to the binocular parallax σ of the measurement point based on two images when the inside of the measurement space is viewed from the two observation points;
A fourth step of voting the response intensity obtained in the third step to the coordinates set in the first step in the voting space,
For a plurality of measurement points in the measurement space, the second to fourth steps among the first to fourth steps are executed a plurality of times while changing parameter values in the first step. An image measurement program is stored.

また、本発明の画像計測プログラム記憶媒体のうちの第22の画像計測プログラム記憶媒体は、
所定の計測空間内を観察する、該計測空間内の所定の2つの観察点どうしを結ぶ視軸方向vを第1のパラメータとして設定することにより、前記2つの観察点から該計測空間内を眺めたときの画像にあらわれる、該計測空間内の任意の計測点を含み、該視軸方向と同一方向に延びる直線上の無限遠点の位置paxisを設定する第1のステップと、
前記計測点を含む計測平面と前記2つの観察点のうちの一方の観察点との間の前記視軸方向の距離を指標する物理量と、該計測平面の方位nとで規定される、前記第1のパラメータに応じた投票空間内の座標を第2のパラメータとして設定する第2のステップと、
前記計測点の、前記2つの観察点のうちの一方の観察点から観察したときの計測位置pと、前記第1のステップで設定された位置paxisと、前記第2のステップで設定された、前記投票空間内の座標とから、前記計測点の、前記2つの観察点から観察したときの2つの計測位置p,pどうしの位置の差である両眼視差σを求める第3のステップと、
前記2つの観察点から前記計測空間内を眺めたときの2つの画像に基づいて、前記計測点の、前記両眼視差σに対応する応答強度を求める第4のステップと、
前記第4のステップで求められた応答強度を、前記第1のパラメータに応じた投票空間内の、前記第2のステップで設定された座標に投票する第5のステップとを有し、
前記計測空間内の複数の計測点について、前記第1から第5までのステップのうちの第3から第5までのステップを、前記第1および第2のステップで各パラメータの各値を変更しながら複数回実行する画像計測プログラムが記憶されてなることを特徴とする。
The twenty-second image measurement program storage medium of the image measurement program storage medium of the present invention is
By observing the inside of the predetermined measurement space and setting the visual axis direction v connecting the two predetermined observation points in the measurement space as the first parameter, the inside of the measurement space can be viewed from the two observation points. A first step of setting a position p axis of an infinite point on a straight line including an arbitrary measurement point in the measurement space and extending in the same direction as the visual axis direction, which appears in the image of
A physical quantity indicative of the distance of the visual axis direction between one of the observation point of said the measurement plane including a measurement point the two observation points, defined by the azimuth n s of the measurement plane, the A second step of setting the coordinates in the voting space according to the first parameter as a second parameter;
The measurement point p R when the measurement point is observed from one of the two observation points, the position p axis set in the first step, and the second step are set. Further, from the coordinates in the voting space, a third binocular parallax σ that is a difference between the two measurement positions p R and p L when the measurement point is observed from the two observation points is obtained. And the steps
A fourth step of obtaining a response intensity corresponding to the binocular parallax σ of the measurement point based on two images when the inside of the measurement space is viewed from the two observation points;
A fifth step of voting the response strength obtained in the fourth step to the coordinates set in the second step in a voting space corresponding to the first parameter;
For a plurality of measurement points in the measurement space, the third to fifth steps of the first to fifth steps are changed, and each value of each parameter is changed in the first and second steps. However, an image measurement program to be executed a plurality of times is stored.

また、本発明の画像計測プログラム記憶媒体のうちの第23の画像計測プログラム記憶媒体は、
所定の計測空間内を観察する、該計測空間内の所定の2つの観察点のうちの一方の観察点と、該2つの観察点から該計測空間を眺めたときの画像にあらわれる、該計測空間内の任意の計測点を含む計測平面との間の最短距離を指標する物理量と、該計測平面の方位nとで規定される投票空間内の座標をパラメータとして設定する第1のステップと、
前記計測点の、前記2つの観察点のうちの一方の観察点から観察したときの計測位置pと、該計測点を含み、前記2つの観察点どうしを結ぶ視軸方向と同一方向に延びる直線上の無限遠点の位置paxisと、前記第1のステップで設定された、前記投票空間内の座標とから、前記計測点の、前記2つの観察点から観察したときの2つの計測位置p,pどうしの位置の差である両眼視差σを求める第2のステップと、
前記2つの観察点から前記計測空間内を眺めたときの2つの画像に基づいて、前記計測点の、前記両眼視差σに対応する応答強度を求める第3のステップと、
前記第3のステップで求められた応答強度を、前記投票空間内の、前記第1のステップで設定された座標に投票する第4のステップとを有し、
前記計測空間内の複数の計測点について、前記第1から第4までのステップのうちの第2から第4までのステップを、前記第1のステップでパラメータの値を変更しながら複数回実行する画像計測プログラムが記憶されてなることを特徴とする。
The twenty-third image measurement program storage medium of the image measurement program storage medium of the present invention is
One of the two observation points in the measurement space that observes the measurement space, and the measurement space that appears in the image when the measurement space is viewed from the two observation points a physical quantity which indicates the shortest distance between the measurement plane including any measuring point of the inner, a first step of setting as a parameter coordinates voting space defined by the azimuth n s of the measurement plane,
A measurement position p R when the measurement point is observed from one of the two observation points, and the visual axis direction that includes the measurement point and connects the two observation points. Two measurement positions when the measurement point is observed from the two observation points, based on the position p axis of the infinity point on the straight line and the coordinates in the voting space set in the first step. a second step for obtaining a binocular parallax σ which is a difference between positions of p R and p L ;
A third step of obtaining a response intensity corresponding to the binocular parallax σ of the measurement point based on two images when the inside of the measurement space is viewed from the two observation points;
A fourth step of voting the response intensity obtained in the third step to the coordinates set in the first step in the voting space,
For a plurality of measurement points in the measurement space, the second to fourth steps among the first to fourth steps are executed a plurality of times while changing parameter values in the first step. An image measurement program is stored.

さらに、本発明の画像計測プログラム記憶媒体のうちの第24の画像計測プログラム記憶媒体は、
所定の計測空間内を観察する、該計測空間内の所定の2つの観察点どうしを結ぶ視軸方向vを第1のパラメータとして設定することにより、前記2つの観察点から該計測空間を眺めたときの画像にあらわれる、該計測空間内の任意の計測点を含み、該視軸方向と同一方向に延びる直線上の無限遠点の位置paxisを設定する第1のステップと、
前記2つの観測点のうちの一方の観察点と、前記計測点を含む計測平面までの最短距離を指標する物理量と、該計測平面の方位nとで規定される、前記第1のパラメータに応じた投票空間内の座標を第2のパラメータとして設定する第2のステップと、
前記計測点の、前記2つの観察点のうちの一方の観察点から観察したときの計測位置pと、前記第1のステップで設定された位置paxisと、前記第2のステップで設定された、前記投票空間内の座標とから、前記計測点の、前記2つの観察点から観察したときの2つの計測位置p,pどうしの位置の差である両眼視差σを求める第3のステップと、
前記2つの観察点から前記計測空間内を眺めたときの2つの画像に基づいて、前記計測点の、前記両眼視差σに対応する応答強度を求める第4のステップと、
前記第4のステップで求められた応答強度を、前記第1のパラメータに応じた投票空間内の、前記第2のステップで設定された座標に投票する第5のステップとを有し、
前記計測空間内の複数の計測点について、前記第1から第5までのステップのうちの第3から第5までのステップを、前記第1および第2のステップで各パラメータの各値を変更しながら複数回実行する画像計測プログラムが記憶されてなることを特徴とする。
Further, the 24th image measurement program storage medium of the image measurement program storage medium of the present invention is:
By observing the inside of the predetermined measurement space and setting the visual axis direction v connecting the two predetermined observation points in the measurement space as the first parameter, the measurement space is viewed from the two observation points. A first step of setting a position p axis of an infinite point on a straight line including an arbitrary measurement point in the measurement space and extending in the same direction as the visual axis direction, which appears in the image of
And one of the observation point of said two observation points, the physical quantity that indicates the shortest distance to the measurement plane including a measurement point is defined by the azimuth n s of the measurement plane, said first parameter A second step of setting the corresponding coordinates in the voting space as a second parameter;
The measurement point p R when the measurement point is observed from one of the two observation points, the position p axis set in the first step, and the second step are set. Further, from the coordinates in the voting space, a third binocular parallax σ that is a difference between the two measurement positions p R and p L when the measurement point is observed from the two observation points is obtained. And the steps
A fourth step of obtaining a response intensity corresponding to the binocular parallax σ of the measurement point based on two images when the inside of the measurement space is viewed from the two observation points;
A fifth step of voting the response strength obtained in the fourth step to the coordinates set in the second step in a voting space corresponding to the first parameter;
For a plurality of measurement points in the measurement space, the third to fifth steps of the first to fifth steps are changed, and each value of each parameter is changed in the first and second steps. However, an image measurement program to be executed a plurality of times is stored.

また、本発明の画像計測プログラム記憶媒体のうちの第25の画像計測プログラム記憶媒体は、
所定の計測空間内の所定の2つの観察点から該計測空間内を眺めたときの2つの画像にあらわれる、該計測空間内の任意の計測点の2つの計測位置p,pどうしの間の位置の差である両眼視差σをパラメータとして設定する第1のステップと、
前記計測点の、前記2つの観察点のうちの一方の観察点から観察したときの計測位置pと、該計測点を含み、前記2つの観察点どうしを結ぶ視軸方向と同一方向に延びる直線上の無限遠点の位置paxisと、前記第1のステップで設定された両眼視差σとから、前記計測点を含む計測平面と前記2つの観察点のうちの一方の観察点との間の、前記視軸方向の距離を指標する物理量と、該計測平面の方位nとで規定される投票空間内の座標を求める第2のステップと、
前記2つの観察点から前記計測空間を眺めたときの2つの画像に基づいて、前記計測点の、前記第1のステップで設定された両眼視差σに対応する応答強度を求める第3のステップと、
前記第3のステップで求められた応答強度を、前記投票空間内の、前記第2のステップで求められた座標に投票する第4ののステップとを有し、
前記計測空間内の複数の計測点について、前記第1から第4までのステップのうちの第2から第4までのステップを、前記第1のステップでパラメータの値を変更しながら複数回実行する画像計測プログラムが記憶されてなることを特徴とする。
The 25th image measurement program storage medium of the image measurement program storage medium of the present invention is:
Between two measurement positions p R and p L at an arbitrary measurement point in the measurement space, which appear in two images when the measurement space is viewed from two predetermined observation points in the predetermined measurement space A first step of setting the binocular parallax σ, which is the difference in position, as a parameter;
A measurement position p R when the measurement point is observed from one of the two observation points, and the visual axis direction that includes the measurement point and connects the two observation points. From the position p axis of the infinity point on the straight line and the binocular parallax σ set in the first step, the measurement plane including the measurement point and one observation point of the two observation points a physical quantity which indicates the, the distance of the visual axis direction between, a second step of obtaining the coordinates of the voting space defined by the azimuth n s of the measurement plane,
A third step of obtaining a response intensity corresponding to the binocular parallax σ set in the first step based on two images when the measurement space is viewed from the two observation points. When,
A fourth step of voting the response strength determined in the third step to the coordinates determined in the second step in the voting space;
For a plurality of measurement points in the measurement space, the second to fourth steps among the first to fourth steps are executed a plurality of times while changing parameter values in the first step. An image measurement program is stored.

また、本発明の画像計測プログラム記憶媒体のうちの第26の画像計測プログラム記憶媒体は、
所定の計測空間内を観察する、該計測空間内の所定の2つの観察点どうしを結ぶ視軸方向vを第1のパラメータとして設定することにより、前記2つの観察点から該計測空間を眺めたときの画像にあらわれる、該計測空間内の任意の計測点を含み、該視軸方向と同一方向に延びる直線上の無限遠点の位置paxisを設定する第1のステップと、
前記計測点の、前記2つの観察点から観察したときの2つの計測位置p,pどうしの位置の差である両眼視差σを第2のパラメータとして設定する第2のステップと、
前記計測点の、前記2つの観察点のうちの一方の観察点から観察したときの計測位置pと、前記第1のステップで設定された位置paxisと、前記第2のステップで設定された両眼視差σとから、前記計測点を含む計測平面と前記2つの観察点のうちの一方の観察点との間の、前記視軸方向の距離を指標する物理量と、該計測平面の方位nとで規定される、前記第1のパラメータに応じた投票空間内の座標を求める第3のステップと、
前記2つの観察点から前記計測空間を眺めたときの2つの画像に基づいて、前記計測点の、前記第2のステップで設定された両眼視差σに対応する応答強度を求める第4のステップと、
前記第4のステップで求められた応答強度を、前記第1のパラメータに応じた投票空間内の、前記第3のステップで求められた座標に投票する第5のステップとを有し、
前記計測空間内の複数の計測点について、前記第1から第5までのステップのうちの第3から第5までのステップを、前記第1および第2のステップで各パラメータの各値を変更しながら複数回実行する画像計測プログラムが記憶されてなることを特徴とする。
The 26th image measurement program storage medium of the image measurement program storage medium of the present invention is:
By observing the inside of the predetermined measurement space and setting the visual axis direction v connecting the two predetermined observation points in the measurement space as the first parameter, the measurement space is viewed from the two observation points. A first step of setting a position p axis of an infinite point on a straight line including an arbitrary measurement point in the measurement space and extending in the same direction as the visual axis direction, which appears in the image of
A second step of setting, as a second parameter, binocular parallax σ which is a difference between two measurement positions p R and p L when the measurement point is observed from the two observation points;
The measurement point p R when the measurement point is observed from one of the two observation points, the position p axis set in the first step, and the second step are set. From the binocular parallax σ, the physical quantity indicating the distance in the visual axis direction between the measurement plane including the measurement point and one of the two observation points, and the orientation of the measurement plane is defined by a n s, a third step of obtaining the coordinates of the voting space corresponding to the first parameter,
Fourth step of obtaining response intensity corresponding to the binocular parallax σ set in the second step based on two images when the measurement space is viewed from the two observation points. When,
Voting the response intensity obtained in the fourth step to the coordinates obtained in the third step in the voting space corresponding to the first parameter,
For a plurality of measurement points in the measurement space, the third to fifth steps of the first to fifth steps are changed, and each value of each parameter is changed in the first and second steps. However, an image measurement program to be executed a plurality of times is stored.

また、本発明の画像計測プログラム記憶媒体のうちの第27の画像計測プログラム記憶媒体は、
所定の計測空間内の所定の2つの観察点から該計測空間内を眺めたときの2つの画像にあらわれる、該計測空間内の任意の計測点の2つの計測位置p,pどうしの間の位置の差である両眼視差σをパラメータとして設定する第1のステップと、
前記計測点の、前記2つの観察点のうちの一方の観察点から観察したときの計測位置pと、該計測点を含み、前記2つの観察点どうしを結ぶ視軸方向と同一方向に延びる直線上の無限遠点の位置paxisと、前記第1のステップで設定された両眼視差σとに基づいて、前記2つの観察点のうちの一方の観察点と、前記計測点を含む計測平面との間の最短距離を指標する物理量と、該計測平面の方位nとで規定される投票空間内の座標を求める第2のステップと、
前記2つの観察点から前記計測空間を眺めたときの2つの画像に基づいて、前記計測点の、前記第1のステップで設定された両眼視差σに対応する応答強度を求める第3のステップと、
前記第3のステップで求められた応答強度を、前記投票空間内の、前記第2のステップで求められた座標に投票する第4のステップとを有し、
前記計測空間内の複数の計測点について、前記第1から第4までのステップのうちの第2から第4までのステップを、前記第1のステップでパラメータの値を変更しながら複数回実行する画像計測プログラムが記憶されてなることを特徴とする。
The twenty-seventh image measurement program storage medium of the image measurement program storage medium of the present invention is
Between two measurement positions p R and p L at an arbitrary measurement point in the measurement space, which appear in two images when the measurement space is viewed from two predetermined observation points in the predetermined measurement space A first step of setting the binocular parallax σ, which is the difference in position, as a parameter;
A measurement position p R when the measurement point is observed from one of the two observation points and the visual axis direction that includes the measurement point and connects the two observation points. Measurement including one observation point of the two observation points and the measurement point based on the position p axis of the infinity point on the straight line and the binocular parallax σ set in the first step a physical quantity which indicates the shortest distance between the plane and a second step of obtaining the coordinates of the voting space defined by the azimuth n s of the measurement plane,
A third step of obtaining a response intensity corresponding to the binocular parallax σ set in the first step based on two images when the measurement space is viewed from the two observation points. When,
Voting the response strength determined in the third step to the coordinates determined in the second step in the voting space; and
For a plurality of measurement points in the measurement space, the second to fourth steps among the first to fourth steps are executed a plurality of times while changing parameter values in the first step. An image measurement program is stored.

さらに、本発明の画像計測プログラム記憶媒体のうちの第28の画像計測プログラム記憶媒体は、
所定の計測空間内を観察する、該計測空間内の所定の2つの観察点どうしを結ぶ視軸方向方向vを第1のパラメータとして設定することにより、前記2つの観察点から該計測空間内を眺めたときの画像にあらわれる、該計測空間内の任意の計測点を含み、該視軸方向と同一方向に延びる直線上の無限遠点の位置paxisを設定する第1のステップと、
前記計測点の、前記2つの観察点から観察したときの2つの計測位置p,pどうしの位置の差である両眼視差σを第2のパラメータとして設定する第2のステップと、
前記計測点の、前記2つの観察点のうちの一方の観察点から観察したときの計測位置pと、前記第1のステップで設定された位置paxisと、前記第2のステップで設定された両眼視差σとに基づいて、前記2つの観察点のうちの一方の観察点と、前記計測点を含む計測平面との間の最短距離を指標する物理量と、該計測平面の方位nとで規定される、前記第1のパラメータに応じた投票空間内の座標を求める第3のステップと、
前記2つの観察点から前記計測空間を眺めたときの2つの画像に基づいて、前記計測点の、前記第2のステップで設定された両眼視差σに対応する応答強度を求める第4のステップと、
前記第4のステップで求められた応答強度を、前記第1のパラメータに応じた投票空間内の、前記第3のステップで求められた座標に投票する第5のステップとを有し、
前記計測空間内の複数の計測点について、前記第1から第5までのステップのうちの第3から第5までのステップを、前記第1および第2のステップで各パラメータの各値を変更しながら複数回実行する画像計測プログラムが記憶されてなることを特徴とする。
Further, the twenty-eighth image measurement program storage medium of the image measurement program storage medium of the present invention is:
By observing the inside of the predetermined measurement space and setting the visual axis direction direction v connecting the two predetermined observation points in the measurement space as the first parameter, the two observation points in the measurement space are set. A first step of setting a position p axis of an infinite point on a straight line including an arbitrary measurement point in the measurement space and appearing in the image when viewed, and extending in the same direction as the visual axis direction;
A second step of setting, as a second parameter, binocular parallax σ which is a difference between two measurement positions p R and p L when the measurement point is observed from the two observation points;
The measurement position p R when the measurement point is observed from one of the two observation points, the position p axis set in the first step, and the second step are set. Based on the binocular parallax σ, the physical quantity indicating the shortest distance between one of the two observation points and the measurement plane including the measurement point, and the direction n s of the measurement plane A third step for obtaining coordinates in the voting space according to the first parameter, defined by:
Fourth step of obtaining response intensity corresponding to the binocular parallax σ set in the second step based on two images when the measurement space is viewed from the two observation points. When,
Voting the response intensity obtained in the fourth step to the coordinates obtained in the third step in the voting space corresponding to the first parameter,
For a plurality of measurement points in the measurement space, the third to fifth steps of the first to fifth steps are changed, and each value of each parameter is changed in the first and second steps. However, an image measurement program to be executed a plurality of times is stored.

また、本発明の画像計測プログラム記憶媒体のうちの第29の画像計測プログラム記憶媒体は、
所定の計測空間内の所定の2つの観察点から、該計測空間内を眺めたときの2つの画像に基づいて、該計測空間内の任意の計測点の、該2つの観察点から観察したときの2つの計測位置どうしの位置の差である両眼視差に対応する応答強度を求める第1のステップと、
前記第1のステップで求められた応答強度を、前記計測点を含む計測平面と、前記2つの観察点のうちの一方の観察点との間の、前記2つの観察点どうしを結ぶ視軸方向の距離を指標する物理量と、該計測平面の方位とで規定される投票空間内の、前記計測点と前記両眼視差とに対応した座標に投票する第2のステップとを有し、
前記計測空間内の複数の計測点について前記第1のステップと前記第2のステップを複数回実行する画像計測プログラムが記憶されてなることを特徴とする。
The 29th image measurement program storage medium of the image measurement program storage medium of the present invention is:
When observing an arbitrary measurement point in the measurement space from the two observation points based on two images when the measurement space is viewed from the two predetermined observation points in the predetermined measurement space A first step of obtaining a response intensity corresponding to binocular parallax, which is a difference between positions of the two measurement positions;
The visual axis direction connecting the two observation points between the measurement plane including the measurement points and one observation point of the two observation points with the response intensity obtained in the first step. A second step of voting to coordinates corresponding to the measurement point and the binocular parallax in a voting space defined by a physical quantity that indicates the distance of the measurement plane and the orientation of the measurement plane;
An image measurement program for executing the first step and the second step a plurality of times for a plurality of measurement points in the measurement space is stored.

ここで、上記第29の画像計測プログラム記憶媒体に記憶された前記画像計測プログラムは、前記投票空間内の、前記投票による値が極大値となる極大点を求めることにより、該極大点の投票に参加した複数の計測点を含む計測平面の方位、及び/又は、該計測平面と前記2つの観察点のうちの一方の観察点との間の、前記視軸方向の距離を指標する物理量を求める第3のステップを有するプログラムであってもよい。   Here, the image measurement program stored in the 29th image measurement program storage medium obtains a maximum point in the voting space where the value by voting becomes a maximum value, thereby voting the maximum point. The orientation of the measurement plane including a plurality of participating measurement points and / or the physical quantity indicating the distance in the visual axis direction between the measurement plane and one of the two observation points is obtained. It may be a program having a third step.

また、本発明の画像計測プログラム記憶媒体のうちの第30の画像計測プログラム記憶媒体は、
所定の計測空間内を観察する該計測空間内の所定の2つの観察点どうしを結ぶ視軸方向をパラメータとして設定する第1のステップと、
前記2つの観察点から前記計測空間内を眺めたときの2つの画像に基づいて、該計測空間内の任意の計測点の、該2つの観察点から観察したときの2つの計測位置どうしの位置の差である両眼視差に対応する応答強度を求める第2のステップと、
前記第2のステップで求められた応答強度を、前記計測点を含む計測平面と、前記2つの観察点のうちの一方の観察点との間の、前記視軸方向の距離を指標する物理量と、該計測平面の方位とで規定される、前記第1のステップで設定されたパラメータに応じた投票空間内の、前記計測点と前記両眼視差とに対応した座標に投票する第3のステップとを有し、
前記計測空間内の複数の計測点について、前記第1から第3までのステップのうちの第2および第3のステップを、前記第1のステップでパラメータの値を変更しながら複数回実行する画像計測プログラムが記憶されてなることを特徴とする。
The thirtieth image measurement program storage medium of the image measurement program storage medium of the present invention is:
A first step of setting a visual axis direction connecting two predetermined observation points in the measurement space as a parameter for observing the predetermined measurement space;
Based on two images when the inside of the measurement space is viewed from the two observation points, a position between two measurement positions of the arbitrary measurement point in the measurement space when observed from the two observation points A second step of obtaining a response intensity corresponding to binocular parallax that is a difference between
The response intensity obtained in the second step is a physical quantity indicating the distance in the visual axis direction between the measurement plane including the measurement point and one of the two observation points. A third step of voting on coordinates corresponding to the measurement point and the binocular parallax in a voting space defined by the orientation of the measurement plane and according to the parameter set in the first step And
An image in which the second and third steps of the first to third steps are executed a plurality of times while changing parameter values in the first step for a plurality of measurement points in the measurement space. A measurement program is stored.

ここで、上記第30の画像計測プログラム記憶媒体に記憶された前記画像計測プログラムは、前記投票による値が極大値となる極大点を各投票空間ごとに求め該極大点における極大値の情報に基づいて前記計測点の前記観察点に対する相対的な真の視軸方向に対応する投票空間を選択することにより該真の視軸方向を求めるとともに、該真の視軸方向に対応する投票空間について求められた極大点の投票に参加した複数の計測点を含む計測平面の方位、及び/又は、該計測平面と前記2つの観察点のうちの一方の観察点との間の、前記視軸方向の距離を指標する物理量を求める第4のステップを有するプログラムであってもよい。   Here, the image measurement program stored in the thirtieth image measurement program storage medium obtains a maximum point at which the value of the vote becomes a maximum value for each voting space, and is based on information on the maximum value at the maximum point. The true visual axis direction is determined by selecting a voting space corresponding to the true visual axis direction relative to the observation point of the measurement point, and the voting space corresponding to the true visual axis direction is determined. The orientation of the measurement plane including a plurality of measurement points that participated in the vote of the given maximum point and / or the visual axis direction between the measurement plane and one of the two observation points A program having a fourth step for obtaining a physical quantity indicating the distance may be used.

また、本発明の画像計測プログラム記憶媒体のうちの第31の画像計測プログラム記憶媒体は、
所定の計測空間内の所定の2つの観察点から該計測空間内を眺めたときの2つの画像に基づいて、該計測空間内の任意の計測点の、該2つの観察点から観察したときの2つの計測位置どうしの位置の差である両眼視差に対応する応答強度を求める第1のステップと、
前記第1のステップで求められた応答強度を、前記2つの観察点のうちの一方の観察点と、前記計測点を含む計測平面との間の最短距離を指標する物理量と、該計測平面の方位とで規定される投票空間内の、前記計測点と前記両眼視差σとに対応した座標に投票する第2のステップとを有し、
前記計測空間内の複数の計測点について、前記第1のステップと前記第2のステップを複数回実行する画像計測プログラムが記憶されてなることを特徴とする。
The thirty-first image measurement program storage medium of the image measurement program storage medium of the present invention is
When an arbitrary measurement point in the measurement space is observed from the two observation points based on two images when the measurement space is viewed from the two predetermined observation points in the predetermined measurement space. A first step of obtaining a response intensity corresponding to binocular parallax, which is a difference between positions of two measurement positions;
The response intensity obtained in the first step is calculated by using a physical quantity indicating the shortest distance between one of the two observation points and the measurement plane including the measurement point, and the measurement plane Voting to coordinates corresponding to the measurement point and the binocular parallax σ in a voting space defined by an orientation,
An image measurement program for executing the first step and the second step a plurality of times for a plurality of measurement points in the measurement space is stored.

ここで、上記第31の画像計測プログラム記憶媒体に記憶された画像計測プログラムは、前記投票空間内の、前記投票による値が極大値となる極大点を求めることにより、該極大点の投票に参加した複数の計測点を含む計測平面の方位、及び/又は、前記2つの観察点のうちの一方の観察点と、前記計測平面との間の最短距離を指標する物理量を求める第3のステップを有するプログラムであってもよい。   Here, the image measurement program stored in the thirty-first image measurement program storage medium participates in the vote of the maximum point by obtaining the maximum point in the voting space where the value by the vote becomes a maximum value. A third step of obtaining a physical quantity indicating the azimuth of the measurement plane including the plurality of measurement points and / or the shortest distance between one of the two observation points and the measurement plane. It may be a program.

さらに、本発明の画像計測プログラム記憶媒体のうちの第32の画像計測プログラム記憶媒体は、
所定の計測空間内を観察する、該計測空間内の所定の2つの観察点どうしを結ぶ視軸方向をパラメータとして設定する第1のステップと、
前記2つの観察点から前記計測空間内を眺めたときの2つの画像に基づいて、該計測空間内の任意の計測点の、該2つの観察点から観察したときの2つの計測位置どうしの位置の差である両眼視差に対応する応答強度を求める第2のステップと、
前記第2のステップで求められた応答強度を、前記2つの観察点のうちの一方の観察点と、前記計測点を含む計測平面との間の最短距離を指標する物理量と、該計測平面の方位とで規定される、前記第1のステップで設定されたパラメータに応じた投票空間内の、前記計測点と前記両眼視差とに対応する座標に投票する第3のステップとを有し、
前記計測空間内の複数の計測点について、前記第1から第3までのステップのうちの第2および第3のステップを、前記第1のステップでパラメータの値を変更しながら複数回実行する画像計測プログラムが記憶されてなることを特徴とする。
Further, the thirty-second image measurement program storage medium of the image measurement program storage medium of the present invention is:
A first step of observing a predetermined measurement space and setting a visual axis direction connecting two predetermined observation points in the measurement space as a parameter;
Based on two images when the inside of the measurement space is viewed from the two observation points, a position between two measurement positions of the arbitrary measurement point in the measurement space when observed from the two observation points A second step of obtaining a response intensity corresponding to binocular parallax that is a difference between
The response intensity obtained in the second step is obtained by using a physical quantity indicating the shortest distance between one of the two observation points and the measurement plane including the measurement point, and the measurement plane. And a third step of voting on coordinates corresponding to the measurement point and the binocular parallax in the voting space according to the parameter set in the first step, defined by the azimuth,
An image in which the second and third steps of the first to third steps are executed a plurality of times while changing parameter values in the first step for a plurality of measurement points in the measurement space. A measurement program is stored.

ここで、上記第32の画像計測プログラム記憶媒体に記憶された画像計測プログラムは、前記投票による値が極大値となる極大点を各投票空間ごとに求め該極大点における極大値の情報に基づいて前記計測点の前記観察点に対する相対的な真の視軸方向に対応する投票空間を選択することにより該真の視軸方向を求めるとともに、該真の視軸方向に対応する投票空間について求められた極大点の投票に参加した複数の計測点を含む計測平面の方位、及び/又は、前記2つの観察点のうちの一方の観察点と、前記計測平面との最短距離を指標する物理量を求める第4のステップを有するプログラムであってもよい。   Here, the image measurement program stored in the thirty-second image measurement program storage medium obtains a maximum point at which the value obtained by voting becomes a maximum value for each voting space, and is based on information on the maximum value at the maximum point. The true visual axis direction is obtained by selecting the voting space corresponding to the true visual axis direction relative to the observation point of the measurement point, and the voting space corresponding to the true visual axis direction is obtained. A physical quantity indicating the azimuth of a measurement plane including a plurality of measurement points that participated in voting for the maximum point and / or the shortest distance between one of the two observation points and the measurement plane is obtained. It may be a program having a fourth step.

1.運動視アルゴリズム
(1)規格化時間を決定する方法の効果
1.3.2で述べたように、現時刻の位置p、次時刻の位置p、そして無限時間経過後の位置pinfを知って、平面の3次元方位nとそれを横切るまでの規格化時間を決定できる。
1. Motion vision algorithm (1) Effect of the method for determining the normalized time n t c As described in 1.3.2, the current time position p 0 , the next time position p 1 , and the position after infinite time has elapsed Knowing p inf , it is possible to determine the three-dimensional orientation n s of the plane and the normalized time n t c until crossing it.

この時間はロボットの走行、自動車の自動走行、そして飛行機の自動着陸などに非常に有用である。例えば次のようにして行われる。ロボットが廊下を歩行する例で説明する。廊下に斜めに(ぶつかる方向に)移動すると、図10(B)の円柱配列の中の一点が発火し、その高さ座標として“壁を横切る(壁にぶつかる)までの規格化時間”が、また断面円内の座標として“壁の法線ベクトルn”が得られる。この規格化時間に“現在から次の時刻までの時間差(すなわち、画像フレーム間の時間差)Δt”を乗ずると、平面にぶつかるまでの時間tに変換される。この時間tと法線ベクトルnにもとづいて、ロボットは次のように回避行動をとることができる。すなわち、計測されたtが“ロボットの速度・慣性・駆動トルクなどから決まる回避時間の限界値”を下回ると、壁とぶつからない方向(すなわち、上記で計測される法線ベクトルnと直角な方向)に向きを変えるように制御する。向きが変わると次に計測される“壁にぶつかるまでの時間t”は回避限界値を超えた値に戻り、さらに回避が進んで壁と平行に移動し始めると“tが無限大”になり、この方向に移動すればぶつからないことを把握できる。このようにして壁の3次元方位nとそれにぶつかるまでの時間tを計測することにより、曲がりくねった廊下でもぶつからずに移動できる。 This time is very useful for robots, automatic driving of automobiles, and automatic landing of airplanes. For example, it is performed as follows. An example will be described in which the robot walks in the hallway. When moving diagonally (in the direction of collision) into the corridor, one point in the columnar array in FIG. 10B ignites, and the normalized time n t c until “crossing the wall (coinciding with the wall)” as its height coordinate ", And as a coordinate in the cross-sectional circle," wall normal vector ns "is obtained. When the normalized time n t c is multiplied by “a time difference from the present time to the next time (that is, a time difference between image frames) Δt”, the time is converted to a time t c until the plane is hit. Based on the time t c and the normal vector n s , the robot can take an avoidance action as follows. That is, if the lower "limit avoidance time determined by the speed, etc., inertia and driving torque of the robot" measured t c does not collide with the wall direction (i.e., the normal vector n s perpendicular measured by the Control to change the direction. When the orientation changes, the next time “time to hit the wall t c ” returns to a value exceeding the avoidance limit value, and when the avoidance progresses and starts moving parallel to the wall, “t c is infinite” If you move in this direction, you can grasp that it will not collide. By measuring the time t c until this manner bump into it and the three-dimensional orientation n s of the wall, it can be moved without colliding even tortuous corridor.

この方法は、三つの時刻での位置p,p,pinfを知るだけで移動速度Vを知らなくても、“壁にぶつかるまでの時間t”を予測できるのが大きな特長である。超音波などで壁までの距離を計って回避する方式では、その距離を“壁にぶつかるまでの時間”に変換するために、移動速度Vの計測が不可欠である。 A major feature of this method is that it is possible to predict the “time t c until hitting the wall” without knowing the moving speed V just by knowing the positions p 0 , p 1 and p inf at three times. . In the method of measuring and avoiding the distance to the wall with ultrasonic waves or the like, measurement of the moving speed V is indispensable in order to convert the distance into “time until hitting the wall”.

さらに、1.6で述べた方法を用いるとpinf(すなわち、移動方向v)までも判らなくてもよく、二つの時刻での位置p,pを知るだけでnを計測できる。この方法により、例えばインターネット・ビデオ・映画の画像などで撮影中の移動方向が判らない場合でも“平面の3次元方位nとそれを横切るまでの規格化時間”を計測できる。また、平面が移動している場合にはその移動方向は一般には判らないが、その場合でも“それら方位と時間”を移動方向vとともに計測できる。 Further, if the method described in 1.6 is used, it is not necessary to know even p inf (that is, the moving direction v), and only by knowing the positions p 0 and p 1 at two times, n s and n t c Can be measured. By this method, for example, even when the moving direction during photographing is not known in the Internet, video, movie image, etc., the “three-dimensional orientation n s of the plane and the normalized time n t c until crossing” can be measured. Also, when the plane is moving, the moving direction is generally not known, but even in that case, “the direction and time” can be measured together with the moving direction v.

以上を行えるような方法はこれまでに報告されていない。   There has been no report on how to do this.

(2)規格化最短距離を決定する方法の効果
2.1と2.2.3で述べたように、現時刻の位置p、次時刻の位置p、そして無限時間経過後の位置pinfを知って、平面の3次元方位nと規格化最短距離を決定できる。
(2) Effect of Method for Determining Normalized Shortest Distance n d s As described in 2.1 and 2.2.3, the current time position p 0 , the next time position p 1 , and after an infinite time has elapsed. knows the position p inf, it can determine the 3-dimensional orientation n s and the normalized shortest distance n d s plane.

この規格化最短距離は“画像内に重なり合って見える複数の物体や環境を分離(奥行き分離と言われる)”するのに非常に有用である。すなわち、物体や環境を構成する平面の“相対的な奥行き”と“傾き”を規格化最短距離と方位nとして計測できるため、それらが重なり合っていても分離して識別することができる。 This standardized shortest distance is very useful for “separating multiple objects and environments that appear to overlap each other in an image (called depth separation)”. That is, since the “relative depth” and “inclination” of the plane constituting the object or the environment can be measured as the normalized shortest distance n d s and the direction n s , they can be separated and identified even if they overlap. it can.

この奥行き分離は、三つの時刻での位置p,p,pinfを知るだけで、移動速度Vや“現在から次の時刻までの時間差Δtや移動距離Δx”が判らなくても行えるのが大きな特長である。なお、平面までの最短距離dが必要な場合には、この規格化最短距離に“現在から次時刻までの移動距離Δx”を乗じて得ることができる。 This depth separation can be performed only by knowing the positions p 0 , p 1 , and p inf at three times without knowing the moving speed V, “the time difference Δt from the present time to the next time, or the moving distance Δx”. Is a big feature. When the shortest distance d s to the plane is required, the normalized shortest distance n d s can be obtained by multiplying “the moving distance Δx from the present time to the next time”.

さらに、2.5で述べた方法を用いるとpinf(すなわち、移動方向v)までも判らなくてよく、二つの時刻での位置p,pを知るだけで規格化最短距離と方位nを計測できる。この方法により、例えばインターネット画像・ビデオ・映画などで撮影中の移動方向が判らない場合でも、“それら距離と方位”を計測でき、それに基づいて奥行き分離を行える。また、平面が移動している場合にはその移動方向は一般には判らないが、その場合でも“それら距離と方位”を移動方向vとともに計測できる。 Furthermore, if the method described in 2.5 is used, it is not necessary to know even p inf (that is, the moving direction v), and the normalized shortest distance n d s is obtained only by knowing the positions p 0 and p 1 at two times. to be able to measure the orientation n s. By this method, for example, even when the moving direction during photographing is not known in Internet images, videos, movies, etc., “the distance and direction” can be measured, and the depth separation can be performed based on the distance. Further, when the plane is moving, the moving direction is generally not known, but even in that case, “the distance and the direction” can be measured together with the moving direction v.

以上を行えるような方法はこれまでに報告されていない。
2.両眼視アルゴリズム
(1)規格化最短距離を決定する方法の効果
4.3.1と4.3.2で述べたように、左カメラ画像での位置p、左カメラ画像での位置p、そして、“左右カメラを結ぶ視軸上の位置paxis”を知って、平面の3次元方位nと規格化最短距離を決定できる。
There has been no report on how to do this.
2. Binocular vision algorithm (1) Effect of the method for determining the normalized shortest distance n d s As described in 4.3.1 and 4.3.2, the position p L in the left camera image, position p R and, "the position on the visual axis connecting the left and right cameras p axis" know, can determine the 3-dimensional orientation n s and the normalized shortest distance n d s plane.

この規格化最短距離は“画像内に重なり合って見える複数の物体や環境を奥行き分離”するのに非常に有用である。すなわち、物体や環境を構成する平面の“相対的な奥行き”と“傾き”を規格化最短距離と方位nとして計測できるため、それらが重なり合っていても分離して識別することができる。 This normalized shortest distance is very useful for “depth separation of multiple objects and environments that appear to overlap each other in an image”. That is, since the “relative depth” and “inclination” of the plane constituting the object or the environment can be measured as the normalized shortest distance n d s and the direction n s , they can be separated and identified even if they overlap. it can.

この奥行き分離は、左右カメラでの位置p,pと視軸上の位置paxisを知るだけで、左右カメラ間の距離ΔxLRが判らなくても行えるのが大きな特長である。なお、平面までの最短距離dが必要な場合には、この規格化最短距離に“左右カメラ間の距離ΔxLR”を乗じて得ることができる。 A major feature is that this depth separation can be performed without knowing the distance Δx LR between the left and right cameras, only by knowing the positions p L and p R on the left and right cameras and the position p axis on the visual axis . In addition, when the shortest distance d s to the plane is necessary, it can be obtained by multiplying the normalized shortest distance n d s by “distance Δx LR between left and right cameras”.

さらに、4.3.3で述べた方法を用いるとpaxis(すなわち、視軸方向axis)までも判らなくてよく、左右カメラでの位置p,pを知るだけで規格化最短距離と方位nを計測できる。この方法により、例えばインターネットなどのステレオ画像で、撮影中の視軸方向が判らない場合でも“それら距離と方位”を計測でき、それに基づいて奥行き分離を行える。 Furthermore, if the method described in 4.3.3 is used, it is not necessary to know even p axis (that is, the visual axis direction a xis ), and the standardized shortest distance can be obtained only by knowing the positions p L and p R in the left and right cameras. n d s and the orientation n s can be measured. According to this method, for example, in the case of a stereo image such as the Internet, even when the visual axis direction during photographing is not known, “the distance and the azimuth” can be measured, and the depth separation can be performed based thereon.

なお、以上の奥行き分離は、4.2.3で計測される“視軸方向に平面を横切るまでの規格化距離”と“平面の3次元方位n” を用いて行うこともできる。 Incidentally, the depth separation above, also be carried out using the the "standardization of the visual axis direction until across the plane distance n d c" and "3-dimensional orientation n s plane" measured in 4.2.3 it can.

以上を行えるような方法はこれまでに報告されていない。   There has been no report on how to do this.

以下、本発明の実施形態について説明する。   Hereinafter, embodiments of the present invention will be described.

図2は、本発明の画像計測装置の一実施形態として採用されるコンピュータシステムの外観を示す図である。   FIG. 2 is a diagram showing an external appearance of a computer system that is employed as an embodiment of the image measurement apparatus of the present invention.

このコンピュータシステム300は、CPU、RAMメモリ、磁気ディスク、通信用ボード、画像入力用ボード等を内蔵した本体301、本体301からの指示により画面表示を行なうCRTディスプレイ302、このコンピュータ内にユーザの指示や文字情報を入力するためのキーボード303、およびCRTディスプレイ302の表示画面上の任意の位置を指定することによりその位置に表示されていたアイコン等に応じた指示を入力するマウス304を備えている。本体301には、外観上、フロッピィディスクやMO(光磁気ディスク)が取り出し自在に装填されるフロッピィディスク装填口301aやMO装填口301bを有しており、その内部には、装填されたフロッピィディスク、MOをドライブするフロッピィディスクドライバ、MOドライバも内蔵されている。   The computer system 300 includes a main body 301 incorporating a CPU, a RAM memory, a magnetic disk, a communication board, an image input board, etc., a CRT display 302 for displaying a screen in accordance with an instruction from the main body 301, and a user instruction in the computer. And a keyboard 303 for inputting character information, and a mouse 304 for inputting an instruction corresponding to an icon or the like displayed at that position by designating an arbitrary position on the display screen of the CRT display 302. . The main body 301 has a floppy disk loading port 301a and a MO loading port 301b in which a floppy disk and an MO (magneto-optical disk) can be taken out in terms of appearance. Inside the main body 301, a loaded floppy disk is mounted. A floppy disk driver for driving the MO and an MO driver are also incorporated.

図3は、図2に示すコンピュータシステムのハードウェア構成図である。   FIG. 3 is a hardware configuration diagram of the computer system shown in FIG.

このハードウェア構成図には、中央演算処理装置(CPU)311、RAM312、磁気ディスクコントローラ313、フロッピィディスクドライバ314、MOドライバ315、マウスコントローラ316、キーボードコントローラ317、ディスプレイコントローラ318、通信用ボード319、および画像入力用ボード320が示されており、それらはバス310で相互に接続されている。   This hardware configuration diagram includes a central processing unit (CPU) 311, a RAM 312, a magnetic disk controller 313, a floppy disk driver 314, an MO driver 315, a mouse controller 316, a keyboard controller 317, a display controller 318, a communication board 319, And an image input board 320 are shown interconnected by a bus 310.

磁気ディスクコントローラ313は、本体301(図2参照)に内蔵された磁気ディスク321をアクセスするものである。   The magnetic disk controller 313 accesses the magnetic disk 321 built in the main body 301 (see FIG. 2).

また、フロッピィディスクドライバ314、MOドライバ315は、図2を参照して説明したように、それぞれフロッピィディスク322、MO323が装填され、装填されたフロッピィディスク322、MO323をアクセスするものである。   Further, as described with reference to FIG. 2, the floppy disk driver 314 and the MO driver 315 are loaded with the floppy disks 322 and MO323, respectively, and access the loaded floppy disks 322 and MO323.

また、マウスコントローラ316、キーボードコントローラ317は、それぞれ、マウス304、キーボード303の操作をこのコンピュータ内部に伝えるものである。   A mouse controller 316 and a keyboard controller 317 transmit operations of the mouse 304 and the keyboard 303 to the inside of the computer, respectively.

また、ディスプレイコントローラ318は、CPU311で動作するプログラムに応じて、CRTディスプレイ302に画像を表示させるコントローラである。   The display controller 318 is a controller that displays an image on the CRT display 302 in accordance with a program that runs on the CPU 311.

さらに、通信用ボード319は、通信回線400によりLANやインターネットなどの通信網と接続されており、この通信用ボード319は、例えば、その通信網を流れる画像データを受信する役割りを担っている。   Further, the communication board 319 is connected to a communication network such as a LAN or the Internet via the communication line 400, and the communication board 319 plays a role of receiving image data flowing through the communication network, for example. .

さらに、画像入力用ボードは、外部のカメラ11(電子スチールカメラ、あるいはビデオカメラ等)と接続され、そのカメラ11での撮影により得られた画像データをこのコンピュータ内部に取り込む役割りを担っている。尚、この図3には、カメラは1台のみ示されているが、この画像入力用ボード320には2台のカメラが接続され、例えば人間の両眼の視差に対応した異なる方向から同一の被写体を同時に撮影して得た2枚の画像を入力することもできる。   Further, the image input board is connected to an external camera 11 (such as an electronic still camera or a video camera), and plays a role of capturing image data obtained by photographing with the camera 11 into the computer. . Although only one camera is shown in FIG. 3, two cameras are connected to the image input board 320, and the same camera is viewed from different directions corresponding to the parallax of human eyes, for example. It is also possible to input two images obtained by photographing the subject at the same time.

このコンピュータシステム300は、フロッピィディスク322やMO323に記憶されていたプログラムがインストールされ、あるいは、通信回線400を経由してきたプログラムがインストールされて、後述する本発明の画像計測装置として動作するものであり、したがって、図2,図3に示したコンピュータシステムのハードウェアと、そのコンピュータシステムにインストールされて実行されるプログラムとの組合せとして本発明の画像計測装置の一実施形態が実現されている。また、このコンピュータシステムを本発明の画像計測装置として動作させるプログラムが、本発明にいう画像計測プログラムに相当し、フロッピィディスク322やMO323にその画像計測プログラムが記憶されている場合に、その画像計測プログラムを記憶した状態にあるフロッピィディスク322やMO323が本発明にいう画像計測プログラム記憶媒体に相当する。また、その画像計測プログラムがこのコンピュータシステムにインストールされると、そのインストールされた画像計測プログラムは磁気ディスク321に記憶される。従って、その画像計測プログラムを記憶した状態にある磁気ディスク321も本発明の画像計測プログラム記憶媒体の一例に相当する。   The computer system 300 is installed with a program stored in the floppy disk 322 or the MO 323 or installed via the communication line 400 and operates as an image measuring apparatus according to the present invention described later. Therefore, an embodiment of the image measurement apparatus of the present invention is realized as a combination of the hardware of the computer system shown in FIGS. 2 and 3 and a program installed and executed in the computer system. The program for operating this computer system as the image measuring apparatus of the present invention corresponds to the image measuring program according to the present invention, and when the image measuring program is stored in the floppy disk 322 or the MO 323, the image measuring program is stored. The floppy disk 322 and the MO 323 in which the program is stored correspond to the image measurement program storage medium referred to in the present invention. When the image measurement program is installed in the computer system, the installed image measurement program is stored in the magnetic disk 321. Therefore, the magnetic disk 321 that stores the image measurement program also corresponds to an example of the image measurement program storage medium of the present invention.

ここで、この図2,図3に示すコンピュータシステム300の、画像計測装置としての機能は、後述する各種の機能ブロック図で示されており、そこで動作する画像計測プログラムの内容は後述する各種のフローチャートで示されている。また、それら後述する各種のフローチャートは「方法」の形態として捉えることもでき、したがって、それら後述する各種のフローチャートは、本発明の画像計測方法の各種実施形態にも相当する。   Here, the function of the computer system 300 shown in FIGS. 2 and 3 as an image measuring device is shown in various functional block diagrams to be described later. It is shown in the flowchart. Also, the various flowcharts described later can be regarded as “methods”, and therefore the various flowcharts described later correspond to various embodiments of the image measurement method of the present invention.

ここで、本発明の実施形態の説明は一旦中断し、本発明による画像計測の原理説明を行ない、その後、本発明の各種の実施形態を説明する。   Here, the description of the embodiment of the present invention is temporarily interrupted, the principle of image measurement according to the present invention will be described, and then various embodiments of the present invention will be described.

1.平面の3次元方位と横切るまでの時間の計測法
平面の三次元幾何情報のうち、平面の3次元方位nと平面を横切るまでの時間tを計測する方法を提供する。
1. Method of measuring plane 3D orientation and time until crossing Of 3D geometric information of plane, a method of measuring plane 3D orientation n s and time t c until crossing the plane is provided.

平面がある方向vに移動しているとする。法線ベクトルがnの平面(3次元方位がnの平面)が、現時刻tから次の時刻tへと移動し、さらに時刻tに平面がカメラ中心Oを横切る様子を、図4に示す。各時刻の平面上の三角形の頂点(白丸)は、眼球の網膜(あるいは球面カメラ)の上では、カメラ中心と各頂点を結んだ線と眼球面(あるいは球面カメラ)との交点(黒丸)として写る。以降では簡単のために、眼球(あるいは球面カメラ)の直径は1とする。従って、カメラ中心と黒丸を結ぶベクトルは大きさ1の“単位ベクトル”になる。 It is assumed that the plane is moving in a certain direction v. Plane of the normal vector n s (3-dimensional orientation of n s plane), the state moves from the current time t 0 to the next time t 1, which plane further time t c crosses camera center O, As shown in FIG. The vertex (white circle) of the triangle on the plane of each time is the intersection (black circle) of the line connecting the camera center and each vertex and the eyeball (or spherical camera) on the retina (or spherical camera) of the eyeball. It is reflected. Hereinafter, for the sake of simplicity, the diameter of the eyeball (or spherical camera) is assumed to be 1. Therefore, the vector connecting the camera center and the black circle is a “unit vector” of size 1.

1.1. 平面の3次元方位nを計測する原理
図4の時刻tの様子を抜き出して図5に示す。この時刻では、平面がカメラ中心Oを通るため、平面上の点群(白丸)は球面上では“大円gnsの上の点群(黒丸)”として縮退して投影される。この大円は平面と球面との交線であり、従ってベクトルpは平面の法線ベクトルnと直交する。この関係から、平面の法線ベクトルnはベクトルpの「極変換」として次のようにして計測できる。すなわち、各ベクトルpについてそれを中心とする大円――大円は球面上で最も大きい円――を描くと、それら大円群は一点で交差し、その交差点として平面の法線ベクトル(すなわち3次元方位)nが計測される。このように、平面上の複数の点についてpが判ると、極変換を行って平面の3次元方位を求めることができる。(ここで、極変換の用語を説明しておくと、上記の球面上の点pおよび大円がそれぞれ「極」および「極線」と言われ、その極pを極線(大円)に変換する操作が「極変換(polar transformation)(あるいは双対変換(duality))」と言われる。)
1.2. 平面を横切るまでの規格化時間を計測する原理
規格化時間を計測する原理を説明する。ここで、規格化時間は、平面を横切るまでの時間tを“現時刻tと次の時刻tの時間差Δt”で規格化した時間であり、式(1)で表される。
1.1. Shown in FIG. 5 by extracting state at time t c of the principles Figure 4 for measuring the three-dimensional orientation n s plane. At this time, since the plane passes through the camera center O, the point group on the plane (white circle) is projected as a “point group on the great circle g ns (black circle)” on the spherical surface. This great circle is the intersection line between the plane and spherical, therefore the vector p c perpendicular to the normal vector n s plane. From this relationship, the normal vector n s of the plane can be measured in the following manner as a "polar transformation" of the vector p c. That is, a great circle centered on it for each vector p c - great circle the largest circle on the sphere - the draw, they great circle group intersect at one point, the normal vector of the plane as the intersection ( That is, the three-dimensional orientation) ns is measured. Thus, when it is found p c for a plurality of points on a plane, it is possible to obtain a three-dimensional orientation of the plane by performing a polar transformation. (Here, previously described a polar transformation terms, p c and great circle points on the spherical surface are respectively referred to as "electrode" and "polar" polar (great circle that pole p c ) Is referred to as “polar transformation” (or dual transformation).)
1.2. Principle of Measuring Normalized Time n t c until Crossing the Plane The principle of measuring the normalized time n t c will be described. Here, the normalization time is a time obtained by normalizing the time t c until crossing the plane by “a time difference Δt between the current time t 0 and the next time t 1 ”, and is represented by Expression (1).

=t/Δt (1)
Δt=t−t (2)
図4の球面上に投影された三角形(黒丸)が移動する様子を図6に示す。現時刻tでの三角形が次時刻tではに移動し、次に平面を横切る時刻tでは“平面の法線ベクトルnと直交する大円gns”の上の三点に縮退して移動し、最後に無限時間経過後には移動方向vに収束する。各頂点は“移動方向vとそれらを結ぶ大円g,g,g”の上を移動する。なお、移動方向vは無限時間経過後の位置であることから、以降ではpinfとも記す。
n t c = t c / Δt (1)
Δt = t 1 −t 0 (2)
FIG. 6 shows how the triangle (black circle) projected on the spherical surface in FIG. 4 moves. Triangle 1 p 0 at the present time t 0, 2 p 0, 3 p 0 is moved to the next time t 1 in 1 p 1, 2 p 1, 3 p 1, then at time t c across the plane "plane degenerated three-point 1 p c, 2 p c, 3 p c on the great circle g ns "that is perpendicular to the normal vector n s move in, after last infinite time to converge to the moving direction v . Each vertex moves on “movement direction v and great circles 1 g, 2 g, 3 g connecting them”. In addition, since the moving direction v is a position after an infinite time has elapsed, it is also referred to as p inf hereinafter.

規格化時間を計測するための準備として、現時刻の位置p、次時刻の位置p、そして無限時間経過後の位置pinfを知って、現時刻での点の三次元距離(すなわち、カメラ中心Oから点Pまでの距離)dを計測できることを図7で示す。図6の“移動軌跡を表す大円の一つg”で球面を切断した断面を図7に示す。三角形OPに正弦定理を用いると、点Pまでの距離dと“現在から次時刻までの移動距離Δx”の間には
Δx/sin(p)=d/sin(pinf) (3)
の関係がある。ここで、pはpからpへの中心角であり、pinfはpinfからpへの中心角である。式(3)を変形すると、点Pまでの距離dは下式で求められる。
In preparation for measuring the normalized time n t c, the position p 0 at the present time, the position p 1 at the next time, and to know the position p inf after infinite time has elapsed, the three-dimensional distance of a point at the present time FIG. 7 shows that d 0 can be measured (ie, the distance from the camera center O to the point P 0 ). FIG. 7 shows a cross section of the spherical surface cut by “one of the great circles g representing the movement locus” in FIG. The use of sine theorem triangle OP 0 P 1, between the distance d 0 to the point P 0 "moving distance [Delta] x from the current to the next time" Δx / sin (p 0 p 1) = d 0 / sin (P inf p 1 ) (3)
There is a relationship. Here, p 0 p 1 is a central angle from p 0 to p 1 , and p inf p 1 is a central angle from p inf to p 1 . By transforming equation (3), the distance d 0 to the point P 0 is calculated by the following equation.

=Δx sin(pinf)/sin(p) (4)
ここで、大円の三点a,b,cについての「単比(abc)」は
(abc)=ac/bc=sin(ac)/sin(bc) (5)
と定義される(「射影幾何(グーリエビッチ著、東京図書)」の6頁)。この単比を用いると式(4)は式(6)で表される。この単比表現により中心投影の方式によらなくなるため、“球面カメラや眼球”の大円上を移動する上記の三点p,p,pだけでなく、“平面カメラ画像の直線”の上を移動する三点p,p,pからでも距離dを計測することができる。すなわち、画像を撮影するカメラ方式によらずに、点の距離dを三次元計測できる。
d 0 = Δx sin (p inf p 1 ) / sin (p 0 p 1 ) (4)
Here, the “single ratio (abc)” for the three points a, b, and c of the great circle is (abc) = ac / bc = sin (ac) / sin (bc) (5)
(Page 6 of “Projective Geometry (Gourievic, Tokyo Book)”). When this single ratio is used, Expression (4) is expressed by Expression (6). Therefore no longer depend on type of central projection by simple ratio expression, "spherical camera or eye" above three points p 0 to move the large circle of, p well 1, p c, "the linear of the planar camera image" it is possible to measure the distance d 0 from any three points p 0, p 1, p c to move over. That is, regardless of the camera system for capturing an image, can measure the distance d 0 of the point three-dimensional.

=Δx(pinf) (6)
以上の準備に基づいて、規格化時間を計測する原理を説明する。“時刻tにカメラ中心Oを横切っている平面”を図7に書き加えたのが図8である。移動速度をVとすると、“現在から次の時刻までの移動距離Δx”は“現在から次の時刻までの時間差Δt”と
Δx=V Δt (7)
の関係にあるから、式(4)および式(6)に式(7)を代入すると次式になる。
d 0 = Δx (p inf p 0 p 1 ) (6)
Based on the above preparation, the principle of measuring the normalized time n t c will be described. The "plane crosses the camera center O at time t c" that was additionally written in FIG. 7 is a diagram 8. Assuming that the moving speed is V, “the moving distance Δx from the present time to the next time” is “the time difference Δt from the present time to the next time” and Δx = V Δt (7)
Therefore, substituting equation (7) into equations (4) and (6) gives the following equation.

=V Δt sin(pinf)/sin(p) (8a)
=V Δt(pinf) (8b)
また、現在から平面を横切るまでの時間をtとすると、三角形OPPに正弦定理を適用して上記と同様に変形すると、距離dが下式で求められる。
d 0 = V Δt sin (p inf p 1 ) / sin (p 0 p 1 ) (8a)
= V Δt (p inf p 0 p 1 ) (8b)
Also, assuming that the time from the present to crossing the plane is t c , when the sine theorem is applied to the triangle O 0 PP c and deformed in the same manner as described above, the distance d 0 is obtained by the following equation.

=V t sin(pinf)/sin(p) (9a)
=V t(pinf) (9b)
式(8)と式(9)の比をとって整理すると、平面を横切るまでの規格化時間が下式で求められる。
d 0 = V t c sin ( p inf p c) / sin (p 0 p c) (9a)
= V t c (p inf p 0 p c) (9b)
If the ratio of the formula (8) and the formula (9) is taken and arranged, the normalized time n t c until the plane is crossed is obtained by the following formula.

=t/Δt
=(sin(pinf)/sin(p))/(sin(pinf
/sin(p)) (10a)
=(pinf)/(pinf) (10b)
ここで、大円上の四点a,b,c,dについての複比{abcd}は、“二つの単比、(abc)と(abd)、の比”として式(11a)で定義され、その複比には式(11c)の関係がある(「射影幾何(グーリエビッチ著、東京図書)」の257頁および119頁)。
n t c = t c / Δt
= (Sin (p inf p 1 ) / sin (p 0 p 1)) / (sin (p inf p c)
/ Sin (p 0 pc )) (10a)
= (P inf p 0 p 1 ) / (p inf p 0 p c) (10b)
Here, the double ratio {abcd} for the four points a, b, c, d on the great circle is defined by the equation (11a) as “a ratio of two simple ratios, (abc) and (abd)”. The cross-ratio has the relationship of formula (11c) (pages 257 and 119 of “Projective geometry (Gourievic, Tokyo Book)”).

{abcd}=(abc)/(abd)
=(ac/bc)/(ad/bd) (11a)
=(sin(ac)/sin(bc))
/(sin(ad)/sin(bd)) (11b)
{abcd}={badc}={cdab}={dcba} (11c)
この複比の定義(式(11a))を用いると式(10)は
={pinf} (12a)
と表される。このように、移動軌跡上の四点p,p,p,pinfが判ると、規格化時間は式(12a)の複比として求められる。
{Abcd} = (abc) / (abd)
= (Ac / bc) / (ad / bd) (11a)
= (Sin (ac) / sin (bc))
/ (Sin (ad) / sin (bd)) (11b)
{Abcd} = {badc} = {cdab} = {dcba} (11c)
Using this definition of the cross ratio (formula (11a)), formula (10) becomes
n t c = {p inf p 0 p 1 p c} (12a)
It is expressed. As described above, when the four points p 0 , p 1 , p c , and p inf on the movement trajectory are known, the normalized time n t c is obtained as a cross ratio of Expression (12a).

ここで、式(12a)の射影幾何学的な意味を考える。「射影幾何学(弥永と平野著、朝倉書店)」の86頁によると、「基点系a,b,cによるdの座標λを複比といい、{abcd}で表される」として複比が定義されている(「射影幾何(グーリエビッチ著、東京図書)」の119頁にも同様の記載あり)。この定義において、基点系a,b,cを基点系pinf,p,pに換え、また複比の値λをに換えると「基点系pinf,p,pによるpの座標を複比といい、{pinf}で表される」になる。従って、式(12a)は射影幾何学的には、
「規格化時間は、原点、無限遠点、単位点をそれぞれp,pinf,pとする基点系で計測したpの座標である」 (12b)
を意味する。
Here, the projective geometric meaning of equation (12a) is considered. According to page 86 of “Projective geometry (by Yasunaga and Hirano, Asakura Shoten)”, the coordinate λ of d based on the base point system a, b, c is called the cross ratio, and is expressed as {abcd}. (The same description is given on page 119 of “Projective Geometry (Gourievic, Tokyo Book)”). In this definition, if the base point system a, b, c is changed to the base point system p inf , p 0 , p 1 , and the cross ratio value λ is changed to n t c , “the base point system p inf , p 0 , p 1 the coordinates n t c of p c called Fukuhi will represented "in {p inf p 0 p 1 p c}. Therefore, equation (12a) is
“The normalized time n t c is the coordinates of pc measured by the base point system with the origin, the infinity point, and the unit point as p 0 , p inf , and p 1 ” (12b)
Means.

式(12a)の複比は射影幾何学の基本的な不変量であり、任意の射影と切断に対して変わらない――つまり、球面カメラや平面カメラなどの“任意のカメラ方式の画像”に対して複比は変わらない。従って、“球面カメラや眼球”の大円上を移動する上記の四点p,p,p,pinfだけでなく、“平面カメラ画像の直線”の上を移動する四点p,p,p,pinfからでも“平面を横切るまでの規格化時間”を複比として計測することができる。すなわち、画像を撮影するカメラの方式によらずに、規格化時間を計測できることを示している。 The cross-ratio in equation (12a) is a fundamental invariant of projective geometry and does not change for any projection and cut--that is, to “an arbitrary camera-style image” such as a spherical camera or planar camera. On the other hand, the cross ratio does not change. Thus, "spherical camera or eye" above four points p 0 to move the large circle of, p 1, p c, p inf well, four-point moves on the "straight line of the planar camera image" p 0 , P 1 , p c , and p inf , the “normalized time n t c until crossing the plane” can be measured as a cross ratio. That is, it shows that the standardized time n t c can be measured regardless of the method of the camera that captures the image.

1.3. 複比変換と極変換により平面の三次元幾何情報を求める方法
以上の原理で用いた四つの位置p,p,p,pinfを知ることができるかどうかを考えてみる。まず、現時刻の位置pと次の時刻の位置pはカメラ画像から知ることができる。次に、無限時刻の位置は、平面(あるいはカメラ)の移動方向vに等しいから知ることができる。上記の四つの位置のうち直接に知ることができないのは、平面がカメラ中心を横切る時刻tでの位置pである。
1.3. Four positions used in the above principle method of obtaining the three-dimensional geometric data of the plane by converting the polar transformation cross ratio p 0, p 1, p c , consider whether it is possible to know the p inf. First, the position p 1 of the position p 0 and the next time the present time can be known from the camera image. Next, the position at infinite time can be known because it is equal to the moving direction v of the plane (or camera). Can not be known directly of the four positions described above is a position p c at time t c which plane crosses the camera center.

式(10a)あるいは式(12a)を変形して得られる「複比変換」によりその位置pを推定でき、次にそのpを1.1の方法で「極変換」することにより、平面の三次元幾何情報(3次元方位ns0と横切るまでの規格化時間c0)を計測できることを以下に示す。 By "cross-ratio conversion" obtained by modifying Equation (10a) or Formula (12a) can estimate its position p c, then by "polar transformation" in the process of the p c 1.1, plane It is shown below that the three-dimensional geometric information (normalized time n t c0 until crossing with the three-dimensional orientation n s0 ) can be measured.

1.3.1 複比変換
この複比変換は、規格化時間および三つの時刻での位置p,p,pinfを知って、三次元幾何情報の決定に重要な“上記の位置p”を計算するものである。式(12a)において四つの変数,p,p,pinfが判るから、残りの変数pを求めることができる――この計算は射影幾何学の複比の計算法としてよく知られている。
1.3.1 Multi-ratio transform This multi-ratio transform is important for determining three-dimensional geometric information by knowing the normalized time n t c and the positions p 0 , p 1 , and p inf at three times. The position p c ″ is calculated. Four variable n t c in the formula (12a), since p 0, p 1, p inf is known, it is possible to determine the remaining variables p c - This calculation may as double ratio calculation method of projective geometry Are known.

この計算を具体的に数式で表す。図8の球の断面部分を取り出して図9に示す。pinfを基点にして、それからの中心角a,b,xでp,p,pの位置を表す(注:この基点は任意の位置でよい)。各種の中心角を纏めて下記に示す。 This calculation is specifically expressed by a mathematical formula. 9 is taken out and shown in FIG. and a p inf base point indicates the position of p 0, p 1, p c in the central angle a, b, x therefrom (Note: This base may be any position). Various central angles are summarized below.

inf=a (13)
inf=b
inf=x
=b−a
=x−a
これら中心角を用いて上記の複比変換を数式で示す。式(10a)の右辺すなわち複比を、式(13)の中心角を用いて表すと
=(sin(b)/sin(b−a))
/(sin(x)/sin(x−a)) (14a)
となる。これを変形すると、pとpinfとの中心角xが
x=tan−1((sin(a)sin(b))
/(cos(a)sin(b)− sin(b−a)))
(14b)
で与えられる。従って、規格化時間および“三つの時刻の位置p,p,pinf”を与えると、平面を横切る時刻での位置pが式(14b)により計算されること、すなわち複比変換の数式が示された。
p inf p 0 = a (13)
p inf p 1 = b
p inf p c = x
p 0 p 1 = ba
p 0 pc = x−a
Using these central angles, the above-described cross ratio conversion is expressed by a mathematical expression. When the right side of the equation (10a), that is, the cross ratio is expressed using the central angle of the equation (13),
n t c = (sin (b) / sin (ba))
/ (Sin (x) / sin (x−a)) (14a)
It becomes. By transforming this, the central angle x between p c and p inf is x = tan -1 ((sin ( a) sin (b))
/ (Cos (a) sin ( b) - n t c sin (b-a)))
(14b)
Given in. Therefore, given the normalized time n t c and “three time positions p 0 , p 1 , p inf ”, the position p c at the time crossing the plane is calculated by the equation (14b), The formula for ratio conversion is shown.

ここで、一般の動画像処理やオプティカルフローの研究では上記で用いた“次の時刻の位置p”の代わりに、“現時刻からの変化分p−p(すなわち、運動視差τであり中心角pで表される)”を扱うことが多い。オプティカルフロー・パターン(図1)の各矢印がこの変化分であり、矢印の始点が現時刻位置pで終点が次時刻位置pである。図9ではその変化分を角度τで表した。この場合の複比変換の数式を以下に示す。各種の中心角は
inf=a (15)
=τ
inf=x
inf=a+τ
=x−a
であり、式(10a)の右辺を式(15)の中心角を用いて表すと
=(sin(a+τ)/sin(τ))
/(sin(x)/sin(x−a)) (16a)
となる。これを変形すると、pとpinfとの中心角xが
x=tan−1((sin(a)sin(a+τ))
/(cos(a)sin(a+τ)− sin(τ)))(16b)
で与えられ、複比変換の別の数式が得られた。
Here, in the study of the general moving image processing and optical flow instead of used in the above "position p 1 at the next time", "change in p 1 -p 0 from the current time (i.e., in motion parallax τ In most cases, the center angle p 0 p 1 ) ”is handled. Each arrow in the optical flow pattern (FIG. 1) is this change, and the start point of the arrow is the current time position p 0 and the end point is the next time position p 1 . In FIG. 9, the amount of change is represented by an angle τ. The formula for the cross ratio conversion in this case is shown below. Various central angles are p inf p 0 = a (15)
p 0 p 1 = τ
p inf p c = x
p inf p 1 = a + τ
p 0 pc = x−a
And the right side of equation (10a) is expressed using the central angle of equation (15)
n t c = (sin (a + τ) / sin (τ))
/ (Sin (x) / sin (x−a)) (16a)
It becomes. By transforming this, p c and p central angle x is x = tan with inf -1 ((sin (a) sin (a + τ))
/ (Cos (a) sin ( a + τ) - n t c sin (τ))) (16b)
And another formula for cross ratio conversion was obtained.

1.3.2 平面の3次元方位と横切るまでの規格化時間の決定法
上記の複比変換を用いて、平面の3次元方位nと横切るまでの規格化時間を決定する方法を説明する。それは以下の四つのステップで行われる。
1.3.2 using 3-dimensional orientation as the cross normalized time Determination above cross ratio conversion to the plane, a method of determining a normalized time n t c to traverse the three-dimensional orientation n s plane Will be explained. This is done in four steps:

(1)規格化時間パラメータを任意に設定する。 (1) The normalized time parameter n t c is arbitrarily set.

(2)画像内の各点について、現在と次の時刻での位置p,pをカメラ画像から知り、また無限時間経過後の位置pinfを移動方向vから知って、それらを式(14b)あるいは式(16b)に代入して複比変換を行って、位置pを計算する。 (2) For each point in the image, the positions p 0 and p 1 at the current time and the next time are known from the camera image, the position p inf after elapse of infinite time is known from the moving direction v, and they are expressed by the formula ( 14b) or by performing a multi-ratio conversion into equation (16b), calculates the position p c.

(3)1.1の“平面の3次元方位nを計測する原理”に基づいて、平面の法線ベクトルnの候補を求める。すなわち、ステップ(2)で求めたpを極変換して、球面上に大円を描く。ここで、大円を描く意味を説明する。もしステップ(1)で与えた規格化時間パラメータが真の規格化時間c0であれば、図5で述べたように、それら大円の交差点として平面の法線ベクトルns0が求まる。しかし、ステップ(1)では任意にパラメータを与えているため、一般には一点で交差しない。従って、ここで描く大円は、平面の法線ベクトルnの候補を求めたことになる。なお、上記大円の強度は“画像内の位置pの明るさ”にし、また複数の大円が交わる場所ではそれら大円の強度を加算した強度にする。 (3) 1.1 based on "the principle of measuring the three-dimensional orientation n s plane", determining a candidate of the normal vector n s plane. That is, polar transformation to p c obtained in step (2), draw a great circle on a sphere. Here, the meaning of drawing a great circle will be described. If the normalized time parameter n t c given in step (1) is the true normalized time n t c0 , as described in FIG. 5, the plane normal vector n s0 is used as the intersection of these great circles. I want. However, in step (1), since the parameter n t c is arbitrarily given, generally it does not intersect at one point. Therefore, great circle drawn here would determine the candidate of the normal vector n s plane. The intensity of the great circle is set to “brightness at position p 0 in the image”, and at a place where a plurality of great circles intersect, the intensity of the great circles is added.

(4)以上のステップを規格化時間パラメータを変えて行い、ステップ(3)で描かれる複数の大円が一点で交差するパラメータ値c0を求める。そのパラメータ値として“平面を横切るまでの規格化時間c0”が得られる。また、上記の交差点の座標として、平面の方位ns0が得られる。なお、上記の交差点検出の代わりに、強度がピークになる点を検出してもよい。 (4) The above steps are performed while changing the normalized time parameter n t c, and a parameter value n t c0 at which a plurality of great circles drawn in step (3) intersect at one point is obtained. As the parameter value, “normalized time n t c0 until crossing the plane” is obtained. In addition, the plane direction ns0 is obtained as the coordinates of the intersection. Instead of the above intersection detection, a point where the intensity reaches a peak may be detected.

ここで、ステップ(2)の複比変換で計算した位置pの幾何学的意味を説明しておく。そのpは、任意時刻Δtでの位置を「予測」したものである。この予測は、複比変換のベースである式(10a)の導出過程から明らかであるが、直感的には式(12b)を言い換えて
「任意時刻Δt(すなわち規格化時間)の位置を予測するには、原点、無限遠点、単位点をそれぞれp,pinf,pとする基点系において、座標がの位置pを求めればよい」
とすると理解できる。このようにして予測されるpが大円上に並ぶ時刻が、図5に示した“平面がカメラ中心を横切る時刻c0Δt(すなわちtc0)”であり、その時刻に対応して“平面を横切るまでの規格化時間c0”が決定される。これらpを極変換した大円は一点で交わり、その交差点の座標として平面の3次元方位ns0が決定される(図5)。
Here, a description of the geometrical meaning of the position p c calculated by the cross-ratio conversion step (2). Its p c is the position at any time n t c Delta] t obtained by "prediction". This prediction is clear from the derivation process of the equation (10a) that is the base of the cross ratio conversion, but intuitively, the equation (12b) can be rephrased as “arbitrary time n t c Δt (ie, normalized time n t c Situated in predicting of), the origin, the point of infinity, p 0 units points respectively, p inf, in origin system to p 1, coordinates may be obtained a position p c of the n t c "
You can understand that. Time p c predicted this manner are arranged on the great circle is the "time n t c0 Delta] t across the plane center of the camera (i.e., t c0)" shown in FIG. 5, in response to the time “Normalized time n t c0 until crossing the plane” is determined. Great circle obtained by converting these p c poles meet at one point, the three-dimensional orientation n s0 plane are determined as the coordinates of the intersection (Fig. 5).

1.3.3 上記ステップの幾何学的意味   1.3.3 Geometric meaning of the above steps

上述の各ステップの幾何学的意味を図10により説明する。図10(A)に示されているように、球面カメラ画像の上の各点は、現時刻の位置pから次の時刻の位置pに移動し、次に“平面がカメラ中心を横切る時刻”での位置pを経て、最後に無限時間経過後には“平面(あるいはカメラ)の移動方向vに等しい位置pinf”に到達する(図6参照)。 The geometric meaning of each step described above will be described with reference to FIG. As shown in FIG. 10A, each point on the spherical camera image moves from the current time position p 0 to the next time position p 1 , and then the “plane crosses the camera center. "through the position p c in the last and after infinite time has elapsed" time to reach the plane (or camera) position equivalent p inf in the moving direction v of "(see FIG. 6).

位置pの決定(ステップ(2)の意味):“現在と次の時刻の位置p,p”およびステップ(1)で与えた“規格化時間パラメータ”を式(14b)により複比変換して、“平面がカメラ中心を横切る時刻”での位置pを決定する。この様子を図10(A)に示す。なお、式(16b)の複比変換を用いる場合は、次時刻の位置pの代わりに“現時刻位置pから次時刻位置pへの差ベクトルτ”を用いる。 Determination of the position p c (meaning of Step (2)): "Present and position p 0 of the next time, p 1" and was given in step (1) "normalized time parameter n t c" Equation (14b) converts cross ratio by, determining the position p c for "time plane crosses camera center". This state is shown in FIG. When the cross ratio conversion of the equation (16b) is used, “the difference vector τ from the current time position p 0 to the next time position p 1 ” is used instead of the position p 1 of the next time.

平面方位の候補群{n}の描画(ステップ(3)の意味):上記で決定された位置pを極変換して、球面上に大円、すなわち平面方位の候補群{n}を図10(A)のように描く。もしステップ(1)で与えた規格化時間パラメータが真の規格化時間c0であれば、画像内の複数の点に対応するこれら大円の交差点として平面の法線ベクトルns0が求まる。 Drawing candidates plane orientation {n s} (meaning of Step (3)): to convert the position p c determined above polar great circle on the sphere, i.e. candidates plane orientation {n s} Is drawn as shown in FIG. If the normalized time parameter n t c given in step (1) is the true normalized time n t c0 , the normal vector n s0 of the plane as the intersection of these great circles corresponding to a plurality of points in the image. Is obtained.

円柱配列の座標値として三次元幾何情報を決定(ステップ(4)の意味):図10(A)の球面を平面の上に射影して、球面上の像を「円」の内部に変換する――射影する方法には、等立体角射影法、等距離射影法、正射影法等が知られている(「最新レンズ設計講座23レンズ設計に付随する諸問題(1) (中川著、写真工業、1982年)」:「昭和59年度実用原子力発電施設作業ロボット開発委託研究成果報告書(極限作業ロボット技術研究組合)」の4.2.2.1節;「昭和60年度実用原子力発電施設作業ロボット開発委託研究成果報告書(極限作業ロボット技術研究組合)」の4.2.2.1節)。その円を規格化時間パラメータを縦軸にして積み重ねて、図10(B)のような「円柱配列」にする。このようにすると、ステップ(1)の幾何学的意味がはっきりする。すなわち、ステップ(1)で任意に与えた規格化時間パラメータは、この円柱の高さ座標を指定したことになり、ステップ(2)と(3)では、その高さでの断面円――図10(A)の球面像を「円」の内部に変換したもの――を描いたことになる。ステップ(1)では任意にパラメータを与えているため、図10(B)の上面に示すように大円は一点で交差しないが、その高さが真の規格化時間c0に等しくなる断面円では、大円が一点で交差する。従って、この円柱の「高さ座標」として平面の規格化時間c0が得られ、また「断面円内での交差座標」として3次元方位nが得られる(図10(B))。 3D geometric information is determined as the coordinate value of the cylindrical array (meaning of step (4)): the spherical surface in FIG. 10A is projected onto a plane, and the image on the spherical surface is converted into a “circle”. --There are known three-dimensional projection method, equidistant projection method, orthographic projection method, etc. ("Latest lens design course 23 Problems associated with lens design (1) (Photo by Nakagawa, Photography) "Industry, 1982": Section 4.2.2.1 of the "Research Results Report on Working Robot Development Contracted for Working Nuclear Power Generation Facilities in 1984 (Extreme Working Robot Technology Research Association)"; Section 4.2.2.1 of “Work Robot Development Contract Research Results Report (Extreme Work Robot Technology Research Association)”. The circles are stacked with the normalized time parameter n t c as the vertical axis to form a “cylindrical array” as shown in FIG. In this way, the geometric meaning of step (1) becomes clear. That is, the normalized time parameter n t c arbitrarily given in step (1) specifies the height coordinate of this cylinder, and in steps (2) and (3), the cross-sectional circle at that height -Drawing the spherical image of Fig. 10 (A) into a "circle". Since the parameter n t c is arbitrarily given in step (1), the great circles do not intersect at one point as shown in the upper surface of FIG. 10B, but the height is equal to the true normalization time n t c0 . In equal cross-sectional circles, the great circles intersect at one point. Accordingly, the normalized time of the plane as "height coordinate" n t c0 cylindrical can be obtained and the three-dimensional orientation n s as "cross coordinates in the section circle" is obtained (FIG. 10 (B)).

1.4 シミュレーションによる確認
1.3.2と1.3.3で説明した“平面の三次元幾何情報を計測するアルゴリズム”が正しいことを計算機シミュレーションで示す(図11)。そのシミュレーションは、実施形態A−1のフローで行った。
1.4 Confirmation by simulation It is shown by computer simulation that the “algorithm for measuring three-dimensional geometric information of a plane” described in 1.3.2 and 1.3.3 is correct (FIG. 11). The simulation was performed according to the flow of Embodiment A-1.

まず、入力データを説明する。球面カメラ(あるいは眼球)の真正面に垂直な平面があり、カメラ中心までの距離が3mである。その平面が、それに垂直な方向(すなわち、平面の法線ベクトルns0と平行な方向)に、カメラに向かって1m/秒の速度で移動する。その平面の上に8個の点があり、それらの点の“現在と次の時刻の球面上位置p,p”が入力画像データとして観測される。なお、現在から次の時刻までの時間差Δtは0.05秒であり、無限時刻の位置pinfはカメラの移動方向vに等しく視野中心にある。以上から、カメラが平面を横切るまでの時間tは3/1=3秒であり、従って規格化時間c0は3/0.05=60である。また、平面の法線ベクトルns0は視野中心にある。 First, input data will be described. There is a plane perpendicular to the front of the spherical camera (or eyeball), and the distance to the camera center is 3 m. The plane moves in a direction perpendicular to it (ie, in a direction parallel to the normal vector n s0 of the plane) toward the camera at a speed of 1 m / sec. There are eight points on the plane, and “the current and next time positions p 0 , p 1 ” of these points are observed as input image data. The time difference Δt from the present time to the next time is 0.05 seconds, and the position p inf at the infinite time is equal to the moving direction v of the camera and at the center of the visual field. From the above, the time t c until the camera crosses the plane is 3/1 = 3 seconds, and thus the normalized time n t c0 is 3 / 0.05 = 60. The plane normal vector ns0 is at the center of the visual field.

現在と次の時刻の位置p,pおよび無限時間経過後の位置pinfから、前述のアルゴリズム(複比変換と極変換)により、平面の三次元幾何情報(c0とns0)を求めたシミュレーション結果を図11に示す。1.3.3で説明した各規格化時間パラメータでの“円柱の断面円”を並べて示す。各断面円は、図10(A)の球面を“1.3.3で説明した等距離射影方式(実施形態の式(103c)を参照)”で球を通る平面上に射影してある。右下が現在時刻に対応する=0での断面円で、左上の無限時刻に対応する=無限に向かって、パラメータが大きくなる順に並べてある。各断面円について説明する。各断面円には、位置p,pとパラメータから「複比変換」で計算した位置pがドットで描かれており、平面上の8個の点に対応して8個のpが描かれている――これらpは、1.3.2で述べたように、任意の時刻Δtで各点の見える位置を「予測」したものである。次に、それらpを「極変換」した8個の大円が描かれている。 From the current position p 0 of the next time, p 1 and the position p inf after infinite time has elapsed, by the algorithm described above (cross-ratio conversion and polar transformation), the three-dimensional geometric data of the plane (n t c0 and n s0) FIG. 11 shows a simulation result obtained for the above. “Cylinder cross-sectional circles” at the normalized time parameters n t c described in 1.3.3 are shown side by side. Each cross-sectional circle is projected on the plane passing through the sphere by the “equal distance projection method described in 1.3.3 (see equation (103c) in the embodiment)” in FIG. 10A. The lower right is a cross-sectional circle at n t c = 0 corresponding to the current time, and is arranged in order of increasing parameters n t c toward n t c = infinite corresponding to the upper left infinite time. Each cross-sectional circle will be described. Each circular section, the position p 0, p 1 and the parameter n t c position p c calculated by the "cross-ratio conversion" from is depicted by dots, 8 corresponding to the eight points on a plane p c is depicted in - these p c, as described in 1.3.2, is a position overlooking the respective points at an arbitrary time n t c Delta] t obtained by "prediction". Then, they p c eight great circles that "polar transformation" is depicted.

最初の断面円(右下、=0)ではそれら大円が散らばって存在するが、パラメータが大きくなるにつれて収束していき、が60の断面円(右端の上から2番目)ではそれら大円が一点で交差する。これよりもが大きくなるとまた発散していく。このように、=60の高さでだけ大円が一点で交差する。この高さが上述の“平面を横切るまでの規格化時間c0”の値60に等しい。また、一点に交差する方位は視野の中心にあり、上述の“平面の法線ベクトルns0”に等しい。以上のシミュレーションから、1.3.2と1.3.3で説明した“平面の三次元幾何情報を計測するアルゴリズム”の正しいことが確認された。 In the first cross-sectional circle (bottom right, n t c = 0), these great circles are scattered, but converge as the parameter n t c increases, and the cross-sectional circle with n t c of 60 (upper right end) In the second), these great circles intersect at one point. When n t c becomes larger than this, it diverges again. Thus, the great circles intersect at one point only at the height of n t c = 60. This height n t c is equal to the value 60 of the above-mentioned “normalized time n t c0 until crossing the plane”. The azimuth intersecting one point is at the center of the field of view and is equal to the above-described “plane normal vector n s0 ”. From the above simulation, it was confirmed that the “algorithm for measuring three-dimensional geometric information of a plane” described in 1.3.2 and 1.3.3 was correct.

1.5 移動方向に平面を横切るまでの規格化距離を計測する方法
規格化距離は、“移動方向に平面を横切るまでの距離d(この距離は図8のVtである)”を“現在から次の時刻までの移動距離Δx”で規格化したものであり、下式で表される。
1.5 normalized distance n d c measures how normalized distance n d c up across the plane in the moving direction, "the distance d c (this distance to crossing the plane direction of movement Vt c of FIG. 8 Is standardized by “movement distance Δx from the present time to the next time”, and is expressed by the following equation.

=d/Δx
=Vt/Δx (17a)
式(7)を代入し、また式(1)を用いて変形すると
=Vt/(VΔt)=t/Δt
(17b)
になり、規格化距離は前述の“規格化時間”に等しいことが示された。従って、規格化時間を求める方法(1.3.2)をそのまま用いて規格化距離を計測できる。
n d c = d c / Δx
= Vt c / Δx (17a)
Substituting equation (7) and transforming using equation (1)
n d c = Vt c / ( VΔt) = t c / Δt
= N t c (17b)
Thus, it was shown that the normalized distance n d c is equal to the aforementioned “normalized time n t c ”. Therefore, measuring the normalized distance n d c used as it is a method (1.3.2) to obtain the normalized time n t c.

1.6 移動方向vを知らなくても良い方法
以上では、移動方向vは既知であるとして、平面の3次元方位nとそれを横切るまでの規格化時間を計測する方法を述べた。すなわち、その方向vから“無限時刻の位置pinf”を定め、次にその位置を用いて複比変換を行い、最後に極変換を行って三次元方位nと規格化時間を求めた。
1.6 In the moving direction v or good way without having to know, as the movement direction v is known, describes a method for measuring the normalized time n t c to the three-dimensional orientation n s plane thereacross It was. That is, determine the "position of the infinite time p inf" from the direction v, then performs a cross-ratio conversion using the position, the end performing polar transformation three-dimensional orientation n s and the normalized time n t c Asked.

ここでは、移動方向vが未知でも“平面の三次元方位nと規格化時間”を計測できる方法を提供する。この方法により、例えばインターネット・ビデオ・映画の画像などで撮影中の移動方向が判らない場合でも“それら方位と時間”を計測できる。また、平面が移動している場合にはその移動方向は一般に判らないが、その場合でも“それら方位と時間”を移動方向vとともに計測できる。その方法の概要を説明すると、移動方向vが全ての方向にあり得ると仮定し、各移動方向に対して1.3.2の“複比変換と極変換”を行って極線を描く。それら極線が一定で交差する移動方向を求めると、それが真の移動方向vであり、またその交差点の座標として平面の三次元方位nと規格化時間が求められるものである。それは下記のステップで行われる。 Here, the moving direction v is to provide a method which can measure the "three-dimensional orientation n s and the normalized time n t c plane" in unknown. By this method, for example, even when the moving direction during shooting is not known in the Internet, video, movie image, etc., “the direction and time” can be measured. Further, when the plane is moving, the moving direction is generally not known, but even in that case, “the direction and time” can be measured together with the moving direction v. The outline of the method will be described. It is assumed that the moving direction v can be in all directions, and “3.2. When calculating the moving direction thereof poles lines intersect at a certain, but it is true of the movement direction v 0, also the three-dimensional orientation n s and the normalized time n t c of the plane is determined as the coordinates of the intersection is there. It is done in the following steps.

(1)移動方向パラメータvを任意に設定する。   (1) The moving direction parameter v is arbitrarily set.

(2)そのパラメータvの方向を“無限時刻の位置pinf”とする。 (2) The direction of the parameter v is set to “infinite time position p inf ”.

(3)1.3.2のステップ(1)〜(4)を実行し、全ての規格化時間パラメータに対する極線を円柱配列(図10(B))の内部に描く。 (3) Steps (1) to (4) in 1.3.2 are executed, and polar lines for all the normalized time parameters n t c are drawn inside the cylindrical array (FIG. 10B).

(4)以上のステップを移動方向パラメータvを変えて行い、上記ステップで描かれる極線が一点で交差するパラメータ値vを求める。このパラメータ値が真の移動方向vである。その交差点の座標として、平面の方位ns0および平面を横切るまでの規格化時間c0が求められる。なお、上記の交差点検出の代わりに、強度がピークになる点を検出してもよい。 (4) The above steps are performed by changing the moving direction parameter v, and a parameter value v 0 at which the polar lines drawn in the above steps intersect at one point is obtained. This parameter value is true in the moving direction v 0. As the coordinates of the intersection, the plane direction n s0 and the normalized time n t c0 until crossing the plane are obtained. Instead of the above intersection detection, a point where the intensity reaches a peak may be detected.

2.平面までの規格化最短距離の計測法
平面の3次元方位nと平面までの規格化最短距離を計測する方法を提供する。ここで規格化最短距離は、平面までの最短距離dを“現在から次の時刻までにカメラ(あるいは平面)が移動した距離Δx”で規格化した距離であり、式(19)で表される。
2. A method of measuring the normalized shortest distance n d s to 3-dimensional orientation n s and the plane of the normalized shortest distance measurement method plane to plane. Here, the normalized shortest distance is a distance obtained by normalizing the shortest distance d s to the plane by “distance Δx that the camera (or plane) has moved from the present time to the next time”, and is expressed by Expression (19). The

=d/Δx (19)
この規格化最短距離と“1で説明した規格化時間”との間には、nを平面の3次元方位、vを移動方向、そして()をスカラー積として
(n・v) (20)
の関係がある。その理由を図12――平面のベクトルnと移動方向vが横たわる平面での断面――を用いて説明する。“カメラ中心Oから平面までの最短距離d”は、“移動方向に平面を横切るまでの距離Vt”の法線方向成分であるから、
=Vt(n・v) (21)
の関係がある――Vは移動速度の大きさである。この式の両辺を移動距離Δxで規格化すると、下式になり式(20)が得られた。
n d s = d s / Δx (19)
Between this normalized shortest distance n d s and “standardized time n t c ” described in “1”, ns is a three-dimensional orientation of a plane, v is a moving direction, and () is a scalar product.
n d s = n t c ( n s · v) (20)
There is a relationship. The reason will be described with reference to FIG. 12—a cross section in a plane in which the plane vector n s and the moving direction v lie. Since “the shortest distance d s from the camera center O to the plane” is a normal direction component of “the distance Vt c to cross the plane in the moving direction”,
d s = Vt c (n s · v) (21)
-V is the speed of movement. When both sides of this equation are normalized by the movement distance Δx, the following equation is obtained and equation (20) is obtained.

=d/Δx
=(Vt/Δx)(n・v)
=(Vt/(VΔt))(n・v)
(n・v) (22)
なお、上記の変形には、“現在から次の時刻までの時間差Δt”と“その間に移動する距離Δx”との次の関係を用いた。
n d s = d s / Δx
= (Vt c / Δx) ( n s · v)
= (Vt c / (VΔt) ) (n s · v)
= N t c (n s · v) (22)
In the above modification, the following relationship between “the time difference Δt from the present time to the next time” and “the distance Δx moving between them” was used.

Δx=VΔt (23)
2.1 平面の規格化最短距離と3次元方位nを計測する方法
1.3.2で述べたアルゴリズム(複比変換と極変換)に“との関係(式(20))”を組み合わせると、平面の3次元方位nと規格化最短距離を計測できる。
Δx = VΔt (23)
2.1 the plane normalized shortest distance n d s and algorithms described in method 1.3.2 of measuring the three-dimensional orientation n s of (cross-ratio conversion and polar transformation) "in the n d s and n t c combining relationships (equation (20)) ", can be measured three-dimensional orientation n s and the normalized shortest distance n d s plane.

図13を用いて説明する。それは以下の六つのステップで行われる。   This will be described with reference to FIG. It is done in the following six steps.

(1)規格化最短距離パラメータを任意に設定する。 (1) The normalized shortest distance parameter n d s is arbitrarily set.

(2)移動方向vを中心とする小円を考え、その半径rを任意に設定する(図13)。この小円上にある“平面の3次元方位候補n”をステップ(4)で求める。そのためには、規格化時間パラメータを下式で決まる値に設定する必要がある。 (2) Considering a small circle centered on the moving direction v, the radius r is arbitrarily set (FIG. 13). In step (4), the “plane three-dimensional orientation candidate n s ” on the small circle is obtained. For this purpose, it is necessary to set the normalized time parameter n t c to a value determined by the following equation.

/cos(r) (24)
その理由を説明する。まず、nは“vを中心とする半径rの小円”の上にあるからn、v、そしてrの間には下式の関係があり、
cos(r)=(n・v) (25a)
またnは式(20)を満たす必要があるから、式(20)に式(25a)を代入すると
cos(r) (25b)
になり、これを変形して式(24)が得られる。
n t c = n d s / cos (r) (24)
The reason will be explained. First, since n s is above “a small circle with radius r centered on v”, there is a relationship between n s , v, and r:
cos (r) = (n s · v) (25a)
Also, since n s needs to satisfy equation (20), substituting equation (25a) into equation (20)
n d s = n t c cos (r) (25b)
This is transformed to obtain equation (24).

(3)画像内の各点について、現在と次の時刻での位置p,pをカメラ画像から知り、また無限時間経過後の位置pinfを移動方向vから知って、それらと規格化時間パラメータを式(14b)あるいは式(16b)に代入して複比変換を行って、位置pを計算する。 (3) For each point in the image, the positions p 0 and p 1 at the current time and the next time are known from the camera image, and the position p inf after the infinite time has elapsed is known from the moving direction v and normalized with them. The position parameter p c is calculated by substituting the time parameter n t c into the equation (14b) or the equation (16b) and performing a cross ratio conversion.

(4)ステップ(3)で求めたpを極変換して、球面上に大円gpcを描く。この大円とステップ(2)の小円との二つの交点s+s−が“平面の3次元方位候補”である(図13)。なお、この交点が式(29)で表されることを後述する。 (4) Step (3) to polar transformation to p c determined, draw a great circle g pc on a spherical surface. Two intersections r n s + and r n s− of the great circle and the small circle in step (2) are “planar three-dimensional orientation candidates” (FIG. 13). In addition, it mentions later that this intersection is represented by Formula (29).

(5)ステップ(2)〜(4)を半径rを変えて行い、ステップ(4)で求まる二つの交点s+s−からなる曲線を描く(図13)――この曲線は、2.2で述べるように“pを中心とする小円”になる。ここで、この曲線を描く意味を説明する。もしステップ(1)で与えた規格化最短距離パラメータが真の規格化最短距離s0であれば、それら曲線の交差点として平面の法線ベクトルns0が求まる。しかし、ステップ(1)では任意にパラメータを与えているため、一般には一点で交差しない。従って、ここで描く曲線は、平面の法線ベクトルnの候補を求めたことになる。なお、上記曲線の強度は“画像内の位置pの明るさ”にし、また複数の曲線が交わる場所ではそれら曲線の強度を加算した強度にする。 (5) Step (2) to perform (4) by changing the radius r, the two intersection points r n s + which is obtained in step (4), a curve consisting of r n s-(13) - This curve As described in 2.2, it becomes “a small circle centered on p 0 ”. Here, the meaning of drawing this curve will be described. If the normalized shortest distance parameter n d s given in step (1) is the true normalized shortest distance n d s0 , a plane normal vector n s0 is obtained as the intersection of these curves. However, in step (1), since the parameter n d s is arbitrarily given, generally it does not intersect at one point. Thus, the curve drawn here would determine the candidate of the normal vector n s plane. It should be noted that the intensity of the curve is “brightness at position p 0 in the image”, and the intensity obtained by adding the intensities of the curves at a place where a plurality of curves intersect.

(6)以上のステップを規格化最短距離パラメータを変えて行い、ステップ(5)で描かれる複数の曲線が一点で交差するパラメータ値s0を求める。そのパラメータ値として“カメラ中心Oから平面までの規格化最短距離s0”が得られる。また、上記の交差点の座標として、平面の方位ns0が得られる。なお、上記の交差点検出の代わりに、強度がピークになる点を検出してもよい。 (6) The above steps are performed by changing the normalized shortest distance parameter n d s, and a parameter value n d s0 at which the plurality of curves drawn in step (5) intersect at one point is obtained. As the parameter value, “standardized shortest distance n d s0 from the camera center O to the plane” is obtained. In addition, the plane direction ns0 is obtained as the coordinates of the intersection. Instead of the above intersection detection, a point where the intensity reaches a peak may be detected.

2.2 平面の規格化最短距離と3次元方位nを計測する別の方法
まず、2.1(5)で描かれる曲線が小円であることを示し、次に、その小円描画を用いて平面の規格化最短距離s0と3次元方位ns0を計測する方法を説明する。
2.2 Another method for measuring the standardized shortest distance n d s and the three-dimensional orientation n s of the plane First, it is shown that the curve drawn in 2.1 (5) is a small circle, and then the small A method for measuring the standardized shortest distance n d s0 and the three-dimensional azimuth n s0 of the plane using circle drawing will be described.

2.2.1 小円になることの証明
証明のために図13に各種パラメータを書き込んだものを図14に示す。これらパラメータを用いて2.1のステップ(3)〜(5)を下記のように数式で表現し、2.1(5)の曲線が小円であることを示す。
2.2.1 Proof of becoming a small circle FIG. 14 shows various parameters written in FIG. 13 for proof. Using these parameters, steps (3) to (5) of 2.1 are expressed by the following mathematical formulas, indicating that the curve of 2.1 (5) is a small circle.

まず、ステップ(3)で述べた“位置p”を数式で表現する。すなわち、pとpinfとの中心角x(図9)は式(16b)に式(24)を代入して下式で表現される。なお、ここでは式(16b)を用いるが、それと等価な式(14b)を用いても同様にして証明できる。 First, the “position p c ” described in step (3) is expressed by a mathematical expression. That, p c and p inf and central angle x (Fig. 9) of is represented by the following equation by substituting equation (24) into equation (16b). In addition, although Formula (16b) is used here, even if it uses Formula (14b) equivalent to it, it can prove similarly.

tax(x)=(sin(a)sin(a+τ))
/(cos(a)sin(a+τ)
−(/cos(r))sin(τ)) (26)
次に、“そのpを極変換した大円”とステップ(2)の小円”との交点、すなわち平面の3次元方位候補s+s−を数式で表現する。三角形s+vに余弦定理を適用すると
cos(π/2)=cos(r)cos(−x)
+sin(r)sin(−x)cos(π−(αs+−α))
=cos(r)cos(x)
+sin(r)sin(x)cos(αs+−α) (27)
になる。上式のπ/2は方位候補点s+が“pの極線”上にあることに起因する。式(27)に式(26)を代入して、xを消去すると
cos(αs+−α)=−cot(r)cot(x)
=−cot(r)(cos(a)sin(a+τ)
−(/cos(r))sin(τ))
/(sin(a)sin(a+τ))
=−(cos(r)cos(a)sin(a+τ)
sin(τ))
/(sin(r)sin(a)sin(a+τ))
になり、さらに変換すると
cos(r)cos(a)+sin(r)sin(a)cos(αs+−α
sin(τ)/sin(a+τ) (28)
になる。平面方位の候補点s+s−の経度座標点αs+αs−は式(28)を変形して
αs+=α+(αs+−α
=α+cos−1((( sin(τ)/sin(a+τ))
−cos(r) cos(a))/(sin(r)sin(a)))
αs−=α−(αs+−α
=α−cos−1((( sin(τ)/sin(a+τ))
−cos(r) cos(a))/(sin(r)sin(a)))
(29)
で計算される。従って、平面方位の候補点s+s−の経度座標rが“ステップ(2)の小円の半径r”として、また経度座標点αs+αs−は式(29)で表現された。
tax (x) = (sin (a) sin (a + τ))
/ (Cos (a) sin (a + τ)
- (n d s / cos ( r)) sin (τ)) (26)
Next, expressed intersection between the small circle "of Step (2) and" great circle that polar converts the p c ", i.e. three-dimensional orientation candidate r n s + plane, the r n s-a formula. Triangle r When you apply the cosine theorem to n s + p c v cos ( π / 2) = cos (r) cos (-x)
+ Sin (r) sin (-x ) cos (π- (r α s + -α a))
= Cos (r) cos (x)
+ Sin (r) sin (x ) cos (r α s + -α a) (27)
become. [Pi / 2 in the above equation due to the fact that the orientation candidate point r n s + is on "polar of p c". In equation (27) by substituting the equation (26), clearing the x cos (r α s + -α a) = - cot (r) cot (x)
= -Cot (r) (cos (a) sin (a + τ)
- (n d s / cos ( r)) sin (τ))
/ (Sin (a) sin (a + τ))
=-(Cos (r) cos (a) sin (a + τ)
- n d s sin (τ) )
/ (Sin (r) sin (a) sin (a + τ))
To become, when further conversion cos (r) cos (a) + sin (r) sin (a) cos (r α s + -α a)
= N d s sin (τ) / sin (a + τ) (28)
become. The longitude coordinate points r α s + and r α s− of the candidate points r n s + and r n s− in the plane orientation are obtained by transforming the equation (28).
r α s + = α a + (r α s + -α a)
= Α a + cos −1 ((( n d s sin (τ) / sin (a + τ))
-Cos (r) cos (a)) / (sin (r) sin (a)))
r α s- = α a - ( r α s + -α a)
= Α a -cos -1 ((( n d s sin (τ) / sin (a + τ))
-Cos (r) cos (a)) / (sin (r) sin (a)))
(29)
Calculated by Accordingly, the longitude coordinates r of the plane orientation candidate points r n s + and r n s− are set as “the radius r of the small circle in step (2)”, and the longitude coordinate points r α s + and r α s− are expressed by the equation (29). ).

以上の準備に基づいて、“二つの交点s+s−からなる曲線”がpを中心とする小円であることを示す。pを中心とする半径Rの小円は、三角形s+vに余弦定理を適用をして
cos(r)cos(a)
+sin(r)sin(a)cos(αs+−α)=cos(R) (30)
で表される(「幾何学大辞典2(岩田至康、槇書店)」の72頁)。式(30)と式(28)を比較すると、式(28)――すなわち、二つの交点s+s−からなる曲線――は“半径Rが下式で表されるpを中心とする小円”であることが判る。
Based on the above preparation, it is shown that “a curve formed by two intersections r n s + and r n s− ” is a small circle centered on p 0 . A small circle of radius R centered at p 0 applies the cosine theorem to the triangle r n s + p 0 v, and cos (r) cos (a)
+ Sin (r) sin (a) cos ( r [ alpha] s +-[ alpha] a ) = cos (R) (30)
(Page 72 of “Geometrical Dictionary 2 (Ishida Ishiyasu, Tsuji Shoten)”). Comparing equation (30) and equation (28), equation (28) —that is , a curve composed of two intersections r n s + and r n s −—is “p 0 where radius R is expressed by the following equation It can be seen that it is a small circle centered on.

R=cos−1 sin(τ)/sin(a+τ)) (31)
以上により、図14の二つの交点s+s−からなる曲線(すなわち式(28))は、“pを中心とする半径Rの小円”であることが示された。これは、任意の点pをこの小円に変換するとみることができ、この変換を「小円変換」と言うことにする。ここで、式(31)を現在時刻の位置p、次時刻の位置p、そして無限時刻の位置pinfで表現しておく。τ、a+τを式(15)の中心角で表現すると式(31)は下式で表される。
R = cos -1 (n d s sin (τ) / sin (a + τ)) (31)
Thus, + two intersections r n s in FIG. 14, the curve consisting of r n s-(i.e. formula (28)) has been shown to be a "p 0 radius small circle R around the". This can be regarded as converting an arbitrary point p 0 into this small circle, and this conversion will be referred to as “small circle conversion”. Here, the position p 0 in the current time equation (31), previously represented by the position p inf position p 1 and infinite time, the next time. When τ and a + τ are expressed by the central angle of Expression (15), Expression (31) is expressed by the following expression.

R=cos−1 sin(p)/sin(pinf)) (32)
式(31)では運動視差τを用いて半径Rを表現したが、次の時刻の位置pが判る場合には、式(13)を式(32)に代入して下式で与えられる。
R = cos -1 (n d s sin (p 0 p 1) / sin (p inf p 1)) (32)
While representing the radius R using the equation (31), the motion parallax tau, if it is found position p 1 of the next time is given by the following equation by substituting equation (13) into equation (32).

R=cos−1 sin(b−a)/sin(b)) (33)
2.2.2. 小円変換の幾何学的意味
R = cos -1 (n d s sin (b-a) / sin (b)) (33)
2.2.2. Geometric meaning of small circle transformation

(1)半径Rの幾何学的意味   (1) Geometric meaning of radius R

式(32)を式(4)を用いて変形すると
R=cos−1/(d/Δx)) (34a)
になり、さらに式(19)を代入して変形すると
R=cos−1((d/Δx)/(d/Δx))
=cos−1(d/d) (34b)
になる。
Wherein when the (32) is deformed by using the equation (4) R = cos -1 ( n d s / (d 0 / Δx)) (34a)
Then, if the equation (19) is further substituted and transformed, R = cos −1 ((d s / Δx) / (d 0 / Δx))
= Cos -1 (d s / d 0) (34b)
become.

半径Rの幾何学的な意味を図15により説明する。式(34b)で決まるRは、“カメラ中心Oから距離dにある点P”を通り且つ最短距離がdの平面が存在するための必要条件を示している。すなわち、平面が存在するためには、その方位nが点の方向pから“式(34b)で決まる角度R”だけ傾いていなければならないことを示している。 The geometric meaning of the radius R will be described with reference to FIG. R determined by the equation (34b) indicates a necessary condition for the existence of a plane that passes through “a point P 0 at a distance d 0 from the camera center O” and that has a shortest distance d s . That is, due to the presence of the plane shows that the orientation n s must have inclined by "angle R determined by equation (34b)" in the direction p 0 of the point.

そのような“点Pを通り最短距離がdの平面”は、pを回転軸として多数存在する。それら平面の垂線の足Pを全て描くと、図16の“カメラ中心Oを頂点とする直円錐(稜の長さがd、頂角が2R)”の底辺になる。この直円錐の稜と“Oを中心とする単位球”との交線が小円になる。2.2.1で述べた小円変換は、“点の方向p”をこの小円に変換するものである。 There are many such “planes passing through the point P 0 and having the shortest distance d s ” with p 0 as the rotation axis. When you draw all foot P h of their planes vertical, "right cone (crest length d s, apex angle 2R) whose vertices camera center O" of FIG. 16 become the bottom of the. The line of intersection between the edge of this right cone and the “unit sphere centered on O” becomes a small circle. The small circle transformation described in 2.2.1 is to transform the “point direction p 0 ” into this small circle.

なお、式(34b)は“平面の規格化最短距離”と式(36)で定義される“点の規格化最短距離”を用いて式(35)と表すこともでき、
R=cos−1) (35)
=d/Δx (36)
また、式(34a)に式(6)を代入して下式で表すこともできる。
The expression (34b) can also be expressed as the expression (35) using the “standardized shortest distance n d s of the plane” and the “standardized shortest distance n d 0 of the point” defined by the expression (36). ,
R = cos −1 ( n d s / n d 0 ) (35)
n d 0 = d 0 / Δx (36)
Also, the following equation can be expressed by substituting equation (6) into equation (34a).

R=cos−1/(pinf)) (37)
(2)小円変換の幾何学的意味
R = cos -1 (n d s / (p inf p 0 p 1)) (37)
(2) Geometric meaning of small circle transformation

以上の考察から、2.2.1の球面上の小円変換は、3次元空間内の次の変換と等価である。すなわち、「空間内の点P(方向p、距離d)」を、図16の直円錐の底の円周――すなわち“Pを通りカメラ中心Oからの最短距離がdの全平面”の法線ベクトル群{n}――へ変換するのと等価である。これが小円変換の幾何学的意味である。 From the above consideration, the small circle transformation on the spherical surface of 2.2.1 is equivalent to the next transformation in the three-dimensional space. That is, the “point P 0 in space (direction p 0 , distance d 0 )” is the circumference of the bottom of the right cone in FIG. 16—that is, the shortest distance from the camera center O through “P 0 is d s . This is equivalent to transforming into the “all-plane” normal vector group { ns }. This is the geometric meaning of small circle transformation.

2.2.3. 平面の規格化最短距離と3次元方位nを計測する別の方法
2.2.2.で説明した「小円変換」を用いて平面の規格化最短距離と3次元方位nを計測する方法を説明する。それは以下の四つのステップで行われる。
2.2.3. Another method of measuring the standardized shortest distance n d s and the three-dimensional orientation n s of the plane 2.2.2. A method of measuring the standardized shortest distance n d s and the three-dimensional orientation n s of the plane using the “small circle transformation” described in the above will be described. This is done in four steps:

(1)規格化最短距離パラメータを任意に設定する。 (1) The normalized shortest distance parameter n d s is arbitrarily set.

(2)画像内の各点について、現在と次の時刻の位置p,pをカメラ画像から知り、また無限時間経過後の位置pinfを移動方向vから知って、小円変換の半径Rを式(32)により計算する。 (2) For each point in the image, the current and next time positions p 0 and p 1 are known from the camera image, and the position p inf after the infinite time has elapsed is known from the moving direction v, and the radius of the small circle transformation R is calculated by equation (32).

(3)各点pを小円変換する。すなわち、pを中心とする半径Rの小円を球面上に描く。ここで、この小円を描く意味を説明する。もしステップ(1)で与えた規格化最短距離パラメータが真の規格化最短距離s0であれば、それら小円の交差点として平面の法線ベクトルns0が求まる。しかし、ステップ(1)では任意にパラメータを与えているため、一般には一点で交差しない。従って、ここで描く小円は、平面の法線ベクトルnの候補を求めたことになる。なお、上記小円の強度は“画像内の位置pの明るさ”にし、また複数の小円が交わる場所ではそれら小円の強度を加算した強度にする。 (3) to a small circle converts each point p 0. That is, a small circle having a radius R centered on p 0 is drawn on the spherical surface. Here, the meaning of drawing this small circle will be described. If the normalized shortest distance parameter n d s given in step (1) is the true normalized shortest distance n d s0 , a plane normal vector n s0 is obtained as an intersection of these small circles. However, in step (1), since the parameter n d s is arbitrarily given, generally it does not intersect at one point. Therefore, small circle drawn here would determine the candidate of the normal vector n s plane. The intensity of the small circle is set to “brightness at position p 0 in the image”, and at a place where a plurality of small circles intersect, the intensity of the small circles is added.

(4)以上のステップを規格化最短距離パラメータを変えて行い、ステップ(3)で描かれる複数の小円が一点で交差するパラメータ値s0を求める。そのパラメータ値として“カメラ中心Oから平面までの規格化最短距離s0”が得られる。また、上記の交差点の座標として、平面の方位ns0が得られる。なお、上記の交差点検出の代わりに、強度がピークになる点を検出してもよい。 (4) The above steps are performed by changing the normalized shortest distance parameter n d s, and a parameter value n d s0 at which a plurality of small circles drawn in step (3) intersect at one point is obtained. As the parameter value, “standardized shortest distance n d s0 from the camera center O to the plane” is obtained. In addition, the plane direction ns0 is obtained as the coordinates of the intersection. Instead of the above intersection detection, a point where the intensity reaches a peak may be detected.

ここで、以上の小円変換法を図17により幾何学的に説明する。画像内の各点について、現在と次の時刻のp,pをカメラ画像から知り、また無限時間経過後の位置pinfを移動方向vから知り、さらに規格化最短距離パラメータがステップ(1)で与えられる。これらを式(32)に代入して半径Rを決定し、図17(A)のように小円変換を行う。すなわち、pを中心として半径Rの小円を球面上に描く。次に図17(A)の球面を、1.3.3のステップ(4)でと同様に平面の上に射影して、球面上の像を「円」の内部に変換する。その円を規格化最短距離パラメータを縦軸にして積み重ねて、図17(B)の「円柱配列」にする。 Here, the above small circle transformation method will be described geometrically with reference to FIG. For each point in the image, the current and next times p 0 , p 1 are known from the camera image, the position p inf after the infinite time has elapsed is known from the moving direction v, and the normalized shortest distance parameter n d s is Given in step (1). By substituting these into equation (32), the radius R is determined, and small circle transformation is performed as shown in FIG. In other words, draw a small circle of a radius R on a spherical surface around the p 0. Next, the spherical surface of FIG. 17A is projected onto a plane in the same manner as in Step (4) of 1.3.3, and the image on the spherical surface is converted into a “circle”. The circles are stacked with the normalized shortest distance parameter n d s as the vertical axis to form a “cylindrical array” in FIG.

ステップ(1)で与えた規格化最短距離パラメータは、この円柱の高さ座標を指定したことになり、ステップ(2)と(3)では、その高さでの断面円――図17(A)の球面像を「円」の内部に変換したもの――を描いたことになる。ステップ(1)では任意にパラメータを与えているため、図17(B)の上面に示すように小円は一点で交差しないが、その高さが真の規格化最短距離s0に等しくなる断面円では、小円が一点で交差する。従って、この円柱の「高さ座標」として平面の規格化最短距離c0が得られ、また「断面円内の交差点の座標」として3次元方位nが得られる。 The normalized shortest distance parameter n d s given in step (1) specifies the height coordinate of this cylinder. In steps (2) and (3), the cross-sectional circle at that height— A spherical image of 17 (A) is converted into a “circle”. Since the parameter n d s is arbitrarily given in step (1), the small circles do not intersect at one point as shown in the upper surface of FIG. 17B, but the height is a true normalized shortest distance n d s0. In the cross-sectional circle equal to, the small circles intersect at one point. Therefore, the standardization of the plane as "height coordinate" of the cylinder shortest distance n t c0 can be obtained and the three-dimensional orientation n s as "intersection coordinates in cross-section circle" is obtained.

ここで、小円変換が成立するパラメータの範囲と性質を検討する。この変換が成立するのは、式(35)において|cos(R)|≦1、すなわち、
|≦|| (38)
の範囲にあるときである。この範囲では、半径Rはパラメータにより次のように変化する。=0では小円の半径Rがπ/2(すなわち大円)になり、||が大きくなるにつれて半径Rは小さくなって、||≦||でRがゼロになる。この“半径Rがゼロになる”は、図15において、“点Pを通りベクトル0Pに直交する平面”に対応する。
Here, the range and nature of the parameter n d s in which the small circle transformation is established are examined. This conversion is established because | cos (R) | ≦ 1 in equation (35), that is,
| N d s | ≦ | n d 0 | (38)
When it is in the range. In this range, the radius R varies according to the parameter n d s as follows. When n d s = 0, the radius R of the small circle becomes π / 2 (that is, the great circle), and as | n d s | becomes larger, the radius R becomes smaller, and | n d s | ≦ | n d 0 | R becomes zero. The "radius R is zero n d s" is 15, corresponding to the "plane orthogonal as vectors 0P 0 points P 0".

以上の検討に基づいて、画像内の任意の点pが円柱配列内のどのような幾何学形状に小円変換されるかを図17(C)で説明する。変換される小円の中心は高さによらずpにあり、また半径Rは上記で説明したように変化するため、点pは“回転楕円体のような立体”の表面に小円変換される。その頂点がで、回転軸がpである。画像内に複数の点があると、それらが小円変換された“回転楕円体表面”が一点で交わり、その交差点の座標として、平面の三次元方位ns0と規格化最短距離s0が得られる。なお、図17(C)ではpが円柱中心にある場合の“回転楕円体”を描いたが、中心からはずれる場合にはその楕円体は円柱からはみ出すが、その部分は描かなくてよい。 Based on the above discussion, FIG. 17C will explain to which geometrical shape in the cylindrical array an arbitrary point p 0 in the image is transformed into a small circle. Since the center of the small circle to be transformed is at p 0 regardless of the height n d s and the radius R changes as described above, the point p 0 is the surface of a “spheroid-like solid” Is converted to a small circle. Its vertex is n d 0 and its rotation axis is p 0 . If there are a plurality of points in the image, the “spheroid surface” obtained by transforming them into small circles intersects at one point, and the coordinates of the intersection include the three-dimensional azimuth n s0 of the plane and the normalized shortest distance n d s0. can get. In FIG. 17C, the “spheroid” is drawn when p 0 is at the center of the cylinder, but when it is off the center, the ellipsoid protrudes from the cylinder, but that part need not be drawn.

2.3 シミュレーションによる確認
2.2.3で説明した“平面の三次元幾何情報を計測するアルゴリズム”の正しいことを計算機シミュレーションで示す(図18)。そのシミュレーションは、実施形態A−3のフローで行った。
2.3 Confirmation by simulation It is shown by computer simulation that the “algorithm for measuring three-dimensional geometric information of a plane” explained in 2.2.3 is correct (FIG. 18). The simulation was performed according to the flow of Embodiment A-3.

まず、入力データを説明する。球面カメラ(あるいは眼球)の真正面に垂直な平面があり、カメラ中心Oまでの距離が3mである。その平面が、それに垂直な方向(すなわち、平面の法線ベクトルns0と平行な方向)に、カメラに向かって1m/秒の速度で移動する。その平面の上に8個の点があり、それらの点の“現在と次の時刻の球面上位置p,p”が入力画像データとして観測される。なお、現在から次の時刻までの時間差Δtは0.05秒であり、従って現在から次の時刻までの移動距離Δxは0.05×1=0.05mである。無限時刻の位置pinfはカメラの移動方向vに等しく視野中心にある。以上から、平面の規格化最短距離s0は式(19)により30.05=60であり、平面の法線ベクトルns0は視野中心にある。 First, input data will be described. There is a plane perpendicular to the front of the spherical camera (or eyeball), and the distance to the camera center O is 3 m. The plane moves in a direction perpendicular to it (ie, in a direction parallel to the normal vector n s0 of the plane) toward the camera at a speed of 1 m / sec. There are eight points on the plane, and “the current and next time positions p 0 , p 1 ” of these points are observed as input image data. Note that the time difference Δt from the present time to the next time is 0.05 seconds, and therefore the movement distance Δx from the present time to the next time is 0.05 × 1 = 0.05 m. The position p inf at infinite time is equal to the moving direction v of the camera and is at the center of the visual field. From the above, the normalized shortest distance n d s0 of the plane is 30.05 = 60 according to the equation (19), and the normal vector n s0 of the plane is at the center of the visual field.

現在と次の時刻の位置p,pおよび無限時刻の位置pinfから、2.2.3の小円変換アルゴリズムにより、平面の三次元幾何情報(s0とns0)を求めたシミュレーション結果を図18に示す。図17(B)で説明した“各規格化最短距離パラメータでの円柱の断面円”を並べて示す。各断面円は、図17(A)の球面を“1.3.3で説明した等距離射影方式(実施形態の式(107c)を参照)”で球を通る平面上に射影してある。右下が=0での断面円であり、左上に向かってパラメータが大きくなる順に並べてある。各断面円について説明する。現在時刻の位置pがドットで描かれている。そのpを中心にして“式(32)で計算した半径Rの小円”が、平面上の8個の点に対応して描かれている。 From position p inf current position p 0, p 1 and infinite time of the next time, the small circle conversion algorithm 2.2.3, was determined three-dimensional geometric data of the plane (n d s0 and n s0) The simulation result is shown in FIG. “Cylinder cross-sectional circles with each normalized shortest distance parameter n d s ” described in FIG. Each cross-sectional circle is projected on the plane passing through the sphere by the “equal distance projection method described in 1.3.3 (see equation (107c) of the embodiment)” in FIG. 17A. The lower right is a cross-sectional circle at n d s = 0, and is arranged in the order of increasing parameter n d s toward the upper left. Each cross-sectional circle will be described. Position p 0 of the current time are depicted with a dot. The “small circle with the radius R calculated by the equation (32)” is drawn corresponding to the eight points on the plane with the p 0 as the center.

最初の断面円(右下、=0)ではそれら小円が散らばって存在するが、パラメータが大きくなるにつれて収束していき、が60の断面円(右端の上から2番目)ではそれら小円が一点で交差する。これよりもが大きくなるとまた発散していく。このように、=60の高さだけ小円が一点で交差する。この高さが上述の“平面を横切るまでの規格化時間s0”の値60に等しい。また、一点で交差する方位は視野の中心にあり、上述の“平面の法線ベクトルns0”に等しい。以上のシミュレーションから、2.2.3で説明した“小変換アルゴリズム”の正しいことが確認された。なお、それと等価の2.1の方法でも平面の三次元幾何情報を正しく求められることをシミュレーションで確認している。 In the first cross-sectional circle (bottom right, n d s = 0), these small circles are scattered, but as the parameter n d s increases, it converges, and the cross-sectional circle with n d s of 60 (upper right corner) In the second), these small circles intersect at one point. If n d s becomes larger than this, it diverges again. Thus, the small circles intersect at one point by the height of n d s = 60. The height n d s is equal to the above-described value 60 of “normalized time n d s0 until crossing the plane”. Also, the direction intersecting at one point is at the center of the field of view, and is equal to the above-described “plane normal vector n s0 ”. From the above simulation, it was confirmed that the “small conversion algorithm” described in 2.2.3 is correct. In addition, it has been confirmed by simulation that the three-dimensional geometric information of the plane can be obtained correctly by the equivalent method 2.1.

2.4 移動方向vを知らなくてもよい方法
2.1と2.2.3.では、移動方向vは既知であるとして、平面の三次元方位nと規格化最短距離を求めた。ここでは、移動方向vが未知でもそれら方位と距離を計測できる方法を提供する。1.6と類似の方法である。この方法により、例えばインターネット・ビデオ・映画の画像などで撮影中の移動方向が判らない場合でも“それら方位と距離”を計測できる。また、平面が移動している場合にはその移動方向は一般に判らないが、その場合でも“それら方位と距離”を移動方向vとともに計測できる。その方法の概要を2.2.3について説明する(2.1についても同様に行える)。移動方向vが全ての方向にあり得ると仮定し、各移動方向に対して2.2.3の“小円変換”を行って小円を描く。それら小円が一点で交差する移動方向を求めると、それが真の移動方向vであり、またその交差点の座標として平面の三次元方位nと規格化最短距離を求められるものである。それは下記のステップで行われる。
2.4 Method of not needing to know the moving direction v 2.1 and 2.2.3. In the moving direction v as it is known, to determine the three-dimensional orientation n s and the normalized shortest distance n d s plane. Here, a method is provided in which the direction and distance can be measured even if the moving direction v is unknown. The method is similar to 1.6. By this method, for example, even when the moving direction during photographing is not known in the Internet, video, movie image, etc., “the direction and distance” can be measured. Further, when the plane is moving, the moving direction is generally unknown, but even in that case, “the direction and distance” can be measured together with the moving direction v. The outline of the method will be described with respect to 2.2.3 (the same applies to 2.1). Assuming that the moving direction v can be in all directions, a small circle is drawn by performing “small circle transformation” of 2.2.3 for each moving direction. When they small circles obtain the moving direction intersecting at a point, what it is true of the movement direction v 0, also required a three-dimensional orientation n s and the normalized shortest distance n d s of the plane as the coordinates of the intersection It is. It is done in the following steps.

(1)移動方向パラメータvを任意に設定する。   (1) The moving direction parameter v is arbitrarily set.

(2)そのパラメータvの方向を“無限時刻の位置pinf”とする。 (2) The direction of the parameter v is set to “infinite time position p inf ”.

(3)2.2.3.のステップ(1)〜(4)を実行し、全ての規格化最短距離パラメータに対する小円を円柱配列(図17(B))の内部に描く。 (3) 2.2.3. Steps (1) to (4) are executed, and small circles for all normalized shortest distance parameters n d s are drawn inside the cylindrical array (FIG. 17B).

(4)以上のステップを移動方向パラメータvを変えて行い、上記ステップで描かれる小円が一点で交差するパラメータ値vを求める。このパラメータ値が真の移動方向vである。その交差点の座標として、平面の方位ns0および規格化最短距離s0が求められる。なお、上記の交差点検出の代わりに、強度がピークになる点を検出してもよい。 (4) The above steps are performed by changing the moving direction parameter v, and a parameter value v 0 at which the small circle drawn in the above steps intersects at one point is obtained. This parameter value is true in the moving direction v 0. As the coordinates of the intersection, the plane direction n s0 and the normalized shortest distance n d s0 are obtained. Instead of the above intersection detection, a point where the intensity reaches a peak may be detected.

3.一般化
3.1 平面移動とカメラ移動
以上では平面が移動すると説明してきたが、カメラが移動する場合も同じアルゴリズムで平面の三次元幾何情報を計測できる。それは、平面移動とカメラ移動は相対的な運動であり、したがって移動方向vを反転すれば同じアルゴリズムになるからである。その等価性を、図19により説明する。
3. Generalization 3.1 Plane movement and camera movement In the above, it has been described that the plane moves, but even when the camera moves, the three-dimensional geometric information of the plane can be measured with the same algorithm. This is because the plane movement and the camera movement are relative movements, and therefore the same algorithm is obtained if the movement direction v is reversed. The equivalence will be described with reference to FIG.

図19(B)は平面がvの方向に移動した場合であり、平面上の点もそれにともなってp,pと空間内を移動する。各時刻での球面上位置p,p(図8)は、カメラ中心Oから見た角度α,αとして観測されて決定される。無限時間経過後の球面位置pinfは平面の移動方向vに等しい。これら三つの球面上位置p,p,pinfから複比変換により“平面がカメラ中心を横切る時刻での球面上位置p”を予測し、次にそのpを極変換して平面の三次元幾何情報(3次元方位n、横切るまでの規格化時間、規格化最短距離)を計測できることを1.3.2、2.2.3で述べた。なお、t、Δt、Δx、Vはそれぞれ、平面を横切るまでの時間、現在から次の時刻までの時間差、次の時刻までの移動距離、移動速度の大きさである。 FIG. 19B shows a case where the plane has moved in the direction v, and points on the plane also move in space with p 0 and p 1 . Positions on the spherical surface p 0 and p 1 (FIG. 8) at each time are determined by being observed as angles α 0 and α 1 viewed from the camera center O. The spherical position p inf after the infinite time has elapsed is equal to the plane moving direction v. To predict these three spherical surface position p 0, p 1, p inf " sphere on a position p c at the time that the plane crosses the center of the camera" by cross-ratio conversion from, then the plane with polar converts the p c As described in 1.3.2 and 2.2.3, it is possible to measure the three-dimensional geometric information (three-dimensional orientation n s , normalized time n t c until crossing, normalized shortest distance n d s ). Note that t c , Δt, Δx, and V are respectively the time to cross the plane, the time difference from the present to the next time, the movement distance to the next time, and the magnitude of the movement speed.

一方、図19(A)はカメラが移動した場合である。平面上の点Pを見ながらカメラ中心がO、O、Oと移動すると、点Pは各時刻でのカメラ中心から見た角度α,α,αとして観測され、球面上の位置p,p,pが決定される。無限時間経過後の球面上位置pinfは平面の移動方向vに等しい。これら位置p,p,p,pinfを一つの球面上に描くように図19(A)をモディファイすると、その図は“平面が移動した場合(図19(B))”と同じになる。図19(B)と異なるのは移動方向が反対であることだけである。以上の検討から、カメラが移動する場合も、移動方向vを半転さえすれば、前述の“平面が移動した場合のアルゴリズム(1.3.2、2.1、2.2.3)”を用いて平面の三次元幾何情報を求めることができることが判る。同様に、カメラが移動する場合の点距離の計測でも“平面が移動した場合のアルゴリズム(式(6))”を用いて計測できる。 On the other hand, FIG. 19A shows a case where the camera has moved. When the camera center moves to O 0 , O 1 , O c while viewing the point P on the plane, the point P is observed as angles α 0 , α 1 , α c viewed from the camera center at each time, and is on the spherical surface. Positions p 0 , p 1 , pc are determined. The position on the spherical surface p inf after the infinite time has elapsed is equal to the moving direction v of the plane. These positions p 0, p 1, p c , when modified 19 a (A) to draw a p inf on one sphere, that figure is the same as "If the plane has moved (FIG. 19 (B))" become. The only difference from FIG. 19B is that the moving direction is opposite. From the above examination, even when the camera moves, as long as the moving direction v is half-turned, the aforementioned “algorithm when the plane moves (1.3.2, 2.1, 2.2.3)” It can be seen that the three-dimensional geometric information of the plane can be obtained using. Similarly, the measurement of the point distance when the camera moves can also be performed using the “algorithm when the plane moves (formula (6))”.

3.2 円柱配列への投票
図10(B)では、円柱の各断面円に“球面上の大円を平面に射影した曲線”を「描画」するとした。この描画の代わりに、各断面円をメモリ配列やレジスタ配列で構成して、上記曲線に対応するメモリあるいはレジスタに「投票」をしてもよい。
3.2 Voting for Cylinder Arrangement In FIG. 10B, it is assumed that “curve obtained by projecting a great circle on a spherical surface onto a plane” is “drawn” on each cross-sectional circle of the cylinder. Instead of drawing, each cross-sectional circle may be constituted by a memory array or a register array, and “voting” may be performed on the memory or register corresponding to the curve.

また、図17(B)では、円柱の各断面円に“球面上の小円を平面に射影した曲線”を「描画」するとした。この描画の代わりに、上記と同様に「メモリあるいはレジスタへの投票」にしてもよい。   In FIG. 17B, it is assumed that a “curve obtained by projecting a small circle on a spherical surface onto a plane” is “drawn” on each cross-sectional circle of the cylinder. Instead of this drawing, “voting to a memory or register” may be used as described above.

3.3 平面上での極変換
まず、極変換(双対変換とも言われる)の一般的な定義を図20により説明する。任意のベクトルaと“それを法線ベクトルとしかつ中心Oを通る平面π”を考える。そのベクトルaから平面πへの変換が広義の「極変換(あるいは双対変換)」である。このベクトルと平面を2次元的に表現するために、球面あるいは平面との交点あるいは交線が用いられる。
3.3 Polar transformation on a plane First, a general definition of polar transformation (also called dual transformation) will be described with reference to FIG. Consider an arbitrary vector a and a “plane π that makes it a normal vector and passes through the center O”. The conversion from the vector a to the plane π is a “polar conversion (or dual conversion)” in a broad sense. In order to express the vector and the plane two-dimensionally, an intersection or a line of intersection with the spherical surface or the plane is used.

球面の場合には、ベクトルaとの交点をasphere、平面πとの交線(すなわち大円)をgとすると、asphereとgがそれぞれ球面の極と極線である。極asphereから極線gへの変換が「球面上の極変換」である。一方、平面の場合には、ベクトルaとの交点をaplane、平面πとの交線(すなわち直線)をlとすると、aplaneとlがそれぞれ平面上の極と極線である。極aplaneから極線lへの変換が「平面上の極変換」である。 In the case of a spherical surface, if the intersection point with the vector a is a sphere and the intersection line with the plane π (that is, a great circle) is g, a sphere and g are a spherical pole and a polar line, respectively. The conversion from the polar a sphere to the polar line g is the “polar conversion on a spherical surface”. On the other hand, in the case of a plane, if the intersection with the vector a is a plane and the intersection line (ie, a straight line) with the plane π is l, a plane and l are a pole and a polar line on the plane, respectively. The conversion from the polar a plane to the polar line l is “polar conversion on a plane”.

1.3.2(3)では、pを極変換した極線を「球面上の大円」として描画した。上記の説明に基づいて、その極線を「平面上の直線」として描画しても良い。 1.3.2 (3), drawing the polar converting the p c electrode as a "great circle on the sphere." Based on the above description, the polar line may be drawn as a “straight line”.

また、2.1(5)と2.2.3(3)では、pを小円変換した小円を「球面」の上に描いた。この小円を、カメラ中心から「任意の平面」に投影して、楕円として描いてもよい。 In 2.1 (5) and 2.2.3 (3), a small circle obtained by converting p 0 into a small circle is drawn on the “spherical surface”. This small circle may be projected from the camera center onto an “arbitrary plane” and drawn as an ellipse.

3.4. 点までの規格化距離を計測する方法
現時刻、次の時刻、そして無限時刻の球面上位置p,p,pinfを知って、点までの規格化距離を計測できることを図7を用いて示す。ここで点の規格化距離は、点までの距離(すなわち、図7のカメラ中心Oから点Pまでの距離)dを、現在から次の時刻までにカメラ(あるいは点)が移動する距離Δxで規格化した距離である。その計測法を以下に示す。
3.4. Method of measuring the normalized distance n d 0 to the point Knowing the current time, the next time, and the infinite time on the spherical surface p 0 , p 1 , p inf , measure the normalized distance n d 0 to the point What can be done is shown in FIG. Here, the normalized distance n d 0 of the point is the distance to the point (that is, the distance from the camera center O to the point P 0 in FIG. 7) d 0 , and the camera (or point) from the present time to the next time. The distance is normalized by the moving distance Δx. The measurement method is shown below.

点までの距離dを、上記三つの位置p,p,pinfを用いて式(6)で計測できることを1.2で述べた。式(6)の両辺をカメラ移動距離で規格化すると
=d/Δx
=(pinf) (39a)
となり、したがって、規格化距離を単比(pinf)として計測できることが示された。式(39a)に式(13)(あるいは式(15))を代入して中心角で表すと、下式になる。
It was described in 1.2 that the distance d 0 to the point can be measured by the equation (6) using the three positions p 0 , p 1 and p inf . When both sides of Equation (6) are normalized by the camera movement distance
n d 0 = d 0 / Δx
= (P inf p 0 p 1 ) (39a)
Therefore, it was shown that the normalized distance n d 0 can be measured as a single ratio (p inf p 0 p 1 ). Substituting equation (13) (or equation (15)) into equation (39a) and expressing it as a central angle yields the following equation.

=sin(b)/sin(b−a) (39b)
=sin(a+τ)/sin(τ) (39c)
3.5 平面カメラ
以上では球面カメラ(あるいは眼球)による画像を用いるとして説明したが、平面カメラによる画像を用いることもできる(図21)。その場合には、平面カメラで撮像された画像(白丸の三角形)を球面上の画像(黒丸の三角形)に変換して前述した“球面上のアルゴリズム”を実行すればよい。
n d 0 = sin (b) / sin (ba) (39b)
= Sin (a + τ) / sin (τ) (39c)
3.5 Planar Camera Although it has been described above that an image from a spherical camera (or eyeball) is used, an image from a plane camera can also be used (FIG. 21). In that case, an image captured by a plane camera (white circle triangle) may be converted into an image on a spherical surface (black circle triangle) and the above-described “spherical algorithm” may be executed.

4.ステレオ画像から三次元幾何情報を計測する方法
以上で述べた運動視アルゴリズム――すなわち、カメラ(あるいは平面)を移動して平面の三次元幾何情報を計測するアルゴリズム――のパラメータ名を両眼視の名前に変えると、ステレオ画像から三次元幾何情報を計測することができる。すなわち、運動視アルゴリズムの現時刻の位置p、次の時刻の位置p、そして無限時刻の位置pinfを、それぞれ右カメラ画像での位置p、左カメラ画像での位置p、そして“左右カメラを結ぶ視軸上の位置paxis”に置き換えると、そのアルゴリズムを用いてステレオ画像から(i)平面の3次元方位n、(ii)視軸方向に平面を横切るまでの規格化距離、(iii)平面までの規格化最短距離、そして(iv)点までの規格化距離を決定できる。それら方位と距離の計測法を以下で説明する。ここで、平面までの規格化距離、平面までの規格化最短距離、そして点までの規格化距離は、それぞれ“視軸方向に平面を横切るまでの右カメラからの距離d”、“右カメラからの平面までの最短距離d”、そして“右カメラから点までの距離d”を左右カメラ間の距離ΔxLRで規格化した距離である(図22参照)。それら距離は下式で表される。なお、上記で右カメラと左カメラを交換してもよい。
4). Method of measuring three-dimensional geometric information from stereo images The parameter names of the motion vision algorithm described above--that is, the algorithm for measuring three-dimensional geometric information of a plane by moving the camera (or plane)-binocular vision In other words, 3D geometric information can be measured from a stereo image. That is, the current time position p 0 , the next time position p 1 , and the infinite time position p inf of the kinematic algorithm are respectively represented as a position p R in the right camera image, a position p L in the left camera image, and When replaced with “position p axis on the visual axis connecting the left and right cameras”, the algorithm is used to normalize (i) the three-dimensional orientation n s of the plane from the stereo image, and (ii) cross the plane in the visual axis direction. The distance n d c , (iii) the normalized shortest distance n d s to the plane, and (iv) the normalized distance n d 0 to the point can be determined. A method for measuring the azimuth and distance will be described below. Here, the normalized distance n d c to the plane, the normalized shortest distance n d s to the plane, and the normalized distance n d 0 to the point are respectively “from the right camera until the plane crosses the plane in the visual axis direction”. The distance d c ”,“ the shortest distance d s from the right camera to the plane ”, and“ the distance d 0 from the right camera to the point ”are normalized by the distance Δx LR between the left and right cameras (FIG. 22). reference). These distances are expressed by the following equation. Note that the right camera and the left camera may be exchanged as described above.

=d/ΔxLR (50)
=d/ΔxLR (51)
=d/ΔxLR (52)
4.1 運動視との対応
両眼視のパラメータ(図22)は、前述の運動視アルゴリズムに用いられたパラメータ(図19)と次のように対応している。
n d c = d c / Δx LR (50)
n d s = d s / Δx LR (51)
n d 0 = d 0 / Δx LR (52)
4.1 Correspondence with Motion Vision The binocular vision parameters (FIG. 22) correspond to the parameters (FIG. 19) used in the above motion vision algorithm as follows.

図22(A)に“平面上の点P”を両眼で見たときの様子を示す。左右カメラの中心O、Oから見た点Pの角度α,αが観測され、それにより球面上の位置p,pが決定される。左右カメラを結ぶ視軸上の位置paxis――無限時間経過後の位置pinf(例えば図19(B))に対応――は、視軸方向axisに等しい。また右カメラが視軸方向に平面を横切るまで移動すると考えたときのカメラ中心の位置がOである。Oから見た点Pの角度αが観測され、それにより球面上の位置pが決定される。 FIG. 22A shows a state when “point P on the plane” is viewed with both eyes. Center O L of the right and left cameras, O angle of the point P as viewed from the R α L, α R is observed, whereby the position p L on the spherical surface, p R is determined. A position p axis on the visual axis connecting the left and right cameras—corresponding to a position p inf after an infinite time (for example, FIG. 19B) —is equal to the visual axis direction a xis . The position of the center of the camera when it is assumed that the right camera moves in the visual axis direction until it crosses the plane is O c . O angle of the point P as viewed from the c alpha c is observed, whereby the position p c on the spherical surface is determined.

この図を前述の図19(A)と比較すると、名前が異なるだけで全く同じである。すなわち、図19(A)の現時刻の位置p、次の時刻の位置p、そして無限時刻の位置pinf、単位移動距離Δx、そして移動方向に平面を横切るまでの距離Vtを、それぞれ右カメラ画像での位置p、左カメラ画像での位置p、視軸上の位置paxis、左右カメラ間の距離ΔxLR、そして視軸方向に平面を横切るまでの距離dに置き換えると図22(A)になる。また、図22(B)は、図22(A)に四つの位置p,p,p,paxisを“Oを中心とする球面”の上に重ねて描くようにモディファイしたものであり、それらの四つの位置を“運動視におけるp,p,p,pinf”に置き換えると図19(B)と同じになる。 When this figure is compared with the above-mentioned FIG. 19A, it is exactly the same except for the name. That is, the current time position p 0 , the next time position p 1 , the infinite time position p inf , the unit movement distance Δx, and the distance Vt c to cross the plane in the movement direction in FIG. Replace with the position p R in the right camera image, the position p L in the left camera image, the position p axis on the visual axis , the distance Δx LR between the left and right cameras, and the distance d c until crossing the plane in the visual axis direction. And FIG. 22 (A). FIG. 22B is a modification of FIG. 22A in which the four positions p R , p L , p c , and p axis are overlaid on the “sphere centered on O c ”. in and, "p 0, p 1, p c, p inf in visual motion" is the same as FIG. 19 is replaced in (B) their four positions.

このように運動視とステレオ視の幾何学的関係は、パラメータの名前を上記のように交換すると全く同じになる。従って、前述の運動視アルゴリズム(1.3.2、2.1、2.2.3)のパラメータ名を変えることにより、同じアルゴリズムでステレオ画像から平面の三次元幾何情報を計測できることが判る。以下で詳述する。   Thus, the geometrical relationship between motion vision and stereo vision is exactly the same when the parameter names are exchanged as described above. Therefore, it can be seen that the three-dimensional geometric information of a plane can be measured from a stereo image by the same algorithm by changing the parameter names of the above-mentioned motion vision algorithms (1.3.2, 2.1, 2.2.3). This will be described in detail below.

4.2 平面の三次元方位nと“視軸方向に平面を横切るまでの規格化距離”を計測する方法
運動視アルゴリズム(1.2、1.3)と同様の手順で、平面の三次元方位nと規格化距離”を計測することができる。
4.2 Similar Procedure and three-dimensional orientation n s and how visual motion algorithm that measures the "normalized distance n d c until crossing the visual axis direction in the plane" plane (1.2 and 1.3), it can be measured three-dimensional orientation n s and the normalized distance n d c "plane.

4.2.1 規格化距離の複比{paxis}による表現
図22(B)において、三角形Pに正弦定理を用いると、Oから点Pまでの距離dと左右カメラ間の距離ΔxLRの間には
ΔxLR/sin(α−α)=d/sin(π−α) (53a)
の関係があり、これを球面上の位置p,p,paxisで表すと下式になる。
4.2.1 In cross ratio of the normalized distance n d c {p axis p R p L p c} represent views 22 by (B), the use of sine theorem triangle P R P L O c, from O c point P and the distance d 0 to R between the distance [Delta] x LR between the left and right cameras Δx LR / sin (α L -α R) = d 0 / sin (π-α L) (53a)
When this is expressed by the positions p L , p R , and p axis on the spherical surface, the following equation is obtained.

ΔxLR/sin(p)=−d/sin(paxis) (53b)
これを変形すると距離dは下式で求められる。
Δx LR / sin (p R p L ) = − d 0 / sin (p axis p L ) (53b)
When this is deformed, the distance d 0 is obtained by the following equation.

=−ΔxLR sin(paxis)/sin(p) (54a)
=−ΔxLR (paxis) (54b)
また、三角形Pに正弦定理を適用して上記と同様に変形すると、距離dが下式で求められる。
d 0 = −Δx LR sin (p axis p L ) / sin (p R p L ) (54a)
= −Δx LR (p axis p R p L ) (54b)
Further, when the sine theorem is applied to the triangle P R P L O c and deformed in the same manner as described above, the distance d 0 is obtained by the following equation.

=−d sin(paxis)/sin(p) (55a)
=−d(paxis) (55b)
式(54)と式(55)の比をとって整理すると、規格化距離が複比{paxis}として下式で求められる。
d 0 = -d c sin (p axis p c) / sin (p R p c) (55a)
= -D c (p axis p R p c) (55b)
If the ratio of the formula (54) and the formula (55) is taken and arranged, the normalized distance n d c is obtained as a double ratio {p axis p R p L p c } by the following formula.

=d/ΔxLR
=(sin(paxis)/sin(p))
/(sin(paxis)/sin(p)) (56a)
={paxis} (56b)
なお、この式は、式(12a)において、“運動視のパラメータ,pinf,p,p,p”を“両眼視のパラメータ,paxis,p,p,p”に交換したものになっている。
n d c = d c / Δx LR
= (Sin (p axis p L ) / sin (p R p L ))
/ (Sin (p axis p c ) / sin (p R p c)) (56a)
= {P axis p R p L p c } (56b)
Note that this equation is expressed by the equation (12a) in which “motion vision parameters n t c , p inf , p 0 , p 1 , p c ” are changed to “binocular vision parameters n d c , p axis , p R , p R , p L, has become to those exchange in p c ".

4.2.2複比変換
この複比変換は、四つの変数,p,p,paxisを知って、残りの変数pを式(56)を用いて計算する変換である。運動視の場合の複比変換(1.3.1)に対応する。
4.2.2 cross-ratio conversion The cross ratio conversion, four variables n d c, p R, p L, knowing p axis, the remaining variables p c in the conversion be calculated using equation (56) is there. This corresponds to the cross ratio conversion (1.3.1) in the case of motion vision.

この複比変換を具体的に数式で示す。図22(B)の球の断面を取り出して図23に示す。paxisを基点にして、それから中心角c,d,xでp,p,pの位置を表す(注:この基点は任意の位置でよい)。これらの中心角を纏めて下記に示す。 This multi-ratio conversion is specifically shown by a mathematical expression. A cross section of the sphere of FIG. 22B is taken out and shown in FIG. and the p axis base point indicates the position of the p R, p L, p c then the central angle c, d, with x (Note: This base may be any position). These central angles are summarized below.

axis=c (57)
axis=d
axis=x
=d−c
=x−c
これらの中心角を用いて複比変換を数式で示す。式(56a)の右辺すなわち複比を、式(57)の中心角を用いて表すと
=(sin(d)/sin(d−c))
/(sin(x)/sin(x−c)) (58a)
となる。これを変形すると、pとpaxisとの中心角xが
x=tan−1((sin(c)sin(d))
/(cos(c)sin(d)− sin(d−c)))(58b)
で与えられる。従って、規格化距離および“三つの球面上位置p,p,paxis”を与えると、“右カメラが平面を横切るときの位置p(図22(B))”が式(58b)で計算されることが示された。これが複比変換の数式である。なお、式(58b)は、式(14b)において運動視のパラメータ(規格化時間と中心角pinf,pinf,p,pinf)を両眼視のパラメータ(規格化距離と中心角paxis,paxis,p,paxis)に交換したもの――すなわち運動視のパラメータ(規格化時間と球面上位置pinf,p,p,p)を両眼視のパラメータ(規格化距離と中心角paxis,p,p,p)に交換したもの――になっている。
p axis p R = c (57)
p axis p L = d
p axis p c = x
p R p L = d-c
p R p c = x-c
Using these center angles, the cross ratio conversion is expressed by a mathematical expression. When the right side of the formula (56a), that is, the cross ratio is expressed using the central angle of the formula (57),
n d c = (sin (d ) / sin (d-c))
/ (Sin (x) / sin (x−c)) (58a)
It becomes. By transforming this, the central angle x between p c and p axis is x = tan -1 ((sin ( c) sin (d))
/ (Cos (c) sin ( d) - n d c sin (d-c))) (58b)
Given in. Accordingly, the normalized distance n d c and "on three spherical position p R, p L, p axis " Given a "position p c of when the right camera across the plane (FIG. 22 (B))" has the formula (58b). This is the mathematical formula for the cross ratio conversion. Note that equation (58b), the parameter of the visual motion in the formula (14b) (normalized time n t c and the central angle p inf p 0, p inf p 1, p 0 p 1, p inf p c) binocular viewing parameters (normalized distance n d c and the central angle p axis p R, p axis p L, p R p L, p axis p c) to those that have been replaced - i.e. parameters of visual motion (normalized time n t c spherical on position p inf, p 0, p 1 , p c) the parameters of binocular vision (normalized distance n d c and the central angle p axis, p R, p L , which was replaced with p c) - -It has become.

ここで、一般のステレオ画像処理の研究では上記で用いた“左カメラの位置p”の代わりに、“右カメラからの変化分p−p(すなわち、両眼視差σであり中心角pで表される)”を扱うことが多い。この場合の複比の変換の数式表現を以下に示す。各種の中心角は
axis=c (59)
=σ
axis=x
axis=c+σ
=x−c
であり、式(56a)の右辺を式(59)の中心角を用いて表すと
=(sin(c+σ)/sin(σ))
/(sin(x)/sin(x−c)) (60a)
となる。これを変形すると、pとpinfとの中心角xが
x=tan−1((sin(c)sin(c+σ))
/(cos(c)sin(c+σ)− sin(σ)))(60b)
で与えられ、複比変換の別の数式表現が得られた。なお、式(60b)は、式(16b)において運動視のパラメータ(規格化時間と中心角pinf,pinf,p,pinf)を両眼視のパラメータ(規格化距離と中心角paxis,paxis,p,paxis)に交換したもの――すなわち運動視のパラメータ(規格化時間と球面上位置pinf,p,p,p)を両眼視のパラメータ(規格化距離と球面上位置paxis,p,p,p)に交換したもの――になっている。
Here, in general stereo image processing research, instead of the “left camera position p L ” used above, “a change from the right camera p L −p R (that is, binocular parallax σ and a central angle) p R p is represented by L) it is often handle ". A mathematical expression of the conversion of the cross ratio in this case is shown below. Various central angles are p axis p R = c (59)
p R p L = σ
p axis p c = x
p axis p L = c + σ
p R p c = x-c
And the right side of Expression (56a) is expressed using the central angle of Expression (59).
n d c = (sin (c + σ) / sin (σ))
/ (Sin (x) / sin (x−c)) (60a)
It becomes. By transforming this, p c and p central angle x is x = tan with inf -1 ((sin (c) sin (c + σ))
/ (Cos (c) sin (c + σ) −n d c sin (σ))) (60b)
And another mathematical expression of the cross ratio conversion was obtained. Note that equation (60b), the parameter of the visual motion in the formula (16b) (normalized time n t c and the central angle p inf p 0, p inf p 1, p 0 p 1, p inf p c) binocular viewing parameters (normalized distance n d c and the central angle p axis p R, p axis p L, p R p L, p axis p c) to those that have been replaced - i.e. parameters of visual motion (normalized time n t c spherical on position p inf, p 0, p 1 , p c) the parameters of binocular vision (normalized distance n d c and spherical on position p axis, p R, p L , which was replaced with p c) --It has become.

4.2.3 平面の3次元方位nと規格化距離の決定法
上記の複比変換を用いて、平面の3次元方位nと規格化距離を決定する方法を説明する。運動視の場合(1.3.2)と同様に行われる。それは以下の四つのステップで行われる。
4.2.3 using 3-dimensional orientation n s and cross-ratio conversion method for determining the above normalized distance n d c plane, a method of determining the three-dimensional orientation n s and the normalized distance n d c of the plane explain. This is the same as in the case of motion vision (1.3.2). This is done in four steps:

(1)規格化距離パラメータを任意に設定する。 (1) The normalized distance parameter n d c is arbitrarily set.

(2)画像内の各点について、左右カメラでの位置p,pをカメラ画像から知り、また視軸上の位置paxisを視軸方向axisから知って、それらを式(58b)あるいは式(60b)に代入して複比変換を行い、位置pを計算する。 (2) For each point in the image, the positions p L and p R on the left and right cameras are known from the camera image, and the position p axis on the visual axis is known from the visual axis direction a xis , and these are expressed by the equation (58b) Alternatively, the ratio pc is calculated by substituting into the equation (60b) to perform the cross ratio conversion.

(3)1.1の“平面の3次元方位nを計測する原理”に基づいて、平面の法線ベクトルnの候補を求める。すなわち、具体的には、ステップ(2)で求めたpを極変換して、球面上に大円を描く。ここで、大円を描く意味を説明する。もしステップ(1)で与えた規格化時間パラメータが真の規格化距離c0であれば、図5で述べたように、それら大円の交差点として平面の法線ベクトルns0が求まる。しかし、ステップ(1)では任意にパラメータを与えているため、一般には一点で交差しない。従って、ここで描く大円は、平面の法線ベクトルnの候補を求めたことになる。なお、上記大円の強度は“画像内の位置pの明るさ”にし、また複数の大円が交わる場所ではそれら大円の強度を加算した強度にする。 (3) 1.1 based on "the principle of measuring the three-dimensional orientation n s plane", determining a candidate of the normal vector n s plane. That is, specifically, to polar transformation to p c obtained in step (2), draw a great circle on a sphere. Here, the meaning of drawing a great circle will be described. If the normalized time parameter n d c given in step (1) is the true normalized distance n d c0 , as described in FIG. 5, the plane normal vector n s0 is used as the intersection of these great circles. I want. However, in step (1), the parameter n d c is arbitrarily given, and therefore generally does not intersect at one point. Therefore, great circle drawn here would determine the candidate of the normal vector n s plane. The intensity of the great circle is the "brightness of the position p R within the image", also in places where a plurality of great circle intersects to the strength obtained by adding the intensity thereof great circle.

(4)以上のステップを規格化距離パラメータを変えて行い、ステップ(3)で描かれる複数の大円が一点で交差するパラメータ値c0を求める。そのパラメータ値として“視軸方向に平面を横切るまでの規格化距離c0”が得られる。また、上記の交差点の座標として、平面の方位ns0が得られる。なお、上記の交差点検出の代わりに、強度がピークになる点を検出してもよい。 (4) The above steps are performed by changing the standardized distance parameter n d c, and a parameter value n d c0 at which a plurality of great circles drawn in step (3) intersect at one point is obtained. As the parameter value, “normalized distance n d c0 until the plane is crossed in the visual axis direction” is obtained. In addition, the plane direction ns0 is obtained as the coordinates of the intersection. Instead of the above intersection detection, a point where the intensity reaches a peak may be detected.

なお、この方法は1.3.2において、運動視のパラメータ(規格化時間と球面上位置pinf,p,p)を両眼視のパラメータ(規格化距離と球面上位置paxis,p,p)に交換したものになっている。 In this method, in 1.3.2, the parameters for motion vision (standardized time n t c and positions on the spherical surface p inf , p 0 , p 1 ) are changed to binocular vision parameters (normalized distance n dc ) . The positions on the spherical surface are changed to p axis , p R , p L ).

4.2.4 上記ステップの幾何学的意味   4.2.4 Geometric meaning of the above steps

上記ステップの幾何学的意味を図24により説明する。1.3.3で述べた“運動視の場合の幾何学的意味”において、運動視のパラメータを両眼視のパラメータに換えたものになっている。   The geometric meaning of the above steps will be described with reference to FIG. In the “geometrical meaning in the case of motion vision” described in 1.3.3, the parameters for motion vision are changed to the parameters for binocular vision.

平面方位の候補群{n}の描画(ステップ(3)):ステップ(2)で複比変換により決定された位置pを極変換して、球面上に大円、すなわち平面方位の候補群{n}を図24(A)のように描く。 Drawing candidates plane orientation {n s} (Step (3)): Step (2) to polar transformation the position p c as determined by the cross-ratio conversion, a great circle on the sphere, i.e. the plane orientation candidate The group {n s } is drawn as shown in FIG.

円柱配列の座標値として三次元幾何情報を決定(ステップ(4)):図24(A)の球面を、1.3.3のステップ(4)でと同様に平面の上に射影して、球面上の像を「円」の内部に変換する。その円を規格化最短距離パラメータを縦軸にして積み重ねて、図24(B)のような「円柱配列」にする。このようにすると、ステップ(1)の幾何学的意味がはっきりする。すなわち、ステップ(1)で任意に与えた規格化距離パラメータは、この円柱の高さ座標を指定したことになり、ステップ(2)と(3)では、その高さでの断面円――図24(A)の球面像を「円」の内部に変換したもの――を描いたことになる。ステップ(1)では任意にパラメータを与えているため、図24(B)の上面に示すように大円は一点で交差しないが、その高さが真の規格化距離c0に等しくなる断面円では、大円が一点で交差する。従って、この円柱の「高さ座標」として平面の規格化距離c0が得られ、また「断面円内での交差座標」として3次元方位nが得られる(図24(B))。 Determine the three-dimensional geometric information as the coordinate value of the cylindrical array (step (4)): project the spherical surface of FIG. 24 (A) onto the plane in the same manner as in step (4) of 1.3.3, Convert the image on the sphere into the inside of a “circle”. The circles are stacked with the normalized shortest distance parameter n d c as the vertical axis to form a “cylindrical array” as shown in FIG. In this way, the geometric meaning of step (1) becomes clear. That is, the normalized distance parameter n d c arbitrarily given in step (1) specifies the height coordinate of this cylinder, and in steps (2) and (3), the cross-sectional circle at that height is specified. —Drawing the spherical image in FIG. 24 (A) into a “circle” — Since the parameter n d c is arbitrarily given in step (1), the great circles do not intersect at one point as shown in the upper surface of FIG. 24B, but the height is equal to the true normalized distance n d c0 . In equal cross-sectional circles, the great circles intersect at one point. Accordingly, the normalized distance n d c0 of the plane as "height coordinate" cylinder is obtained, also 3-dimensional orientation n s as "cross coordinates in the section circle" is obtained (FIG. 24 (B)).

4.2.5 視軸方向axisを知らなくてもよい方法
以上では、視軸方向axisが既知であるとして、平面の3次元方位nと規格化距離を計測する方法を述べた。すなわち、その方向axisに等しい球面上位置としてpaxisを定め、次にその位置を用いて複比変換を行い、最後に極変換を行ってそれら方位nと距離を求めた。
4.2.5 visual axis direction a xis more good way without having to know, as a visual axis direction a xis is known, a method of measuring the three-dimensional orientation n s and the normalized distance n d c of the plane Stated. Namely, such provision of the p axis as spherical surface positioned equal to the direction a xis, then performs a cross-ratio conversion using the position was determined at the end thereof by performing a polar transformation orientation n s and the distance n d c.

ここでは、視軸方向axisが未知でも“平面の三次元方位nと規格化距離”を計測できる方法を提供する――1.6と同様の方法である。この方法により、例えばインターネットなどのステレオ画像で、撮影中の視軸方向が判らない場合でも“それら方位と距離” 視軸方向axisとともに計測できる。その方法の概要を説明すると、視軸方向axisが全ての方向にあり得ると仮定し、各視軸方向に対して4.2.3の“複比変換と極変換”を行って極線を描く。それら極線が一点で交差する視軸方向を求めると、それが真の視軸方向axis0であり、またその交差点の座標として平面の三次元方位nと規格化距離を求められるものである。それは下記のステップで行われる。 Here is the visual axis direction a xis --1.6 a similar manner to provide a method which can measure even "three-dimensional orientation n s and the normalized distance n d c plane" unknown. By this method, for example, in the case of a stereo image such as the Internet, even when the visual axis direction during photographing is not known, it is possible to measure with “the direction and distance” along the visual axis direction axis. The outline of the method will be described. Assuming that the visual axis direction a xis can be in all directions, 42.3 “multi-ratio conversion and polar conversion” is performed on each visual axis direction to obtain a polar line. Draw. When they pole line seek visual axis direction intersecting at one point, it is required a true a visual axis direction a Xis0, also the three-dimensional orientation n s and the normalized distance n d c of the plane as the coordinates of the intersection Is. It is done in the following steps.

(1)移動方向パラメータaxisを任意に設定する。 (1) The movement direction parameter a xis is arbitrarily set.

(2)そのパラメータaxisの方向を“球面上の位置paxis”とする。 (2) The direction of the parameter a xis is set to “position p axis on the spherical surface”.

(3)4.2.3.のステップ(1)〜(4)を実行し、全ての規格化距離パラメータに対する極線を円柱配列(図24(B))の内部に描く。 (3) 4.2.3. Step (1) running through (4), draw a polar for all normalized distance parameter n d c inside the cylinder arrangement (FIG. 24 (B)).

(4)以上のステップを視軸方向パラメータaxisを変えて行い、上記ステップで描かれる極線が一点で交差するパラメータ値axis0を求める。このパラメータ値が真の視軸方向axis0である。その交差点の座標として、平面の方位ns0および平面を横切るまでの規格化距離c0が求められる。なお、上記の交差点検出の代わりに、強度がピークになる点を検出してもよい。 (4) The above steps carried out by changing the visual axis direction parameter a xis, obtaining the parameter values a Xis0 the polar depicted in step intersect at one point. This parameter value is the true visual axis direction axis0 . As the coordinates of the intersection, a plane direction n s0 and a normalized distance n d c0 until crossing the plane are obtained. Instead of the above intersection detection, a point where the intensity reaches a peak may be detected.

4.3 平面までの規格化最短距離の計測法
平面の3次元方位nと“式(51)の規格化最短距離”を計測する方法を提供する――2で述べた運動視のアルゴリズムと同様の方法で行われる。この規格化最短距離と“4.2.3で説明した規格化距離”との間には、nを平面の3次元方位、axisを視軸方向、そして()をスカラー積として
(n・axis) (61)
の関係がある。その理由を図25を用いて説明する。平面の法線ベクトルnと視軸方向axisが横たわる平面での断面を図25に示す。“右カメラ中心Oから平面までの最短距離d”は、“視軸方向に平面を横切るまでの距離d”の法線方向の成分であるから、
=d(n・axis) (62)
の関係がある。この式の両辺をカメラ間距離ΔxLRで規格化すると、下式になり式(61)が得られる。
4.3 visual motion described in --2 to provide a method for measuring the "normalized shortest distance n d s of formula (51)" 3-dimensional orientation n s and a normalized shortest distance measurement method plane to the plane This is done in the same way as the algorithm. Between the standardized shortest distance n d s and “standardized distance n d c ” described in 4.2.3, n s is the three-dimensional orientation of the plane, a xis is the visual axis direction, and () As a scalar product
n d s = n d c (n s · a xis ) (61)
There is a relationship. The reason will be described with reference to FIG. FIG. 25 shows a cross section in the plane in which the normal vector n s of the plane and the visual axis direction a xis lie. Since "right camera center O shortest distance from R to the plane d s" is the normal direction of the component of the "distance d c of the visual axis direction until crossing the plane",
d s = d c (n s · a xis) (62)
There is a relationship. To normalize both sides of this equation by the camera distance [Delta] x LR, equation becomes the following equation (61) is obtained.

=d/ΔxLR=(d/ΔxLR)(n・axis
(n・axis) (63)
4.3.1 平面の規格化最短距離と3次元方位nを計測する方法
4.2.3で述べたアルゴリズム(複比変換と極変換)に“との関係(式(61))”を組み合わせると、平面の3次元方位nと規格化最短距離を計測できることを図26を用いて説明する。――2.1で述べた運動視のアルゴリズムと同様の方法で行われる。それ以下の六つのステップで行われる。
n d s = d s / Δx LR = (d c / Δx LR ) (n s · a xis )
= N d c (n s · a xis) (63)
4.3.1 Method of measuring standardized shortest distance n d s and three-dimensional orientation n s of the plane “ n d s and n d c ” is applied to the algorithm described in 4.2.3 (multi-ratio conversion and polar conversion). combining the relationship between the (formula (61)) ", will be described with reference to FIG. 26 to be able to measure the three-dimensional orientation n s and the normalized shortest distance n d s plane. --This is done in the same way as the motion vision algorithm described in 2.1. It is performed in 6 steps.

(1)規格化最短距離パラメータを任意に設定する。 (1) The normalized shortest distance parameter n d s is arbitrarily set.

(2)視軸方向axisを中心とする小円を考え、その半径rを任意に設定する(図26)。この小円上にある“平面の3次元方位候補n”をステップ(4)で求める。そのためには、規格化距離パラメータを下式で決まる値に設定する必要がある。 (2) Considering a small circle centered on the visual axis direction a xis , its radius r is arbitrarily set (FIG. 26). In step (4), the “plane three-dimensional orientation candidate n s ” on the small circle is obtained. For that purpose, it is necessary to set the normalized distance parameter n d c to a value determined by the following equation.

/cos(r) (64)
その理由を説明する。まず、nは“axisを中心とする半径rの小円”の上にあるからn、axis、そしてrの間には下式の関係があり、
cos(r)=(n・axis) (65a)
またnは式(61)を満たす必要があるから、式(61)に式(65a)を代入すると
cos(r) (65b)
になり、これを変形して式(64)が得られる。
n d c = n d s / cos (r) (64)
The reason will be explained. First, since n s is above “a small circle with a radius r centered on a xis ”, there is a relationship between n s , a xis , and r:
cos (r) = (n s · a xis) (65a)
Also, since n s needs to satisfy equation (61), substituting equation (65a) into equation (61)
n d s = n d c cos (r) (65b)
This is transformed to obtain equation (64).

(3)画像内の各点について、左右カメラでの球面位置p,pをカメラ画像から知り、また視軸上の位置paxisを視軸方向axisから知って、それらと規格化距離パラメータを式(58b)あるいは式(60b)に代入して複比変換を行って、位置pを計算する。 (3) For each point in the image, the spherical positions p L and p R of the left and right cameras are known from the camera image, and the position p axis on the visual axis is known from the visual axis direction a xis , and their normalized distances The position n c is calculated by substituting the parameter n d c into the equation (58b) or the equation (60b) to perform the cross ratio conversion.

(4)ステップ(3)で求めたpを極変換して、球面上に大円gpcを描く。この大円とステップ(2)の小円と二つの交点s+s−が“平面の3次元方位候補”である(図26)。なお、この交点の緯度座標はr(図26参照)であり、また経度座標点αs+αs−は、式(29)において“運動視のパラメータα,a,τ”を“両眼視のパラメータα,c,σ”に置き換えて、
αs+=α+cos−1((( sin(σ)/sin(c+σ))
−cos(r) cos(c))/(sin(r)sin(c)))
αs−=α−cos−1((( sin(σ)/sin(c+σ))
−cos(r) cos(c))/(sin(r)sin(c)))
(65c)
で計算される。ここで、αとcは、“図14の運動視のパラメータαとa(すなわち、pの経度座標と緯度座標)”に対してpの経度座標と緯度座標である。
(4) Step (3) to polar transformation to p c determined, draw a great circle g pc on a spherical surface. The great circle, the small circle in step (2), and the two intersections r n s + and r n s− are “planar three-dimensional orientation candidates” (FIG. 26). Note that the latitude coordinate of this intersection is r (see FIG. 26), and the longitude coordinate points r α s + and r α s− are expressed as “motion vision parameters α a , a, and τ” in Equation (29). Substituting the binocular vision parameters α c , c, σ ″,
r α s + = α c + cos −1 ((( n d s sin (σ) / sin (c + σ))
-Cos (r) cos (c)) / (sin (r) sin (c)))
r α s- = α c -cos -1 (((n d s sin (σ) / sin (c + σ))
-Cos (r) cos (c)) / (sin (r) sin (c)))
(65c)
Calculated by Here, α c and c are the longitude and latitude coordinates of p R with respect to “parameters α a and a of motion vision in FIG. 14 (that is, longitude and latitude coordinates of p 0 )”.

(5)ステップ(2)〜(4)を半径rを変えて行い、ステップ(4)で求まる二つの交点s+s−からなる曲線を描く(図26)――この曲線は、4.3.2で述べるように“pを中心とする小円”になる。ここで、この曲線を描く意味を説明する。もしステップ(1)で与えた規格化最短距離パラメータが真の規格化最短距離s0であれば、それら曲線の交差点として平面の法線ベクトルns0が求まる。しかし、ステップ(1)では任意にパラメータを与えているため、一般には一点で交差しない。従って、ここで描く曲線は、平面の法線ベクトルnの候補を求めたことになる。なお、上記曲線の強度は“画像内の位置pの明るさ”にし、また、複数の曲線が交わる場所ではそれら曲線の強度を加算した強度にする。 (5) Step (2) is performed by changing-the radius r (4), two intersections r n s + which is obtained in step (4), a curve consisting of r n s-(Figure 26) - This curve , the "small circle around the p R" as described in 4.3.2. Here, the meaning of drawing this curve will be described. If the normalized shortest distance parameter n d s given in step (1) is the true normalized shortest distance n d s0 , a plane normal vector n s0 is obtained as the intersection of these curves. However, in step (1), since the parameter n d s is arbitrarily given, generally it does not intersect at one point. Thus, the curve drawn here would determine the candidate of the normal vector n s plane. The intensity of the curve is the "brightness of the position p R within the image", and in places where multiple curves intersect to strength obtained by adding the intensity thereof curves.

(6)以上のステップを規格化最短距離パラメータを変えて行い、ステップ(5)で描かれる複数の曲線が一点で交差するパラメータ値s0を求める。そのパラメータ値として“右カメラ中心Oから平面までの規格化最短距離ds0”が得られる。また、上記の交差点の座標として、平面の方位ns0が得られる。なお、上記の交差点の検出の代わりに、強度がピークになる点を検出してもよい。 (6) The above steps are performed by changing the normalized shortest distance parameter n d s, and a parameter value n d s0 at which the plurality of curves drawn in step (5) intersect at one point is obtained. As the parameter value "right camera center O standardization from R to the plane shortest distance d s0" is obtained. In addition, the plane direction ns0 is obtained as the coordinates of the intersection. Instead of detecting the above intersection, a point where the intensity reaches a peak may be detected.

4.3.2 平面の規格化最短距離と3次元方位nを計測する別の方法
図26の“両眼視に関するパラメータp,p,paxis,axis”を“運動視に関するパラメータp,p,pinf,v”に換えると、図13と同じになる。従って、4.3.1のステップ(5)の曲線は、2.2.1での証明をそのまま用いることが出来て、「pを中心として半径がRの小円」である。その半径Rは、式(31)、式(32)の“運動視のパラメータτ,a,p,pinf,”を“両眼視のパラメータσ,c,p,paxis”に換えて下式で表される。
4.3.2 normalized shortest distance of the plane n d s and another method Figure 26 to measure the three-dimensional orientation n s "parameter p R about binocular vision, p L, p axis, a xis" a "movement in other the parameter p 0, p 1, p inf , v " relates view the same as FIG. 13. Therefore, the curve in step (5) of 4.3.1 can be used as it is in the proof of 2.2.1, and is a “small circle with radius R around p R ”. The radius R is equal to “parameters for motion vision τ, a, p 0 p 1 , p inf p 1 ” in equations (31) and (32) and “parameters σ, c, p R p L for binocular vision”. , P axis p L ″ is expressed by the following formula.

R=cos−1 sin(σ)/sin(c+σ)) (66a)
=cos−1 sin(p)/sin(paxis)) (66b)
以上により、図26の二つの交点s+s−からなる曲線は、“pを中心とする半径Rの小円”であることが示された。これは、任意の点pをこの小円に変換するとみることができ、この変換を「小円変換」と言うことにする。この小円変換の性質は運動視と同じであり、2.2.2に示されている。なお、式(66a)では両眼視差σを用いて半径Rを表現したが、左カメラでの位置Pが判る場合には、式(57)を式(66b)に代入して下式で与えられる。
R = cos -1 (n d s sin (σ) / sin (c + σ)) (66a)
= Cos -1 (n d s sin (p R p L) / sin (p axis p L)) (66b)
From the above, it was shown that the curve composed of the two intersections r n s + and r n s− in FIG. 26 is “a small circle with radius R centering on p R ”. This can be regarded as converting an arbitrary point p R into this small circle, and this conversion will be referred to as “small circle conversion”. The nature of this small circle transformation is the same as that of motion vision and is shown in 2.2.2. Although the radius R is expressed using the binocular parallax σ in the equation (66a), when the position P L with the left camera is known, the equation (57) is substituted into the equation (66b) and Given.

R=cos−1 sin(d−c)/sin(d)) (66c)
以上の準備に基づいて、「小円変換」を用いて平面の規格化最短距離と3次元方位nを計測する別法を説明する。それは以下の四つのステップで行われる――2.2.3で述べた運動視のアルゴリズムと同様の手順である。
R = cos -1 (n d s sin (d-c) / sin (d)) (66c)
Based on the above preparation, another method for measuring the standardized shortest distance n d s and three-dimensional orientation n s of the plane using “small circle transformation” will be described. It is performed in the following four steps-the same procedure as the motion vision algorithm described in 2.2.3.

(1)規格化最短距離パラメータを任意に設定する。 (1) The normalized shortest distance parameter n d s is arbitrarily set.

(2)画像内の各点について、左右カメラでの位置p,pを画像から知り、また“左右カメラを結ぶ視軸上の位置paxis”を視軸方向axisから知って、小円変換の半径Rを式(66b)により計算する。 (2) For each point in the image, know the positions p R and p L on the left and right cameras from the image, and know the “position p axis on the visual axis connecting the left and right cameras” from the visual axis direction a xis. The radius R of the circle conversion is calculated by the equation (66b).

(3)各点pを小円変換する。――すなわち、pを中心とする半径Rの小円を球面上に描く。ここで、この小円を描く意味を説明する。もしステップ(1)で与えた規格化最短距離パラメータが真の規格化最短距離s0であれば、それら小円の交差点として平面の法線ベクトルns0が求まる。しかし、ステップ(1)では任意にパラメータを与えているため、一般には一点で交差しない。従って、ここで描く小円は、平面の法線ベクトルnの候補を求めたことになる。なお、上記小円の強度は“画像内の位置pの明るさ”にし、また複数の小円が交わる場所ではそれら小円の強度を加算した強度にする。 (3) small circle convert each point p R. - That, draw a small circle of radius R centered on p R on a sphere. Here, the meaning of drawing this small circle will be described. If the normalized shortest distance parameter n d s given in step (1) is the true normalized shortest distance n d s0 , a plane normal vector n s0 is obtained as an intersection of these small circles. However, in step (1), since the parameter n d s is arbitrarily given, generally it does not intersect at one point. Therefore, small circle drawn here would determine the candidate of the normal vector n s plane. The intensity of the small circle in the "brightness of positions p R within the image", and in a plurality of small circles intersect location to the strength obtained by adding the intensity of their small circle.

(4)以上のステップを規格化最短距離パラメータを変えて行い、ステップ(3)で描かれる複数の小円が一点で交差するパラメータ値s0を求める。そのパラメータ値として“右カメラ中心Oから平面までの規格化最短距離s0”が得られる。また、上記の交差点の座標として、平面の方位ns0が得られる。なお、上記の交差点検出の代わりに、強度がピークになる点を検出してもよい。 (4) The above steps are performed by changing the normalized shortest distance parameter n d s, and a parameter value n d s0 at which a plurality of small circles drawn in step (3) intersect at one point is obtained. As the parameter value "right camera center O standardization from R to the plane shortest distance n d s0" is obtained. In addition, the plane direction ns0 is obtained as the coordinates of the intersection. Instead of the above intersection detection, a point where the intensity reaches a peak may be detected.

ここで、以上の小円変換法を図27により幾何学的に説明する。画像内の各点について、左右カメラでの位置p,pを画像から知り、また“左右カメラを結ぶ視軸上の位置paxis”を視軸方向axisから知り、さらに規格化最短距離パラメータがステップ(1)で与えられる。これらを式(66b)に代入して半径Rを決定し、小円変換を行う(図27(A))――。すなわち、pを中心として半径Rの小円を球面上に描く。次に、図27(A)の球面を、1.3.3のステップ(4)でと同様に平面の上に射影して、球面上の像を「円」の内部に変換する。その円を規格化最短距離パラメータを縦軸にして積み重ねて、図27(B)の「円柱配列」にする。 Here, the above small circle transformation method will be described geometrically with reference to FIG. For each point in the image, know the positions p R and p L on the left and right cameras from the image, know the “position p axis on the visual axis connecting the left and right cameras” from the visual axis direction a xis , and further normalize the shortest distance The parameter n d s is given in step (1). By substituting these into equation (66b), radius R is determined, and small circle transformation is performed (FIG. 27 (A)). In other words, draw a small circle of a radius R on a spherical surface around the p R. Next, the spherical surface of FIG. 27A is projected onto a plane in the same manner as in step (4) of 1.3.3, and the image on the spherical surface is converted into a “circle”. The circles are stacked with the normalized shortest distance parameter n d s as the vertical axis to form the “cylindrical array” in FIG.

ステップ(1)で与えた規格化最短距離パラメータは、この円柱の高さ座標を指定したことになり、ステップ(2)と(3)では、その高さでの断面円――図27(A)の球面像を「円」の内部に変換したもの――を描いたことになる。ステップ(1)では任意にパラメータを与えているため、図27(B)の上面に示すように小円は一点で交差しないが、その高さが真の規格化最短距離s0に等しくなる断面円では、小円が一点で交差する。従って、この円柱の「高さ座標」として平面の規格化最短距離s0が得られ、また「断面円内での交差座標」として3次元方位ns0が得られる。 The normalized shortest distance parameter n d s given in step (1) specifies the height coordinate of this cylinder. In steps (2) and (3), the cross-sectional circle at that height— This is a 27-A spherical image converted into a “circle”. Since the parameter n d s is arbitrarily given in step (1), the small circles do not intersect at one point as shown in the upper surface of FIG. 27B, but the height is the true normalized shortest distance n d s0. In the cross-sectional circle equal to, the small circles intersect at one point. Accordingly, the standardized shortest distance n d s0 of the plane is obtained as the “height coordinate” of this cylinder, and the three-dimensional azimuth ns 0 is obtained as the “intersection coordinate within the cross-sectional circle”.

4.3.3 視軸方向axisを知らなくてもよい方法
4.3.1と4.3.2では、視軸方向axisは既知であるとして、平面の三次元方位nと規格化最短距離を求めた。ここでは、視軸方向axisが未知でもそれら方位と距離を計測できる方法を提供する。2.5と類似の方法である。この方法により、例えばインターネットなどのステレオ画像で、撮影中の視軸方向が判らない場合でも“それら方位と距離”を視軸方向axisとともに計測できる。その方法の概要を4.3.2について説明する(4.3.1についても同様に行える)。視軸方向axisが全ての方向にあり得ると仮定し、各視軸方向に対して4.3.2の“小円変換”を行って小円を描く。それら小円が一点で交差する視軸方向を求めると、それが真の視軸方向axis0であり、またその交差点の座標として平面の三次元方位nと規格化最短距離を求められるものである。それは下記のステップで行われる。
4.3.3 visual axis direction a good way without having to know the xis 4.3.1 and in 4.3.2, visual axis direction a as xis is known, three-dimensional orientation n s plane and standards The shortest distance n d s was obtained. Here, visual axis direction a xis is to provide a method that can measure their orientation and distance in the unknown. This is similar to 2.5. In this way, for example in a stereo image, such as the Internet, a "them bearing and distance" even if the visual axis direction in the imaging is unknown can be measured with a visual axis direction a xis. An outline of the method will be described with respect to 4.3.2 (the same can be applied to 4.3.1). Assuming that the visual axis direction a xis can be in all directions, a small circle is drawn by performing “small circle transformation” of 4.3.2 for each visual axis direction. When they small circles seek visual axis direction intersecting at one point, it is true of the visual axis direction a Xis0, also obtains the three-dimensional orientation n s and the normalized shortest distance n d s of the plane as the coordinates of the intersection It is what It is done in the following steps.

(1)移動方向パラメータaxisを任意に設定する。 (1) The movement direction parameter a xis is arbitrarily set.

(2)そのパラメータaxisの方向を球面上の位置paxisとする。 (2) The direction of the parameter a xis is a position p axis on the spherical surface.

(3)4.3.2のステップ(1)〜(4)を実行し、全ての規格化最短距離パラメータに対する小円を円柱配列(図27(B))の内部に描く。 (3) Steps (1) to (4) of 4.3.2 are executed, and small circles for all normalized shortest distance parameters n d s are drawn inside the cylindrical array (FIG. 27B).

(4)以上のステップを視軸方向パラメータaxisを変えて行い、上記ステップで描かれる小円が一点で交差するパラメータ値axis0を求める。このパラメータ値が真の視軸方向axis0である。その交差点の座標として、平面の方位ns0および規格化最短距離s0が求められる。なお、上記の交差点検出の代わりに、強度がピークになる点を検出してもよい。 (4) The above steps are performed while changing the visual axis direction parameter a xis, and a parameter value a xis0 at which the small circle drawn in the above step intersects at one point is obtained . This parameter value is the true visual axis direction axis0 . As the coordinates of the intersection, the plane direction n s0 and the normalized shortest distance n d s0 are obtained. Instead of the above intersection detection, a point where the intensity reaches a peak may be detected.

4.4 一般化
4.4.1 円柱配列への投票
図24(B)では円柱の各断面円に“球面上の大円を平面に射影した曲線”を「描画」するとした。この描画の代わりに、各断面円をメモリ配列やレジスタ配列で構成して、上記曲線に対応するメモリあるいはレジスタに「投票」をしてもよい。
4.4 Generalization 4.4.1 Voting for Cylinder Array In FIG. 24B, it is assumed that “curve obtained by projecting a great circle on a spherical surface onto a plane” is “drawn” on each cross-sectional circle of the cylinder. Instead of drawing, each cross-sectional circle may be constituted by a memory array or a register array, and “voting” may be performed on the memory or register corresponding to the curve.

また、図27(B)では、円柱の各断面円に“球面上の小円を平面に射影した曲線”を「描画」するとした。この描画の代わりに、上記と同様に「メモリあるいはレジスタへの投票」にしてもよい。   In FIG. 27B, it is assumed that a “curve obtained by projecting a small circle on a spherical surface onto a plane” is “drawn” on each cross-sectional circle of the cylinder. Instead of this drawing, “voting to a memory or register” may be used as described above.

4.4.2 平面上での極変換
4.2.3(3)では、pを極変換した極線を「球面上の大円」として描画した。その極線を、3.3と同様に「平面上の直線」として描画してもよい。
4.4.2 polar transformation on a plane 4.2.3 (3), drawing the polar converting the p c electrode as a "great circle on the sphere." The polar line may be drawn as a “straight line on the plane” similarly to 3.3.

また、4.3.1(5)と4.3.2(3)では、pを小円変換した小円を「球面」の上に描いた。この小円を、3.3と同様に、カメラ中心から「任意の平面」に投影して楕円として描いてもよい。 Further, in 4.3.1 (5) and 4.3.2 (3), depicting the small circle and a small circle converts p R on the "sphere". As in the case of 3.3, this small circle may be projected from the camera center onto an “arbitrary plane” and drawn as an ellipse.

4.4.3 点までの規格化距離を計測する方法
式(39a)において、“運動視のパラメータΔx,p,p,pinf”を“両眼視のパラメータΔxLR,p,p,paxis”に置き換えると
=d/ΔxLR
=(paxis) (67a)
になる。この式により、点までの規格化距離を計測できる。式(67a)に式(57)(あるいは式(59))を代入して中心角で表すと、下式になる。
4.4.3 Method for Measuring Normalized Distance n d 0 to Point In Expression (39a), “Moving Vision Parameters Δx, p 0 , p 1 , p inf ” is set to “Binocular Viewing Parameters Δx LR , p R , p L , p axis
n d 0 = d 0 / Δx LR
= (P axis p R p L ) (67a)
become. With this equation, the normalized distance n d 0 to the point can be measured. Substituting equation (57) (or equation (59)) into equation (67a) and expressing it as a central angle yields the following equation.

=sin(d)/sin(d−c) (67b)
=sin(c+σ)/sin(σ) (67c)
4.4.4 平面カメラ
以上では球面カメラ(あるいは眼球)による画像を用いるとして説明したが、平面カメラによる画像を用いる事もできる。その場合には、3.5と同様に、平面カメラで撮像された画像を球面上に変換して、以上で説明したアルゴリズムを実行すればよい。
n d 0 = sin (d) / sin (dc) (67b)
= Sin (c + σ) / sin (σ) (67c)
4.4.4 Planar Camera In the above description, it is assumed that an image from a spherical camera (or eyeball) is used, but an image from a plane camera can also be used. In that case, the algorithm described above may be executed by converting the image captured by the plane camera onto a spherical surface, as in 3.5.

以上で、本発明の原理的な説明を終了し、以下、本発明の各種の実施形態について説明する。尚、以下に説明する各種ブロック図は、図2,図3に示すコンピュータシステム300の機能ブロックと捉えることもでき、本発明の画像計測装置をハードウェアで構成したときの各種実施形態と捉えることもできる。また、以下に説明する各種フローチャートは、図2,図3に示すコンピュータシステム300にインストールされて実行される、本発明にいう画像計測プログラムの各種実施形態と捉えることもでき、本発明の画像計測方法の各種実施形態と捉えることもできる。   Above, the fundamental description of the present invention is finished, and various embodiments of the present invention will be described below. Note that the various block diagrams described below can be regarded as functional blocks of the computer system 300 shown in FIGS. 2 and 3, and are regarded as various embodiments when the image measuring apparatus of the present invention is configured by hardware. You can also. The various flowcharts described below can also be regarded as various embodiments of the image measurement program according to the present invention installed and executed in the computer system 300 shown in FIGS. 2 and 3. It can also be understood as various embodiments of the method.

実施形態A運動視
実施形態A−1.(平面の3次元方位ns0と横切るまでの規格化時間c0の計測)
掲記の計測、すなわち1.3.2の方法を図28の実施形態で説明する。それは図29に示す以下のフローで行われる。
(Start)
(1)無限時刻の位置pinfを下記のようにして設定する(A−1−1)。カメラ11で得られた、現在と次の時刻での全点の位置{},{}を「現時刻tの画像レジスタ12」と「次時刻tの画像レジスタ13」から「移動方向vの抽出ユニット14」に入力して、移動方向vを抽出する――この抽出を行う方法と実施形態は、特許(特公平06−14355号公報)に述べられている。次に、「pinf設定ユニット15」により、この移動方向vに等しいとして“無限時刻の位置pinf”を設定する。
Embodiment A Motion Vision Embodiment A-1. (Measurement of normalized time n t c0 until crossing with the three-dimensional orientation n s0 of the plane)
The method of posting, that is, the method of 1.3.2 will be described in the embodiment of FIG. It is performed according to the following flow shown in FIG.
(Start)
(1) The position p inf at infinite time is set as follows (A-1-1). Obtained by the camera 11, the position of all points in the current and next time {i p 0}, {i p 1} the "image register 12 at the present time t 0", "image register 13 at the next time t 1 To the “extraction unit 14 in the moving direction v” to extract the moving direction v—a method and an embodiment for performing this extraction are described in a patent (Japanese Patent Publication No. 06-14355). Next, the “p inf setting unit 15” sets “infinite time position p inf ” as being equal to the moving direction v.

(2)規格化時間パラメータを「パラメータの走査ユニット16」により下限値c,minから上限値c,maxまで走査する(A−1−2,A−1−3,A−1−16)。
を走査)
(3)画像内の各アドレスiを下限値iminから上限値imaxまで走査する(A−1−4,A−1−5,A−1−15)。
(iを走査)
(4)現在と次の時刻の位置を「現時刻tの画像レジスタ12」と「次時刻tの画像レジスタ13」から出力する(A−1−6)。
(2) The standardized time parameter n t c is scanned from the lower limit value n t c, min to the upper limit value n t c, max by the “ n t c parameter scanning unit 16” (A-1-2, A-1 -3, A-1-16).
(Scans n t c )
(3) Each address i in the image is scanned from the lower limit value i min to the upper limit value i max (A-1-4, A-1-5, A-1-15).
(Scan i)
(4) The current and next time positions i p 0 and i p 1 are output from the “image register 12 at the current time t 0 ” and the “image register 13 at the next time t 1 ” (A-1-6).

(5)以上で設定された四つのパラメータ,pinfを「複比変換ユニット17」に入力して位置を出力する。位置の計算は、そのユニット内で次の二つのステップで行われる。 (5) The four parameters n t c , i p 0 , i p 1 , and p inf set as described above are input to the “multi-ratio conversion unit 17” and the position i pc is output. Calculation of the position i p c is in the unit takes place in the next two steps.

(a)とpinfとの中心角xの計算(A−1−7)
,pinfから、xを式(14b)により下式で計算する(図9参照)。
(A) calculation of the center angle i x and i p c and p inf (A-1-7)
n t c, from i p 0, i p 1, p inf, the i x calculated by the following equation according to equation (14b) (see FIG. 9).

x=tan−1((sin(a)sin(b))
/(cos(a)sin(b)−・sin((b)−(a)))
(100a)
(b)の計算(A−1−8)
球面上の位置を、上記のxを用いて下式で計算する。
i x = tan -1 ((sin (i a) sin (i b))
/ (Cos (i a) sin (i b) - n t c · sin ((i b) - (i a)))
(100a)
(B) calculation of i p c (A-1-8)
The position i p c on the spherical surface is calculated by the following equation using the above i x.

=cos(x) Γ+sin(x) Γ (100b)
ここで、ΓとΓは、[×]および||をそれぞれベクトルの外積演算及び絶対値演算として下式で計算される。
i pc = cos ( ix ) Γ x + sin ( ix ) Γ y (100b)
Here, Γ x and Γ y are calculated by the following equations using [×] and || as vector outer product operations and absolute value operations, respectively.

Γ=v (100c)
Γ=[v×]/|[v×]|
Γ=[Γ×Γ
(6)上記の位置を「極変換ユニット18」により球面上の大円に極変換する(1.3.3と図10(A)参照)。その極変換は、ユニット内の次の二つのステップで行われる(図30(A)参照)。
Γ x = v (100c)
Γ z = [v × i p 0 ] / | [v × i p 0 ] |
Γ y = [Γ z × Γ x ]
(6) the position i p c of the poles converted to great circle on the sphere by the "polar transformation unit 18 '(see 1.3.3 and FIG. 10 (A)). The polar conversion is performed in the following two steps in the unit (see FIG. 30A).

(a)を極座標に変換(A−1−9)
を直交座標および“球面上の極座標”で
=(cXcYcZ) (101a)
=(αβ) (101b)
と表現して、の極座標成分(経度αと緯度β)を下式で計算する。
(A) Convert i pc to polar coordinates (A-1-9)
i pc in Cartesian coordinates and "polar coordinates on a sphere"
i p c = (i p cX , i p cY, i p cZ) (101a)
= (I α c, i β c) (101b)
It is expressed as, calculates polar components i p c a (longitude i alpha c and latitude i beta c) by the following equation.

α=tan−1cYcX) (101c)
β=tan−1(√(cX cY )/cZ)) (101d)
ここで、Oは“球面上の原点”の単位ベクトル、XとYはX軸とY軸の単位ベクトルである。
(kを走査)
(b)の極変換(A−1−12)
を極変換した球面上の大円――すなわち、その大円を構成する任意の点GC(そのアドレスをkとする)の座標(経度αGCと緯度βGC)――はの座標αβで決まり、式(102b)で表される(幾何学大辞典2(岩田至康、槇書店)」の72頁)。
i α c = tan -1 (i p cY / i p cX) (101c)
i β c = tan -1 (√ (i p cX 2 + i p cY 2) / i p cZ)) (101d)
Here, O is the “origin on the spherical surface” unit vector, and X and Y are the X-axis and Y-axis unit vectors.
(Scan k)
(B) polar transformation of i p c (A-1-12)
i p c poles converted great circle on a sphere - that is, any point k p GC constituting the great circle coordinates (the address to k) (longitude k alpha GC and latitude k beta GC) - - is determined by the coordinates i α c, i β c of i p c, the formula (102b) (geometric dictionary 2 (Iwata ItaruYasushi, 72 pp Maki Shoten) ").

GC=(αGCβGC) (102a)
cos(αGCα)=−cot(βGC)cot(β) (102b)
大円の具体的な計算は、kを下限値kminから上限値kmaxまで走査して次のように行われる。ΔβGCを緯度分解能として緯度βGCをkΔβGCと計算し、その緯度を用いて経度αGCを下式で計算する。
k p GC = (k α GC , k β GC) (102a)
cos (k α GC - i α c) = - cot (k β GC) cot (i β c) (102b)
A specific calculation of the great circle is performed as follows by scanning k from the lower limit value k min to the upper limit value k max . The latitude k β GC is calculated as kΔβ GC using Δβ GC as the latitude resolution, and the longitude k α GC is calculated by the following equation using the latitude.

αGCα+cos−1(cot(βGC)cot(β)) (102c)
(7)上記の大円を構成する点GCを、「円柱配列投票ユニット19」の高さの断面円内の、極座標(傾角αGC,Proj、動径βGC,Proj)で表される点GC,Projに変換して投票する(A−1−13)――その投票は“位置の明るさ”を加算して行われる(1.3.3、図10(B)、そして図30(B)を参照)。その変換は一般的にはf()を射影関数として、
βGC,Proj=f(βGC) (103a)
αGC,ProjαGC (103b)
で表される――f()の詳細は文献(「最新レンズ設計講座23レンズ設計に付随する諸問題(1)(中川著、写真工業、1982年)」:「昭和59年度実用原子力発電施設作業ロボット開発委託研究成果報告書(極限作業ロボット技術研究組合)」の4.2.2.1節)を参照されたい。等距離射影方式の場合にはf()=1であり、βGC,Projは下式で与えられる。
k α GC = i α c + cos -1 (cot (k β GC) cot (i β c)) (102c)
(7) The point k p GC constituting the great circle is defined as polar coordinates (inclination angle k α GC, Proj , radius k β GC, in the cross-sectional circle of the height n t c of the “cylindrical array voting unit 19” . Proj ) is converted into a point k p GC, Proj represented by voting (A-1-13)-the voting is performed by adding “brightness at position i p 0 ” (1.3. 3, see FIG. 10 (B) and FIG. 30 (B)). The transformation is generally f () as a projection function,
k β GC, Proj = f ( k β GC) (103a)
k α GC, Proj = k α GC (103b)
-The details of f () are in the literature ("Latest Lens Design Lecture 23 Problems Associated with Lens Design (1) (by Nakagawa, Photo Industry, 1982)": Refer to Section 4.2.2.1 of “Work Robot Development Contract Research Results Report (Extreme Work Robot Technology Research Association)”. In the case of the equidistant projection method, f () = 1, and k β GC, Proj is given by the following equation.

βGC,ProjβGC (103c)
以上を纏めると、大円を構成する“球面上の点GC”を断面円内の“平面上の点GC,Proj”に変換して、その点に“位置の明るさ”を投票(加算)する。各断面円はレジスタ配列あるいはメモリ配列で実現できる。なお、“球面上で大円に極変換するアルゴリズム”とその“その大円を円内に射影して投票するアルゴリズム”は、文献(「昭和60年度実用原子力発電施設作業ロボット開発委託研究成果報告書(極限作業ロボット技術研究組合)」の4.2.2.1節)に詳しく述べられている。
(kを走査(A−1−14))
(8)ここまでの処理で、位置の点が“複比変換および極変換”された一個の大円が、高さがの断面円内に描かれる。但し、その大円は式(103)により変換されている。
(iを走査(A−1−15))
(9)ここまでの処理で、高さがの断面円内に、“画像内の全ての点{}”が複比変換および極変換された大円群が描かれる。なお、上記で述べた、球面上の極変換を“円の内部に対応するレジスタ配列”に投票するハードウェアについては、特公平01−57831号公報、特公平01−59619号公報、特公平06−70795号公報、特公平06−70796号公報に詳しく記載されている。
を走査(A−1−16))
(10)ここまでの処理で、全ての高さ{}の断面円内に、“画像内の全ての点{}”が複比変換および極変換された大円群が描かれる。すなわち、円柱配列の全ての断面円内に投票が行われる。
k β GC, Proj = k β GC (103c)
Summarizing the above, the “point k p GC on the spherical surface” constituting the great circle is converted into the “point k p GC, Proj on the plane” in the cross-sectional circle, and the brightness of the position i p 0 is added to the point. Vote “Add”. Each cross-sectional circle can be realized by a register arrangement or a memory arrangement. The “algorithm for polar conversion to a great circle on a spherical surface” and its “algorithm for projecting the great circle into a circle and voting” are available in the literature (“Development research report on the work robot development commissioned in 1985” (Section 4.2.2.1) of the “Summary (Robot Engineering Research Association)”.
(Scan k (A-1-14))
(8) By the processing so far, one great circle in which the point at the position i p 0 has been “multi-ratio transformed and pole transformed” is drawn in a cross-sectional circle having a height of n t c . However, the great circle is converted by the equation (103).
(Scan i (A-1-15))
(9) In the processing up to this point, the height in the cross section circle of n t c, "all the points in the image {i p 0}" is cross-ratio conversion and polar converted great circles group is drawn. Note that the above-described hardware for voting the polar transformation on the spherical surface to the “register arrangement corresponding to the inside of the circle” is Japanese Patent Publication No. 01-57831, Japanese Patent Publication No. 01-59619, Japanese Patent Publication No. 06. -70795 and Japanese Patent Publication No. 06-70796.
(Scanning n t c (A-1-16))
(10) In the processing up to this point, in the cross-sectional circle of all heights {n t c}, the "all points {i p 0} in the image" are cross-ratio conversion and polar transformed great circles group be painted. That is, voting is performed in all cross-sectional circles of the columnar arrangement.

(11)「ピーク抽出ユニット20」により、円柱配列の中で“投票された強度が極大(ピーク)になる点”を抽出する――この極大点が“大円群が一点に交差する場所”である。この極大点の“高さ座標”として“平面を横切るまでの規格化時間c0”が求められ、また“断面円内の座標”として平面の3次元方位ns0が求められる(A−1−17)。このフローを用いて行われた計算機シミュレーション結果を図11に示す。 (11) The “peak extraction unit 20” extracts “the point where the voted intensity becomes a maximum (peak)” in the cylindrical array—this maximum point is “the place where the great circles intersect at one point” It is. As the “height coordinate” of this local maximum point, “normalized time n t c0 until crossing the plane” is obtained, and as the “coordinate within the cross-sectional circle”, the three-dimensional orientation n s0 of the plane is obtained (A-1). -17). FIG. 11 shows the result of computer simulation performed using this flow.

(End)
実施形態A−2.(“平面の3次元方位ns0と横切るまでの規格化時間c0”を移動方向vを知らずに計測)
掲記の計測、すなわち1.6の方法を図31の実施形態で説明する。それは実施形態A−1をモディファイした、図32に示す、以下のフローで行われる。下記の(2)から(10)までのステップは、実施形態A−1の対応するステップと同じである。
(End)
Embodiment A-2. (Measurement of “normalized time n t c0 until crossing with three-dimensional orientation n s0 of plane” without knowing moving direction v)
The posting measurement, that is, the method of 1.6 will be described in the embodiment of FIG. It is performed according to the following flow shown in FIG. 32, which is a modification of Embodiment A-1. The following steps (2) to (10) are the same as the corresponding steps in the embodiment A-1.

(Start)
(0)「vパラメータの走査ユニット21」により、可能性のある全ての方向(下限値vminから上限値vmaxまで)にわたって、“移動方向パラメータv”を走査する。
(vを走査)
(1)「pinf設定ユニット15」により、“無限時間経過後の位置pinf”をこのパラメータvに等しいとして設定する(A−2−3)。
(Start)
(0) The “moving direction parameter v” is scanned by the “v parameter scanning unit 21” in all possible directions (from the lower limit value v min to the upper limit value v max ).
(Scan v)
(1) The “p inf setting unit 15” sets “position p inf after infinite time has elapsed” to be equal to this parameter v (A-2-3).

(2)規格化時間パラメータを「パラメータの走査ユニット16」により、下限値c,minから上限値c,maxまで走査する(A−2−4,A−2−5,A−2−16)。
を走査)
(3)画像内の各アドレスiを下限値iminから上限値imaxまで走査する(A−2−6,A−2−7,A−2−15)。
(iを走査)
(4)現在と次の時刻の位置を「現時刻tの画像レジスタ12」と「次時刻tの画像レジスタ13」から出力する(A−2−8)。
(2) The normalization time parameter n t c is scanned from the lower limit value n t c, min to the upper limit value n t c, max by the “ n t c parameter scanning unit 16” (A-2-4, A− 2-5, A-2-16).
(Scans n t c )
(3) Each address i in the image is scanned from the lower limit value i min to the upper limit value i max (A-2-6, A-2-7, A-2-15).
(Scan i)
(4) The current and next time positions i p 0 and i p 1 are output from the “image register 12 at the current time t 0 ” and the “image register 13 at the next time t 1 ” (A-2-8).

(5)以上で設定された四つのパラメータ,pinfを「複比変換ユニット17」に入力して、位置を出力する(A−2−9)。 (5) The four parameters n t c , i p 0 , i p 1 , and p inf set above are input to the “multi-ratio conversion unit 17”, and the position i pc is output (A-2- 9).

(6)上記の位置を「極変換ユニット18」により球面上の大円に極変換する(A−2−10)。
(kを走査)
(7)その大円を構成する点GCを、「円柱配列投票ユニット19」の“高さの断面円内の点”に変換して投票する(A−2−13)。
(6) the position i p c of the poles converted to great circle on the sphere by the "polar transformation unit 18 '(A-2-10).
(Scan k)
(7) The point k p GC constituting the great circle is converted into “a point in the cross-sectional circle of height n t c ” of the “cylindrical array voting unit 19” and voted (A-2-13).

kを走査(A−2−14)
(8)ここまでの処理で、位置の点が“複比変換および極変換”された一個の大円が、高さがの断面円内に描かれる。但し、その大円は式(103)により変換されている。
(iを走査(A−2−15))
(9)ここまでの処理で、高さがの断面円内に、“画像内の全ての点{}”が複比変換および極変換された大円群が描かれる。
を走査(A−2−16))
(10)ここまでの処理で、全ての高さ{}の断面円内に、“画像内の全ての点{}”が複比変換および極変換された大円群が描かれる。すなわち、円柱配列の全ての断面円内に投票が行われる。
(vを走査(A−2−17))
(11)ここまでの処理で、“全ての移動方向パラメータvに対する円柱配列群”の全断面円に投票が行われる。
Scan k (A-2-14)
(8) By the processing so far, one great circle in which the point at the position i p 0 has been “multi-ratio transformed and pole transformed” is drawn in a cross-sectional circle having a height of n t c . However, the great circle is converted by the equation (103).
(Scan i (A-2-15))
(9) In the processing up to this point, the height in the cross section circle of n t c, "all the points in the image {i p 0}" is cross-ratio conversion and polar converted great circles group is drawn.
(Scanning n t c (A-2-16))
(10) In the processing up to this point, in the cross-sectional circle of all heights {n t c}, the "all points {i p 0} in the image" are cross-ratio conversion and polar transformed great circles group be painted. That is, voting is performed in all cross-sectional circles of the columnar arrangement.
(Scanning v (A-2-17))
(11) In the processing so far, voting is performed on all the cross-sectional circles of the “cylindrical array group for all the moving direction parameters v”.

(12)上記の円柱配列群の中で、強度が最大になる“特定の円柱配列”を「ピーク抽出ユニット20」により抽出する。この配列に対する移動方向パラメータとして、真の移動方向vが求められる。また、その配列の中で強度がピークになる点を抽出すると、その点の“高さ座標”として平面を横切るまでの規格化時間c0が、また“断面円内の座標”として平面の3次元方位ns0が求められる(A−2−18)。 (12) From the above-described columnar array group, the “specific columnar array” having the maximum intensity is extracted by the “peak extraction unit 20”. As the movement direction parameter for this array, the true movement direction v 0 is obtained. Further, when a point at which the intensity reaches a peak in the array is extracted, the normalization time n t c0 until the plane is crossed as the “height coordinate” of the point is obtained, and the coordinate of the plane is obtained as the “coordinate in the cross-sectional circle”. A three-dimensional orientation ns0 is obtained (A-2-18).

(End)
実施形態A−3. (平面の3次元方位ns0と規格化最短距離s0の計測)
掲記の計測、すなわち、2.2.3の方法を図33の実施形態で説明する。それは、図34に示す以下のフローで行われる。
(Start)
(1)移動方向vを「移動方向vの抽出ユニット14」により、実施形態A−1のステップ(1)と同様にして抽出する。次に、「pinf設定ユニット15」により、この移動方向vに等しいとして“無限時刻の位置pinf”を設定する(A−3−1)。
(End)
Embodiment A-3. (Measurement of three-dimensional orientation n s0 of plane and normalized shortest distance n d s0 )
The posted measurement, that is, the method of 2.2.3 will be described with reference to the embodiment of FIG. It is performed according to the following flow shown in FIG.
(Start)
(1) The moving direction v is extracted by the “moving direction v extracting unit 14” in the same manner as in step (1) of the embodiment A-1. Next, the “p inf setting unit 15” sets “infinite time position p inf ” as being equal to the moving direction v (A-3-1).

(2)規格化最短距離パラメータを「パラメータの走査ユニット22」により下限値s,minから上限値s,maxまで走査する(A−3−2,A−3−3,A−3−15)。
を走査)
(3)画像内の各アドレスiを下限値iminから上限値imaxまで走査する(A−3−4,A−3−5,A−3−14)。
(iを走査)
(4)現在と次の時刻の位置を「現時刻tの画像レジスタ12」と「次時刻tの画像レジスタ13」から出力する(A−3−6)。
(2) The standardized shortest distance parameter n d s is scanned from the lower limit value n d s, min to the upper limit value n d s, max by the “ n d s parameter scanning unit 22” (A-3-2, A- 3-3, A-3-15).
(Scans n d s )
(3) Each address i in the image is scanned from the lower limit value i min to the upper limit value i max (A-3-4, A-3-5, A-3-14).
(Scan i)
(4) Output the current and next time positions i p 0 and i p 1 from the “image register 12 at the current time t 0 ” and the “image register 13 at the next time t 1 ” (A-3-6).

(5)以上で設定された四つのパラメータ,pinfを「半径Rの計算ユニット23」に入力して、半径Rと位置を出力する(A−3−7)。そのユニットの中で、半径Rが式(33)により下式で計算される。 (5) The four parameters n d s , i p 0 , i p 1 , and p inf set above are input to the “radius R calculation unit 23”, and the radius i R and the position i p 0 are output. (A-3-7). Within that unit, the radius i R is calculated according to the following equation using equation (33).

R=cos−1 sin(b−a)/sin(b)) (104)
(6)上記の半径Rと位置を「小円変換ユニット24」に入力して、小円変換――すなわち、位置をそれを中心とする半径Rの“球面上の小円”に変換――を行う(2.2.1と図17(A)参照)。その小円変換は、ユニット内の次の二つのステップで行われる(図35(A)参照)。
i R = cos -1 (n d s sin (i b- i a) / sin (i b)) (104)
(6) The radius i R and the position i p 0 are input to the “small circle transform unit 24”, and the small circle transform—that is, the position i p 0 on the “spherical surface” with the radius i R centered on it. To “small circle” in FIG. 17 (see 2.2.1 and FIG. 17A). The small circle conversion is performed in the following two steps in the unit (see FIG. 35A).

(a)を極座標に変換(A−3−8)
を直交座標および“球面上の極座標”で
=(0X0Y0Z) (105a)
=(αβ) (105b)
と表現して、の極座標成分(経度αと緯度β)を下式で計算する。
(A) Convert i p 0 to polar coordinates (A-3-8)
i p 0 in Cartesian coordinates and “Polar coordinates on sphere”
i p 0 = ( i p 0X , i p 0Y , i p 0Z ) (105a)
= (I α 0, i β 0) (105b)
And the polar coordinate components of i p 0 (longitude i α 0 and latitude i β 0 ) are calculated by the following equation.

α=tan−10Y0X) (105c)
β=tan−1(√(0X 0Y )/0Z)) (105d)
kを走査(A−3−9,A−3−10,A−3−13)
(b)小円変換(A−3−11)
を小円変換した球面上の大円――すなわち、その小円を構成する任意の点SC(そのアドレスをkとする)の座標(経度αSCと緯度βSC)――はの座標αβと半径Rで決まり、式(106b)で表される。この式は、図35(A)のパラメータを用いて式(30)を表したものである。
i α 0 = tan −1 ( i p 0Y / i p 0X ) (105c)
i β 0 = tan -1 (√ (i p 0X 2 + i p 0Y 2) / i p 0Z)) (105d)
Scan k (A-3-9, A-3-10, A-3-13)
(B) Small circle conversion (A-3-11)
A great circle on the sphere obtained by transforming i p 0 into a small circle--that is, the coordinates (longitude k α SC and latitude k β SC ) of an arbitrary point k p SC (whose address is k) constituting the small circle -Is determined by the coordinates i α 0 and i β 0 of i p 0 and the radius i R, and is expressed by the equation (106b). This expression represents Expression (30) using the parameters shown in FIG.

SC=(αSCβSC) (106a)
cos(βSC)cos(β
+sin(βSC)sin(β)cos(αSCα
=cos(R) (106b)
小円の具体的な計算は、kを走査して次のように行われる。ΔβSCを緯度分解能として緯度βSCをkΔβSCと計算し、その緯度を用いて経度αSCを下式で計算する。
k p SC = ( k α SC , k β SC ) (106a)
cos (k β SC) cos ( i β 0)
+ Sin (k β SC) sin (i β 0) cos (k α SC - i α 0)
= Cos (i R) (106b )
The specific calculation of the small circle is performed as follows by scanning k. Latitude k β SC is calculated as kΔβ SC with Δβ SC as the latitude resolution, and longitude k α SC is calculated by the following equation using the latitude.

αSCα+cos−1((cos(R)−cos(βSC)cos(β))
/(sin(βSC)sin(β))) (106c)
(7)上記の小円を構成する点SCを、「円柱配列投票ユニット25」の高さの断面円内の、極座標(傾角αSC,Proj、動径βSC,Proj)で表される点SC,Projに変換して投票する(A−3−12)――その投票は“位置の明るさ”を加算して行われる(2.2.3、図17(B)、そして図35(B)を参照)。その変換はf()を射影関数として、下式で表される。
k α SC = i α 0 + cos -1 ((cos (i R) -cos (k β SC) cos (i β 0))
/ (Sin (k β SC) sin (i β 0))) (106c)
(7) above the k p SC points constituting the small circle, in cross-section circle of height n d s of "columnar array voting unit 25", a polar coordinate (tilt k alpha SC, Proj, radial k beta SC, Proj ) is converted to a point k p SC, Proj expressed by voting (A-3-12)-the voting is performed by adding “brightness at position i p 0 ” (2.2. 3, see FIG. 17 (B) and FIG. 35 (B)). The conversion is expressed by the following equation using f () as a projection function.

βSC,Proj=f(βSC) (107a)
αSC,ProjαSC (107b)
等距離射影方式の場合にはf()=1であり、βSC,Projは下式で与えられる。(実施形態A−1(7)参照)。
k β SC, Proj = f ( k β SC) (107a)
k α SC, Proj = k α SC (107b)
In the case of the equidistant projection method, f () = 1, and k β SC, Proj is given by the following equation. (See Embodiment A-1 (7)).

βSC,ProjβSC (107c)
以上を纏めると、小円を構成する“球面上の点SC”を断面円内の“平面上の点SC,Proj”に変換して、その点に“位置の明るさ”を投票(加算)する。各断面円はレジスタ配列あるいはメモリ配列で実現できる。
(kを走査(A−3−13))
(8)ここまでの処理で、位置の点が変換された一個の小円が、高さがの断面円内に描かれる。但し、その小円は式(107)により変換されている。
(iを走査(A−3−14))
(9)ここまでの処理で、高さがの断面円内に、“画像内の全ての点{}”が変換された小円群が描かれる。
を走査(A−3−15)
(10)ここまでの処理で、全ての高さ{}の断面円内に、“画像内の全ての点{}”が変換された小円群が描かれる。すなわち、円柱配列の全ての断面円に投票が行われる。
k β SC, Proj = k β SC (107c)
Summarizing the above, the “point k p SC on the spherical surface” constituting the small circle is converted into the “point k p SC, Proj on the plane” in the cross-sectional circle, and the brightness of the position i p 0 is added to the point. Vote “Add”. Each cross-sectional circle can be realized by a register arrangement or a memory arrangement.
(Scan k (A-3-13))
(8) Through the processing so far, one small circle in which the point at the position i p 0 has been transformed is drawn in the cross-sectional circle having a height of n d s . However, the small circle is converted by the equation (107).
(Scan i (A-3-14))
(9) Through the processing so far, a small circle group in which “all the points in the image { ip 0 }” are transformed is drawn in the cross-sectional circle having the height of n d s .
(Scan n d s (A-3-15)
(10) In the process up to this point, in the cross-sectional circle of all heights {n d s}, small circle group "all the points in the image {i p 0}" has been converted is drawn. That is, voting is performed on all the cross-sectional circles of the columnar arrangement.

(11)「ピーク抽出ユニット26」により、円柱配列の中で“投票された強度が極大(ピーク)になる点”を抽出する――この極大点が“小円群が一点に交差する場所”である。この極大点の“高さ座標”として平面の規格化最短距離が求められ、また“断面円内の座標”として平面の3次元方位ns0が求められる(A−3−16)。このフローを用いて行われた計算機シミュレーション結果を図18に示す。
(End)
実施形態A−4.(“平面の3次元方位ns0と規格化最短距離s0”を移動方向vを知らずに計測)
掲記の計測、すなわち2.4の方法を図36の実施形態で説明する。それは、実施形態A−3をモディファイした、図37に示す、以下のフローで行われる。下記の(2)から(10)までのステップは、実施形態A−3の対応するステップと同じである。
(11) “Peak extraction unit 26” extracts “a point where the voted intensity becomes a maximum (peak)” in the cylindrical array—this maximum point is “a place where small circles intersect at one point” It is. The standardized shortest distance n d s of the plane is obtained as the “height coordinate” of the local maximum point, and the three-dimensional orientation n s0 of the plane is obtained as the “coordinate in the cross-sectional circle” (A-3-16). FIG. 18 shows the result of the computer simulation performed using this flow.
(End)
Embodiment A-4. (Measured without knowing the direction of movement v of the "three-dimensional orientation n s0 and the normalized shortest distance n d s0 plane")
The posting measurement, that is, the method of 2.4 will be described in the embodiment of FIG. It is performed according to the following flow shown in FIG. 37 modified from the embodiment A-3. The following steps (2) to (10) are the same as the corresponding steps in the embodiment A-3.

(Start)
(0)「vパラメータの走査ユニット21」により、可能性のある全ての方向(下限値vminから上限値vmaxまで)にわたって、“移動方向パラメータv”を走査する(A−4−1,A−4−2,A−4−17)。
(vを走査)
(1)「pinf設定ユニット15」により、“無限時間経過後の位置pinf”をこのパラメータvに等しいとして設定する(A−4−3)。
(Start)
(0) The “moving direction parameter v” is scanned by the “v parameter scanning unit 21” in all possible directions (from the lower limit value v min to the upper limit value v max ) (A-4-1, A-4-2, A-4-17).
(Scan v)
(1) The “p inf setting unit 15” sets “position p inf after infinite time has elapsed” to be equal to this parameter v (A-4-3).

(2)規格化最短距離パラメータを「パラメータの走査ユニット22」により、下限値s,minから上限値s,maxまで走査する(A−4−4,A−4−5,A−4−16)。
を走査)
(3)画像内の各点のアドレスiを下限値iminから上限値imaxまで走査する(A−4−6,A−4−7,A−4−15)。
(iを走査)
(4)現在と次の時刻の位置を「現時刻tの画像レジスタ12」と「次時刻tの画像レジスタ13」から出力する(A−4−8)。
(2) The standardized shortest distance parameter n d s is scanned from the lower limit value n d s, min to the upper limit value n d s, max by the “ n d s parameter scanning unit 22” (A-4-4, A -4-5, A-4-16).
(Scans n d s )
(3) The address i of each point in the image is scanned from the lower limit value i min to the upper limit value i max (A-4-6, A-4-7, A-4-15).
(Scan i)
(4) Output the current and next time positions i p 0 and i p 1 from the “image register 12 at the current time t 0 ” and the “image register 13 at the next time t 1 ” (A-4-8).

(5)以上で設定された四つのパラメータ,pinfを「半径Rの計算ユニット23」に入力して、半径Rと位置を出力する(A−4−9)。 (5) The four parameters n d s , i p 0 , i p 1 , and p inf set above are input to the “radius R calculation unit 23”, and the radius i R and the position i p 0 are output. (A-4-9).

(6)この半径Rと位置を「小円変換ユニット24」に入力して、位置を中心とする半径Rの“球面上の小円”に変換する(A−4−10)。
(kを走査A−4−11,A−4−12,A−4−14)
(7)その小円を構成する点SCを、「円柱配列投票ユニット」の“高さの断面円内の点”に変換して投票する(A−4−13)。
(kを走査A−4−14)
(8)ここまでの処理で、位置の点が変換された一個の小円が、高さがの断面円内に描かれる。但し、その小円は式(107)により変換されている。
(iを走査(A−4−15))
(9)ここまでの処理で、高さがの断面円内に、“画像内の全ての点{}”が変換された小円群が描かれる。
を走査(A−4−16))
(10)ここまでの処理で、全ての高さ{}の断面円内に、“画像内の全ての点{}”が変換された小円群が描かれる。すなわち、円柱配列の全ての断面円内に投票が行われる。
(vを走査(A−4−17))
(11)ここまでの処理で、“全ての移動方向パラメータvに対する円柱配列群”の全断面円に投票が行われる。
(6) The radius i R and the position i p 0 are input to the “small circle conversion unit 24” and converted into a “small circle on the sphere” having a radius i R centered on the position i p 0 (A− 4-10).
(K is scanned A-4-11, A-4-12, A-4-14)
(7) The point k p SC constituting the small circle is converted into a “point in the cross-sectional circle of height n d s ” of the “cylindrical array voting unit” and voted (A-4-13).
(K is scanned A-4-14)
(8) Through the processing so far, one small circle in which the point at the position i p 0 has been transformed is drawn in the cross-sectional circle having a height of n d s . However, the small circle is converted by the equation (107).
(Scan i (A-4-15))
(9) Through the processing so far, a small circle group in which “all the points in the image { ip 0 }” are transformed is drawn in the cross-sectional circle having the height of n d s .
(Scan n d s (A-4-16) )
(10) In the process up to this point, in the cross-sectional circle of all heights {n d s}, small circle group "all the points in the image {i p 0}" has been converted is drawn. That is, voting is performed in all cross-sectional circles of the columnar arrangement.
(Scanning v (A-4-17))
(11) In the processing so far, voting is performed on all the cross-sectional circles of the “cylindrical array group for all the moving direction parameters v”.

(12)上記の円柱配列群の中で、強度が最大になる“特定の円柱配列”を「ピーク抽出ユニット26」により抽出する。この配列に対する移動方向パラメータとして、真の移動方向vが求められる。また、その配列の中で強度がピークになる点を抽出すると、その点の“高さ座標”として平面の規格化最短距離が、また“断面円内の座標”として平面の3次元方位ns0が求められる(A−4−18)。
(End)
実施形態A−5. (“点の規格化距離”の計測)
掲記の計測、すなわち、3.4の方法を図38の実施形態で説明する。それは、図39に示す以下のフローで行われる。
(Start)
(1)移動方向vを「移動方向vの抽出ユニット14」により、実施形態A−1のステップ(1)と同様にして抽出する。次に、「pinf設定ユニット15」により、この移動方向vに等しいとして“無限時間経過後の位置pinf”を設定する(A−5−1)。
(12) The “specific column array” having the maximum intensity is extracted by the “peak extraction unit 26” from the above-described column array group. As the movement direction parameter for this array, the true movement direction v 0 is obtained. Further, when a point where the intensity reaches a peak in the array is extracted, the standardized shortest distance n d s of the plane is used as the “height coordinate” of the point, and the three-dimensional plane is used as the “coordinate in the cross-sectional circle”. The direction ns0 is obtained (A-4-18).
(End)
Embodiment A-5. (Measurement of “standardized distance n d 0 of points”)
The posting measurement, that is, the method of 3.4 will be described in the embodiment of FIG. It is performed according to the following flow shown in FIG.
(Start)
(1) The moving direction v is extracted by the “moving direction v extracting unit 14” in the same manner as in step (1) of the embodiment A-1. Next, the “p inf setting unit 15” sets “position p inf after elapse of infinite time” as being equal to the moving direction v (A-5-1).

(2)現在と次の時刻の位置p,pを「現時刻tの画像レジスタ12」と「次時刻tの画像レジスタ13」から出力する(A−5−2)。 (2) The current and next time positions p 0 and p 1 are output from “image register 12 at current time t 0 ” and “image register 13 at next time t 1 ” (A-5-2).

(3)以上で設定された三つのパラメータp,p,pinfを「点距離計算ユニット27」に入力して、点までの規格化距離が出力される(A−5−3)。の計算は、ユニット内で式(39b)を計算して行われる。
(End)
実施形態A−6. (“平面の3次元方位ns0と横切るまでの規格化時間c0”を運動視差τにより計測)
掲記の計測、すなわち1.3.2の方法において、“運動視差τによる複比変換(式16b))”を用いる場合を図40の実施形態で説明する。それは、図41に示す、以下のフローで行われる。下記の(7)から(12)までのステップは、実施形態A−1の対応するステップと同じである。
(3) The three parameters p 0 , p 1 , and p inf set above are input to the “point distance calculation unit 27”, and the normalized distance n d 0 to the point is output (A-5-5). 3). The calculation of n d 0 is performed by calculating equation (39b) within the unit.
(End)
Embodiment A-6. ("Measured normalization time n t c0 until crossing with three-dimensional orientation n s0 of plane” by motion parallax τ)
In the above-described measurement, that is, in the method of 1.3.2, the case of using “multi-ratio conversion by motion parallax τ (formula 16b))” will be described with reference to the embodiment of FIG. It is performed according to the following flow shown in FIG. The following steps (7) to (12) are the same as the corresponding steps in the embodiment A-1.

(Start)
(1)移動方向vを「移動方向vの抽出ユニット14」により、実施形態A−1のステップ(1)と同様にして抽出する。次に、「pinf設定ユニット15」により、この移動方向vに等しいとして“無限時刻の位置pinf”を設定する(A−6−1)
(2)規格化時間パラメータを「パラメータの走査ユニット16」により、下限値c,minから上限値c,maxまで走査する(A−6−2,A−6−3,A−6−16)。
を走査)
(3)画像内の各点のアドレスiを下限値iminから上限値imaxまで走査する(A−6−4,A−6−5,A−6−15)。
(iを走査)
(4)現在と次の時刻の位置を「現時刻tの画像レジスタ12」と「次時刻tの画像レジスタ13」から出力する(A−6−6)。
(Start)
(1) The moving direction v is extracted by the “moving direction v extracting unit 14” in the same manner as in step (1) of the embodiment A-1. Next, the “p inf setting unit 15” sets “infinite time position p inf ” as being equal to the moving direction v (A-6-1).
(2) The normalization time parameter n t c is scanned from the lower limit value n t c, min to the upper limit value n t c, max by the “ n t c parameter scanning unit 16” (A-6-2, A- 6-3, A-6-16).
(Scans n t c )
(3) The address i of each point in the image is scanned from the lower limit value i min to the upper limit value i max (A-6-4, A-6-5, A-6-15).
(Scan i)
(4) The current and next time positions i p 0 and i p 1 are output from the “image register 12 at the current time t 0 ” and the “image register 13 at the next time t 1 ” (A-6-6).

(5)現在と次の時刻の位置を「τ決定ユニット28」に入力して、運動視差τ(すなわち、)を出力する(A−6−7)。この運動視差は「従来技術および発明が解決しようとする課題」で述べた局所運動であり、それを計測するアルゴリズムとその実現方法については詳しく報告されている(特開平05−165956号公報、特開平05−165957号公報、特開平06−044364号公報、特開平09−081369号公報;“2次元相関およびコンボリューションをハフ平面のρ座標に沿って1次元的に行う方法,” 川上と岡本, 信学技報, vol. IE96−19, pp.31−38, 1996;“A cell model for the detection of local image motion on the magnocellular pathway of the visual cortex,”Kawakami, S. and Okamoto, H., Vision Research, vol. 36, pp. 117−147, 1996)。 (5) The positions i p 0 and i p 1 at the current time and the next time are input to the “τ determination unit 28”, and the motion parallax i τ (that is, i p 1 −i p 0 ) is output (A− 6-7). This motion parallax is a local motion described in “Prior art and problems to be solved by the invention”, and an algorithm for measuring the motion parallax and a method for realizing the same have been reported in detail (Japanese Patent Laid-Open No. 05-165958, special feature). Kaihei 05-165957, JP-A-06-044364, JP-A-09-081369; “Method of performing two-dimensional correlation and convolution one-dimensionally along the ρ coordinate of the Hough plane,” Kawakami and Okamoto , IEICE Technical Report, vol.IE 96-19, pp. 31-38, 1996; "A cell model for the detection of the local image motion on the magnecellular path of." motor, H., Vision Research, vol. 36, pp. 117-147, 1996).

(6)以上で設定された四つのパラメータτ,,pinfを「複比変換ユニット17」に入力して、位置を出力する。位置の計算は、そのユニット内で次の二つのステップで行われる。 (6) The four parameters n t c , i τ, i p 0 , and p inf set above are input to the “multi-ratio conversion unit 17” and the position i pc is output. Calculation of the position i p c is in the unit takes place in the next two steps.

(a)とpinfとの中心角xの計算(A−6−8)
,pinfから、xを式(16b)により下式で計算する。
(A) calculation of the center angle i x and i p c and p inf (A-6-8)
From n t c , i p 0 , i p 1 , and p inf , i x is calculated by the following equation using equation (16b).

x=tan−1((sin(a)sin(a+τ))
/(cos(a)sin(a+τ)− sin(τ)))
(110a)
(b)の計算(A−6−9)
球面上の位置を、上記のxを用いて下式で計算する。
i x = tan -1 ((sin (i a) sin (i a + i τ))
/ (Cos (i a) sin (i a + i τ) - n t c sin (i τ)))
(110a)
(B) calculation of i p c (A-6-9)
The position i p c on the spherical surface is calculated by the following equation using the above i x.

=cos(x) Γ+sin(x) Γ (110b)
ここで、ΓとΓは実施形態A−1の式(100c)で計算される。
i pc = cos ( ix ) Γ x + sin ( ix ) Γ y (110b)
Here, Γ x and Γ y are calculated by the equation (100c) of the embodiment A-1.

(7)上記の位置を「極変換ユニット18」により球面上の大円に極変換する(A−6−10)。
(kを走査(A−6−11,A−6−12,A−6−14))
(8)その大円を構成する点GCを、「円柱配列投票ユニット19」の“高さの断面円内の点”に変換して投票する(A−6−13)。
(kを走査(A−6−14))
(9)ここまでの処理で、位置の点が“複比変換および極変換”された一個の大円が、高さがの断面円内に描かれる。但し、その大円は式(103)により変換されている。
(iを走査(A−6−15))
(10)ここまでの処理で、高さがの断面円内に、“画像内の全ての点{}”が複比変換および極変換された大円群が描かれる。
を走査(A−6−16))
(11)ここまでの処理で、全ての高さ{}の断面円内に、“画像内の全ての点{}”が複比変換および極変換された大円群が描かれる。すなわち、円柱配列の全ての断面円に投票が行われる。
(7) the position i p c of the poles converted to great circle on the sphere by the "polar transformation unit 18 '(A-6-10).
(Scanning k (A-6-11, A-6-12, A-6-14))
(8) The point k p GC constituting the great circle is converted into a “point in the cross-sectional circle of height n t c ” of the “cylindrical array voting unit 19” and voted (A-6-13).
(Scan k (A-6-14))
(9) In the process so far, one great circle in which the point at the position i p 0 has been “multi-ratio transformed and pole transformed” is drawn in a cross-sectional circle having a height of n t c . However, the great circle is converted by the equation (103).
(Scan i (A-6-15))
(10) With the processing so far, a great circle group in which “all points in the image { ip 0 }” are subjected to the cross ratio conversion and the polar conversion is drawn in the cross-sectional circle having the height of n t c .
(Scan n nt c (A-6-16))
(11) In the processing up to this point, in the cross-sectional circle of all heights {n t c}, "all the points in the image {i p 0}" is the cross-ratio conversion and polar transformed great circles group be painted. That is, voting is performed on all the cross-sectional circles of the columnar arrangement.

(12)「ピーク抽出ユニット20」により、円柱配列の中で“投票された強度が極大(ピーク)になる点”を抽出する――この極大点が“大円群が一点に交差する場所”である。この極大点の“高さ座標”として“平面を横切るまでの規格化時間c0”が求められ、また“断面円内の座標”として平面の3次元方位ns0が求められる(A−6−17)。
(End)
実施形態A−7.(“平面の3次元方位ns0と横切るまでの規格化時間c0”を移動方向vを知らずに、かつ運動視差τにより計測)
掲記の計測、すなわち1.6の方法において“運動視差τによる複比変換(式16b))”を用いる場合を図42の実施形態で説明する。それは、実施形態A−6をモディファイした、図43に示す以下のフローで行われる。下記の(2)から(11)までのステップは、実施形態A−6の対応するステップと同じである。
(12) The “peak extraction unit 20” extracts “the point where the voted intensity becomes a maximum (peak)” in the cylindrical array—this maximum point is “the place where the great circles intersect at one point” It is. As the “height coordinate” of this local maximum point, “normalized time n t c0 until crossing the plane” is obtained, and as the “coordinate within the cross-sectional circle”, the three-dimensional orientation n s0 of the plane is obtained (A-6). -17).
(End)
Embodiment A-7. ("Standardized time n t c0 until crossing with the three-dimensional orientation n s0 of the plane” is measured by the motion parallax τ without knowing the moving direction v)
The embodiment shown in FIG. 42 will be described in the case of using the above-described measurement, that is, “multi-ratio conversion by motion parallax τ (formula 16b))” in the method of 1.6. It is performed according to the following flow shown in FIG. 43, which is a modification of Embodiment A-6. The following steps (2) to (11) are the same as the corresponding steps in the embodiment A-6.

(Start)
(0)「vパラメータの走査ユニット21」により、可能性のある全ての方向(下限値vminから上限値vmaxまで)にわたって、“移動方向パラメータv”を走査する(A−7−1,A−7−2,A−7−18)。
(vを走査)
(1)「pinf設定ユニット15」により、“無限時間経過後の位置pinf”をこのパラメータvに等しいとして設定する(A−7−3)。
(Start)
(0) The “moving direction parameter v” is scanned by the “v parameter scanning unit 21” in all possible directions (from the lower limit value v min to the upper limit value v max ) (A-7-1, A-7-2, A-7-18).
(Scan v)
(1) The “p inf setting unit 15” sets “position p inf after infinite time has elapsed” to be equal to this parameter v (A-7-3).

(2)規格化時間パラメータを「パラメータの走査ユニット16」により、下限値c,minから上限値c,maxまで走査する(A−7−4,A−7−5,A−7−17)。
を走査)
(3)画像内の各点のアドレスiを下限値iminから上限値imaxまで走査する(A−7−6,A−7−7,A−7−16)。
(iを走査)
(4)現在と次の時刻の位置を「現時刻tの画像レジスタ12」と「次時刻tの画像レジスタ13」から出力する(A−7−8)。
(2) The normalization time parameter n t c is scanned from the lower limit value n t c, min to the upper limit value n t c, max by the “ n t c parameter scanning unit 16” (A-7-4, A− 7-5, A-7-17).
(Scans n t c )
(3) The address i of each point in the image is scanned from the lower limit value i min to the upper limit value i max (A-7-6, A-7-7, A-7-16).
(Scan i)
(4) The current and next time positions i p 0 and i p 1 are output from the “image register 12 at the current time t 0 ” and the “image register 13 at the next time t 1 ” (A-7-8).

(5)現在と次の時刻の位置を「τ決定ユニット28」に入力して、運動視差τ(すなわち、)を出力する(A−7−9)。 (5) The positions i p 0 and i p 1 at the current time and the next time are input to the “τ determination unit 28”, and the motion parallax i τ (that is, i p 1 −i p 0 ) is output (A− 7-9).

(6)以上で設定された四つのパラメータτ,,pinfを「複比変換ユニット17」に入力して、位置を出力する(A−7−10)。 (6) The four parameters n t c , i τ, i p 0 , and p inf set above are input to the “multi-ratio conversion unit 17” and the position i pc is output (A-7-10) ).

(7)上記の位置を「極変換ユニット18」により球面上の大円に極変換する(A−7−11)。
(kを走査(A−7−12,A−7−13,A−7−15))
(8)その大円を構成する点GCを、「円柱配列投票ユニット19」の“高さの断面円内の点”に変換して投票する(A−7−14)。
(kを走査(A−7−15))
(9)ここまでの処理で、位置の点が“複比変換および極変換”された一個の大円が、高さがの断面円内に描かれる。但し、その大円は式(103)により変換されている。
(iを走査(A−7−16))
(10)ここまでの処理で、高さがの断面円内に、“画像内の全ての点{}”が複比変換および極変換された大円群が描かれる。
を走査(A−7−17))
(11)ここまでの処理で、全ての高さ{}の断面円内に、“画像内の全ての点{}”が複比変換および極変換された大円群が描かれる。すなわち、円柱配列の全ての断面円に投票が行われる。
(vを走査(A−7−18))
(12)ここまでの処理で、“全ての移動方向パラメータvに対する円柱配列群”の全断面円に投票が行われる。
(7) the position i p c of the poles converted to great circle on the sphere by the "polar transformation unit 18 '(A-7-11).
(Scanning k (A-7-12, A-7-13, A-7-15))
(8) The point k p GC constituting the great circle is converted into “a point in the cross-sectional circle of height n t c ” of the “cylindrical array voting unit 19” and voted (A-7-14).
(Scan k (A-7-15))
(9) In the process so far, one great circle in which the point at the position i p 0 has been “multi-ratio transformed and pole transformed” is drawn in a cross-sectional circle having a height of n t c . However, the great circle is converted by the equation (103).
(Scan i (A-7-16))
(10) With the processing so far, a great circle group in which “all points in the image { ip 0 }” are subjected to the cross ratio conversion and the polar conversion is drawn in the cross-sectional circle having the height of n t c .
(Scan n nt c (A-7-17))
(11) In the processing up to this point, in the cross-sectional circle of all heights {n t c}, "all the points in the image {i p 0}" is the cross-ratio conversion and polar transformed great circles group be painted. That is, voting is performed on all the cross-sectional circles of the columnar arrangement.
(Scan v (A-7-18))
(12) In the process so far, voting is performed on all the cross-sectional circles of the “cylindrical array group for all moving direction parameters v”.

(13)上記の円柱配列群の中で、強度が最大になる“特定の円柱配列”を「ピーク抽出ユニット20」により抽出する。この配列に対応する移動方向パラメータとして、真の移動方向vが求められる。また、その配列の中で強度がピークになる点を抽出すると、その点の“高さ座標”として平面を横切るまでの規格化時間c0が、また“断面円内の座標”として平面の3次元方位ns0が求められる(A−7−19)。
(End)
実施形態A−8. (“平面の3次元方位ns0と規格化最短距離s0”を運動視差τにより計測)
掲記の計測、すなわち2.2.3の方法において、“運動視差τによる小円変換(式31))”を用いる場合を図44の実施形態で説明する。それは、図45に示す以下のフローで行われる。下記の“(1)から(4)”および“(7)から(12)”までは実施形態A−3の対応するステップと同じであり、また(5)は実施形態A−6の対応するステップと同じである。
(13) From the above-described columnar array group, the “specific columnar array” having the maximum intensity is extracted by the “peak extraction unit 20”. As the movement direction parameter corresponding to this array, the true movement direction v 0 is obtained. Further, when a point at which the intensity reaches a peak in the array is extracted, the normalized time n t c0 until the plane is crossed as the “height coordinate” of the point, and the plane of the plane as the “coordinate in the cross-section circle”. A three-dimensional orientation ns0 is obtained (A-7-19).
(End)
Embodiment A-8. ( "3-dimensional orientation n s0 and the normalized shortest distance n d s0 plane" measured by the motion parallax tau)
The case where “small circle transformation by motion parallax τ (formula 31)” is used in the above-described measurement, that is, the method of 2.2.3, will be described with reference to the embodiment of FIG. It is performed according to the following flow shown in FIG. The following “(1) to (4)” and “(7) to (12)” are the same as the corresponding steps of the embodiment A-3, and (5) corresponds to the embodiment A-6. Same as step.

(Start)
(1)移動方向vを「移動方向vの抽出ユニット14」により、実施形態A−1のステップ(1)と同様にして抽出する。次に、「pinf設定ユニット15」により、この移動方向vに等しいとして“無限時間経過後の位置pinf”を設定する(A−8−1)
(2)規格化最短距離パラメータを「パラメータの走査ユニット22」により、下限値s,minから上限値s,maxまで走査する(ステップA−8−2,A−8−3,A−8−15)。
を走査)
(3)画像内の各アドレスiを下限値iminから上限値imaxまで走査する(A−8−4,A−8−5,A−8−14)。
(iを走査)
(4)現在と次の時刻の位置を「現時刻tの画像レジスタ12」と「次時刻tの画像レジスタ13」から出力する(A−8−6)。
(Start)
(1) The moving direction v is extracted by the “moving direction v extracting unit 14” in the same manner as in step (1) of the embodiment A-1. Next, the “p inf setting unit 15” sets “position p inf after elapse of infinite time” as being equal to the moving direction v (A-8-1).
(2) The standardized shortest distance parameter n d s is scanned from the lower limit value n d s, min to the upper limit value n d s, max by the “ n d s parameter scanning unit 22” (step A-8-2, A-8-3, A-8-15).
(Scans n d s )
(3) Scan each address i in the image from the lower limit i min to the upper limit i max (A-8-4, A-8-5, A-8-14).
(Scan i)
(4) Output the current and next time positions i p 0 and i p 1 from the “image register 12 at the current time t 0 ” and the “image register 13 at the next time t 1 ” (A-8-6).

(5)現在と次の時刻の位置を「τ決定ユニット28」に入力して、運動視差τ(すなわち、)を出力する(A−8−7)。 (5) The positions i p 0 and i p 1 at the current time and the next time are input to the “τ determination unit 28”, and the motion parallax i τ (that is, i p 1 −i p 0 ) is output (A− 8-7).

(6)以上で設定された四つのパラメータτ,,pinfを「半径Rの計算ユニット23」に入力して、半径Rと位置を出力する(A−8−8)。そのユニットの中で、半径Rが式(31)により下式で計算される。 (6) The four parameters n d s , i τ, i p 0 , and p inf set above are input to the “radius R calculation unit 23”, and the radius i R and the position i p 0 are output ( A-8-8). Within that unit, the radius i R is calculated according to the following equation using equation (31).

R=cos−1 sin(τ)/sin(a+τ)) (115)
(7)この半径Rと位置を「小円変換ユニット24」に入力して、位置を中心とする半径Rの“球面上の小円”に変換する(A−8−9)。
(kを走査(A−8−10,A−8−11,A−8−13))。
i R = cos -1 (n d s sin (i τ) / sin (i a + i τ)) (115)
(7) The radius i R and the position i p 0 are input to the “small circle conversion unit 24” and converted into a “small circle on the sphere” having a radius i R centered on the position i p 0 (A− 8-9).
(Scanning k (A-8-10, A-8-11, A-8-13)).

(8)その小円を構成する点SCを、「円柱配列投票ユニット25」の“高さの断面円内の点”に変換して投票する(A−8−12)。
(kを走査(A−8−13))
(9)ここまでの処理で、位置の点が変換された一個の小円が、高さがの断面円内に描かれる。但し、その小円は式(107)により変換されている。
(iを走査(A−8−14))
(10)ここまでの処理で、高さがの断面円内に、“画像内の全ての点{}”が変換された小円群が描かれる。
を走査(A−8−15))
(11)ここまでの処理で、全ての高さ{}の断面円内に、“画像内の全ての点{}”が変換された小円群が描かれる。すなわち、円柱配列の全ての断面円内に投票が行われる。
(8) The point k p SC constituting the small circle is converted into a “point in the sectional circle of height n d s ” of the “cylindrical array voting unit 25” and voted (A-8-12).
(Scan k (A-8-13))
(9) With the processing so far, one small circle in which the point at the position i p 0 has been transformed is drawn in the cross-sectional circle having a height of n d s . However, the small circle is converted by the equation (107).
(Scan i (A-8-14))
(10) In the processing up to this point, the height in the cross section circle of n d s, small circle group "all the points in the image {i p 0}" has been converted is drawn.
(Scans n d s (A-8-15))
(11) In the processing up to this point, in the cross-sectional circle of all heights {n d s}, small circle group "all the points in the image {i p 0}" has been converted is drawn. That is, voting is performed in all cross-sectional circles of the columnar arrangement.

(12)「ピーク抽出ユニット26」により、円柱配列の中で“投票された強度が最大(ピーク)になる点”を抽出する――この極大点が“小円群が一点に交差する場所”である。この極大点の“高さ座標”として平面の規格化最短距離が求められ、また“断面円内の座標”として平面の3次元方位ns0が求められる(A−8−16)。このフローを用いて行われた計算機シミュレーション結果を図18に示す。
(End)
実施形態A−9.(“平面の3次元方位ns0と規格化最短距離s0”を移動方向vを知らずに、かつ運動視差τにより計測)
掲記の計測、すなわち2.5の方法において“運動視差τによる小円変換(式31))”を用いる場合を図46の実施形態で説明する。それは、実施形態A−8をモディファイした、図47に示す、以下のフローで行われる。下記の(2)から(11)までのステップは、実施形態A−8の対応するステップと同じである。
(12) The “peak extraction unit 26” extracts “the point where the voted intensity is the maximum (peak)” in the cylindrical array—this maximum point is “the place where the small circles intersect at one point” It is. The standardized shortest distance n d s of the plane is obtained as the “height coordinate” of the local maximum point, and the three-dimensional orientation n s0 of the plane is obtained as the “coordinate in the cross-sectional circle” (A-8-16). FIG. 18 shows the result of the computer simulation performed using this flow.
(End)
Embodiment A-9. (Without knowing the "3-dimensional orientation n s0 and the normalized shortest distance n d s0 plane" direction of movement v of and measured by motion parallax tau)
A case where “small circle transformation by motion parallax τ (formula 31)” is used in the above-described measurement, that is, the method of 2.5 will be described with reference to the embodiment of FIG. It is performed according to the following flow shown in FIG. 47, which is a modification of Embodiment A-8. The following steps (2) to (11) are the same as the corresponding steps in embodiment A-8.

(Start)
(0)「vパラメータの走査ユニット21」により、可能性のある全ての方向(下限値vminから上限値vmax)にわたって、“移動方向パラメータv”を走査する(A−9−1,A−9−2,A−9−18)。
(vを走査)
(1)「pinf設定ユニット15」により、“無限時間経過後の位置pinf”をこのパラメータvに等しいとして設定する(A−9−3)。
(Start)
(0) “V-parameter scanning unit 21” scans “movement direction parameter v” in all possible directions (lower limit value v min to upper limit value v max ) (A-9-1, A -9-2, A-9-18).
(Scan v)
(1) The “p inf setting unit 15” sets “position p inf after infinite time has elapsed” as being equal to this parameter v (A-9-3).

(2)規格化最短距離パラメータを「パラメータの走査ユニット22」により、下限値s,minから上限値s,maxまで走査する(A−9−4,A−9−5,A−9−17)。
を走査)
(3)画像内の各点のアドレスiを下限値iminから上限値imaxまで走査する(A−9−6,A−9−7,A−9−16)。
(iを走査)
(4)現在と次の時刻の位置を「現時刻tの画像レジスタ12」と「次時刻tの画像レジスタ13」から出力する(A−9−8)。
(2) The normalized shortest distance parameter n d s is scanned from the lower limit value n d s, min to the upper limit value n d s, max by the “ n d s parameter scanning unit 22” (A-9-4, A -9-5, A-9-17).
(Scans n d s )
(3) The address i of each point in the image is scanned from the lower limit value i min to the upper limit value i max (A-9-6, A-9-7, A-9-16).
(Scan i)
(4) Output the current and next time positions i p 0 and i p 1 from the “image register 12 at the current time t 0 ” and the “image register 13 at the next time t 1 ” (A-9-8).

(5)現在と次の時刻の位置を「τ決定ユニット28」に入力して、運動視差τ(すなわち、)を出力する(A−9−9)。 (5) The positions i p 0 and i p 1 at the current time and the next time are input to the “τ determination unit 28”, and the motion parallax i τ (that is, i p 1 −i p 0 ) is output (A− 9-9).

(6)以上で設定された四つのパラメータτ,,pinfを「半径Rの計算ユニット23」に入力して、半径Rと位置を出力する(A−9−10)。 (6) The four parameters n d s , i τ, i p 0 , and p inf set above are input to the “radius R calculation unit 23”, and the radius i R and the position i p 0 are output ( A-9-10).

(7)この半径Rと位置を「小円変換ユニット24」に入力して、位置を中心とする半径Rの“球面上の小円”に変換する(A−9−11)。
(kを走査(A−9−12,A−9−13,A−9−15))
(8)その小円を構成する点SCを、「円柱配列投票ユニット25」の“高さの断面円内の点”に変換して投票する(A−9−14)。
(kを走査A−9−15))
(9)ここまでの処理で、位置の点が変換された一個の小円が、高さがの断面円内に描かれる。但し、その小円は式(107)により変換されている。
(iを走査(A−9−16))
(10)ここまでの処理で、高さがの断面円内に、“画像内の全ての点{}”が変換された小円群が描かれる。
を走査(A−9−17))
(11)ここまでの処理で、全ての高さ{}の断面円内に、“画像内の全ての点{}”が変換された小円群が描かれる。すなわち、円柱配列の全ての断面円に投票が行われる。
(vを走査(A−9−18))
(12)ここまでの処理で、“全ての移動方向パラメータvに対する円柱配列群”の全断面円に投票が行われる。
(7) The radius i R and the position i p 0 are input to the “small circle conversion unit 24” and converted into a “small circle on the sphere” having a radius i R centered on the position i p 0 (A− 9-11).
(Scanning k (A-9-12, A-9-13, A-9-15))
(8) The point k p SC constituting the small circle is converted into a “point in the cross-sectional circle of height n d s ” of the “cylindrical array voting unit 25” and voted (A-9-14).
(K is scanned A-9-15))
(9) With the processing so far, one small circle in which the point at the position i p 0 has been transformed is drawn in the cross-sectional circle having a height of n d s . However, the small circle is converted by the equation (107).
(Scan i (A-9-16))
(10) In the processing up to this point, the height in the cross section circle of n d s, small circle group "all the points in the image {i p 0}" has been converted is drawn.
(Scans n d s (A-9-17))
(11) In the processing up to this point, in the cross-sectional circle of all heights {n d s}, small circle group "all the points in the image {i p 0}" has been converted is drawn. That is, voting is performed on all the cross-sectional circles of the columnar arrangement.
(Scanning v (A-9-18))
(12) In the process so far, voting is performed on all the cross-sectional circles of the “cylindrical array group for all moving direction parameters v”.

(13)上記の円柱配列群の中で、強度が最大になる“特定の円柱配列”を「ピーク抽出ユニット26」により抽出する。この配列に対する移動方向パラメータとして、真の移動方向vが求められる。また、その配列の中で強度がピークになる点を抽出すると、その点の“高さ座標”として平面の規格化最短距離が、また“断面円内の座標”として平面の3次元方位ns0が求められる(A−9−19)。
(End)
実施形態A−10. (“点の規格化距離”を運動視差τにより計測)
掲記の計測、すなわち3.4の方法において、“運動視差τによる計測法(式39c))”を用いる場合を図48の実施形態で説明する。それは図49に示す以下のフローで行われる。
(13) From the above-described columnar array group, the “specific columnar array” having the maximum intensity is extracted by the “peak extraction unit 26”. As the movement direction parameter for this array, the true movement direction v 0 is obtained. Further, when a point where the intensity reaches a peak in the array is extracted, the standardized shortest distance n d s of the plane is used as the “height coordinate” of the point, and the plane three-dimensional is used as the “coordinate in the cross-sectional circle”. The direction ns0 is obtained (A-9-19).
(End)
Embodiment A-10. (Measures “normalized distance n d 0 of point” by motion parallax τ)
The case of using the “measurement method by motion parallax τ (formula 39c))” in the above-described measurement, that is, the method of 3.4 will be described with reference to the embodiment of FIG. It is performed according to the following flow shown in FIG.

(Start)
(1)移動方向vを「移動方向vの抽出ユニット14」により、実施形態A−1のステップ(1)と同様にして抽出する。次に、「pinf設定ユニット15」により、この移動方向vに等しいとして“無限時間経過後の位置pinf”を設定する(A−10−1)
(2)現在と次の時刻の位置p,pを「現時刻tの画像レジスタ12」と「次時刻tの画像レジスタ13」から出力する(A−10−2)。
(Start)
(1) The moving direction v is extracted by the “moving direction v extracting unit 14” in the same manner as in step (1) of the embodiment A-1. Next, the “p inf setting unit 15” sets “position p inf after elapse of infinite time” as being equal to the moving direction v (A-10-1).
(2) The current and next time positions p 0 and p 1 are output from the “image register 12 at the current time t 0 ” and the “image register 13 at the next time t 1 ” (A-10-2).

(3)現在と次の時刻の位置p,pを「τ決定ユニット28」に入力して、運動視差τ(すなわち、p−p)を出力する(A−10−3)。 (3) The positions p 0 and p 1 at the current time and the next time are input to the “τ determination unit 28”, and the motion parallax τ (ie, p 1 −p 0 ) is output (A-10-3).

(4)以上で設定された三つのパラメータτ,p,pinfを「点距離計算ユニット27」に入力して、点までの規格化距離が出力される(A−10−4)。の計算は、ユニット内で式(39c)を計算して行われる。
(End)
実施形態B 両眼視
実施形態B−1. (平面の3次元方位ns0と横切るまでの規格化距離c0の計測)
掲記の計測、すなわち4.2.3の方法を図50の実施形態で説明する。それは、図51に示す以下のフローで行われる。ステップ(6)以降は実施形態A−1と同じである。
(Start)
(1)ステレオカメラの幾何学的配置から“左右カメラを結ぶ視軸方向axis”は一般に判っている。「paxis設定ユニット115」により、この視軸方向axisに等しいとして“視軸上の位置paxis”を設定する。
(4) The three parameters τ, p 0 , and p inf set above are input to the “point distance calculation unit 27”, and the normalized distance n d 0 to the point is output (A-10-4). ). The calculation of n d 0 is performed by calculating equation (39c) in the unit.
(End)
Embodiment B Binocular View Embodiment B-1. (Measurement of normalized distance n d c0 until crossing with plane three-dimensional direction n s0 )
The posting measurement, that is, the method of 4.2.3 will be described in the embodiment of FIG. It is performed according to the following flow shown in FIG. Step (6) and subsequent steps are the same as those in the embodiment A-1.
(Start)
(1) The “visual axis direction a xis connecting the left and right cameras” is generally known from the geometric arrangement of the stereo camera. The “p axis setting unit 115” sets the “position p axis on the visual axis” as being equal to the visual axis direction a xis .

(2)規格化距離パラメータを「パラメータの走査ユニット116」により、下限値c,minから上限値c,maxまで走査する(B−1−2,B−1−3,B−1−16)。
を走査)
(3)画像内の各点のアドレスiを下限値iminから上限値imaxまで走査する(B−1−4,B−1−5,B−1−15)。
(iを走査)
(4)左右カメラでの位置を「右カメラ画像レジスタ112」と「左カメラ画像レジスタ113」から出力する(B−1−6)。
(2) The standardized distance parameter n d c is scanned from the lower limit value n d c, min to the upper limit value n d c, max by the “ n d c parameter scanning unit 116” (B-1-2, B− 1-3, B-1-16).
(Scans n d c )
(3) The address i of each point in the image is scanned from the lower limit value i min to the upper limit value i max (B-1-4, B-1-5, B-1-15).
(Scan i)
(4) The positions i p R and i p L in the left and right cameras are output from the “right camera image register 112” and the “left camera image register 113” (B-1-6).

(5)以上で設定された四つのパラメータ,paxisを「複比変換ユニット117」に入力して位置を出力する。位置の計算は、そのユニット内で次の二つのステップで行われる。 (5) The four parameters n d c , i p R , i p L , and p axis set as described above are input to the “multi-ratio conversion unit 117” and the position i pc is output. Calculation of the position i p c is in the unit takes place in the next two steps.

(a)とpaxisとの中心角xの計算(B−1−7)
,paxisから、xを式(58b)により下式で計算する(図23参照)。
(A) calculation of the center angle i x and i p c and p axis (B-1-7)
From nd c , i p R , i p L , and p axis , i x is calculated by the following formula using formula (58b) (see FIG. 23).

x=tan−1((sin(c)sin(d))
/(cos(c)sin(d)− sin(d)−(c)))
(150a)
(b)の計算
球面上の位置を、上記のxを用いて下式で計算する。
i x = tan -1 ((sin (i c) sin (i d))
/ (Cos (i c) sin (i d) - n d c sin (i d) - (i c)))
(150a)
The (b) i p position i p c of the calculated sphere of c, is calculated by the following equation using the above i x.

=cos(x) Γ+sin(x) Γ (150b)
ここで、ΓとΓは、[×]および||をそれぞれベクトルの外積演算および絶対値演算として下式で計算される。
i pc = cos ( ix ) Γ x + sin ( ix ) Γ y (150b)
Here, Γ x and Γ y are calculated by the following equations using [×] and || as vector outer product operations and absolute value operations, respectively.

Γ=axis (150c)
Γ=[axis×]/|[axis×]|
Γ=[Γ×Γ
(6)上記の位置を、「極変換ユニット118」により球面上の大円に極変換する(図24(A)参照)。その極変換は、ユニット内の次の二つのステップで行われる(図30(A)参照)。
Γ x = a xis (150c)
Γ z = [a xis x i p R ] / | [a xis x i p R ] |
Γ y = [Γ z × Γ x ]
(6) the position i p c of the pole into a great circle on the sphere by the "polar transformation unit 118 '(see FIG. 24 (A)). The polar conversion is performed in the following two steps in the unit (see FIG. 30A).

(a)を極座標に変換(B−1−9)
を直交座標および“球面上の極座標”で
=(cXcYcZ) (151a)
=(αβ) (151b)
と表現して、の極座標成分(経度αと緯度β)を下式で計算する。
(A) Converting i pc to polar coordinates (B-1-9)
i pc in Cartesian coordinates and "polar coordinates on a sphere"
i p c = (i p cX , i p cY, i p cZ) (151a)
= (I α c, i β c) (151b)
It is expressed as, calculates polar components i p c a (longitude i alpha c and latitude i beta c) by the following equation.

α=tan−1cYcX) (151c)
β=tan−1(√(cX cY )/cZ)) (151d)
(kを走査(B−1−10,B−1−11,B−1−14))
(b)の極変換(B−1−12)
を極変換した球面上の大円――すなわち、その大円を構成する任意の点GC(そのアドレスをkとする)の座標(経度αGC、緯度βGC)――はの座標αβで決まり、式(152b)で表される。
i α c = tan -1 (i p cY / i p cX) (151c)
i β c = tan -1 (√ (i p cX 2 + i p cY 2) / i p cZ)) (151d)
(Scan k (B-1-10, B-1-11, B-1-14))
(B) polar transformation of i p c (B-1-12)
i p great circle on the sphere that polar transformation a c - i.e., any point k p GC constituting the great circle coordinates (the address to k) (longitude k alpha GC, latitude k beta GC) - - is determined by the coordinates i α c, i β c of i p c, the formula (152 b).

GC=(αGCβGC) (152a)
cos(αGCα)=−cot(βGC)cot(β) (152b)
大円の具体的な計算は、kを下限値kminから上限値kmaxまで走査して次のように行われる。ΔβGCを緯度分解能として緯度βGCをkΔβGCと計算し、その緯度を用いて経度αGCを下式で計算する。
k p GC = (k α GC , k β GC) (152a)
cos (k α GC - i α c) = - cot (k β GC) cot (i β c) (152b)
A specific calculation of the great circle is performed as follows by scanning k from the lower limit value k min to the upper limit value k max . The latitude k β GC is calculated as kΔβ GC using Δβ GC as the latitude resolution, and the longitude k α GC is calculated by the following equation using the latitude.

αGCα+cos−1(cot(βGC)cot(β)) (152c)
(7)上記の大円を構成する点GCを、「円柱配列投票ユニット119」の高さの断面円内の、極座標(傾角αGC,Proj、動径βGC,Proj)で表される点GC,Projに変換して投票する(B−1−13)。その変換は一般的にはf()を射影関数として、
βGC,Proj=f(βGC) (153a)
αGC,ProjαGC (153b)
で表される。等距離射影方式の場合にはf()=1であり、βGC,Projは下式で与えられる。
k α GC = i α c + cos -1 (cot (k β GC) cot (i β c)) (152c)
(7) a k p GC points constituting the great circle, in cross-section circle of height n d c of the "cylindrical array voting unit 119", a polar coordinate (tilt k alpha GC, Proj, radial k beta GC, Proj ) is converted into a point k p GC, Proj represented by voting (B-1-13). The transformation is generally f () as a projection function,
k β GC, Proj = f ( k β GC) (153a)
k α GC, Proj = k α GC (153b)
It is represented by In the case of the equidistant projection method, f () = 1, and k β GC, Proj is given by the following equation.

βGC,ProjβGC (153c)
以上を纏めると、大円を構成する“球面上の点GC”を断面円内の“平面上の点GC,Proj”に変換して、その点に“位置の明るさ”を投票(加算)する。各断面円はレジスタ配列あるいはメモリ配列で実現できる。
(kを走査(B−1−14))
(8)ここまでの処理で、位置の点が“複比変換および極変換”された一個の大円が、高さがの断面円内に描かれる。但し、その大円は式(153)により変換されている。
(iを走査(B−1−15))
(9)ここまでの処理で、高さがの断面円内に、“画像内の全ての点{}”が複比変換および極変換された大円群が描かれる。
を走査(B−1−16))
(10)ここまでの処理で、全ての高さ{}の断面円内に、“画像内の全ての点{}”が複比変換および極変換された大円群が描かれる。すなわち、円柱配列の全ての断面円内に投票が行われる。
k β GC, Proj = k β GC (153c)
Summarizing the above, the “point k p GC on the spherical surface” constituting the great circle is converted into the “point k p GC, Proj on the plane” in the cross-sectional circle, and the brightness of the position i p R is added to the point. Vote “Add”. Each cross-sectional circle can be realized by a register arrangement or a memory arrangement.
(Scan k (B-1-14))
(8) With the processing so far, one great circle whose point i p R has been “multi-ratio transformed and pole transformed” is drawn in a cross-sectional circle having a height of n d c . However, the great circle is converted by the equation (153).
(Scan i (B-1-15))
(9) In the processing up to this point, the height in the cross section circle of n d c, "all the points in the image {i p R}" is cross-ratio conversion and polar converted great circles group is drawn.
(Scan n d c (B-1-16) )
(10) In the processing up to this point, in the cross-sectional circle of all heights {n d c}, "all the points in the image {i p R}" is the cross-ratio conversion and polar transformed great circles group be painted. That is, voting is performed in all cross-sectional circles of the columnar arrangement.

(11)「ピーク抽出ユニット120」により、円柱配列の中で“投票された強度が極大(ピーク)になる点”を抽出する――この極大点が“大円群が一点に交差する場所”である。この極大点の“高さ座標”として“平面を横切るまでの規格化距離c0”が求められ、また“断面円内の座標”として平面の3次元方位ns0が求められる(B−1−17)。
(End)
実施形態B−2.(“平面の3次元方位ns0と規格化距離c0”を視軸方向axisを知らずに計測)
掲記の計測、すなわち4.2.5の方法を図52の実施形態で説明する。それは実施形態B−1をモディファイした、図53に示す、以下のフローで行われる。下記の(2)から(10)までのステップは、実施形態B−1の対応するステップと同じである。
(11) The “peak extraction unit 120” extracts “the point where the voted intensity becomes a maximum (peak)” in the cylindrical array—this maximum point is “the place where the great circles intersect at one point” It is. As the “height coordinate” of this local maximum point, “normalized distance n d c0 until crossing the plane” is obtained, and as the “coordinate in the cross-sectional circle”, the three-dimensional orientation n s0 of the plane is obtained (B-1). -17).
(End)
Embodiment B-2. (Measured "3D orientation n s0 and the normalized distance n d c0 plane" without knowing the visual axis direction a xis)
The posted measurement, that is, the method of 4.2.5 will be described in the embodiment of FIG. It is performed according to the following flow shown in FIG. 53, which is a modification of Embodiment B-1. The following steps (2) to (10) are the same as the corresponding steps in the embodiment B-1.

(Start)
(0)「axisパラメータの走査ユニット121」により、可能性のある全ての方向(下限値axis,minから上限値axis,maxまで)にわたって、“視軸方向パラメータaxis”を走査する(B−2−1,B−2−2,B−2−17)。
(axisを走査)
(1)「paxis設定ユニット115」により、“視軸上の位置paxis”をこのパラメータaxisに等しいとして設定する(B−2−3)。
(Start)
(0) “ Axis parameter scanning unit 121” scans the “visual axis direction parameter a xis ” in all possible directions (from the lower limit value a xis, min to the upper limit value a xis, max ). (B-2-1, B-2-2, B-2-17).
( Scan axis )
(1) by 'p axis setting unit 115 ", the" viewing position p axis on the axis "is set as equal to the parameter a xis (B-2-3).

(2)規格化距離パラメータを「パラメータの走査ユニット116」により、下限値c,minから上限値c,maxまで走査する(B−2−4,B−2−7,B−2−16)。
を走査)
(3)画像内の各点のアドレスiを下限値iminから上限値imaxまで走査する(B−2−6,B−2−7,B−2−15)。
(iを走査)
(4)左右カメラでの位置を「右カメラ画像レジスタ112」と「左カメラ画像レジスタ113」から出力する(B−2−8)。
(2) The standardized distance parameter n d c is scanned from the lower limit value n d c, min to the upper limit value n d c, max by the “ n d c parameter scanning unit 116” (B-2-4, B− 2-7, B-2-16).
(Scans n d c )
(3) The address i of each point in the image is scanned from the lower limit value i min to the upper limit value i max (B-2-6, B-2-7, B-2-15).
(Scan i)
(4) The positions i p R and i p L in the left and right cameras are output from the “right camera image register 112” and the “left camera image register 113” (B-2-8).

(5)以上で設定された四つのパラメータ,paxisを「複比変換ユニット117」に入力して、位置を出力する(B−2−9)。 (5) The four parameters n d c , i p R , i p L , and p axis set as described above are input to the “multi-ratio conversion unit 117”, and the position i pc is output (B-2- 9).

(6)上記の位置を「極変換ユニット118」により球面上の大円に極変換する(B−2−10)。
(kを走査(B−2−11,B−2−12,B−2−14))
(7)その大円を構成する点GCを、「円柱配列投票ユニット119」の“高さの断面円内の点”に変換して投票する(B−2−13)。
(6) the position i p c of the poles converted to great circle on the sphere by the "polar transformation unit 118" (B-2-10).
(Scanning k (B-2-11, B-2-12, B-2-14))
(7) a k p GC points constituting the great circle, to vote converted to "points in circular section of height n d c" of the "cylindrical array voting unit 119" (B-2-13).

(8)ここまでの処理で、位置の点が“複比変換および極変換”された一個の大円が、高さがの断面円内に描かれる。但し、その大円は式(153)により変換されている。
(iを走査(B−2−15))
(9)ここまでの処理で、高さがの断面円内に、“画像内の全ての点{}”が複比変換および極変換された大円群が描かれる。
を走査(B−2−16))
(10)ここまでの処理で、全ての高さ{}の断面円内に、“画像内の全ての点{}”が複比変換および極変換された大円群が描かれる。すなわち、円柱配列の全ての断面円内に投票が行われる。
(axisを走査(B−2−17))
(11)ここまでの処理で、“全ての視軸方向パラメータaxisに対する円柱配列群”の全断面円に投票が行われる。
(8) With the processing so far, one great circle whose point i p R has been “multi-ratio transformed and pole transformed” is drawn in a cross-sectional circle having a height of n d c . However, the great circle is converted by the equation (153).
(Scan i (B-2-15))
(9) In the processing up to this point, the height in the cross section circle of n d c, "all the points in the image {i p R}" is cross-ratio conversion and polar converted great circles group is drawn.
(Scan n d c (B-2-16) )
(10) In the processing up to this point, in the cross-sectional circle of all heights {n d c}, "all the points in the image {i p R}" is the cross-ratio conversion and polar transformed great circles group be painted. That is, voting is performed in all cross-sectional circles of the columnar arrangement.
( Scan axis (B-2-17))
(11) In the processing so far, voting is performed on all the cross-sectional circles of the “cylindrical array group for all visual axis direction parameters a xis ”.

(12)上記の円柱配列群の中で、強度が最大になる“特定の円柱配列”を「ピーク抽出ユニット120」により抽出する。この配列に対応する視軸方向パラメータとして、真の視軸方向axis0が求められる。また、その配列の中で強度がピークになる点を抽出すると、その点の“高さ座標”として平面を横切るまでの規格化距離c0が、また“断面円内の座標”として平面の3次元方位ns0が求められる(B−2−18)。
(End)
実施形態B−3. (平面の3次元方位ns0と規格化最短距離s0の計測)
掲記の計測、すなわち、4.3.2の方法を図54の実施形態で説明する。それは、図55に示す、以下のフローで行われる。ステップ(7)以降は実施形態A−3と同じである。
(Start)
(1)「paxis設定ユニット115」により、視軸上の位置paxisを視軸方向axisに等しいとして設定する(実施形態B−1参照(B−3−1))。
(12) From the above-described columnar array group, the “specific columnar array” having the maximum intensity is extracted by the “peak extraction unit 120”. As the visual axis direction parameter corresponding to this arrangement, the true visual axis direction axis0 is obtained. Further, when a point where the intensity reaches a peak in the array is extracted, the normalized distance n d c0 until the plane is crossed as the “height coordinate” of the point, and the plane coordinate as the “coordinate in the cross-sectional circle” is obtained. A three-dimensional orientation ns0 is obtained (B-2-18).
(End)
Embodiment B-3. (Measurement of three-dimensional orientation n s0 of plane and normalized shortest distance n d s0 )
The measurement of posting, that is, the method of 4.3.2 will be described in the embodiment of FIG. This is performed in the following flow shown in FIG. Step (7) and subsequent steps are the same as those in the embodiment A-3.
(Start)
(1) With the “p axis setting unit 115”, the position p axis on the visual axis is set to be equal to the visual axis direction a xis (see Embodiment B-1 (B-3-1)).

(2)規格化最短距離パラメータを「パラメータの走査ユニット122」により下限値s,minから上限値s,maxまで走査する(B−3−2,B−3−3,B−3−15)。
を走査)
(3)画像内の各点のアドレスiを下限値iminから上限値imaxまで走査する(B−3−4,B−3−5,B−3−14)。
(iを走査)
(4)左右カメラでの位置を「右カメラ画像レジスタ112」と「左カメラ画像レジスタ113」から出力する(B−3−6)。
(2) The standardized shortest distance parameter n d s is scanned from the lower limit value n d s, min to the upper limit value n d s, max by the “ n d s parameter scanning unit 122” (B-3-2, B- 3-3, B-3-15).
(Scans n d s )
(3) The address i of each point in the image is scanned from the lower limit value i min to the upper limit value i max (B-3-4, B-3-5, B-3-14).
(Scan i)
(4) The positions i p R and i p L in the left and right cameras are output from the “right camera image register 112” and the “left camera image register 113” (B-3-6).

(5)以上で設定された四つのパラメータ,paxisを「半径Rの計算ユニット123」に入力して、半径Rと位置を出力する(B−3−7)。そのユニットの中で、半径Rが式(66c)により下式で計算される。 (5) The four parameters n d s , i p R , i p L , and p axis set as described above are input to the “radius R calculation unit 123”, and the radius i R and the position i p R are output. (B-3-7). Within the unit, the radius i R is calculated by the following formula by the formula (66c).

R=cos−1 sin(d−c)/sin(d)) (154)
(6)上記の半径Rと位置を「小円変換ユニット124」に入力して、小円変換――すなわち、位置をそれを中心とする半径Rの“球面上の小円”に変換――を行う(4.3.2と図27(A)参照)。その小円変換は、ユニット内の次の二つのステップで行われる(図56(A)参照)。
i R = cos -1 (n d s sin (i d- i c) / sin (i d)) (154)
(6) above the radius i R and the position i p R enter the "small circle conversion unit 124", the small circle conversion - that is, the "sphere of radius i R centered on it the position i p R To “small circle of” (refer to 4.3.2 and FIG. 27A). The small circle conversion is performed in the following two steps in the unit (see FIG. 56A).

(a)を極座標に変換(B−3−8)
を直交座標および“球面上の極座標”で
=(RXRYRZ) (155a)
=(αβ) (155b)
と表現して、の極座標成分(経度αと緯度β)を下式で計算する。
(A) Convert i p R to polar coordinates (B-3-8)
i p R in Cartesian coordinates and “polar coordinates on a sphere”
i p R = ( i p RX , i p RY , i p RZ ) (155a)
= (I α R, i β R) (155b)
And the polar coordinate components (longitude i α R and latitude i β R ) of i p R are calculated by the following equations.

α=tan−1RYRX) (155c)
β=tan−1(√(RX RY )/RZ) (155d)
(kを走査)
(b)小円変換(B−3−11)
を小円変換した球面上の小円――すなわち、その小円を構成する任意の点SC(そのアドレスをkとする)の座標(経度αSC、緯度βSC)――はの座標αβと半径Rで決まり、式(156b)で表される。この式は、図56(A)のパラメータを用いて式(30)を表したものである。
i α 0 = tan −1 ( i p RY / i p RX ) (155c)
i β 0 = tan -1 (√ (i p RX 2 + i p RY 2) / i p RZ) (155d)
(Scan k)
(B) Small circle conversion (B-3-11)
A small circle on the sphere obtained by transforming i p R into a small circle--that is, the coordinates (longitude k α SC , latitude k β SC ) of an arbitrary point k p SC (whose address is k) constituting the small circle -Is determined by the coordinates i α R and i β R of the i p R and the radius i R and is expressed by the equation (156b). This expression represents Expression (30) using the parameters shown in FIG.

SC=(αSCβSC) (156a)
cos(βSC)cos(β
+sin(βSC)sin(β)cos(αSCα
=cos(R) (156b)
小円の具体的な計算は、kを走査して次のように行われる。ΔβSCを緯度分解能として緯度βSCをkΔβSCと計算し、その緯度を用いて経度αSCを下式で計算する。
k p SC = ( k α SC , k β SC ) (156a)
cos (k β SC) cos ( i β R)
+ Sin (k β SC) sin (i β R) cos (k α SC - i α R)
= Cos (i R) (156b )
The specific calculation of the small circle is performed as follows by scanning k. Latitude k β SC is calculated as kΔβ SC with Δβ SC as the latitude resolution, and longitude k α SC is calculated by the following equation using the latitude.

αSCα+cos−1((cos(R)−cos(βSC)cos(β))
/(sin(βSC)sin(β))) (156c)
(7)上記の小円を構成する点SCを、「円柱配列投票ユニット125」の高さの断面円内の、極座標(傾角αSC,Proj、動径βSC,Proj)で表される点SC,Projに変換して投票する(B−3−12)。その変換はf()を射影関数として、下式で表される。
k α SC = i α R + cos -1 ((cos (i R) -cos (k β SC) cos (i β R))
/ (Sin (k β SC) sin (i β R))) (156c)
(7) above the k p SC points constituting the small circle, in cross-section circle of height n d s of "columnar array voting unit 125", a polar coordinate (tilt k alpha SC, Proj, radial k beta SC, Proj ) is converted to a point k p SC, Proj represented by voting (B-3-12). The conversion is expressed by the following equation using f () as a projection function.

βSC,Proj=f(βSC) (157a)
αSC,ProjαSC (157b)
等距離射影方式の場合にはf()=1であり、βSC,Projは下式で与えられる。
k β SC, Proj = f ( k β SC) (157a)
k α SC, Proj = k α SC (157b)
In the case of the equidistant projection method, f () = 1, and k β SC, Proj is given by the following equation.

βSC,ProjβSC (157c)
以上を纏めると、小円を構成する“球面上の点SC”を断面円内の“平面上の点SC,Proj”に変換して、その点に“位置の明るさ”を投票(加算)する。各断面円はレジスタ配列あるいはメモリ配列で実現できる。
(kを走査(B−3−13))
(8)ここまでの処理で、位置の点が変換された一個の小円が、高さがの断面円内に描かれる。但し、その小円は式(157)により変換されている。
(iを走査(B−3−14))
(9)ここまでの処理で、高さがの断面円内に、“画像内の全ての点{}”が変換された小円群が描かれる。
を走査(B−3−15)
(10)ここまでの処理で、全ての高さ{}の断面円内に、“画像内の全ての点{}”が変換された小円群が描かれる。すなわち、円柱配列の全ての断面円に投票が行われる。
k β SC, Proj = k β SC (157c)
To summarize the above, the “point k p SC on the spherical surface” forming the small circle is converted into the “point k p SC, Proj on the plane” in the cross-sectional circle, and the brightness of the position i p R is added to the point. Vote “Add”. Each cross-sectional circle can be realized by a register arrangement or a memory arrangement.
(Scan k (B-3-13))
(8) With the processing so far, one small circle whose point i p R has been transformed is drawn in a cross-sectional circle having a height of n d s . However, the small circle is converted by the equation (157).
(Scan i (B-3-14))
(9) In the processing up to this point, the height in the cross section circle of n d s, small circle group "all the points in the image {i p R}" is converted is drawn.
(Scanning n d s (B-3-15)
(10) In the processing up to this point, in the cross-sectional circle of all heights {n d s}, small circle group "all the points in the image {i p R}" is converted is drawn. That is, voting is performed on all the cross-sectional circles of the columnar arrangement.

(11)「ピーク抽出ユニット126」により、円柱配列の中で“投票された強度が極大(ピーク)になる点”を抽出する――この極大点が“小円群が一点に交差する場所”である。この極大点の“高さ座標”として平面の規格化最短距離が求められ、また“断面円内の座標”として平面の3次元方位ns0が求められる(B−3−16)。
(End)
実施形態B−4.(“平面の3次元方位ns0と規格化最短距離s0”を視軸方向axisを知らずに計測)
掲記の計測、すなわち4.3.3の方法を図57の実施形態で説明する。それは、実施形態B−3をモディファイした、図58に示す、以下のフローで行われる。下記の(2)から(10)までのステップは、実施形態B−3の対応するステップと同じである。
(11) The “peak extraction unit 126” extracts “the point where the voted intensity becomes a maximum (peak)” in the cylindrical array—this maximum point is “the place where the small circles intersect at one point” It is. The standardized shortest distance n d s of the plane is obtained as the “height coordinate” of the local maximum point, and the three-dimensional orientation n s0 of the plane is obtained as the “coordinate in the cross-section circle” (B-3-16).
(End)
Embodiment B-4. (Measurement "3-dimensional orientation n s0 plane and the normalized shortest distance n d s0" a without knowing the visual axis direction a xis)
The measurement of the posting, that is, the method of 4.3.3 will be described in the embodiment of FIG. It is performed according to the following flow shown in FIG. 58 obtained by modifying Embodiment B-3. The following steps (2) to (10) are the same as the corresponding steps in embodiment B-3.

(Start)
(0)「axisパラメータの走査ユニット121」により、可能性のある全ての方向(下限値axis,minから上限値axis,maxまで)にわたって、“視軸方向パラメータaxis”を走査する(B−4−1,B−4−2,B−4−17)。
(axisを走査)
(1)「paxis設定ユニット115」により、“視軸上の位置paxis”をこのパラメータaxisに等しいとして設定する(B−4−3)。
(Start)
(0) The “visual axis parameter a xis ” is scanned in all possible directions (from the lower limit value a xis, min to the upper limit value a xis, max ) by the “a xi parameter scan unit 121”. (B-4-1, B-4-2, B-4-17).
( Scan axis )
(1) The “p axis setting unit 115” sets the “position p axis on the visual axis ” to be equal to the parameter a xis (B-4-3).

(2)規格化最短距離パラメータを「パラメータの走査ユニット122」により、下限値s,minから上限値s,maxまで走査する(B−4−4,B−4−5,B−4−16)。
を走査)
(3)画像内の各点のアドレスiを下限値iminから上限値imaxまで走査する(B−4−6,B−4−7,B−4−15)。
(iを走査)
(4)左右カメラでの位置を「右カメラ画像レジスタ112」と「左カメラ画像レジスタ113」から出力する(B−4−8)。
(2) The standardized shortest distance parameter n d s is scanned from the lower limit value n d s, min to the upper limit value n d s, max by the “ n d s parameter scanning unit 122” (B-4-4, B -4-5, B-4-16).
(Scans n d s )
(3) The address i of each point in the image is scanned from the lower limit value i min to the upper limit value i max (B-4-6, B-4-7, B-4-15).
(Scan i)
(4) The positions i p R and i p L in the left and right cameras are output from the “right camera image register 112” and the “left camera image register 113” (B-4-8).

(5)以上で設定された四つのパラメータ,paxisを「半径Rの計算ユニット123」に入力して、半径Rと位置を出力する(B−4−9)。 (5) The four parameters n d s , i p R , i p L , and p axis set as described above are input to the “radius R calculation unit 123”, and the radius i R and the position i p R are output. (B-4-9).

(6)この半径Rと位置を「小円変換ユニット124」に入力して、位置を中心とする半径Rの“球面上の小円”に変換する(B−4−10)。
(kを走査(B−4−11,B−4−12,B−4−14))
(7)その小円を構成する点SCを、「円柱配列投票ユニット125」の“高さの断面円内の点”に変換して投票する(B−4−13)。
(kを走査(B−4−14))
(8)ここまでの処理で、位置の点が変換された一個の小円が、高さがの断面円内に描かれる。但し、その小円は式(157)により変換されている。
(iを走査(B−4−15))
(9)ここまでの処理で、高さがの断面円内に、“画像内の全ての点{}”が変換された小円群が描かれる。
を走査(B−4−16))
(10)ここまでの処理で、全ての高さ{}の断面円内に、“画像内の全ての点{}”が変換された小円群が描かれる。すなわち、円柱配列の全ての断面円内に投票が行われる。
(axisを走査(B−4−17))
(11)ここまでの処理で、“全ての視軸方向パラメータaxisに対する円柱配列群”の全断面円に投票が行われる。
(6) The radius i R and the position i p R are input to the “small circle conversion unit 124” and converted into a “small circle on the sphere” having a radius i R centered on the position i p R (B− 4-10).
(Scan k (B-4-11, B-4-12, B-4-14))
(7) The point k p SC constituting the small circle is converted into a “point in the sectional circle of height n d s ” of the “cylindrical array voting unit 125” and voted (B-4-13).
(Scanning k (B-4-14))
(8) With the processing so far, one small circle whose point i p R has been transformed is drawn in a cross-sectional circle having a height of n d s . However, the small circle is converted by the equation (157).
(Scan i (B-4-15))
(9) In the processing up to this point, the height in the cross section circle of n d s, small circle group "all the points in the image {i p R}" is converted is drawn.
(Scan n d s (B-4-16) )
(10) In the processing up to this point, in the cross-sectional circle of all heights {n d s}, small circle group "all the points in the image {i p R}" is converted is drawn. That is, voting is performed in all cross-sectional circles of the columnar arrangement.
( Scan axis (B-4-17))
(11) In the processing so far, voting is performed on all the cross-sectional circles of the “cylindrical array group for all visual axis direction parameters a xis ”.

(12)上記の円柱配列群の中で、強度が最大になる“特定の円柱配列”を「ピーク抽出ユニット126」により抽出する。この配列に対する視軸方向パラメータとして、真の移動方向axis0が求められる。また、その配列の中で強度がピークになる点を抽出すると、その点の“高さ座標”として平面の規格化最短距離が、また“断面円内の座標”として平面の3次元方位ns0が求められる(B−4−18)。
(End)
実施形態B−5. (“点の規格化距離”の計測)
掲記の計測、すなわち、4.4.3の方法を図59の実施形態で説明する。それは、図60に示す以下のフローで行われる。
(Start)
(1)「paxis設定ユニット115」により、“視軸上の位置paxis”を視軸方向axisに等しいとして設定する(実施形態B−1参照(B−5−1))。
(12) From the above-described columnar array group, the “specific columnar array” having the maximum intensity is extracted by the “peak extraction unit 126”. As the visual axis direction parameter for this array, the true movement direction axis0 is obtained. Further, when a point where the intensity reaches a peak in the array is extracted, the standardized shortest distance n d s of the plane is used as the “height coordinate” of the point, and the plane three-dimensional is used as the “coordinate in the cross-sectional circle”. The direction ns0 is obtained (B-4-18).
(End)
Embodiment B-5. (Measurement of “standardized distance n d 0 of points”)
The posted measurement, that is, the method of 4.4.3 will be described in the embodiment of FIG. It is performed according to the following flow shown in FIG.
(Start)
(1) The “p axis setting unit 115” sets “position p axis on the visual axis ” as being equal to the visual axis direction a xis (see Embodiment B-1 (B-5-1)).

(2)左右カメラでの位置p,pを「右カメラ画像レジスタ112」と「左カメラ画像レジスタ113」から出力する(B−5−2)。 (2) The positions p R and p L in the left and right cameras are output from the “right camera image register 112” and the “left camera image register 113” (B-5-2).

(3)以上で設定された三つのパラメータp,p,paxisを「点距離計算ユニット127」に入力して、点までの規格化距離が出力される(B−5−3)。の計算は、ユニット内で式(67b)を計算して行われる。
(End)
実施形態B−6. (“平面の3次元方位ns0と規格化距離c0”を両眼視差σにより計測)
掲記の計測、すなわち4.2.3の方法において、“両眼視差σによる複比変換(式60b))”を用いる場合を図61の実施形態で説明する。それは、図62に示す、以下のフローで行われる。下記の(7)から(12)までのステップは、実施形態B−1の対応するステップと同じである。
(3) The three parameters p R , p L , and p axis set above are input to the “point distance calculation unit 127”, and the normalized distance n d 0 to the point is output (B-5-5). 3). The calculation of n d 0 is performed by calculating Expression (67b) in the unit.
(End)
Embodiment B-6. (Measured by binocular parallax σ "3-dimensional orientation n s0 and the normalized distance n d c0 plane")
The case where “the double ratio conversion by binocular parallax σ (formula 60b)” is used in the above-described measurement, that is, the method of 4.2.3 will be described with reference to the embodiment of FIG. This is performed according to the following flow shown in FIG. The following steps (7) to (12) are the same as the corresponding steps in embodiment B-1.

(Start)
(1)「paxis設定ユニット115」により、視軸上の位置paxisを視軸方向axisに等しいとして設定する(実施形態B−1参照)。
(Start)
(1) With the “p axis setting unit 115”, the position p axis on the visual axis is set equal to the visual axis direction a xis (see Embodiment B-1).

(2)規格化距離パラメータを「パラメータの走査ユニット116」により、下限値c,minから上限値c,maxまで走査する(B−6−2,B−6−3,B−6−16)。
を走査)
(3)画像内の各点のアドレスiを下限値iminから上限値imaxまで走査する(B−6−4,B−6−5,B−6−15)。
(iを走査)
(4)左右カメラでの位置を「右カメラ画像レジスタ112」と「左カメラ画像レジスタ113」から出力する(B−6−6)。
(2) The normalized distance parameter n d c is scanned from the lower limit value n d c, min to the upper limit value n d c, max by the “ n d c parameter scanning unit 116” (B-6-2, B- 6-3, B-6-16).
(Scans n d c )
(3) The address i of each point in the image is scanned from the lower limit value i min to the upper limit value i max (B-6-4, B-6-5, B-6-15).
(Scan i)
(4) The positions i p R and i p L in the left and right cameras are output from the “right camera image register 112” and the “left camera image register 113” (B-6-6).

(5)左右カメラでの位置を「σ決定ユニット128」に入力して、両眼視差σ(すなわち、)を出力する(B−6−7)。この両眼視差を計測するアルゴリズムとその実現方法については報告されている(特開平05−165956号公報、特開平05−165957号公報、特開平06−044364号公報、特開平09−081369号公報;“2次元相関およびコンボリューションをハフ平面のρ座標に沿って1次元的に行う方法,” 川上と岡本, 信学技報, vol. IE96−19, pp.31−38, 1996)。 (5) The positions i p R and i p L of the left and right cameras are input to the “σ determination unit 128”, and the binocular parallax i σ (that is, i p L −i p R ) is output (B-6) -7). An algorithm for measuring the binocular parallax and a method for realizing the algorithm have been reported (Japanese Patent Laid-Open Nos. 05-165957, 05-165957, 06-04364, and 09-081369). “A method for performing two-dimensional correlation and convolution one-dimensionally along the ρ coordinate of the Hough plane,” Kawakami and Okamoto, Shingaku Giho, vol. IE 96-19, pp. 31-38, 1996).

(6)以上で設定された四つのパラメータσ,,paxisを「複比変換ユニット117」に入力して、位置を出力する。位置の計算は、そのユニット内で次の二つのステップで行われる。 (6) The four parameters n d c , i σ, i p R , and p axis set as described above are input to the “multi-ratio conversion unit 117”, and the position i pc is output. Calculation of the position i p c is in the unit takes place in the next two steps.

(A)とpaxisとの中心角xの計算(B−6−8)
σ,,paxisから、xを式(60b)により下式で計算する。
(A) Calculation of the center angle i x and i p c and p axis (B-6-8)
From nd c , i σ, i p R , and p axis , i x is calculated by the following equation using equation (60b)

x=tan−1((sin(c)sin(c+σ))
/(cos(c)sin(c+σ)− sin(σ)))
(160a)
(b)の計算(B−6−9)
球面上の位置を、上記のxを用いて下式で計算する。
i x = tan -1 ((sin (i c) sin (i c + i σ))
/ (Cos (i c) sin (i c + i σ) - n d c sin (i σ)))
(160a)
(B) calculation of i p c (B-6-9)
The position i p c on the spherical surface is calculated by the following equation using the above i x.

=cos(x) Γ+sin(x) Γ (160b)
ここで、ΓとΓは式(150c)で計算される。
i pc = cos ( ix ) Γ x + sin ( ix ) Γ y (160b)
Here, Γ x and Γ y are calculated by the equation (150c).

(7)上記の位置を「変換ユニット118」により球面上の大円に極変換する(B−6−10)。
(kを走査(B−6−11,B−6−12,B−6−14))
(8)その大円を構成する点GCを、「円柱配列投票ユニット119」の“高さの断面円内の点”に変換して投票する(B−6−13)。
(kを走査(B−6−14))
(9)ここまでの処理で、位置の点が“複比変換および極変換”された一個の大円が、高さがの断面円内に描かれる。但し、その大円は式(153)により変換されている。
(iを走査(B−6−15))
(10)ここまでの処理で、高さがの断面円内に、“画像内の全ての点{}”が複比変換および極変換された大円群が描かれる。
を走査(B−6−16))
(11)ここまでの処理で、全ての高さ{}の断面円内に、“画像内の全ての点{}”が複比変換および極変換された大円群が描かれる。すなわち、円柱配列の全ての断面円に投票が行われる。
(7) poles into a great circle on the sphere position i p c of the by 'transform unit 118 "(B-6-10).
(Scanning k (B-6-11, B-6-12, B-6-14))
(8) a k p GC points constituting the great circle, to vote converted to "points in circular section of height n d c" of the "cylindrical array voting unit 119" (B-6-13).
(Scan k (B-6-14))
(9) Through the processing so far, one great circle whose point i p R has been “multi-ratio transformed and pole transformed” is drawn in a cross-sectional circle having a height of n d c . However, the great circle is converted by the equation (153).
(Scan i (B-6-15))
(10) In the processing up to this point, the height in the cross section circle of n d c, "all the points in the image {i p R}" is cross-ratio conversion and polar converted great circles group is drawn.
(Scan n d c (B-6-16) )
(11) In the processing up to this point, in the cross-sectional circle of all heights {n d c}, the "all points {i p R} in the image" are cross-ratio conversion and polar transformed great circles group be painted. That is, voting is performed on all the cross-sectional circles of the columnar arrangement.

(12)「ピーク抽出ユニット120」により、円柱配列の中で“投票された強度が極大(ピーク)になる点”を抽出する――この極大点が“大円群が一点に交差する場所”である。この極大点の“高さ座標”として“平面を横切るまでの規格化距離c0”が求められ、また“断面円内の座標”として平面の3次元方位ns0が求められる(B−6−17)。
(End)
実施形態B−7.(“平面の3次元方位ns0と横切るまでの規格化距離c0”を視軸方向axisを知らずに、かつ両眼視差σにより計測)
掲記の計測、すなわち4.2.5の方法において“両眼視差σによる複比変換(式60b))”を用いる場合図63の実施形態で説明する。それは、実施形態B−6をモディファイした、図64に示す以下のフローで行われる。下記の(2)から(11)までのステップは、実施形態B−6の対応するステップと同じである。
(12) “Peak extraction unit 120” extracts “the point where the voted intensity becomes the maximum (peak)” in the cylindrical array—this maximum point is “the place where the great circles intersect at one point” It is. As the “height coordinate” of this local maximum point, “normalized distance n d c0 until crossing the plane” is obtained, and as the “coordinate in the cross-sectional circle”, the three-dimensional orientation n s0 of the plane is obtained (B-6). -17).
(End)
Embodiment B-7. (“Normalized distance n d c0 until crossing with the three-dimensional orientation n s0 of the plane” is measured by the binocular parallax σ without knowing the visual axis direction a xis )
In the case of using the above-described measurement, that is, the method of 4.2.5, “multi-ratio conversion by binocular parallax σ (formula 60b))” will be described with reference to the embodiment of FIG. This is performed according to the following flow shown in FIG. 64 obtained by modifying the embodiment B-6. The following steps (2) to (11) are the same as the corresponding steps in the embodiment B-6.

(Start)
(0)「axisパラメータの走査ユニット121」により、可能性のある全ての方向(下限値axis,minから上限値axis,maxまで)にわたって、“視軸方向パラメータaxis”を走査する(B−7−1,B−7−2,B−7−18)。
(axisを走査)
(1)「paxis設定ユニット115」により、“視軸上の位置paxis”をこのパラメータaxisに等しいとして設定する(B−7−3)。
(Start)
(0) “ Axis parameter scanning unit 121” scans the “visual axis direction parameter a xis ” in all possible directions (from the lower limit value a xis, min to the upper limit value a xis, max ). (B-7-1, B-7-2, B-7-18).
( Scan axis )
(1) The “position on the visual axis p axis ” is set to be equal to the parameter a xis by the “p axis setting unit 115” (B-7-3).

(2)規格化距離パラメータを「パラメータの走査ユニット116」により、下限値c,minから上限値c,maxまで走査する(B−7−4,B−7−5,B−7−17)。
を走査)
(3)画像内の各点のアドレスiを下限値iminから上限値imaxまで走査する(B−7−6,B−7−7,B−7−16)。
(iを走査)
(4)左右カメラでの位置を「右カメラ画像レジスタ112」と「左カメラ画像レジスタ113」から出力する(B−7−8)。
(2) The standardized distance parameter n d c is scanned from the lower limit value n d c, min to the upper limit value n d c, max by the “ n d c parameter scanning unit 116” (B-7-4, B- 7-5, B-7-17).
(Scans n d c )
(3) The address i of each point in the image is scanned from the lower limit value i min to the upper limit value i max (B-7-6, B-7-7, B-7-16).
(Scan i)
(4) The positions i p R and i p L in the left and right cameras are output from the “right camera image register 112” and the “left camera image register 113” (B-7-8).

(5)左右カメラでの位置を「σ決定ユニット128」に入力して、両眼視差σ(すなわち、)を出力する(B−7−9)。 (5) The positions i p R and i p L of the left and right cameras are input to the “σ determination unit 128”, and the binocular parallax i σ (that is, i p Li p R ) is output (B-7) -9).

(6)以上で設定された四つのパラメータτ,,paxisを「複比変換ユニット117」に入力して、位置を出力する(B−7−10)。 (6) The four parameters n d c , i τ, i p R , and p axis set as described above are input to the “multi-ratio conversion unit 117”, and the position i pc is output (B-7-10). ).

(7)上記の位置を「極変換ユニット118」により球面上の大円に極変換する(B−7−11)。
(kを走査B−7−12,B−7−13,B−7−15))
(8)その大円を構成する点GCを、「円柱配列投票ユニット」の“高さの断面円内の点”に変換して投票する(B−7−14)。
(kを走査B−7−15)
(9)ここまでの処理で、位置の点が“複比変換および極変換”された一個の大円が、高さがの断面円内に描かれる。但し、その大円は式(153)により変換されている。
(iを走査(B−7−16))
(10)ここまでの処理で、高さがの断面円内に、“画像内の全ての点{}”が複比変換および極変換された大円群が描かれる。
を走査(B−7−17))
(11)ここまでの処理で、全ての高さ{}の断面円内に、“画像内の全ての点{}”が複比変換および極変換された大円群が描かれる。すなわち、円柱配列の全ての断面円に投票が行われる。
(axisを走査(B−7−18))
(12)ここまでの処理で、“全ての視軸方向パラメータaxisに対する円柱配列群”の全断面円に投票が行われる。
(7) the position i p c of the poles converted to great circle on the sphere by the "polar transformation unit 118" (B-7-11).
(Scan k B-7-12, B-7-13, B-7-15))
(8) a k p GC points constituting the great circle, to vote converted to "points in circular section of height n d c" of the "cylindrical array voting unit" (B-7 - 14).
(K is scanned B-7-15)
(9) Through the processing so far, one great circle whose point i p R has been “multi-ratio transformed and pole transformed” is drawn in a cross-sectional circle having a height of n d c . However, the great circle is converted by the equation (153).
(Scan i (B-7-16))
(10) In the processing up to this point, the height in the cross section circle of n d c, "all the points in the image {i p R}" is cross-ratio conversion and polar converted great circles group is drawn.
(Scan n d c (B-7-17) )
(11) In the processing up to this point, in the cross-sectional circle of all heights {n d c}, the "all points {i p R} in the image" are cross-ratio conversion and polar transformed great circles group be painted. That is, voting is performed on all the cross-sectional circles of the columnar arrangement.
( Scan axis (B-7-18))
(12) by the processing up to here, the vote total cross-sectional circle of the "cylinder arrangement group for all of the visual axis direction parameter a xis" is performed.

(13)上記の円柱配列群の中で、強度が最大になる“特定の円柱配列”を「ピーク抽出ユニット120」により抽出する。この配列に対応する視軸方向パラメータとして、真の視軸方向axis0が求められる。また、その配列の中で強度がピークになる点を抽出すると、その点の“高さ座標”として平面を横切るまでの規格化距離c0が、また“断面円内の座標”として平面の3次元方位ns0が求められる(B−7−19)。
(End)
実施形態B−8. (“平面の3次元方位ns0と規格化最短距離s0”を両眼視差σにより計測)
掲記の計測、すなわち4.3.2の方法において“両眼視差σによる小円変換(式(66a))”を用いる場合を図65の実施形態で説明する。それは、図66に示す、以下のフローで行われる。下記の“(1)から(4)”および“(7)から(12)”までは実施形態B−3の対応するステップと同じであり、また(5)は実施形態B−6の対応するステップと同じである。
(13) From the above-described columnar array group, the “specific columnar array” having the maximum intensity is extracted by the “peak extraction unit 120”. As the visual axis direction parameter corresponding to this arrangement, the true visual axis direction axis0 is obtained. In addition, when a point where the intensity reaches a peak in the array is extracted, the normalized distance n d c0 until the plane is crossed as the “height coordinate” of the point is obtained, and the coordinate of the plane is obtained as “coordinate in the cross-sectional circle”. A three-dimensional orientation ns0 is obtained (B-7-19).
(End)
Embodiment B-8. (Measured by binocular parallax σ "3-dimensional orientation n s0 and the normalized shortest distance n d s0 plane")
A case where “small circle transformation by binocular parallax σ (formula (66a))” is used in the above-described measurement, that is, the method of 4.3.2 will be described with reference to the embodiment of FIG. It is performed according to the following flow shown in FIG. The following “(1) to (4)” and “(7) to (12)” are the same as the corresponding steps of the embodiment B-3, and (5) corresponds to the embodiment B-6. Same as step.

(Start)
(1)「paxis設定ユニット115」により、視軸上の位置paxisを視軸方向axisに等しいとして設定する(実施形態B−1参照)(B−8−1)。
(Start)
(1) With the “p axis setting unit 115”, the position p axis on the visual axis is set to be equal to the visual axis direction a xis (see Embodiment B-1) (B-8-1).

(2)規格化最短距離パラメータを「パラメータの走査ユニット122」により、下限値s,minから上限値s,maxまで走査する(B−8−2,B−8−3,B−8−15)。
を走査)
(3)画像内の各点のアドレスiを下限値iminから上限値imaxまで走査する(B−8−4,B−8−5,B−8−14)。
(iを走査)
(4)左右カメラでの位置を「右カメラ画像レジスタ112」と「左カメラ画像レジスタ113」から出力する(B−8−6)。
(2) The normalized shortest distance parameter n d s is scanned from the lower limit value n d s, min to the upper limit value n d s, max by the “ n d s parameter scanning unit 122” (B-8-2, B -8-3, B-8-15).
(Scans n d s )
(3) The address i of each point in the image is scanned from the lower limit value i min to the upper limit value i max (B-8-4, B-8-5, B-8-14).
(Scan i)
(4) The positions i p R and i p L in the left and right cameras are output from the “right camera image register 112” and the “left camera image register 113” (B-8-6).

(5)左右カメラでの位置を「σ決定ユニット128」に入力して、両眼視差σ(すなわち、)を出力する(B−8−7)。 (5) The positions i p R and i p L of the left and right cameras are input to the “σ determination unit 128”, and the binocular parallax i σ (that is, i p L −i p R ) is output (B-8) -7).

(6)以上で設定された四つのパラメータσ,,paxisを「半径Rの計算ユニット123」に入力して、半径Rと位置を出力する(B−8−8)。そのユニットの中で、半径Rが式(66a)により下式で計算される。 (6) The four parameters n d s , i σ, i p R , and p axis set as described above are input to the “radius R calculation unit 123”, and the radius i R and the position i p R are output ( B-8-8). Within the unit, the radius i R is calculated by the following equation by the equation (66a).

R=cos−1sinσ/sin(c+σ)) (115)
(7)この半径Rと位置を「小円変換ユニット124」に入力して、位置を中心とする半径Rの“球面上の小円”に変換する(B−8−9)。
(kを走査(B−8−10,B−8−11,B−8−13))
(8)その小円を構成する点SCを、「円柱配列投票ユニット125」の“高さの断面円内の点”に変換して投票する(B−8−12)。
(kを走査(B−8−13)
(9)ここまでの処理で、位置の点が変換された一個の小円が、高さがの断面円内に描かれる。但し、その小円は式(157)により変換されている。
(iを走査(B−8−14))
(10)ここまでの処理で、高さがの断面円内に、“画像内の全ての点{}”が変換された小円群が描かれる。
を走査(B−8−15))
(11)ここまでの処理で、全ての高さ{}の断面円内に、“画像内の全ての点{}”が変換された小円群が描かれる。すなわち、円柱配列の全ての断面円内に投票が行われる。
i R = cos -1 (n d s sin i σ / sin (i c + i σ)) (115)
(7) The radius i R and the position i p R are input to the “small circle conversion unit 124” and converted into a “small circle on the sphere” having a radius i R centered on the position i p R (B− 8-9).
(Scanning k (B-8-10, B-8-11, B-8-13))
(8) The point k p SC constituting the small circle is converted into a “point in the cross-sectional circle of height n d s ” of the “cylindrical array voting unit 125” and voted (B-8-12).
(Scan k (B-8-13)
(9) Through the processing so far, one small circle in which the point at the position i p R has been transformed is drawn in a cross-sectional circle having a height of n d s . However, the small circle is converted by the equation (157).
(Scan i (B-8-14))
(10) In the processing up to this point, the height in the cross section circle of n d s, small circle group "all the points in the image {i p R}" is converted is drawn.
(Scans n d s (B-8-15))
(11) In the processing up to this point, in the cross-sectional circle of all heights {n d s}, small circle group "all the points in the image {i p R}" is converted is drawn. That is, voting is performed in all cross-sectional circles of the columnar arrangement.

(12)「ピーク抽出ユニット126」により、円柱配列の中で“投票された強度が最大(ピーク)になる点”を抽出する――この極大点が“小円群が一点に交差する場所”である。この極大点の“高さ座標”として平面の規格化最短距離が求められ、また“断面円内の座標”として平面の3次元方位ns0が求められる(B−8−16)。
(End)
実施形態B−9.(“平面の3次元方位ns0と規格化最短距離s0”を視軸方向axisを知らずに、かつ両眼視差σにより計測)
掲記の計測、すなわち4.3.3の方法において“両眼視差σによる小円変換(式(66a))”を用いる場合を図67の実施形態で説明する。それは、実施形態B−8をモディファイした、図68に示す、以下のフローで行われる。下記の(2)から(11)までのステップは、実施形態B−8の対応するステップと同じである。
(12) The “peak extraction unit 126” extracts “the point where the voted intensity is the maximum (peak)” in the cylindrical array—this maximum point is “the place where the small circles intersect at one point” It is. The standardized shortest distance n d s of the plane is obtained as the “height coordinate” of the maximum point, and the three-dimensional orientation n s0 of the plane is obtained as the “coordinate in the cross-section circle” (B-8-16).
(End)
Embodiment B-9. (Measured "3D orientation n s0 and the normalized shortest distance n d s0 plane" without knowing the visual axis direction a xis, and the binocular parallax sigma)
A case where “small circle transformation by binocular parallax σ (formula (66a))” is used in the above-described measurement, that is, the method of 4.3.3 will be described with reference to the embodiment of FIG. It is performed according to the following flow shown in FIG. 68 obtained by modifying Embodiment B-8. The following steps (2) to (11) are the same as the corresponding steps in embodiment B-8.

(Start)
(0)「axisパラメータの走査ユニット121」により、可能性のある全ての方向(下限値axis,minから上限値axis,maxまで)にわたって、“視軸方向パラメータaxis”を走査する。
(axisを走査)
(1)「paxis設定ユニット115」により、“視軸上の位置paxis”をこのパラメータaxisに等しいとして設定する(B−9−3)。
(Start)
(0) “ Axis parameter scanning unit 121” scans the “visual axis direction parameter a xis ” in all possible directions (from the lower limit value a xis, min to the upper limit value a xis, max ). .
( Scan axis )
(1) The “p axis setting unit 115” sets the “position p axis on the visual axis ” to be equal to the parameter a xis (B-9-3).

(2)規格化最短距離パラメータを「パラメータの走査ユニット122」により、下限値s,minから上限値s,maxまで走査する(B−9−4,B−9−5,B−9−17)。
を走査)
(3)画像内の各点のアドレスiを下限値iminから上限値imaxまで走査する(B−9−6,B−9−7,B−9−16)。
(iを走査)
(4)左右カメラでの位置を「右カメラ画像レジスタ112」と「左カメラ画像レジスタ113」から出力する(B−9−8)。
(2) The standardized shortest distance parameter n d s is scanned from the lower limit value n d s, min to the upper limit value n d s, max by the “ n d s parameter scanning unit 122” (B-9-4, B -9-5, B-9-17).
(Scans n d s )
(3) The address i of each point in the image is scanned from the lower limit value i min to the upper limit value i max (B-9-6, B-9-7, B-9-16).
(Scan i)
(4) The positions i p R and i p L in the left and right cameras are output from the “right camera image register 112” and the “left camera image register 113” (B-9-8).

(5)左右カメラでの位置を「σ決定ユニット128」に入力して、両眼視差σ(すなわち、)を出力する(B−9−9)。 (5) The positions i p R and i p L of the left and right cameras are input to the “σ determination unit 128”, and the binocular parallax i σ (that is, i p L −i p R ) is output (B-9) -9).

(6)以上で設定された四つのパラメータτ,,paxisを「半径Rの計算ユニット123」に入力して、半径Rと位置を出力する(B−9−10)。 (6) The four parameters n d s , i τ, i p R , and p axis set as described above are input to the “radius R calculation unit 123”, and the radius i R and the position i p R are output ( B-9-10).

(7)この半径Rと位置を「小円変換ユニット124」に入力して、位置を中心とする半径Rの“球面上の小円”に変換する。
(kを走査)
(8)その小円を構成する点SCを、「円柱配列投票ユニット125」の“高さの断面円内の点”に変換して投票する(B−9−14)。
(kを走査(B−9−15))
(9)ここまでの処理で、位置の点が変換された一個の小円が、高さがの断面円内に描かれる。但し、その小円は式(157)により変換されている。
(iを走査(B−9−16))
(10)ここまでの処理で、高さがの断面円内に、“画像内の全ての点{}”が変換された小円群が描かれる。
を走査(B−9−17))
(11)ここまでの処理で、全ての高さ{}の断面円内に、“画像内の全ての点{}”が変換された小円群が描かれる。すなわち、円柱配列の全ての断面円に投票が行われる。
(axisを走査(B−9−18))
(12)ここまでの処理で、“全ての視軸方向パラメータaxisに対する円柱配列群”の全断面円に投票が行われる。
(7) The radius i R and the position i p R are input to the “small circle conversion unit 124” and converted into a “small circle on the spherical surface” having the radius i R centered on the position i p R.
(Scan k)
(8) The point k p SC constituting the small circle is converted into a “point in the sectional circle of height n d s ” of the “cylindrical array voting unit 125” and voted (B-9-14).
(Scan k (B-9-15))
(9) Through the processing so far, one small circle in which the point at the position i p R has been transformed is drawn in a cross-sectional circle having a height of n d s . However, the small circle is converted by the equation (157).
(Scan i (B-9-16))
(10) In the processing up to this point, the height in the cross section circle of n d s, small circle group "all the points in the image {i p R}" is converted is drawn.
(Scans n d s (B-9-17))
(11) In the processing up to this point, in the cross-sectional circle of all heights {n d s}, small circle group "all the points in the image {i p R}" is converted is drawn. That is, voting is performed on all the cross-sectional circles of the columnar arrangement.
( Scan axis (B-9-18))
(12) by the processing up to here, the vote total cross-sectional circle of the "cylinder arrangement group for all of the visual axis direction parameter a xis" is performed.

(13)上記の円柱配列群の中で、強度が最大になる“特定の円柱配列”を「ピーク抽出ユニット126」により抽出する。この配列に対応する視軸方向パラメータとして、真の視軸方向axis0が求められる。また、その配列の中で強度がピークになる点を抽出すると、その点の“高さ座標”として平面の規格化最短距離が、また“断面円内の座標”として平面の3次元方位ns0が求められる(B−9−19)。
(End)
実施形態B−10. (“点の規格化距離”を両眼視差σにより計測)
掲記の計測、すなわち4.4.3の方法において“両眼視差σによる計測法(式(67c))”を用いる場合を図69の実施形態で説明する。それは、図70に示す以下のフローで行われる。
(13) From the above-described columnar array group, the “specific columnar array” having the maximum intensity is extracted by the “peak extraction unit 126”. As the visual axis direction parameter corresponding to this arrangement, the true visual axis direction axis0 is obtained. Further, when a point where the intensity reaches a peak in the array is extracted, the standardized shortest distance n d s of the plane is used as the “height coordinate” of the point, and the three-dimensional plane is used as the “coordinate in the cross-sectional circle”. The direction ns0 is obtained (B-9-19).
(End)
Embodiment B-10. (Measures “normalized distance n d 0 of point” by binocular parallax σ)
A case where the “measurement method using binocular parallax σ (equation (67c))” is used in the above-described measurement, that is, the method of 4.4.3 will be described with reference to the embodiment of FIG. It is performed according to the following flow shown in FIG.

(Start)
(1)「paxis設定ユニット115」により、視軸上の位置paxisを視軸方向axisに等しいとして設定する(実施形態B−1参照)(B−10−1)。
(Start)
(1) The position p axis on the visual axis is set to be equal to the visual axis direction a xis by the “p axis setting unit 115” (see Embodiment B-1) (B-10-1).

(2)左右カメラでの位置p,pを「右カメラ画像レジスタ112」と「左カメラ画像レジスタ113」から出力する(B−10−2)。 (2) The positions p R and p L in the left and right cameras are output from the “right camera image register 112” and the “left camera image register 113” (B-10-2).

(3)左右カメラでの位置p,pを「σ決定ユニット128」に入力して、両眼視差σ(すなわち、p−p)を出力する(B−10−3)。 (3) The positions p R and p L of the left and right cameras are input to the “σ determination unit 128”, and binocular parallax σ (ie, p L −p R ) is output (B-10-3).

(4)以上で設定された三つのパラメータτ,p,paxisを「点距離計算ユニット127」に入力して、点までの規格化距離が出力される(B−10−4)。の計算は、ユニット内で式(67c)を計算して行われる。
(End)
実施形態C−1. (“平面の3次元方位ns0と規格化最短距離s0”を運動視差τにより計測)
掲記の計測、すなわち2.1の方法において運動視差τによる場合を図71の実施形態で説明する。それは、図72に示す、以下のフローで行われる。
(4) The three parameters τ, p R and p axis set as described above are input to the “point distance calculation unit 127”, and the normalized distance n d 0 to the point is output (B-10-4). ). The calculation of n d 0 is performed by calculating Expression (67c) in the unit.
(End)
Embodiment C-1. ( "3-dimensional orientation n s0 and the normalized shortest distance n d s0 plane" measured by the motion parallax tau)
The embodiment shown in FIG. 71 will be described with respect to the above-described measurement, that is, the case of using the motion parallax τ in the method of 2.1. It is performed according to the following flow shown in FIG.

(Start)
(1)移動方向vを「移動方向vの抽出ユニット14」により、実施形態A−1のステップ(1)と同様にして抽出する。次に、「pinf設定ユニット15」により、この移動方向vに等しいとして“無限時間経過後の位置pinf”を設定する(C−1−1)。
(Start)
(1) The moving direction v is extracted by the “moving direction v extracting unit 14” in the same manner as in step (1) of the embodiment A-1. Next, “p inf setting unit 15” sets “position p inf after elapse of infinite time” as being equal to the moving direction v (C-1-1).

(2)規格化最短距離パラメータを「パラメータの走査ユニット221」により、下限値s,minから上限値s,maxまで走査する(C−1−2,C−1−3,C−1−14)。
を走査)
(3)画像内の各点のアドレスiを下限値iminから上限値imaxまで走査する(C−1−4,C−1−5,C−1−13)。
(iを走査)
(4)現在と次の時刻の位置を「現時刻tの画像レジスタ12」と「次時刻tの画像レジスタ13」から出力する(C−1−6)。
(2) The standardized shortest distance parameter n d s is scanned from the lower limit value n d s, min to the upper limit value n d s, max by the “ n d s parameter scanning unit 221” (C-1-2, C -1-3, C-1-14).
(Scans n d s )
(3) The address i of each point in the image is scanned from the lower limit value i min to the upper limit value i max (C-1-4, C-1-5, C-1-13).
(Scan i)
(4) The current and next time positions i p 0 and i p 1 are output from the “image register 12 at the current time t 0 ” and the “image register 13 at the next time t 1 ” (C-1-6).

(5)現在と次の時刻の位置を「τ決定ユニット28」に入力して、実施形態A−6のステップ(5)と同様にして、運動視差τ(すなわち、)を出力する(C−1−7)。 (5) The current and next time positions i p 0 and i p 1 are input to the “τ determination unit 28”, and the motion parallax i τ (ie, the same as step (5) of the embodiment A-6) , i p 1 - i p 0 ) and outputs the (C-1-7).

(6)移動方向vを中心する半径rの円(図13)を考え、そのrを「半径rの走査ユニット222」により0からπ/2まで走査する(C−1−8,C−1−9,C−1−12)。
(rを走査)
(7)以上で設定された五つのパラメータ,pinfτ,rを「小円構成要素 s+ s−の計算ユニット223」に入力して、2.1(4)の二つの交点 s+ s−を出力する(C−1−10)。この交点は、2.2.1で証明したように“を中心にする半径Rの小円”の構成要素である。この点 s+ s−の“球面上の極座標(経度 αs+ αs−、緯度 βs+ βs−)”は、式(29)より下式で計算される。
(6) Consider a circle with a radius r centered in the moving direction v (FIG. 13), and scan r from 0 to π / 2 by the “scan unit 222 with radius r” (C-1-8, C-1). -9, C-1-12).
(Scan r)
(7) over five parameters set by the n d s, i p 0, p inf, i τ, type r to "small circle components i r n s +, i r n s- computing unit 223" Te, 2.1 (4) two intersections i r n s + a, i r n outputs the s- (C-1-10). This intersection is a component of “a small circle with radius i R centered at i p 0 ” as proved in 2.2.1. This point i r n s +, i r n s- for "polar coordinates on the sphere (longitude i r α s +, i r α s-, latitude i r β s +, i r β s-)" has the formula (29) It is calculated by the following formula.

βs+=r
βs−=r (200a)
αs+α+cos−1((( sin(τ)/sin(a+τ))
−cos(r)cos(a))/(sin(r)−sin(a)))
αs−α−cos−1((( sin(τ)/sin(a+τ))
−cos(r)cos(a))/(sin(r)−sin(a)))
(200b)
ここで、αaはの経度座標と緯度座標である(図14参照)。
i r β s + = r
i r β s− = r (200a)
i r α s + = i α a + cos -1 (((n d s sin (i τ) / sin (i a + i τ))
-Cos (r) cos (i a )) / (sin (r) -sin (i a)))
i r α s- = i α a -cos -1 (((n d s sin (i τ) / sin (i a + i τ))
-Cos (r) cos (i a )) / (sin (r) -sin (i a)))
(200b)
Here, i α a and i a are the longitude and latitude coordinates of i p 0 (see FIG. 14).

(8)上記の小円を構成する点 s+ s−を、「円柱配列投票ユニット224」の高さの断面円内の、極座標(傾角 αs+,Proj αs−,Proj、動径 βs+,Proj βs−,Proj)で表される点 s+,Proj s−,Projに変換して投票する(C−1−11)――その投票は“位置の明るさ”を加算して行われる。その変換は一般的にはf()を射影関数として、
βs+,Proj=f( βs+
βs−,Proj=f( βs−) (201a)
αs+,Proj αs+
αs−,Proj αs− (201b)
で表される(実施形態A−1のステップ(7)参照)。等距離射影方式の場合にはf()=1であり、 βs+,Proj βs−,Projは下式で与えられる。
(8) i r n s + points constituting the small circle above, i r n the s-, in cross section circle of height n d s of "columnar array voting unit 224", a polar coordinate (inclination i r α s +, proj, i r α s-, proj , + radius vector i r β s, proj, i r β s-, i r n s + a point represented by proj), proj, i r n s-, converted to proj Vote (C-1-11) —The vote is made by adding “brightness at position i p 0 ”. The transformation is generally f () as a projection function,
i r β s +, Proj = f (i r β s +)
i r β s-, Proj = f (i r β s-) (201a)
i r α s +, Proj = i r α s +
i r α s-, Proj = i r α s- (201b)
(See step (7) of Embodiment A-1). In the case of equidistant projection method is f () = 1, i r β s +, Proj, i r β s-, Proj is given by the following equation.

βs+,Proj βs+
βs−,Proj βs− (201c)
以上を纏めると、小円を構成する“球面上の点 s+ s−”を断面円内の“平面上の点 s+,Proj s−,Proj”に変換して、その点に“位置の明るさ”を投票(加算)する。各断面円はレジスタ配列あるいはメモリ配列で実現できる。
(rを走査(C−1−12))
(9)ここまでの処理で、位置の点が変換された一個の小円が、高さがの断面円内に描かれる。但し、その小円は式(201)により変換されている。
(iを走査(C−1−13))
(10)ここまでの処理で、高さがの断面円内に、“画像内の全ての点{}”が変換された小円群が描かれる。
を走査(C−1−14))
(11)ここまでの処理で、全ての高さ{}の断面円内に、“画像内の全ての点{}”が変換された小円群が描かれる。すなわち、円柱配列の全ての断面円に投票が行われる。
i r β s +, Proj = i r β s +
i r β s-, Proj = i r β s- (201c)
In summary of the above, it constitutes a small circle "points on the sphere i r n s +, i r n s-" points on "plane in circular cross i r n s +, Proj, i r n s-, Proj And vote (add) “brightness at position i p 0 ” to that point. Each cross-sectional circle can be realized by a register arrangement or a memory arrangement.
(Scan r (C-1-12))
(9) With the processing so far, one small circle in which the point at the position i p 0 has been transformed is drawn in the cross-sectional circle having a height of n d s . However, the small circle is converted by the equation (201).
(Scan i (C-1-13))
(10) In the processing up to this point, the height in the cross section circle of n d s, small circle group "all the points in the image {i p 0}" has been converted is drawn.
(Scans n d s (C-1-14))
(11) In the processing up to this point, in the cross-sectional circle of all heights {n d s}, small circle group "all the points in the image {i p 0}" has been converted is drawn. That is, voting is performed on all the cross-sectional circles of the columnar arrangement.

(12)「ピーク抽出ユニット225」により、円柱配列の中で“投票された強度が極大(ピーク)になる点”を抽出する(C−1−15)――この極大点が“小円群が一点に交差する場所”である。この極大点の“高さ座標”として“平面の規格化最短距離”が求められ、また“断面円内の座標”として平面の3次元方位ns0が求められる。
(End)
実施形態C−2.(“平面の3次元方位ns0と規格化最短距離s0”を移動方向vを知らずに、かつ運動視差τにより計測)
掲記の計測、すなわち“移動方向vを知らずに計測する方法(2.5)”を、2.1についてかつ運動視差τを用いて行う場合を図73の実施形態で説明する。それは、図74に示す、以下のフローで行われる。下記の(2)から(11)までのステップは、実施形態C−1の対応するステップと同じである。
(12) The “peak extraction unit 225” extracts “the point where the voted intensity becomes a maximum (peak)” in the cylindrical array (C-1-15) —this maximum point is the “small circle group” Is a place that intersects one point. As the “height coordinate” of the local maximum point, “the standardized shortest distance n d s of the plane” is obtained, and as the “coordinate in the cross-sectional circle”, the three-dimensional orientation n s0 of the plane is obtained.
(End)
Embodiment C-2. (Without knowing the "3-dimensional orientation n s0 and the normalized shortest distance n d s0 plane" direction of movement v of and measured by motion parallax tau)
The embodiment shown in FIG. 73 will explain a case where the above-described measurement, that is, “method of measuring without knowing the moving direction v (2.5)” is performed with respect to 2.1 and using motion parallax τ. It is performed according to the following flow shown in FIG. The following steps (2) to (11) are the same as the corresponding steps in the embodiment C-1.

(Start)
(0)「vパラメータの走査ユニット21」により、可能性のある全ての方向(下限値vminから上限値vmax)にわたって、“移動方向パラメータv”を走査する(C−2−1,C−2−2,C−2−17)。
(vを走査)
(1)「pinf設定ユニット15」により、“無限時間経過後の位置pinf”をこのパラメータvに等しいとして設定する(C−2−3)。
(Start)
(0) The “moving direction parameter v” is scanned by the “v parameter scanning unit 21” in all possible directions (lower limit value v min to upper limit value v max ) (C-2-1, C 2-2, C-2-17).
(Scan v)
(1) The “p inf setting unit 15” sets “position p inf after infinite time has elapsed” to be equal to this parameter v (C-2-3).

(2)規格化最短距離パラメータを「パラメータの走査ユニット221」により、下限値s,minから上限値s,maxまで走査する(C−2−4,C−2−5,C−2−16)。
を走査)
(3)画像内の各点のアドレスiを下限値iminから上限値imaxまで走査する(C−2−6,C−2−7,C−2−15)。
(iを走査)
(4)現在と次の時刻の位置を「現時刻tの画像レジスタ12」と「次時刻tの画像レジスタ13」から出力する(C−2−8)。
(2) The standardized shortest distance parameter n d s is scanned from the lower limit value n d s, min to the upper limit value n d s, max by the “ n d s parameter scanning unit 221” (C-2-4, C -2-5, C-2-16).
(Scans n d s )
(3) The address i of each point in the image is scanned from the lower limit value i min to the upper limit value i max (C-2-6, C-2-7, C-2-15).
(Scan i)
(4) Output the current and next time positions i p 0 and i p 1 from the “image register 12 at the current time t 0 ” and the “image register 13 at the next time t 1 ” (C-2-8).

(5)現在と次の時刻の位置を「τ決定ユニット28」に入力して、実施形態A−5のステップ(5)と同様にして、運動視差τ(すなわち、)を出力する(C−2−9)。 (5) The positions i p 0 and i p 1 at the current time and the next time are input to the “τ determination unit 28”, and the motion parallax i τ (ie, the same as step (5) in the embodiment A-5) , i p 1 - i p 0 ) and outputs the (C-2-9).

(6)移動方向vを中心する半径rの円(図13)を考え、そのrを「半径rの走査ユニット222」により0からπ/2まで走査する(C−2−10,C−2−11,C−2−14)。
(rを走査)
(7)以上で設定された五つのパラメータ,pinfτ,rを「小円構成要素 s+ s−の計算ユニット223」に入力して、2.1(4)の二つの交点 s+ s−を出力する(C−2−12)。
(6) Consider a circle with a radius r centered in the moving direction v (FIG. 13), and scan r from 0 to π / 2 by the “scan unit 222 with radius r” (C-2-10, C-2). -11, C-2-14).
(Scan r)
(7) over five parameters set by the n d s, i p 0, p inf, i τ, type r to "small circle components i r n s +, i r n s- computing unit 223" Te, 2.1 (4) two intersections i r n s + a, i r n outputs the s-(C-2-12).

(8)その小円を構成する点 s+ s−を、「円柱配列投票ユニット224」の“高さの断面円内の点”に変換して投票する(C−2−13)。
(rを走査(C−2−14))
(9)ここまでの処理で、位置の点が変換された一個の小円が、高さがの断面円内に描かれる。但し、その小円は式(201)により変換されている。
(iを走査(C−2−15))
(10)ここまでの処理で、高さがの断面円内に、“画像内の全ての点{}”が変換された小円群が描かれる。
を走査(C−2−16))
(11)ここまでの処理で、全ての高さ{}の断面円内に、“画像内の全ての点{}”が変換された小円群が描かれる。すなわち、円柱配列の全ての断面円に投票が行われる。
(vを走査(C−2−17))
(12)ここまでの処理で、“全ての移動方向パラメータvに対する円柱配列群”の全断面円に投票が行われる。
(8) the small circle point constituting the i r n s +, i r n the s-, vote and converts the "point in the cross-sectional circle of height n d s" of the "cylindrical array voting unit 224" ( C-2-13).
(Scan r (C-2-14))
(9) With the processing so far, one small circle in which the point at the position i p 0 has been transformed is drawn in the cross-sectional circle having a height of n d s . However, the small circle is converted by the equation (201).
(Scan i (C-2-15))
(10) In the processing up to this point, the height in the cross section circle of n d s, small circle group "all the points in the image {i p 0}" has been converted is drawn.
(Scans n d s (C-2-16))
(11) In the processing up to this point, in the cross-sectional circle of all heights {n d s}, small circle group "all the points in the image {i p 0}" has been converted is drawn. That is, voting is performed on all the cross-sectional circles of the columnar arrangement.
(Scan v (C-2-17))
(12) In the process so far, voting is performed on all the cross-sectional circles of the “cylindrical array group for all moving direction parameters v”.

(13)上記の円柱配列群の中で、強度が最大になる“特定の円柱配列”を「ピーク抽出ユニット225」により抽出する。この配列に対する移動方向パラメータとして、真の移動方向vが求められる。また、その配列の中で強度がピークになる点を抽出すると、その点の“高さ座標”として平面の規格化最短距離が、また“断面円内の座標”として平面の3次元方位ns0が求められる(C−2−18)。
(End)
実施形態C−3. (“平面の3次元方位s0と規格化最短距離s0”を両眼視差σにより計測)
掲記の計測、すなわち4.3.1の方法において両眼視差σによる場合を図75の実施形態で説明する。それは、図76に示す、以下のフローで行われる。ステップ(8)以降は、と{}をと{}に置き換えると実施形態C−1と同じである。
(13) From the columnar array group, the “specific columnar array” having the maximum intensity is extracted by the “peak extraction unit 225”. As the movement direction parameter for this array, the true movement direction v 0 is obtained. Further, when a point where the intensity reaches a peak in the array is extracted, the standardized shortest distance n d s of the plane is used as the “height coordinate” of the point, and the three-dimensional plane is used as the “coordinate in the cross-sectional circle”. The direction ns0 is obtained (C-2-18).
(End)
Embodiment C-3. ("Measures the three-dimensional orientation s0 of the plane and the normalized shortest distance n d s0 " by binocular parallax σ)
The case of the above-described measurement, that is, the case of binocular parallax σ in the method of 4.3.1 will be described with reference to the embodiment of FIG. It is performed according to the following flow shown in FIG. After step (8), if i p R and { i p R } are replaced with i p 0 and { i p 0 }, they are the same as in the embodiment C-1.

(Start)
(1)「paxis設定ユニット115」により、視軸上の位置paxisを視軸方向axisに等しいとして設定する(実施形態B−1のステップ(1)参照)。
(Start)
(1) With the “p axis setting unit 115”, the position p axis on the visual axis is set to be equal to the visual axis direction a xis (see step (1) in Embodiment B-1).

(2)規格化最短距離パラメータを「パラメータの走査ユニット221」により、下限値s,minから上限値s,maxまで走査する(C−3−2,C−3−3,C−3−14)。
を走査)
(3)画像内の各点のアドレスiを下限値iminから上限値imaxまで走査する(C−3−4,C−3−5,C−3−13)。
(iを走査)
(4)左右カメラでの位置を「右カメラ画像レジスタ112」と「左カメラ画像レジスタ113」から出力する(C−3−6)。
(2) The standardized shortest distance parameter n d s is scanned from the lower limit value n d s, min to the upper limit value n d s, max by the “ n d s parameter scanning unit 221” (C-3-2, C -3-3, C-3-14).
(Scans n d s )
(3) The address i of each point in the image is scanned from the lower limit value i min to the upper limit value i max (C-3-4, C-3-5, C-3-13).
(Scan i)
(4) The positions i p R and i p L in the left and right cameras are output from the “right camera image register 112” and the “left camera image register 113” (C-3-6).

(5)左右カメラでの位置を「σ決定ユニット128」に入力して、両眼視差σ(すなわち、)を出力する(実施形態B−6のステップ(5)参照(C−3−7))。 (5) The positions i p R and i p L of the left and right cameras are input to the “σ determination unit 128”, and binocular parallax i σ (ie, i p Li p R ) is output (embodiment B) Refer to step (5) of -6 (C-3-7)).

(6)視軸方向axisを中心する半径rの円(図26)を考え、そのrを「半径rの走査ユニット222」により0からπ/2まで走査する(C−3−8,C−3−9,C−3−12)。
(rを走査)
(7)以上で設定された五つのパラメータ,paxisσ,rを「小円構成要素 s+ s−の計算ユニット223」に入力して、4.3.1(4)の二つの交点 s+ s−を出力する(C−3−10)。この交点は、4.3.2で証明したように“を中心にする半径Rの小円”の構成要素である。この点 s+ s−の“球面上の極座標(経度 α α、緯度 β β)”は、4.3.1(4)で述べたように下式で計算される。
(6) Consider a circle with a radius r centered on the visual axis direction a xis (FIG. 26), and scan r from 0 to π / 2 by the “scan unit 222 with radius r” (C-3-8, C -3-9, C-3-12).
(Scan r)
(7) is set above the five parameters n d s, i p R, p axis, i σ, type r to "small circle components i r n s +, i r n s- computing unit 223" Te, 4.3.1 (4) two intersections i r n s + a, i r n outputs the s-(C-3-10). This intersection is a component of “a small circle with radius iR centered on i p R ” as proved in 4.3.2. This point i r n s +, i r n s- for "polar coordinates on the sphere (longitude i r α +, i r α -, latitude i r β +, i r β -)" is 4.3.1 ( It is calculated by the following formula as described in 4).

β=r
β=r (210a)
αs+α+cos−1((( sin(σ)/sin(c+σ))
−cos(r)cos(c))/(sin(r)−sin(c)))
αs−α−cos−1((( sin(σ)/sin(c+σ))
−cos(r)cos(c))/(sin(r)−sin(c)))
(210b)
(8)この小円を構成する点 s+ s−を、「円柱配列投票ユニット224」の“高さの断面円内”に変換して投票する(C−3−11)。
(rを走査(C−3−12))
(9)ここまでの処理で、位置の点が変換された一個の小円が、高さがの断面円内に描かれる。但し、その小円は式(201)により変換されている。
(iを走査(C−3−13))
(10)ここまでの処理で、高さがの断面円内に、“画像内の全ての点{}”が変換された小円群が描かれる。
を走査(C−3−14))
(11)ここまでの処理で、全ての高さ{}の断面円内に、“画像内の全ての点{}”が変換された小円群が描かれる。すなわち、円柱配列の全ての断面円に投票が行われる。
i r β + = r
i r β = r (210a)
i r α s + = i α c + cos -1 (((n d s sin (i σ) / sin (i c + i σ))
-Cos (r) cos (i c )) / (sin (r) -sin (i c)))
i r α s- = i α c -cos -1 (((n d s sin (i σ) / sin (i c + i σ))
-Cos (r) cos (i c )) / (sin (r) -sin (i c)))
(210b)
(8) The small circle point constituting the i r n s +, i and r n s-, vote and converts the "columnar array voting unit 224" of the "height in the cross section circle of n d s" (C- 3-11).
(Scan r (C-3-12))
(9) Through the processing so far, one small circle in which the point at the position i p R has been transformed is drawn in a cross-sectional circle having a height of n d s . However, the small circle is converted by the equation (201).
(Scan i (C-3-13))
(10) In the processing up to this point, the height in the cross section circle of n d s, small circle group "all the points in the image {i p R}" is converted is drawn.
(Scans n d s (C-3-14))
(11) In the processing up to this point, in the cross-sectional circle of all heights {n d s}, small circle group "all the points in the image {i p R}" is converted is drawn. That is, voting is performed on all the cross-sectional circles of the columnar arrangement.

(12)「ピーク抽出ユニット225」により、円柱配列の中で“投票された強度が極大(ピーク)になる点”を抽出する(C−3−15)――この極大点が“小円群が一点に交差する場所”である。この極大点の“高さ座標”として平面の規格化最短距離が求められ、また“断面円内の座標”として平面の3次元方位ns0が求められる。
(End)
実施形態C−4.(“平面の3次元方位ns0と規格化最短距離s0”を視軸方向axisを知らずに、かつ両眼視差σにより計測)
掲記の計測、すなわち“視軸方向axisを知らずに計測する方法(4.3.3)”を、4.3.1についてかつ両眼視差σを用いて行う場合を図77の実施形態で説明する。それは、実施形態C−3をモディファイした、図78に示す、以下のフローで行われる。下記の(1)から(11)までのステップは、実施形態C−3の対応するステップと同じである。
(12) The “peak extraction unit 225” extracts “the point where the voted intensity becomes the maximum (peak)” in the cylindrical array (C-3-15) —this maximum point is the “small circle group” Is a place that intersects a single point. The standardized shortest distance n d s of the plane is obtained as the “height coordinate” of the local maximum point, and the three-dimensional orientation n s0 of the plane is obtained as the “coordinate in the cross-sectional circle”.
(End)
Embodiment C-4. (Measured "3D orientation n s0 and the normalized shortest distance n d s0 plane" without knowing the visual axis direction a xis, and the binocular parallax sigma)
The embodiment shown in FIG. 77 is a case where the above-described measurement, that is, “method of measuring without knowing the visual axis direction a xis (4.3.3)” is performed with respect to 4.3.1 and using binocular parallax σ. explain. It is performed according to the following flow shown in FIG. 78, which is a modification of Embodiment C-3. The following steps (1) to (11) are the same as the corresponding steps in the embodiment C-3.

(Start)
(0)「axisパラメータの走査ユニット121」により、可能性のある全ての方向(下限値axis,minから上限値axis,maxまで)にわたって、“視軸方向パラメータaxis”を走査する(C−4−1,C−4−2,C−4−17)。
(axisを走査)
(1)「paxis設定ユニット115」により、“視軸上の位置paxis”をこのパラメータaxisに等しいとして設定する(C−4−3)。
(Start)
(0) The “visual axis parameter a xis ” is scanned in all possible directions (from the lower limit value a xis, min to the upper limit value a xis, max ) by the “a xi parameter scan unit 121”. (C-4-1, C-4-2, C-4-17).
( Scan axis )
(1) The “position on the visual axis p axis ” is set to be equal to the parameter a xis by the “p axis setting unit 115” (C-4-3).

(2)規格化最短距離パラメータを「パラメータの走査ユニット221」により、下限値s,minから上限値s,maxまで走査する(C−4−4,C−4−5,C−4−16)。
を走査)
(3)画像内の各点のアドレスiを下限値iminから上限値imaxまで走査する(C−4−6,C−4−7,C−4−15)。
(iを走査)
(4)左右カメラでの位置を「右カメラ画像レジスタ112」と「左カメラ画像レジスタ113」から出力する(C−4−8)。
(2) The standardized shortest distance parameter n d s is scanned from the lower limit value n d s, min to the upper limit value n d s, max by the “ n d s parameter scanning unit 221” (C-4-4, C -4-5, C-4-16).
(Scans n d s )
(3) The address i of each point in the image is scanned from the lower limit value i min to the upper limit value i max (C-4-6, C-4-7, C-4-15).
(Scan i)
(4) The positions i p R and i p L in the left and right cameras are output from the “right camera image register 112” and the “left camera image register 113” (C-4-8).

(5)左右カメラでの位置を「σ決定ユニット128」に入力して、両眼視差σ(すなわち、)を出力する(C−4−9)。 (5) The positions i p R and i p L at the left and right cameras are input to the “σ determination unit 128”, and the binocular parallax i σ (that is, i p L −i p R ) is output (C-4). -9).

(6)視軸方向axisを中心する半径rの円(図26)を考え、そのrを「半径rの走査ユニット222」により0からπ/2まで走査する(C−4−10,C−4−11,C−4−14)。
(rを走査)
(7)以上で設定された五つのパラメータ,paxisσ,rを「小円構成要素 s+ s−の計算ユニット223」に入力して、4.3.1(4)の二つの交点 s+ s−を出力する(C−4−12)。
(6) Consider a circle with a radius r centered on the visual axis direction a xis (FIG. 26), and scan r from 0 to π / 2 by the “scan unit 222 with radius r” (C-4-10, C -4-11, C-4-14).
(Scan r)
(7) is set above the five parameters n d s, i p R, p axis, i σ, type r to "small circle components i r n s +, i r n s- computing unit 223" Te, 4.3.1 (4) two intersections i r n s + a, i r n outputs the s-(C-4-12).

(8)その小円を構成する点 s+ s−を、「円柱配列投票ユニット224」の高さの断面円内の点”に変換して投票する(C−4−13)。
(rを走査(C−4−14))
(9)ここまでの処理で、位置の点が変換された一個の小円が、高さがの断面円内に描かれる。但し、その小円は式(201)により変換されている。
(iを走査(C−4−15))
(10)ここまでの処理で、高さがの断面円内に、“画像内の全ての点{}”が変換された小円群が描かれる。
を走査(C−4−16))
(11)ここまでの処理で、全ての高さ{}の断面円内に、“画像内の全ての点{}”が変換された小円群が描かれる。すなわち、円柱配列の全ての断面円に投票が行われる。
(axisを走査(C−4−17))
(12)ここまでの処理で、“全ての視軸方向パラメータaxisに対する円柱配列群”の全断面円に投票が行われる。
(8) the small circle point constituting the i r n s +, i r n the s-, vote and converts to a point in cross section circle of height n d s of "columnar array voting unit 224""(C -4-13).
(Scan r (C-4-14))
(9) Through the processing so far, one small circle in which the point at the position i p R has been transformed is drawn in a cross-sectional circle having a height of n d s . However, the small circle is converted by the equation (201).
(Scan i (C-4-15))
(10) In the processing up to this point, the height in the cross section circle of n d s, small circle group "all the points in the image {i p R}" is converted is drawn.
(Scans n d s (C-4-16))
(11) In the processing up to this point, in the cross-sectional circle of all heights {n d s}, small circle group "all the points in the image {i p R}" is converted is drawn. That is, voting is performed on all the cross-sectional circles of the columnar arrangement.
( Scan axis (C-4-17))
(12) by the processing up to here, the vote total cross-sectional circle of the "cylinder arrangement group for all of the visual axis direction parameter a xis" is performed.

(13)上記の円柱配列群中で、強度が最大になる“特定の円柱配列”を「ピーク抽出ユニット225」により抽出する。この配列に対する視軸方向パラメータとして、真の視軸方向axis0が求められる。また、その配列の中で強度がピークになる点を抽出すると、その点の“高さ座標”として平面の規格化最短距離が、また“断面円内の座標”として平面の3次元方位ns0が求められる。(C−4−18)。
(End)
実施形態C−5. (平面の3次元方位ns0と規格化最短距離s0の計測)
掲記の計測、すなわち、2.1の方法を図79の実施形態で説明する。それは、図80に示す以下のフローで行われる。下記の(7)から(11)までのステップは、実施形態C−1の(8)から(12)までのステップと同じである。
(Start)
(1)移動方向vを「移動方向vの抽出ユニット14」により、実施形態A−1のステップ(1)と同様にして抽出する。次に、「pinf設定ユニット15」により、この移動方向vに等しいとして“無限時間経過後の位置pinf”を設定する(C−5−1)。
(13) In the above-described columnar array group, the “specific columnar array” having the maximum intensity is extracted by the “peak extraction unit 225”. As the visual axis direction parameter for this arrangement, the true visual axis direction axis0 is obtained. Further, when a point where the intensity reaches a peak in the array is extracted, the standardized shortest distance n d s of the plane is used as the “height coordinate” of the point, and the plane three-dimensional is used as the “coordinate in the cross-sectional circle”. The direction n s0 is obtained. (C-4-18).
(End)
Embodiment C-5. (Measurement of three-dimensional orientation n s0 of plane and normalized shortest distance n d s0 )
The measurement of posting, that is, the method of 2.1 will be described in the embodiment of FIG. This is performed in the following flow shown in FIG. The following steps (7) to (11) are the same as steps (8) to (12) of the embodiment C-1.
(Start)
(1) The moving direction v is extracted by the “moving direction v extracting unit 14” in the same manner as in step (1) of the embodiment A-1. Next, the “p inf setting unit 15” sets the “position p inf after elapse of infinite time” to be equal to the moving direction v (C-5-1).

(2)規格化最短距離パラメータを「パラメータの走査ユニット221」により下限値s,minから上限値s,maxまで走査する(C−5−2,C−5−3,C−5−13)。
を走査)
(3)画像内の各点のアドレスiを下限値iminから上限値imaxまで走査する(C−5−4,C−5−5,C−5−12)。
(iを走査)
(4)現在と次の時刻の位置を「現時刻tの画像レジスタ12」と「次時刻tの画像レジスタ13」から出力する。
(2) The standardized shortest distance parameter n d s is scanned from the lower limit value n d s, min to the upper limit value n d s, max by the “ n d s parameter scanning unit 221” (C-5-2, C- 5-3, C-5-13).
(Scans n d s )
(3) The address i of each point in the image is scanned from the lower limit value i min to the upper limit value i max (C-5-4, C-5-5, C-5-12).
(Scan i)
(4) Output the current and next time positions i p 0 and i p 1 from the “image register 12 at the current time t 0 ” and the “image register 13 at the next time t 1 ”.

(5)移動方向vを中心とする半径rの円(図13)を考え、そのrを「半径rの走査ユニット222」により0からπ/2まで走査する(C−5−7,C−5−8,C−5−11)。
(rを走査)
(6)以上で設定された五つのパラメータ,pinf,rを「小円構成要素 s+ s−の計算ユニット223」に入力して、2.1(4)の二つの交点 s+ s−を出力する。この交点は、2.2.1で証明したように“を中心にする半径Rの小円”の構成要素である。この点 s+ s−の“球面上の極座標(経度 αs+ αs−、緯度 βs+ βs−)”は、式(29)をモディファイして下式で計算される。
(5) Consider a circle with a radius r centered in the moving direction v (FIG. 13), and scan r from 0 to π / 2 by the “scan unit 222 with radius r” (C-5-7, C− 5-8, C-5-11).
(Scan r)
Input set five parameters n d s (6) above, i p 0, i p 1 , p inf, the r to "small circle components i r n s +, i r n s- computing unit 223" to, 2.1 (4) two intersections i r n s + a, and outputs the i r n s-. This intersection is a component of “a small circle with radius i R centered at i p 0 ” as proved in 2.2.1. This point i r n s +, i r n s- for "polar coordinates on the sphere (longitude i r α s +, i r α s-, latitude i r β s +, i r β s-)" has the formula (29) It is calculated by the following formula.

βs+=r
βs−=r (220a)
αs+α+cos−1((( sin(b−a)/sin(b))
−cos(r)cos(a))/(sin(r)−sin(a)))
αs−α−cos−1((( sin(b−a)/sin(b))
−cos(r)cos(a))/(sin(r)−sin(a)))
(220b)
ここで、αaはの経度座標と緯度座標であり、bはの緯度座標でる(図14および図9参照)。
i r β s + = r
i r β s− = r (220a)
i r α s + = i α a + cos -1 (((n d s sin (i b- i a) / sin (i b))
-Cos (r) cos (i a )) / (sin (r) -sin (i a)))
i r α s- = i α a -cos -1 (((n d s sin (i b- i a) / sin (i b))
-Cos (r) cos (i a )) / (sin (r) -sin (i a)))
(220b)
Here, i α a and i a are the longitude and latitude coordinates of i p 0 , and i b is the latitude coordinate of i p 1 (see FIGS. 14 and 9).

(7)その小円を構成する点 s+ s−を、「円柱配列投票ユニット224」の“高さの断面円内の点”に変換して投票する(実施形態C−1のステップ(8)参照(C−5−10))。
(rを走査(C−5−11))
(8)ここまでの処理で、位置の点が変換された一個の小円が、高さがの断面円内に描かれる。但し、その小円は式(201)により変換されている。
(iを走査(C−5−12))
(9)ここまでの処理で、高さがの断面円内に、“画像内の全ての点{}”が変換された小円群が描かれる。
を走査(C−5−13))
(10)ここまでの処理で、全ての高さ{}の断面円内に、“画像内の全ての点{}”が変換された小円群が描かれる。すなわち、円柱配列の全ての断面円に投票が行われる。
(7) the small circle point constituting the i r n s +, i r n the s-, vote and converts the "point in the cross-sectional circle of height n d s" of the "cylindrical array voting unit 224" ( See step (8) in embodiment C-1 (C-5-10)).
(Scan r (C-5-11))
(8) Through the processing so far, one small circle in which the point at the position i p 0 has been transformed is drawn in the cross-sectional circle having a height of n d s . However, the small circle is converted by the equation (201).
(Scan i (C-5-12))
(9) Through the processing so far, a small circle group in which “all the points in the image { ip 0 }” are transformed is drawn in the cross-sectional circle having the height of n d s .
(Scans n d s (C-5-13))
(10) In the process up to this point, in the cross-sectional circle of all heights {n d s}, small circle group "all the points in the image {i p 0}" has been converted is drawn. That is, voting is performed on all the cross-sectional circles of the columnar arrangement.

(11)「ピーク抽出ユニット225」により、円柱配列の中で“投票された強度が極大(ピーク)になる点”を抽出する――この極大点が“小円群が一点に交差する場所”である。この極大点の“高さ座標”として平面の規格化最短距離が求められ、また“断面円内の座標”として平面の3次元方位ns0が求められる(C−5−14)。
(End)
実施形態C−6.(“平面の3次元方位ns0と規格化最短距離s0”を移動方向vを知らずに計測)
掲記の計測、すなわち“移動方向vを知らずに計測する方法(2.5)”を、2.1について行う場合を図81の実施形態で説明する。それは、図82に示す、以下のフローで行われる。下記の(2)から(10)までのステップは、実施形態C−5の対応するステップと同じである。
(11) The “peak extraction unit 225” extracts “the point where the voted intensity becomes a maximum (peak)” in the cylindrical array—this maximum point is “the place where the small circles intersect at one point” It is. The standardized shortest distance n d s of the plane is obtained as the “height coordinate” of the local maximum point, and the three-dimensional orientation n s0 of the plane is obtained as the “coordinate in the cross-sectional circle” (C-5-14).
(End)
Embodiment C-6. (Measured without knowing the direction of movement v of the "three-dimensional orientation n s0 and the normalized shortest distance n d s0 plane")
The embodiment shown in FIG. 81 will be described with respect to the case where the posted measurement, that is, the “method of measuring without knowing the moving direction v (2.5)” is performed for 2.1. It is performed according to the following flow shown in FIG. The following steps (2) to (10) are the same as the corresponding steps in the embodiment C-5.

(Start)
(0)「vパラメータの走査ユニット21」により、可能性のある全ての方向(下限値Vminから上限値vmaxまで)にわたって、“移動方向パラメータv”を走査する(C−6−1,C−6−2,C−6−16)。
(vを走査)
(1)「pinf設定ユニット15」により、“無限時間経過後の位置pinf”をこのパラメータvに等しいとして設定する(C−6−3)。
(Start)
(0) The “moving direction parameter v” is scanned in all possible directions (from the lower limit value V min to the upper limit value v max ) by the “v parameter scanning unit 21” (C-6-1, C-6-2, C-6-16).
(Scan v)
(1) The “p inf setting unit 15” sets “position p inf after infinite time has elapsed” as being equal to this parameter v (C-6-3).

(2)規格化最短距離パラメータを「パラメータの走査ユニット221」により、下限値s,minから上限値s,maxまで走査する(C−6−4,C−6−5,C−6−15)。
を走査)
(3)画像内の各点のアドレスiを下限値iminから上限値imaxまで走査する(C−6−6,C−6−7,C−6−14)。
(iを走査)
(4)現在と次の時刻の位置を「現時刻tの画像レジスタ12」と「次時刻tの画像レジスタ13」から出力する(C−6−8)。
(2) The standardized shortest distance parameter n d s is scanned from the lower limit value n d s, min to the upper limit value n d s, max by the “ n d s parameter scanning unit 221” (C-6-4, C -6-5, C-6-15).
(Scans n d s )
(3) The address i of each point in the image is scanned from the lower limit value i min to the upper limit value i max (C-6-6, C-6-7, C-6-14).
(Scan i)
(4) The current and next time positions i p 0 and i p 1 are output from the “image register 12 at the current time t 0 ” and the “image register 13 at the next time t 1 ” (C-6-8).

(5)移動方向vを中心とする半径rの円(図13)を考え、そのrを「半径rの走査ユニット222」により0からπ/2まで走査する(C−6−9,C−6−10,C−6−13)。
(rを走査)
(6)以上で設定された五つのパラメータ,pinf,rを「小円構成要素 s+ s−の計算ユニット223」に入力して、2.1(4)の二つの交点 s+ s−を出力する(C−6−11)。
(5) Consider a circle with a radius r centered in the moving direction v (FIG. 13), and scan r from 0 to π / 2 by the “scan unit 222 with radius r” (C-6-9, C− 6-10, C-6-13).
(Scan r)
Input set five parameters n d s (6) above, i p 0, i p 1 , p inf, the r to "small circle components i r n s +, i r n s- computing unit 223" to, 2.1 (4) two intersections i r n s + a, i r n outputs the s-(C-6-11).

(7)その小円を構成する点 s+ s−を、「円柱配列投票ユニット224」の“高さの断面円内の点”に変換して投票する(実施形態C−6−12)。
(rを走査(C−6−13))
(8)ここまでの処理で、位置の点が変換された一個の小円が、高さがの断面円内に描かれる。但し、その小円は式(201)により変換されている。
(iを走査(C−6−14))
(9)ここまでの処理で、高さがの断面円内に、“画像内の全ての点{}”が変換された小円群が描かれる。
を走査(C−6−15))
(10)ここまでの処理で、全ての高さ{}の断面円内に、“画像内の全ての点{}”が変換された小円群が描かれる。すなわち、円柱配列の全ての断面円に投票が行われる。
(vを走査(C−6−16))
(11)ここまでの処理で、“全ての移動方向パラメータvに対する円柱配列群”の全断面円に投票が行われる。
(7) the small circle point constituting the i r n s +, i r n the s-, vote and converts the "point in the cross-sectional circle of height n d s" of the "cylindrical array voting unit 224" ( Embodiment C-6-12).
(Scan r (C-6-13))
(8) Through the processing so far, one small circle in which the point at the position i p 0 has been transformed is drawn in the cross-sectional circle having a height of n d s . However, the small circle is converted by the equation (201).
(Scan i (C-6-14))
(9) Through the processing so far, a small circle group in which “all the points in the image { ip 0 }” are transformed is drawn in the cross-sectional circle having the height of n d s .
(Scan n d s (C-6-15) )
(10) In the process up to this point, in the cross-sectional circle of all heights {n d s}, small circle group "all the points in the image {i p 0}" has been converted is drawn. That is, voting is performed on all the cross-sectional circles of the columnar arrangement.
(Scan v (C-6-16))
(11) In the processing so far, voting is performed on all the cross-sectional circles of the “cylindrical array group for all the moving direction parameters v”.

(12)上記の円柱配列群の中で、強度が最大になる“特定の円柱配列”を「ピーク抽出ユニット225」により抽出する。この配列に対応する移動方向パラメータとして、真の移動方向vが求められる。また、その配列の中で強度がピークになる点を抽出すると、その点の“高さ座標”として平面の規格化最短距離が、また“断面円内の座標”として平面の3次元方位ns0が求められる(C−6−17)。
(End)
実施形態C−7. (平面の3次元方位ns0と規格化最短距離s0の計測)
掲記の計測、すなわち、4.3.1の方法を図83の実施形態で説明する。それは、図84に示す、以下のフローで行われる。ステップ(7)以降は、と{}をと{}に置き換えると実施形態C−5と同じである。
(Start)
(1)「paxis設定ユニット115」により、視軸上の位置paxisを視軸方向axisに等しいとして設定する(実施形態B−1のステップ(1)参照(C−7−1))。
(12) From the columnar array group, the “specific columnar array” having the maximum intensity is extracted by the “peak extraction unit 225”. As the movement direction parameter corresponding to this array, the true movement direction v 0 is obtained. Further, when a point where the intensity reaches a peak in the array is extracted, the standardized shortest distance n d s of the plane is used as the “height coordinate” of the point, and the three-dimensional plane is used as the “coordinate in the cross-sectional circle” The direction ns0 is obtained (C-6-17).
(End)
Embodiment C-7. (Measurement of three-dimensional orientation n s0 of plane and normalized shortest distance n d s0 )
The posting measurement, that is, the method of 4.3.1 will be described in the embodiment of FIG. It is performed according to the following flow shown in FIG. After step (7), if i p R and { i p R } are replaced with i p 0 and { i p 0 }, they are the same as in the embodiment C-5.
(Start)
(1) With the “p axis setting unit 115”, the position p axis on the visual axis is set to be equal to the visual axis direction a xis (see step (1) in embodiment B-1 (C-7-1)). .

(2)規格化最短距離パラメータを「パラメータの走査ユニット221」により下限値s,minから上限値s,maxまで走査する(C−7−2,C−7−3,C−7−13)。
を走査)
(3)画像内の各点のアドレスiを下限値iminから上限値imaxまで走査する(C−7−4,C−7−5,C−7−12)。
(iを走査)
(4)左右カメラでの位置を「右カメラ画像レジスタ112」と「左カメラ画像レジスタ113」から出力する(C−7−6)。
(2) The standardized shortest distance parameter n d s is scanned from the lower limit value n d s, min to the upper limit value n d s, max by the “ n d s parameter scanning unit 221” (C-7-2, C- 7-3, C-7-13).
(Scans n d s )
(3) The address i of each point in the image is scanned from the lower limit value i min to the upper limit value i max (C-7-4, C-7-5, C-7-12).
(Scan i)
(4) The positions i p R and i p L in the left and right cameras are output from the “right camera image register 112” and the “left camera image register 113” (C-7-6).

(5)視軸方向axisを中心とする半径rの円(図26)を考え、そのrを「半径rの走査ユニット222」により0からπ/2まで走査する(C−7−7,C−7−8,C−7−11)。
(rを走査)
(6)以上で設定された五つのパラメータ,paxis,rを「小円構成要素 s+ s−の計算ユニット223」に入力して、4.3.1(4)の二つの交点 s+ s−を出力する(C−7−9)。この交点は、4.3.2で証明したように“を中心にする半径Rの小円”の構成要素である。この点 s+ s−の“球面上の極座標(経度 αs+ αs−、緯度 βs+ βs−)”は、式(65c)をモディファイして下式で計算される。
(5) Consider a circle with a radius r centered on the visual axis direction a xis (FIG. 26), and scan r from 0 to π / 2 by the “scanning unit 222 with radius r” (C-7-7, C-7-8, C-7-11).
(Scan r)
Parameter n d s five set in (6) above, i p R, i p L , p axis, type r to "small circle components i r n s +, i r n s- computing unit 223" to, 4.3.1 (4) two intersections i r n s + a, i r n outputs the s- (C-7-9). This intersection is a component of “a small circle with radius iR centered on i p R ” as proved in 4.3.2. This point i r n s +, i r n s- for "polar coordinates on the sphere (longitude i r α s +, i r α s-, latitude i r β s +, i r β s-)" has the formula (65c) It is calculated by the following formula.

βs+=r
βs−=r (230a)
αs+α+cos−1((( sin(d−c)/sin(d))
−cos(r)cos(c))/(sin(r)−sin(c)))
αs−α−cos−1((( sin(d−c)/sin(d))
−cos(r)cos(c))/(sin(r)−sin(c)))
(230b)
ここで、αcはの経度座標と緯度座標であり、dはの緯度座標でる(図26および図23参照)。
i r β s + = r
i r β s− = r (230a)
i r α s + = i α c + cos -1 (((n d s sin (i d- i c) / sin (i d))
-Cos (r) cos (i c )) / (sin (r) -sin (i c)))
i r α s- = i α c -cos -1 (((n d s sin (i d- i c) / sin (i d))
-Cos (r) cos (i c )) / (sin (r) -sin (i c)))
(230b)
Here, i α c and i c are the longitude and latitude coordinates of i p R , and i d is the latitude coordinate of i p L (see FIGS. 26 and 23).

(7)この小円を構成する点 s+ s−を、「円柱配列投票ユニット224」の“高さの断面円内の点”に変換して投票する(C−7−10)。
(rを走査(C−7−11))
(8)ここまでの処理で、位置の点が変換された一個の小円が、高さがの断面円内に描かれる。但し、その小円は式(201)により変換されている。
(iを走査(C−7−12))
(9)ここまでの処理で、高さがの断面円内に、“画像内の全ての点{}”が変換された小円群が描かれる。
を走査(C−7−13)
(10)ここまでの処理で、全ての高さ{}の断面円内に、“画像内の全ての点{}”が変換された小円群が描かれる。すなわち、円柱配列の全ての断面円に投票が行われる。
(7) This point constitutes a small circle i r n s +, i r n the s-, vote and converts the "point in the cross-sectional circle of height n d s" of the "cylindrical array voting unit 224" ( C-7-10).
(Scan r (C-7-11))
(8) With the processing so far, one small circle whose point i p R has been transformed is drawn in a cross-sectional circle having a height of n d s . However, the small circle is converted by the equation (201).
(Scan i (C-7-12))
(9) In the processing up to this point, the height in the cross section circle of n d s, small circle group "all the points in the image {i p R}" is converted is drawn.
(Scan n d s (C-7-13)
(10) In the processing up to this point, in the cross-sectional circle of all heights {n d s}, small circle group "all the points in the image {i p R}" is converted is drawn. That is, voting is performed on all the cross-sectional circles of the columnar arrangement.

(11)「ピーク抽出ユニット225」により、円柱配列の中で“投票された強度が極大(ピーク)になる点”を抽出する――この極大点が“小円群が一点に交差する場所”である。この極大点の“高さ座標”として平面の規格化最短距離が求められ、また“断面円内の座標”として平面の3次元方位ns0が求められる(C−7−14)。
(End)
実施形態C−8.(“平面の3次元方位ns0と規格化最短距離s0”を視軸方向axisを知らずに計測)
掲記の計測、すなわち“視軸方向axisを知らずに計測する方法(4.3.3)”を、4.3.1について行う場合を図85の実施形態で説明する。それは、実施形態C−7をモディファイした、図86に示す、以下のフローで行われる。下記の(1)から(10)までのステップは、実施形態C−7に対応するステップと同じである。
(11) The “peak extraction unit 225” extracts “the point where the voted intensity becomes a maximum (peak)” in the cylindrical array—this maximum point is “the place where the small circles intersect at one point” It is. The standardized shortest distance n d s of the plane is obtained as the “height coordinate” of the local maximum point, and the three-dimensional orientation n s0 of the plane is obtained as the “coordinate in the cross-sectional circle” (C-7-14).
(End)
Embodiment C-8. (Measurement "3-dimensional orientation n s0 plane and the normalized shortest distance n d s0" a without knowing the visual axis direction a xis)
The case where the above-described measurement, that is, the “method for measuring without knowing the visual axis direction a xis (4.3.3)” is performed for 4.3.1 will be described with reference to the embodiment of FIG. It is performed according to the following flow shown in FIG. 86 obtained by modifying Embodiment C-7. The following steps (1) to (10) are the same as the steps corresponding to the embodiment C-7.

(Start)
(0)「axisパラメータの走査ユニット121」により、可能性のある全ての方向(下限値axis,minから上限値axis,maxまで)にわたって、“視軸方向パラメータaxis”を走査する(C−8−1,C−8−2,C−8−16)。
(axisを走査)
(1)「paxis設定ユニット115」により、“視軸上の位置paxis”をこのパラメータaxisに等しいとして設定する(C−8−3)。
(Start)
(0) The “visual axis parameter a xis ” is scanned in all possible directions (from the lower limit value a xis, min to the upper limit value a xis, max ) by the “a xi parameter scan unit 121”. (C-8-1, C-8-2, C-8-16).
( Scan axis )
(1) The “position on the visual axis p axis ” is set by the “p axis setting unit 115” to be equal to the parameter a xis (C-8-3).

(2)規格化最短距離パラメータを「パラメータの走査ユニット221」により下限値s,minから上限値s,maxまで走査する(C−8−4,C−8−5,C−8−15)。
を走査)
(3)画像内の各点のアドレスiを下限値iminから上限値imaxまで走査する(C−8−6,C−8−7,C−8−14)。
(iを走査)
(4)左右カメラでの位置を「右カメラ画像レジスタ112」と「左カメラ画像レジスタ113」から出力する(C−8−8)。
(2) The standardized shortest distance parameter n d s is scanned from the lower limit value n d s, min to the upper limit value n d s, max by the “ n d s parameter scanning unit 221” (C-8-4, C- 8-5, C-8-15).
(Scans n d s )
(3) The address i of each point in the image is scanned from the lower limit value i min to the upper limit value i max (C-8-6, C-8-7, C-8-14).
(Scan i)
(4) The positions i p R and i p L in the left and right cameras are output from the “right camera image register 112” and the “left camera image register 113” (C-8-8).

(5)視軸方向axisを中心とする半径rの円(図26)を考え、そのrを「半径rの走査ユニット222」により0からπ/2まで走査する(C−8−9,C−8−10,C−8−13)。
(rを走査)
(6)以上で設定された五つのパラメータ,paxis,rを「小円構成要素 s+ s−の計算ユニット223」に入力して、4.3.1(4)の二つの交点 s+ s−を出力する(C−8−11)。
(5) Consider a circle with a radius r centered on the visual axis direction a xis (FIG. 26), and scan r from 0 to π / 2 by the “scan unit 222 with radius r” (C-8-9, C-8-10, C-8-13).
(Scan r)
Parameter n d s five set in (6) above, i p R, i p L , p axis, type r to "small circle components i r n s +, i r n s- computing unit 223" to, 4.3.1 (4) two intersections i r n s + a, i r n outputs the s- (C-8-11).

(7)その小円を構成する点 s+ s−を、「円柱配列投票ユニット224」の“高さの断面円内の点”に変換して投票する(C−8−12)。
(rを走査(C−8−13))
(8)ここまでの処理で、位置の点が変換された一個の小円が、高さがの断面円内に描かれる。但し、その小円は式(201)により変換されている。
(iを走査(C−8−14))
(9)ここまでの処理で、高さがの断面円内に、“画像内の全ての点{}”が変換された小円群が描かれる。
を走査(C−8−15))
(10)ここまでの処理で、全ての高さ{}の断面円内に、“画像内の全ての点{}”が変換された小円群が描かれる。すなわち、円柱配列の全ての断面円に投票が行われる。
(axisを走査(C−8−16))
(11)ここまでの処理で、“全ての視軸方向パラメータaxisに対する円柱配列群”の全断面円に投票が行われる。
(7) the small circle point constituting the i r n s +, i r n the s-, vote and converts the "point in the cross-sectional circle of height n d s" of the "cylindrical array voting unit 224" ( C-8-12).
(Scan r (C-8-13))
(8) With the processing so far, one small circle whose point i p R has been transformed is drawn in a cross-sectional circle having a height of n d s . However, the small circle is converted by the equation (201).
(Scan i (C-8-14))
(9) In the processing up to this point, the height in the cross section circle of n d s, small circle group "all the points in the image {i p R}" is converted is drawn.
(Scan n d s (C-8-15) )
(10) In the processing up to this point, in the cross-sectional circle of all heights {n d s}, small circle group "all the points in the image {i p R}" is converted is drawn. That is, voting is performed on all the cross-sectional circles of the columnar arrangement.
( Scan axis (C-8-16))
(11) In the processing so far, voting is performed on all the cross-sectional circles of the “cylindrical array group for all visual axis direction parameters a xis ”.

(12)上記の円柱配列群の中で、強度が最大になる“特定の円柱配列”を「ピーク抽出ユニット225」により抽出する。この配列に対応する移動方向パラメータとして、真の移動方向axis0が求められる。また、その配列の中で強度がピークになる点を抽出すると、その点の“高さ座標”として平面の規格化最短距離が、また“断面円内の座標”として平面の3次元方位ns0が求められる(C−8−17)。
(End)
実施形態D
実施形態D−1(規格化時間)
本実施形態について図87を参照して説明する。それは、図88に示す、以下のフローで行なわれる。
(1)移動方向vを実施形態A−1のステップ(1)と同様にして抽出し、「pinf設定ユニット15」により、この移動方向vに等しいとして“無限時間経過後の位置pinf”を設定する(D−1−1)。
(2)「画素番号iの走査ユニット401」により、画像内の各点のアドレスiを下限値iminから上限値imaxまで走査する(D−1−2,D−1−3,D−1−17)。
(12) From the columnar array group, the “specific columnar array” having the maximum intensity is extracted by the “peak extraction unit 225”. As the movement direction parameter corresponding to this array, the true movement direction axis0 is obtained. Further, when a point where the intensity reaches a peak in the array is extracted, the standardized shortest distance n d s of the plane is used as the “height coordinate” of the point, and the three-dimensional plane is used as the “coordinate in the cross-sectional circle”. The direction ns0 is obtained (C-8-17).
(End)
Embodiment D
Embodiment D-1 (standardization time)
This embodiment will be described with reference to FIG. This is performed according to the following flow shown in FIG.
(1) The moving direction v is extracted in the same manner as in step (1) of the embodiment A-1, and the “p inf setting unit 15” assumes that the moving direction v is equal to the moving direction v, and “position p inf after elapse of infinite time” Is set (D-1-1).
(2) Scan the address i of each point in the image from the lower limit value i min to the upper limit value i max by “scanning unit 401 of pixel number i” (D-1-2, D-1-3, D− 1-17).

(iを走査)
(3)「を中心とする局所領域画像の切出しユニット402」により、カメラ11で得られた現時刻tと次時刻tの各画像から“アドレスiに対応する画素”を中心とする各局所領域画像(特開平09−081369号公報の図1および信学技報(川上、岡本、 vol. IE−19, pp.31−38, 1996)の図1を参照)を、図159の左端に示すように、現時刻tと次時刻tについて切り出す(D−1−4)。
(4)「運動視差番号kの走査ユニット403」により、運動視差番号kを下限値kminから上限値kmaxまで走査する(D−1−5,D−1−6,D−1−16)。 (kを走査)
(5)この番号kは運動視差のシリアル番号であり、運動視差τすなわち動きベクトル(τ τ)と図160に示すように対応している。「運動視差τ変換ユニット404」によりこの対応付けを行なって、運動視差τを出力する(D−1−7)。
(Scan i)
(3) by "i p 0 cutout unit 402 of the local region image centered on the" pixel i p 0 corresponding to "address i from each image of the present time t 0 obtained following the time t 1 at the camera 11 (See FIG. 1 of JP-A-09-081369 and FIG. 1 of the IEICE Technical Report (Kawakami, Okamoto, vol. IE-19, pp. 31-38, 1996)) the, as shown in the left end of FIG. 159, is cut out for the current time t 0 and following the time t 1 (D-1-4).
(4) The motion parallax number k is scanned from the lower limit value k min to the upper limit value k max by the “scanning unit 403 of motion parallax number k” (D-1-5, D-1-6, D-1-16). ). (Scan k)
(5) This number k is a serial number of motion parallax and corresponds to the motion parallax k τ, that is, the motion vector ( k τ x k τ y ) as shown in FIG. This association is performed by the “motion parallax k τ conversion unit 404”, and the motion parallax k τ is output (D-1-7).

但し、運動視差τすなわち動きベクトル(τ τ)の方向が、図10(A)の“からv(すなわち、pinf)への方向”と違っているときは、この移動方向vと矛盾する運動視差のため、ステップ(10)までをスキップする(D−1−8)。
(6)以上で設定された“現時刻tと次時刻tの局所領域画像”および運動視差τを「運動視差検出ユニット405」(図159参照)に入力して、応答強度を下式で計算する(D−1−9)。
However, when the motion parallax k τ, that is, the direction of the motion vector ( k τ x k τ y ) is different from the “direction from i p 0 to v (ie, p inf )” in FIG. Due to the motion parallax that contradicts this moving direction v, step (10) is skipped (D-1-8).
(6) The “local region image at the current time t 0 and the next time t 1 ” and the motion parallax k τ set above are input to the “motion parallax detection unit 405” (see FIG. 159) to reduce the response intensity. Calculate with the equation (D-1-9).

応答強度=ΣΣ (x,y)(x−τ,y−τ) (301)
ここで、(x,y)は、現時刻の局所領域画像(図159左上)内の(x,y)画素の強度であり、(x,y)は次時刻の局所領域画像(図159左下)内の(x,y)画素の強度である。
Response intensity = Σ x Σ y i a 0 (x, y) i a 1 (x- k τ x, y- k τ y) (301)
Here, i a 0 (x, y) is the intensity of the (x, y) pixel in the local region image (upper left of FIG. 159) at the current time, and i a 1 (x, y) is the local at the next time. This is the intensity of (x, y) pixels in the region image (lower left of FIG. 159).

なお、この応答強度の計算は簡単のために2次元相関で示したが、例えば、MPEG2エンコーダーに標準的に用いられている差分絶対値による2次元相関、乗算的演算による2次元相関、ハフ変換と逆ハフ変換による相関(“2次元相関およびコンボリューションをハフ平面のρ座標に沿って1次元的に行う方法,” 川上と岡本, 信学技報, vol. IE96−19, pp.31−38, 1996、および特開平05−165956号公報、特開平05−165957号公報、特開平06−044364号公報、特開平09−081369号公報 参照)でもよい。また、微分勾配法などの速度を検出する方法でもよい。すなわち、この応答強度は、画素の強度に基いて求められるものであればよい。この点、本発明の、応答強度を求める全ての実施形態について同様である。
(7)規格化時間パラメータを「パラメータの走査ユニット16」により、下限値c,minから上限値c,maxまで走査する(D−1−10,D−1−11,D−1−15)。
The calculation of the response intensity is shown as a two-dimensional correlation for the sake of simplicity. For example, the two-dimensional correlation based on the differential absolute value that is normally used in the MPEG2 encoder, the two-dimensional correlation based on the multiplication operation, and the Hough transform. And correlation by inverse Hough transform (“Method of performing two-dimensional correlation and convolution one-dimensionally along the ρ coordinate of the Hough plane,” Kawakami and Okamoto, IEICE Technical Report, vol. IE 96-19, pp. 31- 38, 1996, and Japanese Patent Laid-Open No. 05-165958, Japanese Patent Laid-Open No. 05-165957, Japanese Patent Laid-Open No. 06-044364, Japanese Patent Laid-Open No. 09-08369. Further, a method of detecting speed such as a differential gradient method may be used. That is, this response intensity may be obtained based on the intensity of the pixel. This is the same for all embodiments of the present invention for obtaining response strength.
(7) a normalized time parameter n t c by 'n t c parameters of the scanning unit 16 ", scanning the lower limit n t c, the min limit n t c, until max (D-1-10, D- 1-11, D-1-15).

を走査)
前掲の実施形態A−6と同じ処理で、以下が行なわれる。但し、本実施形態では、実施形態A−6とは異なり、以下のステップ(10)において「運動視差検出ユニットの応答強度を投票する」という処理が行なわれる。
(8)「変換ユニット406」では画素番号iが画素に変換され、以上で設定された四つのパラメータτ,,pinfを「複比変換ユニット17」に入力して、位置ikを出力する(D−1−12)。
(9)上記の位置ikを「極変換ユニット18」により球面上の大円に極変換して、その大円を構成する点群の位置{ikGC}を出力する(D−1−13)。
(Scans n t c )
The following is performed in the same process as in the above-described embodiment A-6. However, in the present embodiment, unlike the embodiment A-6, the process of “voting the response intensity of the motion parallax detection unit” is performed in the following step (10).
(8) In the “ i p 0 conversion unit 406”, the pixel number i is converted into the pixel i p 0 , and the four parameters n t c , k τ, i p 0 , and p inf set as described above are converted into “multi-ratio conversion”. enter the unit 17 ", and outputs the position ik p c (D-1-12) .
(9) the position ik p c and polar transformation on a great circle on the sphere by the "polar transformation unit 18", and outputs the position of a point group constituting the great circle {ik p GC} (D- 1 -13).

なお、前掲の実施形態A−6では、ikτ,ikikGCτ,GCと記されている。
(10)「円柱配列投票ユニット19」の“高さの大円上の点群”に、“運動視差検出ユニット405の応答強度”を投票する(D−1−14)。ここまでの処理で、位置の点が“複比変換および極変換”された一個の大円が、高さがの断面円内に描かれる。
In supra embodiment A-6, ik τ, ik p c, ik p GC is i tau, i p c, are marked as i p GC.
(10) Vote “response intensity of motion parallax detection unit 405” to “point group on great circle of height n t c ” of “cylindrical array voting unit 19” (D-1-14). By the process so far, one great circle in which the point at the position i p 0 has been “multi-ratio transformed and pole transformed” is drawn in the cross-sectional circle having the height n t c .

尚、ここでは円柱配列としたが、本発明の全ての実施形態(全ての図も含めて)において‘円柱’である必要はなく、3自由度配列と一般化してもよい。その場合には、上記の大円はそれに対応した曲線になる。   Note that although a cylindrical arrangement is used here, it is not necessary to be a “cylindrical” in all the embodiments of the present invention (including all the drawings), and may be generalized as a three-degree-of-freedom arrangement. In that case, the great circle is a curve corresponding to it.

を走査(D−1−15))
(kを走査(D−1−16))
(iを走査(D−1−17))
(11)ここまでの処理で、全ての高さ{}の断面円内に、“画像内の全ての点{}”が複比変換および極変換された大円群が描かれる。すなわち、円柱配列の全ての断面円に投票が行なわれる。
(12)「ピーク抽出ユニット20」により、円柱配列の中で“投票された強度が極大(ピーク)になる点”を抽出する――この極大点が“大円群が一点に交差する場所”である。この極大点の“高さ座標”として“平面を横切るまでの規格化時間c0”が求められ、また“断面円内の座標”として平面の3次元方位ns0が求められる(D−1−18)。
(Scanning n t c (D-1-15))
(Scan k (D-1-16))
(Scan i (D-1-17))
(11) In the processing up to this point, in the cross-sectional circle of all heights {n t c}, "all the points in the image {i p 0}" is the cross-ratio conversion and polar transformed great circles group be painted. That is, voting is performed for all the cross-sectional circles in the columnar arrangement.
(12) The “peak extraction unit 20” extracts “the point where the voted intensity becomes a maximum (peak)” in the cylindrical array—this maximum point is “the place where the great circles intersect at one point” It is. As the “height coordinate” of this local maximum point, “normalized time n t c0 until crossing the plane” is obtained, and as the “coordinate in the cross-sectional circle”, the three-dimensional orientation n s0 of the plane is obtained (D−1). -18).

尚、ここでは規格化時間としたが、Δtが一定のため、絶対時間t(すなわち、Δt)でもよい。この点は、本発明の、規格化時間を取扱う全ての実施形態について同様である。 Although the normalized time n t c is used here, since Δt is constant, an absolute time t c (that is, n t c Δt) may be used. This is the same for all embodiments of the present invention that deal with the normalized time n t c .

実施形態D−2(規格化時間+v未知)
本実施形態について図89のブロック図を参照して説明する。それは、図90のフローで行なわれる。
Embodiment D-2 (standardized time + v unknown)
This embodiment will be described with reference to the block diagram of FIG. This is done in the flow of FIG.

下記の(2)から(11)までのステップは、実施形態D−1の対応するステップと同じである。
(0)「vパラメータの走査ユニット21」により、可能性のある全ての方向(下限値vminから上限値vmaxまで)にわたって、“移動方向パラメータv”を走査する(D−2−1,D−2−2,D−2−20)。
The following steps (2) to (11) are the same as the corresponding steps in the embodiment D-1.
(0) The “moving direction parameter v” is scanned by the “v parameter scanning unit 21” in all possible directions (from the lower limit value v min to the upper limit value v max ) (D-2-1, D-2-2, D-2-20).

(vを走査)
(1)「pinf設定ユニット15」により、“無限時間経過後の位置pinf”をこのパラメータvに等しいとして設定する(D−2−3)。
(2)「画像番号iの走査ユニット401」により、画像内の各点のアドレスを下限値iminから上限値imaxまで走査する(D−2−4,D−2−5,d−2−19)。
(Scan v)
(1) The “p inf setting unit 15” sets “position p inf after infinite time has elapsed” as being equal to this parameter v (D-2-3).
(2) The address of each point in the image is scanned from the lower limit value i min to the upper limit value i max by the “scan unit 401 of image number i” (D-2-4, D-2-5, d-2). -19).

(iを走査)
(3)実施形態D−1のステップ(3)と同様にして、「 を中心とする局所領域画像の切出しユニット402」により、カメラ11で得られた現時刻tと次時刻tの各画像から、“アドレスiに対応する画素”を中心とする各局所領域画像を、現時刻tと次時刻tについて切り出す(D−2−6)。
(4)「運動視差番号kの走査ユニット403」により、運動視差番号kを下限値kminから上限値kmaxまで走査する(D−2−7,D−2−8,D−2−18)。
(Scan i)
(3) In the same manner as in step (3) of Embodiment D-1, the current time t 0 and the next time t obtained by the camera 11 by the “local region image cutting unit 402 centered on i p 0 ” are used. Each local region image centered on “pixel i p 0 corresponding to address i” is cut out from each image of 1 at the current time t 0 and the next time t 1 (D-2-6).
(4) The motion parallax number k is scanned from the lower limit value k min to the upper limit value k max by the “scan unit 403 with motion parallax number k” (D-2-7, D-2-8, D-2-18). ).

(kを走査)
(5)実施形態D−1のステップ(5)と同様にして、「運動視差τ変換ユニット404」により、この番号kを運動視差τに変換して出力する(D−2−9)。
(Scan k)
(5) In the same manner as in step (5) of Embodiment D-1, the “motion parallax k τ conversion unit 404” converts this number k into a motion parallax k τ and outputs it (D-2-9) .

但し、運動視差τすなわち動きベクトル(τ τ)の方向が、図10(A)の“からv(すなわち、pinf)への方向”と違っているときは、この移動方向vと矛盾する運動視差のため、ステップ(10)までをスキップする(D−2−10)。
(6)以上で設定された“現時刻tと次時刻tの局所領域画像”および運動視差τを「運動視差検出ユニット405」(図159参照)に入力して、応答強度を下式で計算する(D−2−11)。
However, when the motion parallax k τ, that is, the direction of the motion vector ( k τ x k τ y ) is different from the “direction from i p 0 to v (ie, p inf )” in FIG. Due to the motion parallax that contradicts this moving direction v, the steps up to step (10) are skipped (D-2-10).
(6) The “local region image at the current time t 0 and the next time t 1 ” and the motion parallax k τ set above are input to the “motion parallax detection unit 405” (see FIG. 159) to reduce the response intensity. Calculate with the formula (D-2-11).

応答強度=ΣΣ (x,y)(x−τ,y−τ
(7)規格化時間パラメータを「パラメータの走査ユニット16」により、下限値c,minから上限値c,maxまで走査する(D−2−12,D−2−13,D−2−17)。
Response intensity = Σ x Σ y i a 0 (x, y) i a 1 (x- k τ x, y- k τ y)
(7) The normalization time parameter n t c is scanned from the lower limit value n t c, min to the upper limit value n t c, max by the “ n t c parameter scanning unit 16” (D-2-12, D− 2-13, D-2-17).

を走査)
前掲の実施形態A−6と同じ処理で、以下が行なわれる。但し、本実施形態では、実施形態A―6とは異なり、ステップ(10)において「運動視差検出ユニットの応答強度を投票する」という処理が行なわれている。
(8)「変換ユニット406」では画素番号iが画素に変換され、以上で設定された四つのパラメータτ,,pinfを「複比変換ユニット17」に入力して、位置ikを出力する(D−2−14)。
(9)上記の位置ikを「極変換ユニット18」により球面上の大円に極変換して、その大円を構成する点群の位置{ikGC}を出力する(D−2−15)。
(10)「円柱配列投票ユニット19」の“高さの大円上の点群”に、“運動視差検出ユニット405の応答強度”を投票する(D−2−16)。ここまでの処理で、位置の点が“複比変換および極変換”された一個の大円が、高さがの断面円内に描かれる。
(Scans n t c )
The following is performed in the same process as in the above-described embodiment A-6. However, in the present embodiment, unlike Embodiment A-6, the process of “voting the response intensity of the motion parallax detection unit” is performed in Step (10).
(8) In the “ i p 0 conversion unit 406”, the pixel number i is converted into the pixel i p 0 , and the four parameters n t c , k τ, i p 0 , and p inf set as described above are converted into “multi-ratio conversion”. enter the unit 17 ", and outputs the position ik p c (D-2-14) .
(9) the position ik p c and polar transformation on a great circle on the sphere by the "polar transformation unit 18", and outputs the position {ik p GC} of the points that constitute the great circle (D-2 -15).
(10) Vote “response intensity of motion parallax detection unit 405” to “point cloud on great circle of height n t c ” of “cylindrical array voting unit 19” (D-2-16). By the process so far, one great circle in which the point at the position i p 0 has been “multi-ratio transformed and pole transformed” is drawn in the cross-sectional circle having the height n t c .

を走査(D−2−17))
(kを走査(D−2−18))
(iを走査(D−2−19))
(11)ここまでの処理で、全ての高さ{}の断面円内に、“画像内の全ての点{}”が複比変換および極変換された大円群が描かれる。すなわち、円柱配列の全ての断面円に投票が行なわれる。
(Scanning n t c (D-2-17))
(Scan k (D-2-18))
(Scan i (D-2-19))
(11) In the processing up to this point, in the cross-sectional circle of all heights {n t c}, "all the points in the image {i p 0}" is the cross-ratio conversion and polar transformed great circles group be painted. That is, voting is performed for all the cross-sectional circles in the columnar arrangement.

(vを走査(D−2−20))
(12)ここまでの処理で、“全ての移動方向パラメータvに対する円柱配列群”の全断面円に投票が行われる。
(13)上記の円柱配列群の中で、強度が最大になる“特定の円柱配列”を「ピーク抽出ユニット20」により抽出する。この配列に対する移動方向パラメータとして、真の移動方向vが求められる。また、その配列の中で強度がピークになる点を抽出すると、その点の“高さ座標”として平面を横切るまでの規格化時間c0が、また“断面円内の座標”として平面の3次元方位ns0が求められる(D−2−21)。
(Scanning v (D-2-20))
(12) In the process so far, voting is performed on all the cross-sectional circles of the “cylindrical array group for all moving direction parameters v”.
(13) From the above-described columnar array group, the “specific columnar array” having the maximum intensity is extracted by the “peak extraction unit 20”. As the movement direction parameter for this array, the true movement direction v 0 is obtained. Further, when a point at which the intensity reaches a peak in the array is extracted, the normalization time n t c0 until the plane is crossed as the “height coordinate” of the point is obtained, and the coordinate of the plane is obtained as “coordinate in the cross-sectional circle”. A three-dimensional orientation ns0 is obtained (D-2-21).

実施形態D−3(規格化最短距離)
図91は、本実施形態D−3のブロック図、図92はその実施形態D−3のフローチャートである。
(1)移動方向vを実施形態A−1のステップ(1)と同様にして抽出し、「pinf設定ユニット15」により、この移動方向vに等しいとして“無限時間経過後の位置pinf”を設定する(D−3−1)。
(2)「画素番号iの走査ユニット401」により、画像内の各点のアドレスiを下限値iminから上限値imaxまで走査する(D−3−2,D−3−3,D−3−17)。
Embodiment D-3 (standardized shortest distance)
FIG. 91 is a block diagram of the present embodiment D-3, and FIG. 92 is a flowchart of the embodiment D-3.
(1) The moving direction v is extracted in the same manner as in step (1) of the embodiment A-1, and the “p inf setting unit 15” assumes that the moving direction v is equal to the moving direction v, and “position p inf after elapse of infinite time” Is set (D-3-1).
(2) The address “i” of each point in the image is scanned from the lower limit value i min to the upper limit value i max by the “scanning unit 401 of pixel number i” (D-3-2, D-3-3, D− 3-17).

(iを走査)
(3)実施形態D−1のステップ(3)と同様にして、「を中心とする局所領域画像の切出しユニット402」により、カメラ11で得られた現時刻tと次時刻tの各画像から、“アドレスiに対応する画素”を中心とする各局所領域画像を、現時刻tと次時刻tについて切り出す(D−3−4)。
(4)「運動視差ユニットkの走査ユニット403」により、運動視差番号kを下限値kminから上限値kmaxまで走査する(D−3−5,D−3−6,D−3−16)。
(Scan i)
(3) In the same manner as in step (3) of Embodiment D-1, the current time t 0 and the next time t obtained by the camera 11 by the “local region image cutting unit 402 centered on i p 0 ” are used. Each local area image centered on “pixel i p 0 corresponding to address i” is cut out from each image of 1 at the current time t 0 and the next time t 1 (D-3-4).
(4) The motion parallax number k is scanned from the lower limit value k min to the upper limit value k max by the “scanning unit 403 of the motion parallax unit k” (D-3-5, D-3-6, D-3-16). ).

(kを走査)
(5)実施形態D−1のステップ(5)と同様にして、「運動視差τ変換ユニット404」により、この番号kを運動視差τに変換して出力する(D−3−7)。但し、運動視差τすなわち動きベクトル(τ τ)の方向が、図10(A)の“からv(すなわち、pinf)への方向”と違っているときは、この移動方向vと矛盾する運動視差のため、ステップ(10)までをスキップする(D−3−8)。
(6)実施形態D−1のステップ(6)と同様にして、“現時刻tと次時刻tの局所領域画像”および運動視差τを「運動視差検出ユニット405」(図159参照)に入力して、応答強度を下式で計算する(D−3−9)。
(Scan k)
(5) In the same manner as in step (5) of Embodiment D-1, the “motion parallax k τ conversion unit 404” converts this number k into a motion parallax k τ and outputs it (D-3-7). . However, when the motion parallax k τ, that is, the direction of the motion vector ( k τ x k τ y ) is different from the “direction from i p 0 to v (ie, p inf )” in FIG. Due to the motion parallax that contradicts this moving direction v, the steps up to step (10) are skipped (D-3-8).
(6) Similarly to step (6) in Embodiment D-1, “local parallax images at current time t 0 and next time t 1 ” and motion parallax k τ are expressed as “motion parallax detection unit 405” (see FIG. 159). ) And the response intensity is calculated by the following equation (D-3-9).

応答強度=ΣΣ (x,y)(x−τ,y−τ
(7)規格化最短距離パラメータを「パラメータの走査ユニット22」により下限値s,minから上限値s,maxまで走査する。
Response intensity = Σ x Σ y i a 0 (x, y) i a 1 (x- k τ x, y- k τ y)
(7) The standardized shortest distance parameter n d s is scanned from the lower limit value n d s, min to the upper limit value n d s, max by the “ n d s parameter scanning unit 22”.

を走査)
前掲の実施形態A−8と同じ処理で、以下が行なわれる。但し、本実施形態では、実施形態A−8とは異なり、ステップ(10)において「運動視差検出ユニットの応答強度を投票する」という処理が行なわれる。
(8)「変換ユニット406」では画素番号iが画素に変換され、以上で設定された四つのパラメータτ,,pinfを実施形態A−8のステップ(6)と同様にして、「半径Rの計算ユニット23」に入力して、半径ikRと位置を出力する(D−3−12)。そのユニット23の中で、半径ikRが下式で計算される。
(Scans n d s )
The following is performed in the same processing as in the above-described embodiment A-8. However, in this embodiment, unlike Embodiment A-8, a process of “voting the response intensity of the motion parallax detection unit” is performed in Step (10).
(8) In the “ i p 0 conversion unit 406”, the pixel number i is converted into the pixel i p 0 , and the four parameters n d s , k τ, i p 0 , and p inf set as described above are used in the embodiment A- In the same manner as in step (6) of FIG. 8, the “radius R calculation unit 23” is input, and the radius ik R and the position i p 0 are output (D-3-12). In the unit 23, the radius ik R is calculated by the following equation.

ikR=cos−1 sin τ/sin(a+τ))
(9)実施形態A−8のステップ(7)と同様にして、この半径ikRと位置を「小円変換ユニット24」に入力して、位置を中心とする半径ikRの“球面円の小円”に変換する(D−3−13)。
(10)実施形態A−8のステップ(8)から(9)と同様にして、「円柱配列投票ユニット25」の“高さの小円上の点群”にステップ(6)の運動視差検出ユニット405の応答強度を投票する(D−3−14)。ここまでの処理で、位置の点が小円変換された一個の小円が、高さがの断面円内に描かれる。
ik R = cos -1 (n d s sin k τ / sin (i a + k τ))
(9) In the same manner as in step (7) of Embodiment A-8, the radius ik R and the position i p 0 are input to the “small circle conversion unit 24”, and the radius ik centered on the position i p 0 is entered. It is converted into a “small circle of a spherical surface” of R (D-3-13).
(10) In the same manner from Step embodiment A-8 (8) and (9), the "columnar array voting unit 25" for "height n d point group on the small circle of s" Step (6) The response intensity of the motion parallax detection unit 405 is voted (D-3-14). By the processing so far, one small circle obtained by converting the point at the position i p 0 into a small circle is drawn in a cross-sectional circle having a height of n d s .

を走査(D−3−15))
(kを走査(D−3−16))
(iを走査(D−3−17))
(11)ここまでの処理で、全ての高さ{}の断面円内に、“画像内の全ての点{}”が小円変換された小円群が描かれる。すなわち、円柱配列の全ての断面円に投票が行なわれる。
(12)「ピーク抽出ユニット26」により、円柱配列の中で“投票された強度が極大になる点”を抽出する――この極大点が“小円群が一点に交差する場所”である。この極大点の“高さ座標”として“平面までの規格化最短距離s0”が求められ、また“断面円内の座標”として平面の3次元方位ns0が求められる(D−3−18)。
(Scanning n d s (D-3-15))
(Scan k (D-3-16))
(Scan i (D-3-17))
(11) In the processing up to this point, in the cross-sectional circle of all heights {n d s}, small circle group "all the points in the image {i p 0}" it is converted small circle is drawn. That is, voting is performed for all the cross-sectional circles in the columnar arrangement.
(12) The “peak extraction unit 26” extracts “the point where the voted intensity is maximized” in the cylindrical arrangement—this maximum point is “the place where the small circles intersect at one point”. The maxima as "height coordinate""normalized shortest distance n d s0 to plane" is determined, the 3-dimensional orientation n s0 plane as "the coordinates of the cross section circle" is obtained (D-3- 18).

実施形態D−4(規格化最短距離+v未知)
本実施形態について、図93のブロック図を参照して説明する。これは、図94に示す以下のフローに従って実行される。
Embodiment D-4 (standardized shortest distance + v unknown)
This embodiment will be described with reference to the block diagram of FIG. This is executed according to the following flow shown in FIG.

下記の(2)から(11)までのステップは、実施形態D−3の対応するステップと同じである。
(0)「vパラメータの走査ユニット21」により、可能性のある全ての方向(下限値vminから上限値vmaxまで)にわたって、“移動方向パラメータv”を走査する(D−4−1,D−4−2,D−4−20)。
The following steps (2) to (11) are the same as the corresponding steps in the embodiment D-3.
(0) The “moving direction parameter v” is scanned by the “v parameter scanning unit 21” in all possible directions (from the lower limit value v min to the upper limit value v max ) (D-4-1, D-4-2, D-4-20).

(vを走査)
(1)「pinf設定ユニット15」により、“無限時間経過後の位置pinf”をこのパラメータvに等しいとして設定する(D−4−3)。
(2)「画素番号iの走査ユニット401」により、画像内の各点のアドレスを下限値iminから上限値imaxまで走査する(D−4−4,D−4−5,D−4−19)。
(Scan v)
(1) The “p inf setting unit 15” sets “position p inf after infinite time has elapsed” to be equal to this parameter v (D-4-3).
(2) The address of each point in the image is scanned from the lower limit value i min to the upper limit value i max by “scanning unit 401 of pixel number i” (D-4-4, D-4-5, D-4). -19).

(iを走査)
(3)実施形態D−1のステップ(3)と同様にして、「を中心とする局所領域画像の切出しユニット402」により、カメラ11で得られた現時刻tと次時刻tの各画像から、“アドレスiに対応する画素”を中心とする各局所領域画像を、現時刻tと次時刻tについて切り出す(D−4−6)。
(4)「運動視差番号kの走査ユニット403」により、運動視差番号kを下限値kminから上限値kmaxまで走査する(D−4−7,D−4−8,D−4−18)。
(Scan i)
(3) In the same manner as in step (3) of Embodiment D-1, the current time t 0 and the next time t obtained by the camera 11 by the “local region image cutting unit 402 centered on i p 0 ” are used. Each local region image centered on “pixel i p 0 corresponding to address i” is cut out from each image of 1 at the current time t 0 and the next time t 1 (D-4-6).
(4) The motion parallax number k is scanned from the lower limit value k min to the upper limit value k max by the “scan unit 403 of motion parallax number k” (D-4-7, D-4-8, D-4-18). ).

(kを走査)
(5)実施形態D−1のステップ(5)と同様にして、「運動視差τ変換ユニット404」により、この番号kを運動視差τに変換して出力する(D−4−9)。但し、運動視差τすなわち動きベクトル(τ τ)の方向が、図10(A)の“からv(すなわち、pinf)への方向”と違っているときは、この移動方向vと矛盾する運動視差のため、ステップ(10)までをスキップする(D−4−10)。
(6)実施形態D−1のステップ(6)と同様にして、“現時刻tと次時刻tの局所領域画像”および運動視差τを「運動視差検出ユニット405」(図159)に入力して、応答強度を下式で計算する(D−4−11)。
(Scan k)
(5) In the same manner as in step (5) of Embodiment D-1, the “motion parallax k τ conversion unit 404” converts this number k into motion parallax k τ and outputs it (D-4-9). . However, when the motion parallax k τ, that is, the direction of the motion vector ( k τ x k τ y ) is different from the “direction from i p 0 to v (ie, p inf )” in FIG. Due to the motion parallax that contradicts this moving direction v, step (10) is skipped (D-4-10).
(6) In the same manner as in step (6) of Embodiment D-1, “local image of current time t 0 and next time t 1 ” and motion parallax k τ are expressed as “motion parallax detection unit 405” (FIG. 159). And the response intensity is calculated by the following equation (D-4-11).

応答強度=ΣΣ (x,y)(x−τ,y−τ
(7)規格化最短距離パラメータを「パラメータの走査ユニット22」により、下限値s,minから上限値s,maxまで走査する(D−4−12,D−4−13,D−4−17)。
Response intensity = Σ x Σ y i a 0 (x, y) i a 1 (x- k τ x, y- k τ y)
(7) The standardized shortest distance parameter n d s is scanned from the lower limit value n d s, min to the upper limit value n d s, max by the “ n d s parameter scanning unit 22” (D-4-12, D -4-13, D-4-17).

を走査)
前掲の実施形態A−8と同じ処理で、以下が行なわれる。但し、本実施形態では、実施形態A−8とは異なり、ステップ(10)において、「運動視差検出ユニットの応答強度を投票する」という処理が行なわれる。
(8)「変換ユニット406」では画素番号iが画素に変換され、以上で設定された四つのパラメータτ,,pinfを、実施形態A−8のステップ(6)と同様にして、「半径Rの計算ユニット23」に入力して、半径ikRと位置を出力する(D−4−14)。そのユニット23の中で、半径ikRが下式で計算される。
(Scans n d s )
The following is performed in the same processing as in the above-described embodiment A-8. However, in this embodiment, unlike Embodiment A-8, in step (10), a process of “voting the response intensity of the motion parallax detection unit” is performed.
(8) In the “conversion unit 406”, the pixel number i is converted into a pixel, and the four parameters n d s , k τ, i p 0 , and p inf set above are used as the step (6) of the embodiment A-8. In the same manner as in (2), the “radius R calculation unit 23” is input, and the radius ik R and the position i p 0 are output (D-4-14). In the unit 23, the radius ik R is calculated by the following equation.

ikR=cos−1 sin τ/sin(a+τ))
(9)実施形態A−8のステップ(7)と同様にして、この半径ikRと位置を「小円変換ユニット24」に入力して、位置を中心とする半径ikRの“球面円の小円”に変換する(D−4−15)。
(10)実施形態A−8のステップ(8)から(9)と同様にして、「円柱配列投票ユニット25」の“高さの小円上の点群”にステップ(6)の運動視差検出ユニット405の応答強度を投票する(D−4−16)。ここまでの処理で、位置の点が小円変換された一個の小円が、高さがの断面円内に描かれる。
ik R = cos -1 (n d s sin k τ / sin (i a + k τ))
(9) In the same manner as in step (7) of Embodiment A-8, the radius ik R and the position i p 0 are input to the “small circle conversion unit 24”, and the radius ik centered on the position i p 0 is entered. It is converted into a “spherical circle small circle” of R (D-4-15).
(10) In the same manner from Step embodiment A-8 (8) and (9), the "columnar array voting unit 25" for "height n d point group on the small circle of s" Step (6) The response intensity of the motion parallax detection unit 405 is voted (D-4-16). By the processing so far, one small circle obtained by converting the point at the position i p 0 into a small circle is drawn in a cross-sectional circle having a height of n d s .

を走査(D−4−17))
(kを走査(D−4−18))
(iを走査(D−4−19))
(11)ここまでの処理で、全ての高さ{}の断面円内に、“画像内の全ての点{}”が小円変換された小円群が描かれる。すなわち、円柱配列の全ての断面円に投票が行なわれる。
(Scans n d s (D-4-17))
(Scan k (D-4-18))
(Scan i (D-4-19))
(11) In the processing up to this point, in the cross-sectional circle of all heights {n d s}, small circle group "all the points in the image {i p 0}" it is converted small circle is drawn. That is, voting is performed for all the cross-sectional circles in the columnar arrangement.

(vを走査(D−4−20))
(12)ここまでの処理で、“全ての移動方向パラメータvに対する円柱配列群”の全断面に投票が行なわれる。
(13)上記の円柱配列群の中で、強度が最大になる“特定の円柱配列”を「ピーク抽出ユニット26」により抽出する。この配列に対する移動方向パラメータとして、真の移動方向vが求められる。また、その配列の中で強度がピークになる点を抽出すると、その点の“高さ座標”として平面までの規格化最短距離が、また“断面円内の座標”として平面の3次元方位ns0が求められる(D−4−21)。
(Scanning v (D-4-20))
(12) In the process so far, voting is performed on all cross sections of the “cylindrical array group for all moving direction parameters v”.
(13) From the above-described columnar array group, the “specific columnar array” having the maximum intensity is extracted by the “peak extraction unit 26”. As the movement direction parameter for this array, the true movement direction v 0 is obtained. Further, when a point where the intensity reaches a peak in the array is extracted, the standardized shortest distance n d s to the plane is used as the “height coordinate” of the point, and the plane 3 is used as the “coordinate in the cross-sectional circle”. The dimension orientation ns0 is obtained (D-4-21).

実施形態D−5(ステレオ+規格化距離)
図95は、本実施形態D−5を示すブロック図、図96は、そのフローチャートである。
(1)前掲の実施形態B−1と同様、「paxis設定ユニット115」により、視軸上の位置paxisを視軸方向axisに等しいとして設定する(D−5−1)。
(2)「画素番号iの走査ユニット421」により、画像内の各点のアドレスiを下限値iminから上限値imaxまで走査する(D−5−2,D−5−3,D−5−3−17)。
Embodiment D-5 (stereo + normalized distance)
FIG. 95 is a block diagram showing the embodiment D-5, and FIG. 96 is its flowchart.
(1) As in the above-described embodiment B-1, the “p axis setting unit 115” sets the position p axis on the visual axis as equal to the visual axis direction a xis (D-5-1).
(2) The “scan unit 421 of pixel number i” scans the address i of each point in the image from the lower limit value i min to the upper limit value i max (D-5-2, D-5-3, D- 5-3-17).

(iを走査)
(3)「を中心とする局所領域画像の切出しユニット422」により、“アドレスiに対する”を中心とする局所領域画像を、図167の左端に示すように、右および左カメラ412,413で得られた各画像から切り出す(D−5−4)。
(4)「両眼視差番号kの走査ユニット423」により、両眼視差番号kを下限値kminから上限値kmaxまで走査する(D−5−5,D−5−6,D−5−16)。
(Scan i)
(3) by "clipping unit 422 of the local region image centered on the i p R", the local region image centered on the "i p R for the address i", as shown at the left end of FIG. 167, right and left It cuts out from each image obtained with the cameras 412 and 413 (D-5-4).
(4) The “binocular parallax number k scanning unit 423” scans the binocular parallax number k from the lower limit value k min to the upper limit value k max (D-5-5, D-5-6, D-5). -16).

(kを走査)
(5)この番号kは両眼視差のシリアル番号であり、両眼視差σすなわち視差ベクトル(σ σ)と図168に示すように対応している。「両眼視差σ変換ユニット424」によりこの対応付けを行なって、両眼視差σを出力する(D−5−7)。
(Scan k)
(5) This number k is a serial number of binocular parallax and corresponds to binocular parallax k σ, that is, a parallax vector ( k σ x k σ y ) as shown in FIG. This association is performed by the “binocular parallax k σ conversion unit 424”, and the binocular parallax k σ is output (D-5-7).

但し、両眼視差σすなわち視差ベクトル(σ σ)の方向が、図24(A)の“からaxis(すなわち、paxis)への方向”と違っているときは、この視軸方向axisと矛盾する両眼視差のため、ステップ(10)までをスキップする(D−5−8)。
(6)以上で設定された“右および左カメラの局所領域画像”および両眼視差σを「両眼視差検出ユニット425」(図167)に入力して、応答強度を下式で計算する(D−5−9)。
However, when the binocular parallax k σ, that is, the direction of the parallax vector ( k σ x k σ y ) is different from the “direction from i p R to a xis (ie, p axis )” in FIG. since the binocular parallax inconsistent with this visual axis direction a xis, skip to step (10) (D-5-8) .
(6) The “local region images of the right and left cameras” and the binocular parallax k σ set above are input to the “binocular parallax detection unit 425” (FIG. 167), and the response intensity is calculated by the following equation. (D-5-9).

応答強度=ΣΣ (x,y)(x−σ,y−σ) (302)
ここで、(x,y)は、右カメラの局所領域画像(図167左上)内の(x,y)画素の強度であり、(x,y)は左カメラの局所領域画像(図167左下)内の(x,y)画素の強度である。
Response intensity = Σ x Σ y i a R (x, y) i a L (x- k σ x, y- k σ y) (302)
Here, i a R (x, y) is the intensity of the (x, y) pixel in the local region image (upper left of FIG. 167) of the right camera, and i a L (x, y) is the local of the left camera. This is the intensity of (x, y) pixels in the region image (lower left of FIG. 167).

なお、この応答強度の計算は簡単のために2次元相関で示したが、MPEG2エンコーダーに標準的に用いられている差分絶対値による2次元相関、乗算的演算による2次元相関、ハフ変換と逆ハフ変換による相関(“2次元相関およびコンボリューションをハフ平面のρ座標に沿って1次元的に行う方法,” 川上と岡本, 信学技報, vol. IE96−19, pp.31−38, 1996、および特開平05−165956号公報、特開平05−165957号公報、特開平06−044364号公報、特開平09−081369号公報 参照)でもよく、さらに微分勾配法などでもよく、この応答強度は、画素の強度に基づいて求められるものであればよい。
(7)規格化距離パラメータを「パラメータの走査ユニット116」により、下限値c,minから上限値c,maxまで走査する(D−5−10,D−5−11,D−5−15)。
Although the calculation of the response intensity is shown as a two-dimensional correlation for the sake of simplicity, the two-dimensional correlation based on the absolute difference, which is standard for MPEG2 encoders, the two-dimensional correlation based on a multiplication operation, and the inverse of the Hough transform. Correlation by Hough transform (“Method of performing two-dimensional correlation and convolution one-dimensionally along the ρ coordinate of the Hough plane,” Kawakami and Okamoto, IEICE Technical Report, vol. IE96-19, pp.31-38, 1996, and Japanese Patent Laid-Open No. 05-165958, Japanese Patent Laid-Open No. 05-165957, Japanese Patent Laid-Open No. 06-044364, Japanese Patent Laid-Open No. 09-08369, and the differential gradient method. Can be obtained based on the intensity of the pixel.
(7) The standardized distance parameter n d c is scanned from the lower limit value n d c, min to the upper limit value n d c, max by the “ n d c parameter scanning unit 116” (D-5-10, D− 5-11, D-5-15).

を走査)
前掲の実施形態B−6と同じ処理で、以下が行なわれる。但し、本実施形態では、実施形態B−6とは異なり、ステップ(10)において「両眼視差検出ユニットの応答強度を投票する」という処理が行なわれる。
(8)「変換ユニット426」では、画素番号iが画素に変換され、以上で設定された四つのパラメータσ,,paxisを「複比変換ユニット117」に入力して、位置ikを出力する(D−5−12)。
(9)上記の位置ikを「極変換ユニット118」により球面上の大円に極変換して、その大円を構成する点群の位置{ikGC}を出力する(D−5−13)。
(10)「円柱配列投票ユニット119」の“高さの大円上の点群”に、“両眼視差検出ユニットの応答強度”を投票する(D−5−14)。ここまでの処理で、位置の点が“複比変換および極変換”された一個の大円が、高さがの断面円内に描かれる。
(Scans n d c )
The following is performed in the same process as in the above-described embodiment B-6. However, in the present embodiment, unlike the embodiment B-6, the process of “voting the response intensity of the binocular parallax detection unit” is performed in step (10).
(8) In the “ i p R conversion unit 426”, the pixel number i is converted into the pixel i p R , and the four parameters n d c , k σ, i p R , and p axis set as described above are converted into “multiple ratios”. enter the conversion unit 117 ", and outputs the position ik p c (D-5-12) .
(9) the position ik p c and polar transformation on a great circle on the sphere by the "polar transformation unit 118", and outputs the position of a point group constituting the great circle {ik p GC} (D- 5 -13).
(10) to the "great circle on the point group of the height of the n d c" of the "cylindrical array voting unit 119" vote "response strength of binocular disparity detection unit" (D-5-14). By the process so far, one great circle whose point i p R is “cross ratio transformed and pole transformed” is drawn in a sectional circle having a height of n d c .

を走査(D−5−15))
(kを走査(D−5−16))
(iを走査(D−5−17))
(11)ここまでの処理で、全ての高さ{}の断面円内に、“画像内の全ての点{}”が複比変換および極変換された大円群が描かれる。すなわち、円柱配列の全ての断面円に投票が行なわれる。
(12)「ピーク抽出ユニット120」により、円柱配列の中で“投票された強度が極大(ピーク)になる点”を抽出する――この極大点が“大円群が一点に交差する場所”である。この極大点の“高さ座標”として“平面までの規格化距離c0”が求められ、また“断面円内の座標”として平面の3次元方位ns0が求められる(D−5−18)。
(Scan n d s (D-5-15) )
(Scan k (D-5-16))
(Scan i (D-5-17))
(11) In the processing up to this point, in the cross-sectional circle of all heights {n d c}, the "all points {i p R} in the image" are cross-ratio conversion and polar transformed great circles group be painted. That is, voting is performed for all the cross-sectional circles in the columnar arrangement.
(12) “Peak extraction unit 120” extracts “the point where the voted intensity becomes the maximum (peak)” in the cylindrical array—this maximum point is “the place where the great circles intersect at one point” It is. The “normalized distance n d c0 ” to the plane is obtained as the “height coordinate” of this local maximum point, and the three-dimensional orientation n s0 of the plane is obtained as the “coordinate in the cross-sectional circle” (D-5-18). ).

尚、ここでは規格化距離としたが、ΔxLRが一定のため、絶対距離d(すなわち、ΔxLR)でもよい。この点は、本発明の、規格化距離を取り扱う全ての実施形態について同様である。

実施形態D−6(ステレオ+規格化距離+axis未知)
図97は、本実施形態D−6を示すブロック図、図98はそのフローチャートである。
Although the normalized distance n d c is used here, the absolute distance d c (that is, n d c Δx LR ) may be used because Δx LR is constant. This point, the present invention is the same for all embodiments dealing with normalized distance n d c.

Embodiment D-6 (stereo + normalized distance + a xis unknown)
FIG. 97 is a block diagram showing the embodiment D-6, and FIG. 98 is its flowchart.

下記の(2)から(11)までのステップは、実施形態D−5の対応するステップと同じである。
(0)「axisパラメータの走査ユニット121」により、可能性のある全ての方向(下限値axis,minから上限値axis,maxまで)にわたって、“視軸方向パラメータaxis”を走査する(D−6−1,D−6−2,D−6−20)。
The following steps (2) to (11) are the same as the corresponding steps in the embodiment D-5.
(0) “ Axis parameter scanning unit 121” scans the “visual axis direction parameter a xis ” in all possible directions (from the lower limit value a xis, min to the upper limit value a xis, max ). (D-6-1, D-6-2, D-6-20).

(axisを走査)
(1)「paxis設定ユニット115」により、“視軸上の位置paxis”をこのパラメータaxisに等しいとして設定する(D−6−3)。
(2)「画素番号iの走査ユニット421」により、画像内の各点のアドレスiを下限値iminから上限値imaxまで走査する(D−6−4,D−6−5,D−6−19)。
( Scan axis )
(1) The “position on the visual axis p axis ” is set to be equal to the parameter a xis by the “p axis setting unit 115” (D-6-3).
(2) The address “i” of each point in the image is scanned from the lower limit value i min to the upper limit value i max by the “scanning unit 421 of pixel number i” (D-6-4, D-6-5, D−). 6-19).

(iを走査)
(3)「を中心とする局所領域画像の切出しユニット422」により、“アドレスiに対応する画素”を中心とする局所領域画像を、図167の左端に示すように、右および左カメラ412,413で得られた各画像から切り出す(D−6−6)。
(4)「両眼視差番号kの走査ユニット423」により、両眼視差検出ユニットの両眼視差番号kを下限値kminから上限値kmaxまで走査する(D−6−7,D−6−8,D−6−18)。
(Scan i)
(3) by "clipping unit 422 of the local region image centered on the i p R", the local region image centered on the "pixel i p R corresponding to the address i", as shown at the left end of FIG. 167, Cut out from the images obtained by the right and left cameras 412 and 413 (D-6-6).
(4) “Binocular parallax number k scanning unit 423” scans the binocular parallax number k of the binocular parallax detection unit from the lower limit value k min to the upper limit value k max (D-6-7, D-6) -8, D-6-18).

(kを走査)
(5)実施形態D−5のステップ(5)と同様にして、「運動視差σの変換ユニット424」により、この番号kを両眼視差σに変換して出力する(D−6−9)。
(Scan k)
(5) In the same manner as in step (5) of Embodiment D-5, this “ k conversion parallax k σ conversion unit 424” converts this number k into binocular parallax k σ and outputs it (D-6-6). 9).

但し、両眼視差σすなわち視差ベクトル(σ σ)の方向が、図24(A)の“からaxis(すなわち、paxis)への方向”と違っているときは、この視軸方向axisと矛盾する両眼視差のため、ステップ(10)までをスキップする(D−6−10)。
(6)以上で設定された“右および左カメラの局所領域画像”および両眼視差σを「両眼視差検出ユニット425」(図167)に入力して、応答強度を下式で計算する(D−6−11)。
However, when the binocular parallax k σ, that is, the direction of the parallax vector ( k σ x k σ y ) is different from the “direction from i p R to a xis (ie, p axis )” in FIG. since the binocular parallax inconsistent with this visual axis direction a xis, skip to step (10) (D-6-10) .
(6) The “local region images of the right and left cameras” and the binocular parallax k σ set above are input to the “binocular parallax detection unit 425” (FIG. 167), and the response intensity is calculated by the following equation. (D-6-11).

応答強度=ΣΣ (x,y)(x−σ,y−σ
(7)規格化距離パラメータを「パラメータの走査ユニット116」により、下限値c,minから上限値c,maxまで走査する(D−6−12,D−6−13,D−6−17)。
Response intensity = Σ x Σ y i a R (x, y) i a L (x- k σ x, y- k σ y)
(7) The normalized distance parameter n d c is scanned from the lower limit value n d c, min to the upper limit value n d c, max by the “ n d c parameter scanning unit 116” (D-6-12, D− 6-13, D-6-17).

を走査)
前掲の実施形態B−6と同じ処理で、以下が行なわれる。但し、本実施形態では実施形態B−6とは異なり、ステップ(10)において「両眼視差検出ユニットの応答強度を投票する」という処理が行なわれる。
(8)「変換ユニット426」では画素番号iが画素に変換され、以上で設定された四つのパラメータσ,,paxisを「複比変換ユニット117」に入力して、位置ikを出力する(D−6−14)。
(9)上記の位置ikを「極変換ユニット118」により球面上の大円に極変換して、その大円を構成する点群の位置{ikGC}を出力する(D−6−15)。
(10)「円柱配列投票ユニット119」の“高さの大円上の点群”に、“両眼視差検出ユニット425の応答強度”を投票する(D−6−16)。ここまでの処理で、位置の点が“複比変換および極変換”された一個の大円が、高さがの断面円内に描かれる。
(Scans n d c )
The following is performed in the same process as in the above-described embodiment B-6. However, in this embodiment, unlike the embodiment B-6, a process of “voting the response intensity of the binocular parallax detection unit” is performed in step (10).
(8) In the “ i p R conversion unit 426”, the pixel number i is converted to the pixel i p R , and the four parameters n d c , k σ, i p R , and p axis set as described above are converted into the “multi-ratio conversion”. enter the unit 117 'outputs the position ik p c (D-6-14) .
(9) the position ik p c and polar transformation on a great circle on the sphere by the "polar transformation unit 118", and outputs the position of a point group constituting the great circle {ik p GC} (D- 6 -15).
(10) to the "cylindrical array voting unit 119" of the "height n d a great circle on the point group of the c", to vote "response strength of binocular disparity detection unit 425" (D-6-16). By the process so far, one great circle whose point i p R is “cross ratio transformed and pole transformed” is drawn in a sectional circle having a height of n d c .

を走査(D−6−17))
(kを走査(D−6−18))
(iを走査(D−6−19))
(11)ここまでの処理で、全ての高さ{}の断面円内に、“画像内の全ての点{}”が複比変換および極変換された大円群が描かれる。すなわち、円柱配列の全ての断面円に投票が行なわれる。
(Scan n d c (D-6-17) )
(Scan k (D-6-18))
(Scan i (D-6-19))
(11) In the processing up to this point, in the cross-sectional circle of all heights {n d c}, the "all points {i p R} in the image" are cross-ratio conversion and polar transformed great circles group be painted. That is, voting is performed for all the cross-sectional circles in the columnar arrangement.

(axisを走査((D−6−20))
(12)ここまでの処理で、“全ての視軸方向パラメータaxisに対する円柱配列群”の全断面円に投票が行われる。
(13)上記の円柱配列群の中で、強度が最大になる“特定の円柱配列”を「ピーク抽出ユニット120」により抽出する(D−6−21)。この配列に対する移動方向パラメータとして、真の視軸方向axis0が求められる。また、その配列の中で強度がピークになる点を抽出すると、その点の“高さ座標”として平面をまでの規格化距離c0が、また“断面円内の座標”として平面の3次元方位ns0が求められる。
( Scan axis ((D-6-20))
(12) by the processing up to here, the vote total cross-sectional circle of the "cylinder arrangement group for all of the visual axis direction parameter a xis" is performed.
(13) From the columnar array group, a “specific columnar array” having the maximum intensity is extracted by the “peak extraction unit 120” (D-6-21). As the movement direction parameter for this array, the true visual axis direction axis0 is obtained. Further, when a point where the intensity reaches a peak in the array is extracted, the normalized distance n d c0 to the plane is used as the “height coordinate” of the point, and 3 of the plane is used as the “coordinate in the cross-sectional circle”. A dimension orientation ns0 is determined.

実施形態D−7(ステレオ+規格化最短距離)
図99は、本実施形態D−7を示すブロック図、図100はそのフローチャートである。
(1)前掲の実施形態B−1と同様、「paxis設定ユニット115」により、視軸上の位置paxisを視軸方向axisに等しいとして設定する(D−7−1)。
(2)「画像番号iの走査ユニット421」により、画像内の各点のアドレスiを下限値iminから上限値imaxまで走査する(D−7−2,D−7−3,D−7−17)。
Embodiment D-7 (stereo + standardized shortest distance)
FIG. 99 is a block diagram showing the embodiment D-7, and FIG. 100 is a flowchart thereof.
(1) As in the above-described embodiment B-1, the “p axis setting unit 115” sets the position p axis on the visual axis to be equal to the visual axis direction a xis (D-7-1).
(2) The “scan unit 421 of image number i” scans the address i of each point in the image from the lower limit value i min to the upper limit value i max (D-7-2, D-7-3, D- 7-17).

(iを走査)
(3)「を中心とする局所領域画像の切出しユニット422」により、“アドレスiに対応する画素”を中心とする局所領域画像を、図167の左端に示すように、右および左カメラ412,413で得られた各画像から切り出す(D−7−4)。
(4)「両眼視差番号kの走査ユニット425」により、両眼視差番号kを下限値kminから上限値kmaxまで走査する(D−7−5,D−7−6,D−7−16)。
(5)実施形態D−5のステップ(5)と同様にして、「両眼視差番号kの走査ユニット425」により、この番号kを両眼視差σに変換して出力する(D−7−7)。但し、両眼視差σすなわち視差ベクトル(σ σ)の方向が、図24(A)の“からaxis(すなわち、paxis)への方向”と違っているときは、この視軸方向axisと矛盾する両眼視差のため、ステップ(10)までをスキップする(D−7−8)。
(6)実施形態D−5のステップ(6)と同様にして、“右および左カメラの局所領域画像”および両眼視差σを「両眼視差検出ユニット425」(図167)に入力して、応答強度を下式で計算する(D−7−9)。
(Scan i)
(3) by "clipping unit 422 of the local region image centered on the i p R", the local region image centered on the "pixel i p R corresponding to the address i", as shown at the left end of FIG. 167, Cut out from the images obtained by the right and left cameras 412 and 413 (D-7-4).
(4) The “binocular parallax number k scanning unit 425” scans the binocular parallax number k from the lower limit value k min to the upper limit value k max (D-7-5, D-7-6, D-7). -16).
(5) In the same manner as in step (5) of Embodiment D-5, “number b parallax number k scanning unit 425” converts this number k into binocular parallax k σ and outputs it (D-7) -7). However, when the binocular parallax k σ, that is, the direction of the parallax vector ( k σ x k σ y ) is different from the “direction from i p R to a xis (ie, p axis )” in FIG. since the binocular parallax inconsistent with this visual axis direction a xis, skip to step (10) (D-7-8) .
(6) In the same manner as in Step (6) of Embodiment D-5, the “local region images of the right and left cameras” and the binocular parallax k σ are input to the “binocular parallax detection unit 425” (FIG. 167). Then, the response intensity is calculated by the following equation (D-7-9).

応答強度=ΣΣ (x,y)(x−σ,y−σ
(7)規格化最短距離パラメータを「パラメータの走査ユニット122」により、下限値s,minから上限値s,maxまで走査する(D−7−10,D−7−11,D−7−15)。
Response intensity = Σ x Σ y i a R (x, y) i a L (x- k σ x, y- k σ y)
(7) The standardized shortest distance parameter n d s is scanned from the lower limit value n d s, min to the upper limit value n d s, max by the “ n d s parameter scanning unit 122” (D-7-10, D -7-11, D-7-15).

を走査)
前掲の実施形態B−8と同じ処理で、以下が行なわれる。但し、本実施形態では、実施形態B−8とは異なり、ステップ(10)において「両眼視差検出ユニットの応答強度を投票する」という処理が行なわれる。
(8)「変換ユニット」では画素番号iが画素に変換され、以上で設定された四つのパラメータσ,,paxisを、実施形態B−8のステップ(6)と同様にして、「半径Rの計算ユニット123」に入力して、半径ikRと位置を出力する(D−7−12)。そのユニット123の中で、半径ikRが下式で計算される。
(Scans n d s )
The following is performed in the same process as in the above-described embodiment B-8. However, in this embodiment, unlike Embodiment B-8, the process of “voting the response intensity of the binocular parallax detection unit” is performed in Step (10).
(8) In the “ i p R conversion unit”, the pixel number i is converted into the pixel i p R , and the four parameters n d s , k σ, i p R , and p axis set as described above are converted into the embodiment B- Similarly to step (6) of FIG. 8, the “radius R calculation unit 123” is input, and the radius ik R and the position i p R are output (D-7-12). In the unit 123, the radius ik R is calculated by the following equation.

ikR=cos−1 sin σ/sin(c+σ))
(9)実施形態B−8のステップ(7)と同様にして、この半径ikRと位置を「小円変換ユニット124」に入力して、位置を中心とする半径ikRの“球面上の小円”に変換する(D−4−13)。
(10)実施形態B−8のステップ(8)から(9)と同様にして、「円柱配列投票ユニット125」の“高さの小円上の点群”に、ステップ(6)の両眼視差検出ユニット425の応答強度を投票する(D−7−14)。ここまでの処理で、位置の点が小円変換された一個の小円が、高さがの断面円内に描かれる。
ik R = cos -1 (n d s sin k σ / sin (i c + k σ))
(9) In the same manner as in step (7) of the embodiment B-8, the radius ik R and the position i p R are input to the “small circle conversion unit 124”, and the radius ik about the position i p R is the center. It is converted into a “small circle on the spherical surface” of R (D-4-13).
(10) In the same manner as Steps (8) to (9) of Embodiment B-8, the “point group on the small circle with the height n d s ” of the “cylindrical array voting unit 125” is changed to Step (6). The response intensity of the binocular parallax detection unit 425 is voted (D-7-14). By the processing so far, one small circle obtained by converting the point at the position i p R into a small circle is drawn in a cross-sectional circle having a height of n d s .

を走査(D−7−15))
(kを走査(D−7−16))
(iを走査(D−7−17))
(11)ここまでの処理で、全ての高さ{}の断面円内に、“画像内の全ての点{}”が小円変換された小円群が描かれる。すなわち、円柱配列の全ての断面円に投票が行なわれる。
(12)「ピーク抽出ユニット126」により、円柱配列の中で“投票された強度が極大になる点”を抽出する――この極大点が“小円群が一点に交差する場所”である。この極大点の“高さ座標”として“平面までの規格化距離s0”が求められ、また“断面円内の座標”として平面の3次元方位ns0が求められる(D−7−18)。
(Scans n d s (D-7-15))
(Scan k (D-7-16))
(Scan i (D-7-17))
(11) In the processing up to this point, in the cross-sectional circle of all heights {n d s}, small circle group "all the points in the image {i p R}" is converted small circle is drawn. That is, voting is performed for all the cross-sectional circles in the columnar arrangement.
(12) The “peak extraction unit 126” extracts “the point where the voted intensity is maximized” in the cylindrical array—this maximum point is “the place where the small circles intersect at one point”. The “normalized distance n d s0 ” to the plane is obtained as the “height coordinate” of the local maximum point, and the three-dimensional azimuth n s0 of the plane is obtained as the “coordinate in the cross-sectional circle” (D-7-18). ).

実施形態D−8(ステレオ+規格化最短距離+axis未知)
図101は、本実施形態のD−8のブロック図、図102は、そのフローチャートである。
Embodiment D-8 (stereo + normalized shortest distance + a xis unknown)
FIG. 101 is a block diagram of D-8 of this embodiment, and FIG. 102 is its flowchart.

下記の(2)から(11)までのステップは、実施形態D−7の対応するステップと同じである。
(0)「axisパラメータの走査ユニット121」により、可能性のある全ての方向(下限値axis,minから上限値axis,maxまで)にわたって、“視軸方向パラメータaxis”を走査する(D−8−1,D−8−2,D−8−20)。
The following steps (2) to (11) are the same as the corresponding steps in the embodiment D-7.
(0) “ Axis parameter scanning unit 121” scans the “visual axis direction parameter a xis ” in all possible directions (from the lower limit value a xis, min to the upper limit value a xis, max ). (D-8-1, D-8-2, D-8-20).

(axisを走査)
(1)「paxis設定ユニット115」により、“視軸上の位置paxis”をこのパラメータaxisに等しいとして設定する(D−8−3)。
(2)「画素番号iの走査ユニット421」により、画像内の各点のアドレスiを下限値iminから上限値imaxまで走査する(D−8−4,D−8−5,D−8−19)。
( Scan axis )
(1) The “p axis setting unit 115” sets “position p axis on the visual axis ” as equal to the parameter a xis (D-8-3).
(2) The “scan unit 421 of pixel number i” scans the address i of each point in the image from the lower limit value i min to the upper limit value i max (D-8-4, D-8-5, D− 8-19).

(iを走査)
(3)「を中心とする局所領域画像の切出しユニット422」により、“アドレスiに対応する画素”を中心とする局所領域画像を、図167の左端に示すように、右および左カメラ412,413で得られた各画像から切り出す(D−8−6)。
(4)「両眼視差番号kの走査ユニット423」により、両眼視差番号kを下限値kminから上限値kmaxまで走査する(D−8−7,D−8−8,D−8−18)。
(Scan i)
(3) by "clipping unit 422 of the local region image centered on the i p R", the local region image centered on the "pixel i p R corresponding to the address i", as shown at the left end of FIG. 167, Cut out from the images obtained by the right and left cameras 412 and 413 (D-8-6).
(4) The “binocular parallax number k scanning unit 423” scans the binocular parallax number k from the lower limit value k min to the upper limit value k max (D-8-7, D-8-8, D-8). -18).

(kを走査)
(5)実施例形態D−5のステップ(5)と同様にして、「両眼視差σ変換ユニット424」により、この番号kを両眼視差σに変換して出力する(D−8−9)。但し、両眼視差σすなわち視差ベクトル(σ σ)の方向が、図24(A)の“からaxis(すなわち、paxis)への方向”と違っているときには、この視軸方向axisと矛盾する両眼視差のため、ステップ(10)までをスキップする(D−8−10)。
(6)実施形態D−5のステップ(6)と同様にして、“右および左カメラの局所領域画像”および両眼視差σを「両眼視差検出ユニット425」(図167)に入力して、応答強度を下式で計算する(D−8−11)。
(Scan k)
(5) In the same manner as in step (5) of Example D-5, the “binocular parallax k σ conversion unit 424” converts this number k into binocular parallax k σ and outputs it (D-8) -9). However, when the binocular parallax k σ, that is, the direction of the parallax vector ( k σ x k σ y ) is different from the “direction from i p R to a xis (that is, p axis )” in FIG. since the binocular parallax inconsistent with this visual axis direction a xis, skip to step (10) (D-8-10) .
(6) In the same manner as in Step (6) of Embodiment D-5, the “local region images of the right and left cameras” and the binocular parallax k σ are input to the “binocular parallax detection unit 425” (FIG. 167). Then, the response intensity is calculated by the following equation (D-8-11).

応答強度=ΣΣ (x,y)(x−σ,y−σ
(7)規格化距離パラメータを「パラメータの走査ユニット122」により、下限値s,minから上限値s,maxまで走査する(D−8−12,D−8−13,D−8−17)。
Response intensity = Σ x Σ y i a R (x, y) i a L (x- k σ x, y- k σ y)
(7) The standardized distance parameter n d s is scanned from the lower limit value n d s, min to the upper limit value n d s, max by the “ n d s parameter scanning unit 122” (D-8-12, D− 8-13, D-8-17).

を走査)
前掲の実施形態B−8と同じ処理で、以下が行なわれる。但し、本実施形態では、実施形態B−8とは異なり、ステップ(10)において「両眼視差検出ユニットの応答強度を投票する」という処理が行なわれている。
(8)「変換ユニット426」では画素番号iが画素に変換され、以上で設定された四つのパラメータσ,,paxisを実施形態B−8のステップ(6)と同様にして、「半径Rの計算ユニット123」に入力して、半径ikRと位置を出力する(D−8−14)。そのユニット123の中で、半径ikRが下式で計算される。
(Scans n d s )
The following is performed in the same process as in the above-described embodiment B-8. However, in this embodiment, unlike Embodiment B-8, the process of “voting the response intensity of the binocular parallax detection unit” is performed in Step (10).
(8) In the “ i p R conversion unit 426”, the pixel number i is converted into the pixel i p R , and the four parameters n d s , k σ, i p R , and p axis set as described above are used in the embodiment B- Similarly to step (6) of FIG. 8, the data is input to the “radius R calculation unit 123”, and the radius ik R and the position i p R are output (D-8-14). In the unit 123, the radius ik R is calculated by the following equation.

ikR=cos−1 sin σ/sin(c+σ))
(9)実施形態B−8のステップ(7)と同様にして、この半径ikRと位置を「小円変換ユニット124」に入力して、位置を中心とする半径ikRの“球面上の小円”に変換する(D−8−15)。
(10)実施形態B−8のステップ(8)から(9)と同様にして、「円柱配列投票ユニット125」の“高さの小円上の点群”に、ステップ(6)の両眼視差検出ユニット425の応答強度を投票する(D−8−16)。ここまでの処理で、位置の点が小円変換一個の小円が、高さがの断面円内に描かれる。
ik R = cos -1 (n d s sin k σ / sin (i c + k σ))
(9) In the same manner as in step (7) of the embodiment B-8, the radius ik R and the position i p R are input to the “small circle conversion unit 124”, and the radius ik about the position i p R is the center. It is converted into a “small circle on the spherical surface” of R (D-8-15).
(10) In the same manner as Steps (8) to (9) of Embodiment B-8, the “point group on the small circle with the height n d s ” of the “cylindrical array voting unit 125” is changed to Step (6). The response intensity of the binocular parallax detection unit 425 is voted (D-8-16). With the processing so far, a small circle whose point at the position i p R is converted into a small circle is drawn in a cross-sectional circle whose height is n d s .

を走査(D−8−17))
(kを走査(D−8−18))
(iを走査(D−8−19))
(11)ここまでの処理で、全ての高さ{}の断面円内に、“画像内の全ての点{}”が小円変換された小円群が描かれる。すなわち、円柱配列の全ての断面円に投票が行なわれる。
(axisを走査)
(12)ここまでの処理で、“全ての視軸方向パラメータaxisに対する円柱配列群”の全断面円に投票が行われる。
(13)上記の円柱配列群の中で、強度が最大になる“特定の円柱配列”を「ピーク抽出ユニット126」により抽出する。この配列に対する視軸方向パラメータとして、真の視軸方向axis0が求められる。また、その配列の中で強度がピークになる点を抽出すると、その点の“高さ座標”として平面までの規格化最短距離s0が、また“断面円内の座標”として平面の3次元方位ns0が求められる(D−8−21)。
(Scans n d s (D-8-17))
(Scan k (D-8-18))
(Scan i (D-8-19))
(11) In the processing up to this point, in the cross-sectional circle of all heights {n d s}, small circle group "all the points in the image {i p R}" is converted small circle is drawn. That is, voting is performed for all the cross-sectional circles in the columnar arrangement.
( Scan axis )
(12) by the processing up to here, the vote total cross-sectional circle of the "cylinder arrangement group for all of the visual axis direction parameter a xis" is performed.
(13) From the above-described columnar array group, the “specific columnar array” having the maximum intensity is extracted by the “peak extraction unit 126”. As the visual axis direction parameter for this arrangement, the true visual axis direction axis0 is obtained. Further, when a point where the intensity reaches a peak in the array is extracted, the normalized shortest distance n d s0 to the plane is used as the “height coordinate” of the point, and the plane 3 The dimension orientation ns0 is obtained (D-8-21).

実施形態D−9(規格化最短距離)
図103は、本実施形態D−9の構成を示すブロック図、図104はその動作を示すフローチャートである。
(1)移動方向vを前掲の実施形態A−1のステップ(1)と同様にして抽出し、「pinf設定ユニット15」により、この移動方向vに等しいとして“無限時間経過後の位置pinf”を設定する(D−9−1)。
(2)「画素番号iの走査ユニット401」により、画像内の各点のアドレスiを下限値iminから上限値imaxまで走査する(D−9−2,D−9−3,D−9−19)。
Embodiment D-9 (standardized shortest distance)
FIG. 103 is a block diagram showing the configuration of the embodiment D-9, and FIG. 104 is a flowchart showing the operation thereof.
(1) The moving direction v is extracted in the same manner as in step (1) of the embodiment A-1 described above, and the “p inf setting unit 15” determines that the moving direction v is equal to the moving direction v, “position p after infinite time has elapsed. inf "is set (D-9-1).
(2) Scan the address i of each point in the image from the lower limit value i min to the upper limit value i max by “scanning unit 401 of pixel number i” (D-9-2, D-9-3, D− 9-19).

(iを走査)
(3)実施形態D−1のステップ(3)と同様にして、「を中心とする局所領域画像の切出しユニット402」により、カメラ11で得られた現時刻tと次時刻tの各画像から、“アドレスiに対応する画素”を中心とする各局所領域画像を、現時刻tと次時刻tについて切り出す(D−9−4)。
(4)「運動視差番号kの走査ユニット403」により、運動視差番号kを下限値kminから上限値kmaxまで走査する(D−9−5,D−9−6,D−9−18)。
(Scan i)
(3) In the same manner as in step (3) of Embodiment D-1, the current time t 0 and the next time t obtained by the camera 11 by the “local region image cutting unit 402 centered on i p 0 ” are used. Each local region image centered on “pixel i p 0 corresponding to address i” is cut out from each image of 1 at the current time t 0 and the next time t 1 (D-9-4).
(4) The motion parallax number k is scanned from the lower limit value k min to the upper limit value k max by the “scan unit 403 of motion parallax number k” (D-9-5, D-9-6, D-9-18). ).

(kを走査)
(5)実施形態D−1のステップ(5)と同様にして、「運動視差τ変換ユニット404」により、「この番号kを運動視差τに変換して出力する(D−9−7)。但し、運動視差τすなわち動きベクトル(τ τ)の方向が、図10(A)の“からv(すなわち、pinf)への方向”と違っているときは、この移動方向vと矛盾する運動視差のため、ステップ(11)までをスキップする(D−9−8)。
(6))実施形態D−1のステップ(6)と同様にして、“現時刻tと次時刻tの局所領域画像”および運動視差τを「運動視差検出ユニット405」(図159参照)に入力して、応答強度を下式で計算する(D−9−9)。
(Scan k)
(5) In the same manner as in step (5) of Embodiment D-1, the “motion parallax k τ conversion unit 404” converts “this number k into motion parallax k τ and outputs it (D-9-7). However, when the motion parallax k τ, that is, the direction of the motion vector ( k τ x k τ y ) is different from the “direction from i p 0 to v (ie, p inf )” in FIG. Skips to step (11) due to motion parallax that contradicts this moving direction v (D-9-8).
(6)) Similar to step (6) of Embodiment D-1, “local parallax images at current time t 0 and next time t 1 ” and motion parallax k τ are expressed as “motion parallax detection unit 405” (FIG. 159). The response intensity is calculated by the following equation (D-9-9).

応答強度=ΣΣ (x,y)(x−τ,y−τ
(7)規格化最短距離パラメータを「パラメータの走査ユニット22」により、下限値s,minから上限値s,maxまで走査する(D−9−10,D−9−11,D−9−17)。
Response intensity = Σ x Σ y i a 0 (x, y) i a 1 (x- k τ x, y- k τ y)
(7) The standardized shortest distance parameter n d s is scanned from the lower limit value n d s, min to the upper limit value n d s, max by the “ n d s parameter scanning unit 22” (D-9-10, D -9-11, D-9-17).

を走査)
(8)移動方向vを中心する半径rの円(図13)を考え、そのrを0からπ/2まで走査する(D−9−12,D−9−13,D−9−16)。
(Scans n d s )
(8) Consider a circle with a radius r centered in the moving direction v (FIG. 13), and scan r from 0 to π / 2 (D-9-12, D-9-13, D-9-16). .

(rを走査)
(9)「変換ユニット406」では画素番号iが画素に変換され、以上で設定された5つのパラメータ,pinfτ,rを「小円構成要素 s+ s−の計算ユニット223」に入力して、図13を参照して説明した二つの交点 s+ s−を出力する(D−9−14)。
(10)その小円を構成する点 s+ s−を、「円柱配列投票ユニット224」の“高さの断面円内の点”に変換する。次に、その点にステップ(6)で計算した「運動視差検出ユニットの応答強度」を投票する(D−9−15)。
(Scan r)
(9) In the “ i p 0 conversion unit 406”, the pixel number i is converted into a pixel, and the five parameters n d s , i p 0 , p inf , k τ, r set as described above are converted into “small circle constituent elements”. i r n s +, i r n s- of input to the calculation unit 223 ", the two intersection points described with reference to FIG. 13 i r n s +, i r n outputs the s- (D-9-14 ).
(10) the point constituting the small circle i r n s +, a i r n s-, converted to "points in circular section of height n d s" of the "cylindrical array voting unit 224". Next, the “response intensity of the motion parallax detection unit” calculated in step (6) is voted for that point (D-9-15).

(rを走査(D−9−16))
(11)ここまでの処理で、位置の点が変換された一個の小円が、高さがの断面円内に描かれる。
(Scan r (D-9-16))
(11) Through the processing so far, one small circle in which the point at the position i p 0 has been transformed is drawn in the cross-sectional circle having a height of n d s .

を走査(D−9−17))
(kを走査(D−9−18))
(iを走査(D−9−19))
(12)ここまでの処理で、全ての高さ{}の断面円内に、“画像内の全ての点{}”が小円変換された小円群が描かれる。すなわち、円柱配列の全ての断面円に投票が行なわれる。
(13)「ピーク抽出ユニット225」により、円柱配列の中で“投票された強度が極大になる点”を抽出する――この極大点が“小円群が一点に交差する場所”である。この極大点の“高さ座標”として“平面までの規格化最短距離s0”が求められ、また“断面円内の座標”として平面の3次元方位ns0が求められる(D−9−20)。
(Scans n d s (D-9-17))
(Scanning k (D-9-18))
(Scan i (D-9-19))
(12) In the processing up to this point, in the cross-sectional circle of all heights {n d s}, small circle group "all the points in the image {i p 0}" it is converted small circle is drawn. That is, voting is performed for all the cross-sectional circles in the columnar arrangement.
(13) The “peak extraction unit 225” extracts “the point where the voted intensity is maximized” in the cylindrical array—this maximum point is “the place where the small circles intersect at one point”. The maxima as "height coordinate""normalized shortest distance n d s0 to plane" is determined, the 3-dimensional orientation n s0 plane as "the coordinates of the cross section circle" is obtained (D-9- 20).

尚、ここでは規格化最短距離としたが、Δxが一定のため、最短距離d(すなわちΔx)でもよい。この点は、本発明の、規格化最短距離を取り扱う全ての実施形態について同様である。 Although the normalized shortest distance n d s is used here, since Δx is constant, the shortest distance d s (that is, n d s Δx) may be used. This point is the same for all embodiments of the present invention that handle the normalized shortest distance n d s .

実施形態D−10(規格化最短距離+v未知)
図105は、本実施形態D−10の構成を示すブロック図、図106はその動作を示すフローチャートである。
Embodiment D-10 (standardized shortest distance + v unknown)
FIG. 105 is a block diagram showing the configuration of the present embodiment D-10, and FIG. 106 is a flowchart showing the operation thereof.

下記の(2)から(11)までのステップは、実施形態D−9の対応するステップと同じである。
(0)「vパラメータの走査ユニット21」により、可能性のある全ての方向(下限値vminから上限値vmaxまで)にわたって、“移動方向パラメータv”を走査する(D−10−1,D−10−2,D−10−22)。
The following steps (2) to (11) are the same as the corresponding steps in embodiment D-9.
(0) The “moving direction parameter v” is scanned by the “v parameter scanning unit 21” in all possible directions (from the lower limit value v min to the upper limit value v max ) (D-10-1, D-10-2, D-10-22).

(vを走査)
(1)「pinf設定ユニット15」により、“無限時間経過後の位置pinf”をこのパラメータvに等しいとして設定する(D−10−3)。
(2)「画素番号iの走査ユニット401」により、画像内の各点のアドレスを下限値iminから上限値imaxまで走査する(D−10−4,D−10−5,D−10−21)。
(Scan v)
(1) The “p inf setting unit 15” sets “position p inf after infinite time has elapsed” to be equal to this parameter v (D-10-3).
(2) The address of each point in the image is scanned from the lower limit value i min to the upper limit value i max by “scanning unit 401 of pixel number i” (D-10-4, D-10-5, D-10) -21).

(iを走査)
(3)実施形態D−1のステップ(3)と同様にして、「を中心とする局所領域画像の切出しユニット402」により、カメラ11で得られた現時刻tと次時刻tの各画像から、“アドレスiに対応する画素”を中心とする各局所領域画像を、現時刻tと次時刻tについて切り出す(D−10−6)。
(4)「運動視差番号kの走査ユニット403」により、運動視差番号kを下限値kminから上限値kmaxまで走査する(D−10−7,D−10−8,D−10−20)。
(Scan i)
(3) In the same manner as in step (3) of Embodiment D-1, the current time t 0 and the next time t obtained by the camera 11 by the “local region image cutting unit 402 centered on i p 0 ” are used. Each local area image centered on “pixel i p 0 corresponding to address i” is cut out from each image of 1 at the current time t 0 and the next time t 1 (D-10-6).
(4) The motion parallax number k is scanned from the lower limit value k min to the upper limit value k max by the “scan unit 403 of motion parallax number k” (D-10-7, D-10-8, D-10-20). ).

(kを走査)
(5)実施形態Dのステップ(5)と同様にして、「運動視差番号τ変換ユニット404」により、この番号kを運動視差τに変換して出力する(D−10−9)。但し、運動視差τすなわち動きベクトル(τ τ)の方向が、図10(A)の“からv(すなわち、pinf)への方向”と違っているときは、この移動方向vと矛盾する運動視差のため、ステップ(11)までをスキップする(D−10−10)。
(6)実施形態D−1のステップ(6)と同様にして、“現時刻tと次時刻tの局所領域画像”および運動視差τを「運動視差検出ユニット405」(図159参照)に入力して、応答強度を下式で計算する(D−10−11)。
(Scan k)
(5) In the same manner as in step (5) of Embodiment D, the “motion parallax number k τ conversion unit 404” converts this number k into a motion parallax k τ and outputs it (D-10-9). However, when the motion parallax k τ, that is, the direction of the motion vector ( k τ x k τ y ) is different from the “direction from i p 0 to v (ie, p inf )” in FIG. Due to the motion parallax that contradicts this moving direction v, the steps up to step (11) are skipped (D-10-10).
(6) Similarly to step (6) in Embodiment D-1, “local parallax images at current time t 0 and next time t 1 ” and motion parallax k τ are expressed as “motion parallax detection unit 405” (see FIG. 159). ) And the response intensity is calculated by the following equation (D-10-11).

応答強度=ΣΣ (x,y)(x−τ,y−τ
(7)規格化最短距離パラメータを「パラメータの走査ユニット22」により、下限値s,minから上限値s,maxまで走査する(D−10−12,D−10−13,D−10−19)。
Response intensity = Σ x Σ y i a 0 (x, y) i a 1 (x- k τ x, y- k τ y)
(7) The standardized shortest distance parameter n d s is scanned from the lower limit value n d s, min to the upper limit value n d s, max by the “ n d s parameter scanning unit 22” (D-10-12, D -10-13, D-10-19).

を走査)
前掲の実施形態C−2と同じ処理で、以下が行なわれる。但し、本実施形態では、実施形態C−2とは異なり、ステップ(10)において「運動視差検出ユニットの応答強度を投票する」という処理が行なわれる。
(8)移動方向vを中心する半径rの円(図13)を考え、そのrを0からπ/2まで走査する(D−10−14,D−10−15,D−10−18)。
(Scans n d s )
The following is performed in the same process as in the above-described embodiment C-2. However, in this embodiment, unlike Embodiment C-2, a process of “voting the response intensity of the motion parallax detection unit” is performed in Step (10).
(8) Consider a circle with a radius r centered in the moving direction v (FIG. 13), and scan r from 0 to π / 2 (D-10-14, D-10-15, D-10-18). .

(rを走査)
(9)「変換ユニット406」では画素番号iが画素に変換され、以上で設定された五つのパラメータ,pinfτ,rを「小円構成要素 s+ s−の計算ユニット223」に入力して、図13を参照して説明した二つの交点 s+ s−を出力する(D−10−16)。
(10)その小円を構成する点 s+ s−を、「円柱配列投票ユニット224」の“高さの断面円内の点”に変換し、その点にステップ(6)で計算した「運動視差検出ユニットの応答強度」を投票する(D−10−17)。
(Scan r)
(9) In the “ i p 0 conversion unit 406”, the pixel number i is converted to the pixel i p 0 , and the five parameters n d s , i p 0 , p inf , k τ, r set above are changed to “small”. circular components i r n s +, enter the i r n s-calculation unit 223 ", with reference to Figure 13 two intersections i r n s + explained, i r n outputs the s-(D- 10-16).
(10) the small circle point constituting the i r n s +, a i r n s-, converted to "points in circular section of height n d s" of the "cylindrical array voting unit 224", to the point Vote the “response intensity of motion parallax detection unit” calculated in step (6) (D-10-17).

(rを走査(D−10−18))
(11)ここまでの処理で、位置の点が変換された一個の小円が、高さがの断面円内に描かれる。
(Scan r (D-10-18))
(11) Through the processing so far, one small circle in which the point at the position i p 0 has been transformed is drawn in the cross-sectional circle having a height of n d s .

を走査(D−10−19))
(kを走査(D−10−20))
(iを走査(D−10−21))
(12)ここまでの処理で、全ての高さ{}の断面円内に、“画像内の全ての点{}”が小円変換された小円群が描かれる。すなわち、円柱配列の全ての断面円に投票が行なわれる。
(Scan n d s (D-10-19) )
(Scan k (D-10-20))
(Scan i (D-10-21))
(12) In the processing up to this point, in the cross-sectional circle of all heights {n d s}, small circle group "all the points in the image {i p 0}" it is converted small circle is drawn. That is, voting is performed for all the cross-sectional circles in the columnar arrangement.

(vを走査(D−10−22))
(13)ここまでの処理で、“全ての移動方向パラメータvに対する円柱配列群”の全断面円に投票が行われる。
(14)上記の円柱配列群の中で、強度が最大になる“特定の円柱配列”「ピーク抽出ユニット225」により抽出する。この配列に対する移動方向パラメータとして、真の移動方向vが求められる。また、その配列の中で強度がピークになる点を抽出すると、その点の“高さ座標”として平面までの規格化最短距離s0が、また“断面円内の座標”として平面の3次元方位ns0が求められる(D−10−23)。
(Scanning v (D-10-22))
(13) In the process so far, voting is performed for all the cross-sectional circles of the “cylindrical array group for all moving direction parameters v”.
(14) In the above-described columnar array group, extraction is performed by the “specific columnar array” “peak extraction unit 225” having the maximum intensity. As the movement direction parameter for this array, the true movement direction v 0 is obtained. Further, when a point where the intensity reaches a peak in the array is extracted, the normalized shortest distance n d s0 to the plane is set as the “height coordinate” of the point, and 3 of the plane is set as the “coordinate in the cross-sectional circle”. The dimension orientation ns0 is obtained (D-10-23).

実施形態D−11(ステレオ+規格化最短距離)
図107は、本実施形態D−11の構成を示すブロック図、図108は、その動作を示すフローチャートである。
(1)前掲の実施形態B−1と同様、「paxis設定ユニット115」により、視軸上の位置paxisを視軸方向axisに等しいとして設定する(D−11−1)。
(2)「画素番号iの走査ユニット421」により、画像内の各点のアドレスiを下限値iminから上限値imaxまで走査する(D−11−2,D−11−3,D−11−19)。
Embodiment D-11 (stereo + standardized shortest distance)
FIG. 107 is a block diagram showing the configuration of the present embodiment D-11, and FIG. 108 is a flowchart showing its operation.
(1) As in the above-described embodiment B-1, the “p axis setting unit 115” sets the position p axis on the visual axis as equal to the visual axis direction a xis (D-11-1).
(2) The “scanning unit 421 of pixel number i” scans the address i of each point in the image from the lower limit value i min to the upper limit value i max (D-11-2, D-11-3, D− 11-19).

(iを走査)
(3)「を中心とする局所領域画像の切出しユニット422」により、“アドレスiに対する”を中心とする局所領域画像を、図167の左端に示すように、右および左カメラ412,413で得られた各画像から切り出す(D−11−4)。
(4)「両眼視差番号kの走査ユニット423」により、両眼視差番号kを下限値kminから上限値kmaxまで走査する(D−11−5,D−11−6,D−11−18)。
(Scan i)
(3) by "clipping unit 422 of the local region image centered on the i p R", the local region image centered on the "i p R for the address i", as shown at the left end of FIG. 167, right and left Cut out from each image obtained by the cameras 412 and 413 (D-11-4).
(4) The “binocular parallax number k scanning unit 423” scans the binocular parallax number k from the lower limit value k min to the upper limit value k max (D-11-5, D-11-6, D-11). -18).

(kを走査)
(5)実施形態D−5のステップ(5)と同様にして、「両眼視差σの変換ユニット424」により、この番号kを両眼視差σに変換して出力する(D−11−7)。但し、両眼視差σすなわち視差ベクトル(σ σ)の方向が、図24(A)の“からaxis(すなわち、paxis)への方向”と違っているときには、この視軸方向axisと矛盾する両眼視差のため、ステップ(10)までをスキップする(D−11−8)。
(6)実施形態Dのステップ(6)と同様にして、“右および左カメラの局所領域画像”および両眼視差σを「両眼視差検出ユニット425」(図167参照)に入力して、応答強度を下式で計算する(D−11−9)。
(Scan k)
(5) In the same manner as in step (5) of Embodiment D-5, the “binocular parallax k σ conversion unit 424” converts this number k into binocular parallax k σ and outputs it (D-11) -7). However, when the binocular parallax k σ, that is, the direction of the parallax vector ( k σ x k σ y ) is different from the “direction from i p R to a xis (that is, p axis )” in FIG. since the binocular parallax inconsistent with this visual axis direction a xis, skip to step (10) (D-11-8) .
(6) In the same manner as in step (6) of Embodiment D, the “local region images of the right and left cameras” and the binocular parallax k σ are input to the “binocular parallax detection unit 425” (see FIG. 167). The response intensity is calculated by the following equation (D-11-9).

応答強度=ΣΣ (x,y)(x−σ,y−σ
(7)規格化距離パラメータを「パラメータの走査ユニット122」により、下限値s,minから上限値s,maxまで走査する(D−11−10,D−11−11,D−11−17)。
Response intensity = Σ x Σ y i a R (x, y) i a L (x- k σ x, y- k σ y)
(7) The standardized distance parameter n d s is scanned from the lower limit value n d s, min to the upper limit value n d s, max by the “ n d s parameter scanning unit 122” (D-11-10, D− 11-11, D-11-17).

を走査)
前掲の実施形態C−3と同じ処理で、以下が行なわれる。但し、本実施形態では、実施形態C−3とは異なり、ステップ(10)において「両眼視差検出ユニットの応答強度を投票する」という処理が行なわれる。
(8)視軸方向axisを中心する半径rの円(図26)を考え、そのrを0からπ/2まで走査する(D−11−12,D−11−13,D−11−16)。
(Scans n d s )
The following is performed in the same process as in the above-described embodiment C-3. However, in the present embodiment, unlike the embodiment C-3, a process of “voting the response intensity of the binocular parallax detection unit” is performed in step (10).
(8) Consider a circle with a radius r centered on the visual axis direction a xis (FIG. 26), and scan r from 0 to π / 2 (D-11-12, D-11-13, D-11-). 16).

(rを走査)
(9)「変換ユニット426」では画素番号iが画素に変換され、以上で設定された五つのパラメータ,pinfσ,rを「小円構成要素 s+ s−の計算ユニット223」に入力して、図26を参照して説明した二つの交点 s+ s−を出力する(D−11−14)。
(10)その小円を構成する点 s+ s−を、「円柱配列投票ユニット224」の“高さの断面円内の点”に変換する。次に、その点にステップ(6)で計算した「両眼視差検出ユニットの応答強度」を投票する(D−11−15)。
(Scan r)
(9) In the “ i p R conversion unit 426”, the pixel number i is converted into the pixel i p R , and the five parameters n d s , i p 0 , p inf , k σ, r set above are changed to “small”. circular components i r n s +, enter the i r n s-calculation unit 223 ", the two intersection points i r n s + has been described with reference to FIG. 26, i r n outputs the s-(D- 11-14).
(10) the point constituting the small circle i r n s +, a i r n s-, converted to "points in circular section of height n d s" of the "cylindrical array voting unit 224". Next, the “response intensity of the binocular parallax detection unit” calculated in step (6) is voted for that point (D-11-15).

(rを走査(D−11−16))
(11)ここまでの処理で、位置の点が変換された一個の小円が、高さがの断面円内に描かれる。
(Scan r (D-11-16))
(11) Through the processing so far, one small circle in which the point at the position i p R has been transformed is drawn in a cross-sectional circle having a height of n d s .

を走査(D−11−17))
(kを走査(D−11−18))
(iを走査(D−11−19))
(12)ここまでの処理で、全ての高さ{}の断面円内に、“画像内の全ての点{}”が小円変換された小円群が描かれる。すなわち、円柱配列の全ての断面円に投票が行なわれる。
(13)「ピーク抽出ユニット225」により、円柱配列の中で“投票された強度が極大になる点”を抽出する――この極大点が“小円群が一点に交差する場所”である。この極大点の“高さ座標”として“平面までの規格化最短距離s0”が求められ、また“断面円内の座標”として平面の3次元方位ns0が求められる(D−11−20)。
(Scans n d s (D-11-17))
(Scan k (D-11-18))
(Scan i (D-11-19))
(12) In the processing up to this point, in the cross-sectional circle of all heights {n d s}, small circle group "all the points in the image {i p R}" is converted small circle is drawn. That is, voting is performed for all the cross-sectional circles in the columnar arrangement.
(13) The “peak extraction unit 225” extracts “the point where the voted intensity is maximized” in the cylindrical array—this maximum point is “the place where the small circles intersect at one point”. The maxima as "height coordinate""normalized shortest distance n d s0 to plane" is determined, the 3-dimensional orientation n s0 plane as "the coordinates of the cross section circle" is obtained (D-11- 20).

尚、ここでは規格化最短距離としたが、ΔxLRが一定のため、最短距離d(すなわちΔxLR)でもよい。この点は、本発明の、規格化最短距離を取り扱う全ての実施形態について同様である。 Although the normalized shortest distance n d s is used here, since Δx LR is constant, the shortest distance d s (that is, n d s Δx LR ) may be used. This point is the same for all embodiments of the present invention that handle the normalized shortest distance.

実施形態D−12(ステレオ+規格化最短距離+axis未知)
図109は、本実施形態D−12の構成を示すブロック図、図110は、その動作を示すフローチャートである。
Embodiment D-12 (stereo + normalized shortest distance + a xis unknown)
FIG. 109 is a block diagram showing the configuration of the present embodiment D-12, and FIG. 110 is a flowchart showing the operation thereof.

下記の(2)から(11)までのステップは、実施形態D−11の対応するステップと同じである。
(0)「axisパラメータの走査ユニット121」により、可能性のある全ての方向(下限値axis,minから上限値axis,maxまで)にわたって、“視軸方向パラメータaxis”を走査する(D−12−1,D−12−2,D−12−22)。
(1)「paxis設定ユニット115」により、“視軸上の位置paxis”をこのパラメータaxisに等しいとして設定する(D−12−3)。
The following steps (2) to (11) are the same as the corresponding steps in embodiment D-11.
(0) “ Axis parameter scanning unit 121” scans the “visual axis direction parameter a xis ” in all possible directions (from the lower limit value a xis, min to the upper limit value a xis, max ). (D-12-1, D-12-2, D-12-22).
(1) The “p axis setting unit 115” sets “position p axis on the visual axis ” as equal to the parameter a xis (D-12-3).

(axisを走査)
(2)「画素番号iの走査ユニット421」により、画像内の各点のアドレスiを下限値iminから上限値imaxまで走査する(D−12−4,D−12−5,D−12−21)。
( Scan axis )
(2) The “scan unit 421 of pixel number i” scans the address i of each point in the image from the lower limit value i min to the upper limit value i max (D-12-4, D-12-5, D− 12-21).

(iを走査)
(3)「を中心とする局所領域画像の切出しユニット422」により、“アドレスiに対応する画素”を中心とする局所領域画像を、図167の左端に示すように、右および左カメラ412,413で得られた各画像から切り出す(D−12−6)。
(4)「両眼視差番号kの走査ユニット423」により、両眼視差番号kを下限値kminから上限値kmaxまで走査する(D−12−7,D−12−8,D−12−20)。
(Scan i)
(3) by "clipping unit 422 of the local region image centered on the i p R", the local region image centered on the "pixel i p R corresponding to the address i", as shown at the left end of FIG. 167, Cut out from the images obtained by the right and left cameras 412 and 413 (D-12-6).
(4) The “binocular parallax number k scanning unit 423” scans the binocular parallax number k from the lower limit value k min to the upper limit value k max (D-12-7, D-12-8, D-12). -20).

(kを走査)
(5)実施形態D−5のステップ(5)と同様にして、「両眼視差σの変換ユニット425」により、この番号kを両眼視差σに変換して出力する(D−12−9)。但し、両眼視差σすなわち視差ベクトル(σ σ)の方向が、図24(A)の“からaxis(すなわち、paxis)への方向”と違っているときには、この視軸方向axisと矛盾する両眼視差のため、ステップ(10)までをスキップする(D−12−10)。
(6)実施形態D−5のステップ(6)と同様にして、“右および左カメラの局所領域画像”および両眼視差σを「両眼視差検出ユニット425」(図167参照)に入力して、応答強度を下式で計算する(D−12−11)。
(Scan k)
(5) In the same manner as in step (5) of Embodiment D-5, the “binocular parallax k σ conversion unit 425” converts this number k into binocular parallax k σ and outputs it (D-12) -9). However, when the binocular parallax k σ, that is, the direction of the parallax vector ( k σ x k σ y ) is different from the “direction from i p R to a xis (that is, p axis )” in FIG. since the binocular parallax inconsistent with this visual axis direction a xis, skip to step (10) (D-12-10) .
(6) “Local area images of right and left cameras” and binocular parallax k σ are input to “Binocular parallax detection unit 425” (see FIG. 167) in the same manner as in Step (6) of Embodiment D-5. Then, the response intensity is calculated by the following equation (D-12-11).

応答強度=ΣΣ (x,y)(x−σ,y−σ
(7)規格化最短距離パラメータを「パラメータの走査ユニット122」により、下限値s,minから上限値s,maxまで走査する(D−12−12,D−12−13,D−12−19)。
Response intensity = Σ x Σ y i a R (x, y) i a L (x- k σ x, y- k σ y)
(7) The standardized shortest distance parameter n d s is scanned from the lower limit value n d s, min to the upper limit value n d s, max by the “ n d s parameter scanning unit 122” (D-12-12, D -12-13, D-12-19).

を走査)
前掲の実施形態C−4と同じ処理で、以下が行なわれる。但し、本実施形態では、実施形態C−4とは異なり、ステップ(10)において「両眼視差検出ユニットの応答強度を投票する」という処理が行なわれる。
(8)視軸方向axisを中心する半径rの円(図26)を考え、そのrを0からπ/2まで走査する(D−12−14,D−12−15,D−12−18)。
(Scans n d s )
The following is performed in the same process as in the above-described embodiment C-4. However, in the present embodiment, unlike the embodiment C-4, a process of “voting the response intensity of the binocular parallax detection unit” is performed in step (10).
(8) Consider a circle with a radius r centered on the visual axis direction a xis (FIG. 26), and scan r from 0 to π / 2 (D-12-14, D-12-15, D-12-). 18).

(rを走査)
(9)「変換ユニット426」では画素番号iが画素に変換され、以上で設定された五つのパラメータ,pinfσ,rを「小円構成要素 s+ s−の計算ユニット223」に入力して、図26を参照して説明した二つの交点 s+ s−を出力する(D−12−16)。
(10)その小円を構成する点 s+ s−を、「円柱配列投票ユニット224」の“高さの断面円内の点”に変換し、その点にステップ(6)で計算した「両眼視差検出ユニットの応答強度」を投票する(D−12−17)。
(Scan r)
(9) In the “ i p R conversion unit 426”, the pixel number i is converted to the pixel i p R , and the five parameters n d s , i p R , p inf , k σ, r set above are changed to “small” circular components i r n s +, enter the i r n s-calculation unit 223 ", the two intersection points i r n s + has been described with reference to FIG. 26, i r n outputs the s-(D- 12-16).
(10) the small circle point constituting the i r n s +, a i r n s-, converted to "points in circular section of height n d s" of the "cylindrical array voting unit 224", to the point Vote “response intensity of binocular parallax detection unit” calculated in step (6) (D-12-17).

(rを走査(D−12−18))
(11)ここまでの処理で、位置の点が変換された一個の小円が、高さがの断面円内に描かれる。
(Scan r (D-12-18))
(11) Through the processing so far, one small circle in which the point at the position i p R has been transformed is drawn in a cross-sectional circle having a height of n d s .

を走査(D−12−19))
(kを走査(D−12−20))
(iを走査(D−12−21))
(12)ここまでの処理で、全ての高さ{}の断面円内に、“画像内の全ての点{}”が小円変換された小円群が描かれる。すなわち、円柱配列の全ての断面円に投票が行なわれる。
(Scanning n d s (D-12-19))
(Scan k (D-12-20))
(Scan i (D-12-21))
(12) In the processing up to this point, in the cross-sectional circle of all heights {n d s}, small circle group "all the points in the image {i p R}" is converted small circle is drawn. That is, voting is performed for all the cross-sectional circles in the columnar arrangement.

(axisを走査(D−12−22))
(13)ここまでの処理で、“全ての視軸方向パラメータaxisに対する円柱配列群”の全断面円に投票が行われる。
(14)上記の円柱配列群の中で、強度が最大になる“特定の円柱配列”を「ピーク抽出ユニット225」により抽出する。この配列に対する視軸方向パラメータとして、真の視軸方向axis0が求められる。また、その配列の中で強度がピークになる点を抽出すると、その点の“高さ座標”として平面までの規格化最短距離s0が、また“断面円内の座標”として平面の3次元方位ns0が求められる(D−12−23)。
( Scan axis (D-12-22))
(13) In the process so far, voting is performed on all the cross-sectional circles of the “column array group for all visual axis direction parameters a xis ”.
(14) “Peak extraction unit 225” extracts the “specific cylinder arrangement” having the maximum intensity from the above-described cylinder arrangement group. As the visual axis direction parameter for this arrangement, the true visual axis direction axis0 is obtained. Further, when a point where the intensity reaches a peak in the array is extracted, the normalized shortest distance n d s0 to the plane is set as the “height coordinate” of the point, and 3 of the plane is set as the “coordinate in the cross-sectional circle”. The dimension orientation ns0 is obtained (D-12-23).

実施形態E
実施形態E−1(規格化時間)
図111は、本実施形態E−1の構成を示すブロック図、図112,図113はその動作を示すフローチャートである。
(α)ijτテーブル(図163)――すなわち、入力画像の画素番号iと円柱配列の要素番号jから、運動視差ijτを検索して出力するためのテーブル――の作成(図111(A),図112参照)
(α1)移動方向vを前掲の実施形態A−1のステップ(1)と同様にして抽出し、「pinf設定ユニット501」により、この移動方向vに等しいとして“無限時間経過後の位置pinf”を設定する(E−1α−1)。
(α2)「画素番号iの走査ユニット502」により、画像内の各点のアドレスiを下限値iminから上限値imaxまで走査する(E−1α−2,E−1α−3,E−1α−10)。
Embodiment E
Embodiment E-1 (standardization time)
FIG. 111 is a block diagram showing the configuration of the present embodiment E-1, and FIGS. 112 and 113 are flowcharts showing the operation thereof.
(Α) ij τ table (FIG. 163) —that is, a table for retrieving and outputting motion parallax ij τ from the pixel number i of the input image and the element number j of the cylindrical array (FIG. 111 ( A), see FIG. 112)
(Α1) The moving direction v is extracted in the same manner as in step (1) of the above-described embodiment A-1, and the “p inf setting unit 501” determines that the moving direction v is equal to the moving direction v, “position p after infinite time has elapsed. inf "is set (E-1α-1).
(Α2) The “scanning unit 502 of pixel number i” scans the address i of each point i p 0 in the image from the lower limit value i min to the upper limit value i max (E-1α-2, E-1α-3 , E-1α-10).

(iを走査)
(α3)「要素番号jの走査ユニット503」により、円柱配列内の要素(nsjcj)のアドレスjを下限値jminから上限値jmaxまで走査する(E−1α−4,E−1α−5,E−1α−9)。
(Scan i)
(Α3) The “scan unit 503 of element number j” scans the address j of the element (n sj , n t cj ) in the cylindrical array from the lower limit value j min to the upper limit value j max (E-1α-4, E-1α-5, E-1α-9).

(jを走査)
(α4)「出力ユニット504」、「nsj出力ユニット505」、および「cj出力ユニット506」により、これらアドレス(i,j)に対応する、画像内の画素および円柱配列要素(nsjcj)を出力する(E−1α−6)。
(α5)以上で設定された四つのパラメータnsjcj,pinfを「ijτテーブル作成ユニット507」に入力して、付録の(A−1)に示す方法で運動視差ijτを計算する(E−1α−7)。
(Scan j)
(Α4) “ i p 0 output unit 504”, “n sj output unit 505”, and “ n t cj output unit 506” allow the pixels i p 0 in the image corresponding to these addresses (i, j) and The cylindrical array elements (n sj , n t cj ) are output (E-1α-6).
(Α5) The four parameters n sj , n t cj , i p 0 , and p inf set above are input to the “ ij τ table creation unit 507”, and the motion is performed by the method shown in (A-1) of the appendix. The parallax ij τ is calculated (E-1α-7).

ここでは煩雑になるため、以下の運動方向(からへの運動方向、すなわちijφ)などを省略した。第1に、付録の(A)で計算したPからijφを求め、これもijτテーブルの内容にする必要があり、また、下記ステップ(β5)で検出されるべき動きベクトル(ijτijτ)の方向tan−1ijτijτ)とこのijφが一致するときだけ投票する必要があるが、これらを省略した。以下の、同様の処理を伴う実施形態においても同様に省略した。 To become complicated here, following movement direction (movement direction from i p 0 to i p 1, i.e. ij phi) is omitted like. First, ij φ is obtained from P 1 calculated in (A) of the appendix, and this also needs to be the contents of the ij τ table, and the motion vector ( ij τ) to be detected in the following step (β5) It is necessary to vote only when the direction tan −1 ( ij τ y / ij τ x ) in the x , ij τ y ) and this ij φ match, but these are omitted. This is also omitted in the following embodiments involving similar processing.

尚、運動視差ijτは、付録の(A−1)に示す方法に限らず、どのような方法で計算してもよい。この点、付録の(A−1)に示す方法で運動視差の計算を行う旨説明した全ての実施形態において同様である。 The motion parallax ij τ is not limited to the method shown in Appendix (A-1), and may be calculated by any method. This is the same in all the embodiments described to calculate motion parallax by the method shown in Appendix (A-1).

また、本実施形態では、ijτテーブルを作成し、実際の投票にあたってはその作成済のijτテーブルからijτを取り出したが、ijτテーブルをあらかじめ作成しておく必要はなく、投票のための演算を行なう際にijτを計算してもよい。
(α6)この運動視差ijτを、ijτテーブル(図163)のアドレス(i,j)に対応する内容として格納する(E−1α−8)。
Further, in the present embodiment, an ij τ table is created, and ij τ is extracted from the created ij τ table in actual voting. However, it is not necessary to create the ij τ table in advance. Ij τ may be calculated when performing the above operation.
(Α6) This motion parallax ij τ is stored as contents corresponding to the address (i, j) of the ij τ table (FIG. 163) (E-1α-8).

(jを走査(E−1α−9))
(iを走査(E−1α−10))
以上によりijτテーブル(図163)が得られる。
(β)上記で作成されたijτテーブルを用いて、平面方位ns0と規格化時間c0を検出する(図111,図113参照)。
(β1)「画素番号iの走査ユニット552」により、画像内の各点のアドレスiを下限値iminから上限値imaxまで走査する(E−1β−1,E−1β−2,E−1β−10)。
(Scan j (E-1α-9))
(Scan i (E-1α-10))
Thus, the ij τ table (FIG. 163) is obtained.
(Β) Using the ij τ table created above, the plane orientation n s0 and the normalized time n t c0 are detected (see FIGS. 111 and 113).
(Β1) The address i of each point i p 0 in the image is scanned from the lower limit value i min to the upper limit value i max by “scanning unit 552 of pixel number i” (E-1β-1, E-1β-2) , E-1β-10).

(iを走査)
(β2)実施形態D−1のステップ(3)と同様にして、「を中心とする局所領域画像の切出しユニット554」により、カメラ551で得られた現時刻tと次時刻tの各画像から“アドレスiに対応する画素”を中心とする各局所領域画像を、現時刻tと次時刻tについて切り出す(E−1β−3)。
(β3)「要素番号jの走査ユニット553」により、円柱配列内の要素(nsjcj)のアドレスjを下限値jminから上限値jmaxまで走査する(E−1β−4,E−1β−5,E−1β−9)。
(Scan i)
(Β2) Similar to step (3) in Embodiment D-1, the current time t 0 and the next time t obtained by the camera 551 by the “local region image extraction unit 554 centered on i p 0 ”. Each local region image centered on “pixel i p 0 corresponding to address i” is cut out from each image of 1 for the current time t 0 and the next time t 1 (E-1β-3).
( Β3 ) The address j of the element (n sj , n t cj ) in the columnar array is scanned from the lower limit value j min to the upper limit value j max by the “scan unit 553 of element number j” (E-1β-4, E-1β-5, E-1β-9).

(jを走査)
(β4)これらアドレス(i,j)をijτテーブル555(図163)に入力して、運動視差ijτを出力する(E−1β−6)。
(β5)実施形態D−1のステップ(6)と同様にして、“現時刻tと次時刻tの局所領域画像”および運動視差τを「運動視差検出ユニット556」(図159)に入力して、応答強度を下式で計算する(E−1β−7)。
(Scan j)
(Β4) These addresses (i, j) are input to the ij τ table 555 (FIG. 163), and the motion parallax ij τ is output (E-1β-6).
(Β5) In the same manner as in step (6) of Embodiment D-1, “local image of current time t 0 and next time t 1 ” and motion parallax k τ are determined as “motion parallax detection unit 556” (FIG. 159). And the response intensity is calculated by the following equation (E-1β-7).

応答強度=ΣΣ (x,y)(x−ijτ,y−ijτ
(β6)この応答強度を、「円柱配列投票ユニット557」内の要素(nsjcj)に投票する(E−1β−8)。
Response intensity = Σ x Σ y i a 0 (x, y) i a 1 (x- ij τ x, y- ij τ y)
(Β6) Vote this response intensity to the elements (n sj , n t cj ) in the “cylindrical array voting unit 557” (E-1β-8).

(jを走査(E−1β−9))
(iを走査(E−1β−10))
(β7)「ピーク抽出ユニット558」により、円柱配列の中で“投票された強度が極大(ピーク)になる点”を抽出する――この極大点が“大円群が一点に交差する場所”である。この極大点の“高さ座標”として“平面を横切るまでの規格化時間c0”が求められ、また“断面円内の座標”として平面の3次元方位ns0が求められる(E−1β−11)。
(Scan j (E-1β-9))
(Scan i (E-1β-10))
(Β7) “Peak extraction unit 558” extracts “the point at which the voted intensity becomes a maximum (peak)” in the cylindrical array—this maximum point is “the place where the great circles intersect at one point” It is. As the “height coordinate” of this local maximum point, “normalized time n t c0 until crossing the plane” is obtained, and as the “coordinate in the cross-sectional circle”, the three-dimensional orientation n s0 of the plane is obtained (E-1β -11).

実施形態E−2(規格化時間+v未知)
図114は、本実施形態E−2の構成を示すブロック図、図115,図116はその動作を示すフローチャートである。
(α)全ての移動方向{v}に対するijτテーブル(図164)――すなわち、入力画像の画素番号i、円柱配列の要素番号j、そして移動方向vから運動視差ijτを検索して出力するためのテーブル――の作成(図114(A),図115参照)
下記の(α2)から(α6)までのステップは、実施形態E−1(α)の対応するステップと同じである。
(α0)「vパラメータの走査ユニット508」により、可能性のある全ての方向(下限値vminから上限値vmaxまで)にわたって、“移動方向パラメータv”を走査する(E−2α−1,E−2α−2,E−2α−13)。
Embodiment E-2 (normalization time + v unknown)
FIG. 114 is a block diagram showing the configuration of the present embodiment E-2, and FIGS. 115 and 116 are flowcharts showing the operation thereof.
(Α) ij τ table (FIG. 164) for all moving directions {v} (ie, search and output motion parallax ij τ from pixel number i of input image, element number j of cylindrical array, and moving direction v) To create a table to do (see FIG. 114 (A), FIG. 115)
The steps from (α2) to (α6) below are the same as the corresponding steps in embodiment E-1 (α).
(Α0) “V-parameter scanning unit 508” scans “movement direction parameter v” in all possible directions (from lower limit value v min to upper limit value v max ) (E-2α−1, E-2α-2, E-2α-13).

(vを走査)
(α1)「pinf設定ユニット501」により、“無限時間経過後の位置pinf”をこのパラメータvに等しいとして設定する(E−2α−3)。
(α2)「画素番号iの走査ユニット502」により、画像内の各点のアドレスiを下限値iminから上限値imaxまで走査する(E−2α−4,E−2α−5,E−2α−12)。
(Scan v)
(Α1) “p inf setting unit 501” sets “position p inf after infinite time has elapsed” to be equal to this parameter v (E-2α-3).
(Α2) The “scanning unit 502 of pixel number i” scans the address i of each point i p 0 in the image from the lower limit value i min to the upper limit value i max (E-2α-4, E-2α-5 , E-2α-12).

(jを走査)
(α3)「要素番号jの走査ユニット503」により、円柱配列内の要素(nsjcj)のアドレスjを下限値jminから上限値jmaxまで走査する(E−2α−6,E−2α−7,E−2α−11)。
(Scan j)
(Α3) The “scan unit 503 of element number j” scans the address j of the element (n sj , n t cj ) in the cylindrical array from the lower limit j min to the upper limit j max (E-2α-6, E-2α-7, E-2α-11).

(jを走査)
(α4)「出力ユニット504」、「nsj出力ユニット505」、および「cj出力ユニット506」により、これらアドレス(i,j)に対応する、画像内の画素および円柱配列要素(nsjcj)を出力する(E−2α−8)。
(α5)以上で設定された四つのパラメータnsjcj,pinfを「ijτテーブル作成ユニット507」に入力して、付録(A−1)に示す方法で運動視差ijτを計算する(E−2α−9)。
(α6)この運動視差ijτを、ijτテーブル(図164)のアドレス(i,j)に対応する内容として格納する(E−2α−10)。
(Scan j)
(Α4) “ i p 0 output unit 504”, “n sj output unit 505”, and “ n t cj output unit 506” allow the pixels i p 0 in the image corresponding to these addresses (i, j) and The cylindrical array elements (n sj , n t cj ) are output (E-2α-8).
(Α5) The four parameters n sj , n t cj , i p 0 , and p inf set above are input to the “ ij τ table creation unit 507”, and the motion parallax is performed according to the method shown in Appendix (A-1). ij τ is calculated (E-2α-9).
(Α6) This motion parallax ij τ is stored as content corresponding to the address (i, j) of the ij τ table (FIG. 164) (E-2α-10).

(jを走査(E−2α−11))
(iを走査(E−2α−12))
(α7)ここまで処理で、各移動方向vに対するijτテーブルが得られる。
(Scan j (E-2α-11))
(Scan i (E-2α-12))
(Α7) By the processing so far, an ij τ table for each moving direction v is obtained.

以上により、全ての移動方向{v}に対するijτテーブル(図164)が得られる。
(β)上記で作成されたijτテーブルを用いて、平面方位ns0と規格化時間c0を検出する(図114(B),図116参照)
下記の(β1)から(β6)までのステップは、実施形態E−1の対応するステップと同じである。
(β0)「vパラメータの走査ユニット559」により、可能性のある全ての方向(下限値vminから上限値vmaxまで)にわたって、“移動方向パラメータv”を走査する(E−2β−1,E−2β−2,E−2β−13)。
As described above, the ij τ table (FIG. 164) for all the moving directions {v} is obtained.
(Β) Using the ij τ table created above, the plane orientation n s0 and the normalized time n t c0 are detected (see FIGS. 114B and 116).
The steps from (β1) to (β6) below are the same as the corresponding steps in embodiment E-1.
(Β0) “V-parameter scanning unit 559” scans the “movement direction parameter v” in all possible directions (from the lower limit value v min to the upper limit value v max ) (E-2β-1, E-2β-2, E-2β-13).

(vを走査)
(β1)「画素番号iの走査ユニット552」により、画像内の各点のアドレスiを下限値iminから上限値imaxまで走査する(E−2β−3,E−2β−4,E−2β−12)。
(Scan v)
(Β1) The address i of each point i p 0 in the image is scanned from the lower limit value i min to the upper limit value i max by “scanning unit 552 of pixel number i” (E-2β-3, E-2β-4 , E-2β-12).

(iを走査)
(β2)実施形態D−1のステップ(3)と同様にして、「を中心とする局所領域画像の切出しユニット554」により、カメラ551で得られた現時刻tと次時刻tの各画像から、“アドレスiに対応する画素”を中心とする各局所領域画像を、現時刻tと次時刻tについて切り出す(E−2β−5)。
(β3)「要素番号jの走査ユニット553」により、円柱配列内の要素(nsjcj)のアドレスjを下限値jminから上限値jmaxまで走査する(E−2β−6,E−2β−7,E−2β−11)。
(Scan i)
(Β2) Similar to step (3) in Embodiment D-1, the current time t 0 and the next time t obtained by the camera 551 by the “local region image extraction unit 554 centered on i p 0 ”. Each local area image centered on “pixel i p 0 corresponding to address i” is cut out from each image of 1 at the current time t 0 and the next time t 1 (E-2β-5).
( Β3 ) The address j of the element (n sj , n t cj ) in the cylindrical array is scanned from the lower limit value j min to the upper limit value j max by the “scan unit 553 of element number j” (E-2β-6, E-2β-7, E-2β-11).

(jを走査)
(β4)これらアドレス(i,j)と移動方向vをijτテーブル555(図164)に入力して、運動視差ijτを出力する(E−2β−8)。
(β5)実施形態D−1のステップ(6)と同様にして、“現時刻tと次時刻tの局所領域画像”および運動視差ijτを「運動視差検出ユニット556」(図159参照)に入力して、応答強度を下式で計算する(E−2β−9)。
(Scan j)
(Β4) These addresses (i, j) and moving direction v are input to the ij τ table 555 (FIG. 164), and motion parallax ij τ is output (E-2β-8).
(Β5) Similarly to step (6) of Embodiment D-1, “local image of current time t 0 and next time t 1 ” and motion parallax ij τ are expressed as “motion parallax detection unit 556” (see FIG. 159). ) And the response intensity is calculated by the following equation (E-2β-9).

応答強度=ΣΣ (x,y)(x−ijτ,y−ijτ
(β6)この応答強度を、「円柱配列投票ユニット557」内の要素(nsjcj)に投票する(E−2β−10)。
Response intensity = Σ x Σ y i a 0 (x, y) i a 1 (x- ij τ x, y- ij τ y)
(Β6) Vote this response intensity to the elements (n sj , n t cj ) in the “cylindrical array voting unit 557” (E-2β-10).

(jを走査(E−2β−11))
(iを走査(E−2β−12))
(β7)ここまでの処理で、円柱配列内の全要素に投票が行われる。
(Scan j (E-2β-11))
(Scan i (E-2β-12))
(Β7) In the process so far, voting is performed for all the elements in the cylindrical array.

(vを走査(E−2β−13))
(β8)ここまでの処理で、全ての移動方向パラメータvに対する円柱配列群の全要素に投票が行われる。
(β9)上記の円柱配列群の中で、強度が最大になる“特定の円柱配列”を「ピーク抽出ユニット558」により抽出する。この配列に対する移動方向パラメータとして、真の移動方向vが求められる。また、その配列の中で強度がピークになる点を抽出すると、その点の“高さ座標”として平面を横切るまでの規格化時間c0が、また“断面円内の座標”として平面の3次元方位ns0が求められる(E−2β−14)。
(Scanning v (E-2β-13))
(Β8) In the process so far, voting is performed for all elements of the cylindrical array group for all the movement direction parameters v.
(Β9) Among the above-described columnar array group, the “specific columnar array” having the maximum intensity is extracted by the “peak extraction unit 558”. As the movement direction parameter for this array, the true movement direction v 0 is obtained. Further, when a point at which the intensity reaches a peak in the array is extracted, the normalization time n t c0 until the plane is crossed as the “height coordinate” of the point is obtained, and the coordinate of the plane is obtained as the “coordinate in the cross-sectional circle”. A three-dimensional orientation ns0 is obtained (E-2β-14).

実施形態E−3(規格化最短距離)
図117は、本実施形態E−3の構成を示すブロック図、図118,図119はそのフローチャートである。
(α)ijτテーブル(図163)――すなわち、入力画像の画素番号iと円柱配列の要素番号jから、運動視差ijτを検索して出力するためのテーブル――の作成(図117(A)、図118参照)
(α1)移動方向vを前掲の実施形態A−1のステップ(1)と同様にして抽出し、「pinf設定ユニット501」により、この移動方向vに等しいとして“無限時間経過後の位置pinf”を設定する(E−3α−1)。
(α2)「画素番号iの走査ユニット502」により、画像内の各点のアドレスiを下限値iminから上限値imaxまで走査する。(E−3α−2,E−3α−3,E−3α−10)。
Embodiment E-3 (standardized shortest distance)
FIG. 117 is a block diagram showing the configuration of the embodiment E-3, and FIGS. 118 and 119 are flowcharts thereof.
(Α) ij τ table (FIG. 163) —that is, a table for retrieving and outputting motion parallax ij τ from the pixel number i of the input image and the element number j of the cylindrical array (FIG. 117 ( A), see FIG. 118)
(Α1) The moving direction v is extracted in the same manner as in step (1) of the above-described embodiment A-1, and the “p inf setting unit 501” determines that the moving direction v is equal to the moving direction v, “position p after infinite time has elapsed inf "is set (E-3α-1).
(Α2) The “scan unit 502 with pixel number i” scans the address i of each point i p 0 in the image from the lower limit value i min to the upper limit value i max . (E-3α-2, E-3α-3, E-3α-10).

(iを走査)
(α3)「要素番号jの走査ユニット503」により、円柱配列内の要素(nsjsj)のアドレスjを下限値jminから上限値jmaxまで走査する。
(Scan i)
( Α3 ) The address j of the element (n sj , n d sj ) in the cylindrical array is scanned from the lower limit value j min to the upper limit value j max by the “scan unit 503 of element number j”.

(jを走査)
(α4)「出力ユニット504」、「nsj出力ユニット505」、「sj出力ユニット509」により、これらアドレス(i,j)に対応する、画像内の画素および円柱配列要素(nsjsj)を出力する(E−3α−6)。
(α5)以上で設定された四つのパラメータnsjsj,pinfを「ijτテーブル作成ユニット510」に入力して、付録(A−2)に示す方法で運動視差ijτを計算する(E−3α−7)。
(Scan j)
(Α4) “ i p 0 output unit 504”, “n sj output unit 505”, and “ n d sj output unit 509” cause pixel i p 0 and cylinder in the image corresponding to these addresses (i, j) The array element (n sj , n d sj ) is output (E-3α-6).
Four parameters n sj set in (.alpha.5) above, n d sj, i p 0 , the p inf enter the "ij tau table making unit 510 ', motion parallax in the manner shown in Appendix (A-2) ij τ is calculated (E-3α-7).

尚、運動視差ijτは、付録の(A−2)に示す方法に限らず、どのような方法で計算してもよい。この点、付録の(A−2)に示す方法で運動視差の計算を行う旨説明した全ての実施形態において同様である。
(α6)この運動視差ijτを、ijτテーブル(図163)のアドレス(i,j)に対応する内容として格納する(E−3α−8)。
The motion parallax ij τ is not limited to the method shown in Appendix (A-2), and may be calculated by any method. This is the same in all the embodiments described to calculate motion parallax by the method shown in Appendix (A-2).
(Α6) This motion parallax ij τ is stored as contents corresponding to the address (i, j) of the ij τ table (FIG. 163) (E-3α-8).

(jを走査(E−3α−9))
(iを走査(E−3α−10))
以上によりijτテーブル(図163)が得られる。
(β)上記で作成されたijτテーブルを用いて、平面方位ns0と規格化最短距離s0を検出する(図117(B)、図119参照)
(β1)「画素番号iの走査ユニット552」により、画像内の各点のアドレスiを下限値iminから上限値imaxまで走査する(E−3β−1,E−3β−2,E−3β−10)。
(Scan j (E-3α-9))
(Scan i (E-3α-10))
Thus, the ij τ table (FIG. 163) is obtained.
(Β) Using the ij τ table created above, the plane orientation n s0 and the normalized shortest distance n d s0 are detected (see FIGS. 117 (B) and 119).
(Β1) The address i of each point i p 0 in the image is scanned from the lower limit value i min to the upper limit value i max by “scanning unit 552 of pixel number i” (E-3β-1, E-3β-2) , E-3β-10).

(iを走査)
(β2)実施形態D−1のステップ(3)と同様にして、「を中心とする局所領域画像の切出しユニット554」により、カメラ551で得られた現時刻tと次時刻tの各画像から、“アドレスiに対応する画素”を中心とする各局所領域画像を、現時刻tと次時刻tについて切り出す(E−3β−3)。
(β3)「要素番号jの走査ユニット553」により、「円柱配列内の要素(nsjsj)のアドレスjを下限値jminから上限値jmaxまで走査する(E−3β−4,E−3β−5,E−3β−9)。
(Scan i)
(Β2) Similar to step (3) in Embodiment D-1, the current time t 0 and the next time t obtained by the camera 551 by the “local region image extraction unit 554 centered on i p 0 ”. Each local area image centered on “pixel i p 0 corresponding to address i” is cut out from each image of 1 for the current time t 0 and the next time t 1 (E-3β-3).
(Β3) “Address j of element (n sj , n d sj ) in the columnar array is scanned from lower limit value j min to upper limit value j max by“ scanning unit 553 of element number j ”(E-3β-4) , E-3β-5, E-3β-9).

(jを走査)
(β4)これらアドレス(i,j)をijτテーブル565(図163)に入力して、運動視差ijτを出力する(E−3β−6)。
(β5)実施形態D−1のステップ(6)と同様にして、“現時刻tと次時刻tの局所領域画像”および運動視差ijτを「運動視差検出ユニット566」(図159参照)に入力して、応答強度を下式で計算する(E−3β−7)。
(Scan j)
(Β4) These addresses (i, j) are input to the ij τ table 565 (FIG. 163), and the motion parallax ij τ is output (E-3β-6).
(Β5) In the same manner as in step (6) of Embodiment D-1, “local image of current time t 0 and next time t 1 ” and motion parallax ij τ are set as “motion parallax detection unit 566” (see FIG. 159). ) And the response intensity is calculated by the following equation (E-3β-7).

応答強度=ΣΣ (x,y)(x−ijτ,y−ijτ
(β6)この応答強度を、「円柱配列投票ユニット567」内の要素(nsjsj)に投票する(E−3β−8)。
Response intensity = Σ x Σ y i a 0 (x, y) i a 1 (x- ij τ x, y- ij τ y)
(Β6) Vote this response strength to the elements (n sj , n d sj ) in the “cylindrical array voting unit 567” (E-3β-8).

(jを走査(E−3β−9))
(iを走査(E−3β−10))
(β7)「ピーク抽出ユニット568」により、円柱配列の中で“投票された強度が極大(ピーク)になる点”を抽出する――この極大点が“大円群が一点に交差する場所”である。この極大点の“高さ座標”として“平面を横切るまでの規格化最短距離s0”が求められ、また“断面円内の座標”として平面の3次元方位ns0が求められる(E−3β−11)。
(Scan j (E-3β-9))
(Scan i (E-3β-10))
(Β7) “Peak extraction unit 568” extracts “the point at which the voted intensity becomes a maximum (peak)” in the cylindrical array—this maximum point is “the place where the great circles intersect at one point” It is. As the “height coordinate” of this local maximum point, the “normalized shortest distance n d s0 until it crosses the plane” is obtained, and as the “coordinate within the cross-sectional circle”, the three-dimensional orientation ns 0 of the plane is obtained (E− 3β-11).

実施形態E−4(規格化最短距離+v未知)
図120は、本実施形態E−4の構成を示すブロック図、図121、図122は、その動作を示すフローチャートである。
(α)全ての移動方向{v}に対するijτテーブル(図164)――すなわち、入力画像の画素番号i、円柱配列の要素番号j、そして移動方向vから運動視差ijτを検索して出力するためのテーブル――の作成(図120(A),図121参照)
下記の(α2)から(α6)までのステップは、実施形態E−3(α)の対応するステップと同じである。
(α0)「vパラメータの走査ユニット508」により、可能性のある全ての方向(下限値vminから上限値vmaxまで)にわたって、“移動方向パラメータv”を走査する(E−4α−1,E−4α−2,E−4α−13)。
Embodiment E-4 (standardized shortest distance + v unknown)
120 is a block diagram showing the configuration of the present embodiment E-4, and FIGS. 121 and 122 are flowcharts showing the operation thereof.
(Α) ij τ table (FIG. 164) for all moving directions {v} (ie, search and output motion parallax ij τ from pixel number i of input image, element number j of cylindrical array, and moving direction v) To create a table to do (see FIG. 120 (A), FIG. 121)
The steps from (α2) to (α6) below are the same as the corresponding steps in embodiment E-3 (α).
(Α0) “V-parameter scanning unit 508” scans “movement direction parameter v” in all possible directions (lower limit value v min to upper limit value v max ) (E-4α-1, E-4α-2, E-4α-13).

(vを走査)
(α1)「pinf設定ユニット501」により、“無限時間経過後の位置pinf”をこのパラメータvに等しいとして設定する(E−4α−3)。
(α2)「画素番号iの走査ユニット502」により、画像内の各点のアドレスiを下限値iminから上限値imaxまで走査する(E−4α−4,E−4α−5,E−4α−12)。
(Scan v)
(Α1) “P inf setting unit 501” sets “position p inf after infinite time has elapsed” to be equal to this parameter v (E-4α-3).
(Α2) The “scanning unit 502 of pixel number i” scans the address i of each point i p 0 in the image from the lower limit value i min to the upper limit value i max (E-4α-4, E-4α-5 , E-4α-12).

(iを走査)
(α3)「要素番号jの走査ユニット503」により、円柱配列内の要素(nsjsj)のアドレスjを下限値jminから上限値jmaxまで走査する(E−4α−6,E−4α−7,E−4α−11)。
(Scan i)
(Α3) The “scan unit 503 of element number j” scans the address j of the element (n sj , n d sj ) in the cylindrical array from the lower limit j min to the upper limit j max (E-4α-6, E-4α-7, E-4α-11).

(jを走査)
(α4)「出力ユニット504」、「nsj出力ユニット505」、「sj出力ユニット509」により、これらアドレス(i,j)に対応する、画像内の画素および円柱配列要素(nsjsj)を出力する(E−4α−8)。
(α5)以上で設定された四つのパラメータnsjsj,pinfを「ijτテーブル作成ユニット510」に入力して、付録の(A−2)に示す方法で運動視差ijτを計算する(E−4α−9)。
(α6)この運動視差ijτを、ijτテーブル(図164)のアドレス(i,j)に対応する内容に格納する(E−4α−10)。
(Scan j)
(Α4) “ i p 0 output unit 504”, “n sj output unit 505”, and “ n d sj output unit 509” cause pixel i p 0 and cylinder in the image corresponding to these addresses (i, j) The array element (n sj , n d sj ) is output (E-4α-8).
Four parameters n sj set in (.alpha.5) above, n d sj, a i p 0, p inf enter the "ij tau table making unit 510 ', movement in the manner shown in appendix (A-2) The parallax ij τ is calculated (E-4α-9).
(Α6) This motion parallax ij τ is stored in the contents corresponding to the address (i, j) in the ij τ table (FIG. 164) (E-4α-10).

(jを走査(E−4α−11))
(iを走査(E−4α−12))
(α7)ここまで処理で、各移動方向vに対するijτテーブルが得られる。
(Scan j (E-4α-11))
(Scan i (E-4α-12))
(Α7) By the processing so far, an ij τ table for each moving direction v is obtained.

(vを走査(E−4α−13))
以上により:全ての移動方向{v}に対するijτテーブル(図164)が得られる。
(β)上記で作成されたijτテーブルを用いて、平面方位ns0と規格化最短距離s0を検出する(図120(B),図122参照)
下記の(β1)から(β6)までのステップは、実施形態E−3の対応するステップと同じである。
(β0)「vパラメータの走査ユニット559」により、可能性のある全ての方向(下限値vminから上限値vmaxまで)にわたって、“移動方向パラメータv”を走査する(E−4β−1,E−4β−2,E−4β−13)
(β1)「画素番号iの走査ユニット552」により、画像内の各点のアドレスiを下限値iminから上限値imaxまで走査する(E−4β−3,E−4β−4,E−4β−12)。
(Scanning v (E-4α-13))
From the above: an ij τ table (FIG. 164) for all moving directions {v} is obtained.
(Β) Using the ij τ table created above, the plane orientation n s0 and the normalized shortest distance n d s0 are detected (see FIGS. 120B and 122).
The steps from (β1) to (β6) below are the same as the corresponding steps in embodiment E-3.
(Β0) “V-parameter scanning unit 559” scans the “movement direction parameter v” in all possible directions (from the lower limit value v min to the upper limit value v max ) (E-4β-1, E-4β-2, E-4β-13)
(Β1) The address i of each point i p 0 in the image is scanned from the lower limit value i min to the upper limit value i max by “scanning unit 552 of pixel number i” (E-4β-3, E-4β-4 , E-4β-12).

(iを走査)
(β2)実施形態D−1のステップ(3)と同様にして、「を中心とする局所領域画像の切出しユニット554」により、カメラ551で得られた現時刻tと次時刻tの各画像から、“アドレスiに対応する画素”を中心とする局所領域画像を、現時刻tと次時刻tについて切り出す(E−4β−5)。
(β3)「要素番号jの走査ユニット553」により、円柱配列内の要素(nsjsj)のアドレスjを下限値jminから上限値jmaxまで走査する(E−4β−6,E−4β−7,E−4β−11)。
(Scan i)
(Β2) Similar to step (3) in Embodiment D-1, the current time t 0 and the next time t obtained by the camera 551 by the “local region image extraction unit 554 centered on i p 0 ”. A local area image centered on “pixel i p 0 corresponding to address i” is cut out from each image of 1 at the current time t 0 and the next time t 1 (E-4β-5).
(Β3) The “scan unit 553 of element number j” scans the address j of the element (n sj , n d sj ) in the cylindrical array from the lower limit value j min to the upper limit value j max (E-4β-6, E-4β-7, E-4β-11).

(jを走査)
(β4)これらアドレス(i,j)をijτテーブル(図164)に入力して、運動視差ijτを出力する(E−4β−8)。
(β5)実施形態D−1のステップ(6)と同様にして、“現時刻tと次時刻tの局所領域画像”および運動視差ijτを「運動視差検出ユニット566」(図159)に入力して、応答強度を下式で計算する(E−4β−9)。
(Scan j)
(Β4) These addresses (i, j) are input to the ij τ table (FIG. 164), and the motion parallax ij τ is output (E-4β-8).
(Β5) Similarly to step (6) of Embodiment D-1, “local image of current time t 0 and next time t 1 ” and motion parallax ij τ are expressed as “motion parallax detection unit 566” (FIG. 159). And the response intensity is calculated by the following equation (E-4β-9).

応答強度=ΣΣ (x,y)(x−ijτ,y−ijτ
(β6)この応答強度を、「円柱配列投票ユニット567内の要素(nsjsj)に投票する(E−4β−10)。
Response intensity = Σ x Σ y i a 0 (x, y) i a 1 (x- ij τ x, y- ij τ y)
(Β6) This response intensity is voted for “elements (n sj , n d sj ) in the cylindrical array voting unit 567 (E-4β-10).

(jを走査(E−4β−11))
(iを走査(E−4β−12))
(β7)ここまでの処理で、円柱配列内の全要素に投票が行われる。
(Scan j (E-4β-11))
(Scan i (E-4β-12))
(Β7) In the process so far, voting is performed for all the elements in the cylindrical array.

(vを走査(E−4β−13))
(β8)ここまでの処理で、全ての移動方向パラメータvに対する円柱配列群の全要素に投票が行われる。
(β9)上記の円柱配列群の中で、強度が最大になる“特定の円柱配列”を「ピーク抽出ユニット568」により抽出する。この配列に対する移動方向パラメータとして、真の移動方向vが求められる。また、その配列の中で強度がピークになる点を抽出すると、その点の“高さ座標”として平面までの規格化最短距離s0が、また“断面円内の座標”として平面の3次元方位ns0が求められる(E−4β−14)。
(Scanning v (E-4β-13))
(Β8) In the process so far, voting is performed for all elements of the cylindrical array group for all the movement direction parameters v.
(Β9) Among the above-described columnar array group, the “specific columnar array” having the maximum intensity is extracted by the “peak extraction unit 568”. As the movement direction parameter for this array, the true movement direction v 0 is obtained. Further, when a point where the intensity reaches a peak in the array is extracted, the normalized shortest distance n d s0 to the plane is set as the “height coordinate” of the point, and 3 of the plane is set as the “coordinate in the cross-sectional circle”. The dimension orientation ns0 is obtained (E-4β-14).

実施形態E−5(ステレオ+規格化距離)
図123は、本実施形態E−5の構成を示すブロック図、図124,図125はその動作を示すフローチャートである。
(α)ijσテーブル(図171)――すなわち、入力画像の画素番号iと円柱配列の要素番号jから、運動視差ijσを検索して出力するためのテーブル――の作成(図123(A),図124参照)
(α1)前掲の実施形態B−1と同様、「paxis設定ユニット511」により、視軸上の位置paxisを視軸方向axisに等しいとして設定する(E−5α−1)。
(α2)「画素番号iの走査ユニット512」により、画像内の各点のアドレスiを下限値iminから上限値imaxまで走査する(E−5α−2,E−5α−3,E−5α−10)。
Embodiment E-5 (stereo + normalized distance)
FIG. 123 is a block diagram showing the configuration of the present embodiment E-5, and FIGS. 124 and 125 are flowcharts showing the operation thereof.
(Α) ij σ table (FIG. 171) —That is, a table for retrieving and outputting motion parallax ij σ from the pixel number i of the input image and the element number j of the cylindrical array (FIG. 123 ( A), see FIG. 124)
(Α1) As in the above-described embodiment B-1, the “p axis setting unit 511” sets the position paxis on the visual axis as equal to the visual axis direction axis (E-5α-1).
(Α2) The address i of each point i p R in the image is scanned from the lower limit value i min to the upper limit value i max by “scanning unit 512 of pixel number i” (E-5α-2, E-5α-3 , E-5α-10).

(iを走査)
(α3)「要素番号jの走査ユニット503」により、円柱配列内の要素(nsjcj)のアドレスjを下限値jminから上限値jmaxまで走査する(E−5α−4,E−5α−5,E−5α−9)。
(Scan i)
( Α3 ) The address j of the element (n sj , n d cj ) in the cylindrical array is scanned from the lower limit value j min to the upper limit value j max by “scanning unit 503 of element number j” (E-5α-4, E-5α-5, E-5α-9).

(jを走査)
(α4)「出力ユニット514」、「nsj出力ユニット515」、および「cj出力ユニット516」により、これらアドレス(i,j)に対応する、画像内の画素および円柱配列要素(nsjcj)を出力する(E−5α−6)。
(α5)以上で設定された四つのパラメータnsjcj,paxisを「ijσテーブル作成ユニット517」に入力して、付録の(B−1)に示す方法で両眼視差ijσを計算する(E−5α−7)。
(Scan j)
(Α4) “ i p R output unit 514”, “n sj output unit 515”, and “ n d cj output unit 516” correspond to these addresses (i, j) and pixels i p R and The cylindrical array elements (n sj , n d cj ) are output (E-5α-6).
Four parameters n sj set in (.alpha.5) above, n d cj, i p R , by entering the p axis to "ij sigma table making unit 517 ', both in the method shown in appendix (B-1) The eye parallax ij σ is calculated (E-5α-7).

尚、両眼視差ijσは、付録(B−1)に示す方法に限らず、どのような方法で計算してもよい。この点、付録の(B−1)に示す方法で両眼視差の計算を行なう旨説明した全ての実施形態において同様である。
(α6)この両眼視差ijσを、ijσテーブル(図171)のアドレス(i,j)に対応する内容として格納する(E−5α−8)。
The binocular parallax ij σ is not limited to the method shown in Appendix (B-1), and may be calculated by any method. This point is the same in all the embodiments described to calculate binocular parallax by the method shown in Appendix (B-1).
(Α6) This binocular disparity ij σ is stored as contents corresponding to the address (i, j) of the ij σ table (FIG. 171) (E-5α-8).

(jを走査(E−5α−9))
(iを走査(E−5α−10))
以上によりijσテーブル(図171)が得られる。
(β)上記で作成されたijσテーブルを用いて、平面方位ns0と規格化距離c0を検出する(図123(B),図125参照)
(β1)「画素番号iの走査ユニット572」により、画像内の各点のアドレスiを下限値iminから上限値imaxまで走査する(E−5β−1,E−5β−2,E−5β−10)。
(Scan j (E-5α-9))
(Scan i (E-5α-10))
Thus, the ij σ table (FIG. 171) is obtained.
(Β) Using the ij σ table created above, the plane orientation n s0 and the normalized distance n d c0 are detected (see FIGS. 123B and 125).
(Β1) The address i of each point i p R in the image is scanned from the lower limit value i min to the upper limit value i max by “scanning unit 572 of pixel number i” (E-5β-1, E-5β-2) , E-5β-10).

(iを走査)
(β2)を中心とする局所領域画像の切出しユニット574」により、右カメラ561および左カメラ562で得られた各画像から、“アドレスiに対応する画素”を中心とする局所領域画像を、図167の左端に示すように、右および左カメラについて切り出す(E−5β−3)。
(β3)「要素番号jの走査ユニット573」により、円柱配列内の要素(nsjcj)のアドレスjを下限値jminから上限値jmaxまで走査する(E−5β−4,E−5β−5,E−5β−9)。
(Scan i)
The cutout unit 574 "of the local region image centered at (.beta.2) i p R, from the image obtained by the right camera 561 and the left camera 562, centered on the" address i pixels corresponding to i p R " As shown in the left end of FIG. 167, the local area image is cut out for the right and left cameras (E-5β-3).
(Β3) The “scan unit 573 of element number j” scans the address j of the element (n sj , n d cj ) in the cylindrical array from the lower limit value j min to the upper limit value j max (E-5β-4, E-5β-5, E-5β-9).

(jを走査)
(β4)これらアドレス(i,j)をijσテーブル575(図171)に入力して、両眼視差ijσを出力する(E−5β−6)。
(β5)実施形態D−5のステップ(6)と同様にして、“右および左カメラの局所領域画像”および両眼視差ijσを「両眼視差検出ユニット576」(図167)に入力して、応答強度を下式で計算する(E−5β−7)。
(Scan j)
(Β4) These addresses (i, j) are input to the ij σ table 575 (FIG. 171), and binocular parallax ij σ is output (E-5β-6).
(Β5) “Local area images of right and left cameras” and binocular parallax ij σ are input to “binocular parallax detection unit 576” (FIG. 167) in the same manner as in step (6) of embodiment D-5. Then, the response intensity is calculated by the following equation (E-5β-7).

応答強度=ΣΣ (x,y)(x−ijσ,y−ijσ
(β6)この応答強度を、「円柱配列投票ユニット577」内の要素(nsjcj)に投票する(E−5β−8)。
Response intensity = Σ x Σ y i a R (x, y) i a L (x- ij σ x, y- ij σ y)
(Β6) Vote this response intensity to the elements (n sj , n d cj ) in the “cylindrical array voting unit 577” (E-5β-8).

(jを走査(E−5β−9))
(iを走査(E−5β−10))
(β7)「ピーク抽出ユニット578」により、円柱配列の中で“投票された強度が極大(ピーク)になる点”を抽出する――この極大点が“大円群が一点に交差する場所”である。この極大点の“高さ座標”として“平面までの規格化距離c0”が求められ、また“断面円内の座標”として平面の3次元方位ns0が求められる(E−5β−11)。
(Scan j (E-5β-9))
(Scan i (E-5β-10))
(Β7) “Peak extraction unit 578” extracts “a point where the voted intensity becomes a maximum (peak)” in the cylindrical array—this maximum point is “a place where the great circles intersect at one point” It is. The “normalized distance n d c0 ” to the plane is obtained as the “height coordinate” of this local maximum point, and the three-dimensional orientation n s0 of the plane is obtained as the “coordinate in the cross-sectional circle” (E-5β-11). ).

実施形態E−6(ステレオ+規格化距離+axis未知)
図126は、本実施形態E−6の構成を示すブロック図、図127,図128は、その動作を示すフローチャートである。
(α)全ての視軸方向{axis}に対するijσテーブル(図172)――すなわち、入力画像の画素番号i、円柱配列の要素番号j、そして視軸方向axisから両眼視差ijσを検索して出力するためのテーブル――の作成(図126(A),図127参照)
下記の(α2)から(α6)までのステップは、実施形態E−5(α)の対応するステップと同じである。
(α0)「axisパラメータの走査ユニット518」により、可能性のある全ての方向(下限値axis,minから上限値axis,maxまで)にわたって、“視軸方向パラメータaxis”を走査する(E−6α−1,E−6α−2,E−6α−13)。
Embodiment E-6 (stereo + normalized distance + a xis unknown)
FIG. 126 is a block diagram showing the configuration of the present embodiment E-6, and FIGS. 127 and 128 are flowcharts showing the operation thereof.
(Α) ij σ table for all visual axis directions {a xis } (FIG. 172) -that is, pixel number i of the input image, element number j of the cylindrical array, and binocular parallax ij σ from visual axis direction a xis A table for searching for and outputting data (see FIGS. 126A and 127)
The steps from (α2) to (α6) below are the same as the corresponding steps in embodiment E-5 (α).
(.Alpha.0) by 'scanning unit 518 of a xis Parameters ", over all directions that may (lower limit a xis, from min limit a xis, until max), scans the" visual axis direction parameter a xis " (E-6α-1, E-6α-2, E-6α-13).

(axisを走査)
(α1)「paxis設定ユニット511」により、“視軸上の位置paxis”をこのパラメータaxisに等しいとして設定する(E−6α−3)。
(α2)「画素番号iの走査ユニット512」により、画像内の各点のアドレスiを下限値iminから上限値imaxまで走査する(E−6α−4,E−6α−5,E−6α−12)。
( Scan axis )
(Α1) The “p axis setting unit 511” sets the “position p axis on the visual axis ” as equal to the parameter a xis (E-6α-3).
(Α2) The address i of each point i p R in the image is scanned from the lower limit value i min to the upper limit value i max by “scanning unit 512 of pixel number i” (E-6α-4, E-6α-5 , E-6α-12).

(iを走査)
(α3)「要素番号jの走査ユニット513」により、円柱配列内の要素(nsjcj)のアドレスjを下限値jminから上限値jmaxまで走査する(E−6α−6,E−6α−7,E−6α−11)。
(Scan i)
(Α3) The “scan unit 513 of element number j” scans the address j of the element (n sj , n d cj ) in the cylindrical array from the lower limit value j min to the upper limit value j max (E-6α-6, E-6α-7, E-6α-11).

(jを走査)
(α4)「出力ユニット514」、「nsj出力ユニット515」、および「cj出力ユニット516」により、これらアドレス(i,j)に対応する、画像内の画素および円柱配列要素(nsjcj)を出力する(E−6α−8)。
(α5)以上で設定された四つのパラメータnsjcj,paxisを「ijσテーブル作成ユニット517」に入力して、付録の(B−1)に示す方法で両眼視差ijσを計算する(E−6α−9)。
(α6)この両眼視差ijσを、ijσテーブル(図172)のアドレス(i,j)に対応する内容として格納する(E−6α−10)。
(Scan j)
(Α4) “ i p R output unit 514”, “n sj output unit 515”, and “ n d cj output unit 516” correspond to these addresses (i, j) and pixels i p R and cylindrical array elements (n sj, n d cj) outputs the (E-6α-8).
Four parameters n sj set in (.alpha.5) above, n d cj, i p R , by entering the p axis to "ij sigma table making unit 517 ', both in the method shown in appendix (B-1) The eye parallax ij σ is calculated (E-6α-9).
(Α6) This binocular disparity ij σ is stored as content corresponding to the address (i, j) of the ij σ table (FIG. 172) (E-6α-10).

(jを走査(E−6α−11))
(iを走査(E−6α−12))
(α7)ここまで処理で、各視軸方向axisに対するijσテーブルが得られる。
(Scan j (E-6α-11))
(Scan i (E-6α-12))
(Α7) With the processing so far, an ij σ table for each visual axis direction a xis is obtained.

(axisを走査(E−6α−13))
以上により全ての視軸方向{axis}に対するijσテーブル(図172)が得られる。
(β)上記で作成されたijσテーブルを用いて、平面方位ns0と規格化最短距離c0を検出する(図126(B),図128参照)
下記の(β1)から(β6)までのステップは、実施形態E−5の対応するステップと同じである。
(β0)「axisパラメータの走査ユニット579」により、可能性のある全ての方向(下限値axis,minから上限値axis,maxまで)にわたって、“視軸方向パラメータaxis”を走査する(E−6β−1,E−6β−2,E−6β−13)。
( Scan axis (E-6α-13))
Thus , the ij σ table (FIG. 172) for all visual axis directions {a xis } is obtained.
(Β) Using the ij σ table created above, the plane orientation n s0 and the normalized shortest distance n d c0 are detected (see FIGS. 126B and 128).
The steps from (β1) to (β6) below are the same as the corresponding steps in embodiment E-5.
( Β0 ) The “visual axis direction parameter a xis ” is scanned in all possible directions (from the lower limit value a xis, min to the upper limit value a xis, max ) by the “a xi parameter scanning unit 579”. (E-6β-1, E-6β-2, E-6β-13).

(axisを走査)
(β1)「画素番号iの走査ユニット572」により、画像内の各点のアドレスiを下限値iminから上限値imaxまで走査する(E−6β−3,E−6β−4,E−6β−12)。
( Scan axis )
(Β1) The address i of each point i p R in the image is scanned from the lower limit value i min to the upper limit value i max by “scanning unit 572 of pixel number i” (E-6β-3, E-6β-4) , E-6β-12).

(iを走査)
(β2)「を中心とする局所領域画像の切出しユニット574」により、右カメラ561および左カメラ562で得られた各画像から、“アドレスiに対応する画素”を中心とする局所領域画像を、図167の左端に示すように、右および左カメラについて切り出す(E−6β−5)。
(β3)「要素番号jの走査ユニット573」により、円柱配列内の要素(nsjcj)のアドレスjを下限値jminから上限値jmaxまで走査する(E−6β−6,E−6β−7,E−6β−11)。
(Scan i)
(.Beta.2) by 'i p R cutout unit 574 of the local region image centered on the "from each image obtained by the right camera 561 and the left camera 562, and around the" pixel i p R corresponding to the address i " The local region image to be cut is cut out for the right and left cameras as shown at the left end of FIG. 167 (E-6β-5).
(Β3) The “scan unit 573 of element number j” scans the address j of the element (n sj , n d cj ) in the cylindrical array from the lower limit j min to the upper limit j max (E-6β-6, E-6β-7, E-6β-11).

(jを走査)
(β4)これらアドレス(i,j)と視軸方向axisijσテーブル575(図172)に入力して、両眼視差ijσを出力する(E−6β−8)。
(β5)実施形態D−5のステップ(6)と同様にして、“右および左カメラの局所領域画像”および両眼視差ijσを「両眼視差検出ユニット576」(図167)に入力して、応答強度を下式で計算する(E−6β−9)。
(Scan j)
(Β4) These addresses (i, j) and the visual axis direction a xis are input to the ij σ table 575 (FIG. 172), and binocular parallax ij σ is output (E-6β-8).
(Β5) “Local area images of right and left cameras” and binocular parallax ij σ are input to “binocular parallax detection unit 576” (FIG. 167) in the same manner as in step (6) of embodiment D-5. Then, the response intensity is calculated by the following equation (E-6β-9).

応答強度=ΣΣ (x,y)(x−ijσ,y−ijσ
(β6)この応答強度を、「円柱配列投票ユニット577」内の要素(nsjcj)に投票する(E−6β−10)。
Response intensity = Σ x Σ y i a R (x, y) i a L (x- ij σ x, y- ij σ y)
(Β6) Vote this response intensity to the elements (n sj , n d cj ) in the “cylindrical array voting unit 577” (E-6β-10).

(jを走査(E−6β−11))
(iを走査(E−6β−12))
(β7)ここまでの処理で、円柱配列内の全要素に投票が行われる。
(Scan j (E-6β-11))
(Scan i (E-6β-12))
(Β7) In the process so far, voting is performed for all the elements in the cylindrical array.

(axis走査(E−6β−13))
(β8)ここまでの処理で、全ての視軸方向パラメータaxisに対する円柱配列群の全要素に投票が行われる。
(β9)上記の円柱配列群の中で、強度が最大になる“特定の円柱配列”を「ピーク抽出ユニット578」により抽出する。この配列に対する視軸方向パラメータとして、真の移動方向axis0が求められる。また、その配列の中で強度がピークになる点を抽出すると、その点の“高さ座標”として平面までの規格化距離c0が、また“断面円内の座標”として平面の3次元方位ns0が求められる(E−6β−14)。
(A xis scan (E-6β-13))
(Beta 8) in the processing up to this point, the vote on all the elements of the cylindrical array groups for all of the visual axis direction parameter a xis performed.
(Β9) The “specific cylinder arrangement” having the maximum intensity is extracted by the “peak extraction unit 578” from the cylinder arrangement group. As the visual axis direction parameter for this array, the true movement direction axis0 is obtained. Further, when a point where the intensity reaches a peak in the array is extracted, the normalized distance n d c0 to the plane is used as the “height coordinate” of the point, and the three-dimensional plane is used as the “coordinate in the cross-sectional circle”. The direction ns0 is obtained (E-6β-14).

実施形態E−7(ステレオ+規格化最短距離)
図129は、本実施形態E−7の構成を示すブロック図、図130,図131は、その動作を示すフローチャートである。
(α)ijσテーブル(図171)――すなわち、入力画像の画素番号iと円柱配列の要素番号jから、両眼視差ijσを検索して出力するためのテーブル――の作成(図129(A),図130参照)
(α1)前掲の実施形態B−1と同様、「paxis設定ユニット511」により、視軸上の位置paxisを視軸方向axisに等しいとして設定する(E−7α−1)。
(α2)「画素番号iの走査ユニット512」により、画像内の各点のアドレスiを下限値iminから上限値imaxまで走査する(E−7α−2,E−7α−3,E−7α−10)。
Embodiment E-7 (stereo + standardized shortest distance)
FIG. 129 is a block diagram showing the configuration of the present embodiment E-7, and FIGS. 130 and 131 are flowcharts showing the operation.
(Α) ij σ table (FIG. 171) —that is, a table for searching for and outputting binocular parallax ij σ from the pixel number i of the input image and the element number j of the cylindrical array (FIG. 129) (See (A), Fig. 130)
(Α1) As in the above-described embodiment B-1, the “p axis setting unit 511” sets the position p axis on the visual axis as equal to the visual axis direction a xis (E-7α-1).
(Α2) The address i of each point i p R in the image is scanned from the lower limit value i min to the upper limit value i max by “scanning unit 512 of pixel number i” (E-7α-2, E-7α-3 , E-7α-10).

(iを走査)
(α3)「要素番号jの走査ユニット513」により、円柱配列内の要素(nsjsj)のアドレスjを下限値jminから上限値jmaxまで走査する(E−7α−4,E−7α−5,E−7α−9)。
(Scan i)
(Α3) The “scan unit 513 of element number j” scans the address j of the element (n sj , n d sj ) in the cylindrical array from the lower limit value j min to the upper limit value j max (E-7α-4, E-7α-5, E-7α-9).

(jを走査)
(α4)「出力ユニット514」、「nsj出力ユニット515」、および「sj出力ユニット519」により、これらアドレス(i,j)に対応する、画像内の画素および円柱配列要素(nsjsj)を出力する(E−7α−6)。
(α5)以上で設定された四つのパラメータnsjsj,paxisを「ijσテーブル作成ユニット520」に入力して、付録の(B−2)に示す方法で両眼視差ijσを計算する(E−7α−7)。
(Scan j)
(Α4) “ i p R output unit 514”, “n sj output unit 515”, and “ n d sj output unit 519” allow the pixels i p R in the image corresponding to these addresses (i, j) and The cylindrical array elements (n sj , n d sj ) are output (E-7α-6).
Four parameters n sj set in (.alpha.5) above, n d sj, i p R , by entering the p axis to "ij sigma table making unit 520 ', both in the method shown in appendix (B-2) The eye parallax ij σ is calculated (E-7α-7).

尚、両眼視差ijσは、付録の(B−2)に示す方法に限らず、どのような方法で計算してもよい。この点、付録の(B−2)に示す方法で両眼視差の計算を行なう旨説明した全ての実施形態において同様である。
(α6)この両眼視差ijσを、ijσテーブル(図171)のアドレス(i,j)に対応する内容として格納する(E−7α−8)。
The binocular parallax ij σ is not limited to the method shown in Appendix (B-2), and may be calculated by any method. This is the same in all the embodiments described to calculate binocular parallax by the method shown in Appendix (B-2).
(Α6) This binocular disparity ij σ is stored as content corresponding to the address (i, j) of the ij σ table (FIG. 171) (E-7α-8).

(jを走査(E−7α−9))
(iを走査(E−7α−10))
以上によりijσテーブル(図171)が得られる。
(β)上記で作成されたijσテーブルを用いて、平面方位ns0と規格化最短距離s0を検出する(図129(B),図131参照)
(β1)「画素番号iの走査ユニット572」により、画像内の各点のアドレスiを下限値iminから上限値imaxまで走査する(E−7β−1,E−7β−2,E−7β−10)。
(Scan j (E-7α-9))
(Scan i (E-7α-10))
Thus, the ij σ table (FIG. 171) is obtained.
(Β) Using the ij σ table created above, the plane orientation n s0 and the normalized shortest distance n d s0 are detected (see FIGS. 129 (B) and 131).
(Β1) The address i of each point i p R in the image is scanned from the lower limit value i min to the upper limit value i max by “scanning unit 572 of pixel number i” (E-7β-1, E-7β-2) , E-7β-10).

(iを走査)
(β2)「を中心とする局所領域画像の切出しユニット574」により、右カメラ561および左カメラ562で得られた各画像から、“アドレスiに対応する画素”を中心とする局所領域画像を、図167の左端に示すように、右および左カメラについて切り出す(E−7β−3)。
(β3)「要素番号jの走査ユニット573」により、円柱配列内の要素(nsjsj)のアドレスjを下限値jminから上限値jmaxまで走査する(E−7β−4,E−7β−5,E−7β−9)。
(β4)これらアドレス(i,j)をijσテーブル585(図171)に入力して、両眼視差ijσを出力する(E−7β−6)。
(β5)実施形態D−5のステップ(6)と同様にして、“右および左カメラの局所領域画像”および両眼視差ijσを「両眼視差検出ユニット586」(図167)に入力して、応答強度を下式で計算する(E−7β−7)。
(Scan i)
(.Beta.2) by 'i p R cutout unit 574 of the local region image centered on the "from each image obtained by the right camera 561 and the left camera 562, and around the" pixel i p R corresponding to the address i " The local region image to be cut is cut out for the right and left cameras as shown at the left end of FIG. 167 (E-7β-3).
(Β3) The “scan unit 573 of element number j” scans the address j of the element (n sj , n d sj ) in the cylindrical array from the lower limit value j min to the upper limit value j max (E-7β-4, E-7β-5, E-7β-9).
(Β4) These addresses (i, j) are input to the ij σ table 585 (FIG. 171), and binocular parallax ij σ is output (E-7β-6).
(Β5) “Local area images of right and left cameras” and binocular parallax ij σ are input to “binocular parallax detection unit 586” (FIG. 167) in the same manner as in step (6) of embodiment D-5. Then, the response intensity is calculated by the following equation (E-7β-7).

応答強度=ΣΣ (x,y)(x−ijσ,y−ijσ
(β6)この応答強度を、「円柱配列投票ユニット587」内の要素(nsjsj)に投票する(E−7β−8)。
(β7)「ピーク抽出ユニット588」により、円柱配列の中で“投票された強度が極大(ピーク)になる点”を抽出する――この極大点が“大円群が一点に交差する場所”である。この極大点の“高さ座標”として“平面までの規格化最短距離s0”が求められ、また“断面円内の座標”として平面の3次元方位ns0が求められる(E−7β−11)。
Response intensity = Σ x Σ y i a R (x, y) i a L (x- ij σ x, y- ij σ y)
(Β6) Vote this response intensity to the elements (n sj , n d sj ) in the “cylindrical array voting unit 587” (E-7β-8).
(Β7) “Peak extraction unit 588” extracts “the point where the voted intensity becomes a maximum (peak)” in the cylindrical array—this maximum point is “the place where the great circles intersect at one point” It is. The "normalized shortest distance to the plane n d s0" maximum points as "height coordinate" is obtained, also 3-dimensional orientation n s0 plane as "the coordinates of the cross section circle" is obtained (E-7.beta. 11).

実施形態E−8(ステレオ+規格化最短距離+axis未知)
図132は、本実施形態E−8の構成を示すブロック図、図133,図134は、その動作を示すフローチャートである。
(α)全ての視軸方向{axis}に対するijσテーブル(図172)――すなわち、入力画像の画素番号i、円柱配列の要素番号j、そして視軸方向axisから両眼視差ijσを検索して出力するためのテーブル――の作成(図132(A),図133参照)
下記の(α2)から(α6)までのステップは、実施形態E−7(α)の対応するステップと同じである。
(α0)「axisパラメータの走査ユニット518」により、可能性のある全ての方向(下限値axis,minから上限値axis,max)にわたって、“視軸方向パラメータaxis”を走査する(E−8α−1,E−8α−2,E−8α−13)。
Embodiment E-8 (stereo + normalized shortest distance + a xis unknown)
FIG. 132 is a block diagram showing the configuration of the present embodiment E-8, and FIGS. 133 and 134 are flowcharts showing the operation thereof.
(Α) ij σ table for all visual axis directions {a xis } (FIG. 172) -that is, pixel number i of the input image, element number j of the cylindrical array, and binocular parallax ij σ from visual axis direction a xis A table for searching for and outputting data (see FIGS. 132A and 133)
The steps from (α2) to (α6) below are the same as the corresponding steps in embodiment E-7 (α).
(.Alpha.0) by 'scanning unit 518 of a xis Parameters ", all directions that may (lower limit a xis, the upper limit a xis from min, max) over scans the" visual axis direction parameter a xis "( E-8α-1, E-8α-2, E-8α-13).

(axisを走査)
(α1)「paxis設定ユニット511」により、“視軸上の位置paxis”をこのパラメータaxisに等しいとして設定する(E−8α−3)。
(α2)「画素番号iの走査ユニット512」により、画像内の各点のアドレスiを下限値iminから上限値imaxまで走査する(E−8α−4,E−8α−5,E−8α−12)。
( Scan axis )
(Α1) The “p axis setting unit 511” sets the “position p axis on the visual axis ” to be equal to the parameter a xis (E-8α-3).
(Α2) The address i of each point i p R in the image is scanned from the lower limit value i min to the upper limit value i max by “scanning unit 512 of pixel number i” (E-8α-4, E-8α-5 , E-8α-12).

(iを走査)
(α3)「要素番号jの走査ユニット513」により、円柱配列内の要素(nsjsj)のアドレスjを下限値jminから上限値jmaxまで走査する(E−8α−6,E−8α−7,E−8α−11)。
(Scan i)
(Α3) By “scanning unit 513 of element number j”, address j of element (n sj , n d sj ) in the cylindrical array is scanned from lower limit value j min to upper limit value j max (E-8α-6, E-8α-7, E-8α-11).

(jを走査)
(α4)「出力ユニット514」、「nsj出力ユニット515」、および「sj出力ユニット519」により、これらアドレス(i,j)に対応する、画像内の画素および円柱配列要素(nsjsj)を出力する(E−8α−8)。
(α5)以上で設定された四つのパラメータnsjsj,paxisを「ijσテーブル作成ユニット520」に入力して、付録の(B−2)に示す方法で両眼視差ijσを計算する(E−8α−9)。
(α6)この両眼視差ijσを、ijσテーブル(図172)のアドレス(i,j)に対応する内容として格納する(E−8α−10)。
(Scan j)
(Α4) “ i p R output unit 514”, “n sj output unit 515”, and “ n d sj output unit 519” allow the pixels i p R in the image corresponding to these addresses (i, j) and The cylindrical array elements (n sj , n d sj ) are output (E-8α-8).
Four parameters n sj set in (.alpha.5) above, n d sj, i p R , by entering the p axis to "ij sigma table making unit 520 ', both in the method shown in appendix (B-2) The eye parallax ij σ is calculated (E-8α-9).
(Α6) This binocular disparity ij σ is stored as content corresponding to the address (i, j) of the ij σ table (FIG. 172) (E-8α-10).

(iを走査(E−8α−11))
(jを走査(E−8α−12))
(α7)ここまで処理で、各視軸方向axisに対するijσテーブルが得られる。
(Scan i (E-8α-11))
(Scan j (E-8α-12))
(Α7) With the processing so far, an ij σ table for each visual axis direction a xis is obtained.

(axisを走査)
以上により全ての視軸方向{axis}に対するijσテーブル(図172)が得られる。
(β)上記で作成されたijσテーブルを用いて、平面方位ns0と規格化最短距離s0を検出する(図132(B),図134参照)
下記の(β1)から(β6)までのステップは、実施形態D−7の対応するステップと同じである。
(β0)「axisパラメータの走査ユニット579」により、可能性のある全ての方向(下限値axis,minから上限値axis,maxまで)にわたって、“視軸方向パラメータaxis”を走査する(E−8β−1,E−8β−2,E−8β−13)。
( Scan axis )
Thus , the ij σ table (FIG. 172) for all visual axis directions {a xis } is obtained.
(Β) The plane orientation n s0 and the normalized shortest distance n d s0 are detected using the ij σ table created above (see FIGS. 132B and 134).
The steps from (β1) to (β6) below are the same as the corresponding steps in Embodiment D-7.
( Β0 ) The “visual axis direction parameter a xis ” is scanned in all possible directions (from the lower limit value a xis, min to the upper limit value a xis, max ) by the “a xi parameter scanning unit 579”. (E-8β-1, E-8β-2, E-8β-13).

(axisを走査)
(β1)「画素番号iの走査ユニット572」により、画像内の各点のアドレスiを下限値iminから上限値imaxまで走査する(E−8β−3,E−8β−4,E−8β−12)。
( Scan axis )
(Β1) The address i of each point i p R in the image is scanned from the lower limit value i min to the upper limit value i max by “scanning unit 572 of pixel number i” (E-8β-3, E-8β-4) , E-8β-12).

(iを走査)
(β2)「を中心とする局所領域画像の切出しユニット574」により、右カメラ561および左カメラ562で得られた各画像から、“アドレスiに対応する画素”を中心とする局所領域画像を、図167の左端に示すように、右および左カメラについて切り出す(E−8β−5)。
(β3)「要素番号jの走査ユニット573」により、円柱配列内の要素(nsjsj)のアドレスjを下限値jminから上限値jmaxまで走査する(E−8β−6,E−8β−7,E−8β−11)。
(Scan i)
(.Beta.2) by 'i p R cutout unit 574 of the local region image centered on the "from each image obtained by the right camera 561 and the left camera 562, and around the" pixel i p R corresponding to the address i " The local region image to be cut is cut out for the right and left cameras as shown at the left end of FIG. 167 (E-8β-5).
(Β3) The “scan unit 573 of element number j” scans the address j of the element (n sj , n d sj ) in the cylindrical array from the lower limit value j min to the upper limit value j max (E-8β-6, E-8β-7, E-8β-11).

(jを走査)
(β4)これらアドレス(i,j)をijσテーブル585(図172)に入力して、両眼視差ijσを出力する(E−8β−8)。
(β5)実施形態D−5のステップ(6)と同様にして、“右および左カメラの局所領域画像”および両眼視差ijσを「両眼視差検出ユニット586」(図167)に入力して、応答強度を下式で計算する(E−8β−9)。
(Scan j)
(Β4) These addresses (i, j) are input to the ij σ table 585 (FIG. 172), and binocular parallax ij σ is output (E-8β-8).
(Β5) “Local area images of right and left cameras” and binocular parallax ij σ are input to “binocular parallax detection unit 586” (FIG. 167) in the same manner as in step (6) of embodiment D-5. Then, the response intensity is calculated by the following equation (E-8β-9).

応答強度=ΣΣ (x,y)(x−ijσ,y−ijσ
(β6)この応答強度を、「円柱配列投票ユニット587」内の要素(nsjsj)に投票する(E−8β−10)。
Response intensity = Σ x Σ y i a R (x, y) i a L (x- ij σ x, y- ij σ x)
(Β6) Vote this response intensity to the elements (n sj , n d sj ) in the “cylindrical array voting unit 587” (E-8β-10).

(jを走査(E−8β−11))
(iを走査(E−8β−12))
(β7)ここまでの処理で、「円柱配列投票ユニット587」内の全要素に投票が行われる。
(Scan j (E-8β-11))
(Scan i (E-8β-12))
(Β7) In the process so far, voting is performed for all elements in the “cylindrical array voting unit 587”.

(axisを走査(E−8β−13))
(β8)ここまでの処理で、全ての視軸方向パラメータaxisに対する円柱配列群の全要素に投票が行われる。
(β9)上記の円柱配列群の中で、強度が最大になる“特定の円柱配列”を「ピーク抽出ユニット588」により抽出する。この配列に対する視軸方向パラメータとして、真の移動方向axis0が求められる。また、その配列の中で強度がピークになる点を抽出すると、その点の“高さ座標”として平面までの規格化最短距離s0が、また“断面円内の座標”として平面の3次元方位ns0が求められる(E−8β−14)。
( Scan axis (E-8β-13))
(Beta 8) in the processing up to this point, the vote on all the elements of the cylindrical array groups for all of the visual axis direction parameter a xis performed.
(Β9) Among the above-mentioned columnar array group, a “specific columnar array” having the maximum intensity is extracted by the “peak extraction unit 588”. As the visual axis direction parameter for this array, the true movement direction axis0 is obtained. Further, when a point where the intensity reaches a peak in the array is extracted, the normalized shortest distance n d s0 to the plane is set as the “height coordinate” of the point, and 3 of the plane is set as the “coordinate in the cross-sectional circle”. dimensional orientation n s0 is determined (E-8β-14).

実施形態F
実施形態F−1
図135は、本実施形態F−1の構成を示すブロック図、図136、図137は、その動作を示すフローチャートである。
Embodiment F
Embodiment F-1
FIG. 135 is a block diagram showing the configuration of the present embodiment F-1, and FIGS. 136 and 137 are flowcharts showing the operation thereof.

実施形態F−1(規格化時間)
(α)実施形態E−1のijτテーブル(図163)を{ikj}テーブルに変換(図135(A),図136参照)
(α1)実施形態E−1αの処理(図112参照)により、ijτテーブル555(図111,図163参照)を作成し(F−1α−1)、{ikj}テーブル変換ユニット601により、そのijτテーブル(すなわち運動視差τ)を、図160の対応関係に基づいて、運動視差番号kに書き換える(F−1α−2)。これにより、図163のijτテーブルは、アドレスが(i,j)で内容がijkの「ijkテーブル(図135(A)の中段)」に書き換えられる。
(α2)次に、その{ikj}テーブル変換ユニット601により、このijkテーブルを並べ換えて、アドレスが(i,k)で内容が“円柱配列の要素番号j”のテーブルを作成する(F−1α−3)。前掲の実施形態A−6で述べたように、任意アドレス(i,k)――すなわち、位置がで運動視差がτの画素――は複比変換と極変換により“円柱配列の大円上の全ての点”に結ばれるから、上記の要素番号jは集合になり、要素番号群{ikj}で表される(図165参照)。
(α3)以上により、任意アドレス(i,k)を指定すると、円柱配列の要素番号群{ikj}が出力される{ikj}テーブル(図165)を作成できた。
(β)上記で作成された{ikj}テーブルを用いて、平面方位ns0と規格化時間c0を検出する(図135(B),図137参照)
(β1)「画素番号iの走査ユニット652」により、画像内の各点のアドレスiを下限値iminから上限値imaxまで走査する(F−1β−1,F−1β−2,F−1β−12)。
Embodiment F-1 (standardization time)
(Α) Converting the ij τ table (FIG. 163) of Embodiment E-1 into a { ik j} table (see FIGS. 135 (A) and 136)
(Α1) The ij τ table 555 (see FIGS. 111 and 163) is created (F-1α-1) by the processing of the embodiment E-1α (see FIG. 112), and the { ik j} table conversion unit 601 The ij τ table (that is, motion parallax τ) is rewritten to the motion parallax number k based on the correspondence relationship of FIG. 160 (F-1α-2). As a result, the ij τ table in FIG. 163 is rewritten to the “ ij k table (middle stage in FIG. 135A)” with the address (i, j) and the content ij k.
(Α2) Next, the ij k table is rearranged by the { ik j} table conversion unit 601 to create a table with the address (i, k) and the content “element number j of the cylindrical array” (F -1α-3). As described in the above-described embodiment A-6, the arbitrary address (i, k)-that is, the pixel having the position i p 0 and the motion parallax k τ--is converted into a “cylindrical array” by cross ratio conversion and polar conversion In other words, the element number j is a set and is represented by an element number group { ik j} (see FIG. 165).
(Α3) As described above, when an arbitrary address (i, k) is designated, a { ik j} table (FIG. 165) in which an element number group { ik j} of a cylindrical array is output can be created.
(Β) Using the { ik j} table created above, the plane orientation n s0 and the normalized time n t c0 are detected (see FIGS. 135B and 137).
(Β1) The address i of each point i p 0 in the image is scanned from the lower limit value i min to the upper limit value i max by “scanning unit 652 of pixel number i” (F-1β-1, F-1β-2) , F-1β-12).

(iを走査)
(β2)実施形態D−1のステップ(3)と同様にして、「を中心とする局所領域画像の切出しユニット654」により、カメラ651で得られた現時刻tと次時刻tの各画像から、“アドレスiに対応する画素”を中心とする各局所領域画像を、現時刻tと次時刻tについて切り出す(F−1β−3)。
(β3)「運動視差番号kの走査ユニット653」により、運動視差番号kを下限値kminから上限値kmaxまで走査する(F−1β−4,F−1β−5,F−1β−11)。
(Scan i)
(Β2) In the same manner as in step (3) of Embodiment D-1, the current time t 0 and the next time t obtained by the camera 651 by the “local region image cutting unit 654 centered on i p 0 ” Each local area image centered on “pixel i p 0 corresponding to address i” is cut out from each image of 1 at the current time t 0 and the next time t 1 (F-1β-3).
(Β3) The motion parallax number k is scanned from the lower limit value k min to the upper limit value k max by the “scan unit 653 of motion parallax number k” (F-1β-4, F-1β-5, F-1β-11). ).

(kを走査)
(β4)「運動視差τ変換ユニット655」により、この番号kを、実施形態D−1のステップ(5)と同様にして運動視差τに変換する(F−1β−6)。但し、運動視差τすなわち動きベクトル(τ τ)の方向が、図10(A)の“からv(すなわち、pinf)への方向”と違っているときには、この移動方向vと矛盾する運動視差のため、ステップ(β7)までをスキップする(F−1β−7)。
(β5)以上で設定された“現時刻tと次時刻tの局所領域画像”および運動視差τを「運動視差検出ユニット656」(図159)に入力して、実施形態D−1のステップ(6)と同様にして応答強度を下式で計算する(F−1β−8)。
(Scan k)
(Beta4) by 'motion parallax k tau conversion unit 655 ", the number k, in the same manner as in Embodiment D-1 step (5) into motion parallax k τ (F-1β-6 ). However, when the motion parallax k τ, that is, the direction of the motion vector ( k τ x k τ y ) is different from the “direction from i p 0 to v (ie, p inf )” in FIG. Step (β7) is skipped (F-1β-7) due to motion parallax that contradicts the moving direction v.
(Β5) The “local region image at the current time t 0 and the next time t 1 ” and the motion parallax k τ set above are input to the “motion parallax detection unit 656” (FIG. 159), and the embodiment D-1 In the same manner as in step (6), the response intensity is calculated by the following equation (F-1β-8).

応答強度=ΣΣ (x,y)(x−τ,y−τ
(β6)アドレス(i,k)を{ikj}テーブル602に入力して、円柱配列の要素番号群{ikj}を出力する(F−1β−9)。
(β7)「円柱配列投票ユニット657」中の、この番号群{ikj}に対応する円柱配列の要素番号群に、ステップ(β5)で計算した応答強度を投票する(F−1β−10)。
Response intensity = Σ x Σ y i a 0 (x, y) i a 1 (x- k τ x, y- k τ y)
(Β6) The address (i, k) is input to the { ik j} table 602, and the element number group { ik j} of the cylindrical array is output (F-1β-9).
(Β7) Vote the response intensity calculated in step (β5) to the element number group of the cylinder array corresponding to this number group { ik j} in the “cylindrical array voting unit 657” (F-1β-10) .

(kを走査(F−1β−11))
(iを走査(F−1β−12))
(β8)「ピーク抽出ユニット658」により、円柱配列の中で“投票された強度が極大(ピーク)になる点”を抽出する――この極大点が“大円群が一点に交差する場所”である。この極大点の“高さ座標”として“平面を横切るまでの規格化時間c0”が求められ、また“断面円内の座標”として平面の3次元方位ns0が求められる(F−1β−13)。
(Scan k (F-1β-11))
(Scan i (F-1β-12))
(Β8) “Peak extraction unit 658” extracts “the point at which the voted intensity becomes a maximum (peak)” in the cylindrical array—this maximum point is “the place where the great circles intersect at one point” It is. As the “height coordinate” of this local maximum point, “normalized time n t c0 until crossing the plane” is obtained, and as the “coordinate in the cross-sectional circle”, the three-dimensional orientation n s0 of the plane is obtained (F−1β). -13).

実施形態F−2(規格化時間+v未知)
図138は、本実施形態F−2の構成を示すブロック図、図139,図140は、その動作を示すフローチャートである。
(α)全ての移動方向{v}に対する{ikj}テーブル(図166)の作成(図138(A),図139参照)
(α1)実施形態E−2αの処理(図115参照)により、ijτテーブル555(図114,図164参照)を作成し(F−2α−1)、{ikj}テーブル変換ユニット601により、そのijτテーブル555(すなわち運動視差τ)を、図160の対応関係に基づいて、運動視差番号kに書き換える(F−2α−2)。これにより、図164のijτテーブルは、アドレスが(i,j)で内容がijkの「ijkテーブル(図138(A)の中段)」に書き換えられる。
(α2)次に、その{ikj}テーブル変換ユニット601により、このijkテーブルを並べ換えて、アドレスが(i,k)で内容が“円柱配列の要素番号j”のテーブルを作成する(F−2α−3)。前掲の実施形態A−6で述べたように、任意アドレス(i,k)――すなわち、位置がで運動視差がτの画素――は複比変換と極変換により“円柱配列の大円上の全ての点”に結ばれるから、上記の要素番号jは集合になり、要素番号群{ikj}で表される(図166参照)。
(α3)以上により、任意アドレス(i,k)と移動方向vを指定すると、円柱配列の要素番号群{ikj}が出力される{ikj}テーブル(図166)を作成できた。
(β)上記で作成された{ikj}テーブルを用いて、平面方位ns0と規格化時間c0を検出する(図138(B),図140参照)
下記の(β1)から(β7)までのステップは、実施形態F−1の対応するステップと同じである。
(β0)「vパラメータの走査ユニット659」により、可能性のある全ての方向(下限値vminから上限値vmaxまで)にわたって、“移動方向パラメータv”を走査する(F−2β−1,F−2β−2,F−2β−15)。
Embodiment F-2 (standardized time + v unknown)
FIG. 138 is a block diagram showing the configuration of the present embodiment F-2, and FIGS. 139 and 140 are flowcharts showing the operation thereof.
(Α) Creation of { ik j} table (FIG. 166) for all moving directions {v} (see FIGS. 138A and 139)
(Α1) The ij τ table 555 (see FIGS. 114 and 164) is created (F-2α-1) by the processing of the embodiment E-2α (see FIG. 115), and the { ik j} table conversion unit 601 The ij τ table 555 (that is, motion parallax τ) is rewritten to the motion parallax number k based on the correspondence relationship in FIG. 160 (F-2α-2). As a result, the ij τ table in FIG. 164 is rewritten to “ ij k table (middle stage in FIG. 138 (A))” with the address (i, j) and the content ij k.
(Α2) Next, the ij k table is rearranged by the { ik j} table conversion unit 601 to create a table with the address (i, k) and the content “element number j of the cylindrical array” (F -2α-3). As described in the above-described embodiment A-6, the arbitrary address (i, k)-that is, the pixel having the position i p 0 and the motion parallax k τ--is converted into a “cylindrical array” by cross ratio conversion and polar conversion. In other words, the element number j is a set and is represented by an element number group { ik j} (see FIG. 166).
(Α3) As described above, when an arbitrary address (i, k) and a moving direction v are designated, a { ik j} table (FIG. 166) in which an element number group { ik j} of a cylindrical array is output can be created.
(Β) Using the { ik j} table created above, the plane orientation n s0 and the normalized time n t c0 are detected (see FIGS. 138 (B) and 140).
The steps from (β1) to (β7) below are the same as the corresponding steps in Embodiment F-1.
(Β0) “V-parameter scanning unit 659” scans “movement direction parameter v” in all possible directions (from lower limit value v min to upper limit value v max ) (F-2β-1, F-2β-2, F-2β-15).

(vを走査)
(β1)「画素番号iの走査ユニット652」により、画像内の各点のアドレスiを下限値iminから上限値imaxまで走査する(F−2β−3,F−2β−4,F−2β−14)。
(Scan v)
(Β1) The address i of each point i p 0 in the image is scanned from the lower limit value i min to the upper limit value i max by “scanning unit 652 of pixel number i” (F-2β-3, F-2β-4 , F-2β-14).

(iを走査)
(β2)実施形態D−1のステップ(3)と同様にして、「を中心とする局所領域画像の切出しユニット654」により、カメラ654で得られた現時刻tと次時刻tの各画像から、“アドレスiに対応する画素”を中心とする各局所領域画像を、現時刻tと次時刻tについて切り出す(F−2β−5)。
(β3)「運動視差番号kの走査ユニット653」により、運動視差番号kを下限値kminから上限値kmaxまで走査する(F−2β−6,F−2β−7,F−2β−13)。
(Scan i)
(Β2) Similar to step (3) of Embodiment D-1, the current time t 0 and the next time t obtained by the camera 654 by the “local region image cutting unit 654 centered on i p 0 ” Each local area image centered on “pixel i p 0 corresponding to address i” is cut out from each image of 1 at the current time t 0 and the next time t 1 (F-2β-5).
(Β3) The motion parallax number k is scanned from the lower limit value k min to the upper limit value k max by the “scan unit 653 of motion parallax number k” (F-2β-6, F-2β-7, F-2β-13). ).

(kを走査)
(β4)実施形態E−1のステップ(5)と同様にして、「運動視差τ変換ユニット653」により、この番号kを運動視差τに変換する(F−2β−8)。但し、運動視差τすなわちベクトル(τ τ)の方向が、図10(A)の“からv(すなわち、pinf)への方向”と違っているときには、この移動方向vと矛盾する運動視差のため、ステップ(β7)までをスキップする(F−2β−9)。
(β5)以上で設定された“現時刻tと次時刻tの局所領域画像”および運動視差τを「運動視差検出ユニット656」(図159参照)に入力して、実施形態D−1のステップ(6)と同様にして応答強度を下式で計算する(F−2β−10)。
(Scan k)
(Beta4) in the same manner as in Embodiment E-1 of step (5), the "motion parallax k tau conversion unit 653" and converts the number k to the motion parallax k τ (F-2β-8 ). However, when the motion parallax k τ, that is, the direction of the vector ( k τ x k τ y ) is different from the “direction from i p 0 to v (ie, p inf )” in FIG. Step (β7) is skipped (F-2β-9) due to motion parallax inconsistent with direction v.
(Β5) The “local region image at the current time t 0 and the next time t 1 ” and the motion parallax k τ set above are input to the “motion parallax detection unit 656” (see FIG. 159), and the embodiment D- In the same manner as in step (6) of 1, the response intensity is calculated by the following equation (F-2β-10).

応答強度=ΣΣ (x,y)(x−τ,y−τ
(β6)アドレス(i,k)および移動方向vを{ikj}テーブル602に入力して、円柱配列の要素番号群{ikj}を出力する(F−2β−11)。
(β7)「円柱配列投票ユニット657」中のこの番号群{ikj}に対応する円柱配列の要素群に、ステップ(β5)で計算した応答強度を投票する(F−2β−12)。
Response intensity = Σ x Σ y i a 0 (x, y) i a 1 (x- k τ x, y- k τ y)
(Β6) The address (i, k) and the moving direction v are input to the { ik j} table 602, and the element number group { ik j} of the cylindrical array is output (F-2β-11).
(Β7) The response intensity calculated in step (β5) is voted for the element group of the cylinder array corresponding to this number group { ik j} in the “column array voting unit 657” (F-2β-12).

(kを走査(F−2β−13))
(iを走査(F−2β−14))
(β8)ここまでの処理で、円柱配列内の全要素に投票が行なわれる。
(Scan k (F-2β-13))
(Scan i (F-2β-14))
(Β8) In the process so far, voting is performed for all elements in the cylindrical array.

(vを走査(F−2β−15))
(β9)ここまでの処理で、全ての移動方向パラメータvに対する円柱配列内の全要素に投票が行なわれる。
(β10)上記の円柱配列群の中で、強度が最大になる“特定の円柱配列”を「ピーク抽出ユニット658」により抽出する。この配列に対応する移動方向パラメータとして、真の移動方向vが求められる。また、その配列の中で強度がピークになる点を抽出すると、その点の“高さ座標”として平面を横切るまでの規格化時間c0が、また“断面円内の座標”として平面の3次元方位ns0が求められる(F−2β−16)。
(Scanning v (F-2β-15))
(Β9) In the process so far, voting is performed for all elements in the cylindrical array for all the moving direction parameters v.
(Β10) Among the above-described columnar array group, the “specific columnar array” having the maximum intensity is extracted by the “peak extraction unit 658”. As the movement direction parameter corresponding to this array, the true movement direction v 0 is obtained. Further, when a point at which the intensity reaches a peak in the array is extracted, the normalization time n t c0 until the plane is crossed as the “height coordinate” of the point is obtained, and the coordinate of the plane is obtained as the “coordinate in the cross-sectional circle”. A three-dimensional orientation ns0 is obtained (F-2β-16).

実施形態F−3(規格化最短距離)
図141は、本実施形態F−3の構成を示すブロック図、図142,図143は、その動作を示すフローチャートである。
(α)実施形態E−3のijτテーブル(図163)を{ikj}テーブルに変換(図141(A),図142参照)
(α1)実施形態E−3αの処理(図118参照)により、ijτテーブルの内容565(図117,図163参照)を作成し(F−3α−1)、{ikj}テーブル変換ユニット611により、そのijτテーブル(すなわち運動視差τ)を、図160の対応関係に基づいて、運動視差番号kに書き換える(F−3α−2)。これにより、図163のijτテーブルは、アドレスが(i,j)で内容がijkの「ijkテーブル(図141(A)の中段)」に書き換えられる。
(α2)次に、その{ikj}テーブル変換ユニット611により、このijkテーブルを並べ換えて、アドレスが(i,k)で内容が“円柱配列の要素番号j”のテーブルを作成する(F−3α−3)。前掲の実施形態A−8で述べたように、任意アドレス(i,k)――すなわち、位置がで運動視差がτの画素――は小円変換により“円柱配列の小円上の全ての点”に結ばれるから、上記の要素番号jは集合になり、要素番号群{ikj}で表される(図165参照)。
(α3)以上により、任意アドレス(i,k)を指定すると、円柱配列の要素番号群{ikj}が出力される{ikj}テーブル(図165)を作成できた。
(β)上記で作成された{ikj}テーブルを用いて、平面方位ns0と規格化最短距離s0を検出する(図141(B),図143参照)
(β1)「画素番号iの走査ユニット652」により、画像内の各点のアドレスiを下限値iminから上限値imaxまで走査する(F−3β−1,F−3β−2,F−3β−12)。
Embodiment F-3 (standardized shortest distance)
FIG. 141 is a block diagram showing the configuration of the present embodiment F-3, and FIGS. 142 and 143 are flowcharts showing the operation thereof.
(Α) Converting the ij τ table (FIG. 163) of Embodiment E-3 into a { ik j} table (see FIGS. 141 (A) and 142)
(Α1) The contents 565 (see FIGS. 117 and 163) of the ij τ table are created (F-3α-1) by the processing of the embodiment E-3α (see FIG. 118), and the { ik j} table conversion unit 611. Thus, the ij τ table (that is, motion parallax τ) is rewritten to motion parallax number k based on the correspondence relationship of FIG. 160 (F-3α-2). As a result, the ij τ table in FIG. 163 is rewritten to the “ ij k table (middle stage in FIG. 141A)” with the address (i, j) and the content ij k.
([Alpha] 2) Next, by their {ik j} table conversion unit 611, and reordering the ij k table address (i, k) contents to create a table of "element number j of the column sequence" (F -3α-3). As described in the above-described embodiment A-8, the arbitrary address (i, k)-that is, the pixel with the position i p 0 and the motion parallax k τ- Since all the above points are connected to each other, the element number j is a set and is represented by an element number group { ik j} (see FIG. 165).
(Α3) As described above, when an arbitrary address (i, k) is designated, a { ik j} table (FIG. 165) in which an element number group { ik j} of a cylindrical array is output can be created.
(Β) Using the { ik j} table created above, the plane orientation n s0 and the normalized shortest distance n d s0 are detected (see FIGS. 141B and 143).
(Β1) The address i of each point i p 0 in the image is scanned from the lower limit value i min to the upper limit value i max by “scanning unit 652 of pixel number i” (F-3β-1, F-3β-2) , F-3β-12).

(iを走査)
(β2)実施形態D−1のステップ(3)と同様にして、「を中心とする局所領域画像の切出しユニット654」により、カメラ651で得られた現時刻tと次時刻tの各画像から、“アドレスiに対応する画素”を中心とする局所領域画像を、現時刻tと次時刻tについて切り出す(F−3β−3)。
(β3)「運動視差kの走査ユニット653」により、運動視差番号kを下限値kminから上限値kmaxまで走査する(F−3β−4,F−3β−5,F−3β−11)。
(Scan i)
(Β2) In the same manner as in step (3) of Embodiment D-1, the current time t 0 and the next time t obtained by the camera 651 by the “local region image cutting unit 654 centered on i p 0 ” A local region image centered on “pixel i p 0 corresponding to address i” is cut out from each image of 1 at the current time t 0 and the next time t 1 (F-3β-3).
(Β3) The motion parallax number k is scanned from the lower limit value k min to the upper limit value k max by the “motion parallax k scanning unit 653” (F-3β-4, F-3β-5, F-3β-11). .

(kを走査)
(β4)「運動視差τ変換ユニット665」により、この番号kを、実施形態D−1のステップ(5)と同様にして運動視差τに変換する(F−3β−6)。但し、運動視差τすなわち動きベクトル(τ τ)の方向が、図10(A)の“からv(すなわち、pinf)への方向”と違っているときには、この移動方向vと矛盾する運動視差のため、ステップ(β7)までをスキップする(F−3β−7)。
(β5)以上で設定された“現時刻tと次時刻tの局所領域画像”および運動視差τを「運動視差検出ユニット666」(図159)に入力して、実施形態D−1のステップ(6)と同様にして応答強度を下式で計算する(F−3β−8)。
(Scan k)
(Β4) The “motion parallax k τ conversion unit 665” converts this number k into the motion parallax k τ in the same manner as in step (5) of Embodiment D-1 (F-3β-6). However, when the motion parallax k τ, that is, the direction of the motion vector ( k τ x k τ y ) is different from the “direction from i p 0 to v (ie, p inf )” in FIG. Step (β7) is skipped (F-3β-7) due to motion parallax that contradicts the moving direction v.
(Β5) The “local region image at the current time t 0 and the next time t 1 ” and the motion parallax k τ set above are input to the “motion parallax detection unit 666” (FIG. 159), and the embodiment D-1 In the same manner as in step (6), the response intensity is calculated by the following equation (F-3β-8).

応答強度=ΣΣ (x,y)(x−τ,y−τ
(β6)アドレス(i,k)を{ikj}テーブル612に入力して、円柱配列の要素番号群{ikj}を出力する(F−3β−9)。
(β7)「円柱配列投票ユニット667」中の、この番号群{ikj}に対応する円柱配列の要素群に、ステップ(β5)で計算した応答強度を投票する(F−3β−10)。
Response intensity = Σ x Σ y i a 0 (x, y) i a 1 (x- k τ x, y- k τ y)
(Β6) The address (i, k) is input to the { ik j} table 612, and the element number group { ik j} of the cylindrical array is output (F-3β-9).
(Β7) The response intensity calculated in step (β5) is voted for the element group of the cylinder array corresponding to the number group { ik j} in the “column array voting unit 667” (F-3β-10).

(kを走査(F−3β−11))
(iを走査(F−3β−12))
(β8)「ピーク抽出ユニット668」により、円柱配列の中で“投票された強度が極大(ピーク)になる点”を抽出する――この極大点が“小円群が一点に交差する場所”である。この極大点の“高さ座標”として“平面までの規格化最短距離s0”が求められ、また“断面円内の座標”として平面の3次元方位ns0が求められる(F−3β−13)。
(Scan k (F-3β-11))
(Scan i (F-3β-12))
(Β8) “Peak extraction unit 668” extracts “a point where the voted intensity becomes a maximum (peak)” in the cylindrical array—this maximum point is “a place where small circles intersect at one point” It is. As the “height coordinate” of this local maximum point, “the normalized shortest distance n d s0 to the plane” is obtained, and as the “coordinate in the cross-section circle”, the three-dimensional orientation ns 0 of the plane is obtained (F-3β−). 13).

実施形態F−4(規格化最短距離+v未知)
図144は、本実施形態F−4の構成を示すブロック図、図145,図146は、その動作を示すフローチャートである。
(α)実施例形態E−4のikτテーブル(図164)を、{ikj}テーブルに変換(図144(A),図145参照)
(α1)実施形態E−4αの処理(図121参照)により、ijτテーブル565(図120,図164参照)を作成し(F−4α−1)、{ikj}テーブル変換ユニット611により、そのijτテーブル(すなわち運動視差τ)を、図160の対応関係に基づいて、運動視差番号kに書き換える(F−4α−2)。これにより、図164のijτテーブルは、アドレスが(i,j)で内容がijkの「ijkテーブル(図144(A)の中段)」に書き換えられる。
(α2)次に、その{ikj}テーブル変換ユニット611により、このijkテーブルを並べ換えて、アドレスが(i,k)で内容が“円柱配列の要素番号j”のテーブルを作成する(F−4α−3)。前掲の実施形態A−8で述べたように、任意アドレス(i,k)――すなわち、位置がで運動視差がτの画素――は、小円変換により“円柱配列の小円上の全ての点”に結ばれるから、上記の要素番号jは集合になり、要素番号群{ikj}で表される(図166参照)。
(α3)以上により、任意アドレス(i,k)と移動方向vを指定すると、円柱配列の要素番号群{ikj}が出力される{ikj}テーブル612(図166)を作成できた。
(β)上記で作成された{ikj}テーブルを用いて、平面方位ns0と規格化最短距離s0を検出する(図144(B),図146参照)
下記の(β1)から(β7)までのステップは、実施形態F−3の対応するステップと同じである。
(β0)「vパラメータの走査ユニット659」により、可能性のある全ての方向(下限値vminから上限値vmaxまで)にわたって、“移動方向パラメータv”を走査する(F−4β−1,F−4β−2,F−4β−15)。
Embodiment F-4 (standardized shortest distance + v unknown)
FIG. 144 is a block diagram showing the configuration of the present embodiment F-4, and FIGS. 145 and 146 are flowcharts showing the operation thereof.
(Α) The ik τ table (FIG. 164) of the embodiment E-4 is converted into the { ik j} table (see FIGS. 144 (A) and 145).
(Α1) The ij τ table 565 (see FIGS. 120 and 164) is created (F-4α-1) by the processing of the embodiment E-4α (see FIG. 121), and the { ik j} table conversion unit 611 The ij τ table (that is, motion parallax τ) is rewritten to the motion parallax number k based on the correspondence relationship in FIG. 160 (F-4α-2). As a result, the ij τ table in FIG. 164 is rewritten to the “ ij k table (middle stage in FIG. 144 (A))” with the address (i, j) and the content ij k.
([Alpha] 2) Next, by their {ik j} table conversion unit 611, and reordering the ij k table address (i, k) contents to create a table of "element number j of the column sequence" (F -4α-3). As described in the above-described embodiment A-8, the arbitrary address (i, k)-that is, the pixel having the position i p 0 and the motion parallax k τ-- Since all the points on the circle are connected, the element number j is a set and is represented by an element number group { ik j} (see FIG. 166).
(Α3) As described above, when the arbitrary address (i, k) and the moving direction v are designated, the { ik j} table 612 (FIG. 166) in which the element number group { ik j} of the cylindrical array is output can be created.
(Β) Using the { ik j} table created above, the plane orientation n s0 and the normalized shortest distance n d s0 are detected (see FIGS. 144B and 146).
The steps from (β1) to (β7) below are the same as the corresponding steps in Embodiment F-3.
(Β0) “V-parameter scanning unit 659” scans the “movement direction parameter v” in all possible directions (from the lower limit value v min to the upper limit value v max ) (F-4β-1, F-4β-2, F-4β-15).

(vを走査)
(β1)「画素番号iの走査ユニット652」により、画像内の各点のアドレスiを下限値iminから上限値imaxまで走査する(F−4β−3,F−4β−4,F−4β−14)。
(Scan v)
(Β1) The address i of each point i p 0 in the image is scanned from the lower limit value i min to the upper limit value i max by “scanning unit 652 of pixel number i” (F-4β-3, F-4β-4) , F-4β-14).

(iを走査)
(β2)実施形態D−1のステップ(3)と同様にして、「を中心とする局所領域画像の切出しユニット654」により、カメラ651で得られた現時刻tおよび次時刻tの各画像から、“アドレスiに対応する画素”を中心とする局所領域画像を、現時刻tと次時刻tについて切り出す(F−4β−5)。
(β3)「運動視差番号kの走査ユニット653」により、運動視差番号kを下限値kminから上限値kmaxまで走査する(F−4β−6,F−4β−7,F−4β−13)。
(Scan i)
(Β2) Similarly to step (3) of Embodiment D-1, the current time t 0 and the next time t obtained by the camera 651 by the “local region image extraction unit 654 centered on i p 0 ” A local area image centered on “pixel i p 0 corresponding to address i” is cut out from each image of 1 at the current time t 0 and the next time t 1 (F-4β-5).
(Β3) The motion parallax number k is scanned from the lower limit value k min to the upper limit value k max by the “scanning unit 653 of motion parallax number k” (F-4β-6, F-4β-7, F-4β-13). ).

(kを走査)
(β4)「運動視差τ変換ユニット665」により、この番号kを、実施形態D−1のステップ(5)と同様にして運動視差τに変換する(F−4β−8)。但し、運動視差τすなわち動きベクトル(τ τ)の方向が、図10(A)の“からv(すなわち、pinf)への方向”と違っているときには、この移動方向vと矛盾する運動視差のため、ステップ(β7)までをスキップする(F−4β−9)。
(β5)以上で設定された“現時刻tと次時刻tの局所領域画像”および運動視差τを「運動視差検出ユニット666」(図159)に入力して、実施形態D−1のステップ(6)と同様にして応答強度を下式で計算する(F−4β−10)。
(Scan k)
(Β4) The “motion parallax k τ conversion unit 665” converts this number k into the motion parallax k τ in the same manner as in step (5) of Embodiment D-1 (F-4β-8). However, when the motion parallax k τ, that is, the direction of the motion vector ( k τ x k τ y ) is different from the “direction from i p 0 to v (ie, p inf )” in FIG. Step (β7) is skipped (F-4β-9) because of motion parallax contradicting the moving direction v.
(Β5) The “local region image at the current time t 0 and the next time t 1 ” and the motion parallax k τ set above are input to the “motion parallax detection unit 666” (FIG. 159), and the embodiment D-1 In the same manner as in step (6), the response intensity is calculated by the following equation (F-4β-10).

応答強度=ΣΣ (x,y)(x−τ,y−τ
(β6)アドレス(i,k)および移動方向vを{ikj}テーブル612に入力して、円柱配列の要素番号群{ikj}を出力する(F−4β−11)。
(β7)「円柱配列投票ユニット667」中の、この番号群{ikj}に対応する円柱配列の要素群に、ステップ(β5)で計算した応答強度を投票する(F−4β−12)。
Response intensity = Σ x Σ y i a 0 (x, y) i a 1 (x- k τ x, y- k τ y)
(Β6) The address (i, k) and the moving direction v are input to the { ik j} table 612, and the element number group { ik j} of the cylindrical array is output (F-4β-11).
(Β7) The response intensity calculated in step (β5) is voted for the element group of the cylinder array corresponding to the number group { ik j} in the “column array voting unit 667” (F-4β-12).

(kを走査(F−4β−13))
(iを走査(F−4β−14))
(β8)ここまでの処理で、円柱配列内の全要素に投票が行なわれる。
(Scan k (F-4β-13))
(Scan i (F-4β-14))
(Β8) In the process so far, voting is performed for all elements in the cylindrical array.

(vを走査(F−4β−15))
(β9)ここまでの処理で、全ての移動方向パラメータvに対する円柱配列内の全要素に投票が行なわれる。
(β10)上記の円柱配列群の中で、強度が最大になる“特定の円柱配列”を「ピーク抽出ユニット668」により抽出する。この配列に対応する移動方向パラメータとして、真の移動方向vが求められる。また、その配列の中で強度がピークになる点を抽出すると、その点の“高さ座標”として平面を横切るまでの規格化最短距離s0が、また“断面円内の座標”として平面の3次元方位ns0が求められる(F−4β−16)。
(Scanning v (F-4β-15))
(Β9) In the process so far, voting is performed for all elements in the cylindrical array for all the moving direction parameters v.
(Β10) Among the above-mentioned columnar array group, a “specific columnar array” having the maximum intensity is extracted by the “peak extraction unit 668”. As the movement direction parameter corresponding to this array, the true movement direction v 0 is obtained. Further, when a point where the intensity reaches a peak in the array is extracted, the normalized shortest distance n d s0 until the plane crosses the plane as the “height coordinate” of the point, and the plane as the “coordinate in the cross-sectional circle” 3D orientation n s0 is calculated (F-4β-16).

実施形態F−5(ステレオ+規格化距離)
図147は、本実施形態F−5の構成を示すブロック図、図148、図149は、その動作を示すフローチャートである。
(α)実施形態E−5のijσテーブル(図171)を{ikj}テーブルに変換(図147(A),図145参照)
(α1)実施形態E−5αの処理(図124参照)により、ijσテーブル575(図123,図171参照)を作成し(F−5α−1)、「{ikj}テーブル変換ユニット621」により、そのijσテーブル(すなわち両眼視差σ)を、図168の対応関係に基づいて、両眼視差番号kに書き換える(F−5α−2)。これにより、図171のijσテーブルは、アドレスが(i,j)で内容がijkの「ijkテーブル(図147(A)の中段)」に書き換えられる。
(α2)次に、その{ikj}テーブル変換ユニット621」により、このijkテーブルを並べ換えて、アドレスが(i,k)で内容が“円柱配列の要素番号j”のテーブル622を作成する(F−5α−3)。前掲の実施形態B−6で述べたように、任意アドレス(i,k)――すなわち、位置がで両眼視差がσの画素――は複比変換と極変換により“円柱配列内の大円上の全ての点”に結ばれるから、上記の要素番号jは集合になり、要素番号群{ikj}で表される(図173参照)。
(α3)以上により、任意アドレス(i,k)を指定すると、円柱配列の要素番号群{ikj}が出力される{ikj}テーブル(図173)を作成できた。
(β)上記で作成された{ikj}テーブルを用いて、平面方位ns0と規格化距離c0を検出する(図147(B),図149参照)
(β1)「画素番号iの走査ユニット672」により、画像内の各点のアドレスiを下限値iminから上限値imaxまで走査する(F−5β−1,F−5β−2,F−5β−12)。
Embodiment F-5 (stereo + normalized distance)
FIG. 147 is a block diagram showing the configuration of the present embodiment F-5, and FIGS. 148 and 149 are flowcharts showing the operation thereof.
(Α) Converting the ij σ table (FIG. 171) of Embodiment E-5 into a { ik j} table (see FIGS. 147 (A) and 145).
(Α1) The ij σ table 575 (see FIGS. 123 and 171) is created (F-5α-1) by the processing of the embodiment E-5α (see FIG. 124), and “{ ik j} table conversion unit 621”. Thus, the ij σ table (that is, binocular parallax σ) is rewritten to the binocular parallax number k based on the correspondence relationship of FIG. 168 (F-5α-2). As a result, the ij σ table of FIG. 171 is rewritten to “ ij k table (middle stage of FIG. 147 (A))” with the address (i, j) and the content ij k.
(Α2) Next, the { ik j} table conversion unit 621 ”rearranges this ij k table to create a table 622 whose address is (i, k) and whose content is“ element number j of a cylindrical array ”. (F-5α-3). As described in the above-described embodiment B-6, the arbitrary address (i, k)-that is, the pixel having the position i p R and the binocular parallax k σ- Since all the points on the great circle in the array are connected ”, the element number j is a set and is represented by an element number group { ik j} (see FIG. 173).
(Α3) As described above, when an arbitrary address (i, k) is designated, a { ik j} table (FIG. 173) in which an element number group { ik j} of a cylindrical array is output can be created.
(Β) Using the { ik j} table created above, the plane orientation n s0 and the normalized distance n d c0 are detected (see FIGS. 147 (B) and 149).
(Β1) The address i of each point i p R in the image is scanned from the lower limit value i min to the upper limit value i max by “scanning unit 672 with pixel number i” (F-5β-1, F-5β-2) , F-5β-12).

(iを走査)
(β2)「を中心とする局所領域画像の切出しユニット674」により、右カメラ661および左カメラ662で得られた各画像から、“アドレスiに対応する画素”を中心とする局所領域画像を、図167の左端に示すように、右および左カメラについて切り出す(F−5β−3)。
(β3)「両眼視差番号kの走査ユニット673」により、両眼視差番号kを下限値kminから上限値kmaxまで走査する(F−5β−4,F−5β−5,F−5β−11)。
(Scan i)
(.Beta.2) by 'i p R cutout unit 674 of the local region image centered on the "from each image obtained by the right camera 661 and the left camera 662, and around the" pixel i p R corresponding to the address i " The local region image to be cut is cut out for the right and left cameras as shown at the left end of FIG. 167 (F-5β-3).
(Β3) “Binocular parallax number k scanning unit 673” scans binocular parallax number k from lower limit value k min to upper limit value k max (F-5β-4, F-5β-5, F-5β -11).

(kを走査)
(β4)「両眼視差σ変換ユニット675」により、この番号kを、実施形態D−5のステップ(5)と同様にして両眼視差σに変換する(F−5β−6)。但し、両眼視差σすなわち視差ベクトル(σ σ)の方向が、図24(A)の“からaxis(すなわち、paxis)への方向”と違っているときには、この視軸方向axisと矛盾する両眼視差のため、ステップ(β7)までをスキップする(F−5β−7)。
(β5)以上で設定された“右および左カメラの局所領域画像”および両眼視差σを「両眼視差検出ユニット676」(図167)に入力して、実施形態D−5のステップ(6)と同様にして応答強度を下式で計算する(F−5β−8)。
(Scan k)
(Β4) “Binocular parallax k σ conversion unit 675” converts this number k into binocular parallax k σ in the same manner as in step (5) of Embodiment D-5 (F-5β-6). However, when the binocular parallax k σ, that is, the direction of the parallax vector ( k σ x k σ y ) is different from the “direction from i p R to a xis (that is, p axis )” in FIG. since the binocular parallax inconsistent with this visual axis direction a xis, skip to step (β7) (F-5β- 7).
(Β5) The “local region images of the right and left cameras” and the binocular parallax k σ set as described above are input to the “binocular parallax detection unit 676” (FIG. 167), and the steps of Embodiment D-5 ( In the same manner as 6), the response intensity is calculated by the following equation (F-5β-8).

応答強度=ΣΣ (x,y)(x−σ,y−σ
(β6)アドレス(i,k)を{ikj}テーブル622に入力して、円柱配列の要素番号群{ikj}を出力する(F−5β−9)。
(β7)「円柱配列投票ユニット677」中の、この番号群{ikj}に対応する円柱配列の要素群に、ステップ(β5)で計算した応答強度を投票する(F−5β−10)。
Response intensity = Σ x Σ y i a R (x, y) i a L (x- k σ x, y- k σ y)
(Β6) The address (i, k) is input to the { ik j} table 622, and the element number group { ik j} of the cylindrical array is output (F-5β-9).
(Β7) The response intensity calculated in step (β5) is voted for the element group of the cylinder array corresponding to the number group { ik j} in the “column array voting unit 677” (F-5β-10).

(kを走査(F−5β−11))
(iを走査(F−5β−12))
(β8)「ピーク抽出ユニット678」により、円柱配列の中で“投票された強度が極大(ピーク)になる点”を抽出する――この極大点が“大円群が一点に交差する場所”である。この極大点の“高さ座標”として“平面までの規格化最短距離c0”が求められ、また“断面円内の座標”として平面の3次元方位ns0が求められる(F−5β−13)。
(Scan k (F-5β-11))
(Scan i (F-5β-12))
(Β8) “Peak extraction unit 678” extracts “a point where the voted intensity becomes a maximum (peak)” in the cylindrical array—this maximum point is “a place where the great circles intersect at one point” It is. The maxima as "height coordinate""normalized shortest distance to the plane n d c0" is obtained, also 3-dimensional orientation n s0 plane is obtained as "coordinates in the cross-sectional circle" (F-5.beta. 13).

実施形態F−6(ステレオ+規格化距離+aaxis未知)
図150は、本実施形態F−6の構成を示すブロック図、図151,図152は、その動作を示すフローチャートである。
(α)全ての視軸方向{axis}に対する{ikj}テーブル(図166)の作成(図150(A),図151参照)
(α1)実施形態E−6αの処理(図127参照)により、ijσテーブル575(図126,図172参照)を作成し(F−6α−1)、{ikj}テーブル変換ユニット621により、そのijσテーブル(すなわち両眼視差σ)を、図168の対応関係に基づいて、両眼視差番号kに書き換える(F−6α−2)。これにより、図172のijσテーブルは、アドレスが(i,j)で内容がijkの「ijkテーブル(図150(A)の中段)」に書き換えられる。
(α2)次に、その{ikj}テーブル変換ユニット621により、このijkテーブルを並べ換えて、アドレスが(i,k)で内容が“円柱配列の要素番号j”のテーブルを作成する(F−6α−3)。前掲の実施形態B−6で述べたように、任意アドレス(i,k)――すなわち、位置がで両眼視差がσの画素――は、複比変換と極変換により“円柱配列の大円上の全ての点”に結ばれるから、上記の要素番号jは集合になり、要素番号群{ikj}で表される(図174参照)。
(α3)以上により、任意アドレス(i,k)と視軸方向axisを指定すると、円柱配列の要素番号群{ikj}が出力される{ikj}テーブル(図174)を作成できた。
(β)上記で作成された{ikj}テーブルを用いて、平面方位ns0と規格化距離c0を検出する(図150(B),図152参照)
下記の(β1)から(β7)までのステップは、実施形態F−5の対応するステップと同じである。
(β0)「axisパラメータの走査ユニット679」により、可能性のある全ての方向(下限値axis,minから上限値axis,maxまで)にわたって、“視軸方向パラメータaxis”を走査する(F−6β−1,F−6β−2,F−6β−15)。
Embodiment F-6 (stereo + normalized distance + a axis unknown)
FIG. 150 is a block diagram showing the configuration of the present embodiment F-6, and FIGS. 151 and 152 are flowcharts showing the operation thereof.
(Α) Creation of { ik j} table (FIG. 166) for all visual axis directions {a xis } (see FIGS. 150A and 151)
(Α1) The ij σ table 575 (see FIGS. 126 and 172) is created by the processing of the embodiment E-6α (see FIG. 127) (F-6α-1), and the { ik j} table conversion unit 621 The ij σ table (that is, binocular parallax σ) is rewritten to the binocular parallax number k based on the correspondence relationship in FIG. 168 (F-6α-2). As a result, the ij σ table in FIG. 172 is rewritten to “ ij k table (middle stage in FIG. 150A)” with the address (i, j) and the content ij k.
(Α2) Next, the { ik j} table conversion unit 621 rearranges the ij k table to create a table whose address is (i, k) and whose content is “element number j of cylindrical array” (F -6α-3). As described in the above-described embodiment B-6, the arbitrary address (i, k)-that is, the pixel having the position i p R and the binocular parallax k σ-- Since the element numbers j are connected to all points on the great circle of the cylinder array, the element numbers j are collected and represented by an element number group { ik j} (see FIG. 174).
(Α3) As described above, when an arbitrary address (i, k) and a visual axis direction a xis are designated, a { ik j} table (FIG. 174) in which an element number group { ik j} of a cylindrical array is output can be created. .
(Β) Using the { ik j} table created above, the plane orientation n s0 and the normalized distance n d c0 are detected (see FIGS. 150B and 152).
The steps from (β1) to (β7) below are the same as the corresponding steps in Embodiment F-5.
( Β0 ) The “visual axis parameter a xis ” is scanned in all possible directions (from the lower limit value a xis, min to the upper limit value a xis, max ) by the “a xi parameter scanning unit 679”. (F-6β-1, F-6β-2, F-6β-15).

(axisを走査)
(β1)「画素番号iの走査ユニット672」により、画像内の各点のアドレスiを下限値iminから上限値imaxまで走査する(F−6β−3,F−6β−4,F−6β−14)。
( Scan axis )
(Β1) The “scanning unit 672 with pixel number i” scans the address i of each point i p R in the image from the lower limit value i min to the upper limit value i max (F-6β-3, F-6β-4) , F-6β-14).

(iを走査)
(β2)「を中心とする局所領域画像の切出しユニット674」により、右カメラ661および左カメラ662で得られた各画像から、“アドレスiに対応
する画素”を中心とする局所領域画像を、図167の左端に示すように、右および左カメラについて切り出す(F−6β−5)。
(β3)「両眼視差番号kの走査ユニット673」により、両眼視差番号kを下限値kminから下限値kmaxまで走査する(F−6β−6,F−6β−7,F−6β−13)。
(β4)実施形態D−5のステップ(5)と同様にして、「両眼視差σ変換ユニット675」により、この番号kを、両眼視差σに変換する(F−6β−8)。但し、両眼視差σすなわち視差ベクトル(σ σ)の方向が、図24(A)の“からaxis(すなわち、paxis)への方向”と違っているときには、この視軸方向axisと矛盾する両眼視差のため、ステップ(β7)までをスキップする(F−6β−8)。
(β5)以上で設定された“右および左カメラの局所領域画像”および両眼視差σを「両眼視差検出ユニット676」(図167)に入力して、実施形態D−5のステップ(6)と同様にして応答強度を下式で計算する(F−6β−10)。
(Scan i)
(.Beta.2) by 'i p R cutout unit 674 of the local region image centered on the "from each image obtained by the right camera 661 and the left camera 662, and around the" pixel i p R corresponding to the address i " The local region image to be cut is cut out for the right and left cameras as shown at the left end of FIG. 167 (F-6β-5).
(.Beta.3) by 'scanning unit 673 of the binocular parallax numbers k ", the binocular parallax number k scanning from the lower limit value k min until the lower limit value k max (F-6β-6 , F-6β-7, F-6β -13).
(Β4) In the same manner as in step (5) of Embodiment D-5, the “binocular parallax k σ conversion unit 675” converts this number k into binocular parallax k σ (F-6β-8). . However, when the binocular parallax k σ, that is, the direction of the parallax vector ( k σ x k σ y ) is different from the “direction from i p R to a xis (that is, p axis )” in FIG. since the binocular parallax inconsistent with this visual axis direction a xis, skip to step (β7) (F-6β- 8).
(Β5) The “local region images of the right and left cameras” and the binocular parallax k σ set as described above are input to the “binocular parallax detection unit 676” (FIG. 167), and the steps of Embodiment D-5 ( In the same manner as in 6), the response intensity is calculated by the following equation (F-6β-10).

応答強度=ΣΣ (x,y)(x−σ,y−σ
(β6)アドレス(i,k)および視軸方向axisを{ikj}テーブル622に入力して、円柱配列の要素番号群{ikj}を出力する(F−6β−11)。
(β7)「円柱配列投票ユニット677」中の、この番号群{ikj}に対応する円柱配列の要素群に、ステップ(β5)で計算した応答強度を投票する(F−6β−12)。
Response intensity = Σ x Σ y i a R (x, y) i a L (x- k σ x, y- k σ y)
(Β6) The address (i, k) and the visual axis direction a xis are input to the { ik j} table 622, and the element number group { ik j} of the cylindrical array is output (F-6β-11).
(Β7) The response intensity calculated in step (β5) is voted for the element group of the cylinder array corresponding to the number group { ik j} in the “column array voting unit 677” (F-6β-12).

(kを走査(F−6β−13))
(iを走査(F−6β−14))
(β8)ここまでの処理で、円柱配列内の全要素に投票が行なわれる。
(Scan k (F-6β-13))
(Scan i (F-6β-14))
(Β8) In the process so far, voting is performed for all elements in the cylindrical array.

(axisを変換(F−6β−15))
(β9)ここまでの処理で、全ての視軸方向パラメータaxisに対する円柱配列内の全要素に投票が行なわれる。
(β10)上記の円柱配列群の中で、強度が最大になる“特定の円柱配列”を「ピーク抽出ユニット678」により抽出する。この配列に対応する視軸方向パラメータとして、真の視軸方向axis0が求められる。また、その配列の中で強度がピークになる点を抽出すると、その点の“高さ座標”として平面までの規格化距離c0が、また“断面円内の座標”として平面の3次元方位ns0が求められる(F−6β−16)。
(Convert axis (F-6β-15))
(Β9) In the processes so far, voting is performed for all elements in the cylindrical array for all visual axis direction parameters a xis .
(Β10) Among the above-described columnar array group, the “specific columnar array” having the maximum intensity is extracted by the “peak extraction unit 678”. As the visual axis direction parameter corresponding to this arrangement, the true visual axis direction axis0 is obtained. Further, when a point where the intensity reaches a peak in the array is extracted, the normalized distance n d c0 to the plane is used as the “height coordinate” of the point, and the three-dimensional plane is used as the “coordinate in the cross-sectional circle”. The direction ns0 is obtained (F-6β-16).

実施例F−7(ステレオ+規格化最短距離)
図153は、本実施形態F−7の構成を示すブロック図、図154,図155は、その動作を示すフローチャートである。
(α)実施形態E−7のijσテーブル(図171)を{ikj}テーブルに変換(153(A),図154参照)
(α1)実施形態E−7αの処理(図130参照)により、ijσテーブル585(図129,図171参照)を作成し、(F−7α−1)、「{ikj}テーブル変換ユニット631」により、そのijσテーブル(すなわち両眼視差σ)を、図168の対応関係に基づいて、両眼視差番号kに書き換える(F−7α−2)。これにより、図171のijσテーブルは、アドレスが(i,j)で内容がijkの「ijkテーブル(図153(A)の中段)」に書き換えられる。
(α2)次に、その「{ikj}テーブル変換ユニット631」により、このijkテーブルを並べ換えて、アドレスが(i,k)で内容が“円柱配列の要素番号j”のテーブル632を作成する(F−7α−3)。前掲の実施形態B−8で述べたように、任意アドレス(i,k)――すなわち、位置がで両眼視差がσの画素――は小円変換により“円柱配列内の小円上の全ての点”に結ばれるから、上記の要素番号jは集合になり、要素番号群{ikj}で表される(図173参照)。
(α3)以上により、任意アドレス(i,k)を指定すると、円柱配列の要素番号群{ikj}が出力される{ikj}テーブル(図173)を作成できた。
(β)上記で作成された{ikj}テーブルを用いて、平面方位ns0と規格化距離s0を検出する(図153(B),図155参照)
(β1)「画素番号iの走査ユニット672」により、画像内の各点のアドレスiを下限値iminから上限値imaxまで走査する(F−7β−1,F−7β−2,F−7β−12)。
Example F-7 (stereo + standardized shortest distance)
FIG. 153 is a block diagram showing the configuration of the present embodiment F-7, and FIGS. 154 and 155 are flowcharts showing the operation thereof.
(Α) Converting the ij σ table (FIG. 171) of Embodiment E-7 into a { ik j} table (see 153 (A) and FIG. 154)
(Α1) The ij σ table 585 (see FIGS. 129 and 171) is created by the processing of the embodiment E-7α (see FIG. 130), and (F-7α-1), “{ ik j} table conversion unit 631. The ij σ table (that is, the binocular parallax σ) is rewritten to the binocular parallax number k based on the correspondence relationship in FIG. 168 (F-7α-2). As a result, the ij σ table of FIG. 171 is rewritten to “ ij k table (middle stage of FIG. 153A)” with the address (i, j) and the content ij k.
(Α2) Next, the “{ ik j} table conversion unit 631” rearranges the ij k table to create a table 632 having the address (i, k) and the content “element number j of the cylindrical array”. (F-7α-3). As described in the above-described embodiment B-8, the arbitrary address (i, k)-that is, the pixel having the position i p R and the binocular parallax k σ-- Since all the points on the small circle are connected to each other, the element number j is a set and is represented by an element number group { ik j} (see FIG. 173).
(Α3) As described above, when an arbitrary address (i, k) is designated, a { ik j} table (FIG. 173) in which an element number group { ik j} of a cylindrical array is output can be created.
(Β) Using the { ik j} table created above, the plane orientation n s0 and the normalized distance n d s0 are detected (see FIGS. 153 (B) and 155).
(Β1) The address i of each point i p R in the image is scanned from the lower limit value i min to the upper limit value i max by “scanning unit 672 with pixel number i” (F-7β-1, F-7β-2) , F-7β-12).

(iを走査)
(β2)「を中心とする局所領域画像の切出しユニット674」により、右カメラ661および左カメラ662で得られた各画像から、“アドレスiに対応する画素”を中心とする局所領域画像を、図167の左端に示すように、右および左カメラについて切り出す(F−7β−3)。
(β3)「両眼視差番号kの走査ユニット673」により、両眼視差番号kを下限値kminから上限値kmaxまで走査する(F−7β−4,F−7β−5,F−7β−11)。
(Scan i)
(.Beta.2) by 'i p R cutout unit 674 of the local region image centered on the "from each image obtained by the right camera 661 and the left camera 662, and around the" pixel i p R corresponding to the address i " As shown at the left end of FIG. 167, the local region image to be cut out is cut out for the right and left cameras (F-7β-3).
(Β3) “Binocular parallax number k scanning unit 673” scans binocular parallax number k from lower limit value k min to upper limit value k max (F-7β-4, F-7β-5, F-7β -11).

(kを走査)
(β4)「両眼視差σ変換ユニット685」により、この番号kを、実施形態D−5のステップ(5)と同様にして両眼視差σに変換する(F−7β−6)。但し、両眼視差σすなわち視差ベクトル(σ σ)の方向が、図24(A)の“からaxis(すなわち、paxis)への方向”と違っているときには、この視軸方向axisと矛盾する両眼視差のため、ステップ(β7)までをスキップする(F−7β−7)。
(β5)以上で設定された“右および左カメラの局所領域画像”および両眼視差σを「両眼視差検出ユニット686」(図167)に入力して、実施形態D−5のステップ(6)と同様にして応答強度を下式で計算する(F−7β−8)。
(Scan k)
(Β4) “Binocular parallax k σ conversion unit 685” converts this number k into binocular parallax k σ in the same manner as in step (5) of Embodiment D-5 (F-7β-6). However, when the binocular parallax k σ, that is, the direction of the parallax vector ( k σ x k σ y ) is different from the “direction from i p R to a xis (that is, p axis )” in FIG. since the binocular parallax inconsistent with this visual axis direction a xis, skip to step (β7) (F-7β- 7).
(Β5) The “local region images of the right and left cameras” and the binocular parallax k σ set as described above are input to the “binocular parallax detection unit 686” (FIG. 167), and the steps of Embodiment D-5 ( In the same manner as in 6), the response intensity is calculated by the following equation (F-7β-8).

応答強度=ΣΣ (x,y)(x−σ,y−σ
(β6)アドレス(i,k)を{ikj}テーブル632に入力して、円柱配列の要素番号群{ikj}を出力する(F−7β−9)。
(β7)「円柱配列投票ユニット687」中の、この番号群{ikj}に対応する円柱配列の要素群に、ステップ(β5)で計算した応答強度を投票する(F−7β−10)。
Response intensity = Σ x Σ y i a R (x, y) i a L (x- k σ x, y- k σ y)
(Β6) The address (i, k) is input to the { ik j} table 632, and the element number group { ik j} of the cylindrical array is output (F-7β-9).
(Β7) The response intensity calculated in step (β5) is voted for the element group of the cylinder array corresponding to the number group { ik j} in the “column array voting unit 687” (F-7β-10).

(kを走査(F−7β−11))
(iを走査(F−7β−12))
(β8)「ピーク抽出ユニット688」により、円柱配列の中で“投票された強度が極大(ピーク)になる点”を抽出する――この極大点が“小円群が一点に交差する場所”である。この極大点の“高さ座標”として“平面までの規格化最短距離s0”が求められ、また“断面円内の座標”として平面の3次元方位ns0が求められる(F−7β−13)。
(Scan k (F-7β-11))
(Scan i (F-7β-12))
(Β8) “Peak extraction unit 688” extracts “the point where the voted intensity becomes a maximum (peak)” in the cylindrical array—this maximum point is “the place where the small circles intersect at one point” It is. The maxima as "height coordinate""normalized shortest distance to the plane n d s0" is obtained, also 3-dimensional orientation n s0 plane is obtained as "coordinates in the cross-sectional circle" (F-7.beta. 13).

実施形態F−8(ステレオ+規格化最短距離+aaxis未知)
図156は、本実施形態F−8の構成を示すブロック図、図157,図158はその動作を示すフローチャートである。
(α)実施形態E−8のikσテーブル(図172)を、{ikj}テーブルに変換(図156(A),図157参照)
(α1)実施形態E−8αの処理(図133参照)により、ijσテーブル585(図132,図172参照)を作成し、(F−8α−1)、{ikj}テーブル変換ユニット631」により、そのijσテーブル(すなわち両眼視差σ)を、図168の対応関係に基づいて、両眼視差番号kに書き換える(F−8α−2)。これにより、図172のijσテーブルは、アドレスが(i,j)で内容がijkの「ijkテーブル(図156(A)の中段)」に書き換えられる。
(α2)次に、その{ikj}テーブル変換ユニット631」により、このijkテーブルを並べ換えて、アドレスが(i,k)で内容が“円柱配列の要素番号j”のテーブル632を作成する(F−8α−3)。前掲の実施形態B−8で述べたように、任意アドレス(i,k)――すなわち、位置がで両眼視差がσの画素――は、小円変換により“円柱配列の小円上の全ての点”に結ばれるから、上記の要素番号jは集合になり、要素番号群{ikj}で表される(図174参照)。
(α3)以上により、任意アドレス(i,k)と視軸方向axisを指定すると、円柱配列の要素番号群{ikj}が出力される{ikj}テーブル(図174)を作成できた。
(β)上記で作成された{ikj}テーブルを用いて、平面方位ns0と規格化最短距離s0を検出する(図156(B),図158参照)
下記の(β1)から(β7)までのステップは、実施形態F−7の対応するステップと同じである。
(β0)「axisパラメータの走査ユニット679」により、可能性のある全ての方向(下限値axis,minから上限値axis,maxまで)にわたって、“視軸方向パラメータaxis”を走査する(F−8β−1,F−8β−2,F−8β−15)。
Embodiment F-8 (stereo + standardized shortest distance + a axis unknown)
FIG. 156 is a block diagram showing the configuration of the present embodiment F-8, and FIGS. 157 and 158 are flowcharts showing the operation thereof.
(Α) The ik σ table (FIG. 172) of Embodiment E-8 is converted into a { ik j} table (see FIGS. 156 (A) and 157).
(Α1) The ij σ table 585 (see FIGS. 132 and 172) is created by the processing of the embodiment E-8α (see FIG. 133), and (F-8α-1), the { ik j} table conversion unit 631 ” Thus, the ij σ table (that is, binocular parallax σ) is rewritten to the binocular parallax number k based on the correspondence relationship in FIG. 168 (F-8α-2). As a result, the ij σ table of FIG. 172 is rewritten to “ ij k table (middle stage of FIG. 156 (A))” with the address (i, j) and the content ij k.
(Α2) Next, the { ik j} table conversion unit 631 ”sorts this ij k table to create a table 632 whose address is (i, k) and whose content is“ element number j of cylindrical array ”. (F-8α-3). As described in the above-mentioned embodiment B-8, the arbitrary address (i, k)-that is, the pixel having the position i p R and the binocular parallax k σ-- Since all the points on the small circle are connected, the element number j is a set and is represented by an element number group { ik j} (see FIG. 174).
(Α3) As described above, when an arbitrary address (i, k) and a visual axis direction a xis are designated, a { ik j} table (FIG. 174) in which an element number group { ik j} of a cylindrical array is output can be created. .
(Β) Using the { ik j} table created above, the plane orientation n s0 and the normalized shortest distance n d s0 are detected (see FIGS. 156B and 158).
The steps from (β1) to (β7) below are the same as the corresponding steps in Embodiment F-7.
( Β0 ) The “visual axis parameter a xis ” is scanned in all possible directions (from the lower limit value a xis, min to the upper limit value a xis, max ) by the “a xi parameter scanning unit 679”. (F-8β-1, F-8β-2, F-8β-15).

(axisを走査)
(β1)「画素番号iの走査ユニット672」により、画像内の各点のアドレスiを下限値iminから上限値imaxまで走査する(F−8β−3,F−8β−4,F−8β−14)。
( Scan axis )
(Β1) The address i of each point i p R in the image is scanned from the lower limit value i min to the upper limit value i max by “scanning unit 672 with pixel number i” (F-8β-3, F-8β-4). , F-8β-14).

(iを走査)
(β2)「を中心とする局所領域画像の切出しユニット674」により、右カメラ661および左カメラ662で得られた各画像から、“アドレスiに対応する画素”を中心とする局所領域画像を、図167の左端に示すように、右および左カメラについて切り出す(F−8β−5)。
(β3)「両眼視差番号kの走査ユニット673」により、両眼視差番号kを下限値kminから上限値kmaxまで走査する(F−8β−6,F−8β−7,F−8β−13)。
(Scan i)
(.Beta.2) by 'i p R cutout unit 674 of the local region image centered on the "from each of the images obtained by the right camera 661 and the left camera 662, and around the" pixel i p R corresponding to the address i " The local region image to be cut is cut out for the right and left cameras as shown at the left end of FIG. 167 (F-8β-5).
(Β3) “Binocular parallax number k scanning unit 673” scans binocular parallax number k from lower limit value k min to upper limit value k max (F-8β-6, F-8β-7, F-8β -13).

(kを走査)
(β4)「両眼視差σ変換ユニット685」により、この番号kを、実施形態D−5のステップ(5)と同様にして両眼視差σに変換する(F−8β−8)。但し、両眼視差σすなわち視差ベクトル(σ σ)の方向が、図24(A)の“からaxis(すなわち、paxis)への方向”と違っているときには、この視軸方向axisと矛盾する両眼視差のため、ステップ(β7)までをスキップする(F−8β−9)。
(β5)以上で設定された“右および左カメラの局所領域画像”および両眼視差σを「両眼視差検出ユニット686」(図167)に入力して、実施形態D−5のステップ(6)と同様にして応答強度を下式で計算する(F−8β−10)。
(Scan k)
(Β4) “Binocular parallax k σ conversion unit 685” converts this number k into binocular parallax k σ in the same manner as in step (5) of Embodiment D-5 (F-8β-8). However, when the binocular parallax k σ, that is, the direction of the parallax vector ( k σ x k σ y ) is different from the “direction from i p R to a xis (that is, p axis )” in FIG. since the binocular parallax inconsistent with this visual axis direction a xis, skip to step (β7) (F-8β- 9).
(Β5) The “local region images of the right and left cameras” and the binocular parallax k σ set as described above are input to the “binocular parallax detection unit 686” (FIG. 167), and the steps of Embodiment D-5 ( Similar to 6), the response intensity is calculated by the following equation (F-8β-10).

応答強度=ΣΣ (x,y)(x−σ,y−σ
(β6)アドレス(i,k)および視軸方向axisを{ikj}テーブル632に入力して、円柱配列の要素番号群{ikj}を出力する(F−8β−11)。
(β7)「円柱配列投票ユニット687」中の、この番号群{ikj}に対応する円柱配列の要素群に、ステップ(β5)で計算した応答強度を投票する(F−8β−12)。
Response intensity = Σ x Σ y i a R (x, y) i a L (x- k σ x, y- k σ y)
(Β6) The address (i, k) and the visual axis direction a xis are input to the { ik j} table 632, and the element number group { ik j} of the cylindrical array is output (F-8β-11).
(Β7) The response intensity calculated in step (β5) is voted for the element group of the cylinder array corresponding to the number group { ik j} in the “column array voting unit 687” (F-8β-12).

(kを走査(F−8β−13))
(iを走査(F−8β−14))
(β8)ここまでの処理で、円柱配列内の全要素に投票が行なわれる。
(Scan k (F-8β-13))
(Scan i (F-8β-14))
(Β8) In the process so far, voting is performed for all elements in the cylindrical array.

(axisを走査(F−8β−15))
(β9)ここまでの処理で、全ての視軸方向パラメータaxisに対する円柱配列内の全要素に投票が行なわれる。
(β10)上記の円柱配列群の中で、強度が最大になる“特定の円柱配列”を「ピーク抽出ユニット688」により抽出する。この配列に対応する視軸方向パラメータとして、真の視軸方向axis0が求められる。また、その配列の中で強度がピークになる点を抽出すると、その点の“高さ座標”として平面までの規格化最短距離s0が、また“断面円内の座標”として平面の3次元方位ns0が求められる(F−8β−16)。
付録 運動視差と両眼視差の計算法
(A)運動視差
(A−1)規格化時間、平面方位n、現時刻位置p、無限時刻位置pinf(移動方向v)から、運動視差τを計算する二種類の方法を以下に述べる。
( Scan axis (F-8β-15))
(Β9) In the processes so far, voting is performed for all elements in the cylindrical array for all visual axis direction parameters a xis .
(Β10) Among the above-described columnar array group, the “specific columnar array” having the maximum intensity is extracted by the “peak extraction unit 688”. As the visual axis direction parameter corresponding to this arrangement, the true visual axis direction axis0 is obtained. Further, when a point where the intensity reaches a peak in the array is extracted, the normalized shortest distance n d s0 to the plane is set as the “height coordinate” of the point, and 3 of the plane is set as the “coordinate in the cross-sectional circle”. dimensional orientation n s0 is calculated (F-8β-16).
Appendix Method for calculating motion parallax and binocular parallax (A) Motion parallax (A-1) Normalization time n t c , plane orientation n s , current time position p 0 , infinite time position p inf (moving direction v), Two methods for calculating the motion parallax τ are described below.

(A−1−1)方法1:複比と極変換による方法(図161)
ステップ1:規格化時間、平面方位n、現時刻位置p、無限時刻位置pinfを設定する。
(A-1-1) Method 1: Method by cross ratio and polar conversion (FIG. 161)
Step 1: Normalization time n t c , plane orientation n s , current time position p 0 , and infinite time position p inf are set.

ステップ2:pの決定
は“pとpinfを通る大円”と“nの極線”との交点であるから(図161(A))、下式で決定される。なお、下式の“nとのベクトル積”は前述の1.3.2の極変換に起因する。
Step 2: Since determining p c of the p c is the intersection of and "p 0 and the great circle passing through the p inf" "Polar of n s" (FIG. 161 (A)), is determined by the following equation. Incidentally, in the following equation "vector product of n s" is due to polar transformation of the above 1.3.2.

=[[p×pinf]×n]/|[p×pinf]×n| (付録−1a)
ステップ3:τすなわちcos−1(p)の決定
、pinf、p、p、pの間には
={pinf} (付録−2a)
の複比の関係がある(式(12a)参照)。pinf、p、p、pを中心角で表して(前述の1.3.1、図161(B))、式(付録−2a)に代入すると下式になる(式(16a)参照)。
p c = [[p 0 × p inf ] × n s ] / | [p 0 × p inf ] × n s | (Appendix-1a)
Step 3: Determine τ or cos −1 (p 0 p 1 )
n t c, p inf, during p 0, p 1, p c is
n t c = {p inf p 0 p 1 p c} ( Appendix -2a)
(See equation (12a)). Expressing p inf , p 0 , p 1 , and pc as central angles (1.3.1 as described above, FIG. 161 (B)) and substituting them into the formula (Appendix-2a), the following formula is obtained (formula (16a )reference).

=(sin(a+τ)/sin(τ))
/(sin(x)/sin(x−a)) (付録−2b)
この式をτについて解くと
τ=tan−1(sina sin(x−a)
/( sinx−cosa sin(x−a)) (付録−3)
になり、運動視差τが決定された。ここでaとxは下式で計算される。
n t c = (sin (a + τ) / sin (τ))
/ (Sin (x) / sin (x-a)) (Appendix-2b)
Solving this equation for τ, τ = tan −1 (sina sin (x−a)
/ (N t c sinx-cosa sin (x-a)) ( Appendix -3)
The motion parallax τ was determined. Here, a and x are calculated by the following equations.

a=cos−1(pinf) (付録−4a)
x=cos−1(pinf) (付録−4b)
なお、次時刻位置pを求めたい場合には、
=cosτ ξ+sinτ η (付録−5a)
と計算できる。ξとηは下式で与えられる。
a = cos −1 (p inf p 0 ) (Appendix-4a)
x = cos -1 (p inf p c) ( Appendix -4b)
It should be noted that, in case you want to find the next time position p 1 is,
p 1 = cosτξ + sinτη (Appendix-5a)
Can be calculated. ξ and η are given by the following equations.

ξ=p (付録−5b)
η=[[p×pinf]×p]/|[p×pinf]×p| (付録−5c)
(A−1−2)方法2:別法
下記の方法でも求めることができる。
ξ = p 0 (Appendix-5b)
η = [[p 0 × p inf ] × p 0 ] / | [p 0 × p inf ] × p 0 | (Appendix-5c)
(A-1-2) Method 2: Alternative method It can also be determined by the following method.

ステップ1:規格化時間、平面方位n、現時刻位置p、無限時刻位置pinfを設定する。 Step 1: Normalization time n t c , plane orientation n s , current time position p 0 , and infinite time position p inf are set.

ステップ2:任意の単位移動距離Δxを設定して、カメラ中心から平面まで距離d――この距離は図12のVt――を下式で計算する。 Step 2: Arbitrary unit movement distance Δx is set, and the distance d c from the camera center to the plane—this distance is Vt c in FIG.

Δx (付録−6)
ステップ3:方位がnで距離がdの平面が決まる。カメラ中心からpの方向に延長して、その平面と交わる点Pを計算する。
d c = n t c Δx (Appendix -6)
Step 3: orientation distance determines the plane of the d c in n s. A point P 0 extending from the camera center in the direction of p 0 and intersecting with the plane is calculated.

ステップ4:その点Pをpinfの方向にΔxだけ移動した点Pを計算する。 Step 4: Calculate a point P 1 that has moved the point P 0 in the direction of p inf by Δx.

ステップ5:この点Pを下式で規格化したpが、次時刻の球面上の位置である。 Step 5: p 1 obtained by normalizing the point P 1 with the following equation is a position on the spherical surface at the next time.

=P/|P| (付録−7)
ステップ6:この位置pと現時刻位置pから下式で運動視差τを決定できる。なお、ステップ2で任意に設定した単位移動距離Δxを変化しても、この運動視差は影響されない。
p 1 = P 1 / | P 1 | (Appendix-7)
Step 6: can determine a motion parallax τ in the following equation and the position p 1 from the current time position p 0. Even if the unit movement distance Δx arbitrarily set in step 2 is changed, this motion parallax is not affected.

τ=cos−1(p) (付録−8)
(A−2)規格化最短距離の場合
規格化最短距離、平面方位n、現時刻位置p、無限時刻位置pinf(移動方向v)から、運動視差τを計算する二種類の方法を以下に述べる。
τ = cos −1 (p 0 p 1 ) (Appendix-8)
(A-2) normalized shortest distance n d s when normalized shortest distance n d s, planar orientation n s, the current time position p 0, an infinite time position p inf (movement direction v), calculates the motion parallax τ Two types of methods are described below.

(A−2−1)方法1:小円変換による方法(図162)
ステップ1:規格化最短距離、平面方位n、現時刻位置p、無限時刻位置pinfを設定する。
(A-2-1) Method 1: Method by small circle transformation (FIG. 162)
Step 1: Standardized shortest distance n d s , plane orientation n s , current time position p 0 , and infinite time position p inf are set.

ステップ2:小円変換の半径Rを下式で決定する(前述の2.2、図162(A))。   Step 2: The radius R of the small circle transformation is determined by the following equation (2.2 described above, FIG. 162 (A)).

R=cos−1(p) (付録−11)
ステップ3:τすなわちcos−1(p)の決定
2.2で述べたように下式の関係がある(図162(B))
cosR=/(pinf
sinτ/sin(a+τ) (付録−12)
この式をτについて解くと
τ=tan−1(sina cosR/(−cosa cosR))
(付録−13)
になり、運動視差τが決定された。
R = cos −1 (p 0 n s ) (Appendix-11)
Step 3: Determination of τ, that is, cos −1 (p 0 p 1 ) As described in 2.2, there is a relationship of the following equation (FIG. 162 (B)).
cosR = n d s / (p inf p 0 p 1)
= N d s sinτ / sin ( a + τ) ( Appendix -12)
Solving this equation for τ τ = tan -1 (sina cosR / (n d s -cosa cosR))
(Appendix-13)
The motion parallax τ was determined.

なお、次時刻位置pを求めたい場合には、式(付録−5)と同様に下式で計算できる。 Incidentally, if you want to find the next time position p 1 can be calculated by the following equation as for formula (Appendix -5).

=cosτ ξ+sinτ η (付録−14)
(A−2−2)方法2:別法
下記の方法でも求めることができる。
p 1 = cosτξ + sinτη (Appendix-14)
(A-2-2) Method 2: Alternative method It can also be determined by the following method.

ステップ1:規格化最短距離、平面方位n、現時刻位置p、無限時刻位置pinfを設定する。 Step 1: Standardized shortest distance n d s , plane orientation n s , current time position p 0 , and infinite time position p inf are set.

ステップ2:任意の単位移動距離Δxを設定して、カメラ中心から平面まで最短距離d(図12)を下式で計算する。 Step 2: An arbitrary unit moving distance Δx is set, and the shortest distance d s (FIG. 12) from the camera center to the plane is calculated by the following equation.

Δx (付録−15)
ステップ3:方位がnで最短距離がdの平面が決まる。カメラ中心からpの方向に延長して、その平面と交わる点Pを計算する。
d s = n d s Δx (Appendix-15)
Step 3: orientation shortest distance n s is determined that the plane of the d s. A point P 0 extending from the camera center in the direction of p 0 and intersecting with the plane is calculated.

ステップ4:その点Pをpinfの方向にΔxだけ移動した点Pを計算する。 Step 4: Calculate a point P 1 that has moved the point P 0 in the direction of p inf by Δx.

ステップ5:この点Pを下式で規格化したpが、次時刻の球面上の位置である。 Step 5: p 1 obtained by normalizing the point P 1 with the following equation is a position on the spherical surface at the next time.

=P/|P| (付録−16)
ステップ6:この位置pと現時刻位置pから下式で運動視差τを決定できる。なお、ステップ2で任意に設定した単位移動距離Δxを変化しても、この運動視差は影響されない。
p 1 = P 1 / | P 1 | (Appendix-16)
Step 6: can determine a motion parallax τ in the following equation and the position p 1 from the current time position p 0. Even if the unit movement distance Δx arbitrarily set in step 2 is changed, this motion parallax is not affected.

τ=cos−1(p) (付録−17)
(B)両眼視差
(B−1)規格化距離の場合
規格化距離、平面方位n、右カメラ画像位置p、左右カメラを結ぶ視軸上の位置paxis(移動方向axis)から、両眼視差σを計算する二種類の方法を以下に述べる。
τ = cos −1 (p 0 p 1 ) (Appendix-17)
(B) the binocular disparity (B-1) normalized distance n d when the normalized distance c n d c, planar orientation n s, the right camera image position p R, position on the visual axis connecting the left and right cameras p axis ( Two methods for calculating the binocular parallax σ from the moving direction a xis ) are described below.

(B−1−1)方法1:複比と極変換による方法(図169)
ステップ1:規格化距離、平面方位n、右カメラ画像位置p、左右カメラを結ぶ視軸上の位置paxisを設定する。
(B-1-1) Method 1: Method by cross ratio and polar conversion (FIG. 169)
Step 1: Normalized distance n d c , plane orientation n s , right camera image position p R , and position p axis on the visual axis connecting the left and right cameras are set.

ステップ2:pの決定
は“pとpaxisを通る大円”と“nの極線”との交点であるから(図169(A))、下式で決定される。なお、下式の“nとのベクトル積”は前述の4.2.3の極変換に起因する。
Step 2: Since determining p c of the p c is the intersection of the the "p R and the great circle passing through the p axis" "n s of polar" (FIG. 169 (A)), is determined by the following equation. The “vector product with n s ” in the following expression is caused by the aforementioned 4.2.3 polar transformation.

=[[p×paxis]×n]/|[p×paxis]×n| (付録−21a)
ステップ3:σすなわちcos−1(p)の決定
、paxis、p、p、pの間には
={paxis} (付録−22a)
の複比の関係がある(4.2参照)。paxis、p、p、pを中心角で表して(前述の4.2、図169(B))、式(付録−22a)に代入すると下式になる(式(60a)参照)。
p c = [[p R × p axis ] × n s ] / | [p R × p axis ] × n s | (Appendix-21a)
Step 3: Determine σ or cos −1 (p R p L )
n d c, p axis, p R, p L, between the p c is
n d c = {p axis p R p L p c} ( Appendix -22A)
(See 4.2). p axis, p R, p L , represents the center angle p c (the aforementioned 4.2, FIG. 169 (B)), becomes the following equation is substituted into Equation (Appendix -22A) (formula (60a) see ).

=(sin(c+σ)/sin(σ))
/(sin(x)/sin(x−c)) (付録−22b)
この式をτについて解くと
σ=tan−1(sinc sin(x−c)
/( sinx−cosc sin(x−c)) (付録−23)
になり、両眼視差σが決定された。ここでcとxは下式で計算される。
n d c = (sin (c + σ) / sin (σ))
/ (Sin (x) / sin (x-c)) (Appendix-22b)
When this equation is solved for τ, σ = tan −1 (sinc sin (x−c)
/ (N d c sinx-cosc sin (x-c)) ( Appendix -23)
Thus, the binocular parallax σ was determined. Here, c and x are calculated by the following equations.

c=cos−1(paxis) (付録−24a)
x=cos−1(paxis) (付録−24b)
なお、左カメラ画像での位置pを求めたい場合には、
=cosσ ξ+sinσ η (付録−25a)
と計算できる。ξとηは下式で与えられる。
c = cos −1 (p axis p R ) (Appendix -24a)
x = cos -1 (p axis p c) ( Appendix -24b)
If you want to find the position p L in the left camera image,
p L = cosσξ + sinση (Appendix-25a)
Can be calculated. ξ and η are given by the following equations.

ξ=p (付録−25b)
η=[[p×paxis]×p]/|[p×paxis]×p| (付録−25c)
(B−1−2)方法2:別法
下記の方法でも求めることができる。
ξ = p R (Appendix-25b)
η = [[p R × p axis] × p R] / | [p R × p axis] × p R | ( Appendix -25c)
(B-1-2) Method 2: Alternative method It can also be determined by the following method.

ステップ1:規格化距離、平面方位n、右カメラ画像位置p、左右カメラを結ぶ視軸上の位置paxisを設定する。 Step 1: Normalized distance n d c , plane orientation n s , right camera image position p R , and position p axis on the visual axis connecting the left and right cameras are set.

ステップ2:任意の左右カメラ間距離ΔxLRを設定して、カメラ中心から平面まで距離d(図22)を下式で計算する。 Step 2: Set the distance [Delta] x LR between any of the right and left cameras, it computes the distance d c (FIG. 22) by the following equation from the center of the camera to the plane.

ΔxLR (付録−26)
ステップ3:方位がnで距離がdの平面が決まる。カメラ中心からpの方向に延長して、その平面と交わる点Pを計算する。
d c = n d c Δx LR (Appendix -26)
Step 3: orientation distance determines the plane of the d c in n s. Extending from the camera center in the direction of the p R, to calculate the P R point of intersection with the plane.

ステップ4:その点Pをpaxisの方向にΔxLRだけ移動した点Pを計算する。 Step 4: The point P R to calculate the direction [Delta] x LR only in moved P L of p axis.

ステップ5:この点Pを下式で規格化したpが、左カメラ画像位置である。 Step 5: p L obtained by normalizing this point P L by the following equation is the left camera image position.

=P/|P| (付録−27)
ステップ6:この位置pと現時刻位置pから下式で両眼視差σを決定できる。なお、ステップ2で任意に設定した左右カメラ間距離ΔxLRを変化しても、この両眼視差は影響されない。
p L = P L / | P L | (Appendix -27)
Step 6: can determine a binocular parallax σ by the following equation from the position p L and the current time position p R. Even changing the left and right inter-camera distance [Delta] x LR set arbitrarily in step 2, the binocular disparity is not affected.

σ=cos−1(p) (付録−28)
(B−2)規格化最短距離の場合
規格化最短距離、平面方位n、右カメラ画像位置p、左右カメラを結ぶ視軸上の位置paxis(視軸方向axis)から、両眼視差σを計算する二種類の方法を以下に述べる。
σ = cos −1 (p R p L ) (Appendix -28)
(B-2) Normalized shortest distance n d s Normalized shortest distance n d s , plane orientation n s , right camera image position p R , position p axis on the visual axis connecting the left and right cameras (visual axis direction a Two methods for calculating the binocular parallax σ from xis ) will be described below.

(B−2−1)方法1:小円変換による方法(図170)
ステップ1:規格化最短距離、平面方位n、右カメラ画像位置p、左右カメラを結ぶ視軸上の位置paxisを設定する。
(B-2-1) Method 1: Method by small circle transformation (FIG. 170)
Step 1: A normalized shortest distance n d s , a plane orientation n s , a right camera image position p R , and a position p axis on the visual axis connecting the left and right cameras are set.

ステップ2:小円変換の半径Rを下式で決定する(前述の4.3、図170(A))。   Step 2: The radius R of the small circle transformation is determined by the following equation (4.3 described above, FIG. 170 (A)).

R=cos−1(p) (付録−31)
ステップ3:σすなわちcos−1(p)の決定
4.3で述べたように下式の関係がある(図170(B))
cosR=/(paxis
sinσ/sin(c+σ) (付録−32)
この式をσについて解くと
σ=tan−1(sinc cosR/(−cosc cosR))
(付録−33)
になり、両眼視差σが決定された。
R = cos -1 (p R n s) ( Appendix -31)
Step 3: Determination of σ, that is, cos −1 (p R p L ) As described in 4.3, there is a relationship of the following equation (FIG. 170 (B)).
cosR = n d s / (p axis p R p L)
= N d s sinσ / sin ( c + σ) ( Appendix -32)
Solving this equation for σ σ = tan -1 (sinc cosR / (n d s -cosc cosR))
(Appendix -33)
Thus, the binocular parallax σ was determined.

なお、次時刻位置pを求めたい場合には、式(付録−25)と同様に下式で計算できる。 Incidentally, if you want to find the next time position p L can be calculated by the following equation as for formula (Appendix -25).

=cosσ ξ+sinσ η (付録−34)
(B−2−2)方法2:別法
下記の方法でも求めることもできる。
p L = cosσξ + sinση (Appendix -34)
(B-2-2) Method 2: Alternative Method It can also be determined by the following method.

ステップ1:規格化最短距離、平面方位n、右カメラ画像位置p、左右カメラを結ぶ視軸上の位置paxisを設定する。 Step 1: A normalized shortest distance n d s , a plane orientation n s , a right camera image position p R , and a position p axis on the visual axis connecting the left and right cameras are set.

ステップ2:任意の左右カメラ間距離ΔxLRを設定して、カメラ中心から平面まで最短距離dを下式で計算する。 Step 2: Set any lateral camera distance [Delta] x LR, to calculate the shortest distance d s by the following equation from the center of the camera to the plane.

ΔxLR (付録−35)
ステップ3:方位がnで最短距離がdの平面が決まる。カメラ中心からpの方向に延長して、その平面と交わる点Pを計算する。
d s = n d s Δx LR ( Appendix -35)
Step 3: orientation shortest distance n s is determined that the plane of the d s. Extending from the camera center in the direction of the p R, to calculate the P R point of intersection with the plane.

ステップ4:その点Pをpaxisの方向にΔxLRだけ移動した点Pを計算する。 Step 4: The point P R to calculate the direction [Delta] x LR only in moved P L of p axis.

ステップ5:この点Pを下式で規格化したpが、左カメラ画像位置である。 Step 5: p L obtained by normalizing this point P L by the following equation is the left camera image position.

=P/|P| (付録−36)
ステップ6:この位置pと右カメラ画像位置pから下式で両眼視差σを決定できる。なお、ステップ2で任意に設定した左右カメラ距離ΔxLRを変化しても、この両眼視差は影響されない。
p L = P L / | P L | (Appendix -36)
Step 6: The binocular parallax σ can be determined from the position p L and the right camera image position p R by the following equation. Even if changing the left and right camera distance [Delta] x LR set arbitrarily in step 2, the binocular disparity is not affected.

σ=cos−1(p) (付録−37) σ = cos −1 (p R p L ) (Appendix -37)

オプティカルフロー・パターンの説明図である。It is explanatory drawing of an optical flow pattern. 本発明の画像計測装置の一実施形態として採用されるコンピュータシステムの概観を示す図である。It is a figure which shows the general view of the computer system employ | adopted as one Embodiment of the image measuring device of this invention. 図2に示すコンピュータシステムのハードウェア構成図である。It is a hardware block diagram of the computer system shown in FIG. 平面が移動する様子を示す図である。It is a figure which shows a mode that a plane moves. 平面の3次元方位を計測する原理の説明図である。It is explanatory drawing of the principle which measures the three-dimensional azimuth | direction of a plane. 球面を移動する様子を示す図である。It is a figure which shows a mode that a spherical surface is moved. 点までの距離を計測する原理の説明図である。It is explanatory drawing of the principle which measures the distance to a point. 平面を横切るまでの時間を計測する原理の説明図である。It is explanatory drawing of the principle which measures the time until it crosses a plane. 中心角の定義を示す図である。It is a figure which shows the definition of a center angle. 円柱配列により規格化時間を計測する原理の説明図である。It is explanatory drawing of the principle which measures normalization time by a cylinder arrangement | sequence. 規格化時間計測を計算機シミュレーションした結果を示す図である。It is a figure which shows the result of having performed computer simulation of normalization time measurement. 平面を横切るまでの時間と最短距離の関係を示す図である。It is a figure which shows the relationship between time to cross a plane, and the shortest distance. 平面までの最短距離を計測する原理の説明図である。It is explanatory drawing of the principle which measures the shortest distance to a plane. 小円変換のための模式図である。It is a schematic diagram for small circle conversion. 点までの距離と平面までの最短距離との関係を示す図である。It is a figure which shows the relationship between the distance to a point, and the shortest distance to a plane. 小円変換の幾何学的意味を示す図である。It is a figure which shows the geometrical meaning of small circle transformation. 円柱配列により規格化最短距離を計測する原理の説明図である。It is explanatory drawing of the principle which measures the normalization shortest distance by a cylinder arrangement | sequence. 規格化最短距離を卓上図である。It is a table top view of the standardized shortest distance. カメラ移動と平面移動の等価性を示す図である。It is a figure which shows the equivalence of a camera movement and a plane movement. 球面上の極変換と平面上の極変換の関係を示す図である。It is a figure which shows the relationship between the polar transformation on a spherical surface, and the polar transformation on a plane. 球面カメラ画像と平面カメラ画像の関係を示す図である。It is a figure which shows the relationship between a spherical camera image and a plane camera image. 視軸方向に平面を横切るまでの距離の計測原理説明図である。It is explanatory drawing of the measurement principle of the distance until it crosses a plane in a visual axis direction. 中心角の定義を示す図である。It is a figure which shows the definition of a center angle. 円柱配列により“視軸方向に平面を横切るまでの規格化距離”を計測する原理の説明図である。It is explanatory drawing of the principle which measures "the normalization distance until it crosses a plane in a visual axis direction" by cylinder arrangement | sequence. “視軸方向に平面を横切るまでの規格化距離”と“平面までの最短距離”の関係を示す図である。It is a figure which shows the relationship between "the normalization distance until crossing a plane in a visual axis direction" and "the shortest distance to a plane". 平面までの最短距離を計測する原理説明図である。It is principle explanatory drawing which measures the shortest distance to a plane. 円柱配列により規格化最短距離を計測する原理の説明図である。It is explanatory drawing of the principle which measures the normalization shortest distance by a cylinder arrangement | sequence. 実施形態A−1のブロック図である。It is a block diagram of embodiment A-1. 請求項4の実施形態A−1のフローチャートである。It is a flowchart of Embodiment A-1 of Claim 4. 実施形態A−1に関する説明図である。It is explanatory drawing regarding embodiment A-1. 実施形態A−2のブロック図である。It is a block diagram of embodiment A-2. 実施形態A−2のフローチャートである。It is a flowchart of embodiment A-2. 実施形態A−3のブロック図である。It is a block diagram of embodiment A-3. 実施形態A−3のフローチャートである。It is a flowchart of embodiment A-3. 実施形態A−3に関する説明図である。It is explanatory drawing regarding embodiment A-3. 実施形態A−4のブロック図である。It is a block diagram of embodiment A-4. 実施形態A−4のフローチャートである。It is a flowchart of embodiment A-4. 実施形態A−5のブロック図である。It is a block diagram of embodiment A-5. 実施形態A−5のフローチャートである。It is a flowchart of embodiment A-5. 実施形態A−6のブロック図である。It is a block diagram of embodiment A-6. 実施形態A−6のフローチャートである。It is a flowchart of embodiment A-6. 実施形態A−7のブロック図である。It is a block diagram of Embodiment A-7. 実施形態A−7のフローチャートである。It is a flowchart of embodiment A-7. 実施形態A−8のブロック図である。It is a block diagram of embodiment A-8. 実施形態A−8のフローチャートである。10 is a flowchart of Embodiment A-8. 実施形態A−9のブロック図である。It is a block diagram of Embodiment A-9. 実施形態A−9のフローチャートである。10 is a flowchart of Embodiment A-9. 実施形態A−10のブロック図である。FIG. 11 is a block diagram of Embodiment A-10. 実施形態A−10のフローチャートである。11 is a flowchart of Embodiment A-10. 実施形態B−1のブロック図である。It is a block diagram of embodiment B-1. 実施形態B−1のフローチャートである。It is a flowchart of Embodiment B-1. 実施形態B−2のブロック図である。It is a block diagram of embodiment B-2. 実施形態B−2のフローチャートである。It is a flowchart of embodiment B-2. 実施形態B−3のブロック図である。It is a block diagram of embodiment B-3. 実施形態B−3のフローチャートである。It is a flowchart of embodiment B-3. 実施形態B−3に関する説明図である。It is explanatory drawing regarding Embodiment B-3. 実施形態B−4のブロック図である。It is a block diagram of embodiment B-4. 実施形態B−4のフローチャートである。It is a flowchart of embodiment B-4. 実施形態B−5のブロック図である。It is a block diagram of Embodiment B-5. 実施形態B−5のフローチャートである。It is a flowchart of embodiment B-5. 実施形態B−6のブロック図である。It is a block diagram of Embodiment B-6. 実施形態B−6のフローチャートである。It is a flowchart of embodiment B-6. 実施形態B−7のブロック図である。It is a block diagram of Embodiment B-7. 実施形態B−7のフローチャートである。It is a flowchart of embodiment B-7. 実施形態B−8のブロック図である。It is a block diagram of Embodiment B-8. 実施形態B−8のフローチャートである。10 is a flowchart of Embodiment B-8. 実施形態B−9のブロック図である。FIG. 10 is a block diagram of Embodiment B-9. 実施形態B−9のフローチャートである。10 is a flowchart of Embodiment B-9. 実施形態B−10のブロック図である。FIG. 11 is a block diagram of Embodiment B-10. 実施形態B−10のフローチャートである。11 is a flowchart of Embodiment B-10. 実施形態C−1のブロック図である。It is a block diagram of Embodiment C-1. 実施形態C−1のフローチャートである。It is a flowchart of Embodiment C-1. 実施形態C−2のブロック図である。It is a block diagram of embodiment C-2. 実施形態C−2のフローチャートである。It is a flowchart of Embodiment C-2. 実施形態C−3のブロック図である。It is a block diagram of embodiment C-3. 実施形態C−3のフローチャートである。It is a flowchart of Embodiment C-3. 実施形態C−4のブロック図である。It is a block diagram of embodiment C-4. 実施形態C−4のフローチャートである。It is a flowchart of Embodiment C-4. 実施形態C−5のブロック図である。It is a block diagram of Embodiment C-5. 実施形態C−5のフローチャートである。It is a flowchart of Embodiment C-5. 実施形態C−6のブロック図である。It is a block diagram of Embodiment C-6. 実施形態C−6のフローチャートである。It is a flowchart of Embodiment C-6. 実施形態C−7のブロック図である。It is a block diagram of Embodiment C-7. 実施形態C−7のフローチャートである。It is a flowchart of Embodiment C-7. 実施形態C−8のブロック図である。It is a block diagram of Embodiment C-8. 実施形態C−8のフローチャートである。10 is a flowchart of Embodiment C-8. 実施形態D−1のブロック図である。It is a block diagram of Embodiment D-1. 実施形態D−1のフローチャートである。It is a flowchart of Embodiment D-1. 実施形態D−2のブロック図である。It is a block diagram of embodiment D-2. 実施形態D−2のフローチャートである。It is a flowchart of Embodiment D-2. 実施形態D−3のブロック図である。It is a block diagram of Embodiment D-3. 実施形態D−3のフローチャートである。It is a flowchart of Embodiment D-3. 実施形態D−4のブロック図である。It is a block diagram of Embodiment D-4. 実施形態D−4のフローチャートである。It is a flowchart of Embodiment D-4. 実施形態D−5のブロック図である。It is a block diagram of Embodiment D-5. 実施形態D−5のフローチャートである。It is a flowchart of embodiment D-5. 実施形態D−6のブロック図である。It is a block diagram of Embodiment D-6. 実施形態D−6のフローチャートである。It is a flowchart of Embodiment D-6. 実施形態D−7のブロック図である。It is a block diagram of Embodiment D-7. 実施形態D−7のフローチャートである。It is a flowchart of Embodiment D-7. 実施形態D−8のブロック図である。It is a block diagram of Embodiment D-8. 実施形態D−8のフローチャートである。10 is a flowchart of Embodiment D-8. 実施形態D−9のブロック図である。It is a block diagram of Embodiment D-9. 実施形態D−9のフローチャートである。10 is a flowchart of Embodiment D-9. 実施形態D−10のブロック図である。It is a block diagram of Embodiment D-10. 実施形態D−10のフローチャートである。It is a flowchart of Embodiment D-10. 実施形態D−11のブロック図である。It is a block diagram of Embodiment D-11. 実施形態D−11のフローチャートである。It is a flowchart of Embodiment D-11. 実施形態D−12のブロック図である。It is a block diagram of Embodiment D-12. 実施形態D−12のフローチャートである。14 is a flowchart of Embodiment D-12. 実施形態E−1ブロック図である。It is Embodiment E-1 block diagram. 実施形態E−1のフローチャートである。It is a flowchart of Embodiment E-1. 実施形態E−1のフローチャートである。It is a flowchart of Embodiment E-1. 実施形態E−2のブロック図である。It is a block diagram of embodiment E-2. 実施形態E−2のフローチャートである。It is a flowchart of embodiment E-2. 実施形態E−2のフローチャートである。It is a flowchart of embodiment E-2. 実施形態E−3のブロック図である。It is a block diagram of embodiment E-3. 実施形態E−3のフローチャートである。It is a flowchart of embodiment E-3. 実施形態E−3のフローチャートである。It is a flowchart of embodiment E-3. 実施形態E−4のブロック図である。It is a block diagram of Embodiment E-4. 実施形態E−4のフローチャートである。It is a flowchart of embodiment E-4. 実施形態E−4のフローチャートである。It is a flowchart of embodiment E-4. 実施形態E−5のブロック図である。It is a block diagram of Embodiment E-5. 実施形態E−5のフローチャートである。It is a flowchart of embodiment E-5. 実施形態E−5のフローチャートである。It is a flowchart of embodiment E-5. 実施形態E−6のブロック図である。It is a block diagram of Embodiment E-6. 実施形態E−6のフローチャートである。It is a flowchart of embodiment E-6. 実施形態E−6のフローチャートである。It is a flowchart of embodiment E-6. 実施形態E−7のブロック図である。It is a block diagram of Embodiment E-7. 実施形態E−7のフローチャートである。It is a flowchart of embodiment E-7. 実施形態E−7のフローチャートである。It is a flowchart of embodiment E-7. 実施形態E−8のブロック図である。It is a block diagram of Embodiment E-8. 実施形態E−8のフローチャートである。10 is a flowchart of Embodiment E-8. 実施形態E−8のフローチャートである。10 is a flowchart of Embodiment E-8. 実施形態F−1のブロック図である。It is a block diagram of embodiment F-1. 実施形態F−1のフローチャートである。It is a flowchart of Embodiment F-1. 実施形態F−1のフローチャートである。It is a flowchart of Embodiment F-1. 実施形態F−2のブロック図である。It is a block diagram of embodiment F-2. 実施形態F−2のフローチャートである。It is a flowchart of embodiment F-2. 実施形態F−2のフローチャートである。It is a flowchart of embodiment F-2. 実施形態F−3のブロック図である。It is a block diagram of embodiment F-3. 実施形態F−3のフローチャートである。It is a flowchart of Embodiment F-3. 実施形態F−3のフローチャートである。It is a flowchart of Embodiment F-3. 実施形態F−4のブロック図である。It is a block diagram of embodiment F-4. 実施形態F−4のフローチャートである。It is a flowchart of Embodiment F-4. 実施形態F−4のフローチャートである。It is a flowchart of Embodiment F-4. 実施形態F−5のブロック図である。It is a block diagram of Embodiment F-5. 実施形態F−5のフローチャートである。It is a flowchart of Embodiment F-5. 実施形態F−5のフローチャートである。It is a flowchart of Embodiment F-5. 実施形態F−5のブロック図である。It is a block diagram of Embodiment F-5. 実施形態F−6のフローチャートである。It is a flowchart of Embodiment F-6. 実施形態F−6のフローチャートである。It is a flowchart of Embodiment F-6. 実施形態F−7のブロック図である。It is a block diagram of Embodiment F-7. 実施形態F−7のフローチャートである。It is a flowchart of Embodiment F-7. 実施形態F−7のフローチャートである。It is a flowchart of Embodiment F-7. 実施形態F−8のブロック図である。It is a block diagram of Embodiment F-8. 実施形態F−8のフローチャートである。10 is a flowchart of Embodiment F-8. 実施形態F−8のフローチャートである。10 is a flowchart of Embodiment F-8. 運動視差検出ユニットのブロック図である。It is a block diagram of a motion parallax detection unit. 運動視差τと視差ベクトル(ττ)との対応を示した図である。It is the figure which showed the response | compatibility with motion parallax k (tau) and a parallax vector ( k (tau) x , k (tau) y ). 複比と極変換による、運動視差τの計算方法の説明図である。It is explanatory drawing of the calculation method of motion parallax (tau) by a cross ratio and polar transformation. 小円変換による、運動視差τの計算方法の説明図である。It is explanatory drawing of the calculation method of motion parallax (tau) by small circle transformation. ijτテーブルの模式図である。It is a schematic diagram of an ij τ table. ijτテーブルの模式図である。It is a schematic diagram of an ij τ table. ikj}テーブルの模式図である。It is a schematic diagram of a { ik j} table. ikj}テーブルの模式図である。It is a schematic diagram of a { ik j} table. 両目視差検出ユニットのブロック図である。It is a block diagram of a binocular parallax detection unit. 両眼視差σと視差ベクトル(σσ)との対応を示した図である。It is the figure which showed the response | compatibility with binocular parallax k (sigma) and a parallax vector ( k (sigma) x , k (sigma) y ). 複比と極変換による、両眼視差τの計算方法の説明図である。It is explanatory drawing of the calculation method of binocular parallax (tau) by a cross ratio and polar transformation. 小円変換による、両眼視差τの計算方法の説明図である。It is explanatory drawing of the calculation method of binocular parallax (tau) by small circle transformation. ijσテーブルの模式図である。It is a schematic diagram of an ij σ table. ijσテーブルの模式図である。It is a schematic diagram of an ij σ table. ikj}テーブルの模式図である。It is a schematic diagram of a { ik j} table. ikj}テーブルの模式図である。It is a schematic diagram of a { ik j} table.

符号の説明Explanation of symbols

11 カメラ
12 現時刻tの画像レジスタ
13 次時刻tの画像レジスタ
14 移動方向vの抽出ユニット
15 pinf設定ユニット
16 パラメータの走査ユニット
17 複比変換ユニット
18 極変換ユニット
19 円柱配列投票ユニット
20 ピーク抽出ユニット
21 vパラメータの走査ユニット
22 パラメータの走査ユニット
23 半径Rの計算ユニット
24 小円変換ユニット
25 円柱配列投票ユニット
26 ピーク抽出ユニット
27 点距離計算ユニット
28 τ決定ユニット
112 右カメラ画像レジスタ
113 左カメラ画像レジスタ
115 paxis設定ユニット
116 パラメータの走査ユニット
117 複比変換ユニット
118 極変換ユニット
119 円柱配列投票ユニット
120 ピーク抽出ユニット
121 axisパラメータの走査ユニット
122 パラメータの走査ユニット
123 半径Rの計算ユニット
124 小円変換ユニット
125 円柱配列投票ユニット
126 ピーク抽出ユニット
127 点距離計算ユニット
128 σ決定ユニット
221 パラメータの走査ユニット
222 半径rの走査ユニット
223 小円構成要素 s+ s−の計算ユニット
224 円柱配列投票ユニット
225 ピーク抽出ユニット
300 コンピュータシステム
301 本体
302 CRTディスプレイ
303 キーボード
304 マウス
310 バス
311 中央演算処理装置(CPU)
312 RAM
313 磁気ディスクコントローラ
314 フロッピィディスクドライバ
315 MOドライバ
316 マウスコントローラ
317 キーボードコントローラ
318 ディスプレイコントローラ
319 通信用ボード
320 画像入力用ボード
401 画素番号iの走査ユニット
402 を中心とする局所領域画像の切出しユニット
403 運動視差番号kの走査ユニット
404 運動視差τ変換ユニット
405 運動視差検出ユニット
406 変換ユニット
410 通信回線
421 画素番号iの走査ユニット
422 を中心とする局所領域画像の切出しユニット
423 両眼視差σ変換ユニット
424 両眼視差σ変換ユニット
425 両眼視差検出ユニット
501 pinf変換ユニット
502,552 画素番号iの走査ユニット
503,553 要素番号jの走査ユニット
504 出力ユニット
505 nsj出力ユニット
506 cj出力ユニット
507,510 ijτテーブル作成ユニット
508,559 vパラメータの走査ユニット
509 sj出力ユニット
511 paxis設定ユニット
512,572 画素番号iの走査ユニット
513,573 要素番号jの走査ユニット
514 出力ユニット
515 nsj出力ユニット
516 cj出力ユニット
517,520 ijσテーブル作成ユニット
518,579 axisパラメータの走査ユニット
519 sj出力ユニット
554 を中心とする局所領域画像の切出しユニット
555,565 ijτテーブル
556 運動視差検出ユニット
557,567 円柱配列断層ユニット
558,568 ピーク検出ユニット
561 右カメラ
562 左カメラ
574 を中心とする局所領域画像の切出しユニット
575,585 ijσテーブル
576,586 両眼視差検出ユニット
577,587 円柱配列投票ユニット
578,588 ピーク抽出ユニット
601,611 {ikj}テーブル変換ユニット
602,612 {ikj}テーブル
651 カメラ
652 画素番号iの走査ユニット
653 運動視差番号kの走査ユニット
654 を中心とする局所領域画像の切出しユニット
655,665 運動視差τ変換ユニット
656,666 運動視差検出ユニット
657,667 円柱配列投票ユニット
658,668 ピーク抽出ユニット
659 vパラメータの走査ユニット
621,631 {ikj}テーブル変換ユニット
622,632 {ikj}テーブル
661 右カメラ
662 左カメラ
672 画素番号iの走査ユニット
673 両眼視差番号kの走査ユニット
674 を中心とする局所領域画像の切出しユニット
675,685 両眼視差σ変換ユニット
676,686 両眼視差検出ユニット
677,687 円柱配列投票ユニット
678,688 ピーク抽出ユニット
679 axisパラメータの走査ユニット
11 Camera 12 Image register at current time t 0 13 Image register at next time t 1 14 Extraction unit in moving direction v 15 p inf setting unit 16 n t c parameter scanning unit 17 multi-ratio conversion unit 18 polar conversion unit 19 cylindrical array Voting unit 20 Peak extraction unit 21 Scan unit for v parameter 22 Scan unit for n d s parameter 23 Calculation unit for radius R 24 Small circle conversion unit 25 Cylindrical array voting unit 26 Peak extraction unit 27 Point distance calculation unit 28 τ determination unit 112 right camera image register 113 left camera image register 115 p axis setting unit 116 n d c parameters of the scanning unit 117 cross-ratio conversion unit 118 pole conversion unit 119 cylindrical array voting unit 120 peak Unloading unit 121 a xis parameters of the scanning unit 122 n d s parameters of the scanning unit 123 radius R of the computation unit 124 a small circle conversion unit 125 cylindrical array voting unit 126 peak extraction unit 127-point distance calculation unit 128 sigma determining unit 221 n d s the scanning unit 223 small circle component parameters of the scanning unit 222 radius r i r n s +, i r n s- calculation unit 224 cylindrical array voting unit 225 peak extraction unit 300 computer system 301 body 302 CRT display 303 keyboard 304 mouse 310 Bus 311 Central processing unit (CPU)
312 RAM
313 Magnetic disk controller 314 Floppy disk driver 315 MO driver 316 Mouse controller 317 Keyboard controller 318 Display controller 319 Communication board 320 Image input board 401 Scan unit 402 of pixel number i Local area image extraction unit centered on 402 i p o 403 scanning unit with motion parallax number k 404 motion parallax k τ conversion unit 405 motion parallax detection unit 406 i p o conversion unit 410 communication line 421 scanning unit 422 i p R with local area image centered on pixel number i 423 Binocular parallax k sigma conversion unit 424 Binocular parallax k sigma conversion unit 425 Binocular disparity detection unit 501 p inf conversion unit 502,552 pixel number i Scanning unit査units 503,553 element number j 504 i p o output unit 505 n sj output unit 506 n t cj output unit 507,510 ij τ table creation unit 508,559 v parameter of the scanning unit 509 n d sj output unit 511 p axis setting unit 512, 572 Scan unit with pixel number i 513, 573 Scan unit with element number j 514 i p R output unit 515 n sj output unit 516 n d cj output unit 517, 520 ij σ table creation unit 518, 579 a xis parameter scanning unit 519 n d sj output unit 554 i p o local area image extraction unit 555, 565 ij τ table 556 motion parallax detection unit 55 7,567 cylindrical array tomographic units 558,568 peak detection unit 561 right camera 562 left camera 574 i p of the local region image centered on the R cut unit 575,585 ij σ table 576,586 Binocular disparity detection unit 577,587 Cylindrical array voting unit 578, 588 Peak extraction unit 601, 611 { ik j} Table conversion unit 602, 612 { ik j} table 651 Camera 652 Scan unit with pixel number i 653 Scan unit with motion parallax number k 654 i p 0 running the center to cut unit 655,665 motion parallax k tau conversion unit 656,666 motion parallax detection unit 657,667 columnar array voting unit 658 and 668 peak extraction unit 659 v parameter of the local region image Units 621 and 631 {ik j} topical around the scanning unit 674 i p R of the table conversion unit 622 and 632 {ik j} table 661 right camera 662 scan unit 673 Binocular parallax number k of the left camera 672 pixel number i Region image segmentation unit 675, 685 Binocular parallax k σ conversion unit 676, 686 Binocular parallax detection unit 677, 687 Cylindrical array voting unit 678, 688 Peak extraction unit 679 a xi parameter scanning unit

Claims (11)

所定の計測空間内の所定の2つの観察点から該計測空間内を眺めたときの画像にあらわれた、該計測空間内の任意の計測点の、前記2つの観察点それぞれから観察したときの各計測位置をそれぞれp,p、前記2つの観察点どうしを結ぶ視軸方向をv、前記計測点を含み、前記2つの視軸と同一方向に延びる直線上の無限遠点の位置をpaxisとしたとき、
前記3つの位置paxis,p,pで決まる単比(paxis)あるいは該単比と等価な演算を用いて、前記計測平面の方位、及び/又は、該計測平面と前記2つの観察点のうちの一方の観察点との間の最短距離を指標する物理量を求めることを特徴とする画像計測方法。
Each of the arbitrary measurement points in the measurement space, as seen from an image when the measurement space is viewed from the two predetermined observation points in the predetermined measurement space, is observed from each of the two observation points. The measurement positions are p R and p L , the visual axis direction connecting the two observation points is v, and the position of the infinity point on the straight line including the measurement points and extending in the same direction as the two visual axes is p. When it is axis ,
Using a single ratio determined by the three positions p axis , p R , and p L (p axis p R p L ) or an operation equivalent to the single ratio, the orientation of the measurement plane and / or the measurement plane A method for measuring an image, comprising: obtaining a physical quantity indicating a shortest distance between one of the two observation points.
前記単比(paxis)あるいは該単比と等価な演算には、前記計測点の、前記2つの観察点から観察したときの2つの計測位置p,pに代えて、前記計測点の、前記2つの観察点のうちの一方の観察点から観察したときの計測位置pと、前記計測点の、前記2つの観察点から観察したときの2つの計測位置p,pどうしの間の位置の差である両眼視差σとを用いる演算が包含されるものであることを特徴とする請求項1記載の画像計測方法。 For the single ratio (p axis p R p L ) or an operation equivalent to the single ratio, instead of the two measurement positions p R and p L when the measurement point is observed from the two observation points, the measurement point, the measurement position p R when observed from one of the observation point of said two observation point, of the measurement point, two measurement positions when observed from the two observation points p R, The image measurement method according to claim 1, wherein a calculation using binocular parallax σ which is a difference in position between p L is included. 前記各位置paxis,p,pとして球面上に写影された各位置を採用すると共に、前記最短距離を指標する物理量として、前記計測平面と前記2つの観察点のうちの一方の観察点との間の最短距離をd、2つの観察点どうしの間の距離をΔxLRとしたときの、
=d/ΔxLR
であらわされる規格化最短距離を採用し、
前記規格化最短距離をパラメータとして設定する第1のステップと、
前記第1のステップで設定された規格化最短距離と、単比(paxis)あるいは該単比と等価な演算とを用いて、
R=cos−1/(paxis))
なる関係式あるいは該関係式と等価な関係式で規定される半径Rを求める第2のステップと、
前記2つの観察点のうちの一方の観察点から観察したときの前記計測点の計測位置を中心とした半径Rの小円を求める第3のステップとを有し、
前記計測空間内の複数の計測点について、前記第2のステップと前記第3のステップを、前記パラメータを前記第1のステップで変更しながら複数回繰り返し、その後、
前記第1から第3までのステップを複数回繰り返す間に求められた複数の小円を小円描画空間に描画したときの小円どうしの交差点を求めることにより、該交差点で交わる複数の小円に対応する複数の計測点を含む計測平面の方位nso、及び/又は、該計測平面についての規格化最短距離s0を求める第4ステップを実行することを特徴とする請求項1記載の画像計測方法。
As each of the positions p axis , p R , and p L , each position projected on a spherical surface is adopted, and as a physical quantity that indicates the shortest distance, one of the measurement plane and the two observation points is observed. When the shortest distance between the points is d s and the distance between the two observation points is Δx LR ,
n d s = d s / Δx LR
In adopting the normalized shortest distance n d s represented,
A first step of setting the normalized shortest distance n d s as a parameter;
Using the normalized shortest distance n d s set in the first step and a simple ratio (p axis p R p L ) or an operation equivalent to the simple ratio,
R = cos −1 ( n d s / (p axis p R p L ))
A second step for obtaining a radius R defined by the relational expression or a relational expression equivalent to the relational expression,
A third step of obtaining a small circle with a radius R centered on the measurement position of the measurement point when observed from one of the two observation points;
For a plurality of measurement points in the measurement space, the second step and the third step are repeated a plurality of times while changing the parameters in the first step, and then
A plurality of small circles that intersect at the intersections by obtaining intersections between the small circles when the plurality of small circles obtained while repeating the first to third steps a plurality of times are drawn in the small circle drawing space. The fourth step of obtaining the orientation n so of the measurement plane including a plurality of measurement points corresponding to and / or the normalized shortest distance n d s0 for the measurement plane is performed. Image measurement method.
前記画像上にあらわれた計測点が強度の情報を有するものであって、
前記第3のステップが、前記小円を求めるとともに、求められた小円を小円描画空間に描画したときの該小円の軌跡上の各点それぞれに該小円に対応する計測点の強度に対応する値を投票するステップであり、
前記第4のステップが、前記交差点を求めることに代わり、前記第1から第3までのステップを複数回繰り返す間の投票による値が極大値となる極大点を求めることにより、該極大点の投票に参加した複数の小円に対応する複数の計測点を含む計測平面の方位nso、及び/又は、該計測平面についての規格化最短距離s0を求めるステップであることを特徴とする請求項3記載の画像計測方法。
Measurement points appearing on the image have intensity information,
In the third step, the small circle is obtained, and the intensity of the measurement point corresponding to the small circle at each point on the locus of the small circle when the obtained small circle is drawn in the small circle drawing space. Voting for the value corresponding to
Instead of obtaining the intersection in the fourth step, the voting of the maximum point is obtained by obtaining a maximum point at which the value by voting becomes a maximum value while repeating the first to third steps a plurality of times. orientation n so the measurement plane including a plurality of measurement points corresponding to the plurality of small circles joined to, and / or, characterized in that it is a step of obtaining a normalized shortest distance n d s0 for the measurement plane according Item 4. The image measurement method according to Item 3.
所定の計測空間内の所定の2つの観察点から該計測空間内を眺めたときの画像にあらわれた、該計測空間内の任意の計測点の、前記2つの観察点それぞれから観察したときの各計測位置をそれぞれp,p、前記計測点を含み、前記2つの観察点どうしを結ぶ視軸方向vと同一の方向に延びる直線上の無限遠点の位置をpaxisとしたとき、
前記3つの位置paxis,p,p,で決まる単比(paxis)あるいは該単比と等価な演算を用いて、前記計測点と、前記2つの観察点のうちの一方の観察点との間の距離を指標する物理量を求めることを特徴とする画像計測方法。
Each of the arbitrary measurement points in the measurement space, as seen from an image when the measurement space is viewed from two predetermined observation points in the predetermined measurement space, is observed from each of the two observation points. When the measurement position is p R , p L , the measurement point, and the position of the infinity point on the straight line extending in the same direction as the visual axis direction v connecting the two observation points is p axis ,
The three positions p axis, using p R, p L, single-ratio determined by the (p axis p R p L) or single-ratio and equivalent operation, and the measuring point, one of the two observation points An image measurement method characterized in that a physical quantity indicating a distance between one observation point is obtained.
前記単比(paxis)あるいは該単比と等価な演算には、前記計測点の、前記2つの観察点それぞれから観察したときの2つの計測位置p,pに代えて、前記計測点の、前記2つの観察点のうちの一方の観察点から観察したときの計測位置pと、前記計測点の、前記2つの観察点から観察したときの2つの計測位置p,pどうしの間の位置の差である両眼視差σとを用いる演算が包含されるものであることを特徴とする請求項5記載の画像計測方法。 For the single ratio (p axis p R p L ) or an operation equivalent to the single ratio, instead of the two measurement positions p R and p L when the measurement point is observed from each of the two observation points, the measurement point, the measurement position p R when observed from one of the observation point of said two observation point, the measurement point, the two two measurement positions p R when observed from the observation point 6. An image measurement method according to claim 5, wherein a calculation using a binocular parallax σ which is a difference in position between p L and p L is included. 前記距離を指標する物理量として、前記計測点と前記2つの観察点のうちの一方の観察点との間の距離をd、前記2つの観察点どうしの間の距離をΔxLRとしたときの、
=d/ΔxLR
であらわされる規格化距離を採用し、該規格化距離を、
=(paxis
の関係式あるいは該関係式と等価な関係式を用いて求めることを特徴とする請求項5記載の画像計測方法。
As a physical quantity which indicates the distance, the distance between one point of observation of the measurement point and the two observation points d 0, when the distance between the each other two observation point was set to [Delta] x LR ,
n d 0 = d 0 / Δx LR
In the normalized distance n d 0 represented adopted, the normalized distance n d 0,
n d 0 = (p axis p R p L )
The image measurement method according to claim 5, wherein the image measurement method is obtained using a relational expression of the above or a relational expression equivalent to the relational expression.
所定の計測空間内の所定の2つの観察点から該計測空間内を眺めたときの画像にあらわれた、該計測空間内の任意の計測点の、前記2つの観察点それぞれから観察したときの各計測位置をそれぞれp,p、前記2つの観察点どうしを結ぶ視軸の方向をv、前記計測点を含み、前記2つの視軸と同一方向に延びる直線上の無限遠点の位置をpaxisとしたとき、
前記3つの位置paxis,p,pで決まる単比(paxis)あるいは該単比と等価な演算を用いて、前記計測平面の方位、及び/又は、該計測平面と前記2つの観察点のうちの一方の観察点との間の最短距離を指標する物理量を求める演算部を備えたことを特徴とする画像計測装置。
Each of the arbitrary measurement points in the measurement space, as seen from an image when the measurement space is viewed from the two predetermined observation points in the predetermined measurement space, is observed from each of the two observation points. The measurement positions are p R and p L , the direction of the visual axis connecting the two observation points is v, and the position of an infinite point on a straight line that includes the measurement points and extends in the same direction as the two visual axes. When it is p axis
Using a single ratio determined by the three positions p axis , p R , and p L (p axis p R p L ) or an operation equivalent to the single ratio, the orientation of the measurement plane and / or the measurement plane An image measurement apparatus comprising: a calculation unit that obtains a physical quantity that indicates the shortest distance between one of the two observation points.
所定の計測空間内の所定の2つの観察点から該計測空間内を眺めたときの画像にあらわれた、該計測空間内の任意の計測点の、前記2つの観察点それぞれから観察したときの各計測位置をそれぞれp,p、前記計測点を含み、前記2つの観察点どうしを結ぶ視軸の方向vと同一の方向に延びる直線上の無限遠点の位置をpaxisとしたとき、
前記3つの位置paxis,p,p,で決まる単比(paxis)あるいは該単比と等価な演算を用いて、前記計測点と、前記2つの観察点のうちの一方の観察点との間の距離を指標する物理量を求める演算部を備えたことを特徴とする画像計測装置。
Each of the arbitrary measurement points in the measurement space, as seen from an image when the measurement space is viewed from the two predetermined observation points in the predetermined measurement space, is observed from each of the two observation points. When the measurement position is p R , p L , the measurement point, and the position of the point at infinity on a straight line extending in the same direction as the visual axis direction v connecting the two observation points is p axis ,
The three positions p axis, using p R, p L, single-ratio determined by the (p axis p R p L) or single-ratio and equivalent operation, and the measuring point, one of the two observation points An image measuring apparatus comprising a calculation unit that obtains a physical quantity that indicates a distance from one observation point.
所定の計測空間内の所定の2つの観察点から該計測空間内を眺めたときの画像にあらわれた、該計測空間内の任意の計測点の、前記2つの観察点それぞれから観察したときの各計測位置をそれぞれp,p、前記2つの観察点どうしを結ぶ視軸の方向をv、前記計測点を含み、前記2つの視軸と同一方向に延びる直線上の無限遠点の位置をpaxisとしたとき、
前記3つの位置paxis,p,pで決まる単比(paxis)あるいは該単比と等価な演算を用いて、前記計測平面の方位、及び/又は、該計測平面と前記2つの観察点のうちの一方の観察点との間の最短距離を指標する物理量を求める画像計測プログラムが記憶されてなることを特徴とする画像計測プログラム記憶媒体。
Each of the arbitrary measurement points in the measurement space, as seen from an image when the measurement space is viewed from the two predetermined observation points in the predetermined measurement space, is observed from each of the two observation points. The measurement positions are p R and p L , the direction of the visual axis connecting the two observation points is v, and the position of an infinite point on a straight line that includes the measurement points and extends in the same direction as the two visual axes. When it is p axis
Using a single ratio determined by the three positions p axis , p R , and p L (p axis p R p L ) or an operation equivalent to the single ratio, the orientation of the measurement plane and / or the measurement plane An image measurement program storage medium for storing an image measurement program for obtaining a physical quantity indicating the shortest distance between one of the two observation points.
所定の計測空間内の所定の2つの観察点から該計測空間内を眺めたときの画像にあらわれた、該計測空間内の任意の計測点の、前記2つの観察点それぞれから観察したときの各計測位置をそれぞれp,p、前記計測点を含み、前記2つの観察点どうしを結ぶ視軸方向vと同一の方向に延びる直線上の無限遠点の位置をpaxisとしたとき、
前記3つの位置paxis,p,p,で決まる単比(paxis)あるいは該単比と等価な演算を用いて、前記計測点と、前記2つの観察点のうちの一方の観察点との間の距離を指標する物理量を求める画像計測プログラムが記憶されてなることを特徴とする画像計測プログラム記憶媒体。
Each of the arbitrary measurement points in the measurement space, as seen from an image when the measurement space is viewed from two predetermined observation points in the predetermined measurement space, is observed from each of the two observation points. When the measurement position is p R , p L , the measurement point, and the position of the infinity point on the straight line extending in the same direction as the visual axis direction v connecting the two observation points is p axis ,
The three positions p axis, using p R, p L, single-ratio determined by the (p axis p R p L) or single-ratio and equivalent operation, and the measuring point, one of the two observation points An image measurement program storage medium characterized by storing an image measurement program for obtaining a physical quantity that indicates a distance between one observation point.
JP2007080375A 1999-04-12 2007-03-26 Image measurement method, image measurement apparatus, and image measurement program storage medium Withdrawn JP2007249978A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007080375A JP2007249978A (en) 1999-04-12 2007-03-26 Image measurement method, image measurement apparatus, and image measurement program storage medium

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP13902199 1999-04-12
JP2007080375A JP2007249978A (en) 1999-04-12 2007-03-26 Image measurement method, image measurement apparatus, and image measurement program storage medium

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2000014170A Division JP3949333B2 (en) 1999-04-12 2000-01-20 Image measurement method, image measurement apparatus, and image measurement program storage medium

Publications (1)

Publication Number Publication Date
JP2007249978A true JP2007249978A (en) 2007-09-27

Family

ID=38594117

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007080375A Withdrawn JP2007249978A (en) 1999-04-12 2007-03-26 Image measurement method, image measurement apparatus, and image measurement program storage medium

Country Status (1)

Country Link
JP (1) JP2007249978A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10394626B2 (en) 2016-12-19 2019-08-27 Hitachi, Ltd. Event flow system and event flow control method

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10394626B2 (en) 2016-12-19 2019-08-27 Hitachi, Ltd. Event flow system and event flow control method

Similar Documents

Publication Publication Date Title
CN111459166B (en) Scene map construction method containing trapped person position information in post-disaster rescue environment
Nüchter et al. 6D SLAM—3D mapping outdoor environments
CN107808407A (en) Unmanned plane vision SLAM methods, unmanned plane and storage medium based on binocular camera
JP3949333B2 (en) Image measurement method, image measurement apparatus, and image measurement program storage medium
CN111216125A (en) Obstacle avoidance method and system of moving mechanical arm device facing narrow passage
Cai et al. Real-time collision-free grasp pose detection with geometry-aware refinement using high-resolution volume
JP2007183290A (en) Image measuring method, image measuring device, and image measuring program storage medium
JPH02224004A (en) Interference check device for moving body
Kim et al. A geometric approach for forward kinematics analysis of a 3-SPS/S redundant motion manipulator with an extra sensor using conformal geometric algebra
Breyer et al. Closed-loop next-best-view planning for target-driven grasping
Monica et al. Humanoid robot next best view planning under occlusions using body movement primitives
Jing Coverage planning for robotic vision applications in complex 3d environment
Jang et al. A visibility-based accessibility analysis of the grasp points for real-time manipulation
JP2007249978A (en) Image measurement method, image measurement apparatus, and image measurement program storage medium
JP7266208B2 (en) Recognition positioning device and information conversion device
JP2007234031A (en) Image-measuring method, image-measuring apparatus, and image-measuring program storing medium
Ramírez-Hernández et al. Stereoscopic vision systems in machine vision, models, and applications
Triebel et al. First steps towards a robotic system for flexible volumetric mapping of indoor environments
Stewenius et al. Structure and motion problems for multiple rigidly moving cameras
Fragkopoulos et al. Dynamic efficient collision checking method of robot arm paths in configuration space
JP2697917B2 (en) 3D coordinate measuring device
Sun et al. Computer simulation of sensor-based robot collision avoidance in an unknown environment
Hsu et al. Quantitative measurement of component accessibility and product assemblability for design for assembly application
Lee et al. Autonomous view planning methods for 3D scanning
Tarn et al. Visualization of dual-arm robot motion space under kinematic constraints

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100121

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100126

A761 Written withdrawal of application

Free format text: JAPANESE INTERMEDIATE CODE: A761

Effective date: 20100308