JP2012122911A - Position specification apparatus, position specification method and program - Google Patents

Position specification apparatus, position specification method and program Download PDF

Info

Publication number
JP2012122911A
JP2012122911A JP2010275221A JP2010275221A JP2012122911A JP 2012122911 A JP2012122911 A JP 2012122911A JP 2010275221 A JP2010275221 A JP 2010275221A JP 2010275221 A JP2010275221 A JP 2010275221A JP 2012122911 A JP2012122911 A JP 2012122911A
Authority
JP
Japan
Prior art keywords
imaging
position information
image
information
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2010275221A
Other languages
Japanese (ja)
Other versions
JP5516376B2 (en
Inventor
Yasutaka Okada
康貴 岡田
Kazufumi Nakayama
收文 中山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2010275221A priority Critical patent/JP5516376B2/en
Publication of JP2012122911A publication Critical patent/JP2012122911A/en
Application granted granted Critical
Publication of JP5516376B2 publication Critical patent/JP5516376B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Measurement Of Optical Distance (AREA)

Abstract

PROBLEM TO BE SOLVED: To improve the accuracy of position specification of an object by stereo vision performed by using a pickup image on a position where a base line length from a reference position cannot be sufficiently secured.SOLUTION: An imaging position specification part 1 specifies the position information of an imaging position based on the position information of a reference position of which the position information is known, a reference position image obtained by imaging an object on the reference position and an imaging position image obtained by imaging the object on an arbitrary imaging position. An object position specification part 2 specifies the position information of the object based on the position information of a known position, a known position image obtained by imaging the object on the known position, the position information of the imaging position, and an imaging position image obtained by imaging the object on the imaging position. The known position is located on a point on which a distance from an imaging position whose position information is specified by the imaging position specification part 1 is longer than the reference position and is a position whose position information is known.

Description

本明細書で議論される実施態様は、物体の位置の特定技術に関する。   The embodiments discussed herein relate to object location techniques.

近年、自動車の安全運転を支援する技術として、ドライバから見難い範囲や死角となる汎用の映像をドライバへ提供する技術が各種提案されている。
また、このような安全運転の支援技術として、自車両の周囲に存在する各物体の自車両からの距離を計測し、例えば、その自車両の周囲の三次元画像を生成として表示することで、その周囲の情報をドライバへ違和感なく提供するようなシステムも考えられている。このようなシステムの実現には、自車両の速度に依存しない安定した距離計測の技術と、低廉なコストとが求められる。
2. Description of the Related Art In recent years, various technologies for providing a driver with a general-purpose image that is difficult to see from a driver or a blind spot have been proposed as technologies for supporting safe driving of a car.
In addition, as a safe driving support technology, by measuring the distance of each object around the host vehicle from the host vehicle, for example, by generating and displaying a three-dimensional image around the host vehicle, There is also a system that provides the surrounding information to the driver without a sense of incongruity. Realization of such a system requires stable distance measurement technology that does not depend on the speed of the host vehicle and low cost.

距離計測の手法のひとつとして、ステレオ視を行って得られる視差画像を基に、三角測量の原理により距離を算出するという手法が知られている。例えば、第一技術として、車両に設置した単一の撮像装置で、時系列的に視差付けされた2枚の画像を2つの地点で撮像すると共に当該2地点間の移動データを求め、両画像に映っている立体物までの距離を、三角測量の原理で求めるという技術が知られている。   As one of distance measurement methods, a method of calculating a distance by the principle of triangulation based on a parallax image obtained by performing stereo viewing is known. For example, as a first technique, with a single imaging device installed in a vehicle, two images with time-series parallax are captured at two points, movement data between the two points is obtained, and both images are obtained. A technique is known in which the distance to a three-dimensional object shown in is determined by the principle of triangulation.

また、単眼ステレオと複眼ステレオとを切り替えて、あるいは、周囲の状況(立体物までの距離や車両速度)に応じて両者の重みを調整しつつ当該両者を利用して、両者の欠点を補いつつ、立体物までの距離を精度良く求めるという手法も知られている。例えば、第二技術として、車両の静止時には複眼ステレオのみを用いて立体物までの距離を求める一方、車両が移動しているときには単眼ステレオと複眼ステレオとの各々による距離測定の結果を統合して、立体物までの距離を求めるという技術が知られている。また、例えば、第三技術として、複眼ステレオが使用可能な領域では複眼ステレオを用いて立体物までの距離を求める一方、複眼ステレオが使用できない領域では、単眼ステレオを用いて立体物までの距離を求めるという技術も知られている。   In addition, while switching between monocular stereo and compound eye stereo, or adjusting both weights according to the surrounding situation (distance to the three-dimensional object or vehicle speed), both are used to compensate for the disadvantages of both. There is also known a method for accurately obtaining the distance to a three-dimensional object. For example, as a second technique, when the vehicle is stationary, only the compound eye stereo is used to determine the distance to the three-dimensional object, while when the vehicle is moving, the results of distance measurement by each of the monocular stereo and the compound eye stereo are integrated. A technique for obtaining a distance to a three-dimensional object is known. Also, for example, as a third technique, in a region where compound eye stereo can be used, the distance to the three-dimensional object is obtained using compound eye stereo, while in a region where compound eye stereo cannot be used, the distance to the three-dimensional object is determined using monocular stereo. The technology of seeking is also known.

特開2007−263657号公報JP 2007-263657 A

しかしながら、前述した第一技術では、2地点間の移動データが自車両の速度に依存するため、安定した距離計測が難しい。
また、前述した第二技術では、単眼ステレオと複眼ステレオとの両者を使用するため、システムコストが高価なものになる。
However, in the first technique described above, since the movement data between two points depends on the speed of the host vehicle, it is difficult to stably measure the distance.
In the second technique described above, since both monocular stereo and compound eye stereo are used, the system cost becomes high.

また、前述した第二技術及び第三技術で使用される複眼ステレオでは、立体物の位置の推定精度が2台のカメラ間の距離(ベースライン)に依存し、ベースラインを長くするほど距離推定精度が向上する。しかし、2台のカメラを車両に搭載することを考えると、ベースラインを長くすることは難しいため、精度の良い距離計測を行える立体物の存在範囲が、自車両周囲の近距離に限定される。   In the compound-eye stereo used in the second and third techniques described above, the estimation accuracy of the position of the three-dimensional object depends on the distance (baseline) between the two cameras, and the longer the baseline, the longer the distance estimation. Accuracy is improved. However, considering that two cameras are mounted on the vehicle, it is difficult to lengthen the baseline, so the range of three-dimensional objects that can perform accurate distance measurement is limited to a short distance around the host vehicle. .

なお、単眼ステレオでも、自車両が停止している状態から動き出した直後は十分なベースライン長を確保できないために、精度の良い距離計測が行えない。
上述した問題に鑑み、本明細書で後述する位置特定装置は、基準位置からのベースライン長を十分に確保できない位置での撮像画像を用いて行うステレオ視による対象物の位置特定の精度を向上させる。
Even with a monocular stereo, a sufficient baseline length cannot be ensured immediately after the host vehicle starts moving, so accurate distance measurement cannot be performed.
In view of the above-described problems, the position specifying device described later in this specification improves the accuracy of specifying the position of an object by stereo vision using a captured image at a position where the baseline length from the reference position cannot be sufficiently secured. Let

本明細書で後述する位置特定装置のひとつに、撮像位置特定部と対象物位置特定部とを備えるというものがある。ここで、撮像位置特定部は、位置情報が既知である基準位置の当該位置情報と、当該基準位置で対象物を撮像して得た基準位置画像と、任意の撮像位置で当該対象物を撮像して得た撮像位置画像とに基づいて、当該撮像位置の位置情報の特定を行う。そして、対象物位置特定部は、既知位置の位置情報と、当該既知位置で当該対象物を撮像して得た既知位置画像と、当該撮像位置の位置情報と、当該撮像位置で該対象物を撮像して得た撮像位置画像とに基づいて、当該対象物の位置情報の特定を行う。なお、ここで、既知位置とは、撮像位置特定部で位置情報が特定された撮像位置からの距離が前述の基準位置よりも大きい地点に位置しており、且つ、位置情報が既知である位置のことである。   One of the position specifying devices described later in this specification includes an imaging position specifying unit and an object position specifying unit. Here, the imaging position specifying unit images the position information of the reference position whose position information is known, the reference position image obtained by imaging the object at the reference position, and the object at an arbitrary imaging position. Based on the imaging position image obtained in this way, position information of the imaging position is specified. Then, the object position specifying unit, the position information of the known position, the known position image obtained by imaging the object at the known position, the position information of the imaging position, and the object at the imaging position. Based on the imaging position image obtained by imaging, the position information of the object is specified. Here, the known position is a position where the distance from the imaging position whose position information is specified by the imaging position specifying unit is larger than the reference position and the position information is known. That is.

また、本明細書で後述する位置特定方法のひとつは、まず、任意の撮像位置で対象物を撮像して撮像位置画像を得たときの当該撮像位置の位置情報の特定を撮像位置特定部が行う。なお、この撮像位置の位置情報の特定は、位置情報が既知である基準位置の当該位置情報と、当該基準位置で対象物を撮像して得た基準位置画像と、前述の撮像位置画像とに基づいて行う。次に、既知位置の位置情報と、当該既知位置で当該対象物を撮像して得た既知位置画像と、当該撮像位置の位置情報と、当該撮像位置で該対象物を撮像して得た撮像位置画像とに基づいた当該対象物の位置情報の特定を、対象物位置特定部が行う。なお、ここで、既知位置とは、撮像位置特定部が位置情報を特定した撮像位置からの距離が前述の基準位置よりも大きい地点に位置しており、且つ、位置情報が既知である位置のことである。   Further, one of the position specifying methods described later in this specification is that the imaging position specifying unit specifies the position information of the imaging position when the imaging position image is obtained by imaging the object at an arbitrary imaging position. Do. The position information of the imaging position is specified by the position information of the reference position where the position information is known, the reference position image obtained by imaging the object at the reference position, and the above-described imaging position image. Based on. Next, position information of a known position, a known position image obtained by imaging the object at the known position, position information of the imaging position, and imaging obtained by imaging the object at the imaging position The target object position specifying unit specifies the position information of the target object based on the position image. Here, the known position is a position where the distance from the imaging position where the imaging position specifying unit specified the position information is larger than the reference position, and the position information is known. That is.

また、本明細書で後述するプログラムのひとつは、以下の処理をコンピュータに行わせる。この処理は、まず、位置情報が既知である基準位置の当該位置情報と、当該基準位置で対象物を撮像して得た基準位置画像と、任意の撮像位置で当該対象物を撮像して得た撮像位置画像とに基づいて、当該撮像位置の位置情報の特定を行う。そして、次に、既知位置の位置情報と、当該既知位置で前述の対象物を撮像して得た既知位置画像と、当該撮像位置の位置情報と、当該撮像位置で当該対象物を撮像して得た撮像位置画像とに基づいて、当該対象物の位置情報の特定を行う。ここで、既知位置とは、前述の撮像位置の位置情報の特定によって位置情報を特定した撮像位置からの距離が前述の基準位置よりも大きい地点に位置しており、且つ、位置情報が既知である位置のことである。   One of the programs described later in this specification causes a computer to perform the following processing. This process is obtained by first imaging the position information of the reference position whose position information is known, the reference position image obtained by imaging the object at the reference position, and imaging the object at an arbitrary imaging position. Based on the captured image, the position information of the captured position is specified. Then, the position information of the known position, the known position image obtained by imaging the above-described object at the known position, the position information of the imaging position, and the object at the imaging position are imaged. Based on the obtained imaging position image, the position information of the object is specified. Here, the known position is located at a point where the distance from the imaging position where the position information is specified by specifying the position information of the imaging position is larger than the reference position, and the position information is known. It is a certain position.

本明細書で後述する位置特定装置によれば、基準位置からのベースライン長を十分に確保できない位置での撮像画像を用いて行うステレオ視による対象物の位置特定の精度が向上するという効果を奏する。   According to the position specifying device to be described later in this specification, the effect of improving the accuracy of specifying the position of an object by stereo viewing performed using a captured image at a position where the baseline length from the reference position cannot be sufficiently secured. Play.

位置特定装置の一実施例の機能ブロック図である。It is a functional block diagram of one example of a position specifying device. 位置特定装置の別の一実施例の機能ブロック図である。It is a functional block diagram of another example of a position specifying device. アクチュエータにより開閉可能なドアミラーにカメラが固定されている構造の一例(その1)である。It is an example (the 1) of the structure where the camera is being fixed to the door mirror which can be opened and closed by an actuator. アクチュエータにより開閉可能なドアミラーにカメラが固定されている構造の一例(その2)である。It is an example (the 2) of the structure where the camera is being fixed to the door mirror which can be opened and closed by an actuator. 第一撮影画像の説明図である。It is explanatory drawing of a 1st picked-up image. 第二撮影画像の説明図である。It is explanatory drawing of a 2nd picked-up image. 図2の位置特定装置における位置特定部による対象物の位置特定の動作を説明する図である。It is a figure explaining the operation | movement of the position specification of the target object by the position specification part in the position specification apparatus of FIG. 位置特定装置の更なる別の一実施例の機能ブロック図である。It is a functional block diagram of another another Example of a position specifying device. 位置特定処理の処理内容を図解したフローチャートである。It is the flowchart which illustrated the processing content of the position specific process. 図7のフローチャートの説明図である。It is explanatory drawing of the flowchart of FIG. 画像取得処理の処理内容を図解したフローチャートである。It is the flowchart which illustrated the processing content of the image acquisition process. 撮像位置特定処理の処理内容を図解したフローチャートである。It is the flowchart which illustrated the processing content of the imaging position specific process. 選択処理の処理内容を図解したフローチャートである。It is the flowchart which illustrated the processing content of the selection process. 位置特定及び距離算出処理の処理内容を図解したフローチャートである。It is the flowchart which illustrated the processing content of position specification and distance calculation processing. コンピュータのハードウェア構成例である。It is a hardware structural example of a computer.

まず図1について説明する。図1は、位置特定装置の一実施例の機能ブロック図である。この位置特定装置は、撮像位置特定部1と対象物位置特定部2とを備えている。
撮像位置特定部1は、位置情報が既知である基準位置の当該位置情報と、当該基準位置で対象物を撮像して得た基準位置画像と、任意の撮像位置で当該対象物を撮像して得た撮像位置画像とに基づいて、当該撮像位置の位置情報の特定を行う。
First, FIG. 1 will be described. FIG. 1 is a functional block diagram of an embodiment of the position specifying device. The position specifying device includes an imaging position specifying unit 1 and an object position specifying unit 2.
The imaging position specifying unit 1 captures the position information of the reference position where the position information is known, a reference position image obtained by imaging the object at the reference position, and the target object at an arbitrary imaging position. Based on the obtained imaging position image, the position information of the imaging position is specified.

対象物位置特定部2は、既知位置の位置情報と、既知位置画像と、撮像位置特定部1で位置情報が特定された撮像位置の位置情報と、当該撮像位置で該対象物を撮像して得た撮像位置画像とに基づいて、当該対象物の位置情報の特定を行う。なお、ここでの既知位置とは、撮像位置特定部1で位置情報が特定された撮像位置からの距離が前述の基準位置よりも大きい(長い)地点に位置しており位置情報が既知である位置である。また、既知位置画像とは、当該既知位置で前述の対象物を撮像して得た画像である。   The target object position specifying unit 2 captures the target object with the position information of the known position, the position information of the known position, the position information of the image capturing position whose position information is specified by the image capturing position specifying unit 1, and the image capturing position. Based on the obtained imaging position image, the position information of the object is specified. The known position here is located at a point where the distance from the imaging position whose position information is specified by the imaging position specifying unit 1 is larger (longer) than the reference position, and the position information is known. Position. The known position image is an image obtained by imaging the above-described object at the known position.

この位置特定装置では、撮像位置特定部1で位置情報が特定された撮像位置からの距離が基準位置よりも大きい(長い)地点に位置している既知位置と当該既知位置での既知位置画像とを用いて対象物の位置情報の特定が行われる。一般に、ステレオ視による対象物の位置の特定の精度は、その位置特定に用いる2枚の画像の撮像位置間の距離(ベースライン)を長くするほど向上する。従って、図1の位置特定装置による位置特定の精度は、基準位置と基準位置画像とを用いる場合におけるものよりも向上する。   In this position specifying device, a known position located at a point where the distance from the image pickup position whose position information is specified by the image pickup position specifying unit 1 is larger (longer) than the reference position, and a known position image at the known position, The position information of the object is specified using. In general, the accuracy of specifying the position of an object by stereo vision increases as the distance (baseline) between the imaging positions of two images used for specifying the position becomes longer. Therefore, the accuracy of position specification by the position specifying device of FIG. 1 is improved as compared with the case where the reference position and the reference position image are used.

なお、図1に破線を用いて図解したように、この位置特定装置に選択部3を備えるように構成してもよい。
この選択部3は、前述の既知位置が複数存在する場合に、当該複数の既知位置のうちから、対象物位置特定部2による前述の対象物の位置特定の基礎として用いるときの適性を表している所定の条件に合致するものを、前述の選択既知位置として選択する。
In addition, as illustrated using a broken line in FIG. 1, the position specifying device may be configured to include the selection unit 3.
The selection unit 3 represents aptitude when using the plurality of known positions as a basis for specifying the position of the object by the object position specifying unit 2 from the plurality of known positions. The one that matches the predetermined condition is selected as the aforementioned selected known position.

なお、このように構成する場合には、対象物位置特定部2は、選択部3が選択した選択既知位置の位置情報と、選択既知位置画像と、前述の撮像位置の位置情報と、前述の撮像位置画像とに基づいて、当該対象物の位置情報の特定を行う。なお、選択既知位置画像とは、選択部3が選択した選択既知位置で前述の対象物を撮像して得た画像である。   In this case, the object position specifying unit 2 includes the position information of the selected known position selected by the selection unit 3, the selected known position image, the position information of the imaging position described above, and the above-described information. Based on the imaging position image, the position information of the object is specified. The selected known position image is an image obtained by imaging the above-described object at the selected known position selected by the selection unit 3.

なお、選択部3による選択既知位置の選択では、例えば、前述の複数の既知位置のうちで、撮像位置特定部1が位置情報を特定した撮像位置からの距離が大きい順序(長い順序)に所定数個を選択するようにする。   In the selection of the selected known position by the selection unit 3, for example, among the plurality of known positions described above, a predetermined distance order from the imaging position at which the imaging position specifying unit 1 specifies the position information (long order) is predetermined. Try to select a few.

前述したように、ステレオ視による対象物の位置の特定の精度は、その位置特定に用いる2枚の画像の撮像位置間のベースラインを長くするほど向上する。従って、上述のように、複数の既知位置のうちから、上述の撮像位置からの距離が長いものを選択部3が選択するようにすることで、対象物位置特定部2による対象物の位置特定の精度の更なる向上が期待できる。   As described above, the accuracy of specifying the position of the object in stereo view increases as the baseline between the imaging positions of the two images used for specifying the position becomes longer. Therefore, as described above, the selection unit 3 selects a long distance from the above-described imaging position from among a plurality of known positions, whereby the target position specifying unit 2 specifies the target position. Further improvement in accuracy can be expected.

また、図1に破線を用いて図解したように、この位置特定装置に記録部4を備えるように構成してもよい。この記録部4には、過去に行われた対象物の位置情報の特定結果の履歴が記録されている。なお、この構成においては、選択部3は、複数の既知位置からの選択既知位置の選択を、例えば以下のようにして行う。   Further, as illustrated using a broken line in FIG. 1, the position specifying device may be configured to include the recording unit 4. In the recording unit 4, a history of identification results of position information of the object performed in the past is recorded. In this configuration, the selection unit 3 selects a selected known position from a plurality of known positions as follows, for example.

すなわち、複数の既知位置のうちで、撮像位置特定部1が位置情報を特定した撮像位置を結ぶ線分の垂直二等分線からの、記録部4に記録されている過去の位置情報の特定結果に係る対象物の位置までの距離が短くなる順序に所定数個を、選択するようにしてもよい。   That is, among the plurality of known positions, identification of past position information recorded in the recording unit 4 from a perpendicular bisector connecting the imaging positions where the imaging position specifying unit 1 specifies the position information is specified. You may make it select a predetermined number in order with which the distance to the position of the target object which concerns on a result becomes short.

一般に、ステレオ視による対象物の位置の特定の精度は、その位置特定に用いる2枚の画像を撮像した2つの撮像位置からの距離の差が少ないほど向上する。つまり、対象物の位置が、当該2つの撮像位置を結ぶ線分の垂直二等分線に近いほど、当該対象物の位置特定の精度が向上する。従って、上述のようにして選択部3が選択既知位置を選択することで、対象物位置特定部2による対象物の位置特定の精度の更なる向上が期待できる。   Generally, the accuracy of specifying the position of an object by stereo vision improves as the difference in distance from two imaging positions at which two images used for specifying the position are taken is smaller. That is, the closer the position of the object is to the perpendicular bisector of the line connecting the two imaging positions, the more accurate the position specification of the object. Therefore, when the selection unit 3 selects the selection known position as described above, further improvement in the accuracy of the position identification of the object by the object position identification unit 2 can be expected.

なお、選択部3が選択既知位置を複数個選択した場合には、対象物位置特定部2は、対象物についての位置情報の特定を、例えば以下のように行う。
すなわち、対象物位置特定部2は、まず、対象物についての位置情報の特定を、選択部3が選択した複数個の選択既知位置の各々について行う。そして、この特定により得られる複数の位置情報で示される複数の位置の重心を求め、その重心の位置情報を、当該対象物の位置情報の特定結果とする。このようにして、複数個の選択既知位置の各々について特定された複数の位置情報の重心を、当該対象物の位置情報の特定結果とすることで、位置特定の精度の更なる向上が期待できる。
When the selection unit 3 selects a plurality of selected known positions, the object position specifying unit 2 specifies position information about the object as follows, for example.
That is, the object position specifying unit 2 first specifies the position information about the object for each of the plurality of selected known positions selected by the selection unit 3. Then, the center of gravity of a plurality of positions indicated by the plurality of position information obtained by this specification is obtained, and the position information of the center of gravity is used as the result of specifying the position information of the target object. In this way, by using the center of gravity of the plurality of position information specified for each of the plurality of selected known positions as the result of specifying the position information of the object, further improvement in position specifying accuracy can be expected. .

また、選択部3が選択既知位置を複数個選択した場合には、対象物位置特定部2は、対象物についての位置情報の特定を、例えば以下のように行ってもよい。
すなわち、対象物位置特定部2は、対象物についての位置情報の特定を、選択部3が選択した複数個の選択既知位置の各々についてまず行う。次に、この特定により得られる複数の位置情報で示される複数の位置の各々に対して、位置情報の特定に用いた選択既知位置を選択部3が選択したときの選択順序に応じた重み付けを与える。そして、この重み付けが各々与えられた複数の位置の重み付け重心を求め、その重み付け重心の位置情報を、当該対象物の位置情報の特定結果とする。このようにして、複数個の選択既知位置の各々について特定された複数の位置情報に、選択既知位置の選択順序に応じた重みを与えたときの重み付き重心を、当該対象物の位置情報の特定結果とすることで、位置特定の精度の更なる向上が期待できる。
When the selection unit 3 selects a plurality of selected known positions, the object position specifying unit 2 may specify the position information about the object as follows, for example.
That is, the object position specifying unit 2 first specifies position information about the object for each of the plurality of selected known positions selected by the selection unit 3. Next, for each of a plurality of positions indicated by the plurality of position information obtained by this specification, weighting is performed according to the selection order when the selection unit 3 selects the selected known position used for specifying the position information. give. Then, the weighted centroids of a plurality of positions each given this weighting are obtained, and the position information of the weighted centroids is set as the identification result of the position information of the object. In this way, the weighted centroid when the weight according to the selection order of the selected known positions is given to the plurality of position information specified for each of the plurality of selected known positions is the position information of the target object. By making the specific result, further improvement in the accuracy of position specification can be expected.

また、図1に破線を用いて図解したように、この位置特定装置に判定部5を備えるように構成してもよい。判定部5は、前述の基準位置と撮像位置特定部1が特定した撮像位置との間の距離である基線距離と、所定の距離閾値との長短を判定する。なお、この構成においては、対象物位置特定部2は、対象物の位置情報の特定を、例えば以下のものに基づいて行う。   Moreover, you may comprise so that the determination part 5 may be provided in this position specific apparatus as illustrated using the broken line in FIG. The determination unit 5 determines the length of a baseline distance that is a distance between the reference position and the imaging position specified by the imaging position specifying unit 1 and a predetermined distance threshold. In this configuration, the object position specifying unit 2 specifies the position information of the object based on, for example, the following.

まず、基線距離が当該距離閾値よりも短いと判定部5が判定したときには、対象物の位置情報の特定が、選択部3が選択した選択既知位置の位置情報及び選択既知位置画像と、撮像位置特定部1が特定した撮像位置の位置情報及び撮像位置画像とに基づき行われる。一方、基線距離が当該距離閾値よりも長いと判定部5が判定したときには、対象物の位置情報の特定が、基準位置の位置情報及び基準位置画像と、撮像位置特定部1が特定した撮像位置の位置情報及び撮像位置画像とに基づき行われる。   First, when the determination unit 5 determines that the baseline distance is shorter than the distance threshold, the position information of the target is specified by the position information of the selected known position selected by the selection unit 3, the selected known position image, and the imaging position. This is performed based on the position information of the imaging position specified by the specifying unit 1 and the imaging position image. On the other hand, when the determination unit 5 determines that the baseline distance is longer than the distance threshold, the position information of the target is specified as the position information of the reference position and the reference position image, and the imaging position specified by the imaging position specifying unit 1. Based on the position information and the captured position image.

この構成では、上述の基線距離(すなわちベースライン)が、所望の位置特定の精度が得られる距離閾値よりも長い場合には、対象物位置特定部2による対象物の位置情報の特定を、基準位置の位置情報及び基準位置画像を用いて行うというものである。   In this configuration, when the above-described baseline distance (that is, the base line) is longer than a distance threshold value that provides a desired position specifying accuracy, the object position specifying unit 2 specifies the position information of the object as a reference. This is performed using the position information of the position and the reference position image.

なお、図1に破線を用いて図解したように、この位置特定装置に、単一の撮像装置6を更に備えるように構成してもよい。この撮像装置6は、例えば自動車などの移動体に設置されており、前述の基準位置画像、撮像位置画像、及び既知位置画像の全ての撮像を行う。   In addition, as illustrated using a broken line in FIG. 1, the position specifying device may be configured to further include a single imaging device 6. This imaging device 6 is installed in a moving body such as an automobile, for example, and captures all of the above-described reference position image, imaging position image, and known position image.

また、図1に破線を用いて図解したように、この位置特定装置に、距離算出部7を更に備えるように構成してもよい。この距離算出部7は、撮像装置6から前述の対象物までの距離を、対象物位置特定部2が特定した対象物の位置情報と、撮像位置特定部1が特定した撮像位置の位置情報とに基づいて算出する。   In addition, as illustrated using a broken line in FIG. 1, the position specifying device may be further provided with a distance calculating unit 7. The distance calculation unit 7 calculates the distance from the imaging device 6 to the above-described object, the position information of the object specified by the object position specifying unit 2, and the position information of the image pickup position specified by the image pickup position specifying unit 1. Calculate based on

次に、位置特定装置を用いて、自動車周辺の対象物の位置を特定して、当該対象物の当該車両からの距離を求める実施例について、当該自動車が静止している場合の実施例と、静止状態であった当該自動車が移動を開始した直後の場合の実施例とに分けて説明する。   Next, with respect to an example in which the position of an object around the automobile is specified using the position specifying device and the distance of the object from the vehicle is determined, an example in which the automobile is stationary, and This will be described separately from the example in the case where the automobile, which has been stationary, has just started moving.

まず図2について説明する。図2は、位置特定装置の別の一実施例の機能ブロック図である。この図2の位置特定装置は、自動車が静止している場合における、当該自動車周辺の対象物の位置の特定と、当該対象物の当該車両からの距離の算出とを行う。   First, FIG. 2 will be described. FIG. 2 is a functional block diagram of another embodiment of the position specifying device. The position specifying device in FIG. 2 specifies the position of an object around the automobile and calculates the distance of the object from the vehicle when the automobile is stationary.

図2の位置特定装置は、カメラ11、アクチュエータ12、アクチュエータ制御部13、画像取得部14、画像処理部15、特徴点追跡結果格納メモリ16、位置特定部17、及び距離算出部18を備えている。   2 includes a camera 11, an actuator 12, an actuator control unit 13, an image acquisition unit 14, an image processing unit 15, a feature point tracking result storage memory 16, a position specification unit 17, and a distance calculation unit 18. Yes.

カメラ11は対象物を撮像する撮像装置であり、アクチュエータ12は、このカメラ11の位置を移動させる。アクチュエータ制御部13は、アクチュエータ12によるカメラ11の移動動作を制御するものである。   The camera 11 is an imaging device that captures an image of an object, and the actuator 12 moves the position of the camera 11. The actuator control unit 13 controls the movement operation of the camera 11 by the actuator 12.

ここで、カメラ11と、アクチュエータ12と、アクチュエータ制御部13との関係について、図3A及び図3Bを参照しながら説明する。
図3Aに図解されているように、カメラ11は自動車のドアミラー19の先端部分に固定されており、当該自動車の側方の対象物を撮像する。アクチュエータ12は、このドアミラー19の自動開閉動作の駆動用のモータであり、アクチュエータ制御部13がアクチュエータ12を制御してドアミラー19を開閉動作させることで、カメラ11を移動させることができる。従って、ドアミラー19を開閉動作させたときのカメラ11の移動の経路(軌跡)は既知である。
Here, the relationship among the camera 11, the actuator 12, and the actuator control unit 13 will be described with reference to FIGS. 3A and 3B.
As illustrated in FIG. 3A, the camera 11 is fixed to a front end portion of the door mirror 19 of the automobile, and images an object on the side of the automobile. The actuator 12 is a motor for driving the automatic opening / closing operation of the door mirror 19, and the actuator controller 13 controls the actuator 12 to open / close the door mirror 19, thereby moving the camera 11. Therefore, the movement path (trajectory) of the camera 11 when the door mirror 19 is opened and closed is known.

なお、このアクチュエータ制御部13は、ドアミラー19が完全に閉じたこと及び完全に開いたことの検出はできるが、開閉動作の途中においてドアミラー19がどの程度開いているかを検出することはできない。また、ドアミラー19が完全に閉じたとき及び完全に開いたときのカメラ11の位置(自動車に対する相対位置及び向き)及びカメラ11の軌跡は既知であるが、その開閉動作の途中でカメラ11の位置(軌跡上のどこか)を、知ることはできない。   The actuator control unit 13 can detect that the door mirror 19 is completely closed and fully opened, but cannot detect how much the door mirror 19 is open during the opening / closing operation. Further, the position of the camera 11 (relative position and orientation with respect to the vehicle) and the trajectory of the camera 11 when the door mirror 19 is completely closed and fully opened are known, but the position of the camera 11 during the opening / closing operation is known. You cannot know (somewhere on the trajectory).

カメラ11は、ドアミラー19の開閉動作による移動の途中で順次撮像を繰り返す。
画像取得部14は、カメラ11が移動しながら複数枚撮像した対象物の画像を取得する。
The camera 11 sequentially repeats imaging while moving by the opening / closing operation of the door mirror 19.
The image acquisition unit 14 acquires images of a plurality of objects captured while the camera 11 is moving.

画像処理部15は、画像取得部14が取得した複数枚の画像に対して各種の画像処理を施す。より具体的には、画像処理部15は、特徴点抽出部15aと特徴点追跡部15bとを備えており、いわゆるブロックマッチング処理を行う。   The image processing unit 15 performs various types of image processing on the plurality of images acquired by the image acquisition unit 14. More specifically, the image processing unit 15 includes a feature point extraction unit 15a and a feature point tracking unit 15b, and performs so-called block matching processing.

特徴点抽出部15aは、画像取得部14が取得した撮像画像から部分画像領域(特徴点)の抽出を行う。特徴点抽出部15aは、カメラ11が撮像した対象物が映っている画像領域から特徴点を抽出する。なお、この特徴点を抽出する手法としては、形状の特徴を用いる手法や色彩の特徴を用いる手法など、広く知られている各種の手法を用いることができる。   The feature point extraction unit 15a extracts a partial image region (feature point) from the captured image acquired by the image acquisition unit 14. The feature point extraction unit 15a extracts feature points from an image area in which an object captured by the camera 11 is shown. As a method for extracting the feature points, various well-known methods such as a method using a shape feature and a method using a color feature can be used.

特徴点追跡部15bは、画像取得部14が取得した2枚の撮像画像から、特徴点抽出部15aが抽出した特徴点の類似度が所定の閾値以上で最大の位置を抽出し、2枚の画像間での特徴点の移動を追跡する。   The feature point tracking unit 15b extracts, from the two captured images acquired by the image acquisition unit 14, the maximum position where the similarity between the feature points extracted by the feature point extraction unit 15a is equal to or greater than a predetermined threshold, and Track the movement of feature points between images.

特徴点追跡結果格納メモリ16は、画像取得部14が取得した撮像画像と、画像処理部15による処理結果である、各撮像画像間での特徴点の追跡結果とを格納して記憶しておく記憶装置である。   The feature point tracking result storage memory 16 stores and stores the captured image acquired by the image acquisition unit 14 and the tracking result of the feature point between the captured images, which is the processing result by the image processing unit 15. It is a storage device.

位置特定部17は、特徴点追跡結果格納メモリ16に格納されている情報を用いて、カメラ11が撮像した対象物の位置(自動車に対する相対位置)を特定する。位置特定部17は第一位置特定部17a及び第二位置特定部17bを備えている。   The position specifying unit 17 uses the information stored in the feature point tracking result storage memory 16 to specify the position of the target (relative position with respect to the car) captured by the camera 11. The position specifying unit 17 includes a first position specifying unit 17a and a second position specifying unit 17b.

第一位置特定部17aは、カメラ11が撮像した対象物のひとつである第一対象物の位置を特定する。この第一対象物の位置の特定は、位置が既知である、ドアミラー19が完全に閉じたとき及び完全に開いたときの位置(2つの既知点)の各々からカメラ11が撮像して得た、第一対象物についての2枚の撮像画像(第一撮像画像)に基づいて行われる。   The 1st position specific | specification part 17a specifies the position of the 1st target object which is one of the target objects which the camera 11 imaged. The position of the first object is obtained by the camera 11 taking an image from each of the positions (two known points) when the door mirror 19 is fully closed and fully opened. This is performed based on two captured images (first captured images) of the first object.

第二位置特定部17bは、カメラ11が撮像した対象物のひとつであって第一対象物とは別のものである第二対象物の位置を特定する。この位置の特定は、第一対象物の位置と、カメラ11の軌跡上の任意の位置から撮像して得た、第一対象物の像も含まれている第二対象物についての1枚の撮像画像(第二撮像画像)と、第一撮像画像のうち第二対象物の像も含まれているものとに基づいて行われる。   The second position specifying unit 17b specifies the position of a second object that is one of the objects captured by the camera 11 and is different from the first object. This position is specified by one piece of the second object including the image of the first object obtained from the position of the first object and an arbitrary position on the trajectory of the camera 11. This is performed based on the captured image (second captured image) and the first captured image including the image of the second object.

ここで、第一撮影画像及び第二撮影画像について、図4A及び図4Bを用いて説明する。
図4A及び図4Bは、ドアミラー19の開閉動作により移動するカメラ11の視野の変化を図解している。
Here, the first captured image and the second captured image will be described with reference to FIGS. 4A and 4B.
4A and 4B illustrate changes in the field of view of the camera 11 that is moved by opening and closing the door mirror 19.

図4Aにおいて、[1]はドアミラー19が完全に閉じたときの視野であり、[2]はドアミラー19が完全に開いたときの視野であり、[3]はドアミラー19の開閉動作による軌跡上のある位置での視野である。また、[4]は、[1]の視野と[2]の視野とには重なりがあり、自車両の左側方で立っている人Hが、この両者の共通部分に位置していることを表現している。従って、人Hの像は、カメラ11が[1]の視野で撮像した画像と、カメラ11が[2]の視野で撮像した画像とのどちらにも含まれる。この場合において、人Hが第一対象物であり、カメラ11が[1]及び[2]の各々で撮像して得た2枚の撮像画像が第一撮像画像となり、第一位置特定部17aは、この2枚の撮像画像から人Hの位置を特定する。   In FIG. 4A, [1] is a field of view when the door mirror 19 is completely closed, [2] is a field of view when the door mirror 19 is fully opened, and [3] is on the locus by the opening / closing operation of the door mirror 19. The field of view at a certain position. [4] indicates that the field of view of [1] and the field of view of [2] overlap, and the person H standing on the left side of the vehicle is located at the common part of both. expressing. Therefore, the image of the person H is included in both the image captured by the camera 11 with the field of view [1] and the image captured by the camera 11 with the field of view [2]. In this case, the person H is the first object, and the two captured images obtained by the camera 11 capturing each of [1] and [2] are the first captured images, and the first position specifying unit 17a. Specifies the position of the person H from the two captured images.

一方、図4Bは、それまで完全に閉じていたドアミラー19の開動作によって、人Hのみが含まれていたカメラ11の視野が変化して、車Vの一部も視野内に含むようになった様子を示している。この場合においては、第一位置特定部17aが位置の特定を行った人Hが第一対象物であり、車Vが第二対象物となり、カメラ11が人Hと車Vとの両者を視野に含む位置で撮像した撮像画像が第二撮像画像となる。そして、第二位置特定部17bは、第一位置特定部17aにより特定された人Hの位置と、第二撮像画像と、第一撮像画像のうち車Vの像も含まれているもの(図4Aの[2]の画像)とから、車Vの位置を特定する。   On the other hand, in FIG. 4B, the field of view of the camera 11 in which only the person H is included is changed by the opening operation of the door mirror 19 which has been completely closed until then, and a part of the vehicle V is included in the field of view. It shows the state. In this case, the person H who has specified the position by the first position specifying unit 17a is the first object, the car V is the second object, and the camera 11 views both the person H and the car V. The captured image captured at the position included in the second captured image. The second position specifying unit 17b includes the position of the person H specified by the first position specifying unit 17a, the second captured image, and the image of the car V among the first captured images (see FIG. 4A [2] image), the position of the vehicle V is specified.

なお、上記説明においては、第一対象物と第二対象物とは別個の物体である場合を例としているが、本実施例はこれに限るものではない。第一対象物、第二対象物とも、カメラ11が撮像した画像上で特定可能な特徴点若しくは特徴領域であれば良い。その意味からすれば、第一対象物及び第二対象物は、同一の物体の異なる部位であっても構わない。例えば、カメラ11を搭載した車Vの側方に、図4Aの[1]、[2]、[3]いずれの状態でも撮像範囲に存在する、トラックや壁のような長い物体が存在する場合には、その物体の一部分を第一対象物とし、当該一部分とは別の一部分を第二対象物としてもよい。また、カメラ11を搭載した車Vの側方に、図4Aの[1]、[2]、[3]いずれの状態でも撮像範囲に存在する路面ペイントが存在する場合には、その路面ペイントのある一部分を第一対象物とし、当該一部分とは別の一部分を第二対象物としてもよい。   In addition, in the said description, although the case where a 1st target object and a 2nd target object are separate objects is taken as an example, a present Example is not restricted to this. Both the first object and the second object may be feature points or feature areas that can be identified on the image captured by the camera 11. In that sense, the first object and the second object may be different parts of the same object. For example, when a long object such as a track or a wall exists in the imaging range in any of the states [1], [2], and [3] in FIG. 4A on the side of the vehicle V on which the camera 11 is mounted. Alternatively, a part of the object may be the first object, and a part other than the part may be the second object. Further, if there is road surface paint that exists in the imaging range in any of the states [1], [2], and [3] in FIG. 4A on the side of the vehicle V on which the camera 11 is mounted, A part may be used as the first object, and a part other than the part may be used as the second object.

図2の説明に戻る。
距離算出部18は、位置特定部17により特定された第一対象物、第二対象物、第三対象物、…の各対象物についての、カメラ11が設置されている自動車の所定位置からの距離を算出する。
Returning to the description of FIG.
The distance calculation unit 18 detects the first object, the second object, the third object,... Specified by the position specifying unit 17 from the predetermined position of the automobile where the camera 11 is installed. Calculate the distance.

なお、図2の位置特定部17は、更に第三位置特定部17cも備えている。第三位置特定部17cは、カメラ11が撮像した対象物のひとつであって第一対象物及び第二対象物とは別のものである第三対象物の位置を特定する。この特定は、第一対象物の位置と、第一対象物の像も含まれている第三対象物についての1枚の撮像画像(第三撮像画像)と、第一撮像画像のうち第三対象物の像も含まれているものとに基づいて行われる。   The position specifying unit 17 in FIG. 2 further includes a third position specifying unit 17c. The third position specifying unit 17c specifies the position of a third object that is one of the objects captured by the camera 11 and is different from the first object and the second object. This specification includes the position of the first object, one captured image (third captured image) of the third object including the image of the first object, and the third of the first captured images. This is based on what also contains the image of the object.

次に、位置特定部17による対象物の位置特定の動作について、図5を用いて更に説明する。
図5は、ドアミラー19を開閉動作させてカメラ11を移動させながら、対象物A(図5では丸印で表現)、対象物B(図5では四角印で表現)、及び対象物C(図5では三角印で表現)を撮像する様子を模式的に表したものである。
Next, the operation of specifying the position of the object by the position specifying unit 17 will be further described with reference to FIG.
FIG. 5 shows the object A (represented by a circle in FIG. 5), the object B (represented by a square in FIG. 5), and the object C (represented in FIG. 5) while moving the camera 11 by opening and closing the door mirror 19. 5 schematically represents a state of imaging (represented by triangular marks).

図5において、P1、P2、及びQiはカメラ11の位置を表している。このうちのP1及びP2は、その位置が既知であり、ドアミラー19が完全に閉じたとき及び完全に開いたときのカメラ11の位置である。また、Qiは、ドアミラー19の開閉動作によりカメラ11が移動することで描かれるP1・P2間の軌跡上の任意の位置である。   In FIG. 5, P1, P2, and Qi represent the positions of the camera 11. Of these, P1 and P2 are known positions, and are positions of the camera 11 when the door mirror 19 is completely closed and fully opened. Qi is an arbitrary position on the locus between P1 and P2 drawn by the movement of the camera 11 by the opening / closing operation of the door mirror 19.

また、P1画像、Qi画像、及びP2画像は、それぞれ、カメラ11がP1、Qi、及びP2の各位置において撮像して得た画像である。ここで、対象物Aは、位置P1におけるカメラ11の視野と位置P2におけるカメラ11の視野とのどちらにも含まれる場所に位置しているので、P1画像、Qi画像、及びP2画像のいずれにも、対象物Aの像が含まれている。一方、対象物Bは位置P2におけるカメラ11の視野から外れているため、対象物Bの像は、P1画像及びQi画像には含まれているが、P2画像には含まれていない。また、対象物Cは位置P1におけるカメラ11の視野から外れているため、対象物Cの像は、Qi画像及びP2画像には含まれているが、P1画像には含まれていない。   Further, the P1 image, the Qi image, and the P2 image are images obtained by the camera 11 capturing images at positions P1, Qi, and P2, respectively. Here, since the object A is located at a place included in both the field of view of the camera 11 at the position P1 and the field of view of the camera 11 at the position P2, any of the P1 image, the Qi image, and the P2 image is included. Also includes an image of the object A. On the other hand, since the object B is out of the field of view of the camera 11 at the position P2, the image of the object B is included in the P1 image and the Qi image, but is not included in the P2 image. Further, since the object C is out of the field of view of the camera 11 at the position P1, the image of the object C is included in the Qi image and the P2 image, but is not included in the P1 image.

この図5の例において、位置特定部17が備えている第一位置特定部17a及び第二位置特定部17bは、それぞれ以下のように動作する。
まず、第一位置特定部17aは、対象物A(第一対象物)の位置を特定する。第一位置特定部17aは、この位置の特定を、位置が既知である2つの既知点P1及びP2の各々からカメラ11が撮像して得た2枚の撮像画像(第一撮像画像)であるP1画像及びP2画像に基づいて行う。つまり、第一位置特定部17aは、第一撮像画像を視差画像として使用して、前述した三角測量の原理により対象物Aの位置(特徴点抽出部15aが抽出した各特徴点に対応する対象物Aの各部の位置)を算出することで、その位置を特定する。
In the example of FIG. 5, the first position specifying unit 17 a and the second position specifying unit 17 b included in the position specifying unit 17 operate as follows.
First, the first position specifying unit 17a specifies the position of the object A (first object). The first position specifying unit 17a is two picked-up images (first picked-up images) obtained by the camera 11 picking up images from two known points P1 and P2 whose positions are known. This is performed based on the P1 image and the P2 image. That is, the first position specifying unit 17a uses the first captured image as a parallax image, and the position of the object A (target corresponding to each feature point extracted by the feature point extracting unit 15a by the above-described triangulation principle). By calculating the position of each part of the object A), the position is specified.

第二位置特定部17bは、対象物Aとは別のものである対象物B(第二対象物)の位置を特定する。第二位置特定部17bは、この位置の特定を、既に特定した対象物Aの位置と、対象物Aの像も含まれている対象物Bについての撮像画像であるQi画像(第二撮像画像)と、第一撮像画像のうち対象物Bの像が含まれているP1画像とに基づいて行う。第二位置特定部17bによる対象物Bの位置の特定は、より具体的には、以下のようにして行われる。   The second position specifying unit 17b specifies the position of an object B (second object) that is different from the object A. The second position specifying unit 17b specifies the position of the Qi image (second picked-up image) that is a picked-up image of the target B including the position of the target A already specified and the image of the target A. ) And the P1 image including the image of the object B in the first captured image. More specifically, the position of the object B by the second position specifying unit 17b is performed as follows.

まず、位置P1から位置Qiまでの移動によるカメラ11の移動量の回転成分を回転行列Riと表し、その並進成分を並進行列Tiと表すものとする。また、第一位置特定部17aにより特定された対象物Aの位置(特徴点抽出部15aによりP1画像から抽出された対象物A上の特徴点mの座標)をXrmと表すものとする。このとき、Qi画像における対象物Aの位置(特徴点追跡部15bによる追跡の結果である、Qi画像における対象物A上の特徴点mの座標)Xmは、下記の式[1]により表される。
Xm=Ri(Xrm−Ti)………………式[1]
First, the rotation component of the movement amount of the camera 11 due to the movement from the position P1 to the position Qi is represented as a rotation matrix Ri, and the translation component is represented as a translation column Ti. Further, the position of the object A specified by the first position specifying unit 17a (the coordinates of the feature point m on the object A extracted from the P1 image by the feature point extracting unit 15a) is represented as Xrm. At this time, the position of the object A in the Qi image (the coordinates of the feature point m on the object A in the Qi image, which is the result of tracking by the feature point tracking unit 15b) Xm is expressed by the following equation [1]. The
Xm = Ri (Xrm-Ti) ............ Formula [1]

対象物A上の複数の特徴点について、この式[1]を立て、得られた複数の式に対して最小二乗法を適用することで、Ri及びTiを求める。これにより、既知の位置P1から位置Qiまでの移動によるカメラ11の移動量が求まるので、位置Qiを位置P1に基づき特定することができる。その後、第二位置特定部17bは、既知の位置で撮像したP1画像と、特定された位置で撮像したQi画像とを視差画像として使用して、前述した三角測量の原理により対象物Bの位置を算出することで、その位置を特定する。   For a plurality of feature points on the object A, the equation [1] is established, and the least square method is applied to the obtained plurality of equations to obtain Ri and Ti. Thereby, since the movement amount of the camera 11 by the movement from the known position P1 to the position Qi is obtained, the position Qi can be specified based on the position P1. Thereafter, the second position specifying unit 17b uses the P1 image captured at the known position and the Qi image captured at the specified position as a parallax image, and the position of the object B according to the above-described triangulation principle. To determine the position.

ところで、第三位置特定部17cは、対象物A及び対象物Bとは別のものである対象物Cの位置を特定する。図5の例では、第三位置特定部17cは、この位置の特定を、既に特定した対象物Aの位置と、対象物Aの像も含まれている対象物Cについての撮像画像であるQi画像(第三撮像画像)と、第一撮像画像のうち対象物Cの像が含まれているP2画像とに基づいて行う。   By the way, the 3rd position specific | specification part 17c specifies the position of the target object C which is different from the target object A and the target object B. FIG. In the example of FIG. 5, the third position specifying unit 17 c specifies the position as Qi, which is a captured image of the target C that includes the position of the target A that has already been specified and an image of the target A. This is performed based on the image (third captured image) and the P2 image including the image of the object C in the first captured image.

位置特定部17は、このようにして同様の処理を繰り返すことで、複数の対象物の位置特定を次々と行うことができる。   The position specifying unit 17 can successively specify the positions of a plurality of objects by repeating the same process in this way.

なお、カメラ11での画像の撮像位置は、以下のようにして求めるようにしてもよい。
まず、Xj及びXkを、ドアミラー19の開閉動作によりカメラ11が移動することで描かれるP1・P2間の軌跡上の任意の位置とする。
まず、基準位置X0から位置Xjまでの移動によるカメラ11の移動量の回転成分を回転行列Rjと表し、並進成分を並進行列Tjと表すものとする。また、基準位置X0から位置Xkまでの移動によるカメラ11の移動量の回転成分を回転行列Rkと表し、並進成分を並進行列Tkと表すものとする。
In addition, you may make it obtain | require the imaging position of the image with the camera 11 as follows.
First, let Xj and Xk be arbitrary positions on the trajectory between P1 and P2 drawn when the camera 11 is moved by the opening / closing operation of the door mirror 19.
First, the rotation component of the movement amount of the camera 11 due to the movement from the reference position X0 to the position Xj is represented as a rotation matrix Rj, and the translation component is represented as a translation column Tj. Further, the rotation component of the movement amount of the camera 11 due to the movement from the reference position X0 to the position Xk is represented as a rotation matrix Rk, and the translation component is represented as a translation column Tk.

位置P1をXrと表すと、位置Xj及び位置Xkは下記の式で表すことができる。
このとき、
Xj=Rj(X0−Tj)………………式[2]
Xk=Rk(X0−Tk)………………式[3]
上記の[2]式及び[3]からX0を消去すると、下記の式[4]が得られる。
Xk=RkRjT {Xj−Rj(Tk−Tj)}………………式[4]
なお、『RjT』はRjの転置行列である。
When the position P1 is represented as Xr, the position Xj and the position Xk can be represented by the following expressions.
At this time,
Xj = Rj (X0−Tj) ………… .Formula [2]
Xk = Rk (X0−Tk) ............ Formula [3]
When X0 is eliminated from the above equations [2] and [3], the following equation [4] is obtained.
Xk = RkRj T {Xj-Rj (Tk-Tj)} .................. formula [4]
“Rj T ” is a transposed matrix of Rj.

ここで、Rjk=RkRjT と置き、Tjk=Tk−Tjと置くと、下記の式[5]が得られる。
Xk=Rjk(Xj−Tjk)………………式[5]
Here, every the Rjk = RkRj T, putting the Tjk = Tk-Tj, the following formula [5] can be obtained.
Xk = Rjk (Xj-Tjk) ............ Formula [5]

この式[5]を用い、Rjk及びTjkを前述したようにして最小二乗法により求めておくことで、先に求まった位置Xjから位置Xkを求めることができる。このようにして、カメラ11での画像の撮像位置を順次求めるようにしてもよい。   By using this equation [5] and obtaining Rjk and Tjk by the least square method as described above, the position Xk can be obtained from the previously obtained position Xj. In this way, the image pickup position of the camera 11 may be obtained sequentially.

次に図6について説明する。図6は、位置特定装置の更なる別の一実施例の機能ブロック図である。この図2の位置特定装置は、静止状態であった自動車が移動を開始した直後の場合における、当該自動車周辺の対象物の位置の特定と、当該対象物の当該車両からの距離の算出とを行う。   Next, FIG. 6 will be described. FIG. 6 is a functional block diagram of still another embodiment of the position specifying device. The position specifying device in FIG. 2 specifies the position of an object around the automobile and the calculation of the distance of the object from the vehicle immediately after the automobile that has been stationary has just started moving. Do.

図6の位置特定装置は、撮像装置21、特徴点抽出部22、特徴点追跡部23、位置特定部24、記録装置25、撮像装置位置特定部26、撮像装置位置選択部27、距離算出部28、及び距離記録装置29を備えている。   6 includes an imaging device 21, a feature point extraction unit 22, a feature point tracking unit 23, a position specification unit 24, a recording device 25, an imaging device position specification unit 26, an imaging device position selection unit 27, and a distance calculation unit. 28, and a distance recording device 29.

この図6に図解した機能ブロックのうちの撮像装置21、特徴点抽出部22、特徴点追跡部23、及び位置特定部24は、図2に図解した位置特定装置の各機能ブロックと同一の機能を提供する。   Among the functional blocks illustrated in FIG. 6, the imaging device 21, the feature point extraction unit 22, the feature point tracking unit 23, and the position specifying unit 24 have the same functions as the functional blocks of the position specifying device illustrated in FIG. 2. I will provide a.

より具体的に説明すると、撮像装置21は、図2の位置特定装置におけるカメラ11、アクチュエータ12、アクチュエータ制御部13、及び画像取得部14を備えており、図1の位置特定装置における撮像装置6に相当するものである。なお、カメラ11は、図3A及び図3Bに図解したように、アクチュエータ12により開閉可能な自動車のドアミラー19に固定されている。なお、本実施例では、カメラ11は、ドアミラー19が閉じている状態から、所定の一定時間間隔で、当該自動車の周囲の画像を撮像し続ける。   More specifically, the imaging device 21 includes the camera 11, the actuator 12, the actuator control unit 13, and the image acquisition unit 14 in the position specifying device in FIG. 2, and the imaging device 6 in the position specifying device in FIG. 1. It is equivalent to. In addition, the camera 11 is being fixed to the door mirror 19 of the motor vehicle which can be opened and closed by the actuator 12, as illustrated in FIG. 3A and FIG. 3B. In the present embodiment, the camera 11 continues to capture images around the car at predetermined time intervals from the state in which the door mirror 19 is closed.

また、特徴点抽出部22、特徴点追跡部23、及び位置特定部24は、それぞれ、図2における特徴点抽出部15a、特徴点追跡部15b、及び位置特定部24と同一の機能を有している。   Further, the feature point extraction unit 22, the feature point tracking unit 23, and the position specifying unit 24 have the same functions as the feature point extracting unit 15a, the feature point tracking unit 15b, and the position specifying unit 24 in FIG. ing.

記録装置25は、図2の特徴点追跡結果格納メモリ16に記憶されるものと同一の記憶データを記憶する。加えて、記録装置25は、自動車が静止状態であるときに位置特定部24により行われる対象物の位置の特定の処理の途中で特定がされる、図5における撮影位置Qiの位置情報の格納も行う。前述したように、撮影位置Qiは、ドアミラー19の開閉動作によりカメラ11が移動することで描かれるP1・P2間の軌跡上の位置である。更に、記録装置25には、この図6の位置特定装置によって過去に行われた対象物の位置情報の特定結果の履歴も記録される。つまり、この記録装置25により、図1の位置特定装置における記録部4に相当する機能が提供される。   The recording device 25 stores the same storage data as that stored in the feature point tracking result storage memory 16 of FIG. In addition, the recording device 25 stores the position information of the shooting position Qi in FIG. 5 that is specified during the process of specifying the position of the object performed by the position specifying unit 24 when the automobile is stationary. Also do. As described above, the photographing position Qi is a position on the locus between P1 and P2 drawn by the camera 11 moving by the opening / closing operation of the door mirror 19. Further, the recording device 25 also records the history of the result of specifying the position information of the object performed in the past by the position specifying device of FIG. That is, the recording device 25 provides a function corresponding to the recording unit 4 in the position specifying device of FIG.

以上のように、図6の位置特定装置では、図2の位置特定装置と同様にして、自動車が静止していた場合における対象物の位置の特定が予め行われる。この結果、図5における位置P1から位置P2に至る区間上の複数の位置Qiの位置情報は既知のものとなり、これらの位置P1、位置P2、及び位置Qiの位置情報とこれらの各位置でカメラ11が撮像した対象物の撮像画像とが、記録装置25に格納される。   As described above, the position specifying device in FIG. 6 specifies the position of the object in advance when the automobile is stationary in the same manner as the position specifying device in FIG. As a result, the position information of the plurality of positions Qi on the section from the position P1 to the position P2 in FIG. 5 becomes known, and the position information of these positions P1, P2, and Qi and the camera at each of these positions. The captured image of the object captured by 11 is stored in the recording device 25.

撮像装置位置特定部26は、自動車が移動を開始して以降にカメラ11が所定の一定時間間隔で当該自動車の周囲の画像を撮像したときの撮像位置の特定を行う。この撮像装置位置特定部26により、図1の位置特定装置における撮像位置特定部1に相当する機能が提供される。   The imaging device position specifying unit 26 specifies an imaging position when the camera 11 captures images around the automobile at predetermined time intervals after the automobile starts moving. The imaging device position specifying unit 26 provides a function corresponding to the imaging position specifying unit 1 in the position specifying device of FIG.

撮像装置位置選択部27は、撮像装置位置特定部26が特定した撮像位置の位置情報と当該撮像位置での撮像画像とに基づいた自動車周囲の対象物の位置の特定のための使用に適切な撮影位置の既知の撮影位置からの選択を、対象物の位置特定の精度の観点から行う。この撮像装置位置選択部27により、図1の位置特定装置における選択部3及び判定部5の各々に相当する機能が提供される。   The imaging device position selection unit 27 is suitable for use for specifying the position of the object around the vehicle based on the position information of the imaging position specified by the imaging device position specifying unit 26 and the captured image at the imaging position. The selection of the shooting position from the known shooting positions is performed from the viewpoint of the accuracy of specifying the position of the object. The imaging device position selection unit 27 provides functions corresponding to the selection unit 3 and the determination unit 5 in the position specifying device of FIG.

距離算出部28は、対象物の位置を特定して、自動車から当該対象物までの距離を算出する。この位置の特定は、撮像装置位置特定部26が特定した撮像位置の位置情報、当該撮像位置での撮像画像、撮像装置位置選択部27が選択した撮影位置の位置情報、及び当該選択された撮影位置での撮像画像を用いて行われる。この距離算出部28により、図1の位置特定装置における対象物位置特定部2及び距離算出部7の各々に相当する機能が提供される。   The distance calculation unit 28 specifies the position of the object and calculates the distance from the automobile to the object. This position is specified by the position information of the image pickup position specified by the image pickup apparatus position specifying unit 26, the image taken at the image pickup position, the position information of the shooting position selected by the image pickup apparatus position selecting unit 27, and the selected shooting. This is performed using a captured image at a position. The distance calculation unit 28 provides a function corresponding to each of the object position specifying unit 2 and the distance calculating unit 7 in the position specifying device of FIG.

距離記録装置29は、距離算出部28により算出した、撮像装置位置特定部26が特定した撮像位置における、対象物についての位置と自動車からの距離とを記録しておく記録装置である。   The distance recording device 29 is a recording device that records the position of the object and the distance from the vehicle at the imaging position specified by the imaging device position specifying unit 26 calculated by the distance calculating unit 28.

次に、図6の位置特定装置による、静止状態であった自動車が移動を開始して以降の当該自動車周辺の対象物の位置の特定処理の処理手順について、図7及び図8を用いて説明する。図7は、図6の位置特定装置によって行われる、位置特定処理の処理内容を図解したフローチャートであり、図8は、図7のフローチャートの説明図である。   Next, with reference to FIGS. 7 and 8, a processing procedure for specifying the position of an object around the automobile after the automobile in a stationary state starts moving by the position specifying device in FIG. 6 will be described. To do. FIG. 7 is a flowchart illustrating the processing contents of the position specifying process performed by the position specifying device of FIG. 6, and FIG. 8 is an explanatory diagram of the flowchart of FIG.

なお、図7の処理の開始時には、図2の位置特定装置と同様の手法により、自動車が静止している場合における、当該自動車周辺の対象物の位置の特定と、当該対象物の位置の特定とが既に完了しているものとする。従って、記録装置25には、図8における静止区間内の複数の位置の位置情報、当該複数の位置でのカメラ11による撮像画像、及び、位置特定部24による、対象物の位置情報の特定結果の履歴が既に記録されているものとする。   At the start of the process of FIG. 7, the position of the object around the car and the position of the object are identified when the car is stationary by the same method as the position specifying device of FIG. And have already been completed. Therefore, in the recording device 25, position information of a plurality of positions in the still section in FIG. 8, images captured by the camera 11 at the plurality of positions, and a result of specifying the position information of the object by the position specifying unit 24 It is assumed that the history of is already recorded.

なお、図8に示されている静止区間とは、静止状態の自動車Vのドアミラー19の開閉動作によりカメラ11(図8では図示を省略している。)が移動することで描かれる軌跡の区間である。また、図8に示されている走行開始区間とは、ドアミラー19が完全に開いた状態で自動車Vが静止状態から走行を開始したことによって移動するカメラ11が描く軌跡の区間である。   Note that the stationary section shown in FIG. 8 is a section of a trajectory drawn when the camera 11 (not shown in FIG. 8) is moved by the opening / closing operation of the door mirror 19 of the stationary vehicle V. It is. Further, the travel start section shown in FIG. 8 is a section of a trajectory drawn by the camera 11 that moves when the automobile V starts traveling from a stationary state with the door mirror 19 fully opened.

なお、図7の処理は、自動車Vが走行を開始すると開始される。
図7において、まず、ステップ1では、基準位置を設定する処理を撮像装置位置特定部26が行う。この処理では、静止区間と走行開始区間の境界点、すなわち、自動車Vが静止状態であり且つドアミラー19が完全に開いた状態であるときのカメラ11の位置を基準位置に設定する処理が行われる。なお、前に説明した図5においては、ドアミラー19が完全に開いた状態であるときのカメラ11の位置をP2と表示していたが、図8では、この位置を、基準位置P0と改めて表示している。
Note that the processing in FIG. 7 is started when the automobile V starts running.
In FIG. 7, first, in step 1, the imaging device position specifying unit 26 performs processing for setting a reference position. In this process, a process is performed for setting the position of the camera 11 as the reference position when the vehicle V is stationary and the door mirror 19 is fully open, that is, the boundary point between the stationary section and the travel start section. . In FIG. 5 described above, the position of the camera 11 when the door mirror 19 is fully opened is displayed as P2. In FIG. 8, this position is displayed again as the reference position P0. is doing.

次に、ステップ2では、画像取得処理を撮像装置21、特徴点抽出部22、及び特徴点追跡部23が行う。この処理は、自動車Vの周囲の画像をカメラ11に撮像させ、得られた撮像画像から対象物Aの像にける特徴点の抽出を行い、得られた撮像画像と基準位置で撮像していた撮像画像(基準位置画像)との間での特徴点の移動を追跡する処理である。この画像取得処理により得られる撮像画像と特徴点の追跡結果とは、記録装置25に格納される。   Next, in step 2, the image acquisition process is performed by the imaging device 21, the feature point extraction unit 22, and the feature point tracking unit 23. In this process, an image around the automobile V is picked up by the camera 11, feature points in the image of the object A are extracted from the obtained picked-up image, and picked up at the picked-up image and the reference position. This is a process of tracking the movement of the feature point between the captured image (reference position image). The captured image obtained by this image acquisition process and the tracking result of the feature points are stored in the recording device 25.

次に、ステップ3では、ステップ2の処理により撮像が行われたときのカメラ11の位置(撮像位置)の位置情報を特定する撮像位置特定処理を撮像装置位置特定部26が行う。この処理は、撮像位置の位置情報の特定を、基準位置の位置情報と、基準位置画像と、当該撮像位置でのカメラ11の撮像により得られた画像(撮像位置画像)とに基づいて行う処理である。図8では、この処理により位置情報が特定された撮像位置を、P1と表示している。   Next, in step 3, the imaging device position specifying unit 26 performs an imaging position specifying process for specifying the position information of the position (imaging position) of the camera 11 when the imaging is performed by the processing in step 2. In this process, the position information of the imaging position is specified based on the position information of the reference position, the reference position image, and an image (imaging position image) obtained by imaging of the camera 11 at the imaging position. It is. In FIG. 8, the imaging position whose position information is specified by this processing is displayed as P1.

次に、ステップ4では、基準位置P0を含む静止区間内の複数の撮像位置から所定の条件に合致する撮像位置を選択する選択処理を撮像装置位置選択部27が行う。この処理は、前述の撮像位置P1と当該撮像位置P1での撮像位置画像とに基づいて対象物Aの位置の特定を行う場合の位置特定の基礎として用いる適性を有している撮像位置を、当該静止区間内の複数の撮像位置から選択する処理である。   Next, in step 4, the imaging device position selection unit 27 performs a selection process of selecting an imaging position that matches a predetermined condition from a plurality of imaging positions within a still section including the reference position P0. In this process, an imaging position having aptitude to be used as a basis for position identification when the position of the object A is identified based on the above-described imaging position P1 and the imaging position image at the imaging position P1. This is a process of selecting from a plurality of imaging positions within the still section.

次に、ステップ5では、対象物Aの位置の特定、及び、ステップ3の処理で特定された撮像位置から対象物Aの位置までの距離の算出の処理を、距離算出部28が行う。この処理は、ステップ4の処理により選択された撮像位置及び当該選択された撮像位置と、前述の撮像位置P1と当該撮像位置P1での撮像位置画像とに基づいて対象物Aの位置の特定と距離の算出とを行う処理である。このステップ5の位置特定及び距離算出処理を終えると、図7の位置特定処理が終了する。   Next, in step 5, the distance calculation unit 28 performs the process of specifying the position of the object A and calculating the distance from the imaging position specified in the process of step 3 to the position of the object A. This process is performed by specifying the position of the object A based on the imaging position selected by the process of step 4 and the selected imaging position, and the imaging position P1 and the imaging position image at the imaging position P1. This is a process for calculating the distance. When the position specifying and distance calculating process in step 5 is finished, the position specifying process in FIG. 7 is ended.

次に、図7の位置特定処理におけるステップ2からステップ5までの各処理の詳細について説明する。
まず図9について説明する。図9は、図7におけるステップ2の処理である、画像取得処理の処理内容を図解したフローチャートである。
Next, details of each process from step 2 to step 5 in the position specifying process of FIG. 7 will be described.
First, FIG. 9 will be described. FIG. 9 is a flowchart illustrating the processing content of the image acquisition processing, which is the processing of step 2 in FIG.

図9において、まず、S201では、撮像処理を撮像装置21が行う。この処理は、図8における撮像位置P1に位置しているカメラ11に、対象物Aを含む自動車V周囲の画像を撮像させ、得られた撮像位置画像を記録装置25に格納する処理である。   In FIG. 9, first, in S201, the imaging device 21 performs an imaging process. This process is a process of causing the camera 11 located at the imaging position P1 in FIG. 8 to capture an image around the automobile V including the object A, and storing the obtained imaging position image in the recording device 25.

次に、S202では、特徴点抽出処理を特徴点抽出部22が行う。この処理は、S201の処理により取得された画像における対象物Aの像から特徴点を抽出する処理である。なお、この特徴点を抽出する手法としては、図2の特徴点抽出部15aと同様に、形状の特徴を用いる手法や色彩の特徴を用いる手法など、広く知られている各種の手法を用いることができる。   In step S202, the feature point extraction unit 22 performs feature point extraction processing. This process is a process of extracting feature points from the image of the object A in the image acquired by the process of S201. As a method for extracting the feature points, various well-known methods such as a method using a shape feature and a method using a color feature are used as in the feature point extraction unit 15a in FIG. Can do.

次に、S203では、特徴点追跡処理を特徴点追跡部23が行う。この処理では、まず、基準位置P0において撮像された基準位置画像を記録装置25から読み出す処理が行われる。次に、この基準位置画像とS201の処理により撮像位置P1において撮像された撮像位置画像とから、S202の処理で抽出された特徴点の類似度が所定の閾値以上で最大の位置を抽出する処理が行われる。そして次に、抽出された位置を、当該特徴点についての、基準位置画像から撮像位置画像への追跡結果として取得する処理が行われる。   In step S203, the feature point tracking unit 23 performs feature point tracking processing. In this process, first, a process of reading a reference position image captured at the reference position P0 from the recording device 25 is performed. Next, a process of extracting the maximum position where the similarity of the feature points extracted in the process of S202 is equal to or greater than a predetermined threshold from the reference position image and the captured position image captured at the imaging position P1 by the process of S201. Is done. Then, a process of acquiring the extracted position as a tracking result from the reference position image to the captured position image for the feature point is performed.

次に、S204では、S203の処理により得られた、基準位置画像から撮像位置画像への特徴点の追跡結果を、当該撮像位置画像に対応付けて記録装置25に格納して保存する処理を特徴点追跡部23が行う。その後は図9の画像取得処理が終了する。   Next, in S204, the process of storing the feature point tracking result from the reference position image to the imaging position image obtained by the processing in S203 in association with the imaging position image and storing it in the recording device 25 is characterized. This is performed by the point tracking unit 23. After that, the image acquisition process in FIG. 9 ends.

次に図10について説明する。図10は、図7におけるステップ3の処理である、撮像位置特定処理の処理内容を図解したフローチャートである。
図10において、まず、S301では、ステップ2の画像取得処理によって記録装置25に保存されている基準位置画像から撮像位置画像への特徴点の追跡結果を読み出す処理を撮像装置位置特定部26が行う。
Next, FIG. 10 will be described. FIG. 10 is a flowchart illustrating the processing content of the imaging position specifying process, which is the process of step 3 in FIG.
In FIG. 10, first, in S301, the imaging device position specifying unit 26 performs a process of reading the tracking result of the feature point from the reference position image stored in the recording device 25 to the imaging position image by the image acquisition process in Step 2. .

次に、S302では、S301の処理で得られた追跡結果に基づき、基準位置P0から撮像位置P1に至るまでのカメラ11の移動量の回転成分を表す回転行列Rを算出する処理を撮像装置位置特定部26が行う。そして、続くS303において、S301の処理で得られた追跡結果に基づき、基準位置P0から撮像位置P1に至るまでのカメラ11の移動量の並進成分を表す並進行列Tを算出する処理を撮像装置位置特定部26が行う。   Next, in S302, a process of calculating a rotation matrix R representing a rotation component of the movement amount of the camera 11 from the reference position P0 to the imaging position P1 is performed based on the tracking result obtained in the process of S301. The identification unit 26 performs this. In the subsequent S303, a process of calculating a translation sequence T representing a translational component of the movement amount of the camera 11 from the reference position P0 to the imaging position P1 is performed based on the tracking result obtained in the process of S301. The identification unit 26 performs this.

次に、S304では、基準位置P0の位置情報と、S302及びS303の処理により算出されたカメラ11の移動量を表す回転行列R及び並進行列Tとに基づいて、撮像位置P1の位置情報を特定する処理を撮像装置位置特定部26が行う。その後は図10の撮像位置特定処理が終了する。   Next, in S304, the position information of the imaging position P1 is specified based on the position information of the reference position P0, the rotation matrix R representing the movement amount of the camera 11 calculated by the processing in S302 and S303, and the parallel progression T. The imaging device position specifying unit 26 performs the processing to be performed. Thereafter, the imaging position specifying process in FIG. 10 ends.

以上のS302からS304にかけての処理内容を更に説明する。なお、ここでは、エピポーラ幾何(epipolar geometry)を利用した撮像位置P1の位置情報の特定手法について説明する。   The processing contents from S302 to S304 will be further described. Here, a method for specifying the position information of the imaging position P1 using epipolar geometry will be described.

まず、基準位置画像上における特徴点の位置を、
と表し、この特徴点についての、撮像位置画像上における対応位置を、
と表す。
First, the position of the feature point on the reference position image is
The corresponding position on the imaging position image for this feature point,
It expresses.

このとき、エピポーラ拘束(epipolar constraints)により、基礎行列(fundamental matrix)Fについて
が成り立つので、基礎行列Fを
と表すと、
が成り立つ。
At this time, with respect to the fundamental matrix F due to epipolar constraints
Therefore, the fundamental matrix F is
And
Holds.

そこで、基準位置画像と撮像位置画像とから両者間で対応する特徴点を8組以上抽出し、それらの各組の特徴点の位置データについて最小二乗法を適用することで基礎行列Fを導出する。   Therefore, eight or more sets of feature points corresponding to the two are extracted from the reference position image and the captured position image, and the basic matrix F is derived by applying the least square method to the position data of the feature points of each set. .

次に、カメラ11の内部パラメータKが既知であるとして、下記の式に従って基礎行列Fの正規化を行い、基本行列(essential matrix)Eを得る。   Next, assuming that the internal parameter K of the camera 11 is known, the basic matrix F is normalized according to the following equation to obtain an essential matrix E.

ここで、基準位置画像から撮像位置画像に至るまでの画像間の幾何関係の並進ベクトルをtとすると、基本行列Eについて、   Here, assuming that the translation vector of the geometric relationship between the images from the reference position image to the captured position image is t, for the basic matrix E,

が成り立つ。 Holds.

次に、
の固有値分解を行って、最小の固有値に対応する固有ベクトルeを導出する。
next,
Eigenvalue decomposition is performed to derive an eigenvector e corresponding to the smallest eigenvalue.

すると、
の関係から、
が得られる。
Then
From the relationship
Is obtained.

ここで、前述の回転行列Rについて、
の関係があるので、この関係から回転行列Rが得られる。
Here, for the rotation matrix R described above,
Therefore, the rotation matrix R is obtained from this relationship.

次に、並進行列Tの算出手法について説明する。
まず、基準位置画像上の特徴点のうち、自動車が静止状態であるときに行われた処理によって基準位置P0からの距離が既知であるものを
と表す。また、基準位置画像上の特徴点に対応する撮像位置画像上での特徴点を、
と表す。
Next, a method for calculating the parallel progression T will be described.
First, among the feature points on the reference position image, those whose distance from the reference position P0 is known by processing performed when the automobile is stationary.
It expresses. In addition, the feature point on the imaging position image corresponding to the feature point on the reference position image is
It expresses.

このpi とqj とにおいて、対応付けができたものの集合をそれぞれ、
及び
と表す。更に、pk についての現実の三次元空間上での位置を、
と表し、その基準位置画像上での位置を
と表す。そして、qk についての現実の三次元空間上での位置を、
と表し、その撮像位置画像上での位置を
と表す。
In p i and q j , a set of correspondences can be obtained respectively.
as well as
It expresses. Furthermore, the position on the three-dimensional space of the real for p k,
And the position on the reference position image
It expresses. And the position of q k in the real 3D space is
And the position on the imaging position image
It expresses.

このとき、下記の3つの式が成り立つ。   At this time, the following three expressions hold.

ここで、並進行列Tを、未知数lを用いて
と表し、更に、
と置くと、[数20]は以下のように整理できる。
Here, using the unknown l as the parallel progression T
In addition,
[Equation 20] can be organized as follows.

この[数23]におけるlの値を、最小二乗法を用いて決定し、得られたlの値を[数21]に代入することで、並進行列Tが求まる。   The value of l in [Equation 23] is determined using the least square method, and the obtained l value is substituted into [Equation 21], whereby the parallel progression T is obtained.

以上のようにして算出された回転行列R及び並進行列Tに相当する移動量だけ、基準位置P0を移動させる計算を行うことで、撮像位置P1の位置情報が特定される。
撮像装置位置特定部26による撮像位置P1の位置情報の特定は、例えば以上のようにして行われる。この特定結果は、距離記録装置29に記録される。
The position information of the imaging position P1 is specified by performing the calculation for moving the reference position P0 by the movement amount corresponding to the rotation matrix R and the parallel progression T calculated as described above.
The specification of the position information of the image pickup position P1 by the image pickup apparatus position specifying unit 26 is performed as described above, for example. This identification result is recorded in the distance recording device 29.

次に図11について説明する。図11は、図7におけるステップ4の処理である、選択処理の処理内容を図解したフローチャートである。
図11において、まず、S401では、ステップ3の撮像位置特定処理によって算出されたカメラ11の移動量(基準位置P0から撮像位置P1までの移動量)を撮像装置位置特定部26から取得する処理を撮像位置選択部27が行う。
Next, FIG. 11 will be described. FIG. 11 is a flowchart illustrating the processing contents of the selection process, which is the process of step 4 in FIG.
In FIG. 11, first, in step S <b> 401, a process of acquiring the movement amount of the camera 11 (movement amount from the reference position P <b> 0 to the imaging position P <b> 1) calculated by the imaging position specifying process in step 3 from the imaging device position specifying unit 26. The imaging position selection unit 27 performs this.

次に、S402では、S401の処理によって取得したカメラ11の移動量が、所定の距離閾値以上であるか否かを判定する処理を撮像位置選択部27が行う。この処理により、基準位置P0と撮像位置P1との間の距離である基線距離と、当該距離閾値との長短を判定する処理が行われる。   Next, in S402, the imaging position selection unit 27 performs a process of determining whether or not the movement amount of the camera 11 acquired by the process of S401 is greater than or equal to a predetermined distance threshold. By this process, a process of determining the length of the base line distance, which is the distance between the reference position P0 and the imaging position P1, and the distance threshold is performed.

このS402の判定処理において、カメラ11の移動量(基線距離)が所定の距離閾値以上であると判定されたとき(判定結果がYesのとき)には、S403に処理が進む。そして、S403において、基準位置P0を選択する処理を撮像位置選択部27が行い、その後は図11の選択処理が終了する。つまり、撮像位置選択部27は、所望の位置特定の精度が得られる距離閾値よりも基線距離が長いと判定した場合には、距離算出部28による対象物Aの位置情報の特定を、基準位置P0の位置情報及び基準位置画像を用いて行わせるようにする。従って、この処理の後に行われる図7のステップ5の処理では、距離算出部28は、対象物Aの位置情報の特定を、基準位置P0の位置情報と、基準位置画像と、撮像位置P1の位置情報と、撮像位置画像とに基づいて行うことになる。   In the determination process of S402, when it is determined that the movement amount (baseline distance) of the camera 11 is equal to or greater than a predetermined distance threshold (when the determination result is Yes), the process proceeds to S403. In step S403, the imaging position selection unit 27 performs a process of selecting the reference position P0. Thereafter, the selection process of FIG. 11 ends. In other words, when the imaging position selection unit 27 determines that the baseline distance is longer than the distance threshold that provides the desired position specifying accuracy, the position calculation unit 28 specifies the position information of the object A as the reference position. This is performed using the position information of P0 and the reference position image. Therefore, in the process of step 5 of FIG. 7 performed after this process, the distance calculation unit 28 specifies the position information of the object A, the position information of the reference position P0, the reference position image, and the imaging position P1. This is performed based on the position information and the captured position image.

一方、S402の判定処理において、カメラ11の移動量(基線距離)が所定の距離閾値未満であると判定されたとき(判定結果がNoのとき)には、S404に処理が進む。そして、S404において、位置情報が記録装置25に記録されている図8の静止区間内の複数の位置から、後述する所定の条件に合致するものを選択する処理を撮像位置選択部27が行い、その後は図11の選択処理が終了する。つまり、撮像位置選択部27は、所当該距離閾値よりも基線距離が短いと判定した場合には、距離算出部28による対象物Aの位置情報の特定を、このS404の処理により選択された位置の位置情報及び当該位置で撮像された画像を用いて行わせるようにする。従って、この処理の後に行われる図7のステップ5の処理では、距離算出部28は、対象物Aの位置情報の特定を、この位置の情報と、この位置での撮像画像と、撮像位置P1の位置情報と、撮像位置画像とに基づいて行うことになる。   On the other hand, in the determination process of S402, when it is determined that the movement amount (baseline distance) of the camera 11 is less than the predetermined distance threshold (when the determination result is No), the process proceeds to S404. In S404, the imaging position selection unit 27 performs a process of selecting a position that matches a predetermined condition described later from a plurality of positions in the still section of FIG. After that, the selection process in FIG. 11 ends. That is, when the imaging position selection unit 27 determines that the baseline distance is shorter than the distance threshold, the position calculation unit 28 specifies the position information of the object A by the process of S404. The position information and the image captured at the position are used. Therefore, in the process of Step 5 of FIG. 7 performed after this process, the distance calculation unit 28 specifies the position information of the object A, the position information, the captured image at this position, and the imaging position P1. This is performed based on the position information and the captured position image.

なお、図8を参照すれば明らかなように、位置情報が記録装置25に記録されている静止区間内の複数の位置は、いずれも、撮像位置P1からの距離が、基準位置P0よりも大きい(長い)地点に位置している。従って、これらの静止区間内の複数の位置は、図1の位置特定装置についての説明に使用していた既知位置の一例である。以下の説明では、これらの静止区間内の位置を『既知位置』と称することとし、当該既知位置で対象物Aを撮像して得た画像を『既知位置画像』と称することとする。更に、S404の処理により選択された既知位置を『選択既知位置』と称することとし、当該選択既知位置で対象物Aを撮像して得た画像を『選択既知位置画像』と称することとする。   Note that, as is clear from FIG. 8, any of the plurality of positions in the still section where the position information is recorded in the recording device 25 has a distance from the imaging position P1 that is greater than the reference position P0. Located at (long) point. Therefore, the plurality of positions in these stationary sections are examples of known positions used in the description of the position specifying device in FIG. In the following description, the positions in these still sections are referred to as “known positions”, and an image obtained by imaging the object A at the known positions is referred to as a “known position image”. Furthermore, the known position selected by the process of S404 is referred to as “selected known position”, and an image obtained by imaging the object A at the selected known position is referred to as “selected known position image”.

次に、S404の処理における選択の基準とする条件について説明する。この条件は、距離算出部28による対象物Aの位置特定の基礎として用いるときの適性を表しているものであり、例えば以下の2つの条件を挙げることができる。   Next, the conditions used as the selection criterion in the process of S404 will be described. This condition represents suitability when used as a basis for specifying the position of the object A by the distance calculation unit 28. For example, the following two conditions can be given.

まず、第一の条件は、複数の既知位置のうちで、撮像位置P1からの距離が最長であることである。
このような既知位置を選択すれば、対象物Aの位置特定に用いる2枚の画像の撮像位置間(すなわち撮像位置P1と選択既知位置との間)のベースラインが最長となる。従って、距離算出部28が行うステレオ視による対象物の位置の特定を高い精度で行うことができる。
First, the first condition is that the distance from the imaging position P1 is the longest among a plurality of known positions.
If such a known position is selected, the baseline between the imaging positions of two images used for specifying the position of the object A (that is, between the imaging position P1 and the selected known position) becomes the longest. Therefore, it is possible to specify the position of the object by stereo vision performed by the distance calculation unit 28 with high accuracy.

また、第二の条件は、複数の既知位置のうちで、撮像位置P1を結ぶ線分の垂直二等分線から対象物Aの位置までの距離が最短であることである。
前述したように、ステレオ視による対象物の位置の特定の精度は、その位置特定に用いる2枚の画像を撮像した2つの撮像位置からの距離の差が少ないほど向上する。ここで、上述の第二の条件に従って既知位置を選択すれば、対象物Aの位置特定に用いる2枚の画像を撮像した2つの撮像位置(すなわち撮像位置P1及び選択既知位置)から対象物Aの位置までの距離の差が最短となる。従って、距離算出部28が行うステレオ視による対象物の位置の特定を高い精度で行うことができる。
The second condition is that the distance from the perpendicular bisector connecting the imaging position P1 to the position of the object A is the shortest among a plurality of known positions.
As described above, the accuracy of specifying the position of the object by stereo vision improves as the difference in distance from the two imaging positions where the two images used for specifying the position are taken is smaller. Here, if the known position is selected according to the second condition described above, the object A is selected from the two imaging positions (that is, the imaging position P1 and the selected known position) obtained by capturing two images used for specifying the position of the object A. The difference in distance to the position is the shortest. Therefore, it is possible to specify the position of the object by stereo vision performed by the distance calculation unit 28 with high accuracy.

なお、第二の条件をS404の処理に採用する場合には、対象物Aの位置として、記録装置25に記録されている、対象物Aについての過去の位置情報の特定結果を利用して行う。   In addition, when employ | adopting 2nd conditions for the process of S404, it carries out using the specific result of the past positional information about the target object A currently recorded on the recording device 25 as a position of the target object A. .

S404の処理では、上述した第一の条件及び第二の条件のどちらを採用してもよい。
また、S404の処理において、上述した条件に合致する既知位置を1つのみ選択するのではなく、条件に合致する程度に応じた順序に複数個選択してもよい。すなわち、第一の条件に関しては、複数の既知位置のうちで、撮像位置P1からの距離が大きい順序(長い順序)に複数個選択してもよい。また、第二の条件に関しては、複数の既知位置のうちで、撮像位置P1を結ぶ線分の垂直二等分線から対象物Aの位置までの距離が短い順序に複数個選択してもよい。なお、このS404の処理において既知位置を複数選択した場合における、距離算出部28による対象物Aの位置の特定の手法については後述する。
なお、撮像位置選択部27が行った選択の結果は、距離記録装置29に格納される。
In the process of S404, either the first condition or the second condition described above may be employed.
Further, in the process of S404, instead of selecting only one known position that matches the above-described condition, a plurality of positions may be selected in an order corresponding to the degree of meeting the condition. That is, regarding the first condition, a plurality of known positions may be selected in order of increasing distance from the imaging position P1 (long order). As for the second condition, a plurality of known positions may be selected in the order of a short distance from the vertical bisector connecting the imaging position P1 to the position of the object A. . A method for specifying the position of the object A by the distance calculation unit 28 when a plurality of known positions are selected in the process of S404 will be described later.
Note that the result of the selection performed by the imaging position selection unit 27 is stored in the distance recording device 29.

次に図12について説明する。図12は、図7におけるステップ5の処理である、位置特定及び距離算出処理の処理内容を図解したフローチャートである。   Next, FIG. 12 will be described. FIG. 12 is a flowchart illustrating the processing contents of the position specifying and distance calculating process which is the process of step 5 in FIG.

図12において、まず、S501では、撮像位置画像と、図7のステップ4の処理により選択された位置での撮像画像(すなわち基準位置画像若しくは選択既知位置画像)とでの特徴点の位置と対応関係との情報を取得する処理を距離算出部28が行う。なお、これらの情報は特徴点抽出部22及び特徴点追跡部23により既に求められており、距離算出部28は、記録装置25からこれらの情報を取得する。   In FIG. 12, first, in step S501, the position of the feature point corresponds to the captured position image and the captured image (that is, the reference position image or the selected known position image) at the position selected by the processing in step 4 in FIG. The distance calculation unit 28 performs processing for acquiring information on the relationship. Note that these pieces of information have already been obtained by the feature point extraction unit 22 and the feature point tracking unit 23, and the distance calculation unit 28 acquires these pieces of information from the recording device 25.

次に、S502では、三角測量の原理を用いて、対象物A上の特徴点の現実の三次元空間での位置を特定し、その特定結果を距離記録装置29に格納する処理を距離算出部28が行う。この位置特定の処理は、S501の処理により取得した情報と、撮像位置P1の位置情報と、図7のステップ4の処理により選択された位置の位置情報(すなわち基準位置P0若しくは選択既知位置)とに基づいて行われる。   Next, in S502, a process of specifying the actual position of the feature point on the object A in the three-dimensional space using the principle of triangulation and storing the specification result in the distance recording device 29 is performed. 28 does. This position specifying process includes the information acquired by the process of S501, the position information of the imaging position P1, and the position information of the position selected by the process of step 4 in FIG. 7 (ie, the reference position P0 or the selected known position). Based on.

次に、S503では、S502の処理により特定された対象物Aについての特徴点の位置と、撮像位置P1との距離を算出し、その算出結果を距離記録装置29に格納する処理を距離算出部28が行い、その後は、この図12の処理が終了する。   Next, in S503, the distance calculation unit calculates the distance between the position of the feature point for the object A identified by the process of S502 and the imaging position P1, and stores the calculation result in the distance recording device 29. After that, the process of FIG. 12 ends.

ここで、S502の位置特定の処理の処理内容について、更に説明する。
[数20]にも掲げた下記の関係式
は、現実の三次元空間上での特徴点pk とqk との関係を表している。ここで、特徴点pk とqk の画像上での位置を用いてこの関係式を表現するには、変数k1 及びk2 を導入することで、
と表される。
Here, the processing content of the position specifying process in S502 will be further described.
The following relational expression listed in [Equation 20]
Represents the relationship between the feature points p k and q k in an actual three-dimensional space. Here, in order to express this relational expression using the positions of the feature points p k and q k on the image, by introducing variables k 1 and k 2 ,
It is expressed.

この[数25]式を展開すると、
となる。この式を
と表現する。なお、特徴点pk とqk の画像上での位置は、[数17]及び[数19]のように3つの要素で表現されているので、1組の特徴点の対応関係について、3つの関係式が得られる。
Expanding this [Equation 25],
It becomes. This formula
It expresses. Note that the positions of the feature points p k and q k on the image are expressed by three elements such as [Equation 17] and [Equation 19], and therefore, the correspondence between one set of feature points is 3 Two relational expressions are obtained.

ここで、撮像位置画像と、図7のステップ4の処理により選択された位置での撮像画像とでの特徴点の対応関係をn組得ることで、その各組について[数27]の関係式を生成することで、
が得られる。この式は、
の形をしている。従って、
を、最小二乗法を適用して解くことで、k(k1 及びk2 )の値が求まる。このようにして得られたk1 及びk2 の値と、特徴点pk 及びqk の画像上の位置とから、特徴点pk 及びqk の現実の三次元空間上での位置(すなわち、対象物Aの位置の位置情報)が求まる。
Here, by obtaining n pairs of feature point correspondences between the captured position image and the captured image at the position selected by the processing of step 4 in FIG. 7, the relational expression of [Equation 27] is obtained for each set. By generating
Is obtained. This formula is
It has the shape of Therefore,
Is obtained by applying the least square method to obtain the values of k (k 1 and k 2 ). Thus the value of k 1 and k 2 obtained in the position from the position on the image feature point p k and q k, the actual feature point p k and q k on the three-dimensional space (i.e. , Position information of the position of the object A) is obtained.

なお、図11のS404の処理において撮像位置選択部27が既知位置を複数選択した場合には、S502において、距離算出部28は、対象物Aの位置の特定処理を、次のようにして行う。   When the imaging position selection unit 27 selects a plurality of known positions in the process of S404 in FIG. 11, the distance calculation unit 28 performs the process of specifying the position of the object A as follows in S502. .

まず、距離算出部28は、撮像位置選択部27が選択した複数の既知位置の1つずつに基づいて、対象物Aについての位置情報の特定処理を前述のようにして行う。次に、距離算出部28は、この特定処理によって得られた複数個の位置情報で示されている複数の位置の重心の位置を求める処理を行う。そして、このようにして求められた重心の位置情報を、S502の位置特定の処理による、対象物Aの位置情報の特定結果とする。   First, the distance calculation unit 28 performs position information specifying processing for the object A as described above based on each of a plurality of known positions selected by the imaging position selection unit 27. Next, the distance calculation unit 28 performs a process of obtaining the positions of the centroids of the plurality of positions indicated by the plurality of position information obtained by the specifying process. The position information of the center of gravity obtained in this way is used as the position information specifying result of the object A by the position specifying process in S502.

なお、上述したようにして重心の位置を求める際に、撮像位置選択部27による既知位置の選択順序に応じた重みを考慮するようにしてもよい。すなわち、距離算出部28は、まず、撮像位置選択部27が選択した複数の既知位置の1つずつに基づいて、対象物Aについての位置情報の特定処理を前述のようにして行う。次に、距離算出部28は、この特定処理によって位置情報が得られた複数個の位置の各々に対し、当該位置情報の特定に用いた選択既知位置を撮像位置選択部27がS404の処理において選択したときの選択順序に応じた重み付けを与える処理を行う。次に、距離算出部28は、このようにして重み付けが各々与えられた複数個の位置の重心(重み付け重心)を求める処理を行う。そして、このようにして求められた重み付け重心の位置情報を、S502の位置特定の処理による、対象物Aの位置情報の特定結果とする。距離算出部28がこのようにして対象物Aの位置情報の特定を行うようにしてもよい。   In addition, when obtaining the position of the center of gravity as described above, a weight according to the selection order of known positions by the imaging position selection unit 27 may be considered. That is, the distance calculation unit 28 first performs position information specifying processing for the object A as described above based on each of a plurality of known positions selected by the imaging position selection unit 27. Next, in the distance calculation unit 28, for each of a plurality of positions for which position information has been obtained by this specifying process, the imaging position selecting unit 27 selects the selected known position used for specifying the position information in the process of S404. A process of giving a weight according to the selection order when selected. Next, the distance calculation unit 28 performs processing for obtaining the centroids (weighted centroids) of the plurality of positions each weighted in this way. Then, the position information of the weighted center of gravity obtained in this way is set as the identification result of the position information of the object A by the position identification process of S502. The distance calculation unit 28 may specify the position information of the object A in this way.

図6の位置特定装置は、以上の処理を各構成要素が行うことによって、静止状態であった自動車Vが移動を開始して以降の対象物Aの位置を特定する。
なお、図6の撮像装置は、カメラ11が撮像位置画像の取得後に続いて画像を新たに撮像した場合における当該新画像の撮像位置P2の特定についても、同様に行うことができる。すなわち、この場合には、図7のステップ1において、前述のようにして特定した撮像位置P1を新たな基準位置P0に設定する処理を撮像装置位置特定部26が行うことで、後は同様の処理によって、当該新画像の撮像位置P2を特定することができる。
The position specifying device in FIG. 6 specifies the position of the object A after the automobile V that has been stationary starts moving by performing the above-described processing by each component.
Note that the imaging apparatus of FIG. 6 can similarly perform the specification of the imaging position P2 of the new image when the camera 11 newly captures an image after acquiring the imaging position image. That is, in this case, in step 1 of FIG. 7, the imaging device position specifying unit 26 performs a process of setting the imaging position P1 specified as described above to a new reference position P0. Through the processing, the imaging position P2 of the new image can be specified.

また、撮像位置P1に基づく新画像の撮像位置P2の特定は、以下のようにして行うこともできる。
まず、基準位置P0、撮像位置P1、及び上記の新画像の撮像位置P2の位置を表す座標を、それぞれX0、X1、及びX2とする。
The identification of the imaging position P2 of the new image based on the imaging position P1 can also be performed as follows.
First, the coordinates representing the reference position P0, the imaging position P1, and the imaging position P2 of the new image are X0, X1, and X2, respectively.

ここで、基準位置P0から撮像位置P1への移動におけるカメラ11の移動量の回転成分を回転行列R1と表し、その並進成分を並進行列T1と表すものとする。また、基準位置P0から新画像の撮像位置P2への移動におけるカメラ11の移動量の回転成分を回転行列R2と表し、その並進成分を並進行列T2と表すものとする。   Here, the rotation component of the movement amount of the camera 11 in the movement from the reference position P0 to the imaging position P1 is represented as a rotation matrix R1, and the translation component thereof is represented as a translation sequence T1. In addition, the rotation component of the movement amount of the camera 11 in the movement from the reference position P0 to the imaging position P2 of the new image is represented as a rotation matrix R2, and the translation component is represented as a translation sequence T2.

このとき、下記の式が成り立つ。
X1=R1(X0−T1)………………式[6]
X2=R2(X0−T2)………………式[7]
上記の式[6]を変形すると、
X0=R1T X1+T1…………………式[8]
この式[8]を式[7]に代入すると、
X2=R2(R1T X1+T1−T2)
=R2R1T (X1−R1(T2−T1))…………………式[9]
ここで、R12=R2R1T 及びT12=R1(T2−T1)と置くと、式[9]は、
X2=R12(X1−T12)…………式[10]
と表される。
At this time, the following equation holds.
X1 = R1 (X0-T1) .............. [6]
X2 = R2 (X0-T2) ............ Formula [7]
When the above equation [6] is transformed,
X0 = R1 T X1 + T1 Expression (8)
Substituting this equation [8] into equation [7],
X2 = R2 (R1 T X1 + T1-T2)
= R2R1 T (X1−R1 (T2−T1))... Formula [9]
Here, when R12 = R2R1 T and T12 = R1 (T2-T1) are set, Equation [9] is
X2 = R12 (X1-T12) ............ Formula [10]
It is expressed.

従って、R1、R2、T1、及びT2を用いてR12及びT12を求めることで、撮像位置P1から新画像の撮像位置P2への移動におけるカメラ11の移動量が求まり、従って、新画像の撮像位置P2の特定を、撮像位置P1に基づいて行うことができる。   Therefore, by obtaining R12 and T12 using R1, R2, T1, and T2, the amount of movement of the camera 11 in the movement from the imaging position P1 to the imaging position P2 of the new image is obtained, and accordingly, the imaging position of the new image P2 can be specified based on the imaging position P1.

図6の位置特定装置は、以上のように動作する結果、自動車Vが移動を開始した直後においても、その周囲に存在する対象物Aについての位置特定及び距離計測を高精度に行うことができる。従って、自動車Vの始動直後から周囲にある物体情報を自動車Vのドライバへ提供することができ、ドライバの安心安全を実現できる。また、図6の位置特定装置は単眼カメラシステム系であるので、低コストで実現できる。
なお、前述した各実施例に係る位置特定装置の各機能ブロックを、コンピュータを用いて構成することもできる。
As a result of the operation as described above, the position specifying device of FIG. 6 can perform position specifying and distance measurement for the object A existing around the vehicle V with high accuracy even immediately after the automobile V starts moving. . Therefore, immediately after the start of the vehicle V, object information in the vicinity can be provided to the driver of the vehicle V, and the driver can be safe and secure. 6 is a monocular camera system system, and can be realized at low cost.
In addition, each functional block of the position specifying device according to each embodiment described above can be configured using a computer.

ここで図13について説明する。図13には、位置特定装置の各機能ブロックとして動作させることのできるコンピュータのハードウェア構成例が図解されている。
このコンピュータ30は、MPU31、ROM32、RAM33、入力装置34、表示装置35、インタフェース装置36、及び記録媒体駆動装置37を備えている。なお、これらの構成要素はバスライン38を介して接続されており、MPU31の管理の下で各種のデータを相互に授受することができる。
Here, FIG. 13 will be described. FIG. 13 illustrates a hardware configuration example of a computer that can be operated as each functional block of the position specifying device.
The computer 30 includes an MPU 31, a ROM 32, a RAM 33, an input device 34, a display device 35, an interface device 36, and a recording medium drive device 37. These components are connected via a bus line 38, and various data can be exchanged under the management of the MPU 31.

MPU(Micro Processing Unit)31は、このコンピュータ30全体の動作を制御する演算処理装置である。
ROM(Read Only Memory)32は、所定の制御プログラムや各種の定数値が予め記録されている読み出し専用半導体メモリである。MPU31は、この制御プログラムをコンピュータ30の起動時に読み出して実行することにより、このコンピュータ30の各構成要素の動作制御が可能となる。
An MPU (Micro Processing Unit) 31 is an arithmetic processing unit that controls the operation of the entire computer 30.
A ROM (Read Only Memory) 32 is a read-only semiconductor memory in which a predetermined control program and various constant values are recorded in advance. The MPU 31 can control the operation of each component of the computer 30 by reading and executing the control program when the computer 30 is started.

RAM(Random Access Memory)33は、MPU31が各種の制御プログラムを実行する際に、必要に応じて作業用記憶領域として使用する、随時書き込み読み出し可能な半導体メモリである。なお、このRAM33は、図1における記録部4や、図2における特徴点追跡結果格納メモリ16、あるいは図6における記録装置25及び距離記録装置29として機能する。   A RAM (Random Access Memory) 33 is a semiconductor memory that can be written and read at any time and used as a working storage area as necessary when the MPU 31 executes various control programs. The RAM 33 functions as the recording unit 4 in FIG. 1, the feature point tracking result storage memory 16 in FIG. 2, or the recording device 25 and the distance recording device 29 in FIG.

入力装置34は、例えばキーボード装置であり、コンピュータ30の使用者により操作されると、その操作内容に対応付けられている使用者からの各種情報の入力を取得し、取得した入力情報をMPU31に送付する。   The input device 34 is, for example, a keyboard device. When operated by a user of the computer 30, the input device 34 acquires input of various information from the user associated with the operation content, and inputs the acquired input information to the MPU 31. Send.

表示装置35は例えば液晶ディスプレイであり、MPU31から送付される表示データに応じて各種のテキストや画像を表示する。
インタフェース装置36は、このコンピュータ30に接続される各種機器との間での各種データの授受の管理を行う。より具体的には、インタフェース装置36は、カメラ11から送られてくる撮像画像信号のアナログ−デジタル変換や、アクチュエータ12を駆動させるための駆動信号の出力などを行う。
The display device 35 is a liquid crystal display, for example, and displays various texts and images according to display data sent from the MPU 31.
The interface device 36 manages the exchange of various data with various devices connected to the computer 30. More specifically, the interface device 36 performs analog-digital conversion of a captured image signal sent from the camera 11, outputs a drive signal for driving the actuator 12, and the like.

このような構成を有するコンピュータ30を、前述した各実施例に係る位置特定装置の各機能ブロックとして機能させることができる。例えば、図7及び図9から図12の各図を用いて説明した位置特定処理の各処理手順をMPU31に行わせるための制御プログラムを作成する。作成した制御プログラムはROM32に予め格納しておく。そして、MPU31に所定の実行開始指示を与えてこの制御プログラムを読み出させて実行させる。こうすることで、MPU31が、図6における特徴点抽出部22、特徴点追跡部23、位置特定部24、撮像装置位置特定部26、撮像位置選択部27、及び距離算出部28として機能するようになる。従って、コンピュータ30のインタフェース装置36に撮像装置21を接続することで、図6の位置特定装置を構成することができる。   The computer 30 having such a configuration can be caused to function as each functional block of the position specifying device according to each embodiment described above. For example, a control program for causing the MPU 31 to perform each processing procedure of the position specifying process described with reference to FIGS. 7 and 9 to 12 is created. The created control program is stored in the ROM 32 in advance. Then, a predetermined execution start instruction is given to the MPU 31, and this control program is read and executed. By doing so, the MPU 31 functions as the feature point extraction unit 22, the feature point tracking unit 23, the position specification unit 24, the imaging device position specification unit 26, the imaging position selection unit 27, and the distance calculation unit 28 in FIG. 6. become. Therefore, by connecting the imaging device 21 to the interface device 36 of the computer 30, the position specifying device of FIG. 6 can be configured.

なお、記録媒体駆動装置37は、可搬型記録媒体39に記録されている各種の制御プログラムやデータの読み出しを行う装置である。例えば、ROM32としてフラッシュメモリを使用し、MPU31が、可搬型記録媒体39に記録されている前述の制御プログラムを、記録媒体駆動装置38を介して読み出してROM32に格納するようにコンピュータ30を構成してもよい。この場合には、MPU31は、所定の実行開始指示を受けたには、MPU31がROM32に格納した制御プログラムを読み出して実行するようにする。   The recording medium driving device 37 is a device that reads various control programs and data recorded on the portable recording medium 39. For example, the flash memory is used as the ROM 32, and the computer 30 is configured so that the MPU 31 reads the above-described control program recorded on the portable recording medium 39 through the recording medium driving device 38 and stores it in the ROM 32. May be. In this case, when the MPU 31 receives a predetermined execution start instruction, the MPU 31 reads and executes the control program stored in the ROM 32.

なお、可搬型記録媒体39としては、例えば、CD−ROM(Compact Disc Read Only Memory)、DVD−ROM(Digital Versatile Disc Read Only Memory)などの非一時的(non-transitory)な記録媒体が利用可能である。また、可搬型記録媒体39として、例えばUSB(Universal Serial Bus)規格のコネクタが備えられている半導体メモリも利用可能である。   As the portable recording medium 39, for example, a non-transitory recording medium such as a CD-ROM (Compact Disc Read Only Memory) and a DVD-ROM (Digital Versatile Disc Read Only Memory) can be used. It is. As the portable recording medium 39, for example, a semiconductor memory provided with a USB (Universal Serial Bus) standard connector can also be used.

また、端末装置と、当該端末装置との間で各種データの授受を行うことのできるサーバ装置とからなるコンピュータシステムにより、前述した各実施例に係る位置特定装置を構成してもよい。例えば、このコンピュータシステムで図6の位置特定装置を構成する場合には、自動車Vに設置される端末装置に、撮像装置21と、サーバ装置との通信用の通信装置と、対象物Aについての位置特定及び距離算出の結果をドライバに提供する表示装置とを備える。一方、サーバ装置には、例えば図13のコンピュータ30の構成を備える。但し、インタフェース装置36には、端末装置の通信装置との間でのデータ通信を管理する通信装置を備える。そして、端末装置は、撮像装置21で順次撮像される自動車V周囲の撮像画像をサーバ装置に送付する。一方、サーバ装置では、端末装置から受け取った撮像画像に基づき、対象物Aについての位置特定及び距離算出を前述したようにして行い、その結果を端末装置に送付して表示装置に表示させる。このようにして、図6の位置特定装置を上述のコンピュータシステムにより構成してもよい。   In addition, the position specifying device according to each of the above-described embodiments may be configured by a computer system including a terminal device and a server device that can exchange various data between the terminal device. For example, when the position specifying device of FIG. 6 is configured with this computer system, the terminal device installed in the automobile V is connected to the imaging device 21, the communication device for communication with the server device, and the object A. A display device that provides the driver with the results of position specification and distance calculation. On the other hand, the server device includes the configuration of the computer 30 in FIG. 13, for example. However, the interface device 36 includes a communication device that manages data communication with the communication device of the terminal device. And a terminal device sends the picked-up image around the motor vehicle V sequentially imaged with the imaging device 21 to a server apparatus. On the other hand, the server device performs position specification and distance calculation for the object A as described above based on the captured image received from the terminal device, and sends the result to the terminal device to be displayed on the display device. In this manner, the position specifying device of FIG. 6 may be configured by the above-described computer system.

1 撮像位置特定部
2 対象物位置特定部
3 選択部
4 記録部
5 判定部
6 撮像装置
7、18、28 距離算出部
11 カメラ
12 アクチュエータ
13 アクチュエータ制御部
14 画像取得部
15 画像処理部
15a、22 特徴点抽出部
15b、23 特徴点追跡部
16 特徴点追跡結果格納メモリ
17、24 位置特定部
17a 第一位置特定部
17b 第二位置特定部
17c 第三位置特定部
19 ドアミラー
21 撮像装置
25 記録装置
26 撮像装置位置特定部
27 撮像装置位置選択部
29 距離記録装置
30 コンピュータ
31 MPU
32 ROM
33 RAM
34 入力装置
35 表示装置
36 インタフェース装置
37 記録媒体駆動装置
38 バスライン
39 可搬型記録媒体
DESCRIPTION OF SYMBOLS 1 Image pick-up position specific | specification part 2 Object position specific | specification part 3 Selection part 4 Recording part 5 Judgment part 6 Imaging device 7, 18, 28 Distance calculation part 11 Camera 12 Actuator 13 Actuator control part 14 Image acquisition part 15 Image processing part 15a, 22 Feature point extraction unit 15b, 23 Feature point tracking unit 16 Feature point tracking result storage memory 17, 24 Position specifying unit 17a First position specifying unit 17b Second position specifying unit 17c Third position specifying unit 19 Door mirror 21 Imaging device 25 Recording device 26 imaging device position specifying unit 27 imaging device position selecting unit 29 distance recording device 30 computer 31 MPU
32 ROM
33 RAM
34 Input Device 35 Display Device 36 Interface Device 37 Recording Medium Drive Device 38 Bus Line 39 Portable Recording Medium

Claims (11)

位置情報が既知である基準位置の該位置情報と、該基準位置で対象物を撮像して得た基準位置画像と、任意の撮像位置で該対象物を撮像して得た撮像位置画像とに基づいて、該撮像位置の位置情報の特定を行う撮像位置特定部、及び
前記撮像位置特定部で位置情報が特定された撮像位置からの距離が前記基準位置よりも大きい地点に位置しており位置情報が既知である既知位置の位置情報と、該既知位置で前記対象物を撮像して得た既知位置画像と、該撮像位置の位置情報と、該撮像位置で該対象物を撮像して得た撮像位置画像とに基づいて、該対象物の位置情報の特定を行う対象物位置特定部、
を備えることを特徴とする位置特定装置。
The position information of the reference position where the position information is known, the reference position image obtained by imaging the object at the reference position, and the imaging position image obtained by imaging the object at an arbitrary imaging position. An image pickup position specifying unit that specifies position information of the image pickup position based on the image pickup position, and a position where the distance from the image pickup position whose position information is specified by the image pickup position specifying unit is larger than the reference position Position information of a known position where information is known, a known position image obtained by imaging the object at the known position, position information of the imaging position, and imaging the object at the imaging position An object position specifying unit for specifying the position information of the object based on the captured position image;
A position specifying device comprising:
前記既知位置が複数存在する場合に、該複数の既知位置のうちから、前記対象物位置特定部による前記対象物の位置特定の基礎として用いるときの適性を表している所定の条件に合致するものを、選択既知位置として選択する選択部を更に備え、
前記対象物位置特定部は、前記選択部が選択した前記選択既知位置の位置情報と、該選択既知位置で前記対象物を撮像して得た選択既知位置画像と、前記撮像位置の位置情報と、前記撮像位置画像とに基づいて、該対象物の位置情報の特定を行う、
ことを特徴とする請求項1に記載の位置特定装置。
When there are a plurality of known positions, one of the plurality of known positions that meets a predetermined condition indicating suitability for use as a basis for position identification of the object by the object position identifying unit Is further selected as a selection known position,
The object position specifying unit includes position information of the selected known position selected by the selection unit, a selected known position image obtained by imaging the object at the selected known position, and position information of the imaging position. Identifying the position information of the object based on the imaging position image,
The position specifying device according to claim 1.
前記選択部は、前記複数の既知位置のうちで、前記撮像位置特定部が位置情報を特定した撮像位置からの距離が大きい順に所定数個を、前記選択既知位置として選択することを特徴とする請求項2に記載の位置特定装置。   The selection unit selects, as the selected known positions, a predetermined number of the plurality of known positions in descending order from the imaging position where the imaging position specifying unit specifies the position information. The position specifying device according to claim 2. 過去に行われた前記対象物の位置情報の特定結果の履歴が記録されている記録部を更に備え、
前記選択部は、前記複数の既知位置のうちで、前記撮像位置特定部が位置情報を特定した撮像位置を結ぶ線分の垂直二等分線からの、前記記録部に記録されている過去の位置情報の特定結果に係る前記対象物の位置までの距離が短くなる順序に所定数個を、前記選択既知位置として選択する、
ことを特徴とする請求項2に記載の位置特定装置。
A recording unit in which a history of the result of specifying the position information of the object performed in the past is recorded;
The selection unit includes a plurality of known positions, the past recorded in the recording unit from a perpendicular bisector connecting the imaging positions where the imaging position specifying unit specified the position information. Selecting a predetermined number of the selected known positions in the order in which the distance to the position of the object according to the identification result of the position information becomes shorter,
The position specifying device according to claim 2.
前記選択部が前記選択既知位置を複数個選択した場合には、前記対象物位置特定部は、前記対象物についての位置情報の特定を、該選択部が選択した複数個の選択既知位置の各々についてまず行い、該特定により得られる複数の位置情報で示される複数の位置の重心を求め、該重心の位置情報を該対象物の位置情報の特定結果とすることを特徴とする請求項2から4のうちのいずれか一項に記載の位置特定装置。   When the selection unit selects a plurality of the selected known positions, the object position specifying unit specifies the position information about the object, and selects each of the plurality of selected known positions selected by the selection unit. The center of gravity of a plurality of positions indicated by the plurality of position information obtained by the identification is obtained, and the position information of the center of gravity is used as the identification result of the position information of the object. The position specifying device according to any one of 4. 前記選択部が前記選択既知位置を複数個選択した場合には、前記対象物位置特定部は、前記対象物についての位置情報の特定を、該選択部が選択した複数個の選択既知位置の各々についてまず行い、該特定により得られる複数の位置情報で示される複数の位置の各々に対して、該位置情報の特定に用いた選択既知位置を前記選択部が選択したときの選択順序に応じた重み付けを与え、該重み付けが各々与えられた該複数の位置の重み付け重心を求め、該重み付け重心の位置情報を該対象物の位置情報の特定結果とすることを特徴とする請求項3又は4に記載の位置特定装置。   When the selection unit selects a plurality of the selected known positions, the object position specifying unit specifies the position information about the object, and selects each of the plurality of selected known positions selected by the selection unit. First, and for each of a plurality of positions indicated by the plurality of position information obtained by the identification, according to the selection order when the selection unit selects the selected known position used for identifying the position information. 5. The weighted centroid of each of the plurality of positions to which the weight is given is obtained, and the position information of the weighted centroid is used as the identification result of the position information of the object. The positioning device described. 前記基準位置と前記撮像位置特定部が特定した撮像位置との間の距離である基線距離と所定の距離閾値との長短を判定する判定部を更に備え、
前記対象物位置特定部は、
前記基線距離が前記距離閾値よりも短いと前記判定部が判定したときには、前記選択部が選択した選択既知位置の位置情報と、該選択既知位置で前記対象物を撮像して得た選択既知位置画像と、前記撮像位置特定部が特定した撮像位置の位置情報と、該撮像位置で該対象物を撮像して得た撮像位置画像とに基づいて、該対象物の位置情報を特定し、
前記基線距離が前記距離閾値よりも長いと前記判定部が判定したときには、前記基準位置の位置情報と、前記基準位置画像と、前記撮像位置特定部が特定した撮像位置の位置情報と、該撮像位置で前記対象物を撮像して得た撮像位置画像とに基づいて、該対象物の位置情報を特定する、
ことを特徴とする請求項2から6のうちのいずれか一項に記載の位置特定装置。
A determination unit that determines a length of a baseline distance that is a distance between the reference position and the imaging position specified by the imaging position specifying unit and a predetermined distance threshold;
The object position specifying unit includes:
When the determination unit determines that the baseline distance is shorter than the distance threshold, the position information of the selected known position selected by the selection unit and the selected known position obtained by imaging the object at the selected known position Based on the image, the position information of the imaging position specified by the imaging position specifying unit, and the imaging position image obtained by imaging the object at the imaging position, the position information of the object is specified,
When the determination unit determines that the baseline distance is longer than the distance threshold, the position information of the reference position, the reference position image, the position information of the imaging position specified by the imaging position specifying unit, and the imaging Based on the imaging position image obtained by imaging the object at a position, the position information of the object is specified.
The position specifying device according to claim 2, wherein the position specifying device is a device.
移動体に設置されており、前記基準位置画像、前記撮像位置画像、及び前記既知位置画像の全ての撮像を行う単一の撮像装置を更に備えることを特徴とする請求項1から7のうちのいずれか一項に記載の位置特定装置。   8. The apparatus according to claim 1, further comprising a single imaging device that is installed in a moving body and that performs imaging of all of the reference position image, the imaging position image, and the known position image. The position specifying device according to any one of the above. 前記撮像装置から前記対象物までの距離を、前記対象物位置特定部が特定した前記対象物の位置情報と、前記撮像位置特定部が特定した撮像位置の位置情報とに基づいて算出する距離算出部を更に備えることを特徴とする請求項8に記載の位置特定装置。   Distance calculation for calculating the distance from the imaging device to the object based on the position information of the object specified by the object position specifying unit and the position information of the image pickup position specified by the imaging position specifying unit The position specifying device according to claim 8, further comprising a unit. 位置情報が既知である基準位置の該位置情報と、該基準位置で対象物を撮像して得た基準位置画像と、任意の撮像位置で該対象物を撮像して得た撮像位置画像とに基づいた、該撮像位置の位置情報の特定を撮像位置特定部が行い、
前記撮像位置特定部が位置情報を特定した撮像位置からの距離が前記基準位置よりも遠くに位置しており位置情報が既知である既知位置の位置情報と、該既知位置で前記対象物を撮像して得た既知位置画像と、該撮像位置の位置情報と、該撮像位置で該対象物を撮像して得た撮像位置画像とに基づいた、該対象物の位置情報の特定を対象物位置特定部が行う、
ことを特徴とする位置特定方法。
The position information of the reference position where the position information is known, the reference position image obtained by imaging the object at the reference position, and the imaging position image obtained by imaging the object at an arbitrary imaging position. Based on this, the imaging position specifying unit specifies the position information of the imaging position,
The position information of the known position where the distance from the imaging position where the imaging position specifying unit specified the position information is farther than the reference position and the position information is known, and the object is imaged at the known position The position information of the object is specified based on the known position image obtained in this way, the position information of the imaging position, and the imaging position image obtained by imaging the object at the imaging position. The specific department performs,
A position specifying method characterized by the above.
位置情報が既知である基準位置の該位置情報と、該基準位置で対象物を撮像して得た基準位置画像と、任意の撮像位置で該対象物を撮像して得た撮像位置画像とに基づいて、該撮像位置の位置情報の特定を行い、
前記撮像位置の位置情報の特定によって位置情報が特定された撮像位置からの距離が前記基準位置よりも遠くに位置しており位置情報が既知である既知位置の位置情報と、該既知位置で前記対象物を撮像して得た既知位置画像と、該撮像位置の位置情報と、該撮像位置で該対象物を撮像して得た撮像位置画像とに基づいて、該対象物の位置情報の特定を行う、
処理をコンピュータに実行させるプログラム。
The position information of the reference position where the position information is known, the reference position image obtained by imaging the object at the reference position, and the imaging position image obtained by imaging the object at an arbitrary imaging position. Based on the position information of the imaging position based on,
The position information of the known position where the distance from the imaging position where the position information is specified by specifying the position information of the imaging position is farther than the reference position and the position information is known; and Identification of position information of the object based on a known position image obtained by imaging the object, position information of the imaging position, and an imaging position image obtained by imaging the object at the imaging position I do,
A program that causes a computer to execute processing.
JP2010275221A 2010-12-10 2010-12-10 Position specifying device, position specifying method, and program Expired - Fee Related JP5516376B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010275221A JP5516376B2 (en) 2010-12-10 2010-12-10 Position specifying device, position specifying method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010275221A JP5516376B2 (en) 2010-12-10 2010-12-10 Position specifying device, position specifying method, and program

Publications (2)

Publication Number Publication Date
JP2012122911A true JP2012122911A (en) 2012-06-28
JP5516376B2 JP5516376B2 (en) 2014-06-11

Family

ID=46504487

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010275221A Expired - Fee Related JP5516376B2 (en) 2010-12-10 2010-12-10 Position specifying device, position specifying method, and program

Country Status (1)

Country Link
JP (1) JP5516376B2 (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014002725A1 (en) * 2012-06-29 2014-01-03 富士フイルム株式会社 3d measurement method, device, and system, and image processing device
WO2014002849A1 (en) * 2012-06-29 2014-01-03 富士フイルム株式会社 Three-dimensional measurement method, apparatus, and system, and image processing device
JP2015074318A (en) * 2013-10-08 2015-04-20 株式会社東海理化電機製作所 Three-dimensional object confirmation device and three-dimensional object confirmation program
JP2016142612A (en) * 2015-02-02 2016-08-08 日立オートモティブシステムズ株式会社 Vehicle controller, distance calculation device and distance calculation method
WO2019021354A1 (en) * 2017-07-24 2019-01-31 富士通株式会社 Vehicle parking assistance device, vehicle parking assistance program
GB2608496B (en) * 2021-05-07 2024-04-24 Canon Kk Image processing apparatus and method, and image capturing apparatus and control method thereof, program, and storage medium

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014002725A1 (en) * 2012-06-29 2014-01-03 富士フイルム株式会社 3d measurement method, device, and system, and image processing device
WO2014002849A1 (en) * 2012-06-29 2014-01-03 富士フイルム株式会社 Three-dimensional measurement method, apparatus, and system, and image processing device
CN104428624A (en) * 2012-06-29 2015-03-18 富士胶片株式会社 Three-dimensional measurement method, apparatus, and system, and image processing device
JP5715735B2 (en) * 2012-06-29 2015-05-13 富士フイルム株式会社 Three-dimensional measurement method, apparatus and system, and image processing apparatus
US9369695B2 (en) 2012-06-29 2016-06-14 Fujifilm Corporation Method and apparatus for three-dimensional measurement and image processing device
JP2015074318A (en) * 2013-10-08 2015-04-20 株式会社東海理化電機製作所 Three-dimensional object confirmation device and three-dimensional object confirmation program
JP2016142612A (en) * 2015-02-02 2016-08-08 日立オートモティブシステムズ株式会社 Vehicle controller, distance calculation device and distance calculation method
WO2016125586A1 (en) * 2015-02-02 2016-08-11 日立オートモティブシステムズ株式会社 Vehicle control device, distance calculation device, and distance calculation method
CN107209012A (en) * 2015-02-02 2017-09-26 日立汽车系统株式会社 Controller of vehicle, apart from computing device and distance calculating method
WO2019021354A1 (en) * 2017-07-24 2019-01-31 富士通株式会社 Vehicle parking assistance device, vehicle parking assistance program
JPWO2019021354A1 (en) * 2017-07-24 2020-08-20 富士通株式会社 Vehicle parking assistance device, vehicle parking assistance program
US11378974B2 (en) 2017-07-24 2022-07-05 Fujitsu Limited Information processing device and recording medium recording vehicle parking support program
GB2608496B (en) * 2021-05-07 2024-04-24 Canon Kk Image processing apparatus and method, and image capturing apparatus and control method thereof, program, and storage medium

Also Published As

Publication number Publication date
JP5516376B2 (en) 2014-06-11

Similar Documents

Publication Publication Date Title
JP5516376B2 (en) Position specifying device, position specifying method, and program
EP3583380B1 (en) Shape estimating apparatus
CN108955718B (en) Visual odometer and positioning method thereof, robot and storage medium
JP6197388B2 (en) Distance measuring device, distance measuring method, and program
KR20180044279A (en) System and method for depth map sampling
CN107687841A (en) A kind of distance-finding method and device
KR20090088516A (en) Method for self-localization of a robot based on object recognition and environment information around the recognized object
CN106875436B (en) It is a kind of based on feature dot density by the method and apparatus of focusing storehouse estimating depth
JP6712775B2 (en) Road surface estimation device, vehicle control device, road surface estimation method, and program
KR20150144726A (en) Apparatus for recognizing location mobile robot using search based correlative matching and method thereof
CN108932363B (en) Shape recognition device, shape recognition method, and computer-readable medium
WO2013035612A1 (en) Obstacle sensing device, obstacle sensing method, and obstacle sensing program
CN103890811A (en) Measurement-target-selecting device, face-shape-estimating device, method for selecting measurement target, and method for estimating face shape
JP2021177144A (en) Information processing apparatus, information processing method, and program
CN116664394B (en) Three-dimensional human eye image generation method and device, electronic equipment and storage medium
CN112329645A (en) Image detection method, image detection device, electronic equipment and storage medium
CN114612786A (en) Obstacle detection method, mobile robot and machine-readable storage medium
JP2018195070A (en) Information processing apparatus, information processing method, and program
JP2020118575A (en) Inter-vehicle distance measurement device, error model generation device, learning model generation device, and method and program thereof
JP6982865B2 (en) Moving image distance calculation device and moving image distance calculation program
CN116160458B (en) Multi-sensor fusion rapid positioning method, equipment and system for mobile robot
KR20170020629A (en) Apparatus for registration of cloud points
CN111724432A (en) Object three-dimensional detection method and device
CN113362370B (en) Method, device, medium and terminal for determining motion information of target object
JP5499895B2 (en) Position specifying device, position specifying method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130904

TRDD Decision of grant or rejection written
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140228

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140304

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140317

R150 Certificate of patent or registration of utility model

Ref document number: 5516376

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees