WO2006109394A1 - 3-dimensional shape detection device and 3-dimensional shape detection method - Google Patents

3-dimensional shape detection device and 3-dimensional shape detection method Download PDF

Info

Publication number
WO2006109394A1
WO2006109394A1 PCT/JP2006/305105 JP2006305105W WO2006109394A1 WO 2006109394 A1 WO2006109394 A1 WO 2006109394A1 JP 2006305105 W JP2006305105 W JP 2006305105W WO 2006109394 A1 WO2006109394 A1 WO 2006109394A1
Authority
WO
WIPO (PCT)
Prior art keywords
dimensional shape
shape detection
edge
target object
camera
Prior art date
Application number
PCT/JP2006/305105
Other languages
French (fr)
Japanese (ja)
Inventor
Xiaolin Zhang
Takuro Kawai
Makoto Sato
Tsuyoshi Kobayashi
Original Assignee
Xiaolin Zhang
Takuro Kawai
Makoto Sato
Tsuyoshi Kobayashi
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Xiaolin Zhang, Takuro Kawai, Makoto Sato, Tsuyoshi Kobayashi filed Critical Xiaolin Zhang
Priority to CN2006800071015A priority Critical patent/CN101133299B/en
Publication of WO2006109394A1 publication Critical patent/WO2006109394A1/en

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/564Depth or shape recovery from multiple images from contours

Definitions

  • the present invention relates to an apparatus and method for detecting a three-dimensional shape, and in particular, generates an edge image having distance information by minutely moving the optical axis of a camera and uses this to associate reference points.
  • a solid shape detection apparatus and a solid shape detection method for detecting a solid shape are used to associate reference points.
  • the three-dimensional shape detection apparatus and the three-dimensional shape detection method of the present invention include an ET having distance information. Therefore, there is an advantage that the corresponding edge can be easily detected by focusing only on the edge width and length of the edge image. In addition, since it can be easily detected, there is an advantage that real-time processing with a short processing time is possible.
  • FIG. 1 is a schematic diagram for explaining details of a camera unit used in the three-dimensional shape detection apparatus of the present invention.
  • the camera unit 10 also has a force with the lens 1 and the image sensor 2.
  • the lens may be a short focus lens or a zoom lens, and the angle of view may be wide or narrow. These may be variously changed or selected depending on the purpose of use of the three-dimensional shape detection apparatus, the distance to the target object, and the like.
  • the image sensor 2 is a photoelectric conversion element such as a CCD or CMOS, and converts an image formed on the image sensor by a lens into an electric signal. Then, the image processing unit 3 connected to the image sensor 2 generates an image using the electric signal from the image sensor.
  • the edge corresponding to the edge Rb of the left edge image is selected from the right edge image column.
  • an edge having the same edge width and length as the edge width and length of the edge Rb is detected from the right edge image.
  • an edge Lb having the same width and the same length is detected. Therefore, it is possible to associate the left and right edge images with the upper left vertex of these edges Rb and Lb as a reference point.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Studio Devices (AREA)

Abstract

There are provided a 3-dimensional shape detection device and a 3-dimensional shape detection method capable of performing real time processing by accurately corresponding a reference point in an edge image with a simple process. An object (20) is imaged from at least two predetermined imaging positions by a camera unit (10) so as to detect the 3-dimensional shape of the object (20). The camera unit (10) has a lens (1) and an imaging element (2). A visual axis micro-motion device (4) micro- moves the optical axis of the camera unit (10) in the direction connecting the imaging positions. A plurality of images captured here are subjected to an image processing such as edge emphasis by an image processing unit (3) so as to generate an edge image in which the edge of the object (20) is extracted. The edge images from the two imaging positions are compared to detect the corresponding edge of the object (20).

Description

明 細 書  Specification
立体形状検出装置及び立体形状検出方法  Three-dimensional shape detection apparatus and three-dimensional shape detection method
技術分野  Technical field
[0001] 本発明は立体形状を検出する装置及び方法に関し、特に、カメラの光軸を微小に 移動させることにより距離情報を有するエッジ画像を生成し、これを用いて基準点の 対応付けを行!ヽ、立体形状を検出する立体形状検出装置及び立体形状検出方法 に関する。  TECHNICAL FIELD [0001] The present invention relates to an apparatus and method for detecting a three-dimensional shape, and in particular, generates an edge image having distance information by minutely moving the optical axis of a camera and uses this to associate reference points.ヽ, a solid shape detection apparatus and a solid shape detection method for detecting a solid shape.
背景技術  Background art
[0002] 従来から、視差を用いて 2つの画像による立体の形状を検出する方法が種々開発 されている。これらは、通常、三角測量の原理を用いて、既知の 2ケ所の位置に配置 された 2つのカメラによって対象物体を撮影し、対象物体の基準点 (対応点)を決定し 、各カメラにて撮影された対象物体の基準点を合わせ、他の部分の視差を求めること で、カメラ力 対象物体の各エッジまでの距離を検出することが可能なものである。  Conventionally, various methods for detecting the shape of a solid from two images using parallax have been developed. Usually, using the principle of triangulation, the target object is photographed by two cameras placed at two known positions, the reference point (corresponding point) of the target object is determined, and each camera By aligning the reference point of the captured target object and obtaining the parallax of other parts, the camera power can detect the distance to each edge of the target object.
[0003] ここで、視差を求めるためには、各カメラで撮影された対象物体の画像から、対象 物体の同じ位置を示す基準点を決定する必要がある。基準点が対象物体の異なる 位置に設定されてしまうと、立体形状を誤認してしまい正しい形状が検出できなくな つてしまうため、これは非常に重要な問題であり、この問題に対する解法も種々提案 されている。例えば、あるエッジの各画素に対する他のエッジの各画素間の X軸方向 の位置の相対差が視差に対応するものと考え、 2つのエッジ画像のエッジが対象物 体の同じ線上のエッジに対応するのであれば、エッジ上の画素の視差は y軸方向の どの位置でもほぼ均しくなるという原理を用いるものがある。  Here, in order to obtain the parallax, it is necessary to determine a reference point indicating the same position of the target object from the image of the target object photographed by each camera. If the reference point is set at a different position on the target object, the 3D shape will be mistaken and the correct shape will not be detected. This is a very important issue, and various solutions to this problem are also proposed. Has been. For example, the relative difference in position in the X-axis direction between each pixel on another edge relative to each pixel on one edge corresponds to the parallax, and the edges of the two edge images correspond to edges on the same line of the target object If so, there is a technique that uses the principle that the parallax of pixels on the edge is almost uniform at any position in the y-axis direction.
[0004] さらに、特許文献 1に記載のように、 2つのエッジ画像のエッジを構成する各画素に 対して相対差を求め、さらに各画素に関する濃度の部分情報に基づ 、て重み付けを 行うことで、より正確に対応する基準点を決定しょうとしたものもある。  [0004] Further, as described in Patent Document 1, a relative difference is obtained for each pixel constituting the edge of two edge images, and weighting is performed based on partial information on density regarding each pixel. Some have tried to determine the corresponding reference point more accurately.
特許文献 1 :特開平 6— 180218号公報  Patent Document 1: JP-A-6-180218
発明の開示  Disclosure of the invention
発明が解決しょうとする課題 [0005] し力しながら、従来の方法では対応する基準点を正確に求められたとしても、それ には非常に多くの計算が必要となり、処理時間が力かるものであった。したがって、 2 つのカメラを用いて動く対象物体を撮影してリアルタイムで立体形状を検出するような ことは、処理時間の関係から難し力つた。 Problems to be solved by the invention [0005] However, even if the corresponding reference point is accurately obtained in the conventional method, a large amount of calculation is required for this, and the processing time is increased. Therefore, it was difficult to detect the three-dimensional shape in real time by photographing the moving object using two cameras because of the processing time.
[0006] 本発明は、斯かる実情に鑑み、エッジ画像における基準点の対応付けを簡単な処 理で正確に行うことでリアルタイム処理も可能な立体形状検出装置及び立体形状検 出方法を提供しょうとするものである。  In view of such circumstances, the present invention is to provide a three-dimensional shape detection apparatus and a three-dimensional shape detection method capable of performing real-time processing by accurately associating reference points in an edge image with simple processing. It is what.
課題を解決するための手段  Means for solving the problem
[0007] 上述した本発明の目的を達成するために、本発明による立体形状検出装置は、対 象物体への視線が異なる少なくとも 2つの所定の撮影位置から対象物体を撮影する ための、撮像素子とレンズとを有する少なくとも 1つのカメラ手段と、前記少なくとも 2 つの所定の撮影位置間を結ぶ方向に前記カメラ手段の光軸を微小に移動させる視 軸微動手段と、前記視軸微動手段により光軸が微小に移動させられるカメラ手段か らの複数枚の画像を画像処理することで、前記少なくとも 2つの所定の撮影位置にお ける対象物体のエッジが抽出されたエッジ画像をそれぞれ生成し、前記それぞれの エッジ画像を比較して対象物体の対応するエッジを検出する画像処理手段と、を具 備するものである。 In order to achieve the object of the present invention described above, a three-dimensional shape detection apparatus according to the present invention is an image sensor for photographing a target object from at least two predetermined photographing positions having different lines of sight to the target object. And at least one camera means having a lens, visual axis fine movement means for minutely moving the optical axis of the camera means in a direction connecting the at least two predetermined photographing positions, and an optical axis by the visual axis fine movement means Image processing is performed on a plurality of images from the camera means that are moved slightly, thereby generating edge images in which the edges of the target object at the at least two predetermined shooting positions are extracted, respectively, And an image processing means for detecting a corresponding edge of the target object by comparing the edge images.
[0008] ここで、所定の撮影位置は、水平方向、垂直方向、斜め方向の少なくとも 1つの方 向又はこれらの複数の方向に沿って配置されれば良 、。  Here, the predetermined photographing position may be arranged along at least one direction in the horizontal direction, the vertical direction, the oblique direction, or a plurality of these directions.
[0009] さらに、カメラ手段を所定の撮影位置に移動可能な、移動手段を有しても良い。 [0009] Further, it may have moving means that can move the camera means to a predetermined photographing position.
[0010] また、カメラ手段が少なくとも 2つのカメラ力もなり、各カメラが所定の撮影位置に予 め配置されたものであっても良い。 [0010] Further, the camera means may have at least two camera forces, and each camera may be arranged in advance at a predetermined shooting position.
[0011] そして、少なくとも 2つのカメラ手段はそれぞれ同期が取られ、同じ微小な移動で同 時に撮影するようにしても良 、。 [0011] The at least two camera means may be synchronized with each other, and may be simultaneously photographed with the same minute movement.
[0012] また、視軸微動手段は、前記レンズを微小に移動させるか、カメラ手段を微小に移 動させるようにすれば良い。 [0012] Further, the visual axis fine movement means may move the lens minutely or move the camera means minutely.
[0013] また、視軸微動手段は、圧電素子、超磁歪素子、静電ァクチユエータ、油圧ァクチ ユエータ、空圧ァクチユエータ、電磁石、光ァクチユエータ、形状記憶合金、高分子 ァクチユエータの何れ力から構成されれば良 、。 In addition, the visual axis fine movement means includes a piezoelectric element, a giant magnetostrictive element, an electrostatic actuator, a hydraulic actuator, a pneumatic actuator, an electromagnet, an optical actuator, a shape memory alloy, and a polymer. It should be composed of any power of the actuator.
[0014] ここで、視軸微動手段による微小移動は、前記カメラ手段の光軸の法線方向への 並進運動であれば良い。  Here, the minute movement by the visual axis fine movement means may be a translational movement in the normal direction of the optical axis of the camera means.
[0015] また、視軸微動手段による微小移動は、所定の点を中心とする回転運動であっても 良い。そのときの回転運動の回転角度は、無限遠に近い対象物体の撮像素子上で の移動幅が、 0〜3画素の幅となるような角度であれば良い。  [0015] Further, the fine movement by the visual axis fine movement means may be a rotational movement around a predetermined point. The rotational angle of the rotational motion at that time may be an angle such that the movement width of the target object close to infinity on the image sensor is 0 to 3 pixels.
[0016] さらに、本発明による立体形状検出方法は、対象物体への視線が異なる少なくとも 2つの所定の撮影位置から、撮像素子とレンズとを有する少なくとも 1つのカメラ手段 で対象物体を撮影する過程と、前記撮影する過程の間に、前記少なくとも 2つの所定 の撮影位置間を結ぶ方向に前記カメラ手段の光軸を微小に移動させる過程と、前記 光軸が微小に移動させられるカメラ手段からの複数枚の画像を画像処理することで、 前記少なくとも 2つの所定の撮影位置における対象物体のエッジが抽出されたエッジ 画像をそれぞれ生成する過程と、前記それぞれのエッジ画像を比較して対象物体の 対応するエッジを検出する過程と、を具備するものである。  [0016] Further, the three-dimensional shape detection method according to the present invention includes a process of photographing a target object with at least one camera means having an imaging element and a lens from at least two predetermined photographing positions having different lines of sight to the target object. A step of minutely moving the optical axis of the camera means in a direction connecting the at least two predetermined photographing positions during the photographing step, and a plurality of from the camera means in which the optical axis is minutely moved. The image processing is performed on each of the images to generate an edge image in which the edge of the target object is extracted at the at least two predetermined shooting positions, and the corresponding edge object is compared with each other to correspond to the target object. And a process of detecting an edge.
[0017] ここで、エッジ画像を生成する過程は、前記複数枚の画像の各対応画素の濃淡値 、又は彩度値を差分処理し、正規ィヒを行っても良い。さらに、 2値化処理を加えても 構わない。  [0017] Here, in the process of generating the edge image, normal density may be performed by differentially processing the grayscale value or the saturation value of each corresponding pixel of the plurality of images. Furthermore, binarization processing may be added.
[0018] また、対応するエッジを検出する過程は、前記エッジ画像の前記エッジの幅及び長 さを基準に、前記少なくとも 2つの所定の撮影位置におけるエッジ画像のエッジを対 応付ければ良い。  [0018] Further, in the process of detecting the corresponding edge, the edge of the edge image at the at least two predetermined photographing positions may be associated with each other based on the width and length of the edge of the edge image.
[0019] さらに、対応するエッジを検出する過程は、パターンマッチング法により行っても構 わない。  Further, the process of detecting the corresponding edge may be performed by a pattern matching method.
[0020] そして、対応するエッジを検出する過程は、さらに対象物体への視線の方向も基準 にしても良い。この場合、生成されたエッジ画像のエッジを、対象物体への視線の方 向を基準に所定の基準幅に変換した後、それぞれのエッジ画像を比較するようにし ても良い。  [0020] The process of detecting the corresponding edge may be based on the direction of the line of sight to the target object. In this case, the edges of the generated edge image may be converted into a predetermined reference width based on the direction of the line of sight to the target object, and the edge images may be compared.
発明の効果  The invention's effect
[0021] 本発明の立体形状検出装置及び立体形状検出方法には、距離情報を有するエツ ジ画像が生成されるので、エッジ画像のエッジの幅と長さのみに着目して対応するェ ッジを容易に検出可能であるという利点がある。また、容易に検出可能であるため処 理時間も短ぐリアルタイム処理も可能であるという利点がある。 [0021] The three-dimensional shape detection apparatus and the three-dimensional shape detection method of the present invention include an ET having distance information. Therefore, there is an advantage that the corresponding edge can be easily detected by focusing only on the edge width and length of the edge image. In addition, since it can be easily detected, there is an advantage that real-time processing with a short processing time is possible.
発明を実施するための最良の形態  BEST MODE FOR CARRYING OUT THE INVENTION
[0022] 人間の眼球は、非常に小さな高周波の振動であるトレモア (tremor)や小さななめ らかな動きであるドリフト(drift)、そして直線的な運動であるマイクロサッカード (micr osaccade)というような微小振動を絶えず無意識で行っている。このような微小振動 が視覚認識にぉ ヽてどのような影響を与えて!/ヽるかにつ!ヽては、生理学と工学の両 面力も数多くの研究が行われており、視覚対象の奥行きを検出するための動きと考 えられている。このような人間の眼球の動きの中で、特にマイクロサッカードの動きに 注目し、マイクロサッカードと同じような動きを用いて立体形状の検出を精度良く高速 にできる装置及び方法を開発した。  [0022] The human eyeball is like tremor, which is a very small high-frequency vibration, drift, which is a small smooth movement, and a micro saccade, which is a linear movement. Microvibration is constantly performed unconsciously. The effects of such micro-vibrations on visual recognition! / ?! As a result, a lot of research has been conducted on both physiological and engineering forces. It is considered as a movement for detecting depth. Of these human eyeball movements, we focused on the movement of the microsaccade, and developed a device and method that can detect three-dimensional shapes with high accuracy and speed using the same movement as the microsaccade.
[0023] 以下、本発明を実施するための最良の形態を図示例と共に説明する。図 1は、本発 明の立体形状検出装置で用いるカメラ部の詳細を説明するための概略図である。図 示のように、カメラ部 10はレンズ 1と撮像素子 2と力もなる。レンズは短焦点レンズであ つてもズームレンズであっても構わず、また、その画角は広角であっても狭角であつ ても構わない。これらは立体形状検出装置の使用目的、対象物体までの距離等で種 々変更又は選択等すれば良いものである。撮像素子 2は、 CCDや CMOS等の光電 変換素子であり、レンズによって撮像素子に結像された像を電気信号に変換するも のである。そして、撮像素子 2に接続された画像処理部 3により、撮像素子からの電 気信号を用いて映像を生成する。  Hereinafter, the best mode for carrying out the present invention will be described with reference to the drawings. FIG. 1 is a schematic diagram for explaining details of a camera unit used in the three-dimensional shape detection apparatus of the present invention. As shown in the figure, the camera unit 10 also has a force with the lens 1 and the image sensor 2. The lens may be a short focus lens or a zoom lens, and the angle of view may be wide or narrow. These may be variously changed or selected depending on the purpose of use of the three-dimensional shape detection apparatus, the distance to the target object, and the like. The image sensor 2 is a photoelectric conversion element such as a CCD or CMOS, and converts an image formed on the image sensor by a lens into an electric signal. Then, the image processing unit 3 connected to the image sensor 2 generates an image using the electric signal from the image sensor.
[0024] そして、本願発明の特徴的な部分である視軸微動装置 4が、カメラ部 10に接続され ている。視軸微動装置 4により、カメラ部が光軸に対して横方向に振動させられ、カメ ラ部の光軸が微小に横方向に移動させられる。振動周波数は特に限定されないが、 例えば数 Hzから数十 Hz程度で適当に振動させれば良い。これは対象物体の移動 速度に対する追従性等を考慮して種々設定可能である。そして、カメラ部の光軸を振 動中に、カメラ部 10で対象物体を複数枚撮影する。なお、画像は最も移動した左右 端部の位置の 2枚の画像が最低限あれば良いため、視軸微動装置 4とカメラ部 10の 撮影のタイミングを図るようにしても良 、し、高速シャツタを用いて多数の画像を生成 するようにしても良い。但し、後述のように、エッジ画像を生成する上では左右端部だ けでなぐその間の画像も複数枚あったほうがよりはっきりしたエッジ画像となるため、 複数枚の画像を生成することが好ましい。この辺りは画像処理部 3の処理能力と要求 する立体形状検出速度に応じて、適宜調整すれば良い。なお、画像処理部 3は、具 体的にはパーソナルコンピュータ等の電子計算機であれば良いが、 DSP等の専用 チップにより実現しても勿論良 、。 The visual axis fine movement device 4, which is a characteristic part of the present invention, is connected to the camera unit 10. The visual axis fine movement device 4 causes the camera unit to vibrate laterally with respect to the optical axis, and the optical axis of the camera unit is slightly moved laterally. The vibration frequency is not particularly limited. For example, it may be appropriately vibrated at several Hz to several tens Hz. This can be variously set in consideration of the follow-up performance to the moving speed of the target object. Then, a plurality of target objects are photographed by the camera unit 10 while the optical axis of the camera unit is vibrating. It should be noted that the images need only have at least two images at the left and right end positions that have moved the most. The shooting timing may be set, or a large number of images may be generated using a high-speed shirt. However, as will be described later, when generating an edge image, it is preferable to generate a plurality of images because there are more distinct edge images when there are a plurality of images between the left and right ends. This area may be appropriately adjusted according to the processing capability of the image processing unit 3 and the required three-dimensional shape detection speed. The image processing unit 3 may be an electronic computer such as a personal computer, but may be realized by a dedicated chip such as a DSP.
[0025] 視軸微動装置 4は、カメラ部 10の光軸を所定の方向に微小に振動させることが可 能であれば如何なるものを用いても良ぐこれらに限定されるものではないが、具体 的な例を挙げると、例えば圧電素子や、超磁歪素子、静電ァクチユエータ、油圧ァク チユエータ、空圧ァクチユエータ、電磁石、光ァクチユエータ、形状記憶合金、高分 子ァクチユエ一タ等を用いることが可能である。  [0025] The visual axis fine movement device 4 is not limited to these, as long as it can vibrate the optical axis of the camera unit 10 in a predetermined direction. Specific examples include using a piezoelectric element, a giant magnetostrictive element, an electrostatic actuator, a hydraulic actuator, a pneumatic actuator, an electromagnet, an optical actuator, a shape memory alloy, a high molecular weight actuator, and the like. Is possible.
[0026] また、視軸微動装置 4は、カメラ部 10自体を微小に移動させるものであっても良い し、レンズ 1を微小に移動させるものであっても構わない。レンズ 1を微小に移動させ る場合には、例えば図 2に示すようにレンズ部を構成すれば良い。図 2は、レンズを微 小に移動させる場合のレンズ部の構造の一例を説明するための正面概略図である。 図示のように、レンズ 1の周りに、視軸微動装置 4、例えば圧電素子、より具体的には 圧電セラミックス等を配置し、適当な部材で圧電セラミックス 4をレンズ 1に接続する。 図示の圧電セラミックス 4は 4つの部位に分かれており、各部位を制御することで、レ ンズ 1を X軸方向、 y軸方向の任意の方向に移動させることが可能となる。但し、左右 のみの移動で足りる場合には、圧電セラミックスは 4つの部位に分かれている必要は なぐ 2つに分かれていれば良い。なお、カメラ部 10自体を移動させる場合も同様の 構成が利用可能である。  [0026] Further, the visual axis fine movement device 4 may be a device that moves the camera unit 10 itself minutely, or may be a device that moves the lens 1 minutely. When the lens 1 is moved minutely, for example, the lens portion may be configured as shown in FIG. FIG. 2 is a schematic front view for explaining an example of the structure of the lens portion when the lens is moved slightly. As shown in the drawing, a visual axis fine movement device 4, for example, a piezoelectric element, more specifically, a piezoelectric ceramic is disposed around the lens 1, and the piezoelectric ceramic 4 is connected to the lens 1 by an appropriate member. The illustrated piezoelectric ceramic 4 is divided into four parts, and the lens 1 can be moved in any direction in the X-axis direction and the y-axis direction by controlling each part. However, if it is sufficient to move left and right, the piezoelectric ceramics need not be divided into four parts. The same configuration can be used when moving the camera unit 10 itself.
[0027] 図 1を再度参照し、カメラ部 10の光軸の変化に伴う、対象物体とレンズまでの距離 とレンズから撮像素子までの距離及び撮像素子上での結像点の変化量の関係を説 明する。図示のように、対象物体 20からレンズ 1までの距離を d、レンズ 1から撮像素 子 2までの距離を h、カメラ部の移動距離を 1とすると、カメラ部の移動前の結像点 piと 移動後の結像点 P2との間の距離 sは、以下の式で表わされる。 s=hl/d (1) [0027] Referring again to FIG. 1, the relationship between the distance from the target object to the lens, the distance from the lens to the image sensor, and the amount of change in the imaging point on the image sensor as the optical axis of the camera unit 10 changes. Explain. As shown in the figure, if the distance from the target object 20 to the lens 1 is d, the distance from the lens 1 to the imaging element 2 is h, and the moving distance of the camera unit is 1, then the imaging point pi before moving the camera unit pi The distance s between and the image formation point P2 after movement is expressed by the following equation. s = hl / d (1)
[0028] 式 1から、 dが小さければ小さいほど sは大きくなり、逆に dが大きければ大きいほど s は小さくなることが分かる。すなわち、レンズから対象物体までの距離が近ければ近 いほど結像点の移動幅 sは大きくなることになる。したがって、この結像点の移動幅 s により、対象物体までの距離がある程度わ力ることになる。すなわち、移動幅 sには対 象物体までの距離情報が含まれているといえる。したがって、カメラ部を移動させて 複数枚撮影したものを合成すれば、移動幅 sが大きい近くの対象物体の線が複数本 集まることになり太くなり、遠くの対象物体の線は移動幅 Sが小さいため太くはならな い。 [0028] From Equation 1, it can be seen that s increases as d decreases, and conversely, s decreases as d increases. That is, the shorter the distance from the lens to the target object, the larger the moving width s of the imaging point. Therefore, the distance to the target object is somewhat affected by the moving width s of the imaging point. That is, it can be said that the movement width s includes distance information to the object. Therefore, if you synthesize multiple images taken by moving the camera unit, multiple lines of nearby target objects with a large movement width s will be collected, and the lines of the target objects far away will have a movement width S. Because it is small, it must not be thick.
[0029] 図 3を用いて、画像処理部 3におけるエッジ画像の生成について説明する。なお、 エッジ画像とは、対象物体を撮影した画像において、対象物体のエッジを強調した 画像のことである。図 3 (a)は、視軸微動装置を用いない場合の従来技術によるエツ ジ画像である。これは例えば画像内の濃淡の急激な変化の部分の濃淡差を微分処 理することによりエッジを強調したものである。対象物体を同一の位置から何枚撮影 しょうとエッジ画像に変化はなぐエッジの線幅は、元のエッジが同じ幅であれば同じ 線幅となり、距離に関する情報は一切含まれな 、画像である。  [0029] Generation of an edge image in the image processing unit 3 will be described with reference to FIG. Note that an edge image is an image in which an edge of a target object is emphasized in an image obtained by capturing the target object. Fig. 3 (a) is an edge image according to the prior art when the visual axis fine movement device is not used. For example, the edge is emphasized by differentiating the gray level difference of the sharply changing portion of the gray level in the image. No matter how many images of the target object are taken from the same position, the edge line width does not change. If the original edge has the same width, the line width is the same, and no information about the distance is included. .
[0030] ところが、本願発明に係る視軸微動装置を用いたカメラ部力 の複数の画像を画像 処理部 3で処理したエッジ画像は、上述の移動幅 sに応じて、図 3 (b)に示すように、 近くのエッジは太く遠くのエッジは細くなる。したがって、このエッジ画像のエッジの幅 には距離情報が含まれているといえ、同じ距離に位置する対象物体のエッジは同じ 幅になることとなり、逆に違う幅のエッジであれば、異なる距離に位置することとなる。 なお、図 3 (b)は、カメラ部の光軸を図面上水平方向左右に移動させた場合に得られ るエッジ画像であり、左右に移動させることにより、上述の移動幅 sに応じて縦方向の エッジが強調されたものとなっている。すなわち、縦方向のエッジには距離情報が含 まれている力 横方向のエッジには距離情報は含まれていないことになる。したがつ て、完全に水平なエッジであれば、エッジの幅は太くはならないか、差分を取るような 画像処理によっては、まったく表示されなくなるものである。  However, the edge image obtained by processing the plurality of images of the camera unit force using the visual axis fine movement device according to the present invention by the image processing unit 3 is shown in FIG. 3 (b) according to the above-described movement width s. As shown, the near edges are thick and the far edges are thin. Therefore, it can be said that distance information is included in the edge width of this edge image, and the edges of the target object located at the same distance will have the same width. Will be located. FIG. 3 (b) is an edge image obtained when the optical axis of the camera unit is moved horizontally in the drawing, and the image is vertically moved in accordance with the movement width s described above. The edge of the direction is emphasized. In other words, the vertical edge contains distance information. The horizontal edge does not contain distance information. Therefore, if the edge is perfectly horizontal, the width of the edge will not increase, or it will not be displayed at all depending on the image processing that takes the difference.
[0031] 画像処理部 3における画像処理は、上記のように各画像の濃淡差を微分処理して それを重ね合わせていっても良いし、各画像の対応画素の濃淡値や彩度値の差分 を取りそれを正規ィ匕しても良い。ここで、正規化とは、各画像の差分を取ると、マイナ スの値が出力されるため、これの絶対値を取る力、あるいは全体の値をプラスの方向 に移動する等の処理をいう。さらに、得られた画像を 2値ィ匕して単純ィ匕しても良い。ま た、必要により誇張処理や細線ィ匕処理を加えても良い。このようなエッジ画像を生成 するための画像処理には、従来の方法や今後開発され得るあらゆる処理が含まれる ものである。 [0031] The image processing in the image processing unit 3 is performed by differentiating the density difference of each image as described above. They may be overlapped, or the difference between the gray value and saturation value of the corresponding pixel of each image may be taken and normalized. Here, normalization means the process of moving the whole value in the positive direction or the force of taking the absolute value because the negative value is output when the difference between each image is taken. . Furthermore, the obtained image may be simplified by binarization. Further, if necessary, exaggeration processing or thin line key processing may be added. Image processing for generating such edge images includes conventional methods and all types of processing that can be developed in the future.
[0032] このように構成されたカメラ部を、立体形状の検出に用いる場合の構成を以下に説 明する。図 4は、本発明の立体形状検出装置の構成を説明するための概略ブロック 図である。図示のように、カメラ部 10を左右に平行に配置し、それぞれの出力を画像 処理部 3に入力する。なお、本明細書中で用語「視線」とは、カメラ部 10と対象物体 2 0とを結ぶ線を意味し、用語「光軸」とはカメラ部 10の光学的な中心軸を意味するもの とする。  A configuration in the case where the camera unit configured as described above is used for detecting a three-dimensional shape will be described below. FIG. 4 is a schematic block diagram for explaining the configuration of the three-dimensional shape detection apparatus of the present invention. As shown in the figure, the camera unit 10 is arranged parallel to the left and right, and the respective outputs are input to the image processing unit 3. In this specification, the term “line of sight” means a line connecting the camera unit 10 and the target object 20, and the term “optical axis” means the optical center axis of the camera unit 10. And
[0033] また、以下では図 4に示すように、カメラ部 10を所定の 2ケ所に配置し、異なる視線 の位置力 対象物体 20を撮影する例について主に説明する力 本発明はこれに限 定されず、一つのカメラ部 10を所定の撮影位置まで左右に大きく移動させ、視線の 異なる 2ケ所カゝら撮影するように構成しても良い。この場合、これに限定されないが、 例えばレール等にカメラ部 10を載置し、レール上を移動可能にするような移動機構 を設ければ良い。さらに、撮影位置は 2ケ所に限定されるものではない。双眼タイプで あれば 2ケ所で良いが、立体物の表面形状等をより細力べ高精度に検出しょうとする 場合等には、複数ケ所にカメラ部を配置するようなものとしても良い。すなわち、カメラ 部 10は X軸方向に並べられるだけではなぐさらに y軸方向にも並べることが可能で ある。なお、処理の容易性等の観点から、各カメラの撮像素子は、同一平面上に配 置することが好ましい。  [0033] In the following, as shown in Fig. 4, the power that mainly describes an example in which the camera unit 10 is arranged at two predetermined positions and the position force target object 20 with a different line of sight is photographed. It is not limited, and it may be configured such that one camera unit 10 is moved largely to the right and left to a predetermined shooting position, and shooting is performed at two places with different lines of sight. In this case, although not limited to this, for example, a moving mechanism that mounts the camera unit 10 on a rail or the like and enables movement on the rail may be provided. Furthermore, the shooting position is not limited to two places. If it is a binocular type, it is sufficient to have two locations. However, if it is desired to detect the surface shape of a three-dimensional object more precisely and with high accuracy, it may be possible to arrange camera units at multiple locations. That is, the camera units 10 can be arranged not only in the X-axis direction but also in the y-axis direction. Note that, from the viewpoint of ease of processing and the like, it is preferable that the imaging elements of each camera are arranged on the same plane.
[0034] このように配置されたカメラ部 10において、視軸微動装置 4は、 2つの所定の撮影 位置間を結ぶ方向にカメラ部の光軸を微小に移動させる。この微小移動は、カメラ部 10の光軸の法線方向への並進運動であれば良い。また、並進運動だけではなぐ回 転運動であっても良い。回転運動の場合、その回転中心はレンズの光学中心以外で あり、光軸の上又は光軸付近であることが好ましい。すなわち、カメラ部 10の光軸が 変化するような動きであればどのような動きであっても構わない。例えば、人間の眼球 は回転運動により微動しているので、人間型ロボットの目に本願発明の立体形状検 出装置を適用した場合には、通常の目の動きをさせるァクチユエ一タ等をそのまま視 軸微動装置としても利用可能となる。なお、処理の容易性等の観点から、各カメラの 回転中心は、同一平面上に配置することが好ましい。また、カメラ部の回転角度は、 無限遠に近い対象物体の撮像素子上での移動幅 sが、 0〜3画素程度の幅となるよう に調整することが好ましい。これにより、無限遠に近い遠くの対象物体のエッジは、で きるだけ細く(例えば 2画素分の幅)、又はまったく写らないようになる。 In the camera unit 10 arranged in this way, the visual axis fine movement device 4 slightly moves the optical axis of the camera unit in a direction connecting two predetermined photographing positions. The minute movement may be a translational movement in the normal direction of the optical axis of the camera unit 10. Further, it may be a rotational motion that is not just a translational motion. In the case of rotational movement, the center of rotation is other than the optical center of the lens. Yes, it is preferably on or near the optical axis. That is, any movement is possible as long as the optical axis of the camera unit 10 changes. For example, since the human eyeball is finely moved by the rotational movement, when the solid shape detection device of the present invention is applied to the humanoid robot, the visual actuator or the like that causes the normal eye movement is viewed as it is. It can also be used as a shaft fine movement device. From the viewpoint of ease of processing, etc., the rotation centers of the cameras are preferably arranged on the same plane. In addition, the rotation angle of the camera unit is preferably adjusted so that the movement width s of the target object close to infinity on the image sensor is about 0 to 3 pixels. As a result, the edge of a target object that is close to infinity is as thin as possible (for example, the width of two pixels) or is not captured at all.
[0035] このように、本明細書中では、「2つの所定の撮影位置間を結ぶ方向の移動」とは、 カメラ部の光軸の法線方向への並進運動だけではなぐカメラ部(レンズ)同士が互 いに近づいたり遠ざ力つたりする方向の、所定の点を中心とする回転運動も含むもの である。 [0035] Thus, in this specification, "movement in the direction connecting two predetermined imaging positions" refers to a camera unit (lens) that is not limited to translational motion in the normal direction of the optical axis of the camera unit. It also includes rotational movements around a given point in the direction in which they approach or move away from each other.
[0036] 図 5を用いて本願発明に係る視軸微動装置 4の移動方向を説明する。図 5は、複数 のカメラ部 10の光軸を、それぞれを結ぶ方向に移動させる例を説明するための図で あり、カメラ部を正面力も見た正面概略図である。図 5 (a)はカメラ部が 2つの場合の 例であり、視軸微動装置は、カメラ部 10aと 10bを、 abの方向に左右に微動させる。力 メラ部が 3つの場合には、例えば図 5 (b)に示すようにカメラ部を 3角形の頂点の位置 に配置するようにし、カメラ部 10aと 10bで撮影中には abの方向に微動させ、撮影位 置を切り替えてカメラ部 10aと 10cで撮影中には acの方向に微動させる。さらに撮影 位置を切り替えて、カメラ部 10bと 10cで撮影中には、 beの方向に微動させるように する。このように複数の方向にカメラ部の光軸を微動させることにより、複数の方向の エッジの距離をより正確に検出することが可能となる。さらに、図 5 (c)に示すように、 4 つのカメラ部 10a〜: LOdを用いて、上下左右にそれぞれ微動させることも勿論可能で ある。なお、本発明による立体形状検出装置では、撮影位置間を結ぶ方向に光軸を 移動させれば良いため、図 5 (b)と図 5 (c)を組み合わせたような複数の方向に微動さ せても勿論構わない。  [0036] The moving direction of the visual axis fine movement device 4 according to the present invention will be described with reference to FIG. FIG. 5 is a diagram for explaining an example in which the optical axes of a plurality of camera units 10 are moved in a direction connecting them, and is a schematic front view of the camera units in which the front force is also viewed. FIG. 5 (a) shows an example in which there are two camera units, and the visual axis fine movement device finely moves the camera units 10a and 10b to the left and right in the direction of ab. If there are three camera parts, for example, as shown in Fig. 5 (b), the camera part should be placed at the apex of the triangle, and the camera parts 10a and 10b will move finely in the direction ab during shooting. Switch the shooting position and move it slightly in the direction of ac during shooting with the camera units 10a and 10c. Furthermore, the shooting position is switched so that the camera unit 10b and 10c can be moved slightly in the direction of be during shooting. Thus, by finely moving the optical axis of the camera unit in a plurality of directions, it becomes possible to more accurately detect the distance between the edges in the plurality of directions. Furthermore, as shown in FIG. 5 (c), it is of course possible to make fine movements up and down and left and right using the four camera units 10a to LOd. In the three-dimensional shape detection apparatus according to the present invention, since the optical axis only needs to be moved in the direction connecting the shooting positions, the three-dimensional shape detection apparatus is finely moved in a plurality of directions as shown in FIG. 5 (b) and FIG. 5 (c). Of course, it doesn't matter.
[0037] さらに、図 5に示すカメラ部を結ぶ方向以外の方向にそれぞれ光軸を微動させるこ とも勿論構わない。複数の方向に光軸を微動させることにより、人間の眼球の動きの ようなマイクロサッカード以外のトレモアゃドリフトの動きに対応した動きを実行し、エツ ジ画像を補完することも可能となる。 [0037] Further, the optical axis may be slightly moved in a direction other than the direction connecting the camera units shown in FIG. Of course it doesn't matter. By finely moving the optical axis in multiple directions, it is possible to perform movements corresponding to tremor drift movements other than microsaccades, such as human eyeball movements, and complement the edge image.
[0038] また、複数のカメラ部を用いる場合、各カメラ部の同期を取ることが好ましい。すな わち、各カメラ部の微小な移動は同じ移動であり、同時に同じ方向に同じ幅で同じよ うに微小移動させるように構成する。また、撮影も同時に行うようにする。これにより、 動きのある対象物体に対しても良好なエッジ画像を得ることが可能となる。  [0038] When a plurality of camera units are used, it is preferable to synchronize the camera units. In other words, the minute movement of each camera unit is the same movement, and at the same time, the camera unit is configured to move in the same direction with the same width and the same minute movement. Also, photographing is performed at the same time. This makes it possible to obtain a good edge image even for a moving target object.
[0039] このようにして得られたエッジ画像を用いて、各エッジ画像の基準点の対応付けを 行う手法を以下に説明する。一般的に 2つのカメラ部を用いて撮影した画像の対応 点を求めるには、ノターンマッチング法が用いられており、本発明の場合においても 勿論パターンマッチング法が利用可能である。また、例えば以下で説明する方法に より、エッジ画像を単純ィ匕して高速処理が行えるようにすることも可能である。  A method for associating the reference points of each edge image using the edge image obtained in this way will be described below. In general, the non-turn matching method is used to obtain the corresponding points of images taken using two camera units. Of course, the pattern matching method can also be used in the present invention. Further, for example, the edge image can be simplified to enable high-speed processing by the method described below.
[0040] 図 6は、本発明に係る視軸微動装置を有する 2つのカメラ部を用いて対象物体を撮 影した場合に得られる各エッジ画像を説明するための図である。視軸微動装置により カメラ部の光軸を左右に微動させたため、上下方向のエッジが強調された画像が生 成される力 これをさらに単純ィ匕し、縦方向のみのエッジだけを抽出するように画像 処理を行った結果が図示のものである。上述のように、本発明に係るエッジ画像のェ ッジには、距離情報が含まれているため、同じ距離にあるものは同じ幅のエッジにな るので、このエッジの幅及びエッジの長さを基準に、 2つのカメラ部からのエッジ画像 のエッジを対応付けることが可能となる。すなわち、図 6の左側のエッジ画像のエッジ Ra, Rb, Rcと右側のエッジ画像のエッジ La, Lb, Lcについて、例えば左側のエッジ 画像のエッジ Rbに対応するエッジを右側のエッジ画像カゝら決定する場合には、エツ ジ Rbのエッジ幅と長さと同じエッジ幅と長さを有するエッジを右側のエッジ画像から 検出する。そうすると、同じ幅で同じ長さのエッジ Lbが検出されることになる。したがつ て、これらのエッジ Rb, Lbの例えば左上の頂点を基準点として左右のエッジ画像の 対応付けを行うことが可能となる。  FIG. 6 is a view for explaining each edge image obtained when a target object is imaged using two camera units having the visual axis fine movement device according to the present invention. Since the optical axis of the camera unit is finely moved left and right by the visual axis fine movement device, the force that generates an image with emphasized vertical edges is further simplified, and only the vertical edges are extracted. The result of image processing is shown in the figure. As described above, since the edge of the edge image according to the present invention includes distance information, those at the same distance become edges having the same width. Therefore, the edge width and the edge length are the same. Based on this, the edges of the edge images from the two camera units can be associated. That is, for the edges Ra, Rb, Rc of the left edge image in FIG. 6 and the edges La, Lb, Lc of the right edge image, for example, the edge corresponding to the edge Rb of the left edge image is selected from the right edge image column. When determining, an edge having the same edge width and length as the edge width and length of the edge Rb is detected from the right edge image. Then, an edge Lb having the same width and the same length is detected. Therefore, it is possible to associate the left and right edge images with the upper left vertex of these edges Rb and Lb as a reference point.
[0041] なお、複雑な形状でエッジ画像のエッジの幅や長さが一定のものとならないような 場合には、左右の画像における同様のパターンを見つけることで対応付けるパター ンマッチング法を用いれば良 、。 [0041] When the edge width and length of the edge image are not constant in a complicated shape, the pattern to be matched is found by finding similar patterns in the left and right images. Use the matching method.
[0042] そして、基準点の対応付けが行われたエッジ画像を用いて、視差を求めることで、 立体形状を検出することが可能となる。  [0042] Then, by obtaining the parallax using the edge image in which the reference points are associated, it is possible to detect the three-dimensional shape.
[0043] このように、本願発明によれば、エッジ画像を非常に単純ィ匕でき、単にエッジ画像 のエッジの長さと幅を基準にするだけで基準点の対応付けが行えるため、対応付け に要する処理時間を大幅に削減することが可能となる。そして、必要により 2ケ所以上 の撮影位置力 のエッジ画像を加えることで、より細力 、立体形状の検出も可能とな る。さらに、立体画像を構築後、エッジで囲まれた部分の対象物体のなめらかな表面 形状を、例えば濃淡値等を解析することにより求め、対象物体の表面の立体情報とし て立体画像に貼り付けることも可能である。  [0043] Thus, according to the present invention, the edge image can be very simple, and the reference points can be associated simply by using the edge length and width of the edge image as a reference. It is possible to greatly reduce the processing time required. If necessary, edge images with two or more shooting position forces can be added to make it possible to detect more detailed and three-dimensional shapes. Furthermore, after constructing a stereoscopic image, the smooth surface shape of the target object in the part surrounded by the edge is obtained by analyzing, for example, the gray value, and pasted to the stereoscopic image as stereoscopic information on the surface of the target object. Is also possible.
[0044] なお、左右のカメラ部の間の中心軸に近い位置に対象物体があれば上記のように 得られたエッジ画像力も対応付けが可能であるが、対象物体が左右のカメラ部の間 の中心軸力も大きく外れた位置にある場合、同じエッジでも各カメラ部からの距離が 大きく変わってしまい、対応するエッジであるにもかかわらずエッジの幅が変わってし まうことがある。このような場合には、対象物体への視線の方向も基準に加えて対応 するエッジを検出するようにすれば良い。例えば左側のエッジ画像において、エッジ がエッジ画像の中心からどのくらいずれているのかを計測することによって視線の方 向が分力るため、これも考慮に入れて右側のエッジ画像力 左側の視線の方向にあ るエッジの中から同じ長さのエッジを対応付けることが可能となる。さらに、対象物体 への視線の方向を基準に、得られたエッジ画像のエッジをそれぞれ所定の基準幅に 変換することも可能である。すなわち、ずれている視線の方向を光軸上に移動した場 合の幅 (基準幅)に変換することで、視線の方向を考慮せずに単純にエッジの幅と長 さで比較することができるようにすることも可能である。  [0044] Note that if the target object is located near the central axis between the left and right camera units, the edge image force obtained as described above can also be associated, but the target object is between the left and right camera units. If the center axial force of the is at a position that is greatly deviated, the distance from each camera section will change greatly even at the same edge, and the width of the edge may change even though it is a corresponding edge. In such a case, the direction of the line of sight to the target object may be detected in addition to the reference. For example, in the left edge image, the direction of the line of sight is divided by measuring how far the edge is from the center of the edge image. It is possible to associate edges with the same length from among the existing edges. Furthermore, it is also possible to convert each edge of the obtained edge image into a predetermined reference width based on the direction of the line of sight to the target object. In other words, by converting the direction of the line of sight that is shifted to the width (reference width) when moved on the optical axis, it is possible to simply compare the width and length of the edge without considering the direction of the line of sight. It is also possible to make it possible.
[0045] なお、本発明の立体形状検出装置及び立体形状検出方法は、上述の図示例にの み限定されるものではなぐ本発明の要旨を逸脱しない範囲内において種々変更を 加え得ることは勿論である。 It should be noted that the three-dimensional shape detection apparatus and the three-dimensional shape detection method of the present invention are not limited to the illustrated examples described above, and can be variously modified without departing from the scope of the present invention. It is.
図面の簡単な説明  Brief Description of Drawings
[0046] [図 1]図 1は、本発明の立体形状検出装置で用いるカメラ部の詳細を説明するための 概略図である。 FIG. 1 is a diagram for explaining details of a camera unit used in the three-dimensional shape detection apparatus of the present invention. FIG.
[図 2]図 2は、レンズを微小に移動させる場合のレンズ部の視軸微動装置を説明する ための正面概略図である。  FIG. 2 is a schematic front view for explaining the visual axis fine movement device of the lens unit when the lens is moved minutely.
[図 3]図 3は、エッジ画像を説明するための図であり、図 3 (a)が視軸微動装置を用い な ヽ場合のエッジ画像を、図 3 (b)が視軸微動装置を用いた場合のエッジ画像である  [FIG. 3] FIG. 3 is a diagram for explaining an edge image. FIG. 3 (a) shows an edge image when the visual axis fine movement apparatus is used, and FIG. 3 (b) shows a visual axis fine movement apparatus. Edge image when used
[図 4]図 4は、本発明の立体形状検出装置の構成を説明するための概略ブロック図で ある。 FIG. 4 is a schematic block diagram for explaining the configuration of the three-dimensional shape detection apparatus of the present invention.
[図 5]図 5は、複数のカメラ部の光軸を、カメラ部間を結ぶ方向に移動させる例を説明 するためのカメラ部の正面概略図である。  FIG. 5 is a schematic front view of the camera unit for explaining an example in which the optical axes of a plurality of camera units are moved in a direction connecting the camera units.
[図 6]図 6は、本発明に係る視軸微動装置を有する 2つのカメラ部を用いて対象物体 を撮影した場合に得られる各エッジ画像を説明するための図である。  FIG. 6 is a diagram for explaining each edge image obtained when a target object is photographed using two camera units having the visual axis fine movement device according to the present invention.
符号の説明 Explanation of symbols
1 レンズ  1 lens
2 撮像素子  2 Image sensor
3 画像処理部  3 Image processing section
4 視軸微動装置  4 Visual axis fine movement device
10 カメラ咅  10 Camera
20 対象物体  20 Target object

Claims

請求の範囲 The scope of the claims
[1] 対象物体を撮影しその立体形状を検出する立体形状検出装置であって、該装置 は、  [1] A three-dimensional shape detection apparatus for photographing a target object and detecting the three-dimensional shape, the apparatus comprising:
対象物体への視線が異なる少なくとも 2つの所定の撮影位置から対象物体を撮影 するための、撮像素子とレンズとを有する少なくとも 1つのカメラ手段と、  At least one camera means having an image sensor and a lens for photographing the target object from at least two predetermined photographing positions having different lines of sight to the target object;
前記少なくとも 2つの所定の撮影位置間を結ぶ方向に前記カメラ手段の光軸を微 小に移動させる視軸微動手段と、  Visual axis fine movement means for slightly moving the optical axis of the camera means in a direction connecting the at least two predetermined photographing positions;
前記視軸微動手段により光軸が微小に移動させられるカメラ手段力 の複数枚の 画像を画像処理することで、前記少なくとも 2つの所定の撮影位置における対象物体 のエッジが抽出されたエッジ画像をそれぞれ生成し、前記それぞれのエッジ画像を 比較して対象物体の対応するエッジを検出する画像処理手段と、  Image processing is performed on a plurality of images of the camera unit force whose optical axis is slightly moved by the visual axis fine moving unit, thereby obtaining edge images obtained by extracting the edges of the target object at the at least two predetermined photographing positions. Image processing means for generating and detecting corresponding edges of the target object by comparing the respective edge images;
を具備することを特徴とする立体形状検出装置。  A three-dimensional shape detection apparatus comprising:
[2] 請求項 1に記載の立体形状検出装置において、前記所定の撮影位置は、水平方 向、垂直方向、斜め方向の少なくとも 1つの方向又はこれらの複数の方向に沿って配 置されることを特徴とする立体形状検出装置。 [2] In the three-dimensional shape detection device according to claim 1, the predetermined imaging position is arranged along at least one of a horizontal direction, a vertical direction, an oblique direction, or a plurality of these directions. A three-dimensional shape detecting device characterized by the above.
[3] 請求項 1又は請求項 2に記載の立体形状検出装置であって、さらに、前記カメラ手 段を所定の撮影位置に移動可能な、移動手段を有することを特徴とする立体形状検 出装置。 [3] The three-dimensional shape detection apparatus according to claim 1 or 2, further comprising a moving unit capable of moving the camera device to a predetermined photographing position. apparatus.
[4] 請求項 1又は請求項 2に記載の立体形状検出装置において、前記カメラ手段が少 なくとも 2つのカメラ力 なり、各カメラが所定の撮影位置に予め配置されることを特徴 とする立体形状検出装置。  [4] The three-dimensional shape detection apparatus according to claim 1 or 2, wherein the camera means has at least two camera forces, and each camera is arranged in advance at a predetermined photographing position. Shape detection device.
[5] 請求項 4に記載の立体形状検出装置において、前記少なくとも 2つのカメラ手段は それぞれ同期が取られ、同じ微小な移動で同時に撮影することを特徴とする立体形 状検出装置。 [5] The three-dimensional shape detection device according to claim 4, wherein the at least two camera units are synchronized with each other and simultaneously photograph with the same minute movement.
[6] 請求項 1乃至請求項 5の何れかに記載の立体形状検出装置において、前記視軸 微動手段は、前記レンズを微小に移動させることを特徴とする立体形状検出装置。  6. The three-dimensional shape detection apparatus according to any one of claims 1 to 5, wherein the visual axis fine movement means slightly moves the lens.
[7] 請求項 1乃至請求項 5の何れかに記載の立体形状検出装置において、前記視軸 微動手段は、前記カメラ手段を微小に移動させることを特徴とする立体形状検出装 置。 [7] The three-dimensional shape detection apparatus according to any one of claims 1 to 5, wherein the visual axis fine movement means slightly moves the camera means. Place.
[8] 請求項 1乃至請求項 7の何れかに記載の立体形状検出装置において、前記視軸 微動手段は、圧電素子、超磁歪素子、静電ァクチユエータ、油圧ァクチユエータ、空 圧ァクチユエータ、電磁石、光ァクチユエータ、形状記憶合金、高分子ァクチユエ一 タの何れかからなることを特徴とする立体形状検出装置。  [8] The three-dimensional shape detection device according to any one of claims 1 to 7, wherein the visual axis fine movement means includes a piezoelectric element, a giant magnetostrictive element, an electrostatic actuator, a hydraulic actuator, a pneumatic actuator, an electromagnet, and light. A three-dimensional shape detection device comprising any one of an actuator, a shape memory alloy, and a polymer actuator.
[9] 請求項 1乃至請求項 8の何れかに記載の立体形状検出装置において、前記視軸 微動手段による微小移動は、前記カメラ手段の光軸の法線方向への並進運動である ことを特徴とする立体形状検出装置。  [9] In the three-dimensional shape detection device according to any one of claims 1 to 8, the fine movement by the visual axis fine movement means is a translational movement in a normal direction of the optical axis of the camera means. A featured three-dimensional shape detection apparatus.
[10] 請求項 1乃至請求項 8の何れかに記載の立体形状検出装置において、前記視軸 微動手段による微小移動は、所定の点を中心とする回転運動であることを特徴とする 立体形状検出装置。  [10] The three-dimensional shape detection apparatus according to any one of [1] to [8], wherein the fine movement by the visual axis fine movement means is a rotational movement about a predetermined point. Detection device.
[11] 請求項 10に記載の立体形状検出装置において、前記回転運動の回転角度は、無 限遠に近い対象物体の撮像素子上での移動幅が、 0〜3画素の幅となるような角度 であることを特徴とする立体形状検出装置。  [11] The three-dimensional shape detection apparatus according to claim 10, wherein the rotational angle of the rotational motion is such that the movement width of the target object close to infinite on the image sensor is 0 to 3 pixels wide. A three-dimensional shape detection apparatus characterized by being an angle.
[12] 対象物体を撮影しその立体形状を検出する立体形状検出方法であって、該方法 は、  [12] A three-dimensional shape detection method for photographing a target object and detecting the three-dimensional shape, the method comprising:
対象物体への視線が異なる少なくとも 2つの所定の撮影位置から、撮像素子とレン ズとを有する少なくとも 1つのカメラ手段で対象物体を撮影する過程と、  The process of photographing the target object with at least one camera means having an image sensor and a lens from at least two predetermined photographing positions having different lines of sight to the target object;
前記撮影する過程の間に、前記少なくとも 2つの所定の撮影位置間を結ぶ方向に 前記カメラ手段の光軸を微小に移動させる過程と、  A step of slightly moving the optical axis of the camera means in a direction connecting the at least two predetermined photographing positions during the photographing step;
前記光軸が微小に移動させられるカメラ手段からの複数枚の画像を画像処理する ことで、前記少なくとも 2つの所定の撮影位置における対象物体のエッジが抽出され たエッジ画像をそれぞれ生成する過程と、  A process of generating edge images in which edges of the target object are extracted at the at least two predetermined photographing positions by performing image processing on a plurality of images from the camera unit in which the optical axis is moved minutely;
前記それぞれのエッジ画像を比較して対象物体の対応するエッジを検出する過程 と、  Detecting the corresponding edge of the target object by comparing the respective edge images;
を具備することを特徴とする立体形状検出方法。  A three-dimensional shape detection method comprising:
[13] 請求項 12に記載の立体形状検出方法において、前記エッジ画像を生成する過程 は、前記複数枚の画像の各対応画素の濃淡値又は彩度値を差分処理し、正規化を 行うことを特徴とする立体形状検出方法。 [13] The three-dimensional shape detection method according to claim 12, wherein the step of generating the edge image includes performing a difference process on a gray value or a saturation value of each corresponding pixel of the plurality of images to perform normalization. A three-dimensional shape detection method characterized by performing.
[14] 請求項 13に記載の立体形状検出方法において、前記エッジ画像を生成する過程 は、さらに 2値化処理を行うことを特徴とする立体形状検出方法。  14. The three-dimensional shape detection method according to claim 13, wherein the step of generating the edge image further performs binarization processing.
[15] 請求項 12乃至請求項 14の何れかに記載の立体形状検出方法において、前記対 応するエッジを検出する過程は、前記エッジ画像の前記エッジの幅及び長さを基準 に、前記少なくとも 2つの所定の撮影位置におけるエッジ画像のエッジを対応付ける ことを特徴とする立体形状検出方法。  [15] The solid shape detection method according to any one of claims 12 to 14, wherein the step of detecting the corresponding edge includes at least the width and length of the edge of the edge image. A three-dimensional shape detection method, comprising associating edges of an edge image at two predetermined photographing positions.
[16] 請求項 12乃至請求項 14の何れかに記載の立体形状検出方法において、前記対 応するエッジを検出する過程は、パターンマッチング法により、前記少なくとも 2つの 所定の撮影位置におけるエッジ画像のエッジを対応付けることを特徴とする立体形 状検出方法。  [16] In the three-dimensional shape detection method according to any one of claims 12 to 14, the process of detecting the corresponding edge may be performed by using a pattern matching method to detect an edge image at the at least two predetermined photographing positions. A solid shape detection method characterized by associating edges.
[17] 請求項 12乃至請求項 16の何れかに記載の立体形状検出方法において、前記対 応するエッジを検出する過程は、さらに、対象物体への視線の方向も基準にすること を特徴とする立体形状検出方法。  [17] The solid shape detection method according to any one of claims 12 to 16, wherein the step of detecting the corresponding edge further uses the direction of the line of sight to the target object as a reference. 3D shape detection method.
[18] 請求項 17に記載の立体形状検出方法において、前記対応するエッジを検出する 過程は、生成されたエッジ画像のエッジを、対象物体への視線の方向を基準に所定 の基準幅に変換した後、それぞれのエッジ画像を比較することを特徴とする立体形 状検出方法。  [18] In the three-dimensional shape detection method according to claim 17, in the process of detecting the corresponding edge, the edge of the generated edge image is converted into a predetermined reference width based on the direction of the line of sight to the target object. Then, the three-dimensional shape detection method characterized by comparing the respective edge images.
PCT/JP2006/305105 2005-03-16 2006-03-15 3-dimensional shape detection device and 3-dimensional shape detection method WO2006109394A1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN2006800071015A CN101133299B (en) 2005-03-16 2006-03-15 3-dimensional shape detection device and 3-dimensional shape detection method

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2005074869A JP4243692B2 (en) 2005-03-16 2005-03-16 Three-dimensional shape detection apparatus and three-dimensional shape detection method
JP2005-074869 2005-03-16

Publications (1)

Publication Number Publication Date
WO2006109394A1 true WO2006109394A1 (en) 2006-10-19

Family

ID=37086686

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2006/305105 WO2006109394A1 (en) 2005-03-16 2006-03-15 3-dimensional shape detection device and 3-dimensional shape detection method

Country Status (3)

Country Link
JP (1) JP4243692B2 (en)
CN (1) CN101133299B (en)
WO (1) WO2006109394A1 (en)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007120993A (en) * 2005-10-25 2007-05-17 Tokyo Institute Of Technology Object shape measuring device
JP5229726B2 (en) 2008-08-20 2013-07-03 国立大学法人東京工業大学 Long-distance target search camera system
JP5163373B2 (en) * 2008-09-02 2013-03-13 コニカミノルタアドバンストレイヤー株式会社 Actuator and imaging device
JP2013157747A (en) 2012-01-27 2013-08-15 Denso Corp Sound field control apparatus and program
JP6787396B2 (en) * 2016-04-08 2020-11-18 コニカミノルタ株式会社 Optical measuring device, image generation method and image generation program
CN111150402A (en) * 2020-01-02 2020-05-15 秒针信息技术有限公司 Method, device, storage medium and electronic device for determining livestock form parameters
CN114577112B (en) * 2022-01-19 2024-05-24 格力电器(芜湖)有限公司 Method and device for detecting position of chassis bolt

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06180218A (en) * 1992-12-15 1994-06-28 Matsushita Electric Works Ltd Solid shape detection method
JP2001141423A (en) * 1999-11-11 2001-05-25 Fuji Photo Film Co Ltd Image pickup device and image processor
JP2003295045A (en) * 2002-04-04 2003-10-15 Omron Corp Range-finding device and method

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN2325758Y (en) * 1997-07-09 1999-06-23 北京医科大学口腔医学院 Laser scanning data acquisition device
CN2306483Y (en) * 1997-08-23 1999-02-03 李德功 Mini-measurer for vertical and horizontal sections of single interface light
CN1219397C (en) * 2002-10-22 2005-09-14 张晓林 Bionic automatic vision and sight control system and method

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06180218A (en) * 1992-12-15 1994-06-28 Matsushita Electric Works Ltd Solid shape detection method
JP2001141423A (en) * 1999-11-11 2001-05-25 Fuji Photo Film Co Ltd Image pickup device and image processor
JP2003295045A (en) * 2002-04-04 2003-10-15 Omron Corp Range-finding device and method

Also Published As

Publication number Publication date
JP4243692B2 (en) 2009-03-25
CN101133299B (en) 2010-04-14
JP2006258543A (en) 2006-09-28
CN101133299A (en) 2008-02-27

Similar Documents

Publication Publication Date Title
WO2006109394A1 (en) 3-dimensional shape detection device and 3-dimensional shape detection method
TWI283129B (en) Optical tracking system using variable focal length lens
US20060098872A1 (en) Three-dimensional imaging system for pattern recognition
KR101737085B1 (en) 3D camera
CN105657237B (en) Image acquiring device and its digital zooming method
US20160182887A1 (en) Three dimensional imaging with a single camera
JP2007158825A (en) Image input device
JP2963990B1 (en) Distance measuring device and method, image restoring device and method
Jiang et al. High-speed dual-view band-limited illumination profilometry using temporally interlaced acquisition
JP6009206B2 (en) 3D measuring device
WO2019146510A1 (en) Image processing device
JP2001012910A (en) Multi-lens data input apparatus
JP2013042379A (en) Imaging apparatus
JP2000152281A (en) Image pickup device
JP2006329747A (en) Imaging device
JP3988574B2 (en) Image processing device
JP2015156011A (en) Image acquisition device and method for controlling the same
JP2001298755A (en) Full focus image pickup method and stereoscopic display method
CN116507931A (en) Tracking camera, tracking camera system and operation thereof
WO2011148746A1 (en) 3d imaging device, face detection device, and operation control method therefor
JP2018074362A (en) Image processing apparatus, image processing method, and program
JP2003106825A (en) Accurate three-dimensional measuring method by focus adjusting mechanism and zooming mechanism, and accurate three-dimensional measuring apparatus for the method
JP6594046B2 (en) Imaging apparatus and focus adjustment method
JP6066765B2 (en) Imaging device, control method thereof, and control program
JP3329400B2 (en) 3D information extraction device for objects

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 200680007101.5

Country of ref document: CN

121 Ep: the epo has been informed by wipo that ep was designated in this application
NENP Non-entry into the national phase

Ref country code: DE

NENP Non-entry into the national phase

Ref country code: RU

32PN Ep: public notification in the ep bulletin as address of the adressee cannot be established

Free format text: NOTING OF LOSS OF RIGHTS PURSUANT TO RULE 112(1) EPC, EPO FORM 1205A DATED 17.01.08

122 Ep: pct application non-entry in european phase

Ref document number: 06729126

Country of ref document: EP

Kind code of ref document: A1