JP4243692B2 - Three-dimensional shape detection apparatus and three-dimensional shape detection method - Google Patents

Three-dimensional shape detection apparatus and three-dimensional shape detection method Download PDF

Info

Publication number
JP4243692B2
JP4243692B2 JP2005074869A JP2005074869A JP4243692B2 JP 4243692 B2 JP4243692 B2 JP 4243692B2 JP 2005074869 A JP2005074869 A JP 2005074869A JP 2005074869 A JP2005074869 A JP 2005074869A JP 4243692 B2 JP4243692 B2 JP 4243692B2
Authority
JP
Japan
Prior art keywords
dimensional shape
shape detection
edge
target object
camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2005074869A
Other languages
Japanese (ja)
Other versions
JP2006258543A (en
Inventor
暁林 張
拓郎 川合
佐藤  誠
剛 小林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tokyo Institute of Technology NUC
Original Assignee
Tokyo Institute of Technology NUC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tokyo Institute of Technology NUC filed Critical Tokyo Institute of Technology NUC
Priority to JP2005074869A priority Critical patent/JP4243692B2/en
Priority to CN2006800071015A priority patent/CN101133299B/en
Priority to PCT/JP2006/305105 priority patent/WO2006109394A1/en
Publication of JP2006258543A publication Critical patent/JP2006258543A/en
Application granted granted Critical
Publication of JP4243692B2 publication Critical patent/JP4243692B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/564Depth or shape recovery from multiple images from contours

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Studio Devices (AREA)

Description

本発明は立体形状を検出する装置及び方法に関し、特に、カメラの光軸を微小に移動させることにより距離情報を有するエッジ画像を生成し、これを用いて基準点の対応付けを行ない、立体形状を検出する立体形状検出装置及び立体形状検出方法に関する。   The present invention relates to an apparatus and method for detecting a three-dimensional shape, and in particular, an edge image having distance information is generated by minutely moving the optical axis of a camera, and a reference point is associated using this to generate a three-dimensional shape. The present invention relates to a three-dimensional shape detection apparatus and a three-dimensional shape detection method.

従来から、視差を用いて2つの画像による立体の形状を検出する方法が種々開発されている。これらは、通常、三角測量の原理を用いて、既知の2ヶ所の位置に配置された2つのカメラによって対象物体を撮影し、対象物体の基準点(対応点)を決定し、各カメラにて撮影された対象物体の基準点を合わせ、他の部分の視差を求めることで、カメラから対象物体の各エッジまでの距離を検出することが可能なものである。   Conventionally, various methods for detecting a three-dimensional shape based on two images using parallax have been developed. Usually, using the principle of triangulation, the target object is photographed by two cameras arranged at two known positions, the reference point (corresponding point) of the target object is determined, and each camera The distance from the camera to each edge of the target object can be detected by matching the reference points of the captured target object and obtaining the parallax of other parts.

ここで、視差を求めるためには、各カメラで撮影された対象物体の画像から、対象物体の同じ位置を示す基準点を決定する必要がある。基準点が対象物体の異なる位置に設定されてしまうと、立体形状を誤認してしまい正しい形状が検出できなくなってしまうため、これは非常に重要な問題であり、この問題に対する解法も種々提案されている。例えば、あるエッジの各画素に対する他のエッジの各画素間のx軸方向の位置の相対差が視差に対応するものと考え、2つのエッジ画像のエッジが対象物体の同じ線上のエッジに対応するのであれば、エッジ上の画素の視差はy軸方向のどの位置でもほぼ均しくなるという原理を用いるものがある。   Here, in order to obtain the parallax, it is necessary to determine a reference point indicating the same position of the target object from the image of the target object captured by each camera. If the reference point is set at a different position on the target object, the three-dimensional shape is mistaken and the correct shape cannot be detected. This is a very important problem, and various solutions to this problem have been proposed. ing. For example, assuming that the relative difference in the position in the x-axis direction between each pixel of another edge with respect to each pixel of an edge corresponds to parallax, the edges of two edge images correspond to edges on the same line of the target object In this case, there is a method using the principle that the parallax of the pixels on the edge is almost uniform at any position in the y-axis direction.

さらに、特許文献1に記載のように、2つのエッジ画像のエッジを構成する各画素に対して相対差を求め、さらに各画素に関する濃度の部分情報に基づいて重み付けを行なうことで、より正確に対応する基準点を決定しようとしたものもある。   Furthermore, as described in Patent Document 1, a relative difference is obtained for each pixel constituting the edge of two edge images, and weighting is further performed based on partial information on the density related to each pixel. Some have attempted to determine the corresponding reference point.

特開平6−180218号公報JP-A-6-180218

しかしながら、従来の方法では対応する基準点を正確に求められたとしても、それには非常に多くの計算が必要となり、処理時間がかかるものであった。したがって、2つのカメラを用いて動く対象物体を撮影してリアルタイムで立体形状を検出するようなことは、処理時間の関係から難しかった。   However, in the conventional method, even if the corresponding reference point can be obtained accurately, a large amount of calculation is required for this, and processing time is required. Therefore, it is difficult to detect a three-dimensional shape in real time by photographing a moving target object using two cameras because of processing time.

本発明は、斯かる実情に鑑み、エッジ画像における基準点の対応付けを簡単な処理で正確に行なうことでリアルタイム処理も可能な立体形状検出装置及び立体形状検出方法を提供しようとするものである。   In view of such circumstances, the present invention intends to provide a three-dimensional shape detection device and a three-dimensional shape detection method capable of performing real-time processing by accurately associating reference points in an edge image with simple processing. .

上述した本発明の目的を達成するために、本発明による立体形状検出装置は、対象物体への視線が異なる少なくとも2つの所定の撮影位置から対象物体を撮影するための、撮像素子とレンズとを有する少なくとも1つのカメラ手段と、前記少なくとも2つの所定の撮影位置間を結ぶ方向に前記カメラ手段の光軸を微小に移動させる視軸微動手段と、前記視軸微動手段により光軸が微小に移動させられるカメラ手段からの複数枚の画像を画像処理することで、前記少なくとも2つの所定の撮影位置における対象物体のエッジが抽出されたエッジ画像をそれぞれ生成し、前記それぞれのエッジ画像を比較して対象物体の対応するエッジを検出する画像処理手段と、を具備するものである。   In order to achieve the above-described object of the present invention, a three-dimensional shape detection apparatus according to the present invention includes an imaging element and a lens for photographing a target object from at least two predetermined photographing positions having different lines of sight to the target object. At least one camera means, visual axis fine movement means for finely moving the optical axis of the camera means in a direction connecting the at least two predetermined photographing positions, and the optical axis finely moved by the visual axis fine movement means Image processing is performed on the plurality of images from the camera means to generate edge images in which the edges of the target object at the at least two predetermined shooting positions are extracted, and the respective edge images are compared. Image processing means for detecting a corresponding edge of the target object.

ここで、所定の撮影位置は、水平方向、垂直方向、斜め方向の少なくとも1つの方向又はこれらの複数の方向に沿って配置されれば良い。   Here, the predetermined photographing position may be arranged along at least one direction of the horizontal direction, the vertical direction, and the oblique direction, or a plurality of these directions.

さらに、カメラ手段を所定の撮影位置に移動可能な、移動手段を有しても良い。   Further, the camera unit may have a moving unit capable of moving to a predetermined photographing position.

また、カメラ手段が少なくとも2つのカメラからなり、各カメラが所定の撮影位置に予め配置されたものであっても良い。   The camera means may be composed of at least two cameras, and each camera is arranged in advance at a predetermined shooting position.

そして、少なくとも2つのカメラ手段はそれぞれ同期が取られ、同じ微小な移動で同時に撮影するようにしても良い。   The at least two camera units may be synchronized with each other, and may be simultaneously photographed with the same minute movement.

また、視軸微動手段は、前記レンズを微小に移動させるか、カメラ手段を微小に移動させるようにすれば良い。   Further, the visual axis fine moving means may move the lens minutely or move the camera means minutely.

また、視軸微動手段は、圧電素子、超磁歪素子、静電アクチュエータ、油圧アクチュエータ、空圧アクチュエータ、電磁石、光アクチュエータ、形状記憶合金、高分子アクチュエータの何れかから構成されれば良い。   The visual axis fine movement means may be composed of any one of a piezoelectric element, a giant magnetostrictive element, an electrostatic actuator, a hydraulic actuator, a pneumatic actuator, an electromagnet, an optical actuator, a shape memory alloy, and a polymer actuator.

ここで、視軸微動手段による微小移動は、前記カメラ手段の光軸の法線方向への並進運動であれば良い。   Here, the fine movement by the visual axis fine movement means may be a translational movement in the normal direction of the optical axis of the camera means.

また、視軸微動手段による微小移動は、所定の点を中心とする回転運動であっても良い。そのときの回転運動の回転角度は、無限遠に近い対象物体の撮像素子上での移動幅が、0〜3画素の幅となるような角度であれば良い。   Further, the fine movement by the visual axis fine movement means may be a rotational movement around a predetermined point. The rotational angle of the rotational motion at that time may be an angle such that the moving width of the target object close to infinity on the image sensor is 0 to 3 pixels wide.

さらに、本発明による立体形状検出方法は、対象物体への視線が異なる少なくとも2つの所定の撮影位置から、撮像素子とレンズとを有する少なくとも1つのカメラ手段で対象物体を撮影する過程と、前記撮影する過程の間に、前記少なくとも2つの所定の撮影位置間を結ぶ方向に前記カメラ手段の光軸を微小に移動させる過程と、前記光軸が微小に移動させられるカメラ手段からの複数枚の画像を画像処理することで、前記少なくとも2つの所定の撮影位置における対象物体のエッジが抽出されたエッジ画像をそれぞれ生成する過程と、前記それぞれのエッジ画像を比較して対象物体の対応するエッジを検出する過程と、を具備するものである。   Furthermore, the three-dimensional shape detection method according to the present invention includes a step of photographing a target object with at least one camera means having an image sensor and a lens from at least two predetermined photographing positions having different lines of sight to the target object, and the photographing During the process of moving the optical axis of the camera means in a direction connecting the at least two predetermined photographing positions, and a plurality of images from the camera means in which the optical axis is moved finely The image processing is performed to generate an edge image in which the edges of the target object are extracted at the at least two predetermined shooting positions, and the corresponding edge of the target object is detected by comparing the respective edge images. The process of comprising.

ここで、エッジ画像を生成する過程は、前記複数枚の画像の各対応画素の濃淡値、又は彩度値を差分処理し、正規化を行なっても良い。さらに、2値化処理を加えても構わない。   Here, in the process of generating the edge image, normalization may be performed by differentially processing the gray value or the saturation value of each corresponding pixel of the plurality of images. Further, binarization processing may be added.

また、対応するエッジを検出する過程は、前記エッジ画像の前記エッジの幅及び長さを基準に、前記少なくとも2つの所定の撮影位置におけるエッジ画像のエッジを対応付ければ良い。   In the process of detecting the corresponding edge, the edge of the edge image at the at least two predetermined photographing positions may be associated with each other based on the width and length of the edge of the edge image.

さらに、対応するエッジを検出する過程は、パターンマッチング法により行なっても構わない。   Furthermore, the process of detecting the corresponding edge may be performed by a pattern matching method.

そして、対応するエッジを検出する過程は、さらに対象物体への視線の方向も基準にしても良い。この場合、生成されたエッジ画像のエッジを、対象物体への視線の方向を基準に所定の基準幅に変換した後、それぞれのエッジ画像を比較するようにしても良い。   In the process of detecting the corresponding edge, the direction of the line of sight to the target object may be used as a reference. In this case, the edges of the generated edge image may be converted into a predetermined reference width based on the direction of the line of sight to the target object, and the edge images may be compared.

本発明の立体形状検出装置及び立体形状検出方法には、距離情報を有するエッジ画像が生成されるので、エッジ画像のエッジの幅と長さのみに着目して対応するエッジを容易に検出可能であるという利点がある。また、容易に検出可能であるため処理時間も短く、リアルタイム処理も可能であるという利点がある。   In the three-dimensional shape detection device and the three-dimensional shape detection method of the present invention, an edge image having distance information is generated, so that the corresponding edge can be easily detected by focusing only on the edge width and length of the edge image. There is an advantage of being. In addition, since it can be easily detected, the processing time is short, and there is an advantage that real-time processing is possible.

人間の眼球は、非常に小さな高周波の振動であるトレモア(tremor)や小さななめらかな動きであるドリフト(drift)、そして直線的な運動であるマイクロサッカード(microsaccade)というような微小振動を絶えず無意識で行なっている。このような微小振動が視覚認識においてどのような影響を与えているかについては、生理学と工学の両面から数多くの研究が行なわれており、視覚対象の奥行きを検出するための動きと考えられている。このような人間の眼球の動きの中で、特にマイクロサッカードの動きに注目し、マイクロサッカードと同じような動きを用いて立体形状の検出を精度良く高速にできる装置及び方法を開発した。   The human eyeball is constantly unconscious of micro-vibrations such as tremor, which is very small high-frequency vibration, drift, which is small smooth movement, and microsaccade, which is linear motion. It is done in. Many studies have been conducted on the effects of such microvibration on visual recognition from both physiological and engineering perspectives, and it is considered to be a movement for detecting the depth of visual objects. . Among such human eyeball movements, focusing on the movement of the microsaccade, an apparatus and method have been developed that can detect a three-dimensional shape with high accuracy and high speed using the same movement as the microsaccade.

以下、本発明を実施するための最良の形態を図示例と共に説明する。図1は、本発明の立体形状検出装置で用いるカメラ部の詳細を説明するための概略図である。図示のように、カメラ部10はレンズ1と撮像素子2とからなる。レンズは短焦点レンズであってもズームレンズであっても構わず、また、その画角は広角であっても狭角であっても構わない。これらは立体形状検出装置の使用目的、対象物体までの距離等で種々変更又は選択等すれば良いものである。撮像素子2は、CCDやCMOS等の光電変換素子であり、レンズによって撮像素子に結像された像を電気信号に変換するものである。そして、撮像素子2に接続された画像処理部3により、撮像素子からの電気信号を用いて映像を生成する。   The best mode for carrying out the present invention will be described below with reference to the drawings. FIG. 1 is a schematic diagram for explaining details of a camera unit used in the three-dimensional shape detection apparatus of the present invention. As illustrated, the camera unit 10 includes a lens 1 and an image sensor 2. The lens may be a short focus lens or a zoom lens, and the angle of view may be wide or narrow. These may be variously changed or selected depending on the purpose of use of the three-dimensional shape detection apparatus, the distance to the target object, and the like. The image sensor 2 is a photoelectric conversion element such as a CCD or CMOS, and converts an image formed on the image sensor by a lens into an electric signal. Then, the image processing unit 3 connected to the image sensor 2 generates an image using an electrical signal from the image sensor.

そして、本願発明の特徴的な部分である視軸微動装置4が、カメラ部10に接続されている。視軸微動装置4により、カメラ部が光軸に対して横方向に振動させられ、カメラ部の光軸が微小に横方向に移動させられる。振動周波数は特に限定されないが、例えば数Hzから数十Hz程度で適当に振動させれば良い。この辺りは対象物体の移動速度に対する追従性等を考慮して種々設定可能である。そして、カメラ部の光軸を振動中に、カメラ部10で対象物体を複数枚撮影する。なお、画像は最も移動した左右端部の位置の2枚の画像が最低限あれば良いため、視軸微動装置4とカメラ部10の撮影のタイミングとを図るようにしても良いし、高速シャッタを用いて多数の画像を生成するようにしても良い。但し、後述のように、エッジ画像を生成する上では左右端部だけでなく、その間の画像も複数枚あったほうがよりはっきりしたエッジ画像となるため、複数枚の画像を生成することが好ましい。この辺りは画像処理部3の処理能力と要求する立体形状検出速度に応じて、適宜調整すれば良い。なお、画像処理部3は、具体的にはパーソナルコンピュータ等の電子計算機であれば良いが、DSP等の専用チップにより実現しても勿論良い。   The visual axis fine movement device 4, which is a characteristic part of the present invention, is connected to the camera unit 10. The visual axis fine movement device 4 causes the camera unit to vibrate laterally with respect to the optical axis, and the optical axis of the camera unit is slightly moved laterally. Although the vibration frequency is not particularly limited, for example, it may be appropriately vibrated at about several Hz to several tens Hz. This area can be variously set in consideration of the followability to the moving speed of the target object. Then, a plurality of target objects are photographed by the camera unit 10 while the optical axis of the camera unit is vibrating. It should be noted that since it is sufficient for the images to have at least two images at the positions of the left and right end portions that have moved the most, the timing of photographing by the visual axis fine movement device 4 and the camera unit 10 may be set, or a high-speed shutter. A large number of images may be generated using. However, as will be described later, when generating an edge image, it is preferable to generate a plurality of images because a clearer edge image is obtained when there are not only the left and right ends but also a plurality of images between them. This area may be appropriately adjusted according to the processing capability of the image processing unit 3 and the required three-dimensional shape detection speed. The image processing unit 3 may be an electronic computer such as a personal computer, but may be realized by a dedicated chip such as a DSP.

視軸微動装置4は、カメラ部10の光軸を所定の方向に微小に振動させることが可能であれば如何なるものを用いても良く、これらに限定されるものではないが、具体的な例を挙げると、例えば圧電素子や、超磁歪素子、静電アクチュエータ、油圧アクチュエータ、空圧アクチュエータ、電磁石、光アクチュエータ、形状記憶合金、高分子アクチュエータ等を用いることが可能である。   The visual axis fine movement device 4 may be any device as long as the optical axis of the camera unit 10 can be vibrated minutely in a predetermined direction, but is not limited thereto. For example, piezoelectric elements, giant magnetostrictive elements, electrostatic actuators, hydraulic actuators, pneumatic actuators, electromagnets, optical actuators, shape memory alloys, polymer actuators, and the like can be used.

また、視軸微動装置4は、カメラ部10自体を微小に移動させるものであっても良いし、レンズ1を微小に移動させるものであっても構わない。レンズ1を微小に移動させる場合には、例えば図2に示すようにレンズ部を構成すれば良い。図2は、レンズを微小に移動させる場合のレンズ部の構造の一例を説明するための正面概略図である。図示のように、レンズ1の周りに、視軸微動装置4、例えば圧電素子、より具体的には圧電セラミックス等を配置し、適当な部材で圧電セラミックス4をレンズ1に接続する。図示の圧電セラミックス4は4つの部位に分かれており、各部位を制御することで、レンズ1をx軸方向、y軸方向の任意の方向に移動させることが可能となる。但し、左右のみの移動で足りる場合には、圧電セラミックスは4つの部位に分かれている必要はなく、2つに分かれていれば良い。なお、カメラ部10自体を移動させる場合も同様の構成が利用可能である。   Further, the visual axis fine movement device 4 may be a device that moves the camera unit 10 minutely, or a device that moves the lens 1 minutely. When the lens 1 is moved minutely, for example, a lens portion may be configured as shown in FIG. FIG. 2 is a schematic front view for explaining an example of the structure of the lens portion when the lens is moved minutely. As shown in the drawing, a visual axis fine movement device 4, for example, a piezoelectric element, more specifically, a piezoelectric ceramic or the like is disposed around the lens 1, and the piezoelectric ceramic 4 is connected to the lens 1 by an appropriate member. The illustrated piezoelectric ceramic 4 is divided into four parts. By controlling each part, the lens 1 can be moved in any direction in the x-axis direction and the y-axis direction. However, when the movement only to the left and right is sufficient, the piezoelectric ceramic does not need to be divided into four parts, and may be divided into two parts. The same configuration can be used when moving the camera unit 10 itself.

図1を再度参照し、カメラ部10の光軸の変化に伴う、対象物体とレンズまでの距離とレンズから撮像素子までの距離及び撮像素子上での結像点の変化量の関係を説明する。図示のように、対象物体20からレンズ1までの距離をd、レンズ1から撮像素子2までの距離をh、カメラ部の移動距離をlとすると、カメラ部の移動前の結像点p1と移動後の結像点P2との間の距離sは、以下の式で表わされる。
s=hl/d (1)
Referring to FIG. 1 again, the relationship between the distance from the target object to the lens, the distance from the lens to the image sensor, and the amount of change in the image formation point on the image sensor as the optical axis of the camera unit 10 changes will be described. . As shown in the figure, when the distance from the target object 20 to the lens 1 is d, the distance from the lens 1 to the image sensor 2 is h, and the moving distance of the camera unit is l, the imaging point p1 before the movement of the camera unit is The distance s between the image forming point P2 after the movement is expressed by the following equation.
s = hl / d (1)

式1から、dが小さければ小さいほどsは大きくなり、逆にdが大きければ大きいほどsは小さくなることが分かる。すなわち、レンズから対象物体までの距離が近ければ近いほど結像点の移動幅sは大きくなることになる。したがって、この結像点の移動幅sにより、対象物体までの距離がある程度わかることになる。すなわち、移動幅sには対象物体までの距離情報が含まれていると言える。したがって、カメラ部を移動させて複数枚撮影したものを合成していけば、移動幅sが大きい近くの対象物体の線が複数本集まることになり太く見え、遠くの対象物体の線は移動幅sが小さいため太くはならない。   From Equation 1, it can be seen that the smaller d is, the larger s is, and vice versa. That is, the shorter the distance from the lens to the target object, the larger the moving width s of the imaging point. Therefore, the distance to the target object can be known to some extent by the moving width s of the image formation point. That is, it can be said that the movement width s includes distance information to the target object. Accordingly, if a plurality of images taken by moving the camera unit are combined, a plurality of lines of a nearby target object having a large movement width s will be gathered together, and the line of a remote target object will appear thick. Since s is small, it is not fat.

図3を用いて、画像処理部3におけるエッジ画像の生成について説明する。なお、エッジ画像とは、対象物体を撮影した画像において、対象物体のエッジを強調した画像のことである。図3(a)は、視軸微動装置を用いない場合の従来技術によるエッジ画像である。これは例えば画像内の濃淡の急激な変化の部分の濃淡差を微分処理することによりエッジを強調したものである。対象物体を同一の位置から何枚撮影しようとエッジ画像に変化はなく、エッジの線幅は、元のエッジが同じ幅であれば同じ線幅となり、距離に関する情報は一切含まれない画像である。   Generation of an edge image in the image processing unit 3 will be described with reference to FIG. The edge image is an image in which the edge of the target object is emphasized in the image obtained by photographing the target object. FIG. 3A is an edge image according to the prior art when the visual axis fine movement device is not used. For example, the edge is emphasized by differentiating the gray level difference of the sharply changing portion of the gray level in the image. No matter how many images of the target object are taken from the same position, the edge image will not change, and the line width of the edge will be the same if the original edge is the same width, and it will not contain any information about distance .

ところが、本願発明に係る視軸微動装置を用いたカメラ部からの複数の画像を画像処理部3で処理したエッジ画像は、上述の移動幅sに応じて、図3(b)に示すように、近くのエッジは太く遠くのエッジは細くなる。したがって、このエッジ画像のエッジの幅には距離情報が含まれていると言え、同じ距離に位置する対象物体のエッジは同じ幅になることとなり、逆に違う幅のエッジであれば、異なる距離に位置することとなる。なお、図3(b)は、カメラ部の光軸を図面上水平方向左右に移動させた場合に得られるエッジ画像であり、左右に移動させることにより、上述の移動幅sに応じて縦方向のエッジが強調されたものとなっている。すなわち、縦方向のエッジには距離情報が含まれているが、横方向のエッジには距離情報は含まれていないことになる。したがって、完全に水平なエッジであれば、エッジの幅は太くはならないか、差分を取るような画像処理によっては、まったく表示されなくなるものである。   However, an edge image obtained by processing a plurality of images from the camera unit using the visual axis fine movement device according to the present invention by the image processing unit 3 is as shown in FIG. The near edge is thick and the far edge is thin. Therefore, it can be said that distance information is included in the edge width of this edge image, and the edges of the target object located at the same distance will have the same width. Will be located. FIG. 3B is an edge image obtained when the optical axis of the camera unit is moved horizontally in the horizontal direction in the drawing. By moving the optical axis to the left and right, the vertical direction according to the movement width s described above. The edges are emphasized. That is, distance information is included in the vertical edge, but distance information is not included in the horizontal edge. Therefore, if the edge is completely horizontal, the width of the edge does not increase, or it is not displayed at all by image processing that takes a difference.

画像処理部3における画像処理は、上記のように各画像の濃淡差を微分処理してそれを重ね合わせていっても良いし、各画像の対応画素の濃淡値や彩度値の差分を取りそれを正規化しても良い。ここで、正規化とは、各画像の差分を取ると、マイナスの値が出力されるため、これの絶対値を取るか、あるいは全体の値をプラスの方向に移動する等の処理を言う。さらに、得られた画像を2値化して単純化しても良い。また、必要により誇張処理や細線化処理を加えても良い。このようなエッジ画像を生成するための画像処理には、従来の方法や今後開発され得るあらゆる処理が含まれるものである。   As described above, the image processing in the image processing unit 3 may be performed by differentiating the shade differences of the images and superimposing them, or by taking the differences of the shade values and saturation values of the corresponding pixels of the images. It may be normalized. Here, normalization refers to processing such as taking an absolute value of the difference or moving the entire value in the plus direction because a negative value is output when the difference between the images is taken. Further, the obtained image may be simplified by binarization. Further, if necessary, an exaggeration process or a thinning process may be added. Such image processing for generating an edge image includes conventional methods and all types of processing that can be developed in the future.

このように構成されたカメラ部を、立体形状の検出に用いる場合の構成を以下に説明する。図4は、本発明の立体形状検出装置の構成を説明するための概略ブロック図である。図示のように、カメラ部10を左右に平行に配置し、それぞれの出力を画像処理部3に入力する。なお、本明細書中で用語「視線」とは、カメラ部10と対象物体20とを結ぶ線を意味し、用語「光軸」とはカメラ部10の光学的な中心軸を意味するものとする。   A configuration in the case where the camera unit configured as described above is used for detection of a three-dimensional shape will be described below. FIG. 4 is a schematic block diagram for explaining the configuration of the three-dimensional shape detection apparatus of the present invention. As shown in the figure, the camera unit 10 is arranged in parallel on the left and right, and the respective outputs are input to the image processing unit 3. In this specification, the term “line of sight” means a line connecting the camera unit 10 and the target object 20, and the term “optical axis” means the optical center axis of the camera unit 10. To do.

また、以下では図4に示すように、カメラ部10を所定の2ヶ所に配置し、異なる視線の位置から対象物体20を撮影する例について主に説明するが、本発明はこれに限定されず、一つのカメラ部10を所定の撮影位置まで左右に大きく移動させ、視線の異なる2ヶ所から撮影するように構成しても良い。この場合、これに限定されないが、例えばレール等にカメラ部10を載置し、レール上を移動可能にするような移動機構を設ければ良い。さらに、撮影位置は2ヶ所に限定されるものではない。双眼タイプであれば2ヶ所で良いが、立体物の表面形状等をより細かく高精度に検出しようとする場合等には、複数ヶ所にカメラ部を配置するようなものとしても良い。すなわち、カメラ部10はx軸方向に並べられるだけではなく、さらにy軸方向にも並べることが可能である。なお、処理の容易性等の観点から、各カメラの撮像素子は、同一平面上に配置することが好ましい。   In the following, as shown in FIG. 4, an example in which the camera unit 10 is arranged at two predetermined positions and the target object 20 is photographed from different line-of-sight positions will be mainly described. However, the present invention is not limited to this. A single camera unit 10 may be moved to the left and right to a predetermined shooting position so as to shoot from two places with different lines of sight. In this case, although not limited to this, for example, the camera unit 10 may be placed on a rail or the like, and a moving mechanism that enables movement on the rail may be provided. Furthermore, the photographing position is not limited to two places. If it is a binocular type, two locations are sufficient. However, when it is desired to detect the surface shape or the like of a three-dimensional object more precisely and with high accuracy, the camera units may be arranged at a plurality of locations. That is, the camera units 10 can be arranged not only in the x-axis direction but also in the y-axis direction. Note that, from the viewpoint of ease of processing and the like, it is preferable that the imaging elements of each camera are arranged on the same plane.

このように配置されたカメラ部10において、視軸微動装置4は、2つの所定の撮影位置間を結ぶ方向にカメラ部の光軸を微小に移動させる。この微小移動は、カメラ部10の光軸の法線方向への並進運動であれば良い。また、並進運動だけではなく、回転運動であっても良い。回転運動の場合、その回転中心はレンズの光学中心以外であり、光軸の上又は光軸付近であることが好ましい。すなわち、カメラ部10の光軸が変化するような動きであればどのような動きであっても構わない。例えば、人間の眼球は回転運動により微動しているので、人間型ロボットの目に本願発明の立体形状検出装置を適用した場合には、通常の目の動きをさせるアクチュエータ等をそのまま視軸微動装置としても利用可能となる。なお、処理の容易性等の観点から、各カメラの回転中心は、同一平面上に配置することが好ましい。また、カメラ部の回転角度は、無限遠に近い対象物体の撮像素子上での移動幅sが、0〜3画素程度の幅となるように調整することが好ましい。これにより、無限遠に近い遠くの対象物体のエッジは、できるだけ細く(例えば2画素分の幅)、又はまったく写らないようになる。   In the camera unit 10 arranged in this way, the visual axis fine movement device 4 slightly moves the optical axis of the camera unit in a direction connecting two predetermined photographing positions. The minute movement may be a translational movement in the normal direction of the optical axis of the camera unit 10. Moreover, not only a translational motion but a rotational motion may be sufficient. In the case of rotational movement, the center of rotation is other than the optical center of the lens, and is preferably on or near the optical axis. That is, any movement is possible as long as the optical axis of the camera unit 10 changes. For example, since the human eyeball is finely moved by rotational movement, when the three-dimensional shape detection device of the present invention is applied to the eyes of a humanoid robot, the actuator for causing the normal eye movement or the like is used as it is. Can also be used. Note that the rotation centers of the cameras are preferably arranged on the same plane from the viewpoint of ease of processing and the like. In addition, the rotation angle of the camera unit is preferably adjusted so that the movement width s of the target object close to infinity on the image sensor is about 0 to 3 pixels. As a result, the edge of the target object that is far from infinity is as thin as possible (for example, a width corresponding to two pixels) or is not captured at all.

このように、本明細書中では、「2つの所定の撮影位置間を結ぶ方向の移動」とは、カメラ部の光軸の法線方向への並進運動だけではなく、カメラ部(レンズ)同士が互いに近づいたり遠ざかったりする方向の、所定の点を中心とする回転運動も含むものである。   Thus, in this specification, “movement in a direction connecting two predetermined photographing positions” is not only translational movement in the normal direction of the optical axis of the camera unit, but also between camera units (lenses). It also includes a rotational movement around a predetermined point in a direction in which the two approach or move away from each other.

図5を用いて本願発明に係る視軸微動装置4の移動方向を説明する。図5は、複数のカメラ部10の光軸を、それぞれを結ぶ方向に移動させる例を説明するための図であり、カメラ部を正面から見た正面概略図である。図5(a)はカメラ部が2つの場合の例であり、視軸微動装置は、カメラ部10aと10bを、abの方向に左右に微動させる。カメラ部が3つの場合には、例えば図5(b)に示すようにカメラ部を3角形の頂点の位置に配置するようにし、カメラ部10aと10bで撮影中にはabの方向に微動させ、撮影位置を切り替えてカメラ部10aと10cで撮影中にはacの方向に微動させる。さらに撮影位置を切り替えて、カメラ部10bと10cで撮影中には、bcの方向に微動させるようにする。このように複数の方向にカメラ部の光軸を微動させることにより、複数の方向のエッジの距離をより正確に検出することが可能となる。さらに、図5(c)に示すように、4つのカメラ部10a〜10dを用いて、上下左右にそれぞれ微動させることも勿論可能である。なお、本発明による立体形状検出装置では、撮影位置間を結ぶ方向に光軸を移動させれば良いため、図5(b)と図5(c)を組み合わせたような複数の方向に微動させても勿論構わない。   The moving direction of the visual axis fine movement device 4 according to the present invention will be described with reference to FIG. FIG. 5 is a diagram for explaining an example in which the optical axes of the plurality of camera units 10 are moved in a direction connecting them, and is a schematic front view of the camera units viewed from the front. FIG. 5A shows an example in which there are two camera units, and the visual axis fine movement device finely moves the camera units 10a and 10b to the left and right in the direction of ab. When there are three camera units, for example, as shown in FIG. 5 (b), the camera unit is arranged at the position of the apex of the triangle, and is finely moved in the direction of ab during shooting with the camera units 10a and 10b. Then, the shooting position is switched and the camera units 10a and 10c are finely moved in the direction of ac during shooting. Further, the shooting position is switched so that the camera units 10b and 10c are finely moved in the direction of bc during shooting. Thus, by finely moving the optical axis of the camera unit in a plurality of directions, it becomes possible to detect the distance between the edges in the plurality of directions more accurately. Further, as shown in FIG. 5 (c), it is of course possible to make fine movements in the vertical and horizontal directions using the four camera units 10a to 10d. In the three-dimensional shape detection apparatus according to the present invention, since the optical axis only needs to be moved in the direction connecting the shooting positions, the three-dimensional shape detection apparatus is finely moved in a plurality of directions such as a combination of FIG. 5B and FIG. But of course.

さらに、図5に示すカメラ部を結ぶ方向以外の方向にそれぞれ光軸を微動させることも勿論構わない。複数の方向に光軸を微動させることにより、人間の眼球の動きのようなマイクロサッカード以外のトレモアやドリフトの動きに対応した動きを実行し、エッジ画像を補完することも可能となる。   Furthermore, it is of course possible to slightly move the optical axis in a direction other than the direction connecting the camera units shown in FIG. By finely moving the optical axis in a plurality of directions, it is possible to execute movements corresponding to tremor and drift movements other than microsaccade, such as human eyeball movements, and to complement the edge image.

また、複数のカメラ部を用いる場合、各カメラ部の同期を取ることが好ましい。すなわち、各カメラ部の微小な移動は同じ移動であり、同時に同じ方向に同じ幅で同じように微小移動させるように構成する。また、撮影も同時に行なうようにする。これにより、動きのある対象物体に対しても良好なエッジ画像を得ることが可能となる。   Further, when using a plurality of camera units, it is preferable to synchronize each camera unit. That is, the minute movements of the respective camera units are the same movements, and at the same time, the minute movements are similarly performed with the same width in the same direction. Also, photographing is performed at the same time. This makes it possible to obtain a good edge image even for a moving target object.

このようにして得られたエッジ画像を用いて、各エッジ画像の基準点の対応付けを行なう手法を以下に説明する。一般的に2つのカメラ部を用いて撮影した画像の対応点を求めるには、パターンマッチング法が用いられており、本発明の場合においても勿論パターンマッチング法が利用可能である。また、例えば以下で説明する方法により、エッジ画像を単純化して高速処理が行なえるようにすることも可能である。   A method for associating the reference points of each edge image using the edge image obtained in this way will be described below. In general, a pattern matching method is used to obtain corresponding points of images taken using two camera units. Of course, the pattern matching method can also be used in the present invention. Further, for example, the edge image can be simplified so that high-speed processing can be performed by the method described below.

図6は、本発明に係る視軸微動装置を有する2つのカメラ部を用いて対象物体を撮影した場合に得られる各エッジ画像を説明するための図である。視軸微動装置によりカメラ部の光軸を左右に微動させたため、上下方向のエッジが強調された画像が生成されるが、これをさらに単純化し、縦方向のみのエッジだけを抽出するように画像処理を行なった結果が図示のものである。上述のように、本発明に係るエッジ画像のエッジには、距離情報が含まれているため、同じ距離にあるものは同じ幅のエッジになるので、このエッジの幅及びエッジの長さを基準に、2つのカメラ部からのエッジ画像のエッジを対応付けることが可能となる。すなわち、図6の左側のエッジ画像のエッジRa,Rb,Rcと右側のエッジ画像のエッジLa,Lb,Lcについて、例えば左側のエッジ画像のエッジRbに対応するエッジを右側のエッジ画像から決定する場合には、エッジRbのエッジ幅と長さと同じエッジ幅と長さを有するエッジを右側のエッジ画像から検出する。そうすると、同じ幅で同じ長さのエッジLbが検出されることになる。したがって、これらのエッジRb,Lbの例えば左上の頂点を基準点として左右のエッジ画像の対応付けを行なうことが可能となる。   FIG. 6 is a diagram for explaining each edge image obtained when a target object is photographed using two camera units having the visual axis fine movement device according to the present invention. Since the optical axis of the camera unit is finely moved left and right by the visual axis fine movement device, an image in which the vertical edge is emphasized is generated, but this is further simplified and only the vertical edge is extracted. The result of processing is shown in the figure. As described above, since the edge information of the edge image according to the present invention includes distance information, those at the same distance become edges having the same width, so the width of the edge and the length of the edge are used as a reference. In addition, the edges of the edge images from the two camera units can be associated with each other. That is, for the edges Ra, Rb, Rc of the left edge image and the edges La, Lb, Lc of the right edge image in FIG. 6, for example, an edge corresponding to the edge Rb of the left edge image is determined from the right edge image. In this case, an edge having the same edge width and length as the edge width and length of the edge Rb is detected from the right edge image. Then, the edge Lb having the same width and the same length is detected. Therefore, it is possible to associate the left and right edge images with the upper left vertex of these edges Rb and Lb as a reference point.

なお、複雑な形状でエッジ画像のエッジの幅や長さが一定のものとならないような場合には、左右の画像における同様のパターンを見つけることで対応付けるパターンマッチング法を用いれば良い。   When the edge width and length of the edge image are not constant with a complicated shape, a pattern matching method for associating by finding similar patterns in the left and right images may be used.

そして、基準点の対応付けが行なわれたエッジ画像を用いて、視差を求めることで、立体形状を検出することが可能となる。   Then, by obtaining the parallax using the edge image in which the reference points are associated, it is possible to detect the three-dimensional shape.

このように、本願発明によれば、エッジ画像を非常に単純化でき、単にエッジ画像のエッジの長さと幅を基準にするだけで基準点の対応付けが行なえるため、対応付けに要する処理時間を大幅に削減することが可能となる。そして、必要により2ヶ所以上の撮影位置からのエッジ画像を加えることで、より細かい立体形状の検出も可能となる。さらに、立体画像を構築後、エッジで囲まれた部分の対象物体のなめらかな表面形状を、例えば濃淡値等を解析することにより求め、対象物体の表面の立体情報として立体画像に貼り付けることも可能である。   As described above, according to the present invention, the edge image can be greatly simplified, and the reference point can be associated simply by using the edge length and width of the edge image as a reference. Can be greatly reduced. If necessary, edge images from two or more shooting positions can be added to detect a finer three-dimensional shape. Furthermore, after constructing the stereoscopic image, the smooth surface shape of the target object in the part surrounded by the edge can be obtained by analyzing, for example, the gray value and pasted to the stereoscopic image as the stereoscopic information of the surface of the target object. Is possible.

なお、左右のカメラ部の間の中心軸に近い位置に対象物体があれば上記のように得られたエッジ画像から対応付けが可能であるが、対象物体が左右のカメラ部の間の中心軸から大きく外れた位置にある場合、同じエッジでも各カメラ部からの距離が大きく変わってしまい、対応するエッジであるにもかかわらずエッジの幅が変わってしまうことがある。このような場合には、対象物体への視線の方向も基準に加えて対応するエッジを検出するようにすれば良い。例えば左側のエッジ画像において、エッジがエッジ画像の中心からどのくらいずれているのかを計測することによって視線の方向が分かるため、これも考慮に入れて右側のエッジ画像から左側の視線の方向にあるエッジの中から同じ長さのエッジを対応付けることが可能となる。さらに、対象物体への視線の方向を基準に、得られたエッジ画像のエッジをそれぞれ所定の基準幅に変換することも可能である。すなわち、ずれている視線の方向を光軸上に移動した場合の幅(基準幅)に変換することで、視線の方向を考慮せずに単純にエッジの幅と長さで比較することができるようにすることも可能である。   Note that if there is a target object at a position close to the central axis between the left and right camera units, it can be associated from the edge image obtained as described above, but the target object is the central axis between the left and right camera units. If the position is far from the distance from the camera unit, the distance from each camera unit may change greatly even at the same edge, and the width of the edge may change despite the corresponding edge. In such a case, a corresponding edge may be detected in addition to the direction of the line of sight to the target object. For example, in the left edge image, since the direction of the line of sight can be determined by measuring how far the edge is from the center of the edge image, the edge in the direction of the left line of sight from the right edge image is also taken into account. It is possible to associate edges having the same length from among the two. Furthermore, it is also possible to convert each edge of the obtained edge image into a predetermined reference width based on the direction of the line of sight to the target object. That is, by converting the direction of the line of sight that is shifted to the width (reference width) when moved on the optical axis, it is possible to simply compare the width and length of the edge without considering the direction of the line of sight. It is also possible to do so.

なお、本発明の立体形状検出装置及び立体形状検出方法は、上述の図示例にのみ限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々変更を加え得ることは勿論である。   Note that the three-dimensional shape detection apparatus and the three-dimensional shape detection method of the present invention are not limited to the illustrated examples described above, and it is needless to say that various modifications can be made without departing from the scope of the present invention.

図1は、本発明の立体形状検出装置で用いるカメラ部の詳細を説明するための概略図である。FIG. 1 is a schematic diagram for explaining details of a camera unit used in the three-dimensional shape detection apparatus of the present invention. 図2は、レンズを微小に移動させる場合のレンズ部の視軸微動装置を説明するための正面概略図である。FIG. 2 is a schematic front view for explaining the visual axis fine movement device of the lens unit when the lens is moved minutely. 図3は、エッジ画像を説明するための図であり、図3(a)が視軸微動装置を用いない場合のエッジ画像を、図3(b)が視軸微動装置を用いた場合のエッジ画像である。FIG. 3 is a diagram for explaining an edge image. FIG. 3A shows an edge image when the visual axis fine movement device is not used, and FIG. 3B shows an edge when the visual axis fine movement device is used. It is an image. 図4は、本発明の立体形状検出装置の構成を説明するための概略ブロック図である。FIG. 4 is a schematic block diagram for explaining the configuration of the three-dimensional shape detection apparatus of the present invention. 図5は、複数のカメラ部の光軸を、カメラ部間を結ぶ方向に移動させる例を説明するためのカメラ部の正面概略図である。FIG. 5 is a schematic front view of the camera unit for explaining an example in which the optical axes of a plurality of camera units are moved in a direction connecting the camera units. 図6は、本発明に係る視軸微動装置を有する2つのカメラ部を用いて対象物体を撮影した場合に得られる各エッジ画像を説明するための図である。FIG. 6 is a diagram for explaining each edge image obtained when a target object is photographed using two camera units having the visual axis fine movement device according to the present invention.

符号の説明Explanation of symbols

1 レンズ
2 撮像素子
3 画像処理部
4 視軸微動装置
10 カメラ部
20 対象物体
DESCRIPTION OF SYMBOLS 1 Lens 2 Image pick-up element 3 Image processing part 4 Visual axis fine movement apparatus 10 Camera part 20 Target object

Claims (18)

対象物体を撮影しその立体形状を検出する立体形状検出装置であって、該装置は、
対象物体への視線が異なる少なくとも2つの所定の撮影位置から対象物体を撮影するための、撮像素子とレンズとを有する少なくとも1つのカメラ手段と、
前記少なくとも2つの所定の撮影位置間を結ぶ方向に前記カメラ手段の光軸を微小に移動させる視軸微動手段と、
前記視軸微動手段により光軸が微小に移動させられるカメラ手段からの複数枚の画像を画像処理することで、前記少なくとも2つの所定の撮影位置における対象物体のエッジが抽出されたエッジ画像をそれぞれ生成し、前記それぞれのエッジ画像を比較して対象物体の対応するエッジを検出する画像処理手段と、
を具備することを特徴とする立体形状検出装置。
A three-dimensional shape detection device for photographing a target object and detecting a three-dimensional shape thereof,
At least one camera means having an image sensor and a lens for photographing the target object from at least two predetermined photographing positions having different lines of sight to the target object;
Visual axis fine movement means for minutely moving the optical axis of the camera means in a direction connecting the at least two predetermined photographing positions;
By performing image processing on a plurality of images from the camera unit whose optical axis is slightly moved by the visual axis fine moving unit, edge images obtained by extracting the edges of the target object at the at least two predetermined photographing positions are respectively obtained. Image processing means for generating and detecting corresponding edges of the target object by comparing the respective edge images;
A three-dimensional shape detection apparatus comprising:
請求項1に記載の立体形状検出装置において、前記所定の撮影位置は、水平方向、垂直方向、斜め方向の少なくとも1つの方向又はこれらの複数の方向に沿って配置されることを特徴とする立体形状検出装置。   The three-dimensional shape detection apparatus according to claim 1, wherein the predetermined photographing position is arranged along at least one direction of a horizontal direction, a vertical direction, an oblique direction, or a plurality of these directions. Shape detection device. 請求項1又は請求項2に記載の立体形状検出装置であって、さらに、前記カメラ手段を所定の撮影位置に移動可能な、移動手段を有することを特徴とする立体形状検出装置。   3. The three-dimensional shape detection apparatus according to claim 1, further comprising a moving unit capable of moving the camera unit to a predetermined photographing position. 請求項1又は請求項2に記載の立体形状検出装置において、前記カメラ手段が少なくとも2つのカメラからなり、各カメラが所定の撮影位置に予め配置されることを特徴とする立体形状検出装置。   3. The three-dimensional shape detection apparatus according to claim 1, wherein the camera means includes at least two cameras, and each camera is arranged in advance at a predetermined photographing position. 請求項4に記載の立体形状検出装置において、前記少なくとも2つのカメラ手段はそれぞれ同期が取られ、同じ微小な移動で同時に撮影することを特徴とする立体形状検出装置。   5. The three-dimensional shape detection apparatus according to claim 4, wherein the at least two camera units are synchronized and photograph at the same time with the same minute movement. 請求項1乃至請求項5の何れかに記載の立体形状検出装置において、前記視軸微動手段は、前記レンズを微小に移動させることを特徴とする立体形状検出装置。   6. The three-dimensional shape detection apparatus according to claim 1, wherein the visual axis fine movement unit slightly moves the lens. 請求項1乃至請求項5の何れかに記載の立体形状検出装置において、前記視軸微動手段は、前記カメラ手段を微小に移動させることを特徴とする立体形状検出装置。   6. The three-dimensional shape detection apparatus according to claim 1, wherein the visual axis fine movement unit slightly moves the camera unit. 請求項1乃至請求項7の何れかに記載の立体形状検出装置において、前記視軸微動手段は、圧電素子、超磁歪素子、静電アクチュエータ、油圧アクチュエータ、空圧アクチュエータ、電磁石、光アクチュエータ、形状記憶合金、高分子アクチュエータの何れかからなることを特徴とする立体形状検出装置。   8. The three-dimensional shape detection apparatus according to claim 1, wherein the visual axis fine movement means includes a piezoelectric element, a giant magnetostrictive element, an electrostatic actuator, a hydraulic actuator, a pneumatic actuator, an electromagnet, an optical actuator, and a shape. A three-dimensional shape detection apparatus comprising a memory alloy or a polymer actuator. 請求項1乃至請求項8の何れかに記載の立体形状検出装置において、前記視軸微動手段による微小移動は、前記カメラ手段の光軸の法線方向への並進運動であることを特徴とする立体形状検出装置。   9. The three-dimensional shape detection apparatus according to claim 1, wherein the fine movement by the visual axis fine movement means is a translational movement in the normal direction of the optical axis of the camera means. Solid shape detection device. 請求項1乃至請求項8の何れかに記載の立体形状検出装置において、前記視軸微動手段による微小移動は、所定の点を中心とする回転運動であることを特徴とする立体形状検出装置。   9. The three-dimensional shape detection apparatus according to claim 1, wherein the fine movement by the visual axis fine movement means is a rotational movement about a predetermined point. 請求項10に記載の立体形状検出装置において、前記回転運動の回転角度は、無限遠に近い対象物体の撮像素子上での移動幅が、0〜3画素の幅となるような角度であることを特徴とする立体形状検出装置。   The three-dimensional shape detection apparatus according to claim 10, wherein the rotational angle of the rotational motion is an angle such that a moving width of the target object on the imaging device close to infinity is a width of 0 to 3 pixels. A three-dimensional shape detecting device characterized by the above. 対象物体を撮影しその立体形状を検出する立体形状検出方法であって、該方法は、
対象物体への視線が異なる少なくとも2つの所定の撮影位置から、撮像素子とレンズとを有する少なくとも1つのカメラ手段で対象物体を撮影する過程と、
前記撮影する過程の間に、前記少なくとも2つの所定の撮影位置間を結ぶ方向に前記カメラ手段の光軸を微小に移動させる過程と、
前記光軸が微小に移動させられるカメラ手段からの複数枚の画像を画像処理することで、前記少なくとも2つの所定の撮影位置における対象物体のエッジが抽出されたエッジ画像をそれぞれ生成する過程と、
前記それぞれのエッジ画像を比較して対象物体の対応するエッジを検出する過程と、
を具備することを特徴とする立体形状検出方法。
A three-dimensional shape detection method for photographing a target object and detecting the three-dimensional shape, the method comprising:
A process of photographing the target object from at least two predetermined photographing positions having different lines of sight to the target object with at least one camera means having an image sensor and a lens;
A step of minutely moving the optical axis of the camera means in a direction connecting the at least two predetermined photographing positions during the photographing step;
A process of generating edge images in which edges of the target object at the at least two predetermined photographing positions are extracted by performing image processing on a plurality of images from the camera unit in which the optical axis is moved minutely,
Comparing the respective edge images to detect corresponding edges of the target object;
A three-dimensional shape detection method comprising:
請求項12に記載の立体形状検出方法において、前記エッジ画像を生成する過程は、前記複数枚の画像の各対応画素の濃淡値又は彩度値を差分処理し、正規化を行なうことを特徴とする立体形状検出方法。   13. The three-dimensional shape detection method according to claim 12, wherein in the process of generating the edge image, a grayscale value or a saturation value of each corresponding pixel of the plurality of images is subjected to a differential process to perform normalization. 3D shape detection method. 請求項13に記載の立体形状検出方法において、前記エッジ画像を生成する過程は、さらに2値化処理を行なうことを特徴とする立体形状検出方法。   The three-dimensional shape detection method according to claim 13, wherein the step of generating the edge image further performs binarization processing. 請求項12乃至請求項14の何れかに記載の立体形状検出方法において、前記対応するエッジを検出する過程は、前記エッジ画像の前記エッジの幅及び長さを基準に、前記少なくとも2つの所定の撮影位置におけるエッジ画像のエッジを対応付けることを特徴とする立体形状検出方法。   15. The three-dimensional shape detection method according to claim 12, wherein the step of detecting the corresponding edge includes the at least two predetermined edges based on the width and length of the edge of the edge image. A three-dimensional shape detection method characterized by associating edges of an edge image at a photographing position. 請求項12乃至請求項14の何れかに記載の立体形状検出方法において、前記対応するエッジを検出する過程は、パターンマッチング法により、前記少なくとも2つの所定の撮影位置におけるエッジ画像のエッジを対応付けることを特徴とする立体形状検出方法。   15. The three-dimensional shape detection method according to claim 12, wherein the step of detecting the corresponding edge associates edges of the edge image at the at least two predetermined photographing positions by a pattern matching method. A solid shape detection method characterized by the above. 請求項12乃至請求項16の何れかに記載の立体形状検出方法において、前記対応するエッジを検出する過程は、さらに、対象物体への視線の方向も基準にすることを特徴とする立体形状検出方法。   17. The solid shape detection method according to claim 12, wherein the step of detecting the corresponding edge further uses a direction of the line of sight to the target object as a reference. Method. 請求項17に記載の立体形状検出方法において、前記対応するエッジを検出する過程は、生成されたエッジ画像のエッジを、対象物体への視線の方向を基準に所定の基準幅に変換した後、それぞれのエッジ画像を比較することを特徴とする立体形状検出方法。
The three-dimensional shape detection method according to claim 17, wherein in the process of detecting the corresponding edge, the edge of the generated edge image is converted into a predetermined reference width based on the direction of the line of sight to the target object. A three-dimensional shape detection method comprising comparing respective edge images.
JP2005074869A 2005-03-16 2005-03-16 Three-dimensional shape detection apparatus and three-dimensional shape detection method Active JP4243692B2 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2005074869A JP4243692B2 (en) 2005-03-16 2005-03-16 Three-dimensional shape detection apparatus and three-dimensional shape detection method
CN2006800071015A CN101133299B (en) 2005-03-16 2006-03-15 3-dimensional shape detection device and 3-dimensional shape detection method
PCT/JP2006/305105 WO2006109394A1 (en) 2005-03-16 2006-03-15 3-dimensional shape detection device and 3-dimensional shape detection method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005074869A JP4243692B2 (en) 2005-03-16 2005-03-16 Three-dimensional shape detection apparatus and three-dimensional shape detection method

Publications (2)

Publication Number Publication Date
JP2006258543A JP2006258543A (en) 2006-09-28
JP4243692B2 true JP4243692B2 (en) 2009-03-25

Family

ID=37086686

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005074869A Active JP4243692B2 (en) 2005-03-16 2005-03-16 Three-dimensional shape detection apparatus and three-dimensional shape detection method

Country Status (3)

Country Link
JP (1) JP4243692B2 (en)
CN (1) CN101133299B (en)
WO (1) WO2006109394A1 (en)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007120993A (en) * 2005-10-25 2007-05-17 Tokyo Institute Of Technology Object shape measuring device
JP5229726B2 (en) 2008-08-20 2013-07-03 国立大学法人東京工業大学 Long-distance target search camera system
JP5163373B2 (en) * 2008-09-02 2013-03-13 コニカミノルタアドバンストレイヤー株式会社 Actuator and imaging device
JP2013157747A (en) 2012-01-27 2013-08-15 Denso Corp Sound field control apparatus and program
US11089225B2 (en) 2016-04-08 2021-08-10 Konica Minolta, Inc. Optical measuring device, image generating method, and image generating program
CN111150402A (en) * 2020-01-02 2020-05-15 秒针信息技术有限公司 Method, device, storage medium and electronic device for determining livestock form parameters
CN114577112A (en) * 2022-01-19 2022-06-03 格力电器(芜湖)有限公司 Chassis bolt position detection method and detection device

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2807137B2 (en) * 1992-12-15 1998-10-08 松下電工株式会社 3D shape detection method
CN2325758Y (en) * 1997-07-09 1999-06-23 北京医科大学口腔医学院 Laser scanning data acquisition device
CN2306483Y (en) * 1997-08-23 1999-02-03 李德功 Mini-measurer for vertical and horizontal sections of single interface light
JP3907891B2 (en) * 1999-11-11 2007-04-18 富士フイルム株式会社 Image capturing apparatus and image processing apparatus
JP2003295045A (en) * 2002-04-04 2003-10-15 Omron Corp Range-finding device and method
CN1219397C (en) * 2002-10-22 2005-09-14 张晓林 Bionic automatic vision and sight control system and method

Also Published As

Publication number Publication date
CN101133299B (en) 2010-04-14
JP2006258543A (en) 2006-09-28
CN101133299A (en) 2008-02-27
WO2006109394A1 (en) 2006-10-19

Similar Documents

Publication Publication Date Title
JP4243692B2 (en) Three-dimensional shape detection apparatus and three-dimensional shape detection method
JP2874710B2 (en) 3D position measuring device
JP5510238B2 (en) Image processing apparatus, imaging apparatus, image processing method, and program
WO2012039307A1 (en) Image processing device, imaging device, and image processing method and program
US20160182887A1 (en) Three dimensional imaging with a single camera
KR101737085B1 (en) 3D camera
CN105657237B (en) Image acquiring device and its digital zooming method
CN102428707A (en) Stereovision-Image Position Matching Apparatus, Stereovision-Image Position Matching Method, And Program Therefor
TW201216203A (en) Method and apparatus for generating image with shallow depth of field
JP6300346B2 (en) IP stereoscopic image estimation apparatus and program thereof
JP4306006B2 (en) Three-dimensional data input method and apparatus
JP5068732B2 (en) 3D shape generator
JP5929037B2 (en) Imaging device
KR101884565B1 (en) Apparatus and method of converting 2d images of a object into 3d modeling data of the object
KR100747733B1 (en) Parallel Axis 3D Camera and Formation Method of 3D Image
JP2006329747A (en) Imaging device
JP6409769B2 (en) 3D shape measuring apparatus, 3D shape measuring method, and 3D shape measuring program
JP2014041074A (en) Image processing apparatus and inspection apparatus
CN108489469A (en) A kind of monocular distance measuring device and method
JP7298687B2 (en) Object recognition device and object recognition method
JP2007096480A (en) Object tracking apparatus and object tracking method
KR101569787B1 (en) 3-Dimensional Video Information Obtaining Method Using Multi Camera
JP6292785B2 (en) Image processing apparatus, image processing method, and program
JP6066765B2 (en) Imaging device, control method thereof, and control program
JP2009237652A (en) Image processing apparatus and method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080310

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20081009

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20081209

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

R150 Certificate of patent or registration of utility model

Ref document number: 4243692

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R360 Written notification for declining of transfer of rights

Free format text: JAPANESE INTERMEDIATE CODE: R360

R360 Written notification for declining of transfer of rights

Free format text: JAPANESE INTERMEDIATE CODE: R360

R371 Transfer withdrawn

Free format text: JAPANESE INTERMEDIATE CODE: R371

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R360 Written notification for declining of transfer of rights

Free format text: JAPANESE INTERMEDIATE CODE: R360

R360 Written notification for declining of transfer of rights

Free format text: JAPANESE INTERMEDIATE CODE: R360

R371 Transfer withdrawn

Free format text: JAPANESE INTERMEDIATE CODE: R371

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250