WO2014073590A1 - 3次元計測装置および3次元計測方法 - Google Patents

3次元計測装置および3次元計測方法 Download PDF

Info

Publication number
WO2014073590A1
WO2014073590A1 PCT/JP2013/080073 JP2013080073W WO2014073590A1 WO 2014073590 A1 WO2014073590 A1 WO 2014073590A1 JP 2013080073 W JP2013080073 W JP 2013080073W WO 2014073590 A1 WO2014073590 A1 WO 2014073590A1
Authority
WO
WIPO (PCT)
Prior art keywords
cameras
exposure
moving body
light
camera
Prior art date
Application number
PCT/JP2013/080073
Other languages
English (en)
French (fr)
Inventor
光平 松尾
Original Assignee
シャープ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by シャープ株式会社 filed Critical シャープ株式会社
Publication of WO2014073590A1 publication Critical patent/WO2014073590A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/25Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
    • G01B11/2545Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object with one projection direction and several detection directions, e.g. stereo
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/25Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
    • G01B11/2513Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object with several lines being projected in more than one direction, e.g. grids, patterns
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C11/00Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
    • G01C11/04Interpretation of pictures
    • G01C11/06Interpretation of pictures by comparison of two or more pictures of the same area

Definitions

  • the present invention relates to a three-dimensional measurement apparatus and a three-dimensional measurement method for measuring a three-dimensional distance of a moving object that is a measurement target.
  • a typical example of the passive method is a stereo method.
  • the stereo method is a method of calculating distance information to an object based on images taken from a plurality of different viewpoints using a plurality of cameras. That is, a pair of corresponding pixels, that is, corresponding points are searched from the obtained left and right images, and how far the corresponding points of the left and right images are separated in the left and right direction, that is, a parallax is obtained. This is a method for calculating the distance to the object.
  • a typical example of the active method is a light cutting method.
  • the light cutting method is a method in which a linear known light pattern is projected onto an object, and the shape of the object is obtained from a change in the projected pattern shape.
  • a light cutting method When performing a three-dimensional measurement of a moving object moving at high speed, a light cutting method is generally used. This is because the light cutting method uses an image of a thin slit light, so that the amount of data used in one shooting is small and is most suitable for high-speed image processing.
  • Patent Document 1 JP-A-8-94313
  • the moving body is irradiated with belt-like light, and the shape of the moving body is calculated from the result of imaging by the imaging apparatus based on information from the detection means.
  • the conventional three-dimensional measuring apparatus uses the light cutting method and can only measure on the line irradiated with the band-like light by one measurement, in order to measure the entire plane, repeat measurement is performed. Need to run. Since the resolution in the plane direction is determined by the moving speed of the moving body and the frame rate of the camera, it is necessary to slow down the moving speed of the moving body or increase the frame rate of the camera. When considering use in an inspection line, slowing down the speed of a moving object will reduce the production capacity of the line, so it is not practical. To increase the frame rate of a camera, a special image sensor Since a high-speed camera using the camera must be used, there is a problem that it becomes expensive.
  • an object of the present invention is to provide a three-dimensional measurement apparatus and a three-dimensional measurement method that can use an inexpensive camera and can accurately perform three-dimensional measurement of a moving object with a simple configuration.
  • the three-dimensional measurement apparatus of the present invention A plurality of cameras including an image sensor that captures a moving object that is a measurement target and exposure timing is different for each line; A light projecting means for projecting light toward the moving body; Detecting means for detecting that the moving body has reached a measurement position measured by the plurality of cameras; Controlling the exposure of the plurality of cameras so that all lines of the plurality of cameras are in an exposure state, and projecting the light projecting means so as to project light during a period in which all the lines of the plurality of cameras are in an exposure state. Control means for controlling; And a three-dimensional distance calculating means for calculating a three-dimensional distance of the moving body based on images taken by the plurality of cameras.
  • the light projecting unit is a pattern projector that projects a non-periodic bright and dark pattern.
  • a moving body detecting step for detecting, by the detecting means, that the moving body has reached a measurement position measured by a plurality of cameras including image pickup devices having different exposure timings for each line; After a predetermined time after the detection means detects the moving body, exposure of the plurality of cameras is started, and exposure of the plurality of cameras is performed so that all lines of the plurality of cameras are in an exposure state.
  • An exposure step to control A light projecting step of projecting light from the light projecting means toward the moving body for a preset light projecting time during a period in which all lines of the plurality of cameras are in an exposure state; A three-dimensional distance calculating step of calculating a three-dimensional distance of the moving body based on images taken by the plurality of cameras.
  • T is a preset time until the start of exposure, and among the plurality of cameras, the time delay that occurs between the camera with the earliest exposure start time and the camera with the latest exposure start time.
  • D where R represents the time delay that occurs for each line in the plurality of cameras, n represents the total number of lines, and E represents the exposure time for each line of the plurality of cameras, the exposure time E is at least (D + R ⁇ n). That's it,
  • the light projecting by the light projecting means is performed between (T + D + R ⁇ n) and (T + E).
  • the light projecting time F of the light projecting means is ((p ⁇ w) / (f ⁇ S ⁇ 2)) or less.
  • the control unit controls exposure of the plurality of cameras so that all lines of the plurality of cameras are in an exposure state, and all lines of the plurality of cameras are in an exposure state.
  • the light projecting means is controlled to project light during a certain period.
  • the three-dimensional measurement method of the present invention after a predetermined time after the detection means detects the moving body, exposure of the plurality of cameras is started, and all lines of the plurality of cameras are exposed.
  • the exposure of the plurality of cameras is controlled so that Then, during a period in which all lines of the plurality of cameras are in an exposed state, light is projected from the light projecting unit toward the moving body for a preset light projecting time.
  • FIG. 1 is a schematic configuration diagram showing a three-dimensional measuring apparatus according to an embodiment of the present invention.
  • the three-dimensional measurement apparatus 1 measures the three-dimensional distance of the moving body 8 that is the measurement target, and measures the shape and height of the moving body 8.
  • the moving body 8 is transported by a transport belt.
  • the three-dimensional measuring apparatus 1 includes a first camera 2, a second camera 3, a pattern projector 4 (as a projector), a detector 5, a controller 6, and a three-dimensional distance calculation. Means 7.
  • the first camera 2 and the second camera 3 are camera modules including an image sensor (not shown), a lens, and a lens driving element.
  • a CMOS image sensor is used as the imaging element. Advantages of using a CMOS image sensor are that it is inexpensive and uses a CMOS image sensor integrated with a control DSP (Digital Signal Processor), so that the captured image size, focal length, and exposure can be obtained without providing an external circuit. It is mentioned that camera parameters such as white balance can be electrically controlled. However, since a camera using a CMO image sensor generally employs a rolling shutter system in which the exposure timing is shifted for each line (scanning line), a subject moving with the camera using the CMOS image sensor. Is taken with a high-speed electronic shutter, the image is distorted. Therefore, it is not suitable for three-dimensional measurement of a moving subject.
  • DSP Digital Signal Processor
  • a lens group in which a plurality of glass lenses and plastic lenses are combined is used. Thereby, measurement with high accuracy is possible.
  • a voice coil motor or a stepping motor is used as the lens driving element. Thereby, it is possible to adjust the focus from a short distance to a long distance, and it is possible to widen the measurement correspondence distance.
  • the pixel size and installation of the first and second cameras 2 and 3 must be selected and installed according to the size of the moving body 8 to be measured and the required measurement accuracy.
  • the theoretical measurement accuracy is improved by reducing the pixel pitch of the camera, increasing the focal length, increasing the distance between the two cameras, that is, the base line length, and shortening the distance to the moving body 8.
  • the pixel pitch is 1.4 ⁇ m
  • the focal length is 3 mm
  • the base length is 60 mm
  • the measurement distance is 150 mm. That's fine.
  • the angle between the two cameras that is, the convergence angle may be adjusted so that the moving body 8 is reflected within the angle of view of the two cameras. In the above example, it may be adjusted to about 20 degrees.
  • the pattern projector 4 projects a non-periodic light / dark pattern onto the moving body 8 during measurement, and includes a light source (not shown), a glass mask, a diffusion lens, a focus lens, and the like.
  • an LED or a laser diode can be used as the light source.
  • a random binary dot pattern is printed on the glass mask.
  • the diffusion lens is for guiding light from the light source evenly to the entire glass mask.
  • the focus lens is a lens that collects light so that light passing through the glass mask is focused at the position of the moving body 8. It is desirable that the focus lens can be changed in focus position by changing the mounting position with respect to the glass mask. For example, the adjustment may be performed by providing screws on the housing and the focus lens of the pattern projector 4 and screwing them in or out. Alternatively, by providing a voice coil motor or a stepping motor as a lens driving element, the focus can be electrically adjusted from a short distance to a long distance.
  • a fine luminance change is given to the moving body 8. Due to the randomness of the light / dark pattern, these luminance changes can be recognized in a one-to-one correspondence in the left and right images. Measurement is possible even when no bright / dark pattern is projected, but stable measurement is possible even when the feature points on the surface of the moving body 8 are poor or when the contrast is low.
  • a commercially available projector may be used as the pattern projector 4.
  • the arrangement of the pattern projector 4 is not particularly limited, and may be arranged in a place where the measurement result is the best. If the first camera 2 and the second camera 3 are arranged so that specular reflection light enters, since intense light may enter a part of the camera image and become too bright (saturated), the specular reflection light does not enter. It is desirable to arrange them as follows.
  • the detection means 5 is for detecting that the moving body 8 has reached the measurement position measured by the first and second cameras 2 and 3.
  • the detection means 5 one using light or one using ultrasonic waves can be used, but if the detection position varies, the photographing position will vary. Is good.
  • the detection means 5 is a photo sensor using light, for example.
  • the control means 6 controls the exposure timing and exposure time of the first and second cameras 2 and 3 and controls the light projection timing and light projection time of the pattern projector 4.
  • the exposure timing of the first and second cameras 2 and 3 is a camera having an external synchronization function, it is possible to perform exposure at the same time by sending a synchronization signal. Cameras using inexpensive CMOS images generally do not have an external synchronization function. Therefore, exposure timing is controlled by sending a control signal to a DSP built in the CMOS image sensor. Specifically, the exposure timing is controlled by simultaneously canceling standby for a plurality of cameras from a state in which the standby function for setting the camera operation to the standby state is activated. The exposure times of the first and second cameras 2 and 3 are also controlled by sending a control signal to the DSP.
  • the control of the light projection timing and the light projection time of the pattern projector 4 is performed by sending a drive pulse current to the light source of the pattern projector 4. Details of the control of the control means 6 will be described in the overall flow of three-dimensional measurement shown in FIG.
  • the three-dimensional distance calculating means 7 calculates a three-dimensional distance based on images taken by the first and second cameras 2 and 3.
  • the three-dimensional distance calculation means 7 includes a corresponding point search unit (not shown) and a three-dimensional coordinate calculation unit.
  • the corresponding point search unit performs a process of searching for a corresponding pixel from the image of the second camera 3 for each pixel on the image of the first camera 2 using the first camera 2 as a reference.
  • edge enhancement processing is performed as a prefilter in order to absorb a luminance difference between left and right images, a local luminance level fluctuation in the image, and the like.
  • a prefilter a Sobel filter, a Laplacian filter, or the like is used.
  • a region called a “correlation window” having a square shape of p pixels in the vertical and horizontal directions is set around the pixel of interest in the image of the first camera 2.
  • a correlation window of the same size is set in the same column in the image of the second camera 3, and an evaluation amount indicating a degree of correlation between pixels included in the correlation window of both images is set by sliding the window in the horizontal direction. I will calculate.
  • the evaluation amount indicating the degree of correlation for example, an amount that can be calculated by pixel calculation such as SAD (Sum of Absolute Difference) is used.
  • the degree of correlation does not exceed a predetermined value even after searching from end to end of the correlation search range, it is considered that there is no correlation point.
  • the correlation point may not exist. If a corresponding point cannot be found or a corresponding point is detected by mistake, noise may be mixed.
  • the noise ratio tends to increase instead of increasing the measurement accuracy.
  • noise is removed by applying a post filter to the corresponding point search result.
  • the post filter for example, a smoothing filter such as Gaussian or median or a morphological process such as expansion / contraction is used.
  • the parallax is calculated from the information on the obtained corresponding points.
  • the parallax is defined as the distance between the target pixel of the image of the first camera 2 and the corresponding pixel of the image of the second camera 3 expressed in units of pixels in the horizontal direction.
  • the three-dimensional coordinate calculation unit calculates three-dimensional coordinates for each point of the image of the first camera 2 based on the parallax obtained by the corresponding point search unit.
  • FIG. 2 is a flowchart
  • FIG. 3 is a timing chart
  • FIG. 4 is a diagram for assisting the explanation of the light projection time.
  • step S101 the detection means 5 detects the moving body 8.
  • the detection means 5 is a reflection type photosensor
  • the moving body is detected by the reflected light of the light source of the photosensor returning to the light receiving unit by the passage of the moving body 8.
  • the detection position of the moving body is different from the position to be exposed by the first and second cameras 2 and 3
  • adjustment is performed by controlling the exposure timing by the control means 6.
  • the time indicated as T in FIG. 3 is the adjustment time.
  • the position to be exposed may normally be set to a time when the moving body reaches the center of the photographing range of the camera.
  • step S102 on the basis of the detection signal from the detection means 5, the signal for canceling the standby mode at the same time for the first camera 2 and the second camera 3 after the time T, which is a preset adjustment time, by the control means 6 , The exposure of the first camera 2 and the second camera 3 is started.
  • the exposure start time is as shown in FIG.
  • the exposure start time is shifted by R.
  • the deviation R of the exposure start time varies depending on the pixel size, frame rate, and image output format of the camera. This shift is accumulated for each line, and the exposure start time of the last line is (R ⁇ n) when the number of vertical lines is n lines, and is set by the first camera 2 and the second camera 3. If they are the same, they will have a common value.
  • the exposure time E of the camera needs to be set longer than at least (D + R ⁇ n) in order to create a period in which all lines of all cameras are in an exposed state. Although it is possible to make it longer than this, it should be set as short as possible because the processing time increases and the random noise of the camera increases.
  • the exposure time E is a common time for all lines of all cameras, and is controlled by sending a control signal to a DSP built in the camera.
  • step S103 based on the detection signal from the detection means 5, the light projection of the pattern projector 4 is started after the time preset by the control means 6.
  • the light projectable time of the pattern projector 4 needs to be a period in which all the lines of the first camera 2 and the second camera 3 are in the exposure state in step S102. That is, as described in FIG. 3, the light projectable time is calculated from the rise of the detection signal from the detection means 5 and is from (T + D + R ⁇ n) to (T + E).
  • the light projection time F of the pattern projector 4 will be described with reference to FIG.
  • the light projection time F of the pattern projector 4 is set so that the moving distance of the moving body 8 is the first camera 2 and the second camera 3 (not shown) at the position of the moving body 8 in order to perform shooting without blurring. It is sufficient to make it less than half of the photographing range x per pixel. That is, if the pixel pitch of the camera is p, the focal length of the camera is f, the working distance of the camera (that is, the installation position of the camera) is w, and the moving speed of the moving body 8 is S, the projection time F is (( p ⁇ w) / (f ⁇ S ⁇ 2)) or less. By doing so, it is possible to obtain images taken at the same timing by the first camera 2 and the second camera 3 without being affected by the rolling shutter and without blurring the image of the moving body 8. Become.
  • the brightness of the pattern projector 4 needs to be sufficient to allow exposure in the light projection time. If the exposure is excessive or insufficient, the camera gain may be adjusted. In addition, when the outside light during the period when the pattern projector 4 is not projecting becomes measurement noise, the measurement should be performed in a dark room or a dark box that blocks the outside light should be installed. When such an environment cannot be prepared, it is necessary to devise a means to block indoor light.
  • step S104 images captured at the same timing by the first camera 2 and the second camera 3 are acquired.
  • step S105 a corresponding point is searched based on the obtained image, and parallax information is obtained.
  • step S106 three-dimensional coordinates are calculated for all pixels of the image of the first camera 2 based on the disparity information obtained as a result of the corresponding point search.
  • the present invention is not limited to the above-described embodiment.
  • two cameras are mounted and corresponding point search is performed from two image pairs.
  • the number of cameras is not limited to two, and three or more cameras may be used.
  • the three-dimensional measuring apparatus of the present invention can be used as a three-dimensional measuring apparatus for a moving body for industrial use, consumer use and other uses.
  • the three-dimensional measuring apparatus of the present invention is A plurality of cameras 2 and 3 including an imaging device that images the moving object 8 to be measured and has different exposure timing for each line; Light projecting means 4 for projecting light toward the moving body 8; Detection means 5 for detecting that the moving body 8 has reached a measurement position measured by the plurality of cameras 2 and 3; The exposure of the plurality of cameras 2 and 3 is controlled so that all the lines of the plurality of cameras 2 and 3 are in an exposure state, and light is projected during a period in which all the lines of the plurality of cameras 2 and 3 are in an exposure state. Control means 6 for controlling the light projecting means 4 to emit light; And a three-dimensional distance calculating means 7 for calculating a three-dimensional distance of the moving body 8 based on images taken by the plurality of cameras 2 and 3.
  • the control means 6 controls the exposure of the plurality of cameras 2 and 3 so that all the lines of the plurality of cameras 2 and 3 are exposed, and the plurality of the plurality of cameras 2 and 3 are exposed.
  • the light projecting means 4 is controlled so that light is projected during a period in which all lines of the cameras 2 and 3 are in an exposure state.
  • an inexpensive CMOS sensor of a rolling shutter system in which the exposure timing is shifted for each line can be used as the imaging element of the cameras 2 and 3, and the three-dimensional measurement of the moving body 8 can be performed with high accuracy. it can.
  • the light projecting means 4 is a pattern projector that projects a non-periodic bright and dark pattern.
  • the light projecting means 4 is a pattern projector that projects a non-periodic light / dark pattern. Even when there are few points that are features for taking correspondence between images, it is possible to perform three-dimensional measurement with high accuracy.
  • a moving body 8 detecting step in which the detecting means 5 detects that the moving body 8 has arrived at a measurement position measured by a plurality of cameras 2 and 3 including imaging devices having different exposure timings for each line; After a predetermined time after the detection means 5 detects the moving body 8, exposure of the plurality of cameras 2 and 3 is started so that all lines of the plurality of cameras 2 and 3 are exposed.
  • exposure of the plurality of cameras 2 and 3 is started after a predetermined time after the detection unit 5 detects the moving body 8, and the plurality of cameras The exposure of the plurality of cameras 2 and 3 is controlled so that all the lines 2 and 3 are exposed. Then, during the period in which all the lines of the plurality of cameras 2 and 3 are in the exposure state, light is projected from the light projecting means 4 toward the moving body 8 for a preset light projecting time.
  • inexpensive cameras 2 and 3 can be used, and three-dimensional measurement of the moving body 8 can be performed with a simple control step.
  • the time until the preset exposure is started is T, and among the plurality of cameras 2 and 3, between the camera 2 having the earliest exposure start time and the camera 3 having the latest exposure start time.
  • the time delay that occurs is D
  • the time delay that occurs for each line in the plurality of cameras 2 and 3 is R
  • the total number of lines is n
  • the exposure time for each line of the plurality of cameras 2 and 3 is E.
  • the exposure time E is at least (D + R ⁇ n) or more
  • light projecting by the light projecting means 4 is performed between (T + D + R ⁇ n) and (T + E).
  • the light projecting by the light projecting means 4 is performed between (T + D + R ⁇ n) and (T + E).
  • the three-dimensional measurement of the moving body 8 can be accurately performed using the cameras 2 and 3 that employ inexpensive CMOS sensors of a rolling shutter system in which the exposure timing is shifted for each line.
  • the light projecting time F of the light projecting means 4 is ((p ⁇ w) / (f ⁇ S ⁇ 2)) or less.
  • the light projecting time F of the light projecting means 4 is ((p ⁇ w) / (f ⁇ S ⁇ 2)) or less.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

 ライン毎に露光タイミングが異なる撮像素子を含む複数のカメラ(2,3)と、移動体(8)に向けて光を投光する投光手段(4)と、移動体(8)が複数のカメラ(2,3)によって計測される計測位置に到達したことを検知する検知手段(5)と、複数のカメラ(2,3)の全ラインが露光状態となるように複数のカメラ(2,3)の露光を制御し、複数のカメラ(2,3)の全ラインが露光状態である期間に光を投光するように投光手段(4)を制御する制御手段(6)と、複数のカメラ(2,3)で撮影された画像に基づいて移動体(8)の3次元距離を計算する3次元距離計算手段(7)と、を備える。

Description

3次元計測装置および3次元計測方法
 この発明は、計測対象である移動体の3次元距離を計測する3次元計測装置および3次元計測方法に関する。
 非接触式の3次元計測手法は、様々な手法が提案されており、大きく受動的手法と能動的手法の二つに分類することができる。
 受動的手法の代表的なものとしては、ステレオ法が挙げられる。ステレオ法は複数のカメラを用いて、複数の異なる視点から撮影した画像をもとに、対象物までの距離情報を計算する方法である。すなわち、得られた左右画像から対応する画素の対、即ち対応点を探索し、左右画像の対応点同士が左右方向にどれだけ離れているか、即ち視差を求め、この視差から三角測量の原理を用いて、対象物までの距離を算出する方法である。
 能動的手法の代表的なものとしては、光切断法が挙げられる。光切断法は、対象物に直線状の既知の光パターンを投影し、投影されたパターン形状の変化から対象物の形状を求める方法である。
 高速で移動中の移動体の3次元計測を行う場合、光切断法が一般に用いられる。これは、光切断法では細いスリット光の映像を用いるため1回の撮影で利用するデータ量が少なく、高速画像処理に最も適しているためである。
 従来、3次元計測装置としては、特開平8-94313号公報(特許文献1)に記載されたものがある。この3次元計測装置では、移動体に帯状光を照射して、検知手段からの情報に基づき、撮像装置で撮像した結果から移動体の形状を算出している。
特開平8-94313号公報
 しかしながら、上記従来の3次元計測装置では、光切断法を用いており、一度の計測で帯状光の照射されるライン上の計測しかできないため、平面全体の計測を行うためには、繰り返し計測を実行する必要がある。平面方向の分解能は、移動体の移動速度とカメラのフレームレートで決定するため、移動体の移動速度を遅くするかもしくはカメラのフレームレートを上げる必要がある。検査ラインでの使用を考えた場合、移動体の速度を遅くすることは、ラインの生産能力を落とすことになるため、現実的でなく、カメラのフレームレートを上げるためには、特殊な撮像素子を用いた高速度カメラを用いなければならないため、高価になるという問題がある。
 また、ステレオ法を用いて高速に移動する移動体の3次元形状計測を行うためには、2台のカメラの露光タイミングがずれないよう外部からの同期信号により撮影を実行する機能を有し、かつ全画素エリアを同時に露光可能なグローバルシャッター機能を有し、かつ高速電子シャッター機能を有するカメラを用いる必要がある。このようなカメラは高額であり、かつ、種類が少なく選択の幅が限られる問題がある。
 安価なCMOSイメージセンサを用いたカメラの場合、ラインごとに露光タイミングにずれが生じるローリングシャッター方式であるため、高速電子シャッターを用いた方法では、ローリングシャッターに起因する画像歪が発生してしまう。この画像歪は、3次元計測の精度を著しく悪化させるため、安価なCMOSイメージセンサを用いた移動体の3次元計測は困難であった。
 そこで、この発明の課題は、安価なカメラを使用でき、簡単な構成で、移動体の3次元計測を精度よく行うことができる3次元計測装置および3次元計測方法を提供することにある。
 上記課題を解決するため、この発明の3次元計測装置は、
 計測対象である移動体を撮影すると共に、ライン毎に露光タイミングが異なる撮像素子を含む複数のカメラと、
 上記移動体に向けて光を投光する投光手段と、
 上記移動体が上記複数のカメラによって計測される計測位置に到達したことを検知する検知手段と、
 上記複数のカメラの全ラインが露光状態となるように上記複数のカメラの露光を制御し、上記複数のカメラの全ラインが露光状態である期間に光を投光するように上記投光手段を制御する制御手段と、
 上記複数のカメラで撮影された画像に基づいて上記移動体の3次元距離を計算する3次元距離計算手段と
を備えることを特徴としている。
 また、一実施形態の3次元計測装置では、上記投光手段は、非周期的な明暗パターンを投光するパターン投光機である。
 また、一実施形態の3次元計測方法では、
 移動体が、ライン毎に露光タイミングが異なる撮像素子を含む複数のカメラによって計測される計測位置に、到達したことを、検知手段により検知する移動体検知ステップと、
 上記検知手段が上記移動体を検知してから予め設定された時間後に、上記複数のカメラの露光を開始し、上記複数のカメラの全ラインが露光状態となるように上記複数のカメラの露光を制御する露光ステップと、
 上記複数のカメラの全ラインが露光状態である期間に、投光手段から、予め設定された投光時間だけ上記移動体に向けて光を投光する投光ステップと、
 上記複数のカメラで撮影された画像に基づいて上記移動体の3次元距離を計算する3次元距離計算ステップと
を備える。
 また、一実施形態の3次元計測方法では、
 上記露光ステップにおいて、予め設定された露光を開始するまでの時間をT、上記複数のカメラのうち、露光開始時刻の最も速いカメラと露光開始時刻の最も遅いカメラとの間に生じる時間の遅れをD、上記複数のカメラにおいて1ライン毎に生じる時間の遅れをR、全ライン数をn、上記複数のカメラのライン毎の露光時間をEとすると、露光時間Eは、少なくとも(D+R×n)以上であり、
 上記投光ステップにおいて、上記投光手段による投光は、(T+D+R×n)後から(T+E)後までの間に、行なわれる。
 また、一実施形態の3次元計測方法では、
 上記各カメラの画素ピッチをp、上記各カメラの焦点距離をf、上記各カメラのワーキングディスタンスをw、上記移動体の移動速度をSとすると、
 上記投光ステップにおいて、上記投光手段の投光時間Fは、((p×w)/(f×S×2))以下である。
 この発明の3次元計測装置によれば、上記制御手段は、上記複数のカメラの全ラインが露光状態となるように上記複数のカメラの露光を制御し、上記複数のカメラの全ラインが露光状態である期間に光を投光するように上記投光手段を制御する。これにより、安価なカメラを使用でき、簡単な構成で、移動体の3次元計測を精度よく行うことができる。
 この発明の3次元計測方法によれば、上記検知手段が上記移動体を検知してから予め設定された時間後に、上記複数のカメラの露光を開始し、上記複数のカメラの全ラインが露光状態となるように上記複数のカメラの露光を制御する。そして、上記複数のカメラの全ラインが露光状態である期間に、投光手段から、予め設定された投光時間だけ上記移動体に向けて光を投光する。これにより、安価なカメラを使用でき、簡単な制御ステップで、移動体の3次元計測が可能となる。
本発明の一実施形態の3次元計測装置を示す概略構成図である。 3次元計測装置の3次元計測の手順を示すフローチャートである。 3次元計測装置の3次元計測の制御タイミングを示すタイミングチャートである。 パターン投光機の投光時間についての説明を補助する図である。
 以下、この発明を図示の実施の形態により詳細に説明する。
 図1は、この発明の一実施形態の3次元計測装置を示す概略構成図である。図1に示すように、3次元計測装置1は、計測対象である移動体8の3次元距離を計測して、移動体8の形状や高さを計測する。移動体8は、搬送ベルトにて搬送される。
 上記3次元計測装置1は、第1のカメラ2と、第2のカメラ3と、(投光手段としての)パターン投光機4と、検知手段5と、制御手段6と、3次元距離計算手段7とを備える。
 上記第1のカメラ2および上記第2のカメラ3は、(図示しない)撮像素子、レンズおよびレンズ駆動素子から構成されるカメラモジュールである。
 上記撮像素子としては、CMOSイメージセンサが用いられる。CMOSイメージセンサを用いる長所としては、安価であること、制御用DSP(Digital Signal Processor)が一体となったCMOSイメージセンサを用いることで、外部に回路を設けることなく撮影画像サイズや焦点距離、露出、ホワイトバランスなどのカメラパラメータを電気的に制御することができることが、挙げられる。ただし、CMOイメージセンサを用いたカメラは、一般的に、ライン(走査線)毎に露光タイミングにずれが生じるローリングシャッター方式を採用しているため、CMOSイメージセンサを用いたカメラで移動中の被写体を高速電子シャッターで撮影した場合、画像に歪が生じる。そのため、移動中の被写体の3次元計測には不向きである。
 上記レンズとしては、ガラスレンズ、プラスチックレンズが複数枚組み合わされたレンズ群を使用する。これにより、精度の高い計測が可能となる。
 上記レンズ駆動素子として、ボイスコイルモータやステッピングモータを用いる。これにより、近距離から遠距離までフォーカスを調整することが可能となり、計測の対応距離を広くすることが可能である。
 上記第1、上記第2のカメラ2,3の画素サイズや設置は、計測したい移動体8のサイズや必要な計測精度によって、選択・設置する必要がある。理論上の計測精度は、カメラの画素ピッチを小さく、焦点距離を長く、2つのカメラ間の距離すなわち基線長を長く、移動体8までの距離を短くすることで向上する。
 例えば、150mm程度の移動体8を奥行き方向の分解能0.15mm程度で計測を行うためには、画素ピッチが1.4μm、焦点距離が3mm、基線長が60mm、計測距離が150mmで、計測すればよい。2つのカメラ間の角度、すなわち輻輳角は、移動体8が2つのカメラの画角内に映るように調整すればよく、上記の例では、20度程度に調整すればよい。
 上記パターン投光機4は、計測時に移動体8に対し、非周期的な明暗パターンを投影するものであり、(図示しない)光源、ガラスマスク、拡散レンズおよびフォーカスレンズなどから構成される。
 上記光源としては、LEDやレーザダイオードが使用可能である。上記ガラスマスクには、ランダム2値ドットパターンが印刷されている。上記拡散レンズとしては、光源の光をガラスマスク全体へ均等に導くためのものである。
 上記フォーカスレンズとしては、ガラスマスクを通った光が移動体8の位置で合焦するように集光するレンズである。フォーカスレンズは、ガラスマスクに対して取付位置を変更することで、合焦位置を可変できるようにすることが望ましい。例えば、パターン投光機4の筐体とフォーカスレンズにネジを設け、ねじ込んだり、繰り出したりすることで調整すればよい。もしくは、レンズ駆動素子として、ボイスコイルモータやステッピングモータを設けることで、近距離から遠距離までフォーカスを電気的に調整することが可能となる。
 上記パターン投光機4で移動体8に明暗パターンを投影することにより、移動体8に細かい輝度変化が付与される。明暗パターンのランダム性により、これらの輝度変化を左右画像で一対一に対応づけて認識することができる。明暗パターンを投影しない場合であっても、計測は可能であるが、移動体8の表面の特徴点が乏しい場合やコントラストの低い場合であっても、安定した計測が可能になる。
 上記パターン投光機4として、市販のプロジェクタを使用してもよい。パターン投光機4の配置は、特に規定はなく、最も計測結果が良好となる場所に配置すれば良い。第1のカメラ2および第2のカメラ3に、正反射光が入る配置とすると、カメラ画像の一部に強烈光が入り明るくなり過ぎる(飽和する)ことがあるため、正反射光が入らないように配置するのが望ましい。
 上記検知手段5は、移動体8が、第1、第2のカメラ2,3によって計測される計測位置に到達したことを、検知するためのものである。検知手段5としては、光を利用したものや超音波を利用したものが使用可能であるが、検知する位置にばらつきがあると撮影位置にばらつきがでるため、繰り返し精度の高いセンサを用いた方がよい。検知手段5は、例えば、光を利用したフォトセンサである。
 上記制御手段6は、第1、第2のカメラ2,3の露光タイミングおよび露光時間の制御と、パターン投光機4の投光タイミングおよび投光時間の制御とを、行う。
 上記第1、上記第2のカメラ2,3の露光タイミングは、外部同期機能の付いたカメラであれば、同期信号を送ることで完全に同時刻に露光を行うことが可能である。安価なCMOSイメージを用いたカメラでは、一般的に外部同期機能がついていない。そこで、CMOSイメージセンサに内蔵されるDSPに制御信号を送ることで、露光タイミングの制御を行う。具体的には、カメラの動作を待機状態とするスタンバイ機能を働かせた状態から、複数のカメラに対して同時に、スタンバイ解除することによって、露光タイミングの制御を行う。また、上記第1、上記第2のカメラ2,3の露光時間についても、DSPに制御信号を送ることで制御を行う。
 上記パターン投光機4の投光タイミングおよび投光時間の制御については、パターン投光機4の光源に対して駆動パルス電流を送ることで、制御を行う。制御手段6の制御について詳細は、後述の図2に示す3次元計測の全体的な流れにおいて、記載する。
 上記3次元距離計算手段7は、第1、第2のカメラ2,3で撮影された画像に基づいて、3次元距離を計算する。3次元距離計算手段7は、(図示しない)対応点探索部および3次元座標算出部などから構成される。
 上記対応点探索部は、第1のカメラ2を基準として、第1のカメラ2の画像上の各画素に対して第2のカメラ3の画像から対応する画素を探索する処理を行う。
 上記対応点探索部による対応点探索について述べる。まず、左右画像の輝度差や画像内の局所的な輝度レベルの変動などを吸収するために、プレフィルタとしてエッジ強調処理が施される。プレフィルタとしては、ソベルフィルタやラプラシアンフィルタ等が用いられる。
 その後、上記第1のカメラ2の画像の注目する画素を中心として、縦横それぞれp画素の正方形状の「相関窓」と呼ばれる領域を設定する。第2のカメラ3の画像における同一列に、同じ大きさの相関窓を設定し、これを、左右方向にスライドさせながら、両画像の相関窓に含まれる画素間の相関度合いを示す評価量を計算してゆく。この相関度合いを示す評価量としては、例えば、SAD(Sum of Absolute Difference:差分絶対値和)などの画素演算で計算できる量が用いられる。所定の相関探索範囲の端から端まで探索したとき、相関度合いが最も高くなる状態での第2のカメラ3の画像の相関窓の中心点が、第1のカメラ2の画像の注目画素に対する対応点となる。
 なお、相関探索範囲の端から端まで探索しても相関度合いが所定の値以上にならない場合は、相関点が存在しないと見なされる。第1のカメラ2からは見えているが第2のカメラ3からは見えない部分(オクルージョン領域)を計測する場合や、移動体8のコントラストが低いときに相関点が存在しなくなることがある。対応点が見出せなかったり対応点を誤って検出したりすると、ノイズが混じることがある。特に、対応点探索時の相関窓サイズが比較的小さい場合、計測精度が高まる代わりにノイズの割合が大きくなる傾向にある。このようなノイズ成分を低減するため、対応点探索結果にポストフィルタを適用してノイズ除去を行う。ポストフィルタとしては、例えばガウシアン、メディアン等の平滑化フィルタや膨張収縮などのモルフォロジー処理が用いられる。
 その後、得られた対応点の情報から第1の視差が算出される。視差とは、第1のカメラ2の画像の注目画素と第2のカメラ3の画像の対応画素との距離を、水平方向の画素単位で表したものと定義される。
 上記3次元座標算出部では、上記対応点探索部で得られた視差に基づいて、第1のカメラ2の画像の各点につき3次元座標を算出する。
 次に、上記構成の3次元計測装置1による3次元計測の流れを、図2、図3、図4を用いて、説明する。図2は、フローチャートであり、図3は、タイミングチャートであり、図4は、投光時間についての説明を補助する図である。
 ステップS101では、検知手段5が移動体8を検知する。検知手段5が反射型のフォトセンサである場合、移動体8の通過により、フォトセンサの光源の反射光が、受光部に帰ってくることで、移動体が検知される。移動体の検知位置と第1、第2のカメラ2,3の露光させたい位置とが、異なる場合、制御手段6で露光タイミングを制御することで調整される。図3のTと記載された時間が、調整時間である。露光させたい位置とは、通常、移動体がカメラの撮影範囲の最も中心に到達する時間に設定すればよい。
 ステップS102では、検知手段5からの検知信号に基づいて、制御手段6が予め設定された調整時間である時間T後に、第1のカメラ2および第2のカメラ3に同時にスタンバイモードを解除する信号を送ることで、第1のカメラ2および第2のカメラ3の露光を開始する。
 この時、第1、第2のカメラ2,3のスタンバイモードの解除は、できる限り同じタイミングで行われることが望ましいが、制御手段6からの制御信号のずれ、および、第1のカメラ2と第2のカメラ3に内蔵されるDSPの処理時間のずれにより、図3のDと記載したようなわずかなずれが生じる。この時間Dは、制御手段6およびカメラのDSPの性能により異なるが、再現性があるため、実際の時間を計測することで、後の制御に使用される。
 また、第1のカメラ2および第2のカメラ3は、ライン毎に露光タイミングがずれるローリングシャッター方式の安価なCMOSセンサを採用したカメラであるため、露光開始時刻は、図3に示したように最初のラインであるLINE1と2番目のラインであるLINE2では、Rだけ露光開始時刻にずれが生じる。この露光開始時刻のずれRは、カメラの画素サイズやフレームレートや画像出力形式により異なる。このずれは、ライン毎に積算していき、最後のラインの露光開始時刻は、垂直ライン数をnラインとすると、(R×n)となり、第1のカメラ2と第2のカメラ3で設定を同じにしておけば、共通の値となる。
 カメラの露光時間Eは、全てのカメラの全てのラインが露光状態である期間を作るために、少なくとも(D+R×n)よりも長く設定する必要がある。これより長くすることは可能であるが、処理時間が増加につながること、カメラのランダムノイズが増えることからできるだけ短く設定すべきである。露光時間Eは、全てのカメラの全ラインで共通の時間となり、カメラに内蔵のDSPに制御信号を送ることで制御される。
 ステップS103では、上記検知手段5からの検知信号に基づいて、上記制御手段6で予め設定された時間後に、上記パターン投光機4の投光が開始される。パターン投光機4の投光可能時間は、ステップS102において、第1のカメラ2および第2のカメラ3の全てのラインが露光状態である期間である必要がある。すなわち、図3に記載されたように、投光可能時間は、検知手段5からの検知信号の立ち上がりから計算して、(T+D+R×n)後から(T+E)後までとなる。
 上記パターン投光機4の投光時間Fについて、図4を用いて説明する。パターン投光機4の投光時間Fは、ぶれることなく撮影を行なうために、移動体8の移動距離を、移動体8の位置における第1のカメラ2および(図示しない)第2のカメラ3の1画素あたりの撮影範囲xの半分以下にすればよい。つまり、カメラの画素ピッチをp、カメラの焦点距離をf、カメラのワーキングディスタンス(つまり、カメラの設置位置)をw、移動体8の移動速度をSとすると、投光時間Fは、((p×w)/(f×S×2))以下にすればよい。こうすることで、ローリングシャッターの影響を受けることなく、移動体8の画像がぶれることなく、第1のカメラ2と第2のカメラ3によって、同じタイミングで撮影された画像を得ることが可能となる。
 上記パターン投光機4の明るさは、上記投光時間で十分に露光可能な強度にする必要がある。露光が過剰な場合もしくは不足する場合は、カメラのゲインを調整すればよい。なお、パターン投光機4が投光していない期間の外光が計測のノイズとなってしまう場合、計測を暗室で行うか、もしくは、外光を遮断する暗箱を設置するべきであり、そのような環境が準備できない場合は、室内光をさえぎる工夫が必要である。
 ステップS104では、第1のカメラ2と第2のカメラ3によって、同じタイミングで撮影された画像が取得される。
 ステップS105では、得られた画像をもとに対応点の探索が行われ、視差情報が得られる。
 ステップS106では、対応点探索の結果得られた視差情報をもとに、第1のカメラ2の画像の全画素に対して、3次元座標が算出される。
 なお、この発明は上述の実施形態に限定されない。上記実施形態では、2つのカメラを搭載し、2枚の画像対から対応点探索を行っていたが、カメラの個数は2つに限らず、3つ以上のカメラを用いてもよい。
 また、本発明の3次元計測装置は、移動体の3次元計測装置として、産業用、民生用その他用途に用いることが可能である。
 この発明の3次元計測装置は、
 計測対象である移動体8を撮影すると共に、ライン毎に露光タイミングが異なる撮像素子を含む複数のカメラ2,3と、
 上記移動体8に向けて光を投光する投光手段4と、
 上記移動体8が上記複数のカメラ2,3によって計測される計測位置に到達したことを検知する検知手段5と、
 上記複数のカメラ2,3の全ラインが露光状態となるように上記複数のカメラ2,3の露光を制御し、上記複数のカメラ2,3の全ラインが露光状態である期間に光を投光するように上記投光手段4を制御する制御手段6と、
 上記複数のカメラ2,3で撮影された画像に基づいて上記移動体8の3次元距離を計算する3次元距離計算手段7と
を備えることを特徴としている。
 この発明の3次元計測装置によれば、上記制御手段6は、上記複数のカメラ2,3の全ラインが露光状態となるように上記複数のカメラ2,3の露光を制御し、上記複数のカメラ2,3の全ラインが露光状態である期間に光を投光するように上記投光手段4を制御する。
 これにより、上記カメラ2,3の上記撮像素子として、例えば、ラインごとに露光タイミングがずれるローリングシャッター方式の安価なCMOSセンサを用いることができ、移動体8の3次元計測を精度よく行うことができる。
 また、一実施形態の3次元計測装置では、上記投光手段4は、非周期的な明暗パターンを投光するパターン投光機である。
 この実施形態の3次元計測装置によれば、上記投光手段4は、非周期的な明暗パターンを投光するパターン投光機であるので、上記移動体8が、複数のカメラ2,3の画像の対応を取るための特徴となる点が少ない場合であっても、精度よく3次元計測を行うことが可能となる。
 また、一実施形態の3次元計測方法では、
 移動体8が、ライン毎に露光タイミングが異なる撮像素子を含む複数のカメラ2,3によって計測される計測位置に、到達したことを、検知手段5により検知する移動体8検知ステップと、
 上記検知手段5が上記移動体8を検知してから予め設定された時間後に、上記複数のカメラ2,3の露光を開始し、上記複数のカメラ2,3の全ラインが露光状態となるように上記複数のカメラ2,3の露光を制御する露光ステップと、
 上記複数のカメラ2,3の全ラインが露光状態である期間に、投光手段4から、予め設定された投光時間だけ上記移動体8に向けて光を投光する投光ステップと、
 上記複数のカメラ2,3で撮影された画像に基づいて上記移動体8の3次元距離を計算する3次元距離計算ステップと
を備える。
 この実施形態の3次元計測方法によれば、上記検知手段5が上記移動体8を検知してから予め設定された時間後に、上記複数のカメラ2,3の露光を開始し、上記複数のカメラ2,3の全ラインが露光状態となるように上記複数のカメラ2,3の露光を制御する。そして、上記複数のカメラ2,3の全ラインが露光状態である期間に、投光手段4から、予め設定された投光時間だけ上記移動体8に向けて光を投光する。これにより、安価なカメラ2,3を使用でき、簡単な制御ステップで、移動体8の3次元計測が可能となる。
 また、一実施形態の3次元計測方法では、
 上記露光ステップにおいて、予め設定された露光を開始するまでの時間をT、上記複数のカメラ2,3のうち、露光開始時刻の最も速いカメラ2と露光開始時刻の最も遅いカメラ3との間に生じる時間の遅れをD、上記複数のカメラ2,3において1ライン毎に生じる時間の遅れをR、全ライン数をn、上記複数のカメラ2,3のライン毎の露光時間をEとすると、露光時間Eは、少なくとも(D+R×n)以上であり、
 上記投光ステップにおいて、上記投光手段4による投光は、(T+D+R×n)後から(T+E)後までの間に、行なわれる。
 この実施形態の3次元計測方法によれば、上記投光ステップにおいて、上記投光手段4による投光は、(T+D+R×n)後から(T+E)後までの間に、行なわれる。これにより、例えば、ラインごとに露光タイミングがずれるローリングシャッター方式の安価なCMOSセンサを採用したカメラ2,3を用いて、移動体8の3次元計測を精度よく行うことができる。
 また、一実施形態の3次元計測方法では、
 上記各カメラ2,3の画素ピッチをp、上記各カメラ2,3の焦点距離をf、上記各カメラ2,3のワーキングディスタンスをw、上記移動体8の移動速度をSとすると、
 上記投光ステップにおいて、上記投光手段4の投光時間Fは、((p×w)/(f×S×2))以下である。
 この実施形態の3次元計測方法によれば、上記投光ステップにおいて、上記投光手段4の投光時間Fは、((p×w)/(f×S×2))以下である。これにより、計測対象である移動体8をブレなく複数のカメラ2,3で撮影ができ、3次元計測精度を向上させることができる。
 1  3次元計測装置
 2  第1のカメラ
 3  第2のカメラ
 4  パターン投光機(投光手段)
 5  検知手段
 6  制御手段
 7  3次元距離計算手段
 8  移動体

Claims (5)

  1.  計測対象である移動体(8)を撮影すると共に、ライン毎に露光タイミングが異なる撮像素子を含む複数のカメラ(2,3)と、
     上記移動体(8)に向けて光を投光する投光手段(4)と、
     上記移動体(8)が上記複数のカメラ(2,3)によって計測される計測位置に到達したことを検知する検知手段(5)と、
     上記複数のカメラ(2,3)の全ラインが露光状態となるように上記複数のカメラ(2,3)の露光を制御し、上記複数のカメラ(2,3)の全ラインが露光状態である期間に光を投光するように上記投光手段(4)を制御する制御手段(6)と、
     上記複数のカメラ(2,3)で撮影された画像に基づいて上記移動体(8)の3次元距離を計算する3次元距離計算手段(7)と
    を備えることを特徴とする3次元計測装置。
  2.  請求項1に記載の3次元計測装置において、
     上記投光手段(4)は、非周期的な明暗パターンを投光するパターン投光機であることを特徴とする3次元計測装置。
  3.  移動体(8)が、ライン毎に露光タイミングが異なる撮像素子を含む複数のカメラ(2,3)によって計測される計測位置に、到達したことを、検知手段(5)により検知する移動体検知ステップと、
     上記検知手段(5)が上記移動体(8)を検知してから予め設定された時間後に、上記複数のカメラ(2,3)の露光を開始し、上記複数のカメラ(2,3)の全ラインが露光状態となるように上記複数のカメラ(2,3)の露光を制御する露光ステップと、
     上記複数のカメラ(2,3)の全ラインが露光状態である期間に、投光手段(4)から、予め設定された投光時間だけ上記移動体(8)に向けて光を投光する投光ステップと、
     上記複数のカメラ(2,3)で撮影された画像に基づいて上記移動体(8)の3次元距離を計算する3次元距離計算ステップと
    を備えることを特徴とする3次元計測方法。
  4.  請求項3に記載の3次元計測方法において、
     上記露光ステップにおいて、予め設定された露光を開始するまでの時間をT、上記複数のカメラ(2,3)のうち、露光開始時刻の最も速いカメラ(2,3)と露光開始時刻の最も遅いカメラ(2,3)との間に生じる時間の遅れをD、上記複数のカメラ(2,3)において1ライン毎に生じる時間の遅れをR、全ライン数をn、上記複数のカメラ(2,3)のライン毎の露光時間をEとすると、露光時間Eは、少なくとも(D+R×n)以上であり、
     上記投光ステップにおいて、上記投光手段(4)による投光は、(T+D+R×n)後から(T+E)後までの間に、行なわれることを特徴とする3次元計測方法。
  5.  請求項3または4に記載の3次元計測方法において、
     上記各カメラ(2,3)の画素ピッチをp、上記各カメラ(2,3)の焦点距離をf、上記各カメラ(2,3)のワーキングディスタンスをw、上記移動体(8)の移動速度をSとすると、
     上記投光ステップにおいて、上記投光手段(4)の投光時間Fは、((p×w)/(f×S×2))以下であることを特徴とする3次元計測方法。
PCT/JP2013/080073 2012-11-09 2013-11-07 3次元計測装置および3次元計測方法 WO2014073590A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2012-247512 2012-11-09
JP2012247512A JP2014095631A (ja) 2012-11-09 2012-11-09 3次元計測装置および3次元計測方法

Publications (1)

Publication Number Publication Date
WO2014073590A1 true WO2014073590A1 (ja) 2014-05-15

Family

ID=50684691

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2013/080073 WO2014073590A1 (ja) 2012-11-09 2013-11-07 3次元計測装置および3次元計測方法

Country Status (2)

Country Link
JP (1) JP2014095631A (ja)
WO (1) WO2014073590A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111810777A (zh) * 2020-06-17 2020-10-23 安徽超清科技股份有限公司 一种智能人体特征识别摄像机
CN113874677A (zh) * 2019-05-31 2021-12-31 财团法人上总Dna研究所 三维测量装置、三维测量方法及三维测量用程序

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7198019B2 (ja) * 2018-09-20 2022-12-28 株式会社Screenホールディングス 基材処理装置および検出方法
JP2024075323A (ja) * 2022-11-22 2024-06-03 オムロン株式会社 計測装置

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004117186A (ja) * 2002-09-26 2004-04-15 Mitsutoyo Corp 3次元形状測定装置
JP2009081808A (ja) * 2007-09-27 2009-04-16 Fujifilm Corp 撮影制御装置、撮影制御方法、撮影制御プログラム、および撮影装置
JP2009124260A (ja) * 2007-11-12 2009-06-04 Ricoh Co Ltd 撮像装置
JP2010527457A (ja) * 2007-04-18 2010-08-12 株式会社オプトエレクトロニクス 移動物体を撮像するための撮像方法及び撮像装置

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004022327A (ja) * 2002-06-17 2004-01-22 Dainippon Printing Co Ltd 光源切替機構を有する照明装置
JP2008256635A (ja) * 2007-04-09 2008-10-23 Meidensha Corp 積雪量計測装置及び方法
JP2010154088A (ja) * 2008-12-24 2010-07-08 Seiko Epson Corp 位置と画像とを対応付ける画像処理
JP5636177B2 (ja) * 2009-08-06 2014-12-03 Hoya株式会社 内視鏡システム、および内視鏡
JP2012198075A (ja) * 2011-03-18 2012-10-18 Ricoh Co Ltd ステレオカメラ装置、画像補整方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004117186A (ja) * 2002-09-26 2004-04-15 Mitsutoyo Corp 3次元形状測定装置
JP2010527457A (ja) * 2007-04-18 2010-08-12 株式会社オプトエレクトロニクス 移動物体を撮像するための撮像方法及び撮像装置
JP2009081808A (ja) * 2007-09-27 2009-04-16 Fujifilm Corp 撮影制御装置、撮影制御方法、撮影制御プログラム、および撮影装置
JP2009124260A (ja) * 2007-11-12 2009-06-04 Ricoh Co Ltd 撮像装置

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113874677A (zh) * 2019-05-31 2021-12-31 财团法人上总Dna研究所 三维测量装置、三维测量方法及三维测量用程序
CN111810777A (zh) * 2020-06-17 2020-10-23 安徽超清科技股份有限公司 一种智能人体特征识别摄像机

Also Published As

Publication number Publication date
JP2014095631A (ja) 2014-05-22

Similar Documents

Publication Publication Date Title
US10698308B2 (en) Ranging method, automatic focusing method and device
US8619144B1 (en) Automatic camera calibration
JP5986364B2 (ja) 三次元形状計測装置、三次元形状計測装置の制御方法、およびプログラム
JP5895270B2 (ja) 撮像装置
WO2010100842A1 (ja) 撮像装置、運転者監視装置、顔部測距方法およびプログラム
JP2011145115A (ja) 測距装置、測距用モジュール及びこれを用いた撮像装置
JP2006279546A (ja) 電子カメラ、画像処理プログラム、および画像処理方法
WO2014073590A1 (ja) 3次元計測装置および3次元計測方法
JP6152772B2 (ja) 撮像装置、半導体集積回路および撮像方法
JP6432038B2 (ja) 撮像装置
US9247125B2 (en) Auxiliary light projection apparatus, flash apparatus, and photographing apparatus
CN116182786B (zh) 单目视觉测距方法、相机及介质
JP5023750B2 (ja) 測距装置および撮像装置
JP2010190793A (ja) 距離計測装置及び距離計測方法
US11616915B2 (en) Apparatus and method thereof, and storage medium for detecting a change in external light that occurs during shooting an image
JP4598372B2 (ja) 校正用三次元フィールド、校正用三次元フィールドの撮影方法
EP3163369B1 (en) Auto-focus control in a camera to prevent oscillation
JP6193609B2 (ja) 三次元形状計測装置、三次元形状計測方法
JP6089232B2 (ja) 撮像装置
JP2008233389A (ja) 焦点判定方法、焦点判定装置、および焦点判定プログラム
JP4642889B2 (ja) 校正用三次元フィールド、校正用三次元フィールドの撮影方法
JP6247724B2 (ja) 計測装置
JP2019007845A (ja) Mtf測定用チャート、画像処理方法および画像処理装置
WO2023190188A1 (ja) 撮像装置及びそれを備えた三次元計測装置
JP4765860B2 (ja) 監視カメラおよび撮像装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 13852742

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 13852742

Country of ref document: EP

Kind code of ref document: A1