WO2006057147A1 - カメラの校正方法及びカメラの校正装置 - Google Patents

カメラの校正方法及びカメラの校正装置 Download PDF

Info

Publication number
WO2006057147A1
WO2006057147A1 PCT/JP2005/020345 JP2005020345W WO2006057147A1 WO 2006057147 A1 WO2006057147 A1 WO 2006057147A1 JP 2005020345 W JP2005020345 W JP 2005020345W WO 2006057147 A1 WO2006057147 A1 WO 2006057147A1
Authority
WO
WIPO (PCT)
Prior art keywords
camera
plane
calibration
image
points
Prior art date
Application number
PCT/JP2005/020345
Other languages
English (en)
French (fr)
Inventor
Toshiaki Kakinami
Original Assignee
Aisin Seiki Kabushiki Kaisha
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Aisin Seiki Kabushiki Kaisha filed Critical Aisin Seiki Kabushiki Kaisha
Priority to US11/791,282 priority Critical patent/US8269848B2/en
Priority to EP05805559A priority patent/EP1816869A4/en
Publication of WO2006057147A1 publication Critical patent/WO2006057147A1/ja

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B15/00Special procedures for taking photographs; Apparatus therefor
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof

Definitions

  • the present invention relates to a camera calibration method and a camera calibration device, and more particularly to a camera calibration method and a camera calibration device that calibrate a camera image by a camera that projects a three-dimensional space onto a two-dimensional image. Concerning.
  • Non-Patent Document 1 discloses a method of calculating 11-degree-of-freedom camera parameters using a characteristic three-dimensional object calibration index.
  • a characteristic three-dimensional object is placed at a position where it can be captured by the camera, and geometrically calculated at which point the three-dimensional object is displayed in the image coordinate system of the camera.
  • the camera parameters are determined from 3D space.
  • the assembly of the vehicle such as a factory is not possible.
  • the ability to calibrate on the line Good workability is a requirement at such production sites.
  • Patent Document 1 discloses an apparatus that can calibrate a camera by a simple method even when the camera is calibrated at a vehicle manufacturing site or the like. A method has been proposed, and the camera can be calibrated by setting the camera parameters so that drawing can be performed at any point on the screen. A method is disclosed.
  • Non-Patent Document 2 As in the method described in Non-Patent Document 1, using a characteristic three-dimensional object calibration index, a characteristic three-dimensional object is placed at a position where it can be imaged by a camera.
  • a method has been proposed in which a camera parameter is determined from a three-dimensional space by geometrically calculating which point is displayed in the image coordinate system of the force lens.
  • Non-Patent Documents 3 to 5 disclose the technical information such as the image processing technology that forms the basis of the present invention. These are part of the description of the embodiments of the present invention. It will be described later.
  • Patent Document 1 Japanese Patent Application Laid-Open No. 2001-245326
  • Tokubyo 1 Luc Robert "Camera calibration without Feature Extraction J Institut e National debericht en Informatique Automatique, Research Report No. 2204, February 1994, pp. 1-21
  • Non-Patent Document 2 Roger Y. Tsai, “An Efficient and Accurate Camera Calibration Technique for 3D Machine Vision”, Proceedings of IEEE Conference on Computer Vision and Pattern Recognition, Miami Beach, FL, 1986, pp. 364-374
  • Non-Patent Document 3 “Computer Vision” by Satoshi Sato, Corona, October 10, 2001, first edition, 3rd edition, pp. 11-41
  • Non-Patent Literature 4 Andrew Zisserman "Geometnc Framework for Vision I: Single View and Two-View Geometry", [online], April 16, 1997, [searched September 3, 2004], Ro botics Research uroup. University of Oxford., URL: http: // homepage s.inf.ed.ac.uk/rbf/CVonline/LOCAL—COPIES/EPSRC—SSAZ/epsrc—ssaz.html>
  • Non-patent Reference 5 Richard Hartley and Andrew Zisserman, “Multiple View Geometry in Computer Vision J, Cambridge University Press. August 2000, pp. 11-16
  • Non-Patent Document 2 also assumes that the internal parameters and external parameters of the camera are already known by some calibration method in the coordinate conversion relationship between the image plane and the three-dimensional road surface. Problems similar to those described in Non-Patent Document 1 may occur.
  • an object of the present invention is to provide a camera calibration method capable of appropriately performing camera calibration without requiring information related to external parameters as well as camera internal parameters.
  • the present invention provides a camera calibration device that can appropriately perform calibration of a camera without requiring information relating to not only internal parameters of the camera but also external parameters, and is further mounted on a vehicle. Another object is to provide a camera calibration device to be obtained.
  • the present invention provides a camera calibration method for calibrating a camera image by a camera that projects a three-dimensional space onto a two-dimensional image, and includes a planar shape including coordinate information of at least four points.
  • the calibration index is arranged on a first plane, and the image plane of the camera image including the calibration index is input as a second plane, and is present on the second plane and is placed on a predetermined part of the calibration index.
  • a corresponding point is identified, and between the first plane and the second plane, based on the correspondence of the at least four points included in common with the first plane and the second plane.
  • the camera image is calibrated by calculating the homography.
  • At least one of a specific mark and a straight line pattern may be arranged on the first plane as the calibration index. Further, a point corresponding to a predetermined part of the calibration index may be specified using at least one of a straight line, an intersection, and a combination of the straight line and the intersection on the second plane.
  • the camera calibration apparatus includes a calibration index unit configured by arranging a planar calibration index including coordinate information of at least four points on a first plane, and the force lens including the calibration index.
  • Image input means for inputting the image plane of the image as a second plane; corresponding point specifying means for specifying a point on the second plane and corresponding to a predetermined part of the calibration index; Based on the correspondence of at least four points included in common with the second plane and the second plane. Then, a homography calculating means for calculating a homography between the first plane and the second plane is provided.
  • the calibration index means may be arranged as the calibration index by arranging at least one of a specific mark and a linear pattern on the first plane.
  • the corresponding point specifying means specifies a point corresponding to a predetermined part of the calibration index using at least one of a straight line, an intersection, and a combination of the straight line and the intersection on the second plane. It is good as well.
  • the camera, the image input means, the corresponding point specifying means, and the homography calculation means may be mounted on a vehicle.
  • calibration index means comprising a planar calibration index including coordinate information of at least four points arranged on the first plane, and an image plane of the camera image including the calibration index as a second plane
  • Display means marker display means for superimposing and displaying a predetermined marker on the display means
  • adjustment means for changing the position of the marker display means within image coordinates photographed by the camera, and the adjustment
  • the positional relationship of the marker is adjusted so that the marker matches a predetermined part of the calibration index by means, and the first plane in the second plane when the marker matches the calibration index
  • a child configuration calibration apparatus for a camera comprising a homography calculating means for calculating a ho Mogurafi.
  • a camera calibration device including the marker display means is mounted on a vehicle, and the calibration index is arranged on the left and right with respect to a main axis passing through the center of the vehicle.
  • the calibration index may include four known points in a coordinate system based on the vehicle.
  • the calibration index may indicate the four points in a checkered pattern on the first plane, or may include a light source arranged at the four points on the first plane.
  • four points at the four corners of the parking section when the vehicle is parked can be used as the calibration index.
  • the present invention is configured as described above, the following effects can be obtained. That is, the camera In this calibration method, four points whose arrangement on the plane in the three-dimensional space is known are used as calibration indices, and the conversion relation of the four points between the two images is obtained by homography.
  • the internal parameters of the camera such as the origin position and the origin position are unknown, and the external force of the camera such as the height and angle on which the camera is mounted may be unknown, so high-precision calibration can be realized with a simple method. Can do.
  • the camera calibration apparatus four points whose arrangement on a plane in a three-dimensional space is known are used as calibration indices, and the correspondence of the four points in the corresponding camera image is homogenized. Since all the camera internal and external parameters are unknown, the four points in the camera image are appropriately restored as four points on the plane in the original three-dimensional space. be able to. In this case, the camera's internal parameters, such as the camera's focal length and origin position, are unknown, and the external force of the camera, which is information on the camera's position and orientation in the three-dimensional space, is also unknown. The installation and installation conditions of the are relaxed. Furthermore, the camera calibration device can be mounted on a vehicle.
  • the camera calibration apparatus including the marker display means
  • four points in a three-dimensional space whose arrangement on a plane is known are used as calibration indices, and each of the four points in the corresponding display image. Can be performed manually, and the camera can be calibrated appropriately.
  • this calibration apparatus is mounted on a vehicle and the calibration indices are arranged on the left and right with respect to the main shaft passing through the center of the vehicle, various types of calibration indices can be set. For example, it is assumed that four known points in the coordinate system with reference to the vehicle are included, and the four points are shown in a pine pattern on the first plane, or light arranged at the four points on the first plane. An embodiment using a source can also be used. Furthermore, it is possible to adopt a mode using four points at the four corners of the parking section when the vehicle is parked.
  • FIG. 1 is a block diagram showing a main configuration of a camera calibration apparatus according to an embodiment of the present invention.
  • FIG. 2 is a block diagram showing the main configuration of a camera calibration apparatus according to another embodiment of the present invention.
  • FIG. 3 is a block diagram showing an embodiment in which the image processing of the present invention is applied to a road surface traveling lane detection device.
  • FIG. 4 is a plan view showing an arrangement example of calibration targets used for calibration indices of a back monitor camera for parking assistance.
  • FIG. 6 is a plan view showing a calibration target member configured such that four points on a flat road surface are intersections of belt-like lines.
  • FIG. 7 is a plan view showing a calibration target member configured so that four points on a flat road surface have a checkered pattern.
  • FIG. 8 is a plan view showing a calibration target member in which small light sources are embedded at four points on a four-dimensional road surface.
  • FIG. 9 is a circuit diagram showing an example of the configuration of an input switch.
  • FIG. 10 is a front view of an image showing a situation in which positions on the image corresponding to four points on the calibration target are manually detected.
  • FIG. 11 is a front view of an image showing a situation in which the camera image is distorted in an embodiment in which the camera calibration device of the present invention is mounted on a vehicle.
  • FIG. 12 is a front view of an image showing a situation in which a camera image is converted into an image viewed from above and a parking area is detected in an embodiment in which the camera calibration device of the present invention is mounted on a vehicle.
  • FIG. 16 shows an experimental result obtained by performing projective transformation after performing distortion correction on the image of FIG. 15, as an embodiment in which the camera calibration apparatus of the present invention is applied to general camera image calibration.
  • FIG. 17 is an explanatory diagram showing perspective projection in general camera technology.
  • FIG. 18 is an explanatory diagram showing the relationship between camera coordinates and world coordinates in general camera technology.
  • FIG. 19 is an explanatory diagram showing planar projective transformation in general camera technology.
  • FIG. 20 is an explanatory diagram showing the relationship between points on two planes ⁇ and plane ⁇ ⁇ ⁇ ⁇ in general camera technology.
  • the camera coordinate system is defined as shown in FIG. That is, as explained in Non-Patent Document 3, the optical center C of the camera is taken as the coordinate origin, and the X-axis and Y-axis of the three-dimensional coordinate are taken in parallel with the X-axis and y-axis on the image plane, respectively.
  • the axis is parallel to the optical axis 1.
  • Optical Center C force Image plane
  • the straight line 1 drawn perpendicular to ⁇ is called the “optical axis” and the intersection of the optical axis and the image plane X
  • x [x, y] is projected onto T
  • the capital letter X and so on represent 3D, and the lowercase letter X and so on represent 2D.
  • image data handled on a computer the force to take its origin, the subdivision method as pixel coordinate values, and the aspect ratio vary depending on the design.
  • image data handled on a computer is based on image coordinates in pixel units that are independent of physical size and position. Therefore, when modeling an actual camera, it is necessary to convert from physical coordinates X to image coordinates m. This conversion is a combination of parallel movement for origin alignment, vertical and horizontal scale conversion, and scale conversion according to the focal length, and is expressed as follows.
  • A is a matrix for converting physical coordinates x into image coordinates m.
  • Focal length f image center coordinates (u, V), u and scales in V direction 'factors k, k, and , Shear coefficient k
  • Ar3 ⁇ 4 AP; X
  • Three-dimensional rotation R and translation T are rotations about the X axis, the Y axis, and the Z axis, respectively.
  • ⁇ ⁇ is a 4 X 4 matrix that combines rotation R and translation ⁇ , as shown in [Equation 13] below. That is, ⁇ is a matrix determined by the attitude (rotation) and position (translation) with respect to the world coordinates. These rotations and translations are called “camera external parameters”, and the above-mentioned ⁇ is called “camera internal parameter matrix”, whereas M is called “camera external parameter matrix”.
  • the camera model represented by the above equation (14) is referred to as a "transparent power mela model”.
  • P is called the “transparent power mela matrix” and consists of the internal and external parameters of the camera. Therefore, if P is obtained, it can be decomposed into A, R, and T. If both ⁇ , R, and T are known, that is, ⁇ is known, the camera is said to be “calibrated”, and if these are unknown, the camera is said to be “uncalibrated”. Therefore, find A, R, T This is called “camera calibration”.
  • the camera matrix P is composed of A, R, and T.
  • the camera matrix ⁇ is expressed as a general 3 ⁇ 4 matrix, 16].
  • the camera model represented by the column is called the “projection camera model” and P is called the “projection camera matrix”.
  • the degree of freedom is 11 instead of 12.
  • the “transparent power mela” can be generalized by such a “projection camera”.
  • a 3 ⁇ 3 regular matrix (however, the determinant is not 0) can also be expressed as [Equation 20] below, and this H is called homography.
  • the present invention performs the camera calibration by calculating using homography as described above, and one embodiment thereof is shown in FIG.
  • the camera CM in FIG. 1 may have any form as long as it is a camera that projects a three-dimensional space onto a two-dimensional image.
  • a calibration index means CL formed by arranging a planar calibration index (typically represented by cl) including coordinate information of at least four points on the first plane S 1 and a calibration index c 1 are provided.
  • An image input means IM for inputting the image plane of the camera image included in the field of view as the second plane S2, and a point (typically, a point corresponding to a predetermined part of the calibration index cl existing on the second plane S2.
  • corresponding point identification means ID and at least the same included in the first plane S1 and the second plane S2.
  • homography calculation means HM for calculating the homography between the first plane SI and the second plane S2 is provided.
  • the corresponding point specifying means ID for example, a point corresponding to a predetermined part of the calibration index is specified by processing at least one of a straight line, an intersection, and a combination of the straight line and the intersection on the second plane S2.
  • the point c2 that exists on the second plane S2 and that corresponds to the predetermined part of the calibration index cl can be automatically specified.
  • the corresponding point identification means ID is used.
  • the external parameters of the camera which are information on the position and orientation of the camera in the three-dimensional space such as the camera height and tilt angle, such as the camera height and tilt angle, are not required, and these are unknown. Therefore, the installation and mounting conditions of the camera CM are eased, and the conversion accuracy between the plane (S2) in the two-dimensional image and the plane (S1) in the three-dimensional space is improved. This will be described later with reference to FIG.
  • the camera or the like of the present invention may be mounted on a moving body.
  • the apparatus of Fig. 1 can be mounted on a vehicle VH as it is.
  • FIG. 2 includes another embodiment in which the camera calibration device is mounted on a vehicle. That is, here, a calibration index means CL formed by arranging a planar calibration index (typically represented by cl) including coordinate information of at least four points on the first plane S1, and calibration as shown by a broken line.
  • Display means DS for displaying the image plane of the camera image including the index (cl) in the field of view as the second plane S2 ′, and at least four predetermined markers (typically ml) on the display means DS.
  • the marker display means MK and the position of this marker display means MK are captured by the camera CM.
  • Adjustment means AJ that changes within the image coordinates.
  • adjuster AJ adjusts the position of the marker so that marker ml matches the specified part of the calibration index (cl), and responds when marker ml matches the calibration index (cl).
  • the point identification means ID is identified as a point (marker ml) corresponding to the specific part (cl) on the first plane S1 in the second plane S2 '. Calculate the homography between the first plane S1 and the second plane S2, based on the correspondence of at least four points that are commonly included in the first plane S1 and the second plane S2. To do.
  • the point (marker ml) corresponding to the specific part (cl) on the first plane S1 in the second plane S2 can be specified by manually operating the adjusting means AJ. Specific embodiments of these will be described later with reference to FIGS. 9 and 10.
  • the above-described camera calibration device is mounted on a vehicle, and can be applied to, for example, an image display system for grasping the situation around the vehicle, a system for recognizing a road, a system for detecting an obstacle, and the like.
  • Fig. 3 shows a specific configuration example applied to the road lane detection device.
  • a camera CM for example, a CCD camera
  • the video signal of the camera CM is AZD converted via the video input buffer circuit VB and the synchronous separation circuit SY and stored in the frame memory FM.
  • the image data stored in the frame memory FM is processed by the image processing unit VC.
  • the image processing unit VC includes an image data control unit VP, a distortion correction unit CP, a corresponding point specifying unit SP, a homography calculation unit HP, and a recognition processing unit LP.
  • the image processing unit VC data addressed by the image data control unit VP is called from the image data in the frame memory FM and sent to the distortion correction unit CP, where distortion correction processing is performed. Is called.
  • the calibration target that functions as the aforementioned calibration index in a window (region of interest) called ROI (Region of Interest) set in advance by the corresponding point identification unit SP. The position corresponding to the coordinate point of is detected.
  • the calibration target is arranged at a known position as shown in FIG. 5, for example, and the camera is mounted within a predetermined tolerance, so that the position of the calibration target on the image is roughly determined.
  • the position and size of the ROI are set in consideration of the tolerance range and the margin for image processing, using the position on the image based on the average value of the tolerance as a reference.
  • a corner detector (not shown) may be used for detecting the calibration target (corresponding point on the image).
  • a detector known in the field of image processing for example, Tomas ⁇ Kanade detector, Harris detector, etc. can be used.
  • a probable straight line is selected as the position of the lane boundary and recognized as a road boundary line, that is, the boundary line of the driving lane is specified, and the drawing unit DP and display The force with which an image signal is output via the controller DC
  • FIG. 4 shows an arrangement example of a calibration target (typically represented by CTr) used for the calibration index of the back monitor camera CMr for parking assistance.
  • FIG. 5 shows an example of the arrangement of calibration targets (typically represented by CTf) used for the calibration index of the camera CMf for front monitoring.
  • CTf calibration targets
  • the size and size of these calibration targets CTf or CTr vary depending on the resolution of the camera that captures them and the resolution of the image memory that captures the camera images. It is set to facilitate detection and confirmation on the image.
  • the calibration target CTf or CTr is arranged symmetrically with respect to a main axis (indicated by a one-dot chain line in FIGS. 4 and 5) passing through the center of the vehicle.
  • the layout of these calibration targets can be any shape, such as a rectangle (square, rectangle), trapezoid, etc. if the four points are known, and is always symmetrical with respect to the main axis passing through the center of the vehicle.
  • a rectangular shape is used.
  • the four points of the calibration target are known, that is, the coordinates of the four points of the calibration target in the coordinate system based on the vehicle are accurately known.
  • the power to display the top view image of the road surface when it is not necessary to display where the host vehicle is As long as the coordinates of the four points are accurately divided, it is not necessary to know the positional relationship between the vehicle and the calibration index.
  • a calibration target member as shown in Figs. 6 to 8 is used.
  • the four points on the flat road surface RS are configured to be the intersection CTc of the belt-like lines.
  • the four points on the flat road surface RS are configured to be a pine pattern CTd.
  • small light sources for example, LED light sources
  • CTe are embedded at four points on the flat road surface RS.
  • these are selected from the viewpoint that it is easy to specify the coordinates of a position having known coordinate information three-dimensionally in the camera image. If the specification in the camera image is easy, other The calibration target member may be used.
  • a corner detector (not shown) can be used for detection of the calibration target (corresponding point on the image), but as shown in FIG.
  • the horizontal and vertical boundary lines may be detected and the intersection coordinates may be obtained.
  • a small light source CTe embedded in a plane as shown in FIG. 8 is used, a bright area on the image may be detected and its center of gravity may be obtained.
  • the configuration shown in Fig. 3 relates to a method of automatically detecting positions on an image corresponding to four points on a calibration target, but it can also be detected manually. .
  • An example is shown in Fig. 10.
  • the four corner points of the parking lot white line displayed in the distortion-corrected image are used.
  • a cursor (not shown) is moved on the screen by operating the input switch SW shown in FIG.
  • the input switch SW has push buttons A to C.
  • the cursor move direction is changed by the push button A.
  • the push buttons B and C can be used to move the cursor up and down, left and right in a small step forward or backward with respect to the direction of cursor movement (note that FCS1 and FCS2 are signal terminals and GND is a ground terminal).
  • FCS1 and FCS2 are signal terminals and GND is a ground terminal.
  • the output image signal from the display controller DC force shown in FIG. 3 can be displayed on a monitor display (not shown), and the position of the cursor can be moved while viewing the display.
  • a distortion-corrected image (therefore, the upper and lower stippled portions in FIG. 10 are not camera images) is used, but the present invention is not limited to this. That is, since the distortion correction coefficient is known and the coordinates after distortion correction are obtained, the image displayed when the coordinates displayed on the screen are aligned with the position of the calibration target and the coordinates are read as shown in FIG. Correct the distortion of such an image itself!
  • Fig. 13 shows the actual image as a line drawing, and the stippled portion is the actual image. There is no.
  • the windows of the building were originally rectangular, and four points of the window frame were obtained from the image and converted so that they were restored as rectangles.
  • FIG. 14 shows an example in which an experiment was performed using images published in Non-Patent Document 5.
  • FIGS. 15 and 16 illustrate other experimental examples.
  • a checkered pattern made of a set of squares of a known size is photographed, and distortion correction is performed on the camera image of FIG. Then, projective transformation is performed.
  • the original was a rectangle
  • the four points are restored as rectangles, as shown at the bottom of Figure 16.
  • all are based on the principle that any four points in an image can be converted to any four points in another image. Yes, it does not require any external parameters of the camera and therefore does not use external parameters. In other words, it is not necessary to calibrate the external parameters of the camera when calibrating the camera.
  • the present invention is not limited to the apparatus mounted on the moving body such as the vehicle as described above, but can be applied to various apparatuses using camera images. It can be done with accuracy.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Studio Devices (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Image Processing (AREA)

Abstract

少なくとも4点の座標情報を含む平面状の校正指標(c1)を第1の平面S1に配置し、校正指標をその視界内に含むカメラ画像の画像面を第2の平面S2として入力する。第2の平面上に存在し校正指標の所定の部位に対応する点(c2)を特定し、第1の平面と第2の平面に共通して包含される少なくとも4点の対応関係に基づき、第1の平面と第2の平面との間のホモグラフィを演算して、カメラ画像を校正する。例えば、車両に搭載し、3次元空間における平面上の配置が既知である4点を校正指標として使用し、夫々に対応するカメラ画像中の4点の対応づけを、自動的に行う。

Description

明 細 書
カメラの校正方法及びカメラの校正装置
技術分野
[0001] 本発明は、カメラの校正方法及びカメラの校正装置に関し、特に、 3次元空間を 2次 元画像に投影するカメラによるカメラ画像に対し校正を行うカメラの校正方法及びカメ ラの校正装置に係る。
背景技術
[0002] 従来、カメラの校正方法に関しては、種々の提案がされており、この中の一つに、 形状が予め既知であって特徴ある立体物を、校正用の指標として 3次元空間上に置 き、その立体物の特徴点がカメラの画像座標系でどのように表示されるかによって、 カメラパラメータを算出する方法が知られている。
[0003] 例えば、非特許文献 1には、特徴ある立体物校正指標を用いて、 11自由度のカメ ラパラメータを算出する方法が開示されている。これにおいては、カメラパラメータを 決定するために、特徴ある立体物をカメラで撮像可能な位置に置き、立体物がカメラ の画像座標系において、どの点に表示されるかを幾何学的に算出し、 3次元空間か らカメラパラメータを決定する方法を取っている。しかし、このように、車両にカメラを取 り付けた後、カメラの校正を行う方法にあっては、校正を行う対象物が車両に取り付 けられたカメラである場合、工場等の車両組立ラインで校正を行うことになる力 この ような生産現場では作業性が良いことが条件となる。生産現場では、特徴ある立体物 を置 、て校正を行う方法をとると、校正指標として立体物をその都度置くことは効率 が悪ぐし力も災害防止の観点から、校正用に足元に 3次元的な立体物を置くことは 避けることが望ましぐカメラの校正を行う校正指標は、工場の床面に描画された模様 のように、作業者が踏みつけても問題な 、指標であることが望まし 、。
[0004] 上記の問題点に鑑み、特許文献 1にお 、ては、車両の製造現場等でカメラの校正 を行う場合であっても、簡単な方法でカメラの校正を行うことができる装置及び方法が 提案され、画面上の任意の点に描画が行うことができるようにカメラパラメータを設定 可能な校正指標とすることにより、車両 み立てラインでのカメラの校正を可能とする 方法が開示されている。
[0005] 更に、非特許文献 2にも、上記非特許文献 1に記載の方法と同様、特徴ある立体物 校正指標を用いて、特徴ある立体物をカメラで撮像可能な位置に置き、立体物が力 メラの画像座標系において、どの点に表示されるかを幾何学的に算出し、 3次元空間 カゝらカメラパラメータを決定する方法が提案されて ヽる。
[0006] 尚、下記の非特許文献 3乃至 5には、本発明の基礎となる画像処理技術等の技術 情報が開示されている力 これらについては、本発明の実施形態の説明の一環とし て後述する。
[0007] 特許文献 1 :特開 2001— 245326号公報
特干文献 1: Luc Robert着「Camera calibration without Feature ExtractionJ Institut e National de Recherche en Informatique Automatique、 Research Report No. 2204、 1994年 2月発行、 1頁乃至 21頁
非特許文献 2: Roger Y. Tsai著「An Efficient and Accurate Camera Calibration Tech nique for 3D Machine Vision」、 Proceedings of IEEE Conference on Computer Vision and Pattern Recognition, Miami Beach, FL, 1986年発行、 364頁乃至 374頁 非特許文献 3 :佐藤淳著「コンピュータビジョン」、コロナ社、 2001年 10月 10日初版 第 3刷発行、 11頁乃至 41頁
非特干文献 4 : Andrew Zisserman着「Geometnc Framework for Vision I: Single View and Two-View Geometry」、 [online]、 1997年 4月 16日、 [2004年 9月 3日検索]、 Ro botics Research uroup. University of Oxford.、 Ίンタ' ~~ ットく URL:http://homepage s.inf.ed.ac.uk/rbf/CVonline/LOCAL—COPIES/EPSRC—SSAZ/epsrc— ssaz.html〉 非特許文献 5: Richard Hartley及び Andrew Zisserman著「Multiple View Geometry in Computer VisionJ、 Cambridge University Press. 2000年 8月発行、 11頁乃至 16頁 発明の開示
発明が解決しょうとする課題
[0008] 然し乍ら、前掲の特許文献 1に記載のカメラの校正方法にぉ 、ては、カメラの外部 ノ メータの回転成分以外は既知であり予め設定している値を用いることが前提とさ れているので、その値に公差や誤差が残留することになる。このため、そのままでは、 ここで校正されたパラメータを用いて投影変換した値には誤差が残ることになる。尚、 非特許文献 2においても、画像面と 3次元路面との間の座標変換関係において、カメ ラの内部パラメータと外部パラメータが何らかの校正方法により既知であるということ を前提としているので、前述の非特許文献 1に記載の方法と同様の問題が生じ得る。
[0009] そこで、本発明は、カメラの内部パラメータのみならず外部パラメータに係る情報を 必要とすることなぐカメラの校正を適切に行い得るカメラの校正方法を提供すること を課題とする。
[0010] また、本発明は、カメラの内部パラメータのみならず外部パラメータに係る情報を必 要とすることなぐカメラの校正を適切に行い得るカメラの校正装置を提供し、更に、 車両に搭載し得るカメラの校正装置を提供することを別の課題とする。
課題を解決するための手段
[0011] 上記の課題を達成するため、本発明は、 3次元空間を 2次元画像に投影するカメラ によるカメラ画像に対し校正を行うカメラの校正方法において、少なくとも 4点の座標 情報を含む平面状の校正指標を第 1の平面に配置して、前記校正指標を含む前記 カメラ画像の画像面を第 2の平面として入力し、前記第 2の平面上に存在し前記校正 指標の所定の部位に対応する点を特定し、前記第 1の平面と前記第 2の平面に共通 して包含される前記少なくとも 4点の対応関係に基づき、前記第 1の平面と前記第 2 の平面との間のホモグラフィを演算して、カメラ画像を校正することとしたものである。
[0012] 上記カメラの校正方法において、更に、前記第 1の平面上に特定のマーク及び直 線パターンの少なくとも一方を配置して前記校正指標とすることとしてもよい。また、 前記第 2の平面上で、直線、交点、並びに直線及び交点の組み合わせの少なくとも 一つを用いて、前記校正指標の所定の部位に対応する点を特定することとしてもよ い。
[0013] そして、本発明のカメラの校正装置は、少なくとも 4点の座標情報を含む平面状の 校正指標を第 1の平面に配置して成る校正指標手段と、前記校正指標を含む前記力 メラ画像の画像面を第 2の平面として入力する画像入力手段と、前記第 2の平面上に 存在し前記校正指標の所定の部位に対応する点を特定する対応点特定手段と、前 記第 1の平面と前記第 2の平面に共通して包含される少なくとも 4点の対応関係に基 づき、前記第 1の平面と前記第 2の平面との間のホモグラフィを演算するホモグラフィ 演算手段とを備えることとしたものである。このカメラの校正装置において、前記校正 指標手段は、前記第 1の平面上に特定のマーク及び直線パターンの少なくとも一方 を配置して前記校正指標とするとよい。更に、前記対応点特定手段は、前記第 2の平 面上で、直線、交点、並びに直線及び交点の組み合わせの少なくとも一つを用いて 、前記校正指標の所定の部位に対応する点を特定することとしてもよい。特に、前記 カメラ、前記画像入力手段、前記対応点特定手段、及び前記ホモグラフィ演算手段 を車両に搭載したものとすることができる。
[0014] 更に、少なくとも 4点の座標情報を含む平面状の校正指標を第 1の平面に配置して 成る校正指標手段と、前記校正指標を含む前記カメラ画像の画像面を第 2の平面と して表示する表示手段と、該表示手段に所定のマーカを重畳表示するマーカ表示 手段と、該マーカ表示手段の位置を前記カメラによって撮影される画像座標内で変 化させる調整手段と、該調整手段により前記マーカが前記校正指標の所定の部位と 一致するように前記マーカの位置関係を調整し、前記マーカが前記校正指標と一致 したときに前記第 2の平面内での前記第 1の平面上の特定部位と対応する点として 特定する対応点特定手段と、前記第 1の平面と前記第 2の平面に共通して包含され る少なくとも 4点の対応関係に基づき、前記第 1の平面と前記第 2の平面との間のホ モグラフィを演算するホモグラフィ演算手段とを備えたカメラの校正装置を構成するこ ととしてもよ 、。
[0015] そして、上記マーカ表示手段を含むカメラの校正装置を車両に搭載し、前記校正 指標を、前記車両の中心を通る主軸に対して左右に配置するように構成するとよ 、。 この場合において、前記校正指標は、前記車両を基準とした座標系における既知の 4点を含むものとするよい。例えば、前記校正指標は、前記第 1の平面上で前記 4点 を市松模様で示すこととし、あるいは、前記第 1の平面上で前記 4点に配設した光源 を含むものとしてもよい。更に、前記校正指標として、前記車両を駐車するときの駐車 区画の四隅の 4点を用いることもできる。
発明の効果
[0016] 本発明は上述のように構成されているので以下の効果を奏する。即ち、上記カメラ の校正方法においては、 3次元空間における平面上の配置が既知である 4点を校正 指標として使用し、 2画像間の 4点の変換関係をホモグラフィによって求めることとして いるので、カメラの焦点距離や原点位置等のカメラの内部パラメータは未知でよぐし 力も、カメラが搭載されている高さや角度等のカメラの外部パラメータも未知でよいの で、高精度な校正を簡単な方法で実現することができる。
[0017] また、上記カメラの校正装置によれば、 3次元空間における平面上の配置が既知で ある 4点を校正指標として使用し、夫々に対応するカメラ画像中の 4点の対応づけを ホモグラフィによって行うこととしているので、カメラの内部パラメータ及び外部パラメ ータが何れも未知であっても、カメラ画像中の 4点を、元の 3次元空間における平面 上の 4点として適切に復元することができる。この場合において、カメラの焦点距離や 原点位置等のカメラの内部パラメータは未知でよぐし力も、 3次元空間中のカメラの 位置及び姿勢の情報であるカメラの外部パラメータも未知でょ 、ので、カメラの設置 及び装着条件が緩和される。更に、上記カメラの校正装置は、車両に搭載したものと することができ、この場合には、 3次元空間における平面上の配置が既知である 4点 を校正指標として使用し、夫々に対応するカメラ画像中の 4点の対応づけを、対応点 特定手段によって自動的に行うことができ、適切にカメラの校正を行うことができる。
[0018] 特に、上記マーカ表示手段を含むカメラの校正装置によれば、 3次元空間における 平面上の配置が既知である 4点を校正指標として使用し、夫々に対応する表示画像 中の 4点の対応づけを手動操作によって行うことができ、適切にカメラの校正を行うこ とができる。 そして、この校正装置を車両に搭載し、校正指標を、車両の中心を通る 主軸に対して左右に配置することとすれば、種々の態様の校正指標を設定すること ができる。例えば、車両を基準とした座標系における既知の 4点を含むものとし、第 1 の平面上で同 4点を巿松模様で示し、あるいは、第 1の平面上で同 4点に配設した光 源を用いた態様とすることもできる。更には、車両を駐車するときの駐車区画の四隅 の 4点を用いた態様とすることもできる。
図面の簡単な説明
[0019] [図 1]本発明の一実施形態に係るカメラの校正装置の主要構成を示すブロック図であ る。 圆 2]本発明の他の実施形態に係るカメラの校正装置の主要構成を示すブロック図 である。
圆 3]本発明の画像処理を路面走行レーン検出装置に適用した一実施形態を示す ブロック図である。
[図 4]駐車支援のためのバックモニタカメラの校正指標に供される校正用ターゲットの 配置例を示す平面図である。
圆 5]前方監視用のカメラの校正指標に供される校正用ターゲットの配置例を示す平 面図である。
圆 6]平面の路面の 4点が帯状ラインの交点となるように構成された校正用ターゲット 部材を示す平面図である。
圆 7]平面の路面上の 4点が市松模様となるように構成された校正用ターゲット部材を 示す平面図である。
圆 8]平面の路面上の 4点の 4点に小光源が埋設された校正用ターゲット部材を示す 平面図である。
[図 9]入力スィッチの構成の一例を示す回路図である。
[図 10]校正用ターゲット上の 4点に相当する画像上の位置を手動によって検出する 状況を示す画像の正面図である。
圆 11]本発明のカメラの校正装置を車両に搭載した一実施形態において、カメラ画 像が歪曲している状況を示す画像の正面図である。
圆 12]本発明のカメラの校正装置を車両に搭載した一実施形態において、カメラ画 像が上空から見た画像に変換され、駐車区画が検出される状況を示す画像の正面 図である。
圆 13]本発明のカメラの校正装置を一般的なカメラ画像の校正に適用した実施形態 として、建物の画像に対し射影変換を行った実験結果を示す説明図である。
圆 14]本発明のカメラの校正装置を一般的なカメラ画像の校正に適用した実施形態 として、廊下の壁面の画像に対し射影変換を行った実験結果を示す説明図である。 圆 15]本発明のカメラの校正装置を一般的なカメラ画像の校正に適用した一実施形 態として、巿松模様のパターンを撮影した画像が歪曲して ヽる状況を示す画像の正 面図である。
[図 16]本発明のカメラの校正装置を一般的なカメラ画像の校正に適用した実施形態 として、図 15の画像に対して歪曲補正を行った後に、射影変換を行った実験結果を 示す説明図である。
[図 17]—般的なカメラ技術における透視投影を示す説明図である。
[図 18]—般的なカメラ技術におけるカメラ座標とワールド座標の関係を示す説明図で ある。
[図 19]一般的なカメラ技術における平面射影変換を示す説明図である。
[図 20]—般的なカメラ技術における 2つの平面 π及び平面 Πの平面上の点の関係を 示す説明図である。
符号の説明
[0020] CM カメラ
IM 画像入力手段
HM ホモグラフィ演算手段
ID 対応点特定手段
DS 表示手段
MK マーカ表示手段
AJ 調整手段
SY 同期分離回路
FM フレームメモリ
VC 画像処理部
発明を実施するための最良の形態
[0021] 上記の構成になる本発明のカメラの校正方法の具体的一態様について、以下に図 面を参照して説明する。最初に、本発明が前提とするカメラ技術について図 17乃至 20を参照して説明した後、図 1及び図 2を参照して本発明の実施形態を説明する。 先ず、カメラ座標系を図 17に示すように定義する。即ち、非特許文献 3で説明されて いるように、カメラの光学中心 Cを座標原点とし、 3次元座標の X軸と Y軸を、それぞれ 画像面上の X軸および y軸に平行にとり、 Z軸を光軸 1に対し平行にとっている。光学 中心 C力 画像面 πに垂直に引いた直線 1を「光軸」と言い、光軸と画像面との交点 X
0
を「画像中心」と言う。
C
[0022] 図 17において、 3次元空間中で (X, Υ, Ζ)の座標を持つ点 Χ= [X, Υ, Ζ]τが、 2 次元画像上で (X, y)の位置の点 x= [x, y]Tに投影される。尚、大文字の X等は 3次 元を表し、小文字の X等は 2次元を表す。また、「τ」は転置行列を意味する。焦点距 離を f = lとすれば、図 17の 2次元画像上の点を 3次元空間中の点と考えると、その 位置は (X, y, 1)である。図 17から明らかなように、このカメラによる投影では、 2次元 画像上の点の Xと fの比が 3次元空間中の点の Xと Zの比に等しぐまた yと fの比が Yと Zの比に等しい。従って、 3次元空間中の点とその投影像との間には、下記 [数 1]式 の関係が成り立ち、このような投影を「透視投影」と言う。
[0023] [数 1]
X Y
Z ' J Z
[0024] 上記 [数 1]式の透視投影は、斉次座標を用いて下記 [数 2]式のように、行列演算 の形で表すことができる。
[0025] [数 2]
.7;1 1 0 0 0
A = 0 1 0 0
() 0 1 0
[0026] [数 2]式においてえは任意の実数であり、 [数 2]式は [数 1]式と同じ投影を表して いる。尚、 [数 2]式は下記 [数 3]式のように簡単ィ匕して表す。
[0027] [数 3]
Figure imgf000010_0001
[0028] 上記 [数 3]式において、 Pfは下記 [数 4]のとおりである。
[0029] [数 4] 0 1 0 0
0 0 1 0
[0030] ところで、コンピュータ上で扱う画像データは、その原点をどこにとる力、画素座標 値としての細分方法や縦横比は、設計により変わるものである。即ち、コンピュータ上 で扱う画像データは物理的な大きさや位置とは無関係な画素単位の画像座標に基 づいている。従って、実際のカメラをモデルィ匕する場合には、物理的座標 Xから画像 座標 mに変換する必要がある。この変換は原点位置合わせのための平行移動、縦横 のスケール変換及び焦点距離に応じたスケール変換を組み合わせたものであり、次 のように表される。
[0031] [数 5]
m = Ax
[0032] ここで、上記 [数 5]式の前段は [m , m , m ]τで表され、画像座標 m= [u, ν]τの斉
1 2 3
次座標であって、下記 [数 6]式の同値関係が成り立つように設定する。即ち、 u=m
1
/m, v=m /mで te 。
3 2 3
[0033] [数 6]
Figure imgf000011_0001
[0034] また、 Aは物理的座標 xを画像座標 mに変換する行列であり、焦点距離 f、画像中 心の座標(u , V )、 u及び V方向のスケール 'ファクター k , k、及び、せん断係数 kに
0 0 u V s よって下記 [数 7]のように表される。尚、この「せん断係数」は、平行性は保つが直角 性は保たな ヽような変形 (せん断変形)を発生させる係数である。
[0035] [数 7]
Jん s UQ
A ΪΚ v0 [0036] 上記 [数 3]及び [数 5]により、 3次元空間中の点 Xは、 2次元画像上の画素 mに対 し下記 [数 8]のように投影される。ここで、 Aは「カメラ校正行列」と言い、更に詳細に は、上記 [数 7]力も明らかなように、カメラの内部パラメータによって構成される行列 であるので、「カメラの内部パラメータ行列」と呼ぶ。
[0037] [数 8]
Ar¾ = AP;X
[0038] 次に、複数のカメラ間の関係や、同一のカメラであっても複数の位置に移動すること を考慮し、あるいは、そのカメラと対象物との関係を考慮する際には、基準となる座標 系を設定するとよい。この場合に、図 18に示すように、考慮されるカメラの数や位置、 対象物に対して共通に決められた座標力 「ワールド座標」と定義される。このワール ド座標 (Xとする)からカメラ座標 Xへは、 3次元の回転 R及び並進 Tによって下記 [数 9]式のように変換される。
[0039] [数 9]
X = RXW + T
[0040] 3次元の回転 R及び並進 Tは、夫々、 X軸回り、 Y軸回り、 Z軸回りの回転 0 , θ ,
Θ 及び X軸方向、 Y軸方向、 z軸方向の並進 τ , τ , Tより成り、夫々、下記 [数 10] 及び [数 11]のように表される。
[0041] [数 10]
1 0 0 cos θγ 0 sin θγ COS θζ 一 sin θζ 0
R ϋ cos θχ ― sin θχ 0 1 0 sin θζ COS θζ ϋ 0 sm θχ cos θ χ 一 sin θγ 0 COS θγ 0 0 1
[数 11]
Figure imgf000012_0001
[0042] 前掲の [数 9]式は、斉次座標を用いれば下記 [数 12]式のように表すことができる。 [0043] [数 12]
X = MX
[0044] ここで、 Μは回転 Rと並進 Τを組み合わせた 4 X 4行列であり、下記 [数 13]のとおり である。つまり、 Μはワールド座標に対する姿勢(回転)及び位置(並進)によって決ま る行列である。そして、これらの回転及び並進は「カメラの外部パラメータ」と言い、前 述の Αを「カメラの内部パラメータ行列」と呼ぶのに対し、 Mを「カメラの外部パラメータ 行列」と呼ぶ。
[0045] [数 13]
R
M
[0046] 上記 [数 8]及び [数 12]により、ワールド座標系における 3次元空間の点 Xは 2次元 画像上の点 mに次のように投影される。
[0047] [数 14]
Am = PX
[0048] 上記 [数 14]式において、 Pは下記 [数 15]で表される 3 X 4行列である。尚、 [数 14 ]式においては、ワールド座標 Xが Xで置き直されている力 以後、ワールド座標と力 メラ座標に対して記号を区別することなく、ともに Xで表すこととする。
[0049] [数 15]
P = AP/M
= A [ R T
[0050] 而して、上記 [数 14]式で表されるカメラモデルを「透視力メラモデル」と言う。また、 Pは「透視力メラ行列」と呼び、カメラの内部パラメータ及び外部パラメータによって構 成される。従って、 Pが求まれば、これを A、 R、 Tに分解することができる。そして、 Α、 R、 Tが共に既知、即ち Ρが既知である場合には、そのカメラは「校正済みである」とい い、これらが未知の場合には「カメラが未校正である」という。従って、 A、 R、 Tを求め ることを「カメラの校正」と呼ぶ。
[0051] 上記の「透視力メラモデル」では、カメラ行列 Pが A、 R、 Tで構成されて 、るが、カメ ラ行列 Ρを 3 X 4行列で一般ィ匕して表すと、下記 [数 16]のようになる。
[0052] [数 16]
Am = P^
[0053] 上記の Pは下記 [数 17」のような 3 X 4行列である。このように一般ィ匕された 3 X 4行
P
列で表されたカメラモデルを「射影カメラモデル」と言い、 Pを「射影カメラ行列」と呼
P
[0054] [数 17]
Figure imgf000014_0001
[0055] 上記 [数 17]に示すように、 Pは 3 X 4行列でその要素の数は 12個である。しかし、
P
上記 [数 16]式は斉次座標で表されており、 Pを定数倍しても全く同じカメラモデルを
P
表すことになるため、その自由度は 12ではなく 11である。而して、「透視力メラ」は、こ のような「射影カメラ」によって一般ィ匕することができる。
[0056] 次に、図 19に示すように、ワールド座標を Z = 0の平面に限定すると、上記の 3 X 4 行列を、下記 [数 18]式のように 3 X 3行列に簡単ィ匕することができる力 この 3 X 3行 列は一般的な「平面射影変換」(ホモグラフィ)を表す。
[0057] [数 18]
Figure imgf000014_0002
[0058] ここで、図 20に示すような 2つの平面 πと平面 Πを考えたときに、夫々の平面上の 点 Xと χ'との関係は、下記 [数 19]式のように表すことができる。
[0059] [数 19]
Figure imgf000015_0001
'21 h.2'2 ん.23
f
31 32 一 .
[0060] あるいは、 3 X 3の正則行列(但し、行列式は 0ではない)を用いて、下記 [数 20]の ように表すこともでき、この Hをホモグラフィと言う。
[0061] [数 20]
x' = Hx
[0062] そして、上記の [数 20]は下記 [数 21]式のように表すこともできる。
[0063] [数 21] a;,
I 二—-:
X...
Figure imgf000015_0002
[0064] 更に、ホモグラフィ Hの要素において、各平面で対応する点に対し下記の [数 22] 及び [数 23]の 2つの線形方程式が得られる。これは、平面上の任意の 4点は他の平 面上の 4点に射影的に変換可能であることを表して 、る。
[0065] [数 22]
X (Ηχ + h^y + /'33) = /ίιι-χ + hV2y + hu
[数 23] y' {h3}x + h:i2y + h:ii) = h2lx + h22y + Ιι
[0066] 本発明は、上記のようにホモグラフィを用いて演算してカメラの校正を行うもので、そ の一実施形態を図 1に示す。図 1におけるカメラ CMとしては、 3次元空間を 2次元画 像に投影するカメラであれば、どのような態様であってもよい。この実施形態において は、少なくとも 4点の座標情報を含む平面状の校正指標 (代表して clで表す)を第 1 の平面 S 1に配置して成る校正指標手段 CLと、校正指標 c 1をその視界内に含むカメ ラ画像の画像面を第 2の平面 S2として入力する画像入力手段 IMと、第 2の平面 S2 上に存在し校正指標 clの所定の部位に対応する点(代表して c2で表す)を特定する 対応点特定手段 IDと、第 1の平面 S1と第 2の平面 S2に共通して包含される少なくと も 4点の対応関係に基づき、第 1の平面 SIと第 2の平面 S2との間のホモグラフィを演 算するホモグラフィ演算手段 HMを具備して 、る。
[0067] 上記の校正指標については、例えば、第 1の平面上 S1に特定のマーク及び直線 ノターンの少なくとも一方を配置して校正指標 c 1とする態様があり、これらにつ!/、て は図 6乃至図 8を参照して後述する。また、対応点特定手段 IDとしては、例えば、第 2の平面 S2上で、直線、交点、並びに直線及び交点の組み合わせの少なくとも一つ による処理によって、校正指標の所定の部位に対応する点を特定する態様があり、こ の対応点特定手段 IDによって、第 2の平面 S2上に存在し校正指標 clの所定の部位 に対応する点 c2を、自動的に特定することができる。尚、これらについては図 3を参 照して後述する。
[0068] 而して、図 1に記載のカメラの校正装置において、 3次元空間における平面上の配 置が既知である 4点 (cl)を校正指標として使用すれば、対応点特定手段 IDによって 、夫々に対応する画像中の 4点(c2)の対応づけを行うことにより、カメラの外部パラメ ータが未知であっても、画像中の 4点(c2)を、元の 3次元空間における平面上の 4点 (cl)として復元することができる。この場合において、カメラ CMの設置及び装着状 態、例えば、カメラの高さやチルト角等の 3次元空間中のカメラの位置及び姿勢の情 報であるカメラの外部パラメータは必要とせず、これらは未知でよいので、カメラ CM の設置及び装着条件が緩和されると共に、 2次元画像上の平面(S2)と 3次元空間内 の平面(S1)との間の変換精度が向上することとなる。尚、これについては、図 12を 参照して後述する。
[0069] 本発明のカメラ等は移動体に搭載してもよぐ図 2に示すように、例えば図 1の装置 をそのまま車両 VHに搭載することができる。更に、図 2には、カメラの校正装置を車 両に搭載したときの他の実施形態を包含している。即ち、ここでは、少なくとも 4点の 座標情報を含む平面状の校正指標 (代表して clで表す)を第 1の平面 S1に配置して 成る校正指標手段 CLと、破線で示すように、校正指標 (cl)をその視界内に含むカメ ラ画像の画像面を第 2の平面 S2'として表示する表示手段 DSを備えると共に、この 表示手段 DSに少なくとも 4点の所定のマーカ(代表して mlで表す)を重畳表示する マーカ表示手段 MKと、このマーカ表示手段 MKの位置をカメラ CMによって撮影さ れる画像座標内で変化させる調整手段 AJとを備えている。この場合には、調整手段 AJによりマーカ mlが校正指標(cl)の所定の部位と一致するようにマーカの位置関 係を調整し、マーカ mlが校正指標 (cl)と一致したときに、対応点特定手段 IDにて、 第 2の平面 S2'内での第 1の平面 S1上の特定部位 (cl)と対応する点(マーカ ml)と して特定することとし、ホモグラフィ演算手段 HMでは、第 1の平面 S1と第 2の平面 S2 ,に共通して包含される少なくとも 4点の対応関係に基づき、第 1の平面 S1と第 2の平 面 S2,との間のホモグラフィを演算することとしている。これにより、第 2の平面 S2,内 での第 1の平面 S1上の特定部位 (cl)と対応する点 (マーカ ml)を、調整手段 AJを 手動操作することによって特定することができる。これらの具体的態様については、 図 9及び図 10を参照して後述する。
[0070] 更に、上記のカメラの校正装置を車両に搭載し、例えば、車両周辺の状況を把握 するための画像表示システム、走路を認識するシステム、障害物を検出するシステム 等に適用することができ、その一例として路面走行レーン検出装置に適用した具体 的構成例を図 3に示す。本実施形態においては、図示しない車両の前方又は後方 に、カメラ CM (例えば CCDカメラ)が装着されており、路面を含む車両前方の視界が 連続して撮像される。カメラ CMの映像信号は、ビデオ入力バッファ回路 VB、同期分 離回路 SYを経て AZD変換されフレームメモリ FMに格納される。このフレームメモリ FMに格納された画像データは、画像処理部 VCで処理される。画像処理部 VCは、 画像データ制御部 VP、歪曲補正部 CP、対応点特定部 SP、ホモグラフィ演算部 HP 、及び認識処理部 LPで構成されている。
[0071] 画像処理部 VCにおいては、フレームメモリ FM内の画像データから、画像データ 制御部 VPでアドレス指定されたデータが呼び出されて歪曲補正部 CPに送られ、こ こで歪曲補正処理が行われる。このように歪曲補正された画像上において、対応点 特定部 SPにより、予め設定された ROI (Region of Interest)と呼ぶウィンドウ(関心領 域)の中で、前述の校正指標として機能する校正用ターゲットの座標点に対応する位 置が検出される。
[0072] 校正用ターゲットは、例えば図 5に示すように既知の位置に配置され、カメラは所定 の公差内で搭載されるので、校正用ターゲットの画像上の位置は概略で定まる。従つ て、公差の平均値による画像上の位置を基準として、公差の範囲と画像処理のため のマージンを考慮して ROIの位置とサイズが設定される。
[0073] 尚、校正用ターゲット(画像上の対応点)の検出のためにコーナー検出器(図示せ ず)を用いることとしてもよい。コーナー検出器としては、画像処理の分野で周知の検 出器 (例えば、 Tomas卜 Kanade検出器、ハリス検出器等)を利用することができる。
[0074] 続、て、ホモグラフィ演算部 HPにお 、て、下記の [表 1]に示すように校正用ターゲ ットの各 4点に対し、画像座標と路面座標の対応づけが行なわれ、この結果が前述の [数 19]式に適用され、ホモグラフィ Hが演算される。これにより、ー且ホモグラフィ H が定まれば、下記の 4点以外の任意の座標であっても変換可能となる。
[0075] [表 1]
Figure imgf000018_0001
[0076] そして、認識処理部 LPにて、例えば、レーン境界の位置として確からしい直線が選 択されて道路境界線として認識され、即ち、走行レーンの境界線が特定され、描画 部 DP及び表示コントローラ DCを介して画像信号が出力される力 これらの処理は本 発明に直接関係するものではな 、ので、詳細な説明は省略する。
[0077] 次に、校正指標の例として、図 4に、駐車支援のためのバックモニタカメラ CMrの校 正指標に供される校正用ターゲット (代表して CTrで表す)の配置例を示す。また、図 5には、前方監視用のカメラ CMfの校正指標に供される校正用ターゲット (代表して CTfで表す)の配置例を示す。これらの校正用ターゲット CTf又は CTrの配置とその サイズは、それを撮影するカメラの分解能やカメラ画像を取り込んだ画像メモリの分 解能によって、画像上の校正用ターゲットの像の大きさが変わるので、画像上での検 出、確認が容易になるように設定される。
[0078] 校正用ターゲット CTf又は CTrは、本実施形態では、車両の中心を通る主軸(図 4 及び図 5に一点鎖線で示す)に対して左右対称に配置されている。これらの校正用タ 一ゲットの配置は、原理的には、 4点が既知であれば矩形 (正方形、長方形)、台形 等、任意であり、必ずしも車両の中心を通る主軸に対して左右対称である必要はな いが、図 4及び図 5においては、分かり易さや作業のし易さを考慮し、説明の簡単ィ匕 のために矩形としている。但し、校正用ターゲットの 4点が既知、即ち、車両を基準と した座標系における校正用ターゲットの 4点の座標が正確に分かっていることが必要 である。もっとも、自車との相対的な位置関係を問題としない使い方をする場合、例え ば、路面のトップビュー画像を表示する力 そのときに、自車がどこにあるかを表示す る必要がない場合は、 4点の座標が正確に分力つていればよぐ自車と校正指標との 位置関係は知る必要がな 、。
[0079] 尚、実際には図 6乃至図 8に示すような校正用ターゲット部材が使用される。図 6で は、平面の路面 RS上の 4点が帯状ラインの交点 CTcとなるように構成されている。図 7では、平面の路面 RS上の 4点が巿松模様 CTdとなるように構成されている。更に、 図 8では、平面の路面 RS上の 4点に小さな光源 (例えば LED光源) CTeが埋設され ている。もっとも、これらは、 3次元的に既知の座標情報を有する位置の座標を、カメ ラ画像で特定し易いという観点力 選択されたものであり、カメラ画像での特定が容 易であれば、他の校正用ターゲット部材を用いることとしてもよい。
[0080] 更に、図 3においては、校正用ターゲット(画像上の対応点)の検出のためにコーナ 一検出器 (図示せず)を用いることが可能として説明したが、図 6のような帯状ラインを 用いた校正用ターゲットを使用する場合は、水平及び垂直の境界線を検出し、その 交点座標を求めることとしてもよい。また、図 8に示すような平面内に埋設された小さ な光源 CTeが使用される場合には、画像上での明るい領域を検出し、その重心を求 めることとしてちよい。
[0081] 上記の図 3の構成においては、校正用ターゲット上の 4点に相当する画像上の位置 を自動的に検出する方法に係るものであるが、手動によって検出することも可能であ る。例えば、画面上に表示したカーソルを校正用ターゲットの位置に合わせその座標 を読み取る方法があり、その一例を図 10に示す。ここでは、歪曲補正された画像に 表示されている駐車区画白線の四隅の点を利用する構成とされている。そして、図 9 に示す入力スィッチ SWの操作によって、画面上でカーソル(図示せず)を移動する ように構成されている。この入力スィッチ SWとしては、特許文献 1に記載のように、 A 乃至 Cの押しボタンを有し、例えば、 Aの押しボタンによってカーソルの移動方向を変 更し、 Bと Cの押しボタンによりカーソルの移動方向に対して順方向又は逆方向に所 定の小ステップで、カーソルを上下、左右に移動することができるように構成されてい る(尚、 FCS1及び FCS2は信号端子で GNDは接地端子である)。而して、例えば、 図 3に示す表示コントローラ DC力ゝらの出力画像信号をモニタディスプレー(図示せず )に映し、そのディスプレーを見ながらカーソルの位置を移動させることができる。
[0082] 尚、図 10では歪曲補正された画像 (従って、図 10の上下の点描部分はカメラ画像 ではない)が用いられているが、これに限るものではない。即ち、歪曲補正係数が既 知で、歪曲補正後の座標が求まるため、画面上に表示したカーソルを校正用ターゲ ットの位置に合わせ、その座標を読み取るときに使用する画像は、図 11のような画像 そのものを歪曲補正して!/ヽな 、ものであってもよ!/、。
[0083] そして、図 10に示すように歪曲補正された画像から、図 12の上側に示すように、駐 車区画の四隅の 4点が検出され、それらの 4点が元の駐車区画の形状に一致するよ うに、前述のホモグラフィ Hによる変換が行われると、図 12の下側に示すように、元の 長方形の駐車区画として復元される。
[0084] 次に、前述のホモグラフィ Hにより変換した別の実験例を示す。図 13の左側の画像 は、建物を斜め方向カゝら撮影されたもので、その画像の中で、元は長方形であった 4 点が、図 13の右側に示すように、長方形として復元されるように射影変換されたもの である。この実験は、非特許文献 5の第 14頁に掲載されているものを用いたもので、 図 13は実際の画像を線画として簡単ィ匕して図示しており、点描部分は実際の画像で はない。図 13から理解し得るように、建物の窓はもともと矩形であったものであり、画 像から窓枠の 4点を取得しそれらが長方形として復元されるように変換されて 、る。
[0085] 同様に、非特許文献 5に掲載された画像を用いて実験を行った例を図 14に示す。
図 14の上側に示すように、奥行のある画像の中で、斜め方向力 の画像となった廊 下右側の壁面において元は長方形であった 4点力 図 14の下側に示すように、元の 長方形として復元されるように射影変換されたものである。
[0086] 更に、図 15及び図 16は他の実験例を図示したもので、既知のサイズの正方形の 集合で作られた市松模様のパターンを撮影し、図 15のカメラ画像に対して歪曲補正 を行った後に、射影変換を行ったものである。図 16においても、元は長方形であった 4点が、図 16の下側に示すように、長方形として復元されている。上記の各実験にお いて、何れも前述のホモグラフィを用いた演算を行っている力 画像中の任意の 4点 を別の画像中の任意の 4点に変換し得るという原理に基づくものであり、カメラの外部 ノ メータは一切必要とせず、従って、外部パラメータは用いていない。即ち、カメラ の校正を行うときに、カメラの外部パラメータを校正する必要はない。
[0087] 以上のように、内部パラメータは未知であり(画像の歪曲は補正されているとし)、 3 次元空間における平面上の配置が既知である任意の 4点を校正指標として使用すれ ば、夫々に対応するカメラ画像中の 4点の対応づけを、前述のように手動または自動 で行うことにより、カメラの外部パラメータが未知であっても、カメラ画像中の 4点を、元 の 3次元空間における平面上の 4点として復元することができる。この場合において、 カメラの設置及び装着状態、例えば、カメラの高さやチルト角等の 3次元空間中の力 メラの位置及び姿勢の情報であるカメラの外部パラメータ Rと Tは必要とせず、これら は未知でよいので、カメラの設置及び装着条件が緩和されると共に、 2次元画像上の 平面と 3次元空間内の平面との間の変換精度が向上する。
[0088] 尚、本発明は、上記のような車両等の移動体に搭載される装置に限定されるもので はなぐカメラ画像を用いる種々の装置に適用することができ、カメラの校正を高精度 で行うことができる。

Claims

請求の範囲
[1] 3次元空間を 2次元画像に投影するカメラによるカメラ画像に対し校正を行うカメラ の校正方法において、少なくとも 4点の座標情報を含む平面状の校正指標を第 1の 平面に配置して、前記校正指標を含む前記カメラ画像の画像面を第 2の平面として 入力し、前記第 2の平面上に存在し前記校正指標の所定の部位に対応する点を特 定し、前記第 1の平面と前記第 2の平面に共通して包含される前記少なくとも 4点の 対応関係に基づき、前記第 1の平面と前記第 2の平面との間のホモグラフィを演算し て、カメラ画像を校正することを特徴とするカメラの校正方法。
[2] 前記第 1の平面上に特定のマーク及び直線パターンの少なくとも一方を配置して前 記校正指標とすることを特徴とする請求項 1記載のカメラの校正方法。
[3] 前記第 2の平面上で、直線、交点、並びに直線及び交点の組み合わせの少なくと も一つを用いて、前記校正指標の所定の部位に対応する点を特定することを特徴と する請求項 1記載のカメラの校正方法。
[4] 3次元空間を 2次元画像に投影するカメラによるカメラ画像に対し校正を行うカメラ の校正装置において、少なくとも 4点の座標情報を含む平面状の校正指標を第 1の 平面に配置して成る校正指標手段と、前記校正指標を含む前記カメラ画像の画像面 を第 2の平面として入力する画像入力手段と、前記第 2の平面上に存在し前記校正 指標の所定の部位に対応する点を特定する対応点特定手段と、前記第 1の平面と前 記第 2の平面に共通して包含される少なくとも 4点の対応関係に基づき、前記第 1の 平面と前記第 2の平面との間のホモグラフィを演算するホモグラフィ演算手段とを備え たことを特徴とするカメラの校正装置。
[5] 前記校正指標手段は、前記第 1の平面上に特定のマーク及び直線パターンの少な くとも一方を配置して前記校正指標とすることを特徴とする請求項 4記載のカメラの校 正装置。
[6] 前記対応点特定手段は、前記第 2の平面上で、直線、交点、並びに直線及び交点 の組み合わせの少なくとも一つを用いて、前記校正指標の所定の部位に対応する点 を特定することを特徴とする請求項 4記載のカメラの校正装置。
[7] 前記カメラ、前記画像入力手段、前記対応点特定手段、及び前記ホモグラフィ演算 手段を車両に搭載したことを特徴とする請求項 4記載のカメラの校正装置。
[8] 3次元空間を 2次元画像に投影するカメラによるカメラ画像に対し校正を行うカメラ の校正装置において、少なくとも 4点の座標情報を含む平面状の校正指標を第 1の 平面に配置して成る校正指標手段と、前記校正指標を含む前記カメラ画像の画像面 を第 2の平面として表示する表示手段と、該表示手段に所定のマーカを重畳表示す るマーカ表示手段と、該マーカ表示手段の位置を前記カメラによって撮影される画像 座標内で変化させる調整手段と、該調整手段により前記マーカが前記校正指標の所 定の部位と一致するように前記マーカの位置関係を調整し、前記マーカが前記校正 指標と一致したときに前記第 2の平面内での前記第 1の平面上の特定部位と対応す る点として特定する対応点特定手段と、前記第 1の平面と前記第 2の平面に共通して 包含される少なくとも 4点の対応関係に基づき、前記第 1の平面と前記第 2の平面と の間のホモグラフィを演算するホモグラフィ演算手段とを備えたことを特徴とするカメ ラの校正装置。
[9] 前記カメラは車両に搭載して成り、前記校正指標を、前記車両の中心を通る主軸に 対して左右に配置することを特徴とする請求項 8記載のカメラの校正装置。
[10] 前記校正指標は、前記車両を基準とした座標系における既知の 4点を含むことを特 徴とする請求項 9記載のカメラの校正装置。
[11] 前記校正指標は、前記第 1の平面上で前記 4点を市松模様で示すことを特徴とす る請求項 10記載のカメラの校正装置。
[12] 前記校正指標は、前記第 1の平面上で前記 4点に配設した光源を含むことを特徴と する請求項 10記載のカメラの校正装置。
[13] 前記校正指標は、前記車両を駐車するときの駐車区画の四隅の 4点を含むことを 特徴とする請求項 9記載のカメラの校正装置。
PCT/JP2005/020345 2004-11-24 2005-11-07 カメラの校正方法及びカメラの校正装置 WO2006057147A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
US11/791,282 US8269848B2 (en) 2004-11-24 2005-11-07 Camera calibration method and camera calibration device
EP05805559A EP1816869A4 (en) 2004-11-24 2005-11-07 CAMERA CALIBRATION PROCEDURE AND CAMERA CALIBRATION DEVICE

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2004-338557 2004-11-24
JP2004338557A JP4681856B2 (ja) 2004-11-24 2004-11-24 カメラの校正方法及びカメラの校正装置

Publications (1)

Publication Number Publication Date
WO2006057147A1 true WO2006057147A1 (ja) 2006-06-01

Family

ID=36497887

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2005/020345 WO2006057147A1 (ja) 2004-11-24 2005-11-07 カメラの校正方法及びカメラの校正装置

Country Status (6)

Country Link
US (1) US8269848B2 (ja)
EP (1) EP1816869A4 (ja)
JP (1) JP4681856B2 (ja)
KR (1) KR100869570B1 (ja)
CN (1) CN101065969A (ja)
WO (1) WO2006057147A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR2889640A1 (fr) * 2006-09-08 2007-02-09 Keeneo Procede et outil de configuration d'au moins un systeme de videosurveillance intelligente
US8116564B2 (en) * 2006-11-22 2012-02-14 Regents Of The University Of Minnesota Crowd counting and monitoring

Families Citing this family (131)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4809019B2 (ja) * 2005-08-31 2011-11-02 クラリオン株式会社 車両用障害物検出装置
JP4820221B2 (ja) * 2006-06-29 2011-11-24 日立オートモティブシステムズ株式会社 車載カメラのキャリブレーション装置およびプログラム
KR100837119B1 (ko) * 2006-08-18 2008-06-13 주식회사 세동 영상계측을 위한 카메라 교정방법
KR100844129B1 (ko) * 2006-09-13 2008-07-04 한국전자통신연구원 카메라를 이용한 마우스 인터페이스 장치, 이 장치에 의한시스템 및 방법, 그리고 이를 실현하기 위한 컴퓨터로 읽을수 있는 기록매체
JP4803449B2 (ja) * 2006-11-17 2011-10-26 アイシン精機株式会社 車載カメラの校正装置、校正方法、並びにこの校正方法を用いた車両の生産方法
JP4803450B2 (ja) * 2006-11-20 2011-10-26 アイシン精機株式会社 車載カメラの校正装置及び当該装置を用いた車両の生産方法
US8792005B2 (en) * 2006-11-29 2014-07-29 Honeywell International Inc. Method and system for automatically determining the camera field of view in a camera network
JP2008187566A (ja) * 2007-01-31 2008-08-14 Sanyo Electric Co Ltd カメラ校正装置及び方法並びに車両
JP2008187564A (ja) * 2007-01-31 2008-08-14 Sanyo Electric Co Ltd カメラ校正装置及び方法並びに車両
JP5124147B2 (ja) 2007-02-01 2013-01-23 三洋電機株式会社 カメラ校正装置及び方法並びに車両
JP2008219063A (ja) 2007-02-28 2008-09-18 Sanyo Electric Co Ltd 車両周辺監視装置及び方法
JP2008271308A (ja) * 2007-04-23 2008-11-06 Sanyo Electric Co Ltd 画像処理装置及び方法並びに車両
KR100846167B1 (ko) * 2007-08-08 2008-07-14 주식회사 래도 가변 정보 표지판의 출력 정보 표시 장치 및 방법
JP2009100342A (ja) * 2007-10-18 2009-05-07 Sanyo Electric Co Ltd カメラ校正装置及び方法、並びに、車両
US8264542B2 (en) * 2007-12-31 2012-09-11 Industrial Technology Research Institute Methods and systems for image processing in a multiview video system
EP2075541A1 (en) * 2007-12-31 2009-07-01 STMicroelectronics Design and Application GmbH Improved vehicle navigation system
US20090179916A1 (en) * 2008-01-10 2009-07-16 Williams Steven A Method and apparatus for calibrating a video display overlay
US7889234B2 (en) 2008-01-10 2011-02-15 Delphi Technologies, Inc. Automatic calibration for camera lens distortion correction
US8373763B2 (en) * 2008-05-22 2013-02-12 GM Global Technology Operations LLC Self calibration of extrinsic camera parameters for a vehicle camera
KR101205428B1 (ko) * 2008-08-05 2012-11-27 아이신세이끼가부시끼가이샤 타겟 위치 특정 장치
EP2164043A1 (en) 2008-09-12 2010-03-17 March Networks Corporation Video camera calibration and perspective calculation
JP5339124B2 (ja) * 2008-09-30 2013-11-13 アイシン精機株式会社 車載カメラの校正装置
ES2395348T3 (es) * 2008-10-28 2013-02-12 Bae Systems Plc Procesamiento de imagen
CN102246201B (zh) * 2008-12-12 2014-04-02 松下电器产业株式会社 图像处理装置及图像处理方法
JP5505764B2 (ja) * 2009-02-23 2014-05-28 株式会社リコー 車載カメラ装置のキャリブレーション支援方法及びキャリブレーション支援装置、並びに車載カメラ装置
JP5210203B2 (ja) * 2009-02-25 2013-06-12 ローランドディー.ジー.株式会社 画像の差分による高精度ステレオカメラキャリブレーション
JP4873272B2 (ja) * 2009-03-26 2012-02-08 アイシン精機株式会社 カメラ校正装置
WO2010109730A1 (ja) 2009-03-26 2010-09-30 アイシン精機株式会社 カメラ校正装置
JP4905812B2 (ja) * 2009-03-26 2012-03-28 アイシン精機株式会社 カメラ校正装置
JP4690476B2 (ja) * 2009-03-31 2011-06-01 アイシン精機株式会社 車載カメラの校正装置
JP4751939B2 (ja) * 2009-03-31 2011-08-17 アイシン精機株式会社 車載カメラの校正装置
JP4636346B2 (ja) * 2009-03-31 2011-02-23 アイシン精機株式会社 車載カメラの校正装置、方法、及びプログラム
EP2249580B1 (de) * 2009-05-05 2019-09-04 Kapsch TrafficCom AG Verfahren zur kalibrierung des bildes einer kamera
US20100289874A1 (en) * 2009-05-15 2010-11-18 Fuhua Cheng Square tube mirror-based imaging system
KR100948886B1 (ko) * 2009-06-25 2010-03-24 주식회사 이미지넥스트 차량에 설치된 카메라의 공차 보정 장치 및 방법
CN102104791B (zh) * 2009-12-17 2012-11-21 财团法人工业技术研究院 摄影机校正系统与坐标数据产生系统及其方法
JP2011153737A (ja) 2010-01-26 2011-08-11 Sanyo Electric Co Ltd 校正装置
JP5491235B2 (ja) * 2010-03-02 2014-05-14 東芝アルパイン・オートモティブテクノロジー株式会社 カメラキャリブレーション装置
JP5451497B2 (ja) * 2010-04-08 2014-03-26 パナソニック株式会社 運転支援表示装置
JP5552892B2 (ja) * 2010-05-13 2014-07-16 富士通株式会社 画像処理装置および画像処理プログラム
US8964004B2 (en) 2010-06-18 2015-02-24 Amchael Visual Technology Corporation Three channel reflector imaging system
JP5444139B2 (ja) * 2010-06-29 2014-03-19 クラリオン株式会社 画像のキャリブレーション方法および装置
KR20120011653A (ko) 2010-07-29 2012-02-08 삼성전자주식회사 영상 처리 장치 및 방법
JP5588812B2 (ja) * 2010-09-30 2014-09-10 日立オートモティブシステムズ株式会社 画像処理装置及びそれを用いた撮像装置
US8509522B2 (en) * 2010-10-15 2013-08-13 Autodesk, Inc. Camera translation using rotation from device
CN102063624A (zh) * 2010-11-13 2011-05-18 天津大学 基于单应性约束的立体图像匹配方法
JP5240527B2 (ja) * 2010-11-25 2013-07-17 アイシン精機株式会社 車載カメラの校正装置、方法、及びプログラム
KR101205840B1 (ko) 2011-04-27 2012-11-28 주식회사 아이브이넷 차트를 이용한 카메라 설정정보의 설정장치 및 방법
EP2541498B1 (en) * 2011-06-30 2017-09-06 Harman Becker Automotive Systems GmbH Method of determining extrinsic parameters of a vehicle vision system and vehicle vision system
US20130215280A1 (en) * 2011-09-13 2013-08-22 Kyocera Corporation Camera calibration device, camera and camera calibration method
US8648808B2 (en) 2011-09-19 2014-02-11 Amchael Visual Technology Corp. Three-dimensional human-computer interaction system that supports mouse operations through the motion of a finger and an operation method thereof
US9019352B2 (en) 2011-11-21 2015-04-28 Amchael Visual Technology Corp. Two-parallel-channel reflector with focal length and disparity control
US11321772B2 (en) 2012-01-12 2022-05-03 Kofax, Inc. Systems and methods for identification document processing and business workflow integration
US9514357B2 (en) 2012-01-12 2016-12-06 Kofax, Inc. Systems and methods for mobile image capture and processing
US10146795B2 (en) 2012-01-12 2018-12-04 Kofax, Inc. Systems and methods for mobile image capture and processing
US8964045B2 (en) * 2012-01-31 2015-02-24 Microsoft Corporation Image blur detection
JP5915268B2 (ja) * 2012-03-05 2016-05-11 富士通株式会社 パラメータ算出方法、情報処理装置及びプログラム
US9019603B2 (en) 2012-03-22 2015-04-28 Amchael Visual Technology Corp. Two-parallel-channel reflector with focal length and disparity control
JP6141601B2 (ja) * 2012-05-15 2017-06-07 東芝アルパイン・オートモティブテクノロジー株式会社 車載カメラ自動キャリブレーション装置
US9557634B2 (en) 2012-07-05 2017-01-31 Amchael Visual Technology Corporation Two-channel reflector based single-lens 2D/3D camera with disparity and convergence angle control
JP5923422B2 (ja) * 2012-09-24 2016-05-24 クラリオン株式会社 カメラのキャリブレーション方法及び装置
CN103832338B (zh) * 2012-11-27 2016-05-04 德尔福电子(苏州)有限公司 一种车辆后视摄像头装配偏差补偿系统
US9519968B2 (en) 2012-12-13 2016-12-13 Hewlett-Packard Development Company, L.P. Calibrating visual sensors using homography operators
JP5754470B2 (ja) 2012-12-20 2015-07-29 株式会社デンソー 路面形状推定装置
TWI517670B (zh) * 2012-12-28 2016-01-11 財團法人工業技術研究院 車用鏡頭之自動化校正與應用其之影像轉換方法與裝置
CN103106661B (zh) * 2013-02-01 2016-06-29 云南大学 空间二条相交直线线性求解抛物折反射摄像机内参数
US10127636B2 (en) 2013-09-27 2018-11-13 Kofax, Inc. Content-based detection and three dimensional geometric reconstruction of objects in image and video data
US10783615B2 (en) * 2013-03-13 2020-09-22 Kofax, Inc. Content-based object detection, 3D reconstruction, and data extraction from digital images
KR101398069B1 (ko) * 2013-03-28 2014-05-27 주식회사 이미지넥스트 차량 주변 영상을 위한 호모그래피 추정 방법 및 시스템
CA2819956C (en) * 2013-07-02 2022-07-12 Guy Martin High accuracy camera modelling and calibration method
JP6260891B2 (ja) * 2013-08-08 2018-01-17 パナソニックIpマネジメント株式会社 画像処理装置および画像処理方法
TW201515433A (zh) * 2013-10-14 2015-04-16 Etron Technology Inc 影像校正系統和立體照相機的校正方法
KR102153030B1 (ko) * 2013-11-05 2020-09-07 현대모비스 주식회사 주차 지원 장치 및 방법
KR101545633B1 (ko) 2013-12-27 2015-08-19 전자부품연구원 차량용 스테레오 카메라 캘리브레이션 방법 및 시스템
WO2015130320A1 (en) 2014-02-28 2015-09-03 Hewlett-Packard Development Company, L.P. Calibration of sensors and projector
US20140232871A1 (en) * 2014-05-01 2014-08-21 Caterpillar Inc. Method for manually calibrating a camera mounted on vehicle
KR102227850B1 (ko) * 2014-10-29 2021-03-15 현대모비스 주식회사 차량용 후방 카메라의 영상 보정 방법
US9760788B2 (en) 2014-10-30 2017-09-12 Kofax, Inc. Mobile document detection and orientation based on reference object characteristics
EP3220099B1 (en) 2014-11-13 2019-11-06 Olympus Corporation Calibration device, calibration method, optical device, imaging device, projection device, measurement system, and measurement method
CN104376572A (zh) * 2014-12-02 2015-02-25 成都理工大学 移动终端相机标定方法
US9933515B2 (en) 2014-12-09 2018-04-03 Toyota Motor Engineering & Manufacturing North America, Inc. Sensor calibration for autonomous vehicles
FR3030091B1 (fr) * 2014-12-12 2018-01-26 Airbus Operations Procede et systeme de detection automatique d'un desalignement en operation d'un capteur de surveillance d'un aeronef.
TWI577493B (zh) 2014-12-26 2017-04-11 財團法人工業技術研究院 校正方法與應用此方法的自動化設備
US9802539B2 (en) * 2015-04-01 2017-10-31 Robert Bosch Gmbh Distance and direction estimation of a target point from a vehicle using monocular video camera
EP3076657B1 (en) 2015-04-02 2017-05-24 Axis AB Method for determination of focal length for a zoom lens
EP3076656B1 (en) * 2015-04-02 2017-03-08 Axis AB Method and system for image stabilization
US10089538B2 (en) 2015-04-10 2018-10-02 Bendix Commercial Vehicle Systems Llc Vehicle 360° surround view system having corner placed cameras, and system and method for calibration thereof
CN105021127B (zh) * 2015-06-25 2017-07-28 哈尔滨工业大学 一种贴片机的基准相机校正方法
US10242285B2 (en) 2015-07-20 2019-03-26 Kofax, Inc. Iterative recognition-guided thresholding and data extraction
US10467465B2 (en) 2015-07-20 2019-11-05 Kofax, Inc. Range and/or polarity-based thresholding for improved data extraction
TWI574230B (zh) * 2015-07-28 2017-03-11 由田新技股份有限公司 防止跌落裝置與其操作方法
EP3125196B1 (en) * 2015-07-29 2018-02-21 Continental Automotive GmbH Drive-by calibration from static targets
US10445898B2 (en) 2016-02-05 2019-10-15 Sony Corporation System and method for camera calibration by use of rotatable three-dimensional calibration object
US10922559B2 (en) * 2016-03-25 2021-02-16 Bendix Commercial Vehicle Systems Llc Automatic surround view homography matrix adjustment, and system and method for calibration thereof
KR102528003B1 (ko) * 2016-07-27 2023-05-02 현대모비스 주식회사 차량용 카메라 공차 보정 방법 및 그 장치
CN106162124B (zh) * 2016-08-02 2018-06-08 上海唱风信息科技有限公司 投影机输出图像的校准方法
CN107808398B (zh) 2016-09-08 2023-04-07 松下知识产权经营株式会社 摄像头参数算出装置以及算出方法、程序、记录介质
CN110447220B (zh) * 2017-03-21 2021-03-09 奥林巴斯株式会社 校准装置、校准方法、光学装置、摄影装置以及投影装置
JP7038346B2 (ja) 2017-05-01 2022-03-18 パナソニックIpマネジメント株式会社 カメラパラメータ算出方法、カメラパラメータ算出プログラム、及びカメラパラメータ算出装置
WO2018235163A1 (ja) * 2017-06-20 2018-12-27 株式会社ソニー・インタラクティブエンタテインメント キャリブレーション装置、キャリブレーション用チャート、チャートパターン生成装置、およびキャリブレーション方法
KR101928979B1 (ko) * 2017-07-04 2019-03-12 주식회사 티에스리 차량의 주변에 설치가 용이한 캘리브레이션 장치 및 그 설치방법
US11089288B2 (en) * 2017-09-11 2021-08-10 Tusimple, Inc. Corner point extraction system and method for image guided stereo camera optical axes alignment
US11158088B2 (en) 2017-09-11 2021-10-26 Tusimple, Inc. Vanishing point computation and online alignment system and method for image guided stereo camera optical axes alignment
US10432912B2 (en) 2017-09-29 2019-10-01 Waymo Llc Target, method, and system for camera calibration
US11153514B2 (en) * 2017-11-30 2021-10-19 Brillnics Singapore Pte. Ltd. Solid-state imaging device, method for driving solid-state imaging device, and electronic apparatus
US11062176B2 (en) 2017-11-30 2021-07-13 Kofax, Inc. Object detection and image cropping using a multi-detector approach
CN108081219A (zh) * 2017-12-07 2018-05-29 曹建 操作台定位精度的校准方法及系统
US10852731B1 (en) 2017-12-28 2020-12-01 Waymo Llc Method and system for calibrating a plurality of detection systems in a vehicle
CN108124102B (zh) * 2017-12-28 2020-10-13 北京小米移动软件有限公司 图像处理方法、装置及计算机可读存储介质
JP6986683B2 (ja) 2018-01-05 2021-12-22 パナソニックIpマネジメント株式会社 視差値算出装置、視差値算出方法及びプログラム
US10482626B2 (en) * 2018-01-08 2019-11-19 Mediatek Inc. Around view monitoring systems for vehicle and calibration methods for calibrating image capture devices of an around view monitoring system using the same
US10942045B1 (en) * 2018-04-03 2021-03-09 Waymo Llc Portable sensor calibration target for autonomous vehicle
US10269141B1 (en) 2018-06-04 2019-04-23 Waymo Llc Multistage camera calibration
FR3085910A1 (fr) * 2018-09-19 2020-03-20 Psa Automobiles Sa Procede et systeme de retrovision numerique pour un vehicule automobile
CN109389650B (zh) * 2018-09-30 2021-01-12 京东方科技集团股份有限公司 一种车载相机的标定方法、装置、车辆和存储介质
KR20200040374A (ko) 2018-10-10 2020-04-20 삼성전자주식회사 거리 추정 방법 및 장치
EP3644279A1 (en) * 2018-10-25 2020-04-29 Continental Automotive GmbH Static camera calibration using motion of vehicle portion
JP6863954B2 (ja) 2018-11-14 2021-04-21 ファナック株式会社 カメラ校正装置及びカメラ校正方法
JP7056540B2 (ja) * 2018-12-18 2022-04-19 株式会社デンソー センサ校正方法およびセンサ校正装置
KR102060113B1 (ko) * 2019-01-30 2019-12-27 주식회사 몹티콘 캘리브레이션 시스템 및 방법
US11049282B2 (en) 2019-02-28 2021-06-29 Intelligrated Headquarters, Llc Vision calibration system for robotic carton unloading
US11681030B2 (en) 2019-03-05 2023-06-20 Waymo Llc Range calibration of light detectors
US10623727B1 (en) 2019-04-16 2020-04-14 Waymo Llc Calibration systems usable for distortion characterization in cameras
CN111935465B (zh) * 2019-05-13 2022-06-17 中强光电股份有限公司 投影系统、投影装置以及其显示影像的校正方法
US11629835B2 (en) * 2019-07-31 2023-04-18 Toyota Jidosha Kabushiki Kaisha Auto-calibration of vehicle sensors
US11747453B1 (en) 2019-11-04 2023-09-05 Waymo Llc Calibration system for light detection and ranging (lidar) devices
CN111325669A (zh) * 2020-03-05 2020-06-23 北京远心科技有限责任公司 用于倾斜拍摄的校正尺及倾斜拍摄图像校正方法
CN111462249B (zh) * 2020-04-02 2023-04-18 北京迈格威科技有限公司 一种交通摄像头标定方法及装置
CN115918069A (zh) 2020-08-26 2023-04-04 三星电子株式会社 用于调整显示装置的图像质量的电子装置及其操作方法
CN112927300A (zh) * 2021-01-07 2021-06-08 深圳市天双科技有限公司 一种全景摄像头标定方法
KR20230030996A (ko) 2021-08-26 2023-03-07 현대자동차주식회사 객체 추적 장치 및 방법

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1094668A2 (en) 1999-10-19 2001-04-25 Kabushiki Kaisha Toyoda Jidoshokki Seisakusho Image positional relation correction apparatus, steering supporting apparatus provided with the image positional relation correction apparatus, and image positional relation correction method
JP2001245326A (ja) * 1999-12-24 2001-09-07 Aisin Seiki Co Ltd 車載カメラの校正装置および校正方法、並びに校正指標
US6813371B2 (en) 1999-12-24 2004-11-02 Aisin Seiki Kabushiki Kaisha On-vehicle camera calibration device

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR970006422B1 (ko) * 1993-12-13 1997-04-28 한국과학기술연구원 자유곡면의 3차원 형상정보 획득 장치 및 그 방법
JPH08161424A (ja) 1994-12-05 1996-06-21 Canon Inc 画像処理方法および装置
JP3521859B2 (ja) 2000-09-18 2004-04-26 株式会社デンソー 車両周辺画像処理装置及び記録媒体
FR2840093B1 (fr) 2002-05-27 2006-02-10 Real Eyes 3D Procede de numerisation par camera avec correction de la deformation et amelioration de la resolution
US7321386B2 (en) * 2002-08-01 2008-01-22 Siemens Corporate Research, Inc. Robust stereo-driven video-based surveillance

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1094668A2 (en) 1999-10-19 2001-04-25 Kabushiki Kaisha Toyoda Jidoshokki Seisakusho Image positional relation correction apparatus, steering supporting apparatus provided with the image positional relation correction apparatus, and image positional relation correction method
JP2001187552A (ja) * 1999-10-19 2001-07-10 Toyota Autom Loom Works Ltd 映像位置関係補正装置、該映像位置関係補正装置を備えた操舵支援装置、及び映像位置関係補正方法
JP2001245326A (ja) * 1999-12-24 2001-09-07 Aisin Seiki Co Ltd 車載カメラの校正装置および校正方法、並びに校正指標
US6813371B2 (en) 1999-12-24 2004-11-02 Aisin Seiki Kabushiki Kaisha On-vehicle camera calibration device

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP1816869A4

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR2889640A1 (fr) * 2006-09-08 2007-02-09 Keeneo Procede et outil de configuration d'au moins un systeme de videosurveillance intelligente
WO2008028924A3 (fr) * 2006-09-08 2008-05-15 Keeneo Procede et outil de configuration d'au moins un systeme de videosurveillance intelligente
US8116564B2 (en) * 2006-11-22 2012-02-14 Regents Of The University Of Minnesota Crowd counting and monitoring

Also Published As

Publication number Publication date
EP1816869A1 (en) 2007-08-08
CN101065969A (zh) 2007-10-31
JP2006148745A (ja) 2006-06-08
US8269848B2 (en) 2012-09-18
US20080031514A1 (en) 2008-02-07
KR100869570B1 (ko) 2008-11-21
EP1816869A4 (en) 2010-05-05
JP4681856B2 (ja) 2011-05-11
KR20070064371A (ko) 2007-06-20

Similar Documents

Publication Publication Date Title
WO2006057147A1 (ja) カメラの校正方法及びカメラの校正装置
CN110809786B (zh) 校准装置、校准图表、图表图案生成装置和校准方法
US8295588B2 (en) Three-dimensional vision sensor
JP4015051B2 (ja) カメラ補正装置
CN109118543B (zh) 沿至少三个不连续平面对机器视觉摄像机进行校准的系统和方法
CN106887023A (zh) 用于双目摄像机标定的标定板及其标定方法和标定系统
JP2008014940A (ja) 平面状被撮像物のカメラ計測のためのカメラキャリブレーション方法、および応用計測装置
CN1784649A (zh) 自动校准的触摸系统及方法
JP2004340840A (ja) 距離測定装置、距離測定方法、及び距離測定プログラム
CN102136140A (zh) 一种基于矩形图样的视频图像距离检测方法
WO2018154634A1 (ja) 投写型表示装置、投写型表示装置の制御方法、及びプログラム
JPH11136575A (ja) 撮像装置及び撮像画像合成方法
CN114502913A (zh) 修正参数计算方法及装置、位移量计算方法及装置
CN114450552A (zh) 校正参数计算方法、位移量计算方法、校正参数计算装置及位移量计算装置
CN112686959B (zh) 待识别图像的矫正方法及装置
JPH09329418A (ja) カメラのキャリブレーション方法
JP4405009B2 (ja) ラインセンサーカメラを備えた検査機のキャリブレーション方法
JP5580553B2 (ja) カメラ設置位置検出装置及び検出方法並びにカメラ設置位置検出用治具
JP3696335B2 (ja) 複数枚の画像の各計測点の対応づけ方法
JP6262610B2 (ja) 情報登録装置及び情報継続登録装置並びに方法及びプログラム
CN111491448A (zh) 显示装置制造用工作台对准装置及方法
Anwar Calibrating projector flexibly for a real-time active 3D scanning system
JP6448413B2 (ja) 屋根勾配推定システム及び屋根勾配推定方法
JP2006146760A (ja) 画像変換方法及び画像変換装置
CN113661474A (zh) 基准位置设定方法和操作检测装置

Legal Events

Date Code Title Description
AK Designated states

Kind code of ref document: A1

Designated state(s): AE AG AL AM AT AU AZ BA BB BG BR BW BY BZ CA CH CN CO CR CU CZ DE DK DM DZ EC EE EG ES FI GB GD GE GH GM HR HU ID IL IN IS KE KG KM KN KP KR KZ LC LK LR LS LT LU LV LY MA MD MG MK MN MW MX MZ NA NG NI NO NZ OM PG PH PL PT RO RU SC SD SE SG SK SL SM SY TJ TM TN TR TT TZ UA UG US UZ VC VN YU ZA ZM ZW

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): BW GH GM KE LS MW MZ NA SD SL SZ TZ UG ZM ZW AM AZ BY KG KZ MD RU TJ TM AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HU IE IS IT LT LU LV MC NL PL PT RO SE SI SK TR BF BJ CF CG CI CM GA GN GQ GW ML MR NE SN TD TG

121 Ep: the epo has been informed by wipo that ep was designated in this application
WWE Wipo information: entry into national phase

Ref document number: 1020077011283

Country of ref document: KR

WWE Wipo information: entry into national phase

Ref document number: 11791282

Country of ref document: US

REEP Request for entry into the european phase

Ref document number: 2005805559

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 2005805559

Country of ref document: EP

Ref document number: 200580040140.0

Country of ref document: CN

NENP Non-entry into the national phase

Ref country code: DE

WWP Wipo information: published in national office

Ref document number: 2005805559

Country of ref document: EP

WWP Wipo information: published in national office

Ref document number: 11791282

Country of ref document: US