WO2015132981A1 - 位置測定装置及び位置測定方法 - Google Patents

位置測定装置及び位置測定方法 Download PDF

Info

Publication number
WO2015132981A1
WO2015132981A1 PCT/JP2014/070233 JP2014070233W WO2015132981A1 WO 2015132981 A1 WO2015132981 A1 WO 2015132981A1 JP 2014070233 W JP2014070233 W JP 2014070233W WO 2015132981 A1 WO2015132981 A1 WO 2015132981A1
Authority
WO
WIPO (PCT)
Prior art keywords
feature point
captured image
image
reflection surface
camera
Prior art date
Application number
PCT/JP2014/070233
Other languages
English (en)
French (fr)
Inventor
幸康 堂前
関 真規人
信太郎 渡邉
諭 惣福
豊 江崎
Original Assignee
三菱電機株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 三菱電機株式会社 filed Critical 三菱電機株式会社
Priority to EP14884656.1A priority Critical patent/EP3115741B1/en
Priority to JP2016506069A priority patent/JP6067175B2/ja
Priority to US15/120,682 priority patent/US10210628B2/en
Publication of WO2015132981A1 publication Critical patent/WO2015132981A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/002Measuring arrangements characterised by the use of optical techniques for measuring two or more coordinates
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/907Television signal recording using static stores, e.g. storage tubes or semiconductor memories
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/183Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a single remote source
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30204Marker

Definitions

  • the present invention relates to a position measuring apparatus and a position measuring method for measuring the position of an object having a reflecting surface in a three-dimensional space using a camera.
  • Patent Documents 1 and 2 are inventions of Patent Documents 1 and 2 as methods for measuring the position of an object having a reflecting surface in a three-dimensional space.
  • an object having a reflecting surface illuminated is photographed by two cameras, and the normal direction of reflected light of the object having the reflecting surface is calculated from each photographed image.
  • the invention of Patent Document 1 searches for corresponding pixels between images based on the normal direction, and performs three-dimensional surveying (stereo measurement) based on the parallax between corresponding pixels.
  • an object having a reflective surface is irradiated with a laser spot light, and the reflected light reflected by the object having a reflective surface is observed by two image sensors.
  • the invention of Patent Document 2 calculates the incident vector of the observed reflected light, and calculates the position where the spot light hits the object having the reflecting surface based on the incident vector.
  • Patent Documents 3 and 4 as methods for measuring the shape of an object having a specular reflection surface.
  • JP 2010-071782 A Japanese Patent Application Laid-Open No. 2011-117832 JP 2010-197391 A JP 2007-322162 A
  • Patent Documents 1 and 2 in order to acquire an image of an object having a reflecting surface, a special light source is used to irradiate the object having the reflecting surface.
  • a special light source is used to irradiate the object having the reflecting surface.
  • these measures alone cannot solve the light intensity difference problem, and the position of an object having a reflecting surface in a three-dimensional space may not be measured. In the first place, the apparatus cost and energy for irradiating light are needed.
  • Patent Documents 3 and 4 also do not disclose solving these problems.
  • An object of the present invention is to solve the above-mentioned problems, and position measurement that can stably measure the position of an object having a reflecting surface in a three-dimensional space without using a special light source and a wide dynamic range camera. It is to provide an apparatus and method.
  • a position measurement device includes: A camera that acquires a captured image including at least a part of the reflective surface by capturing a target object having the reflective surface; A first storage unit that stores shooting conditions including a viewpoint position and a shooting direction of the camera; A second storage unit for storing model data including the shape of the target object; A marker object having a plurality of feature points and fixed at a predetermined position with respect to the camera; A third storage unit for storing feature point data representing a mutual positional relationship between the viewpoint position and the feature point; A feature of extracting a plurality of feature points from a photographed image acquired by the camera in a state where a plurality of the feature points are reflected on the reflection surface, and determining a position of the feature point in the photographed image. A point extractor; A position measuring unit configured to calculate a position of the target object based on the shooting condition, the model data, the feature point data, and a position of the feature point in the shot image;
  • the position of an object having a reflecting surface in a three-dimensional space can be measured without using a special light source and a wide dynamic range camera.
  • FIG. 1 It is a block diagram which shows the structure of the position measuring apparatus which concerns on Embodiment 1 of this invention. It is a figure which shows the example of the pattern of the marker object 2 which the position measuring apparatus which concerns on Embodiment 1 of this invention has. It is a figure explaining the relationship between the camera and marker object, the reflective surface, and the mirror image body of a camera and marker object in the position measuring device according to Embodiment 1 of the present invention. It is a flowchart explaining the position measurement process performed by the position measuring apparatus which concerns on Embodiment 1 of this invention. It is a flowchart explaining the mirror body position calculation process of the position measurement process performed by the position measurement apparatus which concerns on Embodiment 1 of this invention.
  • Embodiment 1 In each embodiment of the present invention, in order to measure the position of a target object having a reflecting surface (an object whose position is to be measured), a marker object having a plurality of feature points whose positional relationships are determined is used.
  • a virtually existing mirror image is obtained from the mirror image of the camera and marker object reflected on the reflecting surface, the positions of a plurality of feature points included in the mirror image are calculated, and the feature points of the mirror image object The position and orientation of the reflecting surface are calculated based on the position of.
  • the first embodiment of the present invention uses a reflection surface model that represents the shape of the reflection surface when the reflection surface is a known curved surface, and reflects the light from the camera viewpoint vertically on the reflection surface.
  • An approximate plane that approximates the reflection surface is determined around the point (this point is called a mirror image center point, which will be described in detail later), and the reflection surface model is applied to the approximation plane.
  • the position of the reflecting surface is the position in the three-dimensional space of the mirror image center point on the reflecting surface.
  • the direction of the reflecting surface is the normal direction of the plane that is in contact with the reflecting surface at the mirror image center point.
  • FIG. 1 is a block diagram showing a configuration of a position measuring apparatus according to Embodiment 1 of the present invention.
  • the position measuring device in FIG. 1 measures the position of a target object having a reflecting surface in a three-dimensional space.
  • the target object is, for example, a split mirror 21 obtained by dividing the reflection surface of a large-diameter reflection telescope.
  • the split mirror 21 includes a reflective surface 22 and a non-reflective portion (such as an edge 23, a side surface, and a back surface of the reflective surface 22) that is a portion that is not the reflective surface 22.
  • a gripping mechanism which is a robot hand suspended by a crane, for example.
  • the position measuring device is used to measure the position of the split mirror 21 in a three-dimensional space with a predetermined accuracy when the split mirror 21 is gripped by a gripping mechanism.
  • the relative position of the gripping mechanism and the dividing mirror 21 is known in advance by an error of about several tens of centimeters by another method.
  • the position measurement apparatus according to Embodiment 1 of the present invention obtains the position of the split mirror 21 with an accuracy of, for example, about several millimeters or less.
  • the position measuring apparatus according to Embodiment 1 of the present invention can also be used when measuring the position of another object having a reflecting surface.
  • the camera 1 includes at least one camera 1, a marker object 2, a storage device 3, and a processing device 4.
  • the camera 1 is a camera that has been subjected to general adjustment according to ambient light.
  • the camera 1 captures an image including at least a part of the reflecting surface 22 of the split mirror 21 (hereinafter referred to as “captured image”) by capturing the split mirror 21.
  • the marker object 2 is an object including a plurality of markers each fixed at a predetermined position with the camera 1 as a reference, and has a plurality of feature points.
  • the camera 1 may also have at least one feature point.
  • the marker is a plane figure or a three-dimensional figure having feature points.
  • the storage device 3 stores in advance information necessary for position measurement in a three-dimensional space.
  • the storage device 3 stores a first storage unit that stores shooting conditions including the viewpoint position and shooting direction of the camera 1 when shooting an image, and a second storage unit that stores model data including the shape of the split mirror 21. And a third storage unit that stores feature point data representing the mutual positional relationship between the viewpoint position and the feature point.
  • the model data includes a reflection surface model representing the shape of the reflection surface 22 and the positional relationship between the reflection surface 22 and the non-reflection portion.
  • the shape of the reflecting surface 22 includes the radius of curvature of the reflecting surface 22 and the shape of a contour line (circular, square, hexagonal, etc.).
  • the feature point data includes the positions of a plurality of feature points of the marker object 2 with reference to the viewpoint position.
  • the feature point data may further include the position of at least one feature point of the camera 1 based on the viewpoint position.
  • the positional relationship between the feature points stored in advance as the feature point data is a mirror image relationship (an inverted positional relationship) with respect to the actual positional relationship between the feature points. used.
  • the feature point may be based on a position different from the viewpoint position. Any feature point data may be used as long as the positional relationship between the viewpoint position and the feature point can be expressed.
  • a curvature may be used instead of the radius of curvature.
  • the processing device 4 determines the position of the split mirror 21 in the three-dimensional space based on the image of the split mirror 21 taken by the camera 1.
  • the processing device 4 includes a feature point extraction unit 11 and a position measurement unit 12.
  • the feature point extraction unit 11 extracts a plurality of feature points from the photographed image photographed by the camera 1 in a state where a plurality of the feature points are reflected in the reflection surface 22, and determines the positions of the feature points in the photographed image. decide.
  • the feature point extraction unit 11 further associates the position of the feature point in the captured image with the position of the feature point stored in advance as feature point data.
  • the position measurement unit 12 calculates the position of the split mirror 21 based on the shooting conditions, model data, feature point data, and the position of the feature point in the shot image.
  • the position measuring device may further include a display device 5 showing the image 6 taken by the camera 1 and / or the process and result of the position measurement of the split mirror 21 in the three-dimensional space. By providing the display device 5, the user can easily understand the situation.
  • the position measurement device may not include the display device 5.
  • an image 6 captured by the camera 1 includes a reflection surface 22 and an edge 23 of the split mirror 21 and a camera 1 and a marker object 2 reflected on the reflection surface 22 of the split mirror 21. And a mirror image 24.
  • the field of view of the camera 1 is sufficiently wide with respect to the split mirror 21 and the split mirror 21 and the marker object 2 are within the field of view of the camera 1.
  • the mirror image of the object means an image of the object reflected on the reflecting surface 22.
  • the position measuring unit 12 includes an enantiomer position calculating unit 13, a reflecting surface position calculating unit 14, and a target object position determining unit 15.
  • the mirror body position calculation unit 13 is based on the position of the feature point stored in advance as the feature point data, and the camera 1 and the marker virtually exist on the opposite side of the reflection surface 22 from the camera 1 and the marker object 2. The positions of a plurality of feature points included in the mirror image of the object 2 are calculated.
  • the mirror body is a camera with respect to the reflection surface 22 such that the same image as the mirror image 24 of the camera 1 and the marker object 2 reflected on the reflection surface 22 can be photographed by the camera 1 when it is assumed that the reflection surface 22 does not exist.
  • 1 is a virtual object existing on the opposite side of 1 (see FIGS. 3, 7, and 8).
  • the mirror image position calculation unit 13 is configured so that the positions of a plurality of feature points included in the virtual captured image obtained by virtually capturing the mirror image under the same shooting conditions as when the actual captured image is acquired by the camera 1 are actually Are included in the mirror body so as to be close to positions of a plurality of corresponding feature points in the captured image acquired by the camera 1 (feature points in the actual captured image corresponding to the feature points in the virtual captured image), respectively. Calculate the position of multiple feature points.
  • the reflecting surface position calculation unit 14 determines the feature point position of the marker object 2 determined from the viewpoint position and feature point data (previously stored feature point positions), and the mirror object feature calculated by the mirror body position calculation unit 13. Based on the position of the point and the radius of curvature of the reflecting surface 22 stored in advance as model data, the position and orientation of the reflecting surface 22 are calculated.
  • the target object position determination unit 15 determines the division mirror based on the positional relationship between the reflective surface and the non-reflective part stored in advance as model data and the position and orientation of the reflective surface 22 calculated by the reflective surface position calculation unit 14. The position of 21 is determined. Specifically, the target object position determination unit 15 specifies the position of the split mirror 21 by detecting the position of the edge 23 of the reflecting surface 22.
  • the mirror body position calculation unit 13 positions the plurality of feature points included in the mirror body so as to reduce the difference between the position of the feature point in the virtual captured image and the position of the corresponding feature point in the actual captured image. Calculate The mirror body position calculation unit includes a projective conversion unit 16 and a size changing unit 17.
  • the projective transformation unit 16 is a projective transformation applied to the position of the feature point in the actual photographed image or the position of the feature point in the virtual photographed image, and the figure formed by the feature point in the virtual photographed image and the actual Projective transformation is determined such that the figures formed by the corresponding feature points in the captured image are similar to each other.
  • projective transformation is applied to the position of a feature point in a virtual photographed image
  • the position of each feature point after the projective transformation is expanded or reduced at an appropriate magnification and translated to correspond to the actual photographed image.
  • the position is the same as or close to the position of the feature point.
  • projective transformation is determined by using a homography matrix calculation generally performed in image processing or computer vision. Can do. This projective transformation represents the difference between the assumed posture of the mirror body and the posture of the camera 1 and the marker object 2 actually captured by the camera 1 (actual mirror body posture).
  • the size changing unit 17 applies the determined projective transformation to the position of the feature point in the actual captured image or the position of the feature point in the virtual captured image, and then the figure formed by the feature point in the virtual captured image or
  • the size change rate applied to the figure formed by the corresponding feature point in the actual captured image, the position of the feature point in the virtual captured image and the position of the corresponding feature point in the actual captured image Determine a resizing rate that reduces the difference.
  • the size changing unit 17 determines the size change rate such that the figure formed by the feature points in the virtual photographed image approaches congruent with the figure formed by the corresponding feature points in the actual photographed image. .
  • the size change rate includes the same size.
  • the mirror body position calculation unit 13 changes the positions of a plurality of feature points included in the mirror body based on the determined projective transformation and the determined size change rate.
  • the mirror body position calculation unit 13 until the difference between the position of the feature point in the virtual captured image and the position of the corresponding feature point in the actual captured image is less than a predetermined threshold (allowable error).
  • Projective transformation and resizing rate are calculated iteratively.
  • the threshold value is set for the maximum absolute value of the error of the position of each feature point, the sum of the absolute values of the error of the position of each feature point, the square sum of the error of the position of each feature point, and the like.
  • the position measurement device determines the position of the determined split mirror 21 for further processing (for example, holding and moving the split mirror 21 by a gripping mechanism).
  • the position may be sent to an external device (not shown).
  • the storage device 3 may store a set of shooting conditions including one viewpoint position of the camera 1 and one shooting direction.
  • the position measurement unit 12 calculates the position of the split mirror 21 based on the shooting conditions, model data, feature point data, and a feature point set that includes the positions of a plurality of feature points in the shot image. May be.
  • FIG. 2 is a diagram illustrating an example of a pattern of the marker object 2 included in the position measurement device according to Embodiment 1 of the present invention.
  • the marker object 2 in FIG. 2 has a plurality of squares (markers) that form a checkered rectangular area, and four different symbols (graphic figures) provided at four corners of the rectangular area.
  • Each marker has a feature point such as the vertex or centroid of an individual graphic.
  • the storage device 3 stores the positions of a plurality of feature points included in the camera 1 and the marker object 2 as models of the camera 1 and the marker object 2.
  • the viewpoint position of the camera 1 may be the origin, and another position may be the origin.
  • the marker object 2 can be distinguished from the top, bottom, left, and right by providing four different types of symbols.
  • the image 6 captured by the camera 1 includes a mirror image 24 of the camera 1 and the marker object 2 reflected on the reflection surface 22 of the split mirror 21, the image 1 is included in the camera 1 and the marker object 2.
  • the plurality of feature points (the model stored in the storage device 3) can be associated with the plurality of feature points included in the mirror image 24.
  • the checker pattern of the marker object 2 shown in FIG. 2 is an example, and the marker object 2 is another marker or a mark arranged two-dimensionally or three-dimensionally, such as a plurality of circles forming a polka dot pattern. Geometric features may be included. For example, when the marker is a circle, the center of the circle may be used as the feature point. In addition, the number of symbols provided for distinguishing the top, bottom, left, and right of the marker object 2 is not limited to four. In addition, it is not necessary to provide a special symbol for distinguishing the top, bottom, left, and right of the marker object 2. For example, by giving a color different from that of the other markers to at least one marker, Can be distinguished.
  • the storage device 3 further stores the color of each marker.
  • the marker object is not limited to a two-dimensional array such as a checker pattern, and any marker object may be used as long as it has a plurality of feature points respectively arranged at predetermined positions with respect to the position of the camera 1. .
  • FIG. 3 is a diagram for explaining the relationship between the camera 1 and the marker object 2, the reflection surface, and the mirror body of the camera 1 and the marker object 2 in the position measurement apparatus according to Embodiment 1 of the present invention.
  • the relationship between the camera 1 and the marker object 2, the reflecting surface 22, and the mirror image of the camera 1 and the marker object 2 will be described with reference to FIG.
  • a virtual camera 1M and a virtual marker object 2M exist virtually.
  • the camera 1 has a viewpoint 31, a shooting direction 32, and a field of view 33.
  • the virtual camera 1M which is a mirror image, has a virtual viewpoint 31M, a virtual shooting direction 32M, and a virtual field of view 33M.
  • a straight line passing through the viewpoint 31 of the camera 1 and the viewpoint 31M of the virtual camera 1M intersects the reflecting surface 22 perpendicularly.
  • a straight line passing through the viewpoint 31 of the camera 1 and the viewpoint 31M of the virtual camera 1M is referred to as a reflecting surface vertical line.
  • the intersection of the reflecting surface vertical line 34 and the reflecting surface 22 is called a mirror image center point 35.
  • FIG. 4 is a flowchart for explaining position measurement processing executed by the position measurement apparatus according to Embodiment 1 of the present invention.
  • FIG. 5 is a flowchart for explaining the mirror position calculation process of the position measurement process executed by the position measurement apparatus according to the first embodiment of the present invention.
  • the position of the split mirror 21 includes the position of a predetermined reference point (for example, the center of gravity) of the split mirror 21, the direction in which the predetermined surface of the split mirror 21 faces (referred to as the front direction), and the front direction. It can be decomposed into the rotation angle at.
  • a combination of a relative direction of the front direction of the split mirror 21 and a rotation angle around the front direction with respect to a straight line from the viewpoint position of the camera 1 to a predetermined point of the split mirror 21 is defined as a split mirror. Called 21 posture. If the position and posture of the split mirror 21 are determined, the positions of all the parts of the split mirror 21 are also determined.
  • the camera 1 and the marker object 2 reflected on the reflecting surface of the dividing mirror 21 when a rough position and posture are given.
  • the position of the feature point included in the virtual captured image obtained by virtually capturing the image is calculated, and the position of the feature point in the virtual captured image is close to the position of the corresponding feature point in the actual captured image As described above, the position and posture of the split mirror 21 are corrected.
  • the position of the feature point of the mirror body of the camera 1 and the marker object 2 is calculated.
  • the positions of the mirror 1 of the camera 1 and the marker object 2 determined from the rough position of the dividing mirror 21 are set as reference positions. Call it.
  • the split mirror 21 constitutes a part of the reflecting surface of the reflective telescope, or whether the split mirror 21 is separated from the reflective telescope and placed on the mounting tool. You can also roughly see the front direction.
  • the posture of the mirror body of the camera 1 and the marker object 2 determined from the front direction of the split mirror 21 which is roughly known is referred to as a reference posture. Since the relative positional relationship between the feature points included in the mirror image is determined from the positional relationship between the feature points of the camera 1 and the marker object 2, the reference position and the reference posture can be determined.
  • the position measurement process in FIG. 4 is executed by the processing device 4 in FIG. 1 in order to measure the position of the target object.
  • the feature point extraction unit 11 extracts feature points from the actual captured image captured by the camera 1, and sends information about the extracted feature points to the position measurement unit 12.
  • the mirror body position calculation unit 13 executes a mirror body position calculation process, and determines the positions of the feature points of the mirror bodies (virtual camera 1M and virtual marker object 2M) of the camera 1 and the marker object 2.
  • the mirror body position calculation unit 13 determines the reference position and reference posture of the mirror body of the camera 1 and the marker object 2 as initial values of the position and posture of the mirror body.
  • the mirror body position calculation unit 13 performs virtual shooting obtained by virtually shooting the mirror body under the same shooting conditions as when the actual shot image was acquired by the camera 1 based on the position and orientation of the mirror body. The positions of a plurality of feature points included in the image are calculated.
  • the enantiomer position calculation unit 13 determines whether the difference between the position of the feature point in the actual captured image and the position of the corresponding feature point in the virtual captured image is less than the threshold value. To do.
  • step S13 If the difference between the positions of the feature points is less than the threshold value, that is, if step S13 is YES, the process of the flowchart of FIG. 5 is terminated, and the process proceeds to step S3 of FIG. If the difference between the positions of the feature points is greater than or equal to the threshold value, that is, if step S13 is NO, the process proceeds to step S14. Differences in the positions of feature points are calculated as, for example, the sum of absolute values of distances between feature points corresponding to each other, the sum of squares of distances, and the like.
  • the mirror body position calculation unit 13 uses the projection conversion unit 16 to perform the projective transformation applied to the position of the feature point in the actual captured image or the position of the feature point in the virtual captured image.
  • projective transformation is determined such that the figure formed by the feature points in the virtual photographed image and the figure formed by the corresponding feature points in the actual photographed image are close to each other.
  • the reflecting surface 22 of the split mirror 21 is a plane
  • projective transformation is determined based on the positions of all feature points in the actual captured image (and the positions of corresponding feature points in the virtual captured image). The attitude of the mirror image can be calculated stably.
  • the reflecting surface 22 of the split mirror 21 is a curved surface
  • the position of the feature point within the range in which the distortion of the mirror image around the mirror image center point 35 shown in the actual captured image can be ignored (and the corresponding in the virtual captured image).
  • the attitude of the mirror image can be calculated stably while suppressing the influence of the distortion of the mirror image.
  • a point corresponding to the mirror image center point 35 in the image is referred to as a mirror image center point in the image.
  • step S15 of FIG. 5 the determined projective transformation is applied to the position of the feature point in the actual captured image or the position of the feature point in the virtual captured image.
  • step S ⁇ b> 16 the mirror body position calculation unit 13 uses the size changing unit 17 to change the size change rate applied to the graphic formed by the feature points in the virtual photographed image or the feature points in the actual photographed image.
  • the difference between the position of the feature point in the virtual photographed image and the position of the corresponding feature point in the actual photographed image is minimized without changing the position of the mirror image center point 35 in the image.
  • the correct resizing rate is minimized without changing the position of the mirror image center point 35 in the image.
  • FIG. 6 is a diagram for explaining an example of a process of calculating the position of the mirror body by the mirror body position calculation unit 13 of the position measurement apparatus according to the first embodiment of the present invention.
  • the diagram denoted by reference numeral 101 shows a case where the actual captured image includes the reflection surface 22 and the mirror image 24 of the marker object 2.
  • the mirror image 24 of the marker object 2 has a plurality of feature points 24a.
  • the diagram denoted by reference numeral 104 shows an image 41 of the virtual marker object 2M in a virtual photographed image obtained by virtually photographing a mirror image whose position and orientation are initial values (reference position and reference orientation).
  • the image 41 of the virtual marker object 2M has a plurality of feature points 41a.
  • FIG. 103 shows an image 42 of the virtual marker object 2M in the virtual photographed image after the projective transformation obtained in step S14 of FIG. 5 is applied to the virtual photographed image.
  • the image 42 of the virtual marker object 2M has a plurality of feature points 42a.
  • the diagram with reference numeral 102 shows the image 43 of the virtual marker object 2M in the virtual photographed image after the size of the virtual photographed image is changed at the size change rate obtained in step S16 in FIG.
  • the image 43 of the virtual marker object 2M has a plurality of feature points 43a.
  • the position of the feature point in the actual captured image (reference numeral It can be seen that the difference between the position of the corresponding feature point in the virtual photographed image and the position of the corresponding feature point in the virtual photographed image is smaller than in the case of the image 41.
  • the mirror body position calculation unit 13 changes the posture of the mirror body based on the determined projective transformation.
  • the mirror body position calculation unit 13 changes the distance from the camera 1 and the marker object 2 to the mirror body (the virtual camera 1M and the virtual marker object 2M) based on the determined size change rate.
  • the mirror body position calculation unit 13 does not execute steps S15, S16, and S18, and after the execution of step S17, the difference between the position of the feature point in the actual captured image and the position of the corresponding feature point in the virtual captured image.
  • the distance from the camera 1 and the marker object 2 to the mirror image may be directly changed so as to minimize This is also true for other embodiments.
  • the mirror body position calculation unit 13 repeats steps S12 to S18 until the difference between the position of the feature point in the actual captured image and the position of the corresponding feature point in the virtual captured image is less than the threshold value.
  • the reflecting surface position calculation unit 14 calculates a plurality of feature points of the marker object 2 reflected in the vicinity of the mirror image center point 35 on the reflecting surface 22 and a plurality of feature points corresponding to the mirror image object.
  • a plurality of division points that respectively divide the connecting line segments are determined, and the approximate plane 51 is applied to these division points.
  • Each division point is at a position where a line segment connecting the feature point of the marker object 2 and the corresponding feature point of the mirror image body is divided into two at a division ratio determined from the radius of curvature of the reflection surface 22. The division ratio will be described later.
  • step S ⁇ b> 4 the reflection surface position calculation unit 14 determines the position and orientation of the reflection surface 22 based on the model of the reflection surface 22 so that the reflection surface 22 contacts the approximate plane 51 at the mirror image center point 35.
  • the reflecting surface position calculation unit 14 determines the position and orientation of the approximate plane 51 that approximates the reflecting surface 22 in the vicinity of the mirror image center point 35, and the approximate plane 51 at the mirror image center point 35.
  • the position and orientation of the reflecting surface 22 are determined by determining the position and orientation of the reflecting surface model so as to be in contact with each other.
  • the division ratio for obtaining the division point of the line segment connecting the feature point of the marker object 2 and the corresponding feature point of the mirror image is derived from the radius of curvature of the reflection surface 22 by applying the lens formula.
  • the division ratio is 0.5
  • the division point is the midpoint of the line segment.
  • FIG. 7 is a diagram illustrating an example of a process of determining the position and orientation of the reflecting surface of the split mirror by the reflecting surface position calculation unit 14 of the position measuring device according to Embodiment 1 of the present invention.
  • symbol 111 shows the camera 1 and the marker object 2, and the virtual camera 1M and the virtual marker object 2M which are those mirror images.
  • the diagram denoted by reference numeral 112 indicates a line segment connecting the feature points of the camera 1 and the marker object 2 and the corresponding feature points of the virtual camera 1M and the virtual marker object 2M with dotted lines.
  • symbol 113 shows the dividing point of the line segment of the figure of the code
  • the intersection of the straight line passing through the viewpoint of the camera 1 and the viewpoint of the virtual camera 1M and the approximate plane 51 is determined as the mirror image center point, and the approximate plane 51 near the mirror image center point of the reflection surface 22 is determined.
  • the position and orientation of the reflective surface 22 determined by fitting the reflective surface model to match are shown.
  • the camera 1 captures a captured image (the camera 1 and the marker object 2 of the camera 1 and the marker object 2) including a mirror image 24 of the camera 1 and the marker object 2 reflected on the reflecting surface 22 (see the reference numeral 114) of the split mirror 21.
  • the feature point extraction unit 11 extracts feature points from the photographed image and determines the positions of the feature points in the photographed image. .
  • the feature point extraction unit 11 further associates the position of the feature point in the captured image with the position of the feature point stored in advance as the feature point data (the actual position of the feature point of the camera 1 and the marker object 2).
  • the mirror image position calculation unit 13 calculates the positions of the feature points included in the mirror image bodies (the virtual camera 1M and the virtual marker object 2M) of the camera 1 and the marker object 2.
  • the mirror body position calculator 13 determines the postures of the virtual camera 1M and the virtual marker object 2M so as to reduce the difference between the position of the feature point in the virtual captured image and the position of the corresponding feature point in the actual captured image. It corrects and repeats correcting the distance from the camera 1 and the marker object 2 to the mirror image (the virtual camera 1M and the virtual marker object 2M).
  • the mirror body position calculation unit 13 determines the position of each feature point of the mirror body, so that the relative positions of the camera 1 and the marker object 2, and the virtual camera 1M and the virtual marker object 2M are determined as shown in FIG. Can grasp the relative positional relationship.
  • the reflecting surface position calculation unit 14 sets each of the positions of a plurality of feature points of the camera 1 and the marker object 2 and the positions of corresponding feature points of the virtual camera 1M and the virtual marker object 2M. Calculate the position of the dividing point.
  • Each division point is a line segment (see reference numeral 112) connecting the feature points of the camera 1 and the marker object 2 and the corresponding feature points of the virtual camera 1M and the virtual marker object 2M. It is in a position to divide into two at a division ratio determined from.
  • the reflection surface position calculation unit 14 determines an approximate plane 51 that is a plane that approximates the vicinity of the mirror image center point of the reflection surface 22 by applying a plane equation to each division point as shown in the diagram of reference numeral 113.
  • the approximate plane 51 itself becomes the reflecting surface 22.
  • the shape of the reflecting surface 22 is determined by fitting the reflecting surface model so as to minimize the error with the approximate plane 51 in the vicinity of the mirror image center point. .
  • the reflecting surface 22 is an aspherical curved surface, the position of the reflecting surface 22 slightly changes depending on which part of the reflecting surface model is applied to the approximate plane 51, but the edge 23 of the reflecting surface 22 is changed. When deciding, the position of the part to be applied to the reflection surface model is also decided.
  • FIG. 8 is a diagram illustrating another process of determining the position and orientation of the reflecting surface of the split mirror by the reflecting surface position calculation unit of the position measuring apparatus according to Embodiment 1 of the present invention.
  • the reflection surface 22 takes into account not only the positions of the feature points of the camera 1 and the marker object 2 and the positions of the feature points of the virtual camera 1M and the virtual marker object 2M but also the position of the viewpoint 31 of the camera 1. Determine the position and orientation.
  • a diagram denoted by reference numeral 121 indicates a line segment connecting the viewpoint 31 of the camera 1 and the feature points of the virtual camera 1M and the virtual marker object 2M with a dotted line.
  • 122 shows the position of the dividing point in the leftmost line segment connecting the viewpoint 31 of the camera 1 and the feature points of the virtual camera 1M and the virtual marker object 2M (see the figure of 121). It is a figure explaining the method to determine.
  • a line segment connecting the feature points of the camera 1 and the marker object 2 and the corresponding feature points of the virtual camera 1M and the virtual marker object 2M (in the diagram indicated by reference numeral 122, the feature point at the left end of the marker object 2 and the virtual marker object 2M)
  • the line segment connecting to the leftmost feature point) is divided into two at a determined division ratio, and a plane 52 orthogonal to the line segment is determined.
  • the intersection of this plane 52 and the line segment connecting the viewpoint 31 shown in the diagram with reference numeral 121 and the feature points of the virtual camera 1M and the virtual marker object 2M is obtained as a dividing point of the line segment.
  • the diagram of reference numeral 123 is a diagram in which an approximate plane 51 passing through the dividing points of the plurality of line segments of the diagram of reference numeral 121 is obtained in the vicinity of a straight line passing through the viewpoint of the camera 1 and the viewpoint of the virtual camera 1M.
  • the intersection point of the approximate plane 51 with the straight line passing through the viewpoint of the camera 1 and the viewpoint of the virtual camera 1M is determined as the mirror image center point and coincides with the approximate plane 51 in the vicinity of the mirror image center point of the reflection surface 22.
  • the position and orientation of the reflecting surface 22 determined by fitting the reflecting surface model in the same manner.
  • the reflecting surface 22 of the split mirror 21 is changed.
  • a plane or a curved surface whose boundary is not determined is applied.
  • the target object position determining unit 15 determines the position of the edge 23 of the reflecting surface 22 and determines the position of the split mirror 21 that is the target object.
  • the target object position determination unit 15 determines the position of the split mirror 21 that is the target object based on the non-reflective portion of the split mirror 21 in the captured image.
  • the target object position determination unit 15 extracts a non-reflective portion of the split mirror 21 from the captured image in order to determine the position of the target object.
  • the edge 23 of the reflecting surface 22 is used as a non-reflecting part used for determining the position of the target object.
  • the target object position determination unit 15 determines each straight line from the camera 1 toward a plurality of points on the edge 23 of the reflection surface 22 based on the position of the edge pixel in the captured image.
  • the target object position determination unit 15 calculates the position of each intersection point between the surface including the reflection surface 22 calculated by the reflection surface position calculation unit 14 and each straight line, and sets each intersection point on the edge 23 of the reflection surface 22. Determine as each point.
  • the target object position determination unit 15 calculates the distance between each point on the edge 23 and the mirror image center point 35 based on the captured image, and based on these distances, the mirror image is obtained. The position of the point on the reflecting surface 22 corresponding to the center point 35 is calculated, and the position and orientation of the reflecting surface 22 are estimated based on the reflecting surface model. The target object position determination unit 15 determines the intersection of the straight line from the camera 1 to each point on the edge 23 and the reflection surface 22 as the position of each point on the edge 23.
  • the processing device 4 obtains a mirror image corresponding to the mirror image of the camera 1 and the marker object 2 reflected on the reflecting surface 22 of the split mirror 21, and based on the obtained mirror image, the three-dimensional space of the split mirror 21. Determine the position at.
  • the position of the target object having the reflecting surface in the three-dimensional space can be determined without using a special light source and a wide dynamic range camera.
  • the position of the mirror image corresponding to the mirror image of the camera 1 and the marker object 2 reflected on the reflecting surface 22 of the split mirror 21 is calculated in this way, and the relationship of mirror image conversion is based on the result.
  • the position and orientation of the reflecting surface 22 of the split mirror 21 can be estimated. Accordingly, the position of the split mirror 21 in the three-dimensional space can be stably measured at a low cost with simple adjustment without using a special light source and a wide dynamic range camera.
  • Embodiment 2 in order to measure the position of the target object, the position of the feature point included in the virtual photographed image is calculated without using the mirror image of the first embodiment, The position and orientation of the reflecting surface are calculated so that the difference between the position of the feature point and the position of the corresponding feature point in the virtual photographed image is less than a predetermined threshold value.
  • FIG. 9 is a block diagram showing the configuration of the position measuring apparatus according to Embodiment 2 of the present invention.
  • the position measuring device in FIG. 9 includes a processing device 4A instead of the processing device 4 in FIG.
  • the processing device 4A includes a feature point extraction unit 11 and a position measurement unit 12A.
  • the feature point extraction unit 11 of the processing device 4A operates in the same manner as the feature point extraction unit 11 of the processing device 4 of FIG.
  • the position measuring unit 12A includes a reflecting surface position calculating unit 14A and a target object position determining unit 15.
  • the reflection surface position calculation unit 14A virtually determines the position and orientation of the reflection surface based on the shape of the reflection surface 22 stored in advance as model data and the position of the feature point stored in advance as feature point data.
  • the reflection surface position calculation unit 14A acquires the actual photographed image of the camera 1 and the marker object 2 that are virtually reflected on the reflection surface having the virtually determined position and orientation.
  • the positions of a plurality of feature points included in a virtual photographed image obtained by virtually photographing under the same photographing conditions are calculated, and the positions of the plurality of feature points included in the virtual photographed image are a plurality of corresponding features in the photographed image.
  • the position and orientation of the reflecting surface 22 are calculated so as to be close to the position of each point.
  • the target object position determination unit 15 determines the division mirror based on the positional relationship between the reflecting surface and the non-reflecting part stored in advance as model data, and the position and orientation of the reflecting surface 22 calculated by the reflecting surface position calculation unit 14A. The position of 21 is determined.
  • the reflecting surface position calculation unit 14A virtually determines the position and orientation of the reflecting surface 22, and uses the reflecting surfaces (referred to as virtual reflecting surfaces) having these virtually determined positions and orientations. Use to calculate the actual position and orientation of the reflective surface 22.
  • the reflection surface position calculation unit 14A is an image obtained by virtually photographing the camera 1 and the marker object 2 reflected on the virtual reflection surface in a state where the camera 1 and the marker object 2 are virtually reflected on the virtual reflection surface. The position of a feature point included in a virtual image is calculated.
  • the reflection surface position calculation unit 14A is configured so that the difference between the position of the feature point in the virtual captured image and the position of the corresponding feature point in the actually captured image becomes smaller than the threshold value. The correction of the position and orientation of the reflecting surface 22 determined in a repeated manner is repeated.
  • the reflecting surface position calculation unit 14A is a virtual image obtained by virtually capturing a mirror image of the camera 1 and the marker object 2 that are virtually reflected on the virtual reflecting surface under the same shooting conditions as when an actual captured image is acquired by the camera 1.
  • the position and orientation of the virtual reflection surface are corrected by repeated calculation so that the positions of the plurality of feature points included in the captured image are close to the positions of the corresponding plurality of feature points in the actual captured image.
  • the reflection surface position calculation unit 14A changes the position and orientation of the virtual reflection surface so as to reduce the difference between the position of the feature point in the virtual captured image and the position of the corresponding feature point in the actual captured image.
  • Calculate by The reflecting surface position calculation unit 14 ⁇ / b> A includes a projective conversion unit 16 and a size changing unit 17.
  • the projection conversion unit 16 and the size change unit 17 of the reflection surface position calculation unit 14A operate in the same manner as the projection conversion unit 16 and the size change unit 17 of the mirror body position calculation unit 13 of FIG.
  • the reflection surface position calculation unit 14A changes the position and orientation of the virtual reflection surface based on the projection conversion determined by the projection conversion unit 16 and the size change rate determined by the size change unit 17.
  • FIG. 10 is a flowchart for explaining position measurement processing executed by the position measurement apparatus according to Embodiment 2 of the present invention.
  • FIG. 11 is a flowchart for explaining the reflection surface position calculation process of the position measurement process executed by the position measurement apparatus according to the second embodiment of the present invention.
  • step S ⁇ b> 21 the feature point extraction unit 11 extracts feature points from the actual captured image captured by the camera 1, and sends information about the extracted feature points to the position measurement unit 12 ⁇ / b> A.
  • step S ⁇ b> 22 the reflection surface position calculation unit 14 ⁇ / b> A executes the reflection surface position calculation process, and calculates the position and orientation of the reflection surface 22 by calculating the position and orientation of the virtual reflection surface.
  • step S31 of FIG. 11 the reflecting surface position calculation unit 14A determines initial values of the position and orientation of the virtual reflecting surface.
  • step S ⁇ b> 32 the reflection surface position calculation unit 14 ⁇ / b> A calculates the position of the feature point in the virtual captured image in which the marker object 2 is reflected on the virtual reflection surface based on the position and orientation of the virtual reflection surface and the model of the reflection surface 22. To do.
  • step S33 the reflecting surface position calculation unit 14A determines whether the difference between the position of the feature point in the captured image and the position of the corresponding feature point in the virtual captured image is less than the threshold value.
  • step S33 If the difference between the positions of the feature points is less than the threshold value, that is, if step S33 is YES, the process of the flowchart of FIG. 11 is terminated and the process proceeds to step S23 of FIG. If the difference in the position of the feature points is greater than or equal to the threshold value, that is, if step S33 is NO, the process proceeds to step S34.
  • the reflection surface position calculation unit 14A uses the projection conversion unit 16 to perform projection conversion applied to the position of the feature point in the actual captured image or the position of the feature point in the virtual captured image. Projective transformation is determined such that a figure formed by feature points in the captured image and a figure formed by corresponding feature points in the actual captured image are similar to each other.
  • the determined projective transformation is applied to the position of the feature point in the actual captured image or the position of the feature point in the virtual captured image.
  • the reflection surface position calculation unit 14 ⁇ / b> A uses the size changing unit 17 to change the size change rate applied to the graphic formed by the feature points in the virtual captured image or the feature points in the actual captured image. The difference between the position of the feature point in the virtual photographed image and the position of the corresponding feature point in the actual photographed image is minimized without changing the position of the mirror image center point 35 in the image. Determine the resizing rate.
  • step S37 the reflection surface position calculation unit 14A changes the orientation of the virtual reflection surface based on the determined projective transformation.
  • the reflecting surface position calculation unit 14A changes the distance from the camera 1 to the virtual reflecting surface based on the determined size change rate.
  • the reflecting surface position calculation unit 14A repeats steps S32 to S38 until the difference between the position of the feature point in the actual captured image and the position of the corresponding feature point in the virtual captured image is less than the threshold value.
  • the reflective surface position calculation unit 14A acquires the position and orientation of the reflective surface 22 by iterative calculation.
  • step S23 of FIG. 10 the target object position determination unit 15 determines the position of the edge 23 of the reflecting surface 22 based on the non-reflective portion of the split mirror 21 in the captured image, thereby the split mirror that is the target object. The position of 21 is determined.
  • the position of the mirror image is calculated repeatedly, but in the second embodiment, the position and orientation of the virtual reflecting surface are calculated repeatedly.
  • the processing device 4A determines the position of the split mirror 21 in the three-dimensional space based on the virtual photographed image obtained by virtually photographing the camera 1 and the marker object 2 that are virtually reflected on the virtual reflecting surface. decide.
  • the position of the target object having the reflecting surface in the three-dimensional space can be determined without using a special light source and a wide dynamic range camera.
  • Embodiment 3 In Embodiment 3 of the present invention, even when the radius of curvature of the reflecting surface is unknown, the difference between the position of the feature point in the actual captured image and the position of the corresponding feature point in the virtual captured image is The position, orientation, and radius of curvature of the reflecting surface are calculated so as to be less than a predetermined threshold value.
  • the third embodiment is the same as the second embodiment.
  • FIG. 12 is a block diagram showing the configuration of the position measuring apparatus according to Embodiment 3 of the present invention.
  • the position measuring device in FIG. 12 includes a processing device 4B instead of the processing device 4A in FIG.
  • the model data stored in the storage device 3 includes the shape of the reflective surface 22 that does not include the radius of curvature and the positional relationship between the reflective surface and the non-reflective portion.
  • the processing device 4B includes a feature point extraction unit 11 and a position measurement unit 12B.
  • the feature point extraction unit 11 of the processing device 4B operates in the same manner as the feature point extraction unit 11 of the processing device 4 of FIG.
  • the position measuring unit 12B includes a reflecting surface position calculating unit 14B and a target object position determining unit 15.
  • the reflecting surface position calculation unit 14B virtually copies the camera 1 and the marker object 2 based on the shape of the reflecting surface 22 stored in advance as model data and the position of the feature point stored in advance as feature point data. By calculating the position, orientation, and radius of curvature of the virtual reflecting surface, the position, orientation, and radius of curvature of the reflecting surface 22 are calculated.
  • the reflection surface position calculation unit 14B is a virtual image obtained by virtually shooting the camera 1 and the marker object 2 that are virtually reflected on the virtual reflection surface under the same shooting conditions as when the camera 1 acquires an actual shot image.
  • the positions of a plurality of feature points included in the captured image are calculated, and the positions of the plurality of feature points included in the virtual captured image are approximated to the positions of the corresponding plurality of feature points in the actual captured image, respectively.
  • the target object position determination unit 15 determines the division mirror based on the positional relationship between the reflecting surface and the non-reflecting part stored in advance as model data and the position and orientation of the reflecting surface 22 calculated by the reflecting surface position calculation unit 14B. The position of 21 is determined.
  • the reflection surface position calculation unit 14B reduces the position, orientation, and radius of curvature of the virtual reflection surface so as to reduce the difference between the position of the feature point in the virtual captured image and the position of the corresponding feature point in the actual captured image. Calculate by changing.
  • the reflection surface position calculation unit 14 ⁇ / b> B includes a projection conversion unit 16, a size change unit 17, and a curvature calculation unit 18.
  • the projection conversion unit 16 and the size change unit 17 of the reflection surface position calculation unit 14B operate in the same manner as the projection conversion unit 16 and the size change unit 17 of the mirror body position calculation unit 13 of FIG.
  • the curvature calculation unit 18 is based on the difference between the position of three or more feature points in the captured image and the position of the corresponding feature point in the virtual captured image, and the mirror image center in the captured image or the virtual captured image. Based on the distance from the point 35 to the feature point in the actual captured image or the feature point in the virtual captured image, the curvature radius of the reflecting surface 22 is estimated. The difference between the position of the feature point in the actually captured image and the position of the corresponding feature point in the virtual captured image is determined according to the difference between the assumed curvature radius of the reflecting surface 22 and the actual curvature radius.
  • the reflection surface position calculation unit 14B is a virtual reflection surface based on the projection conversion determined by the projection conversion unit 16, the size change rate determined by the size change unit 17, and the curvature radius calculated by the curvature calculation unit 18. Change the position, orientation, and radius of curvature.
  • FIG. 13 is a flowchart for explaining position measurement processing executed by the position measurement apparatus according to Embodiment 3 of the present invention.
  • FIG. 14 is a flowchart for explaining the reflection surface position calculation process of the position measurement process executed by the position measurement apparatus according to the third embodiment of the present invention.
  • step S41 the feature point extraction unit 11 extracts feature points from the actual captured image captured by the camera 1, and sends information about the extracted feature points to the position measurement unit 12B.
  • step S42 the reflecting surface position calculation unit 14B executes the reflecting surface position calculation process, and calculates the position, orientation, and radius of curvature of the reflecting surface 22 by calculating the position, orientation, and radius of curvature of the virtual reflecting surface. calculate.
  • step S51 shown in FIG. 14 the reflection surface position calculation unit 14B determines the initial value of the position, orientation, and radius of curvature of the virtual reflection surface.
  • step S52 the reflection surface position calculation unit 14B calculates the position of the feature point in the virtual photographed image where the marker object 2 is reflected on the virtual reflection surface based on the position, orientation, and radius of curvature of the virtual reflection surface.
  • step S53 the reflection surface position calculation unit 14B determines whether the difference between the position of the feature point in the captured image and the position of the corresponding feature point in the virtual captured image is less than the threshold value. If the difference between the positions of the feature points is less than the threshold value, that is, if step S53 is YES, the processing of the flowchart in FIG. If the difference between the positions of the feature points is greater than or equal to the threshold value, that is, if step S53 is NO, the process proceeds to step S54.
  • step S54 the reflection surface position calculation unit 14B uses the projection conversion unit 16 to perform projection conversion to be applied to the position of the feature point in the captured image or the position of the feature point in the virtual captured image.
  • a graphic formed by the feature points in the actual captured image included in a predetermined range in the vicinity of the mirror image center point 35 in the image, and a graphic formed by the corresponding feature points in the virtual captured image, Projective transformations that are similar to each other are determined.
  • the obtained projective transformation is applied to the position of the feature point in the actual captured image or the position of the feature point in the virtual captured image.
  • the reflecting surface position calculation unit 14B uses the size changing unit 17 to change the size at a size change rate applied to a graphic formed by the feature points in the virtual photographed image or the feature points in the actual photographed image.
  • the difference between the position of the feature point in the actual captured image included in the predetermined range near the mirror image center point 35 in the actual captured image and the position of the corresponding feature point in the virtual captured image Determine the resizing rate that minimizes.
  • the predetermined range in the vicinity of the mirror image center point 35 in the image used for obtaining the size change rate is such that a sufficient number of feature points are included, and actual photographing due to the curvature of the reflecting surface 22 is performed.
  • the difference between the position of the feature point in the image and the position of the corresponding feature point in the virtual photographed image is determined to be small enough to allow.
  • step S57 the reflection surface position calculation unit 14B uses the curvature calculation unit 18 to calculate the assumed curvature based on the difference between the position of the feature point in the captured image and the position of the corresponding feature point in the virtual captured image. The difference between the radius and the actual curvature radius is calculated, and the curvature radius of the virtual reflecting surface used in the next repeated calculation is determined.
  • FIG. 15 is a diagram illustrating an example of the principle of estimating the curvature radius of the reflecting surface by the curvature calculation unit 18 of the position measurement device according to the third embodiment of the present invention.
  • the diagram of reference numeral 131 shows a case where the reflecting surface 22 and the mirror image 44 of the marker object 2 are reflected in the actual captured image when the reflecting surface 22 is a curved surface.
  • the mirror image 44 of the marker object 2 has a plurality of feature points 44a.
  • the diagram of reference numeral 132 shows the image 45 of the marker object 2 in the virtual photographed image after applying the projective transformation determined in step S54 of FIG. 14 and the size change rate determined in step S55 of FIG. .
  • the image 45 of the marker object 2 includes a plurality of feature points 45a.
  • the diagram of reference numeral 132 shows the position of the feature point 45a included in the virtual photographed image obtained by virtually photographing the marker object 2 virtually reflected on the flat reflecting mirror under predetermined photographing conditions.
  • the diagram of reference numeral 133 shows the difference between the position of the feature point 44a of reference numeral 131 indicated by a black circle and the position of the feature point 45a of reference numeral 132 indicated by a white circle.
  • the actual straight line When an actual straight line is reflected on the curved reflecting surface 22, in the mirror image 24 on the reflecting surface 22, the actual straight line appears as a curve in a portion far from the mirror image center point 35.
  • the angle difference between the paths from the viewpoint position toward both ends of the straight line reflected on the reflecting surface 22 is reflected by the plane mirror according to the radius of curvature of the reflecting surface 22. It changes from the case. For example, when the curved surface is a concave surface, the smaller the radius of curvature, the larger the angle difference compared to the case where a straight line is reflected by a plane mirror. Then, as the point on the straight line reflected on the reflecting surface 22 becomes farther from the mirror image center point, the degree of increase in the angle difference increases, so that the straight line appears curved.
  • the radius of curvature of the reflecting surface 22 can be estimated based on the degree of bending of the curved line in which a real straight line is reflected by a curved surface.
  • the position of the feature point to which the projective transformation determined in step S54 of FIG. 14 and the size change rate determined in step S55 of FIG. 14 are applied is a distortion due to the curved surface of the curvature radius assumed by the reflection surface 22. It has something.
  • the difference between all the feature points 44a in the actual photographed image and the position of the corresponding feature point 45a in the virtual photographed image after applying the determined projective transformation and the determined size change rate is the reflection surface 22 Depends on the difference between the assumed radius of curvature and the actual radius of curvature when is a curved surface, and also on the distance from the mirror image center point 35 in the actual captured image or virtual captured image to the position of the feature point . Therefore, the difference between the position of the feature point 44a in the actual captured image and the position of the corresponding feature point 45a in the virtual captured image, and the feature point 44a or the mirror image center point 35 in the actual captured image or virtual captured image.
  • the radius of curvature of the reflecting surface 22 can be estimated.
  • a radius of curvature is calculated based on a ratio between a distance on the image between the mirror image center point 35 and the feature point in the photographed image or the virtual photographed image and a difference (displacement) in the position of the feature point at the distance. .
  • the difference between the distance from the mirror image center point 35 and the position of the feature point on the actual photographed image or the virtual photographed image is the number of pixels that fall within the distance or position difference and the straight line from the viewpoint position of the camera. It is expressed by angle difference.
  • a correction amount for obtaining a radius of curvature to be used in the next iterative calculation may be calculated by, for example, weighted averaging of a plurality of curvature radii obtained from a plurality of feature points.
  • the reflective surface position calculation part 14B changes the direction of a virtual reflective surface based on the determined projective transformation.
  • the reflection surface position calculation unit 14B changes the distance from the camera 1 to the virtual reflection surface based on the determined size change rate.
  • the reflection surface position calculation unit 14B changes the curvature radius of the virtual reflection surface based on the determined curvature radius.
  • the reflecting surface position calculation unit 14B repeats steps S52 to S60 until the difference between the position of the feature point in the actual captured image and the position of the corresponding feature point in the virtual captured image is less than the threshold value.
  • the reflective surface position calculation unit 14B obtains the position, orientation, and radius of curvature of the reflective surface 22 by iterative calculation.
  • step S43 in FIG. 13 the target object position determination unit 15 determines the position of the edge 23 of the reflecting surface 22 based on the non-reflective portion of the split mirror 21 in the captured image, so that the split mirror that is the target object. The position of 21 is determined.
  • the curvature radius of the reflecting surface 22 may be determined so as to have different values in different directions.
  • the reflecting surface 22 may be modeled such that the radius of curvature changes according to a formula determined in advance according to the position in the reflecting surface 22.
  • the reflecting surface 22 may be expressed by mathematical expressions such as a paraboloid and a hyperboloid, and parameters used in the mathematical expressions may be changed.
  • the processing device 4B determines the position of the split mirror 21 in the three-dimensional space based on the virtual photographed image obtained by virtually photographing the camera 1 and the marker object 2 that are virtually reflected on the virtual reflection surface. decide.
  • the position of the target object having the reflecting surface in the three-dimensional space can be determined without using a special light source and a wide dynamic range camera.
  • Embodiment 4 the position and posture of a reflection surface having a known shape having different radii of curvature depending on directions are determined.
  • FIG. 16 is a block diagram showing a configuration of a position measuring apparatus according to Embodiment 4 of the present invention. It is assumed that the reflecting surface 22C of the split mirror 21C can be approximated by a combination of a concave spherical surface and a concave cylindrical surface when viewed from the camera 1.
  • the direction in which the dent amount of the cylindrical surface is maximized and constant is the direction in which the radius of curvature is maximum, that is, the curvature is minimized. Therefore, the direction in which the amount of depression on the cylindrical surface is constant is called the minimum curvature direction.
  • the reflective surface 22C shown in the display device 5 of FIG. 16 the direction of the diagonal line from the upper right corner to the lower left corner is the minimum curvature direction of the reflective surface 22C.
  • the posture of the reflecting surface 22C includes information on which direction the minimum curvature direction is directed.
  • the 16 includes a processing device 4C instead of the processing device 4 of FIG.
  • the processing device 4C includes a feature point extraction unit 11 and a position measurement unit 12C.
  • the feature point extraction unit 11 of the processing device 4C operates in the same manner as the feature point extraction unit 11 of the processing device 4 of FIG.
  • the position measurement unit 12C includes a reflection surface position calculation unit 14C and a target object position determination unit 15C.
  • the reflecting surface position calculation unit 14C virtually copies the camera 1 and the marker object 2 based on the shape of the reflecting surface 22C stored in advance as model data and the position of the feature point stored in advance as feature point data.
  • the position and orientation of the reflecting surface 22C are calculated by calculating the position and orientation of the virtual reflecting surface.
  • the reflecting surface position calculation unit 14C is a virtual image obtained by virtually photographing the camera 1 and the marker object 2 that are virtually reflected on the virtual reflecting surface under the same photographing conditions as when the actual photographed image is acquired by the camera 1.
  • the positions of a plurality of feature points included in the captured image are calculated, and the positions of the plurality of feature points included in the virtual captured image are approximated to the positions of the corresponding plurality of feature points in the actual captured image, respectively.
  • the target object position determination unit 15C determines the reflection surface based on the positional relationship between the reflection surface and the non-reflection part stored in advance as model data and the position and orientation of the reflection surface 22C calculated by the reflection surface position calculation unit 14C.
  • the minimum curvature direction of 22C is determined, and further, the position of the split mirror 21 is determined.
  • the reflection surface position calculation unit 14C changes the position and orientation of the virtual reflection surface so as to reduce the difference between the position of the feature point in the virtual captured image and the position of the corresponding feature point in the actual captured image.
  • Calculate by The reflecting surface position calculation unit 14 ⁇ / b> C includes a projective conversion unit 16 and a size changing unit 17.
  • the projection conversion unit 16 and the size change unit 17 of the reflection surface position calculation unit 14C operate in the same manner as the projection conversion unit 16 and the size change unit 17 of the mirror body position calculation unit 13 of FIG.
  • the reflection surface position calculation unit 14 ⁇ / b> C changes the position and orientation of the virtual reflection surface based on the projection conversion determined by the projection conversion unit 16 and the size change rate determined by the size change unit 17.
  • FIG. 17 is a flowchart for explaining a position measurement process executed by the position measurement apparatus according to the fourth embodiment of the present invention.
  • the position measurement process in FIG. 17 is executed by the processing device 4C in FIG. 16 in order to measure the position of the target object.
  • the feature point extraction unit 11 extracts feature points from the actual captured image captured by the camera 1, and sends information about the extracted feature points to the position measurement unit 12C.
  • the reflecting surface position calculation unit 14C determines the initial value of the position and orientation of the virtual reflecting surface and the minimum curvature direction.
  • the reflecting surface position calculation unit 14C calculates the position of the feature point in the virtual photographed image in which the marker object 2 is reflected on the virtual reflecting surface based on the position, posture, and minimum curvature direction of the virtual reflecting surface.
  • step S64 the reflecting surface position calculation unit 14C determines whether or not the difference between the position of the feature point in the captured image and the position of the corresponding feature point in the virtual captured image is less than the threshold value. If the difference between the positions of the feature points is less than the threshold value, that is, if step S64 is YES, the process ends.
  • step S65 the reflection surface position calculation unit 14C uses the projection conversion unit 16 to perform projection conversion applied to the position of the feature point in the captured image or the position of the feature point in the virtual captured image. Projective transformation is determined so that the figure formed by the feature points in the image and the figure formed by the corresponding feature points in the actual captured image are close to each other.
  • step S66 the determined projective transformation is applied to the position of the feature point in the actual captured image or the position of the feature point in the virtual captured image.
  • step S ⁇ b> 67 the reflection surface position calculation unit 14 ⁇ / b> C uses the size changing unit 17 to change the size to be applied to the figure formed by the feature points in the virtual photographed image or the feature points in the actual photographed image. Then, the size change rate is determined so as to minimize the difference between the position of the feature point in the virtual captured image and the position of the corresponding feature point in the actual captured image.
  • step S68 the reflection surface position calculation unit 14C changes the attitude of the virtual reflection surface based on the determined projective transformation.
  • step S69 the reflecting surface position calculation unit 14C changes the distance from the camera 1 to the virtual reflecting surface based on the determined size change rate.
  • the target object position determination unit 15C determines the position of the split mirror 21 and the minimum curvature direction based on the non-reflective portion of the split mirror 21 in the captured image.
  • the reflecting surface position calculation unit 14C and the target object position determination unit 15C perform steps. S63 to S70 are repeated.
  • the reflection surface position calculation unit 14C and the target object position determination unit 15C acquire the position, posture, and minimum curvature direction of the reflection surface 22C by iterative calculation.
  • the processing device 4C determines the position of the split mirror 21C in the three-dimensional space based on the virtual photographed image obtained by virtually photographing the camera 1 and the marker object 2 that are virtually reflected on the virtual reflection surface. decide.
  • the position of the target object having the reflecting surface in the three-dimensional space can be determined without using a special light source and a wide dynamic range camera.
  • Embodiment 5 In the position measurement apparatus according to the first embodiment, the positional relationship between the feature points stored in advance as the feature point data is a mirror image relationship (an inverted positional relationship) with respect to the actual positional relationship between the feature points. . On the other hand, in the fifth embodiment, the same positional relationship between actual feature points is used as feature point data.
  • FIG. 18 is a block diagram showing a configuration of a position measuring apparatus according to Embodiment 5 of the present invention.
  • 18 includes a processing device 4D instead of the processing device 4 of FIG.
  • the processing device 4D includes an image inversion unit 19 in addition to the feature point extraction unit 11 and the position measurement unit 12 of FIG.
  • the image reversing unit 19 sends a reversed image 6D obtained by reversing the left and right of the image photographed by the camera 1 to the feature point extracting unit 11 as a photographed image.
  • the inverted image 6D includes an image in which the left and right sides of the reflecting surface 22 and the edge 23 of the dividing mirror 21 are inverted, and the camera 1 and marker object reflected on the reflecting surface 22 of the dividing mirror 21. 2 is a mirror image 24D (that is, an image of the camera 1 and the marker object 2 having the same positional relationship as the actual image).
  • the storage device 3 (third storage unit) stores in advance, as feature point data, the same positional relationship between actual feature points (a feature point having a non-inverted positional relationship).
  • the fifth embodiment is the same as the first embodiment.
  • the processing device 4D executes the position measurement process of FIGS.
  • the position measurement unit 12 in FIG. 18 calculates the positions of a plurality of feature points included in the mirror image, similarly to the position measurement unit 12 in FIG. 1, and the position of the reflection surface 22 based on the positions of the feature points of the mirror image object. And the orientation can be calculated.
  • the mirror body position calculation unit 13 calculates the position of the feature point included in the mirror body based on the captured image that is a reverse image and the feature point data having a non-reverse positional relationship.
  • the reflection surface position calculation unit 14 and the target object position determination unit 15 calculate the position and orientation of the reflection surface 22 and determine the position of the split mirror 21.
  • the image inverting unit 19 and feature point data (the same positional relationship between actual feature points) of the fifth embodiment can be applied to the second to fourth embodiments.
  • FIG. 19 is a block diagram showing a configuration of a position measuring apparatus according to Embodiment 6 of the present invention.
  • the position measuring device of FIG. 19 further includes a drive device 61 that moves the camera 1 (and the marker object 2) in addition to the configuration of the position measuring device of FIG. 19 includes a processing device 4E instead of the processing device 4 of FIG.
  • the processing device 4E further includes a driving device 61 and a camera control unit 71 that controls the shooting direction of the camera 1.
  • the drive device 61 and the camera control unit 71 constitute a camera drive device that moves the camera 1 so that at least one of the viewpoint position and the shooting direction of the camera 1 is different.
  • the field of view may be widened by moving the camera 1 with the driving device 61 as shown in FIG.
  • the coordinate origin is not the position of the moving camera 1 but the position of the driving device 61 or another fixed position so that a consistent coordinate system can be used even if the camera 1 moves.
  • the position of the camera 1 is calibrated with respect to the drive device 61 in advance.
  • the processing device 4E captures the split mirror 21 under at least two sets of shooting conditions among a plurality of sets of shooting conditions in which at least one of the viewpoint position and the shooting direction is different, and acquires a plurality of shot images. For example, the processing device 4E moves the camera 1 with the driving device 61, and images the split mirror 21 at a plurality of positions (that is, under a plurality of sets of imaging conditions) to acquire a plurality of captured images.
  • the processing device 4E stores a combination of a plurality of captured images and imaging conditions when each captured image is captured in the storage device 3 (first storage unit).
  • the feature point extraction unit of the processing device 4E extracts a plurality of feature points from the plurality of photographed images, respectively, and determines the positions of the feature points in the plurality of photographed images.
  • a set including the positions of a plurality of feature points extracted from one captured image is referred to as a feature point set.
  • the processing device 4E stores the position of the feature point in the extracted captured image in the storage device 3 (first storage unit) in combination with the corresponding captured image and shooting conditions.
  • the storage device 3 (first storage unit) stores a plurality of captured data sets each including a captured image, an imaging condition when the captured image is captured, and a feature point set of the captured image.
  • the imaging data set may include other information.
  • the position measurement unit of the processing device 4E performs the position measurement processing on one shooting data set in the same manner as in any of the processing devices of the first to fifth embodiments, and the position of the split mirror 21 in the three-dimensional space. May be determined.
  • the processing device 4E may determine the position of the split mirror 21 in the three-dimensional space by performing a position measurement process by combining a plurality of imaging data sets. In this way, the position of the split mirror 21 having a size larger than the field of view of the camera 1 in the three-dimensional space can be measured.
  • the position measurement unit of the processing device 4E is based on model data, feature point data, a plurality of feature point sets that respectively correspond to a plurality of captured images, and a plurality of imaging conditions that respectively correspond to a plurality of captured images.
  • the position of the split mirror 21 may be calculated.
  • the enantiomeric position calculation unit for each of the imaging data sets, includes a plurality of virtual captured images obtained by virtually capturing the mirror image under the imaging conditions.
  • the positions of the plurality of feature points included in the mirror image may be calculated so that the positions of the feature points are close to the positions of the corresponding plurality of feature points in the actual captured image captured under the imaging conditions.
  • the mirror image position calculation unit obtains a plurality of mirror images corresponding to a plurality of imaging data sets.
  • the reflection surface position calculation unit of the processing device 4E is included in the positions of the feature points of the camera 1 and the marker object 2 determined from the viewpoint position and the feature point data, and the plurality of mirror images corresponding to the plurality of imaging data sets, respectively.
  • the position and orientation of the reflecting surface 22 may be calculated based on the positions of the plurality of feature points and the radius of curvature of the reflecting surface 22.
  • the reflection surface position calculation unit may process the positions of the feature points of the plurality of mirror images respectively corresponding to the plurality of imaging data sets separately or in combination.
  • the combination method is arbitrary.
  • the positions of the feature points of each mirror image corresponding to all the imaging data sets may be processed simultaneously or sequentially.
  • the positions of the feature points of each mirror image corresponding to each shooting data set may be processed simultaneously.
  • the reflection surface position calculation unit further calculates the position and orientation of the reflection surface calculated and processed separately for each imaging data set, and the position and orientation of the reflection surface calculated by processing a combination of a plurality of imaging data sets. You may process in combination.
  • the target object position determination unit of the processing device 4E processes each part of the split mirror 21 captured with a plurality of images, or simultaneously processes a plurality of parts of the split mirror 21 captured with a plurality of images, Based on the model data, the position of the split mirror 21 that is the target object may be determined.
  • the reflection surface position calculation unit separately processes the virtual reflection surfaces corresponding to a plurality of imaging data sets. Or you may process combining arbitrarily.
  • the reflection surface position calculation unit is the input data input corresponding to the plurality of imaging data sets, the positions of the feature points of the plurality of mirror bodies (Embodiment 1), or the plurality of feature point sets ( From the second embodiment to the fourth embodiment), the position and orientation of the reflecting surface 22 are calculated.
  • the reflection surface position calculation unit of the processing device 4E may calculate the positions and orientations of the plurality of reflection surfaces 22 respectively corresponding to the plurality of imaging data sets.
  • the target object position determination unit of the processing device 4E determines the positional relationship between the reflection surface and the non-reflection part stored in advance as model data, and the positions and orientations of the plurality of reflection surfaces 22 calculated by the reflection surface position calculation unit.
  • the position of the split mirror 21 may be determined based on the combination.
  • the description of the sixth embodiment can be applied to the case where the position of the target object is obtained using captured images captured under different imaging conditions in other embodiments.
  • FIG. 20 is a block diagram showing a configuration of the position measuring apparatus according to the seventh embodiment of the present invention.
  • the position measuring device of FIG. 20 includes, for example, three cameras 1a, 1b, 1c and marker objects 2a, 2b, 2c and cameras 1a, 1b, 1c in addition to the configuration of the position measuring device of FIG. And a fixed jig 62 for supporting the.
  • Each of the cameras 1a, 1b, and 1c captures different areas where different points on the edge 23 of the reflecting surface 22 enter.
  • 20 includes a processing device 4F instead of the processing device 4E of the sixth embodiment.
  • the processing device 4F is substantially the same as the processing device 4E, but includes a camera control unit 71F that controls the shooting directions of the cameras 1a, 1b, and 1c.
  • the position measuring device may include a driving device that moves at least one of the plurality of cameras.
  • the camera control unit 71F also controls the driving device.
  • the viewpoint position and shooting direction of at least one camera may be fixed.
  • the positional relationship between the cameras 1a, 1b, 1c and the marker objects 2a, 2b, 2c may be different for each camera or may be the same.
  • the entire split mirror 21 can be obtained without moving the cameras.
  • the position in the three-dimensional space can be measured at a time.
  • the position of each camera 1a, 1b, 1c is set in advance as a reference world coordinate system and calibrated in advance on the world coordinate system.
  • the processing device 4F extracts different sections of the edge 23 of the reflecting surface 22 from the captured images of the split mirrors 21 captured by the cameras 1a, 1b, and 1c, and sets the position of the pixel on the edge in the captured image. Based on each of the cameras 1a, 1b, and 1c, each straight line is determined from at least one point on the corresponding section of the edge 23 of the reflecting surface 22. The position of one or more points on the edge 23 of the reflecting surface 22 is measured from each of the cameras 1a, 1b, and 1c. For example, when the position measuring device includes two cameras, a straight line directed to at least three points on the corresponding section of the edge 23 of the reflecting surface 22 is determined by the sum of the two cameras.
  • each intersection is determined as each point on the edge 23 of the reflection surface 22.
  • the captured images captured by the cameras 1a, 1b, and 1c may be processed separately. Instead, an approximate plane for each camera may be determined based on the reflection surface model so that the error of the entire reflection surface 22 is minimized.
  • the predetermined reference position of the split mirror 21 and the reflecting surface 22 of the split mirror 21 are arranged so that the gripping mechanism of the split mirror 21 can easily process at least three positions on the split mirror 21 thus obtained. It converts into the direction (reflective surface direction) to face, the position in the periphery of the reflective surface direction of the holding part of the split mirror 21, etc.
  • the position of the split mirror in the three-dimensional space can be determined without using a special light source and a wide dynamic range camera. Further, the position of the split mirror 21 in the three-dimensional space can be determined based on an image obtained by one shooting with the cameras 1a, 1b, and 1c, and the calculation time can be shortened.
  • the processing device 4F includes a plurality of images included in the mirror image 24 of the camera and the marker object reflected on the reflecting surface 22 of the split mirror 21 from the captured image of the split mirror 21 captured by only one of the cameras 1a, 1b, and 1c. Extract feature points.
  • the processing device 4F divides each line segment connecting the extracted feature point positions and the corresponding feature point positions stored in the storage device 3 into two at a division ratio determined by the radius of curvature of the reflecting surface. The position of the point is calculated, and each point to be divided into two is determined as a point on the reflecting surface of the dividing mirror 21.
  • the processing device 4F applies a plane or curved surface equation to each point that bisects the line segment connecting each extracted feature point and each corresponding feature point stored in the storage device 3, and reflects the reflection of the dividing mirror 21.
  • a plane including the plane 22 is determined.
  • the processing device 4F extracts the edges 23 of the reflection surface 22 from the captured images captured by the cameras 1a, 1b, and 1c, and goes from the cameras 1a, 1b, and 1c to a plurality of points on the edge 23 of the reflection surface 22.
  • Each straight line is determined, the position of each intersection between the surface including the reflection surface of the split mirror 21 and each straight line is calculated, and each intersection is determined as each point on the edge 23 of the reflection surface 22.
  • the processing device 4F uses the images photographed by the cameras 1a, 1b, and 1c to execute a process for determining the position of the split mirror 21 in the three-dimensional space as in the processing device 4 of the first embodiment.
  • the position in the three-dimensional space of the split mirror 21 having a size larger than the field of view of each camera can be measured at high speed.
  • the number of cameras is set to two or more, the position of one or more points is determined on the edge 23 of the reflecting surface 22 within the range that can be photographed by each camera, and the target object is set to three or more points. Can be determined.
  • the shape model of the target object can be arranged so that the sum of errors between the shape model of the target object and the measured position of the target object is minimized.
  • the processing for determining the position of the split mirror in the three-dimensional space by the processing devices 4 to 4F may be executed by a dedicated hardware device or by software operating on a general-purpose processor.
  • the processor of the processing device stores, in the second storage, model data including the step of storing the shooting conditions including the viewpoint position and the shooting direction of the camera 1 in the first storage unit, and the shape of the split mirror 21 having a reflecting surface.
  • a step of storing in the unit, a step of arranging a marker object having a plurality of feature points at a predetermined position with respect to the camera 1, and feature point data representing a mutual positional relationship between the viewpoint position and the feature points A step of storing in the third storage unit, a step of acquiring a photographed image including at least a part of the reflecting surface 22 on which a plurality of feature points are reflected by the camera 1, and a plurality of feature points from the photographed image. Based on the step of extracting and determining the position of the feature point in the photographed image, the photographing condition, the model data, the feature point data, and the position of the feature point in the photographed image, the position of the split mirror 21 is determined. And a step of calculation.

Abstract

 記憶装置(3)は、カメラ(1)の視点位置及び撮影方向を含む撮影条件と、分割鏡(21)の形状を含むモデルデータと、視点位置(31)及び特徴点の間の互いの位置関係を表示す特徴点データとを記憶する。カメラ(1)は、反射面(22)を有する分割鏡(21)を撮影することにより反射面(22)の少なくとも一部が入った撮影画像を取得する。マーカー物体(2)は、複数の特徴点を有し、カメラ(1)に対して予め決められた位置に固定される。特徴点抽出部(11)は、特徴点のうちの複数個が反射面(22)内に映った状態でカメラ(1)により取得された撮影画像から複数の特徴点を抽出し、撮影画像内の特徴点の位置を決定する。位置測定部(12)は、撮影条件と、モデルデータと、特徴点データと、撮影画像内の特徴点の位置とに基づいて、分割鏡(21)の位置を計算する。

Description

位置測定装置及び位置測定方法
 本発明は、カメラを用いて反射面を有する物体の3次元空間における位置を測定するための位置測定装置及び位置測定方法に関する。
 反射面を有する物体の3次元空間における位置を測定するための方法として、特許文献1及び2の発明がある。特許文献1の発明は、照明を当てた反射面を有する物体を2つのカメラで撮影し、撮影された各画像から反射面を有する物体の反射光の法線方向を計算する。次いで、特許文献1の発明は、この法線方向に基づいて画像間で対応する画素を探索し、対応する画素間の視差に基づいて3次元測量(ステレオ測定)を行う。特許文献2の発明は、反射面を有する物体にレーザスポット光を照射し、反射面を有する物体で反射した反射光を2つの画像センサにより観測する。次いで、特許文献2の発明は、観測した反射光の入射ベクトルを計算し、それをもとに、反射面を有する物体上のスポット光が当たっている位置を計算する。
 また、鏡面反射面を有する物体の形状を測定するための方法として、特許文献3及び4の発明がある。
特開2010-071782号公報 特開2011-117832号公報 特開2010-197391号公報 特開2007-322162号公報
 特許文献1及び2の発明では、反射面を有する物体の画像を取得するために、特別な光源を用いて反射面を有する物体に光を照射している。また、特許文献1及び2の発明のように反射面を有する物体からの反射光を観測する場合、反射面で正反射された光の強度と拡散反射された光の強度とに大きな差が生じる。そのため、広いダイナミックレンジを有するカメラを用いること、もしくは環境光の影響を制限することなどの対策が必要になる。しかしながら、これらの対策だけで光の強度差の問題を解決できず、反射面を有する物体の3次元空間における位置を測定できないことがある。また、そもそも、光を照射するための装置コスト及びエネルギーが必要となる。特許文献3および4においても、これらの課題を解決することは開示されていない。
 本発明の目的は、前記の問題点を解決し、特別な光源及び広ダイナミックレンジのカメラを用いることなく、反射面を有する物体の3次元空間における位置を安定的に測定することができる位置測定装置及び方法を提供することにある。
 本発明の態様に係る位置測定装置は、
 反射面を有する目標物体を撮影することにより前記反射面の少なくとも一部が入った撮影画像を取得するカメラと、
 前記カメラの視点位置及び撮影方向を含む撮影条件を記憶する第1の記憶部と、
 前記目標物体の形状を含むモデルデータを記憶する第2の記憶部と、
 複数の特徴点を有し、前記カメラに対して予め決められた位置に固定されたマーカー物体と、
 前記視点位置及び前記特徴点の間の互いの位置関係を表す特徴点データを記憶する第3の記憶部と、
 前記特徴点のうちの複数個が前記反射面内に映った状態で前記カメラにより取得された撮影画像から複数の前記特徴点を抽出し、前記撮影画像内の前記特徴点の位置を決定する特徴点抽出部と、
 前記撮影条件と、前記モデルデータと、前記特徴点データと、前記撮影画像内の前記特徴点の位置とに基づいて、前記目標物体の位置を計算する位置測定部とを備える。
 本発明によれば、特別な光源及び広ダイナミックレンジのカメラを用いることなく、反射面を有する物体の3次元空間における位置を測定することができる。
本発明の実施の形態1に係る位置測定装置の構成を示すブロック図である。 本発明の実施の形態1に係る位置測定装置が有するマーカー物体2のパターンの例を示す図である。 本発明の実施の形態1に係る位置測定装置における、カメラ及びマーカー物体と、反射面と、カメラ及びマーカー物体の鏡像体との関係を説明する図である。 本発明の実施の形態1に係る位置測定装置によって実行される位置測定処理を説明するフローチャートである。 本発明の実施の形態1に係る位置測定装置によって実行される位置測定処理の鏡像体位置計算処理を説明するフローチャートである。 本発明の実施の形態1に係る位置測定装置の鏡像体位置計算部によって鏡像体の位置を計算する過程を例により説明する図である。 本発明の実施の形態1に係る位置測定装置の反射面位置計算部によって分割鏡の反射面の位置及び向きを決定する過程を例により説明する図である。 本発明の実施の形態1に係る位置測定装置の反射面位置計算部によって分割鏡の反射面の位置及び向きを決定する別の過程を例により説明する図である。 本発明の実施の形態2に係る位置測定装置の構成を示すブロック図である。 本発明の実施の形態2に係る位置測定装置によって実行される位置測定処理を説明するフローチャートである。 本発明の実施の形態2に係る位置測定装置によって実行される位置測定処理の反射面位置計算処理を説明するフローチャートである。 本発明の実施の形態3に係る位置測定装置の構成を示すブロック図である。 本発明の実施の形態3に係る位置測定装置によって実行される位置測定処理を説明するフローチャートである。 本発明の実施の形態3に係る位置測定装置によって実行される位置測定処理の反射面位置計算処理を説明するフローチャートである。 本発明の実施の形態3に係る位置測定装置の曲率計算部によって反射面の曲率半径を推定する原理を例により説明する図である。 本発明の実施の形態4に係る位置測定装置の構成を示すブロック図である。 本発明の実施の形態4に係る位置測定装置によって実行される位置測定処理を説明するフローチャートである。 本発明の実施の形態5に係る位置測定装置の構成を示すブロック図である。 本発明の実施の形態6に係る位置測定装置の構成を示すブロック図である。 本発明の実施の形態7に係る位置測定装置の構成を示すブロック図である。
 実施の形態1.
 本発明の各実施の形態では、反射面を有する目標物体(位置を測定すべき物体)の位置を測定するために、互いの位置関係が決まった複数の特徴点を有するマーカー物体を使用する。本発明の実施の形態1では、反射面に映るカメラ及びマーカー物体の鏡像から仮想的に存在する鏡像体を求め、鏡像体に含まれる複数の特徴点の位置を計算し、鏡像体の特徴点の位置に基づいて反射面の位置及び向きを計算する。本発明の実施の形態1は、反射面が既知の曲面である場合に、反射面の形状を表す反射面モデルを使用し、カメラの視点からの光が反射面で垂直に反射する反射面上の点(より詳しい説明は後でするが、この点を鏡像中心点と呼ぶ)を中心に反射面を近似する近似平面を決定し、近似平面に反射面モデルを当てはめる。
 ここで、反射面の位置とは、反射面上の鏡像中心点の3次元空間での位置である。反射面の向きとは、鏡像中心点において反射面に接する平面の法線方向である。
 図1は、本発明の実施の形態1に係る位置測定装置の構成を示すブロック図である。図1の位置測定装置は、反射面を有する目標物体の3次元空間における位置を測定する。目標物体は、例えば、大口径の反射望遠鏡の反射面を分割した分割鏡21である。分割鏡21は、反射面22と、反射面22でない部分である非反射部分(反射面22のエッジ23、側面、裏面など)とを有する。反射望遠鏡の反射面のメンテナンスのために、例えばクレーンで吊るされたロボットハンドである把持機構によって、分割鏡21を掴んで移動させる必要がある。本発明に係る位置測定装置は、分割鏡21を把持機構で掴む際に、分割鏡21の3次元空間における位置を予め決められた精度で測定するために使用される。把持機構と分割鏡21の相対位置は、他の方法により例えば数十cm程度の誤差で予め分かっている。本発明の実施の形態1に係る位置測定装置は、例えば数mm程度以下の精度で、分割鏡21の位置を求める。本発明の実施の形態1に係る位置測定装置は、反射面を有する他の物体の位置を測定する場合にも使用できる。
 図1の位置測定装置は、少なくとも1つのカメラ1、マーカー物体2、記憶装置3、及び処理装置4を備える。カメラ1は、環境光に応じた一般的な調整を行ったカメラである。カメラ1は、分割鏡21を撮影することにより、分割鏡21の反射面22の少なくも一部が入った画像(以下、「撮影画像」という)を取得する。マーカー物体2は、カメラ1を基準として予め決められた位置にそれぞれ固定された複数のマーカーを含む物体であり、複数の特徴点を有する。カメラ1もまた、少なくとも1つの特徴点を有していてもよい。なお、マーカーとは特徴点を有する平面図形又は立体図形である。
 記憶装置3は、3次元空間における位置の測定に必要な情報を予め記憶している。記憶装置3は、画像を撮影するときのカメラ1の視点位置及び撮影方向を含む撮影条件を記憶する第1の記憶部と、分割鏡21の形状を含むモデルデータを記憶する第2の記憶部と、視点位置及び特徴点の間の互いの位置関係を表す特徴点データを記憶する第3の記憶部とを有する。実施の形態1に係る位置測定装置では、モデルデータは、反射面22の形状を表す反射面モデルと、反射面22及び非反射部分の位置関係とを含む。反射面22の形状は、反射面22の曲率半径、輪郭線の形(円形、四角形、六角形など)などである。特徴点データは、視点位置を基準とするマーカー物体2の複数の特徴点の位置を含む。特徴点データは、さらに、視点位置を基準とするカメラ1の少なくとも1つの特徴点の位置を含んでもよい。実施の形態1に係る位置測定装置では、特徴点データとして予め記憶された特徴点間の位置関係は、実際の特徴点間の位置関係に対して鏡像関係(反転した位置関係)にあるものが使用される。なお、特徴点は、視点位置とは異なる位置を基準としてもよい。視点位置及び特徴点の間の互いの位置関係を表すことができれば、特徴点データとしてはどのようなものでもよい。曲率半径の替わりに曲率を使用してもよい。
 処理装置4は、カメラ1によって撮影された分割鏡21の画像に基づいて、分割鏡21の3次元空間における位置を決定する。処理装置4は、特徴点抽出部11及び位置測定部12を備える。特徴点抽出部11は、特徴点のうちの複数個が反射面22内に映った状態でカメラ1により撮影された撮影画像から複数の特徴点を抽出し、撮影画像内の特徴点の位置を決定する。特徴点抽出部11は、さらに、撮影画像内の特徴点の位置を、特徴点データとして予め記憶された特徴点の位置に対応づける。位置測定部12は、撮影条件と、モデルデータと、特徴点データと、撮影画像内の特徴点の位置とに基づいて、分割鏡21の位置を計算する。
 位置測定装置は、さらに、カメラ1によって撮影された画像6、及び/又は、分割鏡21の3次元空間における位置の測定の過程及び結果、などを示す表示装置5を備えてもよい。表示装置5を備えることによりユーザが状況を理解しやすくなる。位置測定装置は、表示装置5を備えなくてもよい。
 図1の表示装置5に示すように、カメラ1によって撮影された画像6は、分割鏡21の反射面22及びエッジ23と、分割鏡21の反射面22に映ったカメラ1及びマーカー物体2の鏡像24とを含む。実施の形態1では、カメラ1の視野が分割鏡21に対して十分に広く、分割鏡21及びマーカー物体2がカメラ1の視野に収まっていると仮定する。なお、物体の鏡像とは、反射面22に映った物体の像を意味する。
 位置測定部12は、鏡像体位置計算部13、反射面位置計算部14、及び目標物体位置決定部15を備える。
 鏡像体位置計算部13は、特徴点データとして予め記憶された特徴点の位置に基づいて、反射面22に対してカメラ1及びマーカー物体2とは反対側に仮想的に存在するカメラ1及びマーカー物体2の鏡像体に含まれる複数の特徴点の位置を計算する。鏡像体は、反射面22に映ったカメラ1及びマーカー物体2の鏡像24と同じ像を、反射面22が存在しないと仮定した場合にカメラ1により撮影できるような、反射面22に対してカメラ1の反対側に存在する仮想的な物体である(図3、図7、図8を参照)。鏡像体に含まれる複数の特徴点の位置関係は、実際の特徴点間の位置関係に対して鏡像関係(反転した位置関係)になるので、特徴点データとして予め記憶された特徴点の位置に基づいて計算される。鏡像体位置計算部13は、カメラ1により実際の撮影画像を取得したときと同じ撮影条件で鏡像体を仮想的に撮影して得られる仮想撮影画像に含まれる複数の特徴点の位置が、実際にカメラ1により取得された撮影画像内の対応する複数の特徴点(仮想撮影画像内の特徴点に対応する実際の撮影画像内の特徴点)の位置にそれぞれ近接するように、鏡像体に含まれる複数の特徴点の位置を計算する。カメラ1及びマーカー物体2の全体の鏡像体を求める必要はなく、カメラ1及びマーカー物体2が有する特徴点に関して少なくとも鏡像体を求めればよい。なお、カメラ1及びマーカー物体2の全体の鏡像体を求めてもよい。
 反射面位置計算部14は、視点位置及び特徴点データ(予め記憶された特徴点の位置)から決まるマーカー物体2の特徴点の位置と、鏡像体位置計算部13により計算された鏡像体の特徴点の位置と、モデルデータとして予め記憶された反射面22の曲率半径とに基づいて、反射面22の位置及び向きを計算する。
 目標物体位置決定部15は、モデルデータとして予め記憶された反射面及び非反射部分の位置関係と、反射面位置計算部14により計算された反射面22の位置及び向きとに基づいて、分割鏡21の位置を決定する。詳しくは、目標物体位置決定部15は、反射面22のエッジ23の位置を検出することにより分割鏡21の位置を特定する。
 鏡像体位置計算部13は、仮想撮影画像内の特徴点の位置と実際の撮影画像内の対応する特徴点の位置との差を小さくするように、鏡像体に含まれる複数の特徴点の位置を計算する。鏡像体位置計算部は、射影変換部16及びサイズ変更部17を備える。
 射影変換部16は、実際の撮影画像内の特徴点の位置又は仮想撮影画像内の特徴点の位置に適用される射影変換であって、仮想撮影画像内の特徴点によって形成される図形と実際の撮影画像内の対応する特徴点によって形成される図形とが互いに相似に近づくような射影変換を決定する。射影変換を例えば仮想撮影画像内の特徴点の位置に適用すると、射影変換されたそれぞれの特徴点の位置は、適切な倍率で拡大又は縮小して平行移動させると、実際の撮影画像内の対応する特徴点の位置に一致又は近い位置になる。実際の撮影画像と仮想撮影画像とにおいて対応する特徴点が4組以上ある場合は、画像処理やコンピュータビジョンにおいて、一般的に行われるホモグラフィ行列の計算を用いることで、射影変換を決定することができる。この射影変換は、仮定された鏡像体の姿勢と、実際にカメラ1により撮影されたカメラ1及びマーカー物体2の姿勢(実際の鏡像体の姿勢)との差を表している。
 サイズ変更部17は、決定された射影変換を実際の撮影画像内の特徴点の位置又は仮想撮影画像内の特徴点の位置に適用した後に、仮想撮影画像内の特徴点によって形成される図形又は実際の撮影画像内の対応する特徴点によって形成される図形に適用されるサイズ変更率であって、仮想撮影画像内の特徴点の位置と実際の撮影画像内の対応する特徴点の位置との差を小さくするようなサイズ変更率を決定する。言い換えると、サイズ変更部17は、仮想撮影画像内の特徴点によって形成される図形が、実際の撮影画像内の対応する特徴点によって形成される図形と合同に近づくようなサイズ変更率を決定する。なお、サイズ変更率は等倍を含む。
 鏡像体位置計算部13は、決定された射影変換及び決定されたサイズ変更率に基づいて、鏡像体に含まれる複数の特徴点の位置を変更する。鏡像体位置計算部13は、仮想撮影画像内の特徴点の位置と実際の撮影画像内の対応する特徴点の位置との差が予め決められたしきい値(許容誤差)未満になるまで、射影変換と、サイズ変更率とを反復的に計算する。しきい値は、各特徴点の位置の誤差の絶対値の最大値、各特徴点の位置の誤差の絶対値の和、各特徴点の位置の誤差の二乗和などに対して設定する。
 目標物体位置決定部15が分割鏡21の位置を決定した後、位置測定装置は、さらなる処理(例えば、把持機構により分割鏡21を掴んで移動させること)のために、決定した分割鏡21の位置を外部装置(図示せず)に送ってもよい。
 記憶装置3(第1の記憶部)は、カメラ1の1つの視点位置及び1つの撮影方向を含む1組の撮影条件を記憶してもよい。この場合、位置測定部12は、撮影条件と、モデルデータと、特徴点データと、撮影画像内の複数の特徴点の位置をそれぞれ含む特徴点集合とに基づいて、分割鏡21の位置を計算してもよい。
 図2は、本発明の実施の形態1に係る位置測定装置が有するマーカー物体2のパターンの例を示す図である。図2のマーカー物体2は、チェッカー模様の矩形領域を形成する複数の正方形(マーカー)と、矩形領域の4つのコーナーにそれぞれ設けられた4種類の互いに異なるシンボル(図形)とを有する。各マーカーは、個々の図形の頂点又は重心などの特徴点を有する。また、カメラ1の筐体の少なくとも一部を特徴点として用いてもよい。記憶装置3は、カメラ1及びマーカー物体2に含まれる複数の特徴点の位置を、カメラ1及びマーカー物体2のモデルとして記憶している。座標は、カメラ1の視点位置を原点としてもよく、他の位置を原点としてもよい。各特徴点の位置が既知であるので、特徴点間の距離及び方向も既知である。図2に示す例では、マーカー物体2に4種類の互いに異なるシンボルを設けたことにより、マーカー物体2の上下左右を区別することができる。図2に示す例では、さらに、カメラ1によって撮影された画像6が、分割鏡21の反射面22に映ったカメラ1及びマーカー物体2の鏡像24を含むとき、カメラ1及びマーカー物体2に含まれる複数の特徴点(記憶装置3に記憶されたモデル)と、鏡像24に含まれる複数の特徴点とを対応づけることができる。
 なお、図2に示すマーカー物体2のチェッカー模様は一例であり、マーカー物体2は、水玉模様を形成する複数の円など、2次元的又は3次元的に配列された他のマーカーや目印となる形状的特徴を含んでもよい。例えばマーカーが円である場合には、円の中心を特徴点として用いてもよい。また、マーカー物体2の上下左右を区別するために設けるシンボルの個数は、4つに限らない。また、マーカー物体2の上下左右を区別するために特別なシンボルを設けなくてもよく、例えば、少なくとも1つのマーカーに他のマーカーとは異なる色を付与することにより、マーカー物体2の上下左右を区別することができる。この場合、記憶装置3はさらに、各マーカーの色を記憶する。マーカー物体は、チェッカー模様のように2次元的に配列されたものに限定されず、カメラ1の位置に対して予め決められた位置にそれぞれ配置された複数の特徴点を有するものであればよい。
 図3は、本発明の実施の形態1に係る位置測定装置における、カメラ1及びマーカー物体2と、反射面と、カメラ1及びマーカー物体2の鏡像体との関係を説明する図である。カメラ1及びマーカー物体2と、反射面22と、カメラ1及びマーカー物体2の鏡像体との関係を、図3により説明する。反射面22によるカメラ1及びマーカー物体2の鏡像体として、仮想カメラ1M及び仮想マーカー物体2Mが仮想的に存在する。カメラ1は、視点31、撮影方向32、及び視野33を有する。鏡像体である仮想カメラ1Mは、仮想的な視点31M、仮想的な撮影方向32M、及び仮想的な視野33Mを有する。カメラ1のレンズ(図示せず)が反射面22に映っている画像をカメラ1が撮影している場合には、レンズの中の一点(すなわち、カメラ1の視点31)からの光は、反射面22に垂直に入射して反射面22で垂直に反射して、カメラ1の視点31に届く。このとき、カメラ1の視点31と仮想カメラ1Mの視点31Mとを通る直線は、反射面22と垂直に交わる。以下、カメラ1の視点31と仮想カメラ1Mの視点31Mとを通る直線を反射面垂直線と呼ぶ。反射面垂直線34と、反射面22との交点を、鏡像中心点35と呼ぶ。
 図4及び図5を参照して、本発明の実施の形態1に係る位置測定装置によって実行される位置測定処理を説明する。図4は、本発明の実施の形態1に係る位置測定装置によって実行される位置測定処理を説明するフローチャートである。図5は、本発明の実施の形態1に係る位置測定装置によって実行される位置測定処理の鏡像体位置計算処理を説明するフローチャートである。
 分割鏡21の位置は、分割鏡21の予め決められた基準点(例えば、重心)の位置と、分割鏡21の予め決められた面が向く方向(正面方向と呼ぶ)と、正面方向の周りでの回転角度とに分解できる。カメラ1の視点位置から分割鏡21の予め決められた点に向かう直線を基準とする、分割鏡21の正面方向の相対的な方向と正面方向の周りでの回転角度との組み合わせを、分割鏡21の姿勢と呼ぶ。分割鏡21の位置と姿勢が決まれば、分割鏡21のすべての箇所の位置も決まる。
 カメラ1に対する分割鏡21の位置は大まかには分かっているので(例えば数十cm程度の誤差)、大まかな位置及び姿勢を与えたときの分割鏡21の反射面に映るカメラ1及びマーカー物体2を仮想的に撮影して得られる仮想撮影画像に含まれる特徴点の位置を計算し、仮想撮影画像内の特徴点の位置が、実際の撮影画像内の対応する特徴点の位置に対して近接するように、分割鏡21の位置及び姿勢を修正する。実施の形態1では、仮想撮影画像内の特徴点の位置を計算するために、カメラ1及びマーカー物体2の鏡像体の特徴点の位置を計算する。
 カメラ1の視点と分割鏡21との相対的な位置関係は、大まかには予め分かっているので、分割鏡21の大まかな位置から決まるカメラ1及びマーカー物体2の鏡像体の位置を、基準位置と呼ぶ。また、分割鏡21が反射望遠鏡の反射面の一部を構成しているか、それとも、分割鏡21が反射望遠鏡から分離されて搭載具の上に置かれているかが分かっているので、分割鏡21の正面方向も大まかに分かる。大まかに分かっている分割鏡21の正面方向から決まるカメラ1及びマーカー物体2の鏡像体の姿勢を、基準姿勢と呼ぶ。鏡像体に含まれる特徴点の相対的な位置関係は、カメラ1及びマーカー物体2の特徴点の位置関係から決まるので、基準位置及び基準姿勢を決定することができる。
 図4の位置測定処理は、目標物体の位置を測定するために、図1の処理装置4によって実行される。ステップS1において、特徴点抽出部11は、カメラ1により撮影された実際の撮影画像から特徴点を抽出し、抽出した特徴点に関する情報を位置測定部12に送る。ステップS2において、鏡像体位置計算部13は、鏡像体位置計算処理を実行し、カメラ1及びマーカー物体2の鏡像体(仮想カメラ1M及び仮想マーカー物体2M)の特徴点の位置を決定する。
 図5に示すフローチャートのステップS11において、鏡像体位置計算部13は、カメラ1及びマーカー物体2の鏡像体の基準位置及び基準姿勢を、鏡像体の位置及び姿勢の初期値として決定する。ステップS12において、鏡像体位置計算部13は、鏡像体の位置及び姿勢に基づき、カメラ1により実際の撮影画像を取得したときと同じ撮影条件で鏡像体を仮想的に撮影して得られる仮想撮影画像に含まれる、複数の特徴点の位置を計算する。ステップS13において、鏡像体位置計算部13は、実際の撮影画像内の特徴点の位置と仮想撮影画像内の対応する特徴点の位置との差は、しきい値未満であるか否かを判断する。特徴点の位置の差がしきい値未満の場合、すなわちステップS13がYESの場合は、図5のフローチャートの処理を終了し、図4のステップS3に進む。特徴点の位置の差がしきい値以上の場合、すなわちステップS13がNOの場合は、ステップS14に進む。特徴点の位置の差は、例えば、互いに対応する特徴点間の距離の絶対値の総和、距離の2乗の総和、などとして計算される。
 図5のステップS14において、鏡像体位置計算部13は、射影変換部16を用いて、実際の撮影画像内の特徴点の位置又は仮想撮影画像内の特徴点の位置に適用する射影変換であって、仮想撮影画像内の特徴点によって形成される図形と実際の撮影画像内の対応する特徴点によって形成される図形とが互いに相似に近づくような射影変換を決定する。分割鏡21の反射面22が平面である場合は、実際の撮影画像内のすべての特徴点の位置(及び仮想撮影画像内の対応する特徴点の位置)に基づいて射影変換を決定することで、安定して鏡像体の姿勢を計算できる。分割鏡21の反射面22が曲面である場合は、実際の撮影画像に映った鏡像中心点35の周囲における鏡像のゆがみを無視できる範囲内の特徴点の位置(及び仮想撮影画像内の対応する特徴点の位置)に基づいて射影変換を決定することで、鏡像のゆがみの影響を抑えながら、安定して鏡像体の姿勢を計算できる。画像内の鏡像中心点35に対応する点を、画像内の鏡像中心点と呼ぶ。
 図5のステップS15では、決定された射影変換を実際の撮影画像内の特徴点の位置又は仮想撮影画像内の特徴点の位置に適用する。そして、ステップS16において、鏡像体位置計算部13は、サイズ変更部17を用いて、仮想撮影画像内の特徴点又は実際の撮影画像内の特徴点によって形成される図形に適用されるサイズ変更率であって、画像内での鏡像中心点35の位置を変更することなく、仮想撮影画像内の特徴点の位置と実際の撮影画像内の対応する特徴点の位置との差を最小化するようなサイズ変更率を決定する。
 図6は、本発明の実施の形態1に係る位置測定装置の鏡像体位置計算部13によって鏡像体の位置を計算する過程を例により説明する図である。符号101の図は、実際の撮影画像が反射面22とマーカー物体2の鏡像24とを含む場合を示す。マーカー物体2の鏡像24は、複数の特徴点24aを有する。符号104の図は、位置及び姿勢が初期値(基準位置及び基準姿勢)である鏡像体を仮想的に撮影して得られる仮想撮影画像における仮想マーカー物体2Mの像41を示す。仮想マーカー物体2Mの像41は、複数の特徴点41aを有する。符号103の図は、図5のステップS14で求めた射影変換を仮想撮影画像に適用した後の、仮想撮影画像における仮想マーカー物体2Mの像42を示す。仮想マーカー物体2Mの像42は、複数の特徴点42aを有する。符号102の図は、図5のステップS16で求めたサイズ変更率で仮想撮影画像のサイズを変更した後の、仮想撮影画像における仮想マーカー物体2Mの像43を示す。仮想マーカー物体2Mの像43は、複数の特徴点43aを有する。像41の特徴点41a(符号104の図を参照)と像43の特徴点43a(符号102の図を参照)とを比較すると、像43では、実際の撮影画像内の特徴点の位置(符号101の図を参照)と仮想撮影画像内の対応する特徴点の位置との差は、像41の場合よりも小さくなっていることがわかる。
 図5のステップS17において、鏡像体位置計算部13は、決定された射影変換に基づいて、鏡像体の姿勢を変更する。ステップS18において、鏡像体位置計算部13は、決定されたサイズ変更率に基づいて、カメラ1及びマーカー物体2から鏡像体(仮想カメラ1M及び仮想マーカー物体2M)への距離を変更する。
 鏡像体位置計算部13は、ステップS15,S16及びS18を実行せず、ステップS17の実行後に、実際の撮影画像内の特徴点の位置と仮想撮影画像内の対応する特徴点の位置との差を最小化するように、カメラ1及びマーカー物体2から鏡像体(仮想カメラ1M及び仮想マーカー物体2M)への距離を直接に変更するステップを実行してもよい。これは、他の実施の形態でも当てはまる。
 実際の撮影画像内の特徴点の位置と仮想撮影画像内の対応する特徴点の位置との差が、しきい値未満になるまで、鏡像体位置計算部13はステップS12からS18を繰り返す。
 図4のステップS3において、反射面位置計算部14は、反射面22上の鏡像中心点35の近傍に映ったマーカー物体2の複数の特徴点と、鏡像体の対応する複数の特徴点とを結ぶ線分をそれぞれ分割する複数の分割点を決定し、これらの分割点に、近似平面51を当てはめる。それぞれの分割点は、マーカー物体2の特徴点と鏡像体の対応する特徴点とを結ぶ線分を、反射面22の曲率半径から決まる分割比率で二分割する位置にある。分割比率に関しては、後で説明する。ステップS4において、反射面位置計算部14は、反射面22のモデルに基づいて、反射面22が鏡像中心点35で近似平面51と接するように、反射面22の位置及び向きを決定する。反射面22が曲面である場合に、反射面位置計算部14は、鏡像中心点35の近傍において反射面22を近似する近似平面51の位置及び向きを決定し、鏡像中心点35において近似平面51と接するように反射面モデルの位置及び向きを決定することにより、反射面22の位置及び向きを決定する。
 マーカー物体2の特徴点と鏡像体の対応する特徴点とを結ぶ線分の分割点を求める分割比率は、レンズの公式を応用して反射面22の曲率半径から導出される。反射面22が平面である場合は、分割比率は0.5となり、分割点は線分の中点になる。
 図7は、本発明の実施の形態1に係る位置測定装置の反射面位置計算部14によって分割鏡の反射面の位置及び向きを決定する過程を例により説明する図である。符号111の図は、カメラ1及びマーカー物体2と、それらの鏡像体である仮想カメラ1M及び仮想マーカー物体2Mとを示す。符号112の図は、カメラ1及びマーカー物体2の特徴点と、仮想カメラ1M及び仮想マーカー物体2Mの対応する特徴点とを結ぶ線分を点線で示す。符号113の図は、符号112の図の線分の分割点と、分割点に当てはめられた近似平面51とを示す。符号114の図は、カメラ1の視点と仮想カメラ1Mの視点とを通る直線と、近似平面51との交点を、鏡像中心点に決め、反射面22の鏡像中心点の近傍で近似平面51と一致するように反射面モデルを当てはめることによって決定された、反射面22の位置及び向きを示す。
 図7において、最初に、カメラ1は、分割鏡21の反射面22(符号114の図を参照)に映ったカメラ1及びマーカー物体2の鏡像24を含む撮影画像(カメラ1及びマーカー物体2の複数の特徴点が反射面22内に映った分割鏡21の撮影画像)を取得し、特徴点抽出部11は、撮影画像から特徴点を抽出し、撮影画像内の特徴点の位置を決定する。特徴点抽出部11は、さらに、撮影画像内の特徴点の位置を、特徴点データとして予め記憶された特徴点の位置(実際のカメラ1及びマーカー物体2の特徴点の位置)に対応づける。鏡像体位置計算部13は、カメラ1及びマーカー物体2の鏡像体(仮想カメラ1M及び仮想マーカー物体2M)に含まれる特徴点の位置を計算する。鏡像体位置計算部13は、仮想撮影画像内の特徴点の位置と実際の撮影画像内の対応する特徴点の位置との差を小さくするように、仮想カメラ1M及び仮想マーカー物体2Mの姿勢を修正し、カメラ1及びマーカー物体2から鏡像体(仮想カメラ1M及び仮想マーカー物体2M)への距離を修正することを繰り返す。鏡像体位置計算部13は、鏡像体の各特徴点の位置を決定することにより、符号112の図に示すように、カメラ1及びマーカー物体2と、仮想カメラ1M及び仮想マーカー物体2Mとの相対的な位置関係を把握することができる。
 反射面位置計算部14は、符号113の図に示すように、カメラ1及びマーカー物体2の複数の特徴点の位置と、仮想カメラ1M及び仮想マーカー物体2Mの対応する特徴点の位置との各分割点の位置を計算する。各分割点は、カメラ1及びマーカー物体2の特徴点と、仮想カメラ1M及び仮想マーカー物体2Mの対応する特徴点とを結ぶ線分(符号112の図を参照)を、反射面22の曲率半径から決まる分割比率で二分割する位置にある。
 反射面位置計算部14は、符号113の図に示すように、各分割点に平面方程式を当てはめて、反射面22の鏡像中心点の近傍を近似する平面である近似平面51を決定する。反射面22が平面である場合は、近似平面51自体が反射面22になる。反射面22が曲面である場合は、符号114の図に示すように、鏡像中心点の近傍において近似平面51と誤差が最小になるように反射面モデルを当てはめて反射面22の形状を決定する。なお、反射面22が非球面の曲面である場合は、近似平面51に反射面モデルのどの部分を当てはめるかに応じて反射面22の位置が微小に変化するが、反射面22のエッジ23を決める際に、反射面モデルの当てはめる部分の位置も決める。
 図8は、本発明の実施の形態1に係る位置測定装置の反射面位置計算部によって分割鏡の反射面の位置及び向きを決定する別の過程を例により説明する図である。図8の例では、カメラ1及びマーカー物体2の特徴点の位置及び仮想カメラ1M及び仮想マーカー物体2Mの特徴点の位置だけでなく、カメラ1の視点31の位置も考慮して、反射面22の位置及び向きを決める。
 図8において、符号121の図は、カメラ1の視点31と仮想カメラ1M及び仮想マーカー物体2Mの特徴点とを結ぶ線分を点線で示す。符号122の図は、カメラ1の視点31と仮想カメラ1M及び仮想マーカー物体2Mの特徴点とを結ぶ線分(符号121の図を参照)のうちの左端の線分において、分割点の位置を決定する方法を説明する図である。カメラ1及びマーカー物体2の特徴点と、仮想カメラ1M及び仮想マーカー物体2Mの対応する特徴点とを結ぶ線分(符号122の図では、マーカー物体2の左端の特徴点と、仮想マーカー物体2Mの左端の特徴点とを結ぶ線分)を決められた分割比率で二分割し、この線分に直交する平面52を決定する。この平面52と、符号121の図に示した視点31と仮想カメラ1M及び仮想マーカー物体2Mの特徴点を結ぶ線分との交点を、当該線分の分割点として求める。符号123の図は、カメラ1の視点と仮想カメラ1Mの視点とを通る直線の近傍において、符号121の図の複数の線分の分割点を通る近似平面51を求めた図である。符号124の図は、カメラ1の視点と仮想カメラ1Mの視点とを通る直線と近似平面51との交点を、鏡像中心点に決め、反射面22の鏡像中心点の近傍で近似平面51と一致するように反射面モデルを当てはめることによって決定された、反射面22の位置及び向きを示す。
 図8に示す方法で近似平面51の位置及び向きを決定して反射面22の位置及び向きを決定する方が、図7に示す方法よりも正確に、反射面22の位置及び向きを決定することができる。仮想カメラ1Mの仮想的な視点31Mとカメラ1及びマーカー物体2の特徴点とを結ぶ線分に対して、同様な処理を適用して、反射面22の位置及び向きを決定してもよい。
 反射面位置計算部14によって分割鏡21の反射面22を含む平面又は曲面が決定されたとき(図7の符号114の図又は図8の符号124の図)、分割鏡21の反射面22を含む面として、境界が決まっていない平面又は曲面が当てはめられている状態にある。例えば、分割鏡21が平面鏡であれば、平面鏡の法線方向(姿勢)がわかっているが、反射面22のエッジ23がどこにあるのか(平面鏡の位置)がわかっていない状態にある。そこで、目標物体位置決定部15は、反射面22のエッジ23の位置を決定して目標物体である分割鏡21の位置を決定する。
 図4のステップS5において、目標物体位置決定部15は、撮影画像内の分割鏡21の非反射部分に基づいて、目標物体である分割鏡21の位置を決定する。目標物体位置決定部15は、目標物体の位置を決めるために、撮影画像から分割鏡21の非反射部分を抽出する。目標物体の位置を決めるために使用する非反射部分として、ここでは、反射面22のエッジ23を用いる。目標物体位置決定部15は、撮影画像内でのエッジの画素の位置に基づいて、カメラ1から反射面22のエッジ23上における複数の点などに向かう各直線を決定する。目標物体位置決定部15は、反射面位置計算部14によって計算された反射面22を含む面と、各直線との各交点の位置を計算し、各交点を、反射面22のエッジ23上における各点として決定する。
 分割鏡21の反射面22が曲面である場合、目標物体位置決定部15は、撮影画像に基づいてエッジ23上の各点と鏡像中心点35との距離を計算し、これらの距離から、鏡像中心点35に対応する反射面22上の点の位置を計算し、反射面モデルに基づいて反射面22の位置及び向きを推定する。目標物体位置決定部15は、カメラ1からエッジ23上の各点に向かう直線と、反射面22との交点を、エッジ23上の各点の位置として決める。
 このように、処理装置4は、分割鏡21の反射面22に映ったカメラ1及びマーカー物体2の鏡像に対応した鏡像体を求め、求めた鏡像体に基づいて、分割鏡21の3次元空間における位置を決定する。これにより、特別な光源及び広ダイナミックレンジのカメラを用いることなく、反射面を有する目標物体の3次元空間における位置を決定することができる。
 実施の形態1によれば、このように、分割鏡21の反射面22に映ったカメラ1及びマーカー物体2の鏡像に対応した鏡像体の位置を計算し、その結果に基づいて鏡像変換の関係より分割鏡21の反射面22の位置及び向きを推定することができる。これにより、特別な光源及び広ダイナミックレンジのカメラを用いることなく、簡単な調整で、安価に、分割鏡21の3次元空間における位置を安定的に測定することができる。
 実施の形態2.
 本発明の実施の形態2では、目標物体の位置を測定するために、実施の形態1の鏡像体を用いることなく、仮想撮影画像に含まれる特徴点の位置を計算し、実際の撮影画像内の特徴点の位置と仮想撮影画像内の対応する特徴点の位置との差が予め決められたしきい値未満になるように、反射面の位置及び向きを計算する。
 図9は、本発明の実施の形態2に係る位置測定装置の構成を示すブロック図である。図9の位置測定装置は、図1の処理装置4に代えて、処理装置4Aを備える。処理装置4Aは、特徴点抽出部11及び位置測定部12Aを備える。処理装置4Aの特徴点抽出部11は、図1の処理装置4の特徴点抽出部11と同様に動作する。位置測定部12Aは、反射面位置計算部14A及び目標物体位置決定部15を備える。反射面位置計算部14Aは、モデルデータとして予め記憶された反射面22の形状と、特徴点データとして予め記憶された特徴点の位置とに基づいて、仮想的に決めた反射面の位置及び向きを繰り返し計算で修正することにより、反射面22の位置及び向きを計算する。このとき、反射面位置計算部14Aは、仮想的に決定された位置及び向きを有する反射面に仮想的に映ったカメラ1及びマーカー物体2を、カメラ1により実際の撮影画像を取得したときと同じ撮影条件で仮想的に撮影して得られる仮想撮影画像に含まれる複数の特徴点の位置を計算し、仮想撮影画像に含まれる複数の特徴点の位置が撮影画像内の対応する複数の特徴点の位置にそれぞれ近接するように、反射面22の位置及び向きを計算する。目標物体位置決定部15は、モデルデータとして予め記憶された反射面及び非反射部分の位置関係と、反射面位置計算部14Aにより計算された反射面22の位置及び向きとに基づいて、分割鏡21の位置を決定する。
 具体的には、反射面位置計算部14Aは、反射面22の位置及び向きを仮想的に決定し、これらの仮想的に決定された位置及び向きを有する反射面(仮想反射面と呼ぶ)を用いて、実際の反射面22の位置及び向きを計算する。反射面位置計算部14Aは、カメラ1及びマーカー物体2が仮想反射面に仮想的に映った状態で、仮想反射面に映ったカメラ1及びマーカー物体2を仮想的に撮影して得られる画像である仮想撮影画像に含まれる特徴点の位置を計算する。反射面位置計算部14Aは、仮想撮影画像内の特徴点の位置と実際に撮影された撮影画像内の対応する特徴点の位置との差がしきい値未満になるまで小さくなるように、仮想的に決めた反射面22の位置及び向きを修正することを繰り返す。
 反射面位置計算部14Aは、カメラ1により実際の撮影画像を取得したときと同じ撮影条件で仮想反射面に仮想的に映るカメラ1及びマーカー物体2の鏡像を仮想的に撮影して得られる仮想撮影画像に含まれる複数の特徴点の位置が、実際の撮影画像内の対応する複数の特徴点の位置にそれぞれ近接するように、仮想反射面の位置及び向きを繰り返し計算で修正する。
 反射面位置計算部14Aは、仮想撮影画像内の特徴点の位置と実際の撮影画像内の対応する特徴点の位置との差を小さくするように、仮想反射面の位置及び向きを変更することによって計算する。反射面位置計算部14Aは、射影変換部16及びサイズ変更部17を備える。反射面位置計算部14Aの射影変換部16及びサイズ変更部17は、図1の鏡像体位置計算部13の射影変換部16及びサイズ変更部17と同様に動作する。反射面位置計算部14Aは、射影変換部16によって決定された射影変換と、サイズ変更部17によって決定されたサイズ変更率とに基づいて、仮想反射面の位置及び向きを変更する。
 図10及び図11を参照して、本発明の実施の形態2に係る位置測定装置によって実行される位置測定処理を説明する。図10は、本発明の実施の形態2に係る位置測定装置によって実行される位置測定処理を説明するフローチャートである。図11は、本発明の実施の形態2に係る位置測定装置によって実行される位置測定処理の反射面位置計算処理を説明するフローチャートである。
 図10の位置測定処理は、目標物体の位置を測定するために、図9の処理装置4Aによって実行される。ステップS21において、特徴点抽出部11は、カメラ1により撮影された実際の撮影画像から特徴点を抽出し、抽出した特徴点に関する情報を位置測定部12Aに送る。ステップS22において、反射面位置計算部14Aは、反射面位置計算処理を実行し、仮想反射面の位置及び向きを計算することにより、反射面22の位置及び向きを計算する。
 図11のステップS31において、反射面位置計算部14Aは、仮想反射面の位置及び向きの初期値を決定する。ステップS32において、反射面位置計算部14Aは、仮想反射面の位置及び向きと、反射面22のモデルとに基づき、仮想反射面にマーカー物体2が映る仮想撮影画像内の特徴点の位置を計算する。ステップS33において、反射面位置計算部14Aは、撮影画像内の特徴点の位置と仮想撮影画像内の対応する特徴点の位置との差は、しきい値未満であるか否かを判断する。特徴点の位置の差がしきい値未満の場合、すなわちステップS33がYESの場合は、図11のフローチャートの処理を終了し、図10のステップS23に進む。特徴点の位置の差がしきい値以上の場合、すなわちステップS33がNOの場合は、ステップS34に進む。
 ステップS34において、反射面位置計算部14Aは、射影変換部16を用いて、実際の撮影画像内の特徴点の位置又は仮想撮影画像内の特徴点の位置に適用する射影変換であって、仮想撮影画像内の特徴点によって形成される図形と実際の撮影画像内の対応する特徴点によって形成される図形とが互いに相似に近づくような射影変換を決定する。図11のステップS35では、決定された射影変換を実際の撮影画像内の特徴点の位置又は仮想撮影画像内の特徴点の位置に適用する。そして、ステップS36において、反射面位置計算部14Aは、サイズ変更部17を用いて、仮想撮影画像内の特徴点又は実際の撮影画像内の特徴点によって形成される図形に適用されるサイズ変更率であって、画像内の鏡像中心点35の位置を変更することなく、仮想撮影画像内の特徴点の位置と実際の撮影画像内の対応する特徴点の位置との差を最小化するようなサイズ変更率を決定する。
 ステップS37において、反射面位置計算部14Aは、決定された射影変換に基づいて、仮想反射面の向きを変更する。ステップS38において、反射面位置計算部14Aは、決定されたサイズ変更率に基づいて、カメラ1から仮想反射面への距離を変更する。
 実際の撮影画像内の特徴点の位置と仮想撮影画像内の対応する特徴点の位置との差が、しきい値未満になるまで、反射面位置計算部14AはステップS32からS38を繰り返す。反射面位置計算部14Aは、反復的な計算により、反射面22の位置及び向きを取得する。
 図10のステップS23において、目標物体位置決定部15は、撮影画像内の分割鏡21の非反射部分に基づいて、反射面22のエッジ23の位置を決定することにより、目標物体である分割鏡21の位置を決定する。
 実施の形態1では、鏡像体の位置を反復的に計算したが、実施の形態2では、仮想反射面の位置及び向きを反復的に計算している。
 このように、処理装置4Aは、仮想反射面に仮想的に映ったカメラ1及びマーカー物体2を仮想的に撮影して得られる仮想撮影画像に基づいて、分割鏡21の3次元空間における位置を決定する。これにより、特別な光源及び広ダイナミックレンジのカメラを用いることなく、反射面を有する目標物体の3次元空間における位置を決定することができる。
 実施の形態3.
 本発明の実施の形態3では、反射面の曲率半径が未知である場合であっても、実際の撮影画像内の特徴点の位置と仮想撮影画像内の対応する特徴点の位置との差が予め決められたしきい値未満になるように、反射面の位置、向き、及び曲率半径を計算する。その他の点では、実施の形態3は、実施の形態2と同様である。
 図12は、本発明の実施の形態3に係る位置測定装置の構成を示すブロック図である。図12の位置測定装置は、図9の処理装置4Aに代えて、処理装置4Bを備える。記憶装置3に記憶されたモデルデータには、曲率半径を含まない反射面22の形状と、反射面及び非反射部分の位置関係とが含まれる。処理装置4Bは、特徴点抽出部11及び位置測定部12Bを備える。処理装置4Bの特徴点抽出部11は、図1の処理装置4の特徴点抽出部11と同様に動作する。
 位置測定部12Bは、反射面位置計算部14B及び目標物体位置決定部15を備える。反射面位置計算部14Bは、モデルデータとして予め記憶された反射面22の形状と、特徴点データとして予め記憶された特徴点の位置とに基づいて、カメラ1及びマーカー物体2を仮想的に写す仮想反射面の位置、向き、及び曲率半径を計算することにより、反射面22の位置、向き、及び曲率半径を計算する。反射面位置計算部14Bは、仮想反射面に仮想的に映ったカメラ1及びマーカー物体2を、カメラ1により実際の撮影画像を取得したときと同じ撮影条件で仮想的に撮影して得られる仮想撮影画像に含まれる複数の特徴点の位置を計算し、仮想撮影画像に含まれる複数の特徴点の位置が実際の撮影画像内の対応する複数の特徴点の位置にそれぞれ近接するように、仮想反射面の位置、向き、及び曲率半径を計算する。目標物体位置決定部15は、モデルデータとして予め記憶された反射面及び非反射部分の位置関係と、反射面位置計算部14Bにより計算された反射面22の位置及び向きとに基づいて、分割鏡21の位置を決定する。
 反射面位置計算部14Bは、仮想撮影画像内の特徴点の位置と実際の撮影画像内の対応する特徴点の位置との差を小さくするように、仮想反射面の位置、向き、及び曲率半径を変更することによって計算する。反射面位置計算部14Bは、射影変換部16、サイズ変更部17、及び曲率計算部18を備える。反射面位置計算部14Bの射影変換部16及びサイズ変更部17は、図1の鏡像体位置計算部13の射影変換部16及びサイズ変更部17と同様に動作する。曲率計算部18は、撮影画像内の3つ以上の特徴点の位置と仮想撮影画像内の対応する特徴点の位置との差に基づいて、かつ、撮影画像内又は仮想撮影画像内の鏡像中心点35から実際の撮影画像内の特徴点又は仮想撮影画像内の特徴点までの距離に基づいて、反射面22の曲率半径を推定する。実際に撮影された撮影画像内の特徴点の位置と仮想撮影画像内の対応する特徴点の位置との差は、反射面22の仮定した曲率半径と実際の曲率半径の差に応じて決まる。反射面位置計算部14Bは、射影変換部16によって決定された射影変換と、サイズ変更部17によって決定されたサイズ変更率と、曲率計算部18によって計算された曲率半径に基づいて、仮想反射面の位置、向き、及び曲率半径を変更する。
 図13及び図14を参照して、本発明の実施の形態3に係る位置測定装置によって実行される位置測定処理を説明する。図13は、本発明の実施の形態3に係る位置測定装置によって実行される位置測定処理を説明するフローチャートである。図14は、本発明の実施の形態3に係る位置測定装置によって実行される位置測定処理の反射面位置計算処理を説明するフローチャートである。
 図13にフローチャートを示す位置測定処理は、目標物体の位置を測定するために、図12の処理装置4Bによって実行される。ステップS41において、特徴点抽出部11は、カメラ1により撮影された実際の撮影画像から特徴点を抽出し、抽出した特徴点に関する情報を位置測定部12Bに送る。ステップS42において、反射面位置計算部14Bは、反射面位置計算処理を実行し、仮想反射面の位置、向き、及び曲率半径を計算することにより、反射面22の位置、向き、及び曲率半径を計算する。
 図14に示すステップS51において、反射面位置計算部14Bは、仮想反射面の位置、向き、及び曲率半径の初期値を決定する。ステップS52において、反射面位置計算部14Bは、仮想反射面の位置、向き、及び曲率半径に基づき、仮想反射面にマーカー物体2が映る仮想撮影画像内の特徴点の位置を計算する。ステップS53において、反射面位置計算部14Bは、撮影画像内の特徴点の位置と仮想撮影画像内の対応する特徴点の位置との差は、しきい値未満であるか否かを判断する。特徴点の位置の差がしきい値未満の場合、すなわちステップS53がYES場合は、図14のフローチャートの処理を終了し、図13のステップS43に進む。特徴点の位置の差がしきい値以上の場合、すなわちステップS53がNOの場合は、ステップS54に進む。
 ステップS54において、反射面位置計算部14Bは、射影変換部16を用いて、撮影画像内の特徴点の位置又は仮想撮影画像内の特徴点の位置に適用する射影変換であって、実際の撮影画像内の鏡像中心点35の近傍の予め決められた範囲に含まれる実際の撮影画像内の特徴点によって形成される図形と、仮想撮影画像内の対応する特徴点によって形成される図形とが、互いに相似に近づくような射影変換を決定する。ステップS55では、求めた射影変換を実際の撮影画像内の特徴点の位置又は仮想撮影画像内の特徴点の位置に適用する。そして、ステップS56において、反射面位置計算部14Bは、サイズ変更部17を用いて、仮想撮影画像内の特徴点又は実際の撮影画像内の特徴点によって形成される図形に適用するサイズ変更率であって、実際の撮影画像内の鏡像中心点35の近傍の予め決められた範囲に含まれる実際の撮影画像内の特徴点の位置と、仮想撮影画像内の対応する特徴点の位置との差を最小化するようなサイズ変更率を決定する。サイズ変更率を求める際に使用する画像内の鏡像中心点35の近傍の予め決められた範囲は、十分な個数の特徴点が入るように、かつ、反射面22の曲率に起因する実際の撮影画像内の特徴点の位置と仮想撮影画像内の対応する特徴点の位置との差が許容できる程度に小さくなるように決める。
 ステップS57において、反射面位置計算部14Bは、曲率計算部18を用いて、撮影画像内の特徴点の位置と仮想撮影画像内の対応する特徴点の位置との差に基づいて、仮定した曲率半径と実際の曲率半径の差を計算し、次の繰り返し計算で使用する仮想反射面の曲率半径を決定する。
 図15は、本発明の実施の形態3に係る位置測定装置の曲率計算部18によって反射面の曲率半径を推定する原理を例により説明する図である。符号131の図は、反射面22が曲面であるとき、実際の撮影画像に反射面22とマーカー物体2の鏡像44とが映っている場合を示す。マーカー物体2の鏡像44は、複数の特徴点44aを有する。符号132の図は、図14のステップS54で決定された射影変換と、図14のステップS55で決定されたサイズ変更率とを適用した後の、仮想撮影画像におけるマーカー物体2の像45を示す。マーカー物体2の像45は、複数の特徴点45aを含む。符号132の図は、平面の反射鏡に仮想的に映ったマーカー物体2を予め決められた撮影条件で仮想的に撮影して得られる仮想撮影画像に含まれる特徴点45aの位置を示す。符号133の図は、黒丸で示した符号131の特徴点44aの位置と、白丸で示した符号132の特徴点45aの位置との差を示す。
 現実の直線が曲面の反射面22に映ったとき、反射面22上の鏡像24において、鏡像中心点35から遠い部分では、現実の直線は曲線として映る。直線が曲面で反射される場合には、視点位置から反射面22に映った当該直線の両端に向かう経路の間の角度差は、反射面22の曲率半径に応じて、直線が平面鏡で反射された場合から変化する。例えば、曲面が凹面の場合は、曲率半径が小さいほど、直線が平面鏡で反射された場合よりも角度差が大きくなるように変化する。そして、反射面22に映った直線上の点が鏡像中心点から遠くなるほど、角度差が大きくなる度合いが大きくなるという非線形性があるので、直線が曲がって映る。
 現実の直線が曲面で反射された鏡像では曲線になる、その曲線の曲がりの程度に基づいて、反射面22の曲率半径を推定できる。図14のステップS54で決定された射影変換と、図14のステップS55で決定されたサイズ変更率とを適用した特徴点の位置は、反射面22が仮定した曲率半径の曲面であることによるゆがみを持つものである。実際の撮影画像内の全ての特徴点44aと、決定された射影変換及び決定されたサイズ変更率を適用した後の仮想撮影画像内の対応する特徴点45aの位置との差は、反射面22が曲面であるときの仮定した曲率半径と実際の曲率半径との差に応じて、かつ、実際の撮影画像又は仮想撮影画像内の鏡像中心点35から特徴点の位置までの距離に応じて決まる。従って、実際の撮影画像内の特徴点44aの位置及び仮想撮影画像内での対応する特徴点45aの位置の差と、実際の撮影画像又は仮想撮影画像内の鏡像中心点35から特徴点44a又は特徴点45aの位置までの距離とに基づいて、反射面22の曲率半径を推定することができる。撮影画像又は仮想撮影画像での鏡像中心点35と特徴点の間の画像上での距離と、その距離における特徴点の位置の差(ズレ)との比に基づいて、曲率半径が計算される。実際の撮影画像又は仮想撮影画像上での鏡像中心点35からの距離及び特徴点の位置の差は、その距離又は位置の差に入る画素の個数、及び、カメラの視点位置からの直線がなす角度差などにより表現される。複数の特徴点で求まる複数の曲率半径を重み付け平均するなどして、次回の繰り返し計算で使用する曲率半径を得るための修正量を計算してもよい。
 図14のステップS58において、反射面位置計算部14Bは、決定された射影変換に基づいて、仮想反射面の向きを変更する。ステップS59において、反射面位置計算部14Bは、決定されたサイズ変更率に基づいて、カメラ1から仮想反射面への距離を変更する。ステップS60において、反射面位置計算部14Bは、決定された曲率半径に基づいて、仮想反射面の曲率半径を変更する。
 実際の撮影画像内の特徴点の位置と仮想撮影画像内の対応する特徴点の位置との差が、しきい値未満になるまで、反射面位置計算部14BはステップS52からS60を繰り返す。反射面位置計算部14Bは、反復的な計算により、反射面22の位置、向き、及び曲率半径を取得する。
 図13のステップS43において、目標物体位置決定部15は、撮影画像内の分割鏡21の非反射部分に基づいて、反射面22のエッジ23の位置を決定することにより、目標物体である分割鏡21の位置を決定する。
 反射面22の曲率半径は、異なる方向で異なる値を持つように決定されてもよい。反射面22は、反射面22内の位置に応じて予め決められた式に従って曲率半径が変化するようにモデル化されてもよい。反射面22を、放物面及び双曲面などの数式で表現し、数式で使用されるパラメータを変化させるようにしてもよい。
 このように、処理装置4Bは、仮想反射面に仮想的に映ったカメラ1及びマーカー物体2を仮想的に撮影して得られる仮想撮影画像に基づいて、分割鏡21の3次元空間における位置を決定する。これにより、特別な光源及び広ダイナミックレンジのカメラを用いることなく、反射面を有する目標物体の3次元空間における位置を決定することができる。
 実施の形態4.
 本発明の実施の形態4では、方向に応じて異なる曲率半径を有する、既知の形状の反射面の位置及び姿勢を決定する。
 図16は、本発明の実施の形態4に係る位置測定装置の構成を示すブロック図である。分割鏡21Cの反射面22Cは、カメラ1から見て、凹面の球面と凹面の円筒面との組合せで近似できると仮定する。分割鏡21Cの反射面22Cにおいて、円筒面の凹み量が最大になり、かつ一定になる方向では、曲率半径が最大すなわち曲率が最小となる方向になる。したがって、円筒面の凹み量が一定になる方向を、最小曲率方向と呼ぶ。例えば、図16の表示装置5に示す反射面22Cにおいて、右上の角から左下の角への対角線の方向を、反射面22Cの最小曲率方向とする。反射面22Cの姿勢は、最小曲率方向がどの方向を向いているかという情報も含む。
 図16の位置測定装置は、図1の処理装置4に代えて、処理装置4Cを備える。処理装置4Cは、特徴点抽出部11及び位置測定部12Cを備える。処理装置4Cの特徴点抽出部11は、図1の処理装置4の特徴点抽出部11と同様に動作する。位置測定部12Cは、反射面位置計算部14C及び目標物体位置決定部15Cを備える。反射面位置計算部14Cは、モデルデータとして予め記憶された反射面22Cの形状と、特徴点データとして予め記憶された特徴点の位置とに基づいて、カメラ1及びマーカー物体2を仮想的に写す仮想反射面の位置及び姿勢を計算することにより、反射面22Cの位置及び姿勢を計算する。反射面位置計算部14Cは、仮想反射面に仮想的に映ったカメラ1及びマーカー物体2を、カメラ1により実際の撮影画像を取得したときと同じ撮影条件で仮想的に撮影して得られる仮想撮影画像に含まれる複数の特徴点の位置を計算し、仮想撮影画像に含まれる複数の特徴点の位置が実際の撮影画像内の対応する複数の特徴点の位置にそれぞれ近接するように、仮想反射面の位置及び姿勢を計算する。目標物体位置決定部15Cは、モデルデータとして予め記憶された反射面及び非反射部分の位置関係と、反射面位置計算部14Cにより計算された反射面22Cの位置及び姿勢とに基づいて、反射面22Cの最小曲率方向を決定し、さらに、分割鏡21の位置を決定する。
 反射面位置計算部14Cは、仮想撮影画像内の特徴点の位置と実際の撮影画像内の対応する特徴点の位置との差を小さくするように、仮想反射面の位置及び姿勢を変更することによって計算する。反射面位置計算部14Cは、射影変換部16及びサイズ変更部17を備える。反射面位置計算部14Cの射影変換部16及びサイズ変更部17は、図1の鏡像体位置計算部13の射影変換部16及びサイズ変更部17と同様に動作する。反射面位置計算部14Cは、射影変換部16によって決定された射影変換と、サイズ変更部17によって決定されたサイズ変更率とに基づいて、仮想反射面の位置及び姿勢を変更する。
 図17は、本発明の実施の形態4に係る位置測定装置によって実行される位置測定処理を説明するフローチャートである。図17の位置測定処理は、目標物体の位置を測定するために、図16の処理装置4Cによって実行される。
 図17のステップS61において、特徴点抽出部11は、カメラ1により撮影された実際の撮影画像から特徴点を抽出し、抽出した特徴点に関する情報を位置測定部12Cに送る。ステップS62において、反射面位置計算部14Cは、仮想反射面の位置、姿勢、及び最小曲率方向の初期値を決定する。ステップS63において、反射面位置計算部14Cは、仮想反射面の位置、姿勢、及び最小曲率方向に基づき、仮想反射面にマーカー物体2が映る仮想撮影画像内の特徴点の位置を計算する。ステップS64において、反射面位置計算部14Cは、撮影画像内の特徴点の位置と仮想撮影画像内の対応する特徴点の位置との差は、しきい値未満であるか否かを判断する。特徴点の位置の差がしきい値未満の場合、すなわちステップS64がYESの場合は、処理を終了する。
 特徴点の位置の差がしきい値以上の場合、すなわちステップS64がNOの場合は、ステップS65に進む。ステップS65において、反射面位置計算部14Cは、射影変換部16を用いて、撮影画像内の特徴点の位置又は仮想撮影画像内の特徴点の位置に適用する射影変換であって、仮想撮影画像内の特徴点によって形成される図形と実際の撮影画像内の対応する特徴点によって形成される図形とが互いに相似に近づくような射影変換を決定する。ステップS66において、決定された射影変換を実際の撮影画像内の特徴点の位置又は仮想撮影画像内の特徴点の位置に適用する。ステップS67において、反射面位置計算部14Cは、サイズ変更部17を用いて、仮想撮影画像内の特徴点又は実際の撮影画像内の特徴点によって形成される図形に適用するサイズ変更率であって、仮想撮影画像内の特徴点の位置と実際の撮影画像内の対応する特徴点の位置との差を最小化するようなサイズ変更率を決定する。ステップS68において、反射面位置計算部14Cは、決定された射影変換に基づいて、仮想反射面の姿勢を変更する。ステップS69において、反射面位置計算部14Cは、決定されたサイズ変更率に基づいて、カメラ1から仮想反射面への距離を変更する。ステップS70において、目標物体位置決定部15Cは、撮影画像内の分割鏡21の非反射部分に基づいて、分割鏡21の位置及び最小曲率方向を決定する。
 実際の撮影画像内の特徴点の位置と仮想撮影画像内の対応する特徴点の位置との差が、しきい値未満になるまで、反射面位置計算部14C及び目標物体位置決定部15CはステップS63からS70を繰り返す。反射面位置計算部14C及び目標物体位置決定部15Cは、反復的な計算により、反射面22Cの位置、姿勢、及び最小曲率方向を取得する。
 このように、処理装置4Cは、仮想反射面に仮想的に映ったカメラ1及びマーカー物体2を仮想的に撮影して得られる仮想撮影画像に基づいて、分割鏡21Cの3次元空間における位置を決定する。これにより、特別な光源及び広ダイナミックレンジのカメラを用いることなく、反射面を有する目標物体の3次元空間における位置を決定することができる。
 実施の形態5.
 実施の形態1に係る位置測定装置では、特徴点データとして予め記憶された特徴点間の位置関係は、実際の特徴点間の位置関係に対して鏡像関係(反転した位置関係)になっていた。一方、実施の形態5では、実際の特徴点間の位置関係と同じものを特徴点データとして用いる。
 図18は、本発明の実施の形態5に係る位置測定装置の構成を示すブロック図である。図18の位置測定装置は、図1の処理装置4に代えて、処理装置4Dを備える。処理装置4Dは、図1の特徴点抽出部11及び位置測定部12に加えて、画像反転部19を備える。画像反転部19は、カメラ1により撮影された画像の左右を反転した反転画像6Dを、撮影画像として特徴点抽出部11に送る。図18の表示装置5に示すように、反転画像6Dには、分割鏡21の反射面22及びエッジ23の左右が反転した画像と、分割鏡21の反射面22に映ったカメラ1及びマーカー物体2の左右が反転した鏡像24D(すなわち、実際と同じ位置関係のカメラ1及びマーカー物体2の像)とが含まれる。記憶装置3(第3の記憶部)は、実際の特徴点間の位置関係と同じもの(非反転の位置関係を有する特徴点)を特徴点データとして予め記憶する。その他の点では、実施の形態5は、実施の形態1と同様である。
 処理装置4Dは、図4及び図5の位置測定処理を実行する。図18の位置測定部12は、図1の位置測定部12と同様に、鏡像体に含まれる複数の特徴点の位置を計算し、鏡像体の特徴点の位置に基づいて反射面22の位置及び向きを計算することができる。鏡像体位置計算部13は、反転画像である撮影画像と、非反転の位置関係を有する特徴点データとに基づいて、鏡像体に含まれる特徴点の位置を計算する。反射面位置計算部14及び目標物体位置決定部15は、反射面22の位置及び向きを計算し、分割鏡21の位置を決定する。
 実施の形態5の画像反転部19及び特徴点データ(実際の特徴点間の位置関係と同じもの)は、実施の形態2から4にも適用可能である。
実施の形態6.
 図19は、本発明の実施の形態6に係る位置測定装置の構成を示すブロック図である。図19の位置測定装置は、図1の位置測定装置の構成に加えて、カメラ1(及びマーカー物体2)を移動させる駆動装置61をさらに備える。また、図19の位置測定装置は、図1の処理装置4に代えて、処理装置4Eを備える。処理装置4Eは、実施の形態1から5のうちの1つの処理装置の構成を備えたことに加えて、駆動装置61及びカメラ1の撮影方向を制御するカメラ制御部71をさらに備える。駆動装置61とカメラ制御部71は、カメラ1の視点位置及び撮影方向のいずれか少なくとも一つが異なるようにカメラ1を移動させるカメラ駆動装置を構成する。
 分割鏡21のサイズがカメラ1の視野よりも大きい場合に対処するために、図19に示すように、駆動装置61によりカメラ1を移動して視野を広げてもよい。この場合、カメラ1が移動しても一貫した座標系を用いることができるように、座標の原点は、移動するカメラ1の位置ではなく、駆動装置61の位置又は他の固定位置に設けて、カメラ1の位置を駆動装置61に対して予め校正しておく。
 処理装置4Eは、視点位置及び撮影方向の少なくとも一つが異なる複数組の撮影条件のうちの少なくとも2組の撮影条件で分割鏡21を撮影して複数の撮影画像を取得する。例えば、処理装置4Eは、駆動装置61によりカメラ1を移動させて、複数の位置で(すなわち複数組の撮影条件で)分割鏡21を撮影して複数の撮影画像を取得する。処理装置4Eは、複数の撮影画像と、各撮影画像を撮影した時の撮像条件とを組み合わせて、記憶装置3(第1の記憶部)に記憶する。処理装置4Eの特徴点抽出部は、複数の撮影画像から複数の特徴点をそれぞれ抽出し、複数の撮影画像内の特徴点の位置を決定する。以下、1つの撮影画像から抽出された複数の特徴点の位置を含む集合を、特徴点集合と呼ぶ。処理装置4Eは、抽出された撮影画像内の特徴点の位置を、対応する撮影画像及び撮影条件と組み合わせて、記憶装置3(第1の記憶部)に記憶する。記憶装置3(第1の記憶部)は、撮影画像と、当該撮影画像を撮影したときの撮像条件と、当該撮影画像の特徴点集合とをそれぞれ含む、複数の撮影データセットを記憶する。撮影データセットは、他の情報を含んでもよい。処理装置4Eの位置測定部は、1つの撮影データセットについて、実施の形態1から実施の形態5の何れかの処理装置と同様に位置測定処理を実行し、分割鏡21の3次元空間における位置を決定してもよい。あるいは、処理装置4Eは、複数の撮影データセットを組み合わせて処理して位置測定処理を実行し、分割鏡21の3次元空間における位置を決定してもよい。こうすることで、カメラ1の視野よりも大きなサイズを有する分割鏡21の3次元空間における位置を測定することができる。
 例えば、処理装置4Eの位置測定部は、モデルデータと、特徴点データと、複数の撮影画像にそれぞれ対応する複数の特徴点集合と、複数の撮影画像にそれぞれ対応する複数の撮像条件とに基づいて、分割鏡21の位置を計算してもよい。
 処理装置4Eが鏡像体位置計算部を有する場合、鏡像体位置計算部は、撮影データセットのそれぞれについて、鏡像体を当該撮影条件で仮想的に撮影して得られる仮想撮影画像に含まれる複数の特徴点の位置が、当該撮影条件で撮影した実際の撮影画像内の対応する複数の特徴点の位置にそれぞれ近接するように、鏡像体に含まれる複数の特徴点の位置を計算してもよい。言い換えると、鏡像体位置計算部は、複数の撮影データセットにそれぞれ対応する複数の鏡像体を求める。次いで、処理装置4Eの反射面位置計算部は、視点位置及び特徴点データから決まるカメラ1及びマーカー物体2の特徴点の位置と、複数の撮影データセットにそれぞれ対応する複数の鏡像体に含まれる複数の特徴点の位置と、反射面22の曲率半径とに基づいて、反射面22の位置及び向きを計算してもよい。
 反射面位置計算部は、複数の撮影データセットにそれぞれ対応する複数の鏡像体の特徴点の位置を、撮影データセットごとに別個に処理しても、組み合わせて処理してもよい。組み合わせる場合には、組み合わせ方法は任意である。すべての撮影データセットに対応する各鏡像体の特徴点の位置を同時に処理しても、又は順番に処理してもよい。予め決められた個数(例えば2つなど)の撮影データセットごとに、各撮影データセットに対応する各鏡像体の特徴点の位置を同時に処理してもよい。反射面位置計算部は、撮影データセットごとに別個に処理して計算した反射面の位置及び向きと、複数の撮影データセットの組み合わせを処理して計算した反射面の位置及び向きとを、さらに組み合わせて処理してもよい。
 処理装置4Eの目標物体位置決定部は、複数の画像で撮影された分割鏡21の部分ごとに処理して、あるいは複数の画像で撮影された分割鏡21の複数の部分を同時に処理して、モデルデータに基づき、目標物体である分割鏡21の位置を決定してもよい。
 処理装置が仮想反射面を用いて反射面の位置及び向きを求める場合(鏡像体を求めない場合)でも、反射面位置計算部は、複数の撮影データセットに対応する仮想反射面を別個に処理しても、任意に組み合わせて処理してもよい。
 このように、反射面位置計算部は、複数の撮影データセットに対応して入力される入力データである、複数の鏡像体の特徴点の位置(実施の形態1)又は複数の特徴点集合(実施の形態2から実施の形態4)から、反射面22の位置及び向きを計算する。
 また、処理装置4Eの反射面位置計算部は、複数の撮影データセットにそれぞれ対応する複数の反射面22の位置及び向きを計算してもよい。次いで、処理装置4Eの目標物体位置決定部は、モデルデータとして予め記憶された反射面及び非反射部分の位置関係と、反射面位置計算部によって計算された複数の反射面22の位置及び向きの組み合わせに基づいて、分割鏡21の位置を決定してもよい。
 実施の形態6について説明したことは、他の実施の形態でも、異なる撮影条件で撮影された撮影画像を使用して目標物体の位置を求める場合に適用可能である。
 実施の形態7.
 図20は、本発明の実施の形態7に係る位置測定装置の構成を示すブロック図である。図20の位置測定装置は、図1の位置測定装置の構成に加えて、位置測定装置は例えば3つのカメラ1a,1b,1c及びマーカー物体2a,2b,2cと、各カメラ1a,1b,1cを支持する固定ジグ62とを備える。各カメラ1a,1b,1cは、反射面22のエッジ23上における異なる点が入る異なる領域をそれぞれ撮影する。また、図20の位置測定装置は、実施の形態6の処理装置4Eに代えて、処理装置4Fを備える。処理装置4Fは、処理装置4Eとほぼ同様であるが、カメラ1a,1b,1cの撮影方向を制御するカメラ制御部71Fを備える。位置測定装置は、複数のカメラの中のいずれか少なくとも一つのカメラを移動させる駆動装置を備えてもよい。移動できるカメラに関しては、カメラ制御部71Fが駆動装置も制御する。少なくとも一つのカメラの視点位置及び撮影方向は固定されていてもよい。カメラ1a,1b,1cとマーカー物体2a,2b,2cの位置関係は、カメラごとに異なってもよいし、同じものがあってもよい。
 実施の形態6のように、大きなサイズを有する分割鏡21の3次元空間における位置を測定するためにカメラ1を移動させる場合には、カメラの移動に時間を要するので、測定に時間がかかる。従って、図20に示すように、複数(例えば、3つ)のカメラ1a,1b,1c及びマーカー物体2a,2b,2cを用いることで、カメラを移動させなくても、分割鏡21の全体の3次元空間における位置を一度に測定することができる。各カメラ1a,1b,1cの位置は、基準となる世界座標系を設定し、世界座標系上で予め校正しておく。
 処理装置4Fは、各カメラ1a,1b,1cによって撮影された分割鏡21の各撮影画像から、反射面22のエッジ23の異なる区間を抽出し、撮影画像内でのエッジ上の画素の位置に基づき、各カメラ1a,1b,1cの何れかから反射面22のエッジ23の対応する区間上における少なくとも1つの点に向かう各直線を決定する。カメラ1a,1b,1cのそれぞれから、反射面22のエッジ23上の1つ以上の点の位置を測定する。例えば、位置測定装置が2つのカメラを備えている場合は、2台のカメラの合計で、反射面22のエッジ23の対応する区間上における少なくとも3つの点に向かう直線を決定する。分割鏡21の反射面22を含む面と各直線との各交点の位置を計算し、各交点を、反射面22のエッジ23上における各点として決定する。なお、近似平面の位置を決定する際に、各カメラ1a,1b,1cで撮影された撮影画像ごとに別個に処理してもよい。それに代わって、反射面22の全体として誤差が最小になるように、反射面モデルに基づいて、各カメラでの近似平面を決めるようにしてもよい。
 こうして得られた、分割鏡21上の少なくとも3点の位置を、分割鏡21の把持機構が処理しやすいように、分割鏡21の予め決められた基準位置と、分割鏡21の反射面22が向く方向(反射面方向)と、分割鏡21の把持部の反射面方向の周囲での位置などに変換する。以上により、特別な光源及び広ダイナミックレンジのカメラを用いることなく、分割鏡の3次元空間における位置を決定することができる。また、カメラ1a,1b,1cによる1度の撮影で得られた画像に基づいて分割鏡21の3次元空間における位置を決定することができ、計算時間を短縮することができる。
 処理装置4Fは、カメラ1a,1b,1cのうちの1つのみによって撮影された分割鏡21の撮影画像から、分割鏡21の反射面22に映ったカメラ及びマーカー物体の鏡像24に含まれる複数の特徴点を抽出する。処理装置4Fは、抽出された各特徴点の位置と、記憶装置3に記憶された対応する各特徴点の位置とを結ぶ線分を、反射面の曲率半径から決まる分割比率で二分割する各点の位置を計算し、二分割する各点を分割鏡21の反射面上の点として決定する。処理装置4Fは、抽出された各特徴点と記憶装置3に記憶された対応する各特徴点とを結ぶ線分を二分割する各点に平面又は曲面の方程式を当てはめて、分割鏡21の反射面22を含む面を決定する。処理装置4Fは、各カメラ1a,1b,1cによって撮影された撮影画像から反射面22のエッジ23を抽出し、各カメラ1a,1b,1cから反射面22のエッジ23上における複数の点に向かう各直線を決定し、分割鏡21の反射面を含む面と各直線との各交点の位置を計算し、各交点を反射面22のエッジ23上における各点として決定する。
 処理装置4Fは、カメラ1a,1b,1cによって撮影された画像を用いて、実施の形態1の処理装置4と同様に分割鏡21の3次元空間における位置を決定する処理を実行することで、各カメラの視野よりも大きなサイズを有する分割鏡21の3次元空間における位置を高速に測定することができる。
 実施の形態7によれば、カメラの数を2個以上にして、各カメラで撮影できる範囲内の反射面22のエッジ23上に1個以上の点の位置を決め、3点以上で目標物体の位置を求めることができる。実施の形態7によれば、目標物体の形状モデルを、測定された目標物体の位置との誤差の総和が最小になるように、目標物体の形状モデルを配置することができる。
 変形例.
 処理装置4から4Fにより分割鏡の3次元空間における位置を決定する処理は、専用のハードウェア装置によって実行されても、汎用プロセッサ上で動作するソフトウェアによって実行されてもよい。処理装置のプロセッサは、例えば、カメラ1の視点位置及び撮影方向を含む撮影条件を第1の記憶部に記憶するステップと、反射面を有する分割鏡21の形状を含むモデルデータを第2の記憶部に記憶するステップと、複数の特徴点を有するマーカー物体をカメラ1に対して予め決められた位置に配置するステップと、視点位置及び特徴点の間の互いの位置関係を表す特徴点データを第3の記憶部に記憶するステップと、特徴点のうちの複数個が映っている反射面22の少なくとも一部を含む撮影画像をカメラ1により取得するステップと、撮影画像から複数の特徴点を抽出し、撮影画像内の特徴点の位置を決定するステップと、撮影条件と、モデルデータと、特徴点データと、撮影画像内の特徴点の位置とに基づいて、分割鏡21の位置を計算するステップとを実行する。
 上記実施の形態は、いずれも本発明の趣旨の範囲内で各種の変形が可能である。上記実施の形態は本発明を説明するためのものであり、本発明の範囲を限定することを意図したものではない。本発明の範囲は実施形態よりも添付した請求項によって示される。請求項の範囲内、および発明の請求項と均等の範囲でなされた各種変形は本発明の範囲に含まれる。
 1,1a,1b,1c カメラ、1M 仮想カメラ、2,2a,2b,2c マーカー物体、2M 仮想マーカー物体、3 記憶装置、4,4A,4B,4C,4D,4E,4F 処理装置、5 表示装置、6,6D 画像、11 特徴点抽出部、12,12A,12B,12C 位置測定部、13 鏡像体位置計算部、14,14A,14B,14C 反射面位置計算部、15, 目標物体位置決定部、16 射影変換部、17 サイズ変更部、18 曲率計算部、19 画像反転部、21,12C 分割鏡、22,22C 反射面、23 エッジ、24,24D 鏡像、61 駆動装置、62 固定ジグ、71,71F カメラ制御部。

Claims (16)

  1.  反射面を有する目標物体を撮影することにより前記反射面の少なくとも一部が入った撮影画像を取得するカメラと、
     前記カメラの視点位置及び撮影方向を含む撮影条件を記憶する第1の記憶部と、
     前記目標物体の形状を含むモデルデータを記憶する第2の記憶部と、
     複数の特徴点を有し、前記カメラに対して予め決められた位置に固定されたマーカー物体と、
     前記視点位置及び前記特徴点の間の互いの位置関係を表す特徴点データを記憶する第3の記憶部と、
     前記特徴点のうちの複数個が前記反射面内に映った状態で前記カメラにより取得された撮影画像から複数の前記特徴点を抽出し、前記撮影画像内の前記特徴点の位置を決定する特徴点抽出部と、
     前記撮影条件と、前記モデルデータと、前記特徴点データと、前記撮影画像内の前記特徴点の位置とに基づいて、前記目標物体の位置を計算する位置測定部とを備えた位置測定装置。
  2.  前記目標物体は、前記反射面及び非反射部分を有し、
     前記モデルデータは、前記反射面の曲率半径を含む前記反射面の形状と、前記反射面及び前記非反射部分の位置関係とを含み、
     前記位置測定部は、
     前記特徴点データに基づいて、前記反射面に対して前記マーカー物体とは反対側に仮想的に存在する前記マーカー物体の鏡像体に含まれる複数の前記特徴点の位置を計算する鏡像体位置計算部であって、前記鏡像体を前記撮影条件で仮想的に撮影して得られる仮想撮影画像に含まれる複数の前記特徴点の位置が前記撮影画像内の対応する複数の前記特徴点の位置にそれぞれ近接するように、前記鏡像体に含まれる複数の前記特徴点の位置を計算する鏡像体位置計算部と、
     前記視点位置及び前記特徴点データから決まる前記マーカー物体の前記特徴点の位置と、計算された前記鏡像体の前記特徴点の位置と、前記反射面の曲率半径とに基づいて、前記反射面の位置及び向きを計算する反射面位置計算部と、
     前記反射面及び前記非反射部分の位置関係と、前記計算された反射面の位置及び向きとに基づいて、前記目標物体の位置を決定する目標物体位置決定部とを備えることを特徴とする請求項1に記載の位置測定装置。
  3.  前記鏡像体位置計算部は、前記仮想撮影画像内の前記特徴点の位置と前記撮影画像内の対応する前記特徴点の位置との差を小さくするように、前記鏡像体に含まれる複数の前記特徴点の位置を計算する請求項2に記載の位置測定装置。
  4.  前記鏡像体位置計算部は、
     前記撮影画像内の前記特徴点の位置又は前記仮想撮影画像内の前記特徴点の位置に適用される射影変換であって、前記仮想撮影画像内の前記特徴点によって形成される図形と前記撮影画像内の対応する前記特徴点によって形成される図形とが互いに相似に近づくような射影変換を決定する射影変換部と、
     前記撮影画像内の前記特徴点の位置又は前記仮想撮影画像内の前記特徴点の位置に決定された前記射影変換を適用した後に、前記仮想撮影画像内の前記特徴点によって形成される図形又は前記撮影画像内の対応する前記特徴点によって形成される図形に適用されるサイズ変更率であって、前記仮想撮影画像内の前記特徴点の位置と前記撮影画像内の対応する前記特徴点の位置との差を小さくするようなサイズ変更率を決定するサイズ変更部とを備え、
     前記鏡像体位置計算部は、決定された前記射影変換及び決定された前記サイズ変更率に基づいて、前記鏡像体に含まれる複数の前記特徴点の位置を計算する請求項3に記載の位置測定装置。
  5.  前記モデルデータは、前記反射面の形状を表す反射面モデルを含み、
     前記反射面位置計算部は、前記視点位置を通りかつ前記反射面に直交する直線と前記反射面との交点の近傍において前記反射面を近似する近似平面の位置及び向きを決定し、前記交点において前記近似平面と接するように前記反射面モデルの位置及び向きを決定することにより、前記反射面の位置及び向きを決定する請求項2から請求項4までのうちの1つに記載の位置測定装置。
  6.  前記目標物体は、前記反射面及び非反射部分を有し、
     前記モデルデータは、前記反射面の形状と、前記反射面及び前記非反射部分の位置関係とを含み、
     前記位置測定部は、
     前記反射面の形状と、前記特徴点データとに基づいて、前記反射面の位置及び向きを計算する反射面位置計算部であって、仮想的に決定された位置及び向きを有する前記反射面に仮想的に映った前記特徴点を前記撮影条件で仮想的に撮影して得られる仮想撮影画像に含まれる複数の前記特徴点の位置を計算し、前記仮想撮影画像に含まれる複数の前記特徴点の位置が前記撮影画像内の対応する複数の前記特徴点の位置にそれぞれ近接するように、前記反射面の位置及び向きを計算する反射面位置計算部と、
     前記反射面及び前記非反射部分の位置関係と、前記計算された反射面の位置及び向きとに基づいて、前記目標物体の位置を決定する目標物体位置決定部とを備える請求項1に記載の位置測定装置。
  7.  前記反射面位置計算部は、前記仮想撮影画像内の前記特徴点の位置と前記撮影画像内の対応する前記特徴点の位置との差を小さくするように、前記反射面の位置及び向きを計算する請求項6に記載の位置測定装置。
  8.  前記反射面位置計算部は、
     前記撮影画像内の前記特徴点の位置又は前記仮想撮影画像内の前記特徴点の位置に適用される射影変換であって、前記仮想撮影画像内の前記特徴点によって形成される図形と前記撮影画像内の対応する前記特徴点によって形成される図形とが互いに相似に近づくような射影変換を決定する射影変換部と、
     前記撮影画像内の前記特徴点の位置又は前記仮想撮影画像内の前記特徴点の位置に決定された前記射影変換を適用した後に、前記仮想撮影画像内の前記特徴点によって形成される図形又は前記撮影画像内の対応する前記特徴点によって形成される図形に適用されるサイズ変更率であって、前記仮想撮影画像内の前記特徴点の位置と前記撮影画像内の対応する前記特徴点の位置との差を小さくするようなサイズ変更率を決定するサイズ変更部とを備え、
     前記反射面位置計算部は、前記決定された射影変換及び前記決定されたサイズ変更率に基づいて、前記反射面の位置及び向きを計算する請求項7に記載の位置測定装置。
  9.  前記反射面位置計算部は、前記撮影画像内の前記特徴点の位置と前記仮想撮影画像内の対応する前記特徴点の位置との差に基づいて、かつ、前記視点位置を通りかつ前記反射面に直交する直線と前記反射面との交点に対応する前記撮影画像内又は前記仮想撮影画像内の点から前記撮影画像内の前記特徴点又は前記仮想撮影画像内の前記特徴点までの距離に基づいて、前記反射面の曲率半径を推定する曲率計算部を備える請求項7又は請求項8に記載の位置測定装置。
  10.  前記特徴点抽出部は、前記視点位置及び前記撮影方向の少なくとも一つが異なる複数組の前記撮影条件でそれぞれ撮影された複数の撮影画像のそれぞれから複数の前記特徴点を抽出し、前記撮影画像内の前記特徴点の位置を決定し、
     前記位置測定部は、複数組の前記撮影条件と、前記モデルデータと、前記特徴点データと、複数の前記撮影画像にそれぞれ対応する複数の特徴点集合であって、前記各特徴点集合が複数の前記撮影画像のうちの1つの撮影画像内の複数の前記特徴点の位置を含む複数の特徴点集合とに基づいて、前記目標物体の位置を計算する請求項1に記載の位置測定装置。
  11.  異なる位置にそれぞれ設置された複数の前記カメラを備える請求項10に記載の位置測定装置。
  12.  前記視点位置及び前記撮影方向の少なくとも一つが異なるように前記カメラを移動させるカメラ駆動装置を備える請求項10に記載の位置測定装置。
  13.  前記特徴点抽出部は、前記視点位置及び前記撮影方向の少なくとも一つが異なる複数組の前記撮影条件でそれぞれ撮影された複数の撮影画像のそれぞれから複数の前記特徴点を抽出し、前記撮影画像内の前記特徴点の位置を決定し、
     前記鏡像体位置計算部は、複数組の前記撮影条件と前記撮影画像内の複数の前記特徴点との組のそれぞれに対して、複数の前記鏡像体に含まれる前記特徴点の位置を計算し、
     前記反射面位置計算部は、複数の前記鏡像体に含まれる前記特徴点の位置を組み合わせて処理して、前記反射面の位置及び向きを計算する請求項2に記載の位置測定装置。
  14.  前記特徴点抽出部は、前記視点位置及び前記撮影方向の少なくとも一つが異なる複数組の前記撮影条件でそれぞれ撮影された複数の撮影画像のそれぞれから複数の前記特徴点を抽出し、前記撮影画像内の前記特徴点の位置を決定し、
     前記反射面位置計算部は、複数組の前記撮影条件と前記撮影画像内の複数の前記特徴点との組を組み合わせて処理して、前記反射面の位置及び向きを計算する請求項6に記載の位置測定装置。
  15.  前記特徴点抽出部は、前記視点位置及び前記撮影方向の少なくとも一つが異なる複数組の前記撮影条件でそれぞれ撮影された複数の撮影画像のそれぞれから複数の前記特徴点を抽出し、前記撮影画像内の前記特徴点の位置を決定し、
     前記反射面位置計算部は、複数の前記撮影画像にそれぞれ対応する複数の前記反射面の位置及び向きを計算し、
     前記目標物体位置決定部は、前記反射面及び前記非反射部分の位置関係と、計算された複数の前記反射面の位置及び向きの組み合わせとに基づいて、前記目標物体の位置を決定する請求項2又は請求項6に記載の位置測定装置。
  16.  目標物体の位置を決定する処理装置によって実行される位置測定方法であって、前記位置測定方法は、
     カメラの視点位置及び撮影方向を含む撮影条件を第1の記憶部に記憶するステップと、
     反射面を有する目標物体の形状を含むモデルデータを第2の記憶部に記憶するステップと、
     複数の特徴点を有するマーカー物体を前記カメラに対して予め決められた位置に配置するステップと、
     前記視点位置及び前記特徴点の間の互いの位置関係を表す特徴点データを第3の記憶部に記憶するステップと、
     前記特徴点のうちの複数個が映っている前記反射面の少なくとも一部を含む撮影画像を前記カメラにより取得するステップと、
     前記撮影画像から複数の前記特徴点を抽出し、前記撮影画像内の前記特徴点の位置を決定するステップと、
     前記撮影条件と、前記モデルデータと、前記特徴点データと、前記撮影画像内の前記特徴点の位置とに基づいて、前記目標物体の位置を計算するステップとを含む位置測定方法。
PCT/JP2014/070233 2014-03-03 2014-07-31 位置測定装置及び位置測定方法 WO2015132981A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
EP14884656.1A EP3115741B1 (en) 2014-03-03 2014-07-31 Position measurement device and position measurement method
JP2016506069A JP6067175B2 (ja) 2014-03-03 2014-07-31 位置測定装置及び位置測定方法
US15/120,682 US10210628B2 (en) 2014-03-03 2014-07-31 Position measurement apparatus for measuring position of object having reflective surface in the three-dimensional space

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2014-040636 2014-03-03
JP2014040636 2014-03-03

Publications (1)

Publication Number Publication Date
WO2015132981A1 true WO2015132981A1 (ja) 2015-09-11

Family

ID=54054808

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2014/070233 WO2015132981A1 (ja) 2014-03-03 2014-07-31 位置測定装置及び位置測定方法

Country Status (5)

Country Link
US (1) US10210628B2 (ja)
EP (1) EP3115741B1 (ja)
JP (1) JP6067175B2 (ja)
CL (1) CL2016002201A1 (ja)
WO (1) WO2015132981A1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017073090A1 (ja) * 2015-10-27 2017-05-04 三菱電機株式会社 分割鏡式望遠鏡の鏡交換装置およびその鏡交換方法
WO2017056089A3 (en) * 2015-10-01 2017-07-27 Infinity Augmented Reality Israel Ltd. Method and a system for identifying reflective surfaces in a scene
JP2021524599A (ja) * 2018-05-25 2021-09-13 アイメトラム リミテッド モーションエンコーダ

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018100830A (ja) * 2016-12-19 2018-06-28 横河電機株式会社 光スペクトル測定装置
JP7143857B2 (ja) * 2017-10-24 2022-09-29 ソニーグループ株式会社 情報処理装置、情報処理方法、プログラム、及び、移動体
US10670390B2 (en) * 2017-11-13 2020-06-02 Faro Technologies, Inc. System and method for verifying projection accuracy
US10942045B1 (en) * 2018-04-03 2021-03-09 Waymo Llc Portable sensor calibration target for autonomous vehicle
US10960297B2 (en) * 2018-09-17 2021-03-30 Disney Enterprises, Inc. Systems and methods for tracking a physical object using a passive object having a reflective surface
US11080892B2 (en) * 2019-10-07 2021-08-03 The Boeing Company Computer-implemented methods and system for localizing an object
EP3886046A1 (en) 2020-03-26 2021-09-29 Sony Group Corporation Multi-view positioning using reflections
US11417020B2 (en) * 2020-04-07 2022-08-16 Zebra Technologies Corporation Detection of calibration errors
CN112767418B (zh) * 2021-01-21 2022-10-14 大连理工大学 基于深度感知的镜子图像分割方法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04148814A (ja) * 1990-10-12 1992-05-21 Toyota Central Res & Dev Lab Inc 非接触型測定装置
JP2010231780A (ja) * 2009-03-27 2010-10-14 Mitsubishi Electric Research Laboratories Inc 鏡面反射物体の3d姿勢を推定する方法

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6978167B2 (en) * 2002-07-01 2005-12-20 Claron Technology Inc. Video pose tracking system and method
ES2569411T3 (es) * 2006-05-19 2016-05-10 The Queen's Medical Center Sistema de seguimiento de movimiento para imágenes adaptativas en tiempo real y espectroscopia
JP2007322162A (ja) 2006-05-30 2007-12-13 3D Media Co Ltd 3次元形状測定装置及び3次元形状測定方法
US8265376B2 (en) * 2008-07-21 2012-09-11 Cognitens Ltd. Method and system for providing a digital model of an object
JP2010071782A (ja) 2008-09-18 2010-04-02 Omron Corp 3次元計測装置およびその方法
US8441532B2 (en) 2009-02-24 2013-05-14 Corning Incorporated Shape measurement of specular reflective surface
US8437537B2 (en) * 2009-03-27 2013-05-07 Mitsubishi Electric Research Laboratories, Inc. Method and system for estimating 3D pose of specular objects
JP5487920B2 (ja) 2009-12-03 2014-05-14 国立大学法人茨城大学 光学式3次元形状計測装置及び光学式3次元形状計測方法
GB201303712D0 (en) * 2013-03-01 2013-04-17 Geissler Michael P A Optical navigation & positioning system

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04148814A (ja) * 1990-10-12 1992-05-21 Toyota Central Res & Dev Lab Inc 非接触型測定装置
JP2010231780A (ja) * 2009-03-27 2010-10-14 Mitsubishi Electric Research Laboratories Inc 鏡面反射物体の3d姿勢を推定する方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP3115741A4 *

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017056089A3 (en) * 2015-10-01 2017-07-27 Infinity Augmented Reality Israel Ltd. Method and a system for identifying reflective surfaces in a scene
US10049303B2 (en) 2015-10-01 2018-08-14 Infinity Augmented Reality Israel Ltd. Method and a system for identifying reflective surfaces in a scene
US10395142B2 (en) 2015-10-01 2019-08-27 Infinity Augmented Reality Israel Ltd. Method and a system for identifying reflective surfaces in a scene
US10719740B2 (en) 2015-10-01 2020-07-21 Alibaba Technology (Israel) Ltd. Method and a system for identifying reflective surfaces in a scene
WO2017073090A1 (ja) * 2015-10-27 2017-05-04 三菱電機株式会社 分割鏡式望遠鏡の鏡交換装置およびその鏡交換方法
JPWO2017073090A1 (ja) * 2015-10-27 2018-04-12 三菱電機株式会社 分割鏡式望遠鏡の鏡交換装置およびその鏡交換方法
JP2021524599A (ja) * 2018-05-25 2021-09-13 アイメトラム リミテッド モーションエンコーダ
JP7344283B2 (ja) 2018-05-25 2023-09-13 アイメトラム リミテッド モーションエンコーダ
US11885650B2 (en) 2018-05-25 2024-01-30 Imetrum Ltd. Motion encoder

Also Published As

Publication number Publication date
US20170221224A1 (en) 2017-08-03
US10210628B2 (en) 2019-02-19
JP6067175B2 (ja) 2017-01-25
JPWO2015132981A1 (ja) 2017-04-06
EP3115741B1 (en) 2023-05-10
EP3115741A4 (en) 2017-08-16
CL2016002201A1 (es) 2016-12-23
EP3115741A1 (en) 2017-01-11

Similar Documents

Publication Publication Date Title
JP6067175B2 (ja) 位置測定装置及び位置測定方法
CN110809786B (zh) 校准装置、校准图表、图表图案生成装置和校准方法
JP6271953B2 (ja) 画像処理装置、画像処理方法
JP5132832B1 (ja) 計測装置および情報処理装置
JP6079333B2 (ja) 校正装置、方法及びプログラム
JP6324025B2 (ja) 情報処理装置、情報処理方法
JP6370038B2 (ja) 位置姿勢計測装置及び方法
JP6222898B2 (ja) 3次元計測装置及びロボット装置
JP6573419B1 (ja) 位置決め方法、ロボット及びコンピューター記憶媒体
CN107155341B (zh) 三维扫描系统和框架
JP6092530B2 (ja) 画像処理装置、画像処理方法
JP2014013146A5 (ja)
JP2011198349A (ja) 情報処理方法及びその装置
JP2009042162A (ja) キャリブレーション装置及びその方法
CN113841384B (zh) 校准装置,用于校准的图表和校准方法
CN107808398B (zh) 摄像头参数算出装置以及算出方法、程序、记录介质
JP2016100698A (ja) 校正装置、校正方法、プログラム
JP2017144498A (ja) 情報処理装置、情報処理装置の制御方法およびプログラム
JP2015031601A (ja) 3次元計測装置及び方法並びにプログラム
Legarda et al. A new method for Scheimpflug camera calibration
US10252417B2 (en) Information processing apparatus, method of controlling information processing apparatus, and storage medium
JP2011155412A (ja) 投影システムおよび投影システムにおける歪み修正方法
JP6486083B2 (ja) 情報処理装置、情報処理方法及びプログラム
Huiyang et al. Calibration of camera with small FOV and DOF telecentric lens
JP6890422B2 (ja) 情報処理装置、情報処理装置の制御方法およびプログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 14884656

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2016506069

Country of ref document: JP

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 15120682

Country of ref document: US

REEP Request for entry into the european phase

Ref document number: 2014884656

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 2014884656

Country of ref document: EP

NENP Non-entry into the national phase

Ref country code: DE