WO2023149515A1 - 立体物イメージスキャナ - Google Patents

立体物イメージスキャナ Download PDF

Info

Publication number
WO2023149515A1
WO2023149515A1 PCT/JP2023/003447 JP2023003447W WO2023149515A1 WO 2023149515 A1 WO2023149515 A1 WO 2023149515A1 JP 2023003447 W JP2023003447 W JP 2023003447W WO 2023149515 A1 WO2023149515 A1 WO 2023149515A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
subject
dimensional
dimension
scanner
Prior art date
Application number
PCT/JP2023/003447
Other languages
English (en)
French (fr)
Inventor
修一 一ノ瀬
武彦 佐藤
Original Assignee
アイメジャー株式会社
株式会社シン技術コンサル
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by アイメジャー株式会社, 株式会社シン技術コンサル filed Critical アイメジャー株式会社
Priority to JP2023578624A priority Critical patent/JPWO2023149515A1/ja
Publication of WO2023149515A1 publication Critical patent/WO2023149515A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/22Measuring arrangements characterised by the use of optical techniques for measuring depth
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B21/00Microscopes
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B21/00Microscopes
    • G02B21/24Base structure
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/698Control of cameras or camera modules for achieving an enlarged field of view, e.g. panoramic image capture

Definitions

  • the present invention relates to a three-dimensional object image scanner that optically scans the outer surface of a three-dimensional object and creates an external image of the object.
  • Patent Document 1 discloses a method of forming an orthographic projection image of a three-dimensional object.
  • a camera having a telecentric optical system relatively scans a three-dimensional object, selects a predetermined light beam from image light obtained in this scanning, and stores it as image information. This stored information is processed to extract image light that is within the depth of field of the optical system to form an orthographic image of the three-dimensional object.
  • Patent Document 2 discloses an image scanner for obtaining an orthographic projection image of a three-dimensional object.
  • the apparatus comprises a telecentric imaging system arranged between an image sensor and a target planar area located away from the image sensor in a viewing direction to image the target planar area onto the image sensor.
  • the target plane area is moved in the three-dimensional direction in the subject space in which the subject is placed, and the illumination light is adjusted so that the distribution range of the incident angle of the illumination light to the target plane area is constant at all points of the target plane area.
  • the target plane area is irradiated with the illumination light while regulating the direction.
  • the image data that is sequentially output from the image sensor is input, and the pixel data in which the subject is in focus is detected from the input image data.
  • the resulting pixel data are collected to synthesize an orthographic image of the subject.
  • An object of the present invention is to provide a three-dimensional object image scanner capable of creating an all-around image with little distortion suitable for observing the entire circumference of a three-dimensional object.
  • a three-dimensional object image scanner includes a rotary table capable of rotating a subject around a predetermined central axis, a telecentric lens system, and a scanner head that acquires an image of a subject space in front of the telecentric lens system.
  • a moving means for moving the scanner head relative to the object space; and a control device for controlling the rotary table, the scanner head, and the moving means and processing the image data of the object.
  • the control device is With the scanner head arranged so that the central axis is located in front of the telecentric lens system, a plurality of different rotation angles are sequentially output from the scanner head while rotating the subject about the central axis. Get the image data of detecting pixel data focused on the subject from among the plurality of image data, and integrating the detected pixel data to create a rectangular image representing the appearance of a portion of the subject to be photographed; The rectangular image is converted into an annular fan-shaped image based on the top, bottom, and height dimensions of the part of the object to be photographed.
  • the control device may allow the user to set the portion of the subject to be photographed, the top dimension, the bottom dimension, and the height dimension.
  • the dimension ratio of the outer arc dimension, the inner arc dimension, and the radial width dimension is equal to the dimension ratio of the upper surface dimension, the bottom dimension, and the height dimension. may be equally configured.
  • the control device may output the rectangular image and the annular sector image.
  • the rotary table may be movable along the imaging direction of the scanner head.
  • a three-dimensional object image scanner can create an all-around image with little distortion suitable for observing the entire circumference of a three-dimensional object.
  • FIG. 1 is an overall configuration of a three-dimensional object image scanner according to one embodiment of the present invention
  • 2 is a flowchart of scanning processing executed by the three-dimensional object image scanner of FIG. 1
  • FIG. 10 is a diagram showing a scan condition setting screen for scanning processing
  • FIG. 4 is an explanatory diagram of an operation of scanning an object with a scanner head in rotational scanning
  • FIG. 4 is an explanatory diagram of image processing in rotational scanning
  • annular fan-shaped image obtained by rotational scanning (a) orthographic projection image obtained by XY scanning the actual pottery by the three-dimensional object image scanner, (b) rectangular image (orthographic projection image) and (c) annular fan-shaped image obtained by rotational scanning.
  • FIG. 1 is a block diagram illustrating an example system and method for creating a texture-mapped three-dimensional view of an object using a volumetric image scanner
  • FIG. FIG. 4 is a diagram showing an example of the data structure of a rectangular image data set output from a three-dimensional object image scanner; It is a figure explaining the meaning of the example of the rectangular image data set shown to FIG. 8A.
  • FIG. 8B is a diagram showing three-dimensional cylindrical data implied by the example of the rectangular image data set shown in FIG. 8A;
  • FIG. 8 is a diagram showing a process flow performed by a 3DCG device in the system example shown in FIG. 7;
  • FIG. 1 shows the overall configuration of a three-dimensional object image scanner 1 according to one embodiment of the present invention.
  • a three-dimensional object image scanner 1 has a platform 2 installed on the floor.
  • an orthogonal three-dimensional coordinate system having X, Y, and Z axes as shown in FIG. 1 is defined for the convenience of describing three-dimensional positional relationships.
  • the Y-axis is the vertical direction (height direction)
  • the X-axis and the Z-axis are horizontal directions.
  • a columnar Z track 3 is laid on the platform 2 in parallel with the Z axis.
  • a rotary table 4 is mounted on the Z track 3 .
  • the rotary table 4 has a rotary drive section 4A and a table 4B.
  • the rotary drive unit 4A incorporates an electric self-propelled device (not shown) and can reciprocate in a direction parallel to the Z axis (horizontal direction) within the length of the Z track 3 .
  • the table 4B is fixed to a rotating shaft (not shown) of the rotary drive unit 4A, and is configured to rotate about the central axis 31 together with this rotating shaft.
  • a space in which the subject S is arranged above the table 4B is called a subject space A.
  • the subject S is a three-dimensional subject such as an earthenware vessel, a pot, or a vase, whose horizontal cross section is approximately circular.
  • a columnar X track 5 is laid on the platform 2 in parallel with the X axis.
  • a columnar Y track 6 is mounted on the X track 5 in parallel with the Y axis.
  • a columnar carriage 7 is attached to the Y track 6 in parallel with the Z axis.
  • the Y track 6 incorporates an electric self-propelled device (not shown) and can reciprocate in the direction parallel to the X axis (depth direction) within the length of the X track 5 .
  • the carriage 7 also incorporates an electric self-propelled device (not shown) so that it can reciprocate in the direction parallel to the Y-axis (height direction) within the length of the Y-track 6. It can also reciprocate in a direction (horizontal direction) parallel to the Z-axis within the range of length. As a result, the carriage 7 can move three-dimensionally along the X, Y and Z axes.
  • the scanner head 8 is an optical device for three-dimensionally scanning the subject S placed in the subject space A, and includes a telecentric imaging unit, a variable diaphragm unit, and an image sensor unit arranged in parallel with the Z axis. and The scanner head 8 can capture visible light images and infrared light images.
  • the image sensor unit incorporates a linear (linear) linear image sensor arranged parallel to the Y axis.
  • a linear image sensor has a photoelectric conversion element array with, for example, 3,000 or more pixels arranged in a straight line parallel to the Y-axis at a pitch of, for example, 8 ⁇ m, and converts analog voltage signals output from the photoelectric conversion element array into digital pixel data. and an A/D conversion device.
  • the telecentric imaging unit incorporates a telecentric lens system and is arranged facing the positive direction of the Z axis (imaging direction) so that its optical axis is parallel to the Z axis.
  • a telecentric imaging unit has a linear (i.e., linear) region (hereinafter referred to as a An image of a subject area R) is formed on the linear image sensor in the image sensor unit. That is, the scanner head 8 is in a state in which the subject area R is focused.
  • the object area R is, in detail, an area defined by the length of the objective lens in the Y-axis direction, the working distance, and the depth of field. In this embodiment, the scanner head 8 has a working distance of 288 mm and a depth of field of 10 mm.
  • variable aperture unit is placed inside the telecentric imaging unit and incorporates an aperture stop with a variable opening (hereinafter referred to as variable aperture).
  • a variable aperture unit is used for adjusting the amount of light input to the linear image sensor and for adjusting the depth of field.
  • the above-described scanner head 8 moves three-dimensionally in the X-axis, Y-axis, and Z-axis directions as the carriage 7 moves, and the subject area R moves along with it.
  • the telecentric lens system as an imaging optical system, an orthographic projection image of the subject S can be obtained.
  • the three-dimensional object image scanner 1 has an XY scanning function and a rotation scanning function.
  • the XY scanning function is a function of obtaining a planar image of the subject S on the XY plane by moving the scanner head 8 along the XY plane while the subject S is not rotated by the rotary table 4 .
  • the rotary scan function is a function of rotating the object S by the rotary table 4 and moving the scanner head 8 along the YZ plane to obtain a rectangular image and an annular fan-shaped image (expanded image) of the entire outer peripheral surface of the object S.
  • a control device 9 containing a computer, a power supply circuit, and other electric/electronic circuits is installed on the platform 2 .
  • the control device 9 connects signal cables and power cables to the rotation drive unit 4A, the X track 5, the Y track 6, the electric self-propelled device in the carriage 7, the linear image sensor in the scanner head 8, the illumination device (not shown), and the like. are electrically connected via
  • the control device 9 has a function of rotating the table 4B by driving and controlling the rotation drive section 4A.
  • the control device 9 controls the three-dimensional movement and position of the carriage 7 by driving and controlling the X-track 5, the Y-track 6, and the electric self-propelled device in the carriage 7 (which in turn controls the movement of the object by the scanner head 8). control the scanning of S).
  • control device 9 inputs image data sequentially output from the linear image sensor in the scanner head 8, and processes the image data to It has a function of synthesizing an orthographic projection image of a subject (a rectangular image and an annular fan-shaped image (expanded image)).
  • the three-dimensional object image scanner 1 includes an input device including a keyboard, a mouse, etc. operated by a user to perform scanning processing, which will be described later, an output device including a display for displaying data, and inputting/outputting data to and from these devices. and an external output terminal (not shown) for
  • the control device 9 has the above-described external output terminal 60, and the external output terminal 60 is connected to a terminal 61 such as a personal computer used by the user.
  • the terminal 61 may execute a computer program for using the three-dimensional object image scanner 1 and function as the above-described input device and output device. In that case, the control device 9 receives input of information for performing scanning processing from the terminal 61 and outputs the result of the scanning processing to the terminal 61 .
  • the movable distance (stroke) of the scanner head 8 is, for example, 520 mm in the X-axis direction, 750 mm in the Y-axis direction, and 260 mm in the Z-axis direction. Therefore, the effective capturing range in XY scanning is X: 520*Y: 750*Z: 260 [mm]. That is, in XY scanning, the maximum size of the subject S whose entire image can be scanned is 520 mm in diameter and 750 mm in height.
  • the movable distance (stroke) of the rotary table 4 in the Z-axis direction is 100 mm. Therefore, the effective capture range in rotational scanning is ⁇ : 700 x Y: 750 x Z: 260 [mm]. That is, in rotational scanning, the maximum diameter of the subject S whose entire image can be scanned is 700 mm. Since the turntable 4 can be moved in the Z-axis direction in this manner, it is possible to photograph a subject S having a larger diameter.
  • the rotation direction of the rotary table 4 (that is, the rotation direction of the subject S) may be a specific one direction.
  • the specific one direction is, for example, clockwise when viewed from above, as indicated by an arrow 62 in FIG.
  • Rotating the object S clockwise means that the scanner head 8 scans the surface of the object S from left to right. This is convenient for creating an orthographic image of subject S using a common image format. This is also convenient when performing texture mapping of a three-dimensional model of the subject S using an orthographic projection image of the subject S, as will be described later.
  • FIG. 1 the scanning process executed by the three-dimensional object image scanner 1 will be described with reference to FIGS. 2 to 5.
  • FIG. 1 is a diagrammatic representation of the three-dimensional object image scanner 1
  • FIG. 2 is a flowchart of scanning processing executed by the three-dimensional object image scanner 1 including the terminal 61.
  • FIG. FIG. 3 is a diagram showing a scanning condition setting screen 10 for scanning processing displayed on the display screen of the terminal 61. As shown in FIG.
  • a preview image of the subject S placed on the table 4B is obtained (step 100).
  • the acquisition of the preview image is executed by the user clicking the preview button 11 on the scan condition setting screen 10 (FIG. 3) displayed on the output means (not shown).
  • the scan condition setting screen 10 has a preview button 11, a scan button 12, a scan setting section 20, a visible light image display section 30, and an infrared light image display section 40.
  • the control device 9 executes XY scanning, and displays the visible light image S1 and the infrared light image S2 of the subject S on the visible light image display section 30 and the infrared light image display section 40. indicate.
  • the table 4B is also displayed on the visible light image display section 30 and the infrared light image display section 40 (step 102).
  • the user selects the start position 21, the capture height 22, the bottom position 23, the pottery height 24, the ⁇ bottom 25, the ⁇ top 26, and the Z-axis range. 27.
  • the start position 21 is the height (Y-axis) position at which image capture is started.
  • the capture height 22 is the height (distance in the Y-axis direction) from the height position at which image capture starts to the height position at which image capture ends.
  • the bottom surface position 23 is the height position of the bottom surface of the earthenware (subject S).
  • the earthenware height 24 is the height (distance in the Y-axis direction) from the bottom surface to the upper surface of the earthenware (subject S).
  • the ⁇ bottom surface 25 is the diameter of the bottom surface of the earthenware (subject S).
  • the ⁇ upper surface 26 is the diameter of the upper surface of the earthenware (subject S).
  • the Z-axis range 27 is the displacement range of the object region R in the Z-axis direction when the scanner head 8 acquires an image (the starting Z-axis position and the ending Z-axis position (the rotation center axis 31 is the origin on the Z-axis). )).
  • the start position 21 is 50.0 mm
  • the intake height 22 is 450 mm
  • the bottom position 23 is 75 mm
  • the pottery height 24 is 300 mm
  • the ⁇ bottom surface 25 is 200 mm
  • the ⁇ top surface 26 is 300 mm.
  • the Z-axis range 27 has a starting position of 150 mm and an ending position of 100 mm. That is, the scanner head 8 scans the Z-axis range of the subject S from 150 to 100 mm from the central axis 31 in the Z-axis direction.
  • lines 32 and 33 representing the central axis 31, the start position 21 and the capture height 22, the bottom position 23, Lines 34 representing earthenware height 24, ⁇ bottom 25, and ⁇ top 26 are displayed.
  • the visible light image display section 30 and the infrared light image display section 40 are each divided into a plurality of bands B1 to B5 based on the length (effective length) of the object region R in the Y-axis direction.
  • Boundary lines K are shown at the boundaries of adjacent bands B1 to B5.
  • a line 33 representing the intake height 22 is shown at the boundary between the band B3 and the band B4.
  • the length of the bands B1 to B5 in the Y-axis direction is 150 mm.
  • the length in the Y-axis direction is 750 mm.
  • the user sets the diameter of the subject S, capture resolution [ppi], and exposure time [ms] in scan mode 28 .
  • the diameter of the subject S is ⁇ 300
  • the capture resolution is 400 ppi
  • the exposure time is 2.5 ms.
  • the layer setting 29 divides the range of 150-100 of the Z-axis range 27 into a plurality of layers (layers L1 to L6 in FIG. 4) with different Z coordinates.
  • the thickness of each layer is less than or equal to the depth of field. In the illustrated example, the depth of field is 10 mm and the Z-axis range 27 is 50 mm. Become. Therefore, as shown in FIG. 4, the range Q of 150-100 of the Z-axis range 27 is divided into layers L1-L6.
  • FIG. 4 is an explanatory diagram of the operation of scanning the subject S with the scanner head 8 in rotational scanning.
  • the rotation scan processing will be explained based on FIGS. 2 and 4.
  • Rotational scanning is performed with the scanner head 8 arranged with respect to the subject S so that the central axis 31 is located in front of the scanner head 8 .
  • an unperformed layer is selected (step 106).
  • the control device 9 selects the layer L1, and selects B1, which is an unexecuted band in the layer L1 (step 108).
  • Controller 9 moves scanner head 8 to a position suitable for band B1 and layer L1 (step 110).
  • the control device 9 rotates the object S around the central axis 31 by the rotary table 4, for example, clockwise in plan view, for example, by one turn or more (360 degrees or more), and rotates the object S by the scanner head 8.
  • An image of S is taken all around (step 112).
  • a plurality of image data with different rotation angles sequentially output from the scanner head 8 are stored in the control device 9 .
  • the control device 9 determines whether or not all bands have been photographed on the selected layer L1 (step 114). If it is determined that imaging has not been performed for all bands (step 114: No), the control device 9 returns to step 108, selects a band that has not been performed, and repeats the processing of steps 110 and 112. When it is determined that all bands have been photographed (step 114: Yes), the control device 9 determines whether or not all layers have been photographed (step 116). If it is determined that all layers have been photographed (step 116: No), the control device 9 returns to step 106, selects an unexecuted layer, and repeats the processing of steps 108-114. If it is determined that all layers have been photographed (step 116 : Yes), the control device 9 proceeds to step 118 .
  • the control device 9 detects and integrates in-focus pixel data focused on the outer peripheral surface of the subject S from the stored image data of all the layers L1 to L6 and all the bands B1 to B3, A rectangular image 50 (see FIG. 5) of the surface is formed (step 118).
  • the rectangular image corresponds to the entire outer peripheral surface image (orthographic projection image) of the subject S obtained by the Lambert Equal Area Cylindrical Projection.
  • the control device 9 converts the rectangular image 50 of the entire outer peripheral surface of the object S into an annular fan-shaped image 51 (see FIG. 5) (step 120).
  • the controller 9 stores the rectangular image 50 and the annular fan-shaped image 51 and outputs them to output means (not shown) (step 122).
  • FIG. 5 is an explanatory diagram of image processing in rotational scanning.
  • a rectangular image 50 of the entire outer peripheral surface of the subject S is created based on the in-focus pixel data obtained for the subject S through the processing of steps 106 to 116 in FIG.
  • the ratio (dimension ratio) of the long side length ⁇ 2 of the rectangular image 50 and the short side length ⁇ 2 of the rectangular image 50 is equal to the ratio (dimension ratio) between the length ⁇ 1 of the circumference of the upper surface of the subject S and the height ⁇ 1 of the subject S. Therefore, in the rectangular image 50, the long side corresponding to the bottom side of the subject S has the same length as the long side of the top side of the subject S.
  • FIG. As a result, for example, when characters A to E are written in order from the upper side on the side surface of the subject S in FIG. widen and distorted.
  • the rectangular image 50 is converted into an annular sector image 51 .
  • the ratio (dimensional ratio) of the outer circular arc length ⁇ 2, the inner circular arc length ⁇ 2, and the radial width ⁇ 2 is equal to the circumference length ⁇ 1 of the upper surface of the subject S.
  • the length ⁇ 1 of the circumference of the bottom surface of the object S and the height ⁇ 1 of the object S are equal to the ratio (dimension ratio). This makes it possible to provide an annular fan-shaped image 51 when the subject S is viewed from the side.
  • the widths of the characters A to E are configured to be substantially the same, and the distortion of the characters A to E is corrected to a lesser extent.
  • the width ⁇ 2 in the radial direction may be associated with the straight line distance ⁇ 3 connecting the top surface and the bottom surface of the subject S. , to the horizontal width ⁇ 4 between the top surface and the bottom surface.
  • FIG. 6 shows (a) an orthographic projection image 52 when an actual earthenware is XY-scanned by the three-dimensional object image scanner 1, and (b) a rectangular image (orthographic projection image) 53 and (c) when rotational scanning is performed. It is an annular fan-shaped image 54 .
  • the pottery is a Jomon pottery with a tapered shape whose diameter decreases toward the bottom.
  • FIG. 6(b) in the rectangular image 52, it can be seen that the shape of the surface pattern expands in the horizontal direction as it goes downward, and is considerably distorted.
  • the annular fan-shaped image 53 of FIG. 6(c) the distortion of the surface pattern in the lower half of the bottom surface side is considerably eliminated, and the overall pattern has a shape close to the real thing and is natural. In this way, the three-dimensional object image scanner 1 can create an all-round image with little distortion suitable for observing the entire circumference of a three-dimensional object.
  • FIG. 7 shows an example of a system and method for creating and displaying a texture-mapped three-dimensional view of a subject using the three-dimensional object image scanner 1 according to the embodiment described above.
  • this three-dimensional view system 80 has the three-dimensional object image scanner 1 according to the above-described embodiment, a three-dimensional object shape measuring device 82, and a three-dimensional computer graphics (3DCG) device 84.
  • a three-dimensional object shape measuring device 82 optically measures the subject S and creates three-dimensional shape data 86 of the subject S.
  • FIG. The three-dimensional object shape measuring device 82 includes, for example, a photogrammetry device having a camera, or a distance measuring device such as LiDAR or radar, and measures the distance from these devices to many points on the outer surface of the subject S. By doing so, three-dimensional shape data 86 (for example, three-dimensional multipoint data or three-dimensional mesh data) of the subject S is created.
  • a specific model of a commercially available mobile phone or personal computer incorporates a three-dimensional object shape measuring device 82 , so that model may be used with this system 80 .
  • the 3DCG device 84 inputs the three-dimensional shape data 86 of the subject S created by the three-dimensional object shape measuring device 82 and the rectangular image data set 90 of the subject S created by the three-dimensional object image scanner 1 .
  • the 3DCG device 84 texture-maps the outer surface of the three-dimensional shape data 86 with the rectangular image data set 90 to create a texture-mapped three-dimensional view 88 of the subject S for display or output. .
  • the 3DCG device 84 can be, for example, a computer with a CPU 130, a storage 132, and a display screen 134, which stores in the storage 132 a computer program 136 for creating a three-dimensional view 88, which computer program 136 can be executed by the CPU 130 to create a three-dimensional view 88 and display the three-dimensional view 88 on the display screen 134 .
  • the computer terminal 61 of the three-dimensional object image scanner 1 shown in FIG. 1 or another computer terminal may be used as the 3DCG device 84.
  • FIG. 8A shows an example of the data structure of the rectangular image data set 90 shown in FIG.
  • a rectangular image data set 90 is a portion of the object S to be photographed (the portion to be photographed is an example of In this example, it is the entire subject S, but it may be a part of the subject S), and scan condition setting data 94 indicating setting values of various condition items applied at the time of photographing.
  • the scan condition setting data 94 includes various condition items set by the user on the scan condition setting screen 10 as shown in FIG. , Z-axis range, scan mode, and layer settings. However, not all setting values of these condition items must be included.
  • the scan condition setting data 94 only needs to include identifiable data (for example, starting position, captured height, bottom position, and pottery height).
  • a rectangular image data set 90 shown in FIG. 8A is an example when the subject S is a coffee cup as shown in FIG.
  • rectangular image 92 includes an orthographic image 96 of body 72 of subject S, which is a coffee cup, and an orthographic image 98 of handle 74 .
  • the rectangular image data set 90 shown in FIG. 8A has the meaning shown in FIG. 8B.
  • the dimension (height) of the short side of the rectangular image 92 is the capture height y2.
  • the dimension (height) of the short side of the orthographic projection images 96 and 98 of the subject S in the rectangular image 92 is the earthenware height y5.
  • the rectangular image 92 includes the entire appearance image of the subject S, but this is not necessarily the case. For example, if the portion of the subject S to be texture-mapped is only a portion of the subject S, the rectangular image 92 may include an appearance image of only that portion.
  • FIG. 9 shows the flow of the process of creating a three-dimensional view of the subject S performed by the 3DCG device 84 shown in FIG.
  • the 3DCG device 84 inputs the three-dimensional shape data 86 of the subject S created by the three-dimensional object shape measuring device 82 in step 200 .
  • the three-dimensional shape data 86 of the subject S expresses the three-dimensional shape of the subject S, and is, for example, multi-point data including three-dimensional coordinate values of multiple points on the outer surface of the subject S, mesh data, or the like. good.
  • the 3DCG device 84 inputs the rectangular image data set 90 of the subject S created by the three-dimensional object image scanner 1.
  • the rectangular image data set 90 is expressed as three-dimensional cylinder data for ease of understanding. is a set.
  • the 3DCG device 84 texture-maps the three-dimensional shape data 86 by a cylindrical mapping method using the rectangular image data set 90 as a texture image.
  • This texture mapping process is actually performed mathematically, but for the sake of clarity, a physical explanation is as follows.
  • step 202 the rectangular image data set (three-dimensional cylinder data) 90 and the three-dimensional shape data 86 are made so that the central axis 31 and starting angle 70 of the former match the central axis and starting angle 70 of the latter, respectively. placed on top of each other.
  • the method of matching the central axis and starting angle of both of them includes, for example, the pattern represented by the images 96 and 98 of the subject S in the rectangular image data set (three-dimensional cylinder data) 90, and the three-dimensional shape data 86.
  • a method of matching between the two by comparing the concave and convex patterns a method in which the user designates the central axis and the starting angle of the three-dimensional shape data 86, and assigns them to the central axis 31 and the starting angle 70 of the three-dimensional cylindrical body data 90. There may be a method for making them match each other.
  • the color value of each pixel 300 of the images 96 and 98 of the subject S in the three-dimensional cylinder data 90 is the most of the three-dimensional shape data 86 that intersects a perpendicular line 302 drawn from each pixel 300 to the central axis 31 .
  • a point 304 located on the outside is given. The process of step 204 is performed for all pixels of images 96 and 98 of subject S. FIG.
  • a three-dimensional view 88 of the subject S is created by cylindrically mapping the images 96 and 98 of the subject S onto the three-dimensional shape data 86 of the subject S.
  • the 3DCG device 84 displays its three-dimensional view 88 on its display screen 134 .
  • the present invention is not limited to the above-described embodiments, and includes various modifications.
  • the above-described embodiments have been described in detail in order to explain the present invention in an easy-to-understand manner, and are not necessarily limited to those having all the described configurations.
  • it is possible to replace part of the configuration of one embodiment with the configuration of another embodiment and it is also possible to add the configuration of another embodiment to the configuration of one embodiment.

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Chemical & Material Sciences (AREA)
  • Analytical Chemistry (AREA)
  • Optics & Photonics (AREA)
  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Image Input (AREA)

Abstract

立体物の全外周の観察に適した歪みの少ない全周画像を作成することができる立体物イメージスキャナを提供する。 立体物イメージスキャナは、回転テーブルと、テレセントリックレンズ系を有するスキャナヘッドと、スキャナヘッドを移動させる移動手段と、被写体の画像データを処理する制御装置とを備える。制御装置は、中心軸が前記テレセントリックレンズ系の正面に位置するようにスキャナヘッドを配置した状態で、中心軸周りに被写体を回転させながら、スキャナヘッドから逐次に出力される回転角の異なる複数の画像データを取得し、複数の画像データの中から被写体に焦点の合った画素データを検出し、検出された画素データを統合して、被写体の撮影したい部分の外観を表す長方形画像を作成し、長方形画像を、被写体の撮影したい部分の上面寸法と底面寸法と高さ寸法とに基づく環状扇形画像に変換する。

Description

立体物イメージスキャナ
 本発明は、立体物の外表面を光学的にスキャンしてその外観画像を作成する立体物イメージスキャナに関する。
 特許文献1は、3次元物体の正射影画像を形成する方法が開示されている。その方法は、テレセントリック光学系を備えたカメラによって3次元物体を相対走査し、この走査において得られる画像光のうち、所定の光線を選択してこれを画像情報として記憶する。この記憶情報を処理して、光学系の被写界深度内にある画像光を抽出することにより、3次元物体の正射影画像を形成する。
 特許文献2は、立体物の正射投影画像を得るためのイメージスキャナが開示されている。その装置は、イメージセンサとイメージセンサから観察方向に離れた位置にあるターゲット平面領域との間に配置され、ターゲット平面領域の像をイメージセンサ上に結像するテレセントリック結像系を備える。被写体が配置される被写空間中でターゲット平面領域を3次元方向に移動させ、照明光のターゲット平面領域への入射角の分布範囲がターゲット平面領域のあらゆる点で一定になるように照明光の方向を規制しながら、ターゲット平面領域に照明光を照射する。ターゲット平面領域が被写空間中を移動している間にイメージセンサから逐次に出力される画像データを入力し、入力された画像データの中から被写体にピントの合った画素データを検出し、検出された画素データを集めて被写体の正射投影画像を合成する。
特開昭55-164823号公報 特開2006-38476号公報
 考古学、歴史学、美術学などの分野で研究対象とされる器、壺、瓶、碗などの物品は、その側面の360度全周に模様や装飾が施されていることが多い。このような物品の模様や装飾の観察に適した360度全周の画像を得たいという要求が研究者間に存在する。
 しかし、これらの物品の形状は、すべての高さ位置で径寸法が一定の単純な円筒形であることは滅多になく、径寸法が高さ位置で異なる複雑な立体形状である。そのため、テレセントリック光学系を備えたカメラ(イメージセンサ)を用いて、この種の物品を光学的にスキャンして、その正射投影画像を生成した場合、得らえた正射投影画像上で、模様や装飾の形状が歪んでしまい、それらの観察に不便である。
 本発明の目的は、立体物の全外周の観察に適した歪みの少ない全周画像を作成することができる立体物イメージスキャナを提供することにある。本発明の他の目的は、以下の説明から明らかになるであろう。
 一実施形態に従う立体物イメージスキャナは、被写体を所定の中心軸周りに回転可能な回転テーブルと、テレセントリックレンズ系を有し、前記テレセントリックレンズ系の正面の被写空間のイメージを取得するスキャナヘッドと、前記スキャナヘッドを前記被写空間に対して相対的に移動させる移動手段と、前記回転テーブル、前記スキャナヘッド、及び前記移動手段を制御し、前記被写体の画像データを処理する制御装置と、を備える。
 前記制御装置は、
  前記中心軸が前記テレセントリックレンズ系の正面に位置するように前記スキャナヘッドを配置した状態で、前記中心軸周りに前記被写体を回転させながら、前記スキャナヘッドから逐次に出力される回転角の異なる複数の画像データを取得し、
  前記複数の画像データの中から前記被写体に焦点の合った画素データを検出し、検出された前記画素データを統合して、前記被写体の撮影したい部分の外観を表す長方形画像を作成し、
  前記長方形画像を、前記被写体の撮影したい部分の上面寸法と底面寸法と高さ寸法とに基づく環状扇形画像に変換する。
 前記制御装置は、前記被写体の撮影したい部分と、前記上面寸法、前記底面寸法、及び前記高さ寸法をユーザに設定させてもよい。
 前記環状扇形画像は、その外側の円弧の寸法とその内側の円弧の寸法とその径方向の幅の寸法との寸法比が、前記上面寸法と前記底面寸法と前記高さ寸法との寸法比と等しく構成されていてもよい。
 前記制御装置は、前記長方形画像及び前記環状扇形画像を出力してもよい。
 前記回転テーブルは、前記スキャナヘッドの撮影方向に沿って移動可能であってもよい。
 一実施形態にかかる立体物イメージスキャナは、立体物の全外周の観察に適した歪みの少ない全周画像を作成することができる。
本発明の一実施形態に係る立体物イメージスキャナの全体構成である。 図1の立体物イメージスキャナによって実行されるスキャニング処理のフローチャートである。 スキャニング処理のスキャン条件設定画面を示す図である。 回転スキャンにおいて、被写体をスキャナヘッドによりスキャンする動作の説明図である。 回転スキャンにおける画像処理の説明図である。 立体物イメージスキャナにより実物の土器をXYスキャンしたときの(a)正射投影画像と、回転スキャンしたときの(b)長方形画像(正射投影画像)及び(c)環状扇形画像である。 立体物イメージスキャナを用いて、テクスチャマップされた被写体の三次元ビューを作成するためのシステムと方法の例を示すブロック線図である。 立体物イメージスキャナから出力される長方形画像データセットのデータ構造の例を示す図である。 図8Aに示した長方形画像データセットの例の意味を説明する図である。 図8Aに示した長方形画像データセットの例が意味する三次元円筒データを示す図である。 図7に示されたシステム例において、3DCG装置が行うプロセスのフローを示す図である。
 以下、本発明の実施形態について、図面を参照して説明する。なお、以下に説明する実施形態は請求の範囲に係る発明を限定するものではなく、また実施形態の中で説明されている諸要素及びその組み合わせの全てが発明の解決手段に必須であるとは限らない。
 図1は、本発明の一実施形態に係る立体物イメージスキャナ1の全体構成である。
 図1に示すように、立体物イメージスキャナ1は、床上に設置されるプラットフォーム2を有する。以下の説明では、3次元的な位置関係を説明する都合から、図1に示すようなX、Y、Z軸をもつ直交三次元座標系が定義される。ここで、Y軸は鉛直方向(高さ方向)であり、X軸とZ軸は水平方向である。
 プラットフォーム2上に、柱状のZ軌道3がZ軸と平行に敷設されている。Z軌道3上に、回転テーブル4が取付けられている。回転テーブル4は、回転駆動部4Aと、テーブル4Bとを有する。回転駆動部4Aは、電動自走装置(図示せず)を内蔵して、Z軌道3の長さの範囲内でZ軸と平行な方向(横方向)に往復移動することができる。テーブル4Bは、回転駆動部4Aの図示せぬ回転シャフトに固定され、この回転シャフトと共に中心軸31を中心に回転するように構成されている。テーブル4Bの上方の被写体Sが配置される空間を、被写空間Aと呼ぶ。被写体Sは、本実施形態では例えば土器、壷、花器のような水平断面が概略円形の立体被写体である。
 プラットフォーム2上に、柱状のX軌道5がX軸と平行に敷設されている。X軌道5上に、柱状のY軌道6がY軸と平行に取付けられている。Y軌道6に、柱状のキャリッジ7がZ軸に平行に取り付けられる。Y軌道6は、電動自走装置(図示せず)を内蔵して、X軌道5の長さの範囲内でX軸と平行な方向(奥行き方向)に往復移動することができる。キャリッジ7も電動自走装置(図示せず)を内蔵して、Y軌道6の長さの範囲内でY軸と平行な方向(高さ方向)に往復移動することができるとともに、それ自身の長さの範囲内でZ軸と平行な方向(横方向)にも往復移動することができる。結果として、キャリッジ7は、X軸、Y軸及びZ軸に沿って三次元的に移動することができる。
 キャリッジ7には、スキャナヘッド8と図示せぬ照明装置が固定される。スキャナヘッド8は、被写空間A内に配置される被写体Sを三次元的にスキャンするための光学装置であり、Z軸と平行に配列されたテレセントリック結像ユニットと可変絞りユニットとイメージセンサユニットとを有する。スキャナヘッド8は、可視光画像及び赤外光画像を撮像可能である。
 イメージセンサユニットは、Y軸と平行に配置されたリニアな(直線状の)リニアイメージセンサを内蔵する。リニアイメージセンサは、例えば8μmピッチでY軸と平行に一直線に配列された例えば3000画素以上の光電変換素子アレイと、光電変換素子アレイから出力されるアナログの電圧信号をデジタルの画素データに変換するA/D変換デバイスとを有する。
 テレセントリック結像ユニットは、テレセントリックレンズ系を内蔵し、その光軸がZ軸と平行になるようにして、Z軸の正の方向(撮影方向)を向いて配置されている。テレセントリック結像ユニットは、その前端から光軸に沿って撮影方向へ所定距離(ワーキングディスタンス)だけ離れた位置にあるY軸と平行な所定長さの直線状の(つまりリニアな)領域(以下、被写領域Rという)の像を、イメージセンサユニット内のリニアイメージセンサ上に結像するようになっている。つまり、スキャナヘッド8は、被写領域Rにピントが合った状態になっている。被写領域Rは、詳細には、対物レンズのY軸方向の長さと、ワーキングディスタンスと、被写界深度とにより規定される領域である。本実施形態では、スキャナヘッド8のワーキングディスタンスは288mmであり、被写界深度は、10mmである。
 可変絞りユニットは、テレセントリック結像ユニット内に配置され、開度が可変な開口絞り(以下、可変絞りという)を内蔵する。可変絞りユニットは、上述したリニアイメージセンサへの入力光量の調整や被写界深度の調整に使用される。
  上述したスキャナヘッド8は、キャリッジ7の移動によってX軸、Y軸及びZ軸の方向に三次元的に移動し、それと一緒に被写領域Rも移動する。テレセントリックレンズ系を結像光学系として使うことにより、被写体Sの正射投影画像を得ることが可能になる。立体物イメージスキャナ1は、XYスキャン機能と、回転スキャン機能とを有する。XYスキャン機能は、被写体Sを回転テーブル4により回転させない状態で、スキャナヘッド8をXY平面に沿って移動させて被写体SのXY面の平面画像を得る機能である。回転スキャン機能は、被写体Sを回転テーブル4により回転させ、スキャナヘッド8をYZ平面に沿って移動させて被写体Sの全外周面の長方形画像及び環状扇形画像(展開画像)を得る機能である。
 プラットフォーム2上に、コンピュータや電源回路やその他の電気・電子回路を内蔵した制御装置9が設置される。制御装置9は、回転駆動部4A、X軌道5、Y軌道6とキャリッジ7内の電動自走装置、スキャナヘッド8内のリニアイメージセンサ、及び図示せぬ照明装置などに、信号ケーブル及び電力ケーブルを介して電気的に接続される。制御装置9は、回転駆動部4Aを駆動し制御することにより、テーブル4Bを回転させる機能をもつ。制御装置9は、X軌道5、Y軌道6とキャリッジ7内の電動自走装置を駆動し制御することにより、キャリッジ7の三次元的な移動と位置を制御する(ひいては、スキャナヘッド8による被写体Sのスキャニングを制御する)機能をもつ。制御装置9は、さらに、スキャナヘッド8により被写体Sをスキャニングしている間、スキャナヘッド8内のリニアイメージセンサから逐次に出力される画像データを入力し、それらの画像データを処理することにより、被写体の正射投影画像(長方形画像及び環状扇形画像(展開画像))を合成する機能をもつ。
 立体物イメージスキャナ1は、後述のスキャニング処理を行うためにユーザに操作されるキーボードやマウス等を含む入力装置と、データを表示するディスプレイ等を含む出力装置と、データをそれらの装置と入出力するための外部出力端子(図示せず)とを備える。例えば、制御装置9が上述した外部出力端子60を有し、その外部出力端子60に、ユーザが使用するパーソナルコンピュータのような端末61に接続される。端末61が、立体物イメージスキャナ1を使用するためのコンピュータプログラムを実行して、上述した入力装置と出力装置として機能するようになっていてよい。その場合、制御装置9は、端末61からスキャニング処理を行うための情報の入力の受け付け、およびその端末61に対してスキャニング処理の結果を出力する。
 スキャナヘッド8の移動可能距離(ストローク)は、例えばX軸方向で520mm、Y軸方向で750mm、Z軸方向で260mmである。このため、XYスキャンにおける有効取込範囲は、X:520×Y:750×Z:260[mm]である。すなわち、XYスキャンにおいて、その全体像がスキャン可能な被写体Sの最大サイズは、その直径が520mmで高さが750mmである。
 回転テーブル4のZ軸方向の移動可能距離(ストローク)は、100mmである。このため、回転スキャンにおける有効取込範囲は、φ:700×Y:750×Z:260[mm]である。すなわち、回転スキャンにおいて、その全体像がスキャン可能な被写体Sの最大直径は700mmである。このように、回転テーブル4のZ軸方向の移動可能であるので、より大きな直径を有する被写体Sの撮影が可能となる。回転テーブル4の回転方向(つまり被写体Sの回転方向)は、特定の一方向であってよい。その特定の一方向とは、例えば、図1に矢印62で示されるように、上から見た平面視で右回りである。被写体Sを右回りで回転させることは、スキャナヘッド8が被写体Sの表面を左から右へスキャニングすることを意味する。これは、被写体Sの正射投影画像を一般的な画像フォーマットを用いて作成するのに都合が良い。これは、また、後述するように、被写体Sの正射投影画像を用いて被写体Sの三次元モデルのテクスチャマッピングを行なう場合にも都合が良い。
 次に、立体物イメージスキャナ1によって実行されるスキャニング処理について図2~図5に基づき説明する。
 図2は、端末61を含む立体物イメージスキャナ1によって実行されるスキャニング処理のフローチャートである。
 図3は、端末61のディスプレイスクリーンに表示されるスキャニング処理のスキャン条件設定画面10を示す図である。
 まずテーブル4B上に置かれた被写体Sのプレビュー画像を取得する(ステップ100)。プレビュー画像を取得は、ユーザが、図示せぬ出力手段に表示されたスキャン条件設定画面10(図3)のプレビューボタン11をクリックすることにより実行される。
 図3に示すように、スキャン条件設定画面10は、プレビューボタン11、スキャンボタン12、スキャン設定部20、可視光画像表示部30、赤外光画像表示部40を有する。
 プレビューボタン11をクリックすることにより、制御装置9は、XYスキャンを実行し、可視光画像表示部30及び赤外光画像表示部40に、被写体Sの可視光画像S1及び赤外光画像S2を表示する。テーブル4Bも可視光画像表示部30及び赤外光画像表示部40に表示される(ステップ102)。
 ユーザは、端末61のディスプレイスクリーン上のスキャン条件設定画面10のスキャン設定部20において、開始位置21、取込高22、底面位置23、土器高24、φ底面25、φ上面26、Z軸範囲27、スキャンモード28、レイヤ設定29を設定し、スキャンボタン12をクリックする(図2のステップ104)。開始位置21は、画像取込を開始する高さ(Y軸)位置である。取込高22は、画像取込みを開始する高さ位置から終了する高さ位置までの高さ(Y軸方向の距離)である。底面位置23は、土器(被写体S)の底面の高さ位置である。土器高24は、土器(被写体S)の底面から上面まで高さ(Y軸方向の距離)である。開始位置21と取込高22と底面位置23と土器高24の設定により、被写体Sの高さ(Y軸)方向のどの範囲が撮影したい部分であり、それが出力画像の高さ方向のどの範囲に存在するのか、が定義される。φ底面25は、土器(被写体S)の底面の直径である。φ上面26は、土器(被写体S)の上面の直径である。Z軸範囲27は、スキャナヘッド8が画像を取得する時の被写領域RのZ軸方向の変位範囲(開始のZ軸位置及び終了のZ軸位置(回転中心軸31がZ軸上の原点))である。図示の例では、開始位置21を50.0mm、取込高22を450mm、底面位置23を75mm、土器高24を300mm、φ底面25を200mm、φ上面26を300mmとしている。Z軸範囲27は開始位置150mm及び終了位置100mmとしている。すなわち、スキャナヘッド8により、Z軸方向において中心軸31から150-100mmの被写体SのZ軸範囲がスキャンされる。
 これらの設定により、ディスプレイスクリーン上の可視光画像表示部30及び赤外光画像表示部40上に、中心軸31、開始位置21及び取込高22を表す線32、33と、底面位置23、土器高24、φ底面25、及びφ上面26を表す線34が表示される。可視光画像表示部30及び赤外光画像表示部40は、被写領域RのY軸方向の長さ(有効長)に基づいて、それぞれ複数のバンドB1~B5に分割されている。隣り合うバンドB1~B5の境界には境界線Kが示されている。なお、バンドB3とバンドB4との境界には、取込高22を表す線33が示されている。図示の例では、バンドB1~B5のY軸方向の長さ(被写領域RのY軸方向の長さ)は、150mmであり、可視光画像表示部30及び赤外光画像表示部40のY軸方向の長さは、750mmである。
 ユーザは、スキャンモード28において、被写体Sの直径、取込解像度[ppi]、露光時間[ms]を設定する。図示の例では、被写体Sの直径をφ300、取込解像度を400ppi、露光時間を2.5msとしている。これらを設定することによりテーブル4Bの回転速度が決定される。
 レイヤ設定29では、レイヤ数又はレイヤ間隔を設定する。レイヤ設定29により、Z軸範囲27の150-100の範囲が、Z座標が異なる複数枚のレイヤ(図4のレイヤL1~L6)に分割される。各レイヤの厚さは、被写界深度以下である。図示の例では、レイヤ数は、被写界深度が10mmであり、Z軸範囲27が50mmであるので、「レイヤ数=Z軸範囲/被写界深度+1」の式により、「6」となる。よって、図4に示すように、Z軸範囲27の150-100の範囲Qは、レイヤL1~L6に分割される。
 図4は、回転スキャンにおいて、被写体Sをスキャナヘッド8によりスキャンする動作の説明図である。
 回転スキャンの処理について図2、4に基づき説明する。回転スキャンは、中心軸31がスキャナヘッド8の正面に位置するようにスキャナヘッド8を被写体Sに対して配置した状態で実行される。回転スキャンでは、未実施レイヤが選択される(ステップ106)。制御装置9は、レイヤL1を選択し、レイヤL1において未実施バンドであるB1を選択する(ステップ108)。制御装置9は、バンドB1及びレイヤL1に適した位置にスキャナヘッド8を移動させる(ステップ110)。この状態で、制御装置9は、回転テーブル4により被写体Sを、中心軸31周りに例えば平面視で右回りに、例えば1周以上(360度以上)回転させて、スキャナヘッド8により回転する被写体Sを全周にわたって撮影する(ステップ112)。スキャナヘッド8から逐次に出力される回転角の異なる複数の画像データは、制御装置9に保存される。
 制御装置9は、選択したレイヤL1において全バンドの撮影が実行されたか否かを判断する(ステップ114)。全バンドの撮影が実行されていないと判断された場合(ステップ114:No)、制御装置9は、ステップ108に戻って未実施のバンドを選択し、ステップ110、112の処理を繰り返す。全バンドの撮影が実行されたと判断された場合(ステップ114:Yes)、制御装置9は、全レイヤの撮影が実行されたか否かを判断する(ステップ116)。全レイヤの撮影が実行されたと判断された場合(ステップ116:No)、制御装置9は、ステップ106に戻って未実施のレイヤを選択し、ステップ108-114の処理を繰り返す。全レイヤの撮影が実行されたと判断された場合(ステップ116:Yes)、制御装置9は、ステップ118へ進む。
 制御装置9は、保存された全レイヤL1~L6及び全バンドB1~B3の画像データから、被写体Sの外周面に焦点が合った合焦点画素データを検出し統合して、被写体Sの全外周面の長方形画像50(図5参照)を形成する(ステップ118)。当該長方形画像は、ランベルト正積円筒図法により得られた被写体Sの全外周面画像(正射投影画像)に相当する。制御装置9は、被写体Sの全外周面の長方形画像50を環状扇形画像51(図5参照)に変換する(ステップ120)。制御装置9は、長方形画像50及び環状扇形画像51を記憶し、出力手段(図示せず)に出力する(ステップ122)。
 図5は、回転スキャンにおける画像処理の説明図である。
 図5に示すように、被写体Sに対する図3のステップ106~116の処理により得られた合焦点画素データに基づき、被写体Sの全外周面の長方形画像50が作成される。被写体Sの寸法を、上面の直径α1、底面の直径β1、高さγ1とした場合、長方形画像50の長辺の長さα2と長方形画像50の短辺の長さγ2の比(寸法比)は、被写体Sの上面の円周の長さπα1と被写体Sの高さγ1の比(寸法比)と等しく構成されている。このため、長方形画像50において、被写体Sの底面側に相当する長辺は、被写体Sの上面側の長辺と同じ長さになる。この結果、例えば、図5の被写体Sの側面に上側から順にA~Eの文字が記載されている場合、長方形画像50のA~Eの文字は、それらのうち下側の文字ほどその幅が広くなり歪んでしまう。
 ステップ120において、長方形画像50を環状扇形画像51に変換する。環状扇形画像51において、その外側の円弧の長さα2とその内側の円弧の長さβ2とその径方向の幅γ2の比(寸法比)は、被写体Sの上面の円周の長さπα1と被写体Sの底面の円周の長さπβ1と被写体Sの高さγ1の比(寸法比)と等しく構成されている。これにより、被写体Sを側方から観察したときの環状扇形画像51を提供することができる。この結果、環状扇形画像51では、A~Eの文字の幅がほぼ同じに構成され、A~Eの文字の歪みがより少なく修正される。なお、径方向の幅γ2は、被写体Sの上面と底面とを結ぶ直線距離γ3に対応付けてもよいし、鉛直方向に対する上面と底面とを結ぶ線分の角度が45°以上の場合には、上面と底面との水平方向の幅γ4に対応付けてもよい。
 図6は、立体物イメージスキャナ1により実物の土器をXYスキャンしたときの(a)正射投影画像52と、回転スキャンしたときの(b)長方形画像(正射投影画像)53及び(c)環状扇形画像54である。
 当該土器は、図6(a)の正射投影画像52に示すように、下方へ行くほど径が縮小するテーパ形状の縄文土器である。図6(b)に示すように、長方形画像52では、下方へ行くほど表面模様の形が実物より横方向へ拡大しかなり歪んでいるのが分かる。これに対し、図6(c)の環状扇形画像53では、底面側の下半分の表面模様の歪みがかなり解消され、全体にわたり模様が実物に近い形状で自然である。このように、立体物イメージスキャナ1は、立体物の全外周の観察に適した歪みの少ない全周画像を作成することができる。
 図7は、上述した実施形態にかかる立体物イメージスキャナ1を用いて、テクスチャマップされた被写体の三次元ビューを作成し表示するためのシステムとその方法の例を示す。
 図7に示すように、この三次元ビューシステム80は、上述した実施形態にかかる立体物イメージスキャナ1と、立体物形状計測装置82と、三次元コンピュータグラフィックス(3DCG)装置84を有する。立体物形状計測装置82は、被写体Sを光学的に計測して、被写体Sの三次元形状データ86を作成する。立体物形状計測装置82は、例えば、カメラを有する写真測量装置、又は、LiDARあるいはレーダーなどのような測距装置を備え、それらの装置から被写体Sの外表面の多数の個所までの距離を計測することで、被写体Sの三次元形状データ86(例えば、三次元多点データ又は三次元メッシュデータなど)を作成する。市販の携帯電話或いはパーソナルコンピュータの特定の機種は、立体物形状計測装置82を内蔵しているので、その機種をこのシステム80で利用して良い。
 3DCG装置84は、立体物形状計測装置82により作成された被写体Sの三次元形状データ86と、立体物イメージスキャナ1により作成された被写体Sの長方形画像データセット90とを入力する。3DCG装置84は、三次元形状データ86の外表面に、長方形画像データセット90を用いたテクスチャマッピングを施して、被写体Sのテクスチャマップされた三次元ビュー88を作成し、それを表示又は出力する。3DCG装置84は、例えば、CPU130とストレージ132とディスプレイスクリーン134を備えたコンピュータであってよく、それは、三次元ビューを88を作成するためのコンピュータプログラム136をストレージ132に記憶し、そのコンピュータプログラム136をCPU130で実行することで三次元ビュー88を作成し、その三次元ビュー88をディスプレイスクリーン134に表示することができる。3DCG装置84として、図1に示された立体物イメージスキャナ1のコンピュータ端末61、あるいは別のコンピュータ端末を用いてよい。
 図8Aは、図7に示された長方形画像データセット90のデータ構造の例を示す。
 図8Aに示すように、長方形画像データセット90は、既に説明した方法で立体物イメージスキャナ1が被写体Sを回転スキャンすることにより作成した被写体Sの撮影したい部分(撮影したい部分は、図示の例では被写体Sの全体であるが、被写体Sの一部分であってもよい)の長方形画像92と、その撮影時に適用された各種の条件項目の設定値を示したスキャン条件設定データ94を含む。スキャン条件設定データ94は、図3に示したようなスキャン条件設定画面10でユーザにより設定された各種の条件項目、例えば、開始位置、取込高、底面位置、土器高、φ底面、φ上面、Z軸範囲、スキャンモード、及びレイヤ設定など、の設定値を含んでいい。しかし、これらの条件項目の全ての設定値が含まれていなければならないわけでない。例えば、後述する三次元形状データへのテクスチャマッピングに長方形画像データセット90を使用する場合、少なくとも、被写体Sの高さ方向のどの範囲が長方形画像92の高さ方向のどの範囲に写っているかが特定できるデータ(例えば、開始位置、取込高、底面位置、及び土器高)がスキャン条件設定データ94に含まれていればよい。
 図8Aに示した長方形画像データセット90は、被写体Sが図7に示すようなコーヒーカップである場合の一例である。この例では、長方形画像92は、被写体Sを中心軸31を中心にして矢印62で示す右回りに回転させながらスキャンすることで得られた、回転角θ=0度(開始角度70)からθ=360度までの範囲にわたる被写体Sの外観(外表面テクスチャ)の正射投影画像である。この例では、長方形画像92の中に、コーヒーカップである被写体Sの本体72の正射投影画像96と取っ手74の正射投影画像98が含まれている。
 図8Aに示した長方形画像データセット90は、図8Bに示すような意味をもつ。図8Bに示すように、長方形画像92の短辺の寸法(高さ)は取込高y2である。長方形画像92の下辺の高さ位置は開始位置y1であり、その上辺の高さ位置はy3=y1+y2である。長方形画像92内の被写体Sの正射投影画像96及び98の短辺の寸法(高さ)は土器高y5である。被写体Sの正射投影画像96及び98の下辺の高さ位置は底面位置y4であり、その上辺の高さ位置はy6=y4+y5である。長方形画像92の左辺は回転角θ=0度つまり開始角度70に相当し、右辺は回転角θ=360度(開始角度70)に相当する。
 図8Bに示すような回転角θが0度から360度までの範囲にわたる長方形画像92を仮想的に中心軸31周りに丸めて左辺(θ=0度)と右辺(θ=0度)を繋ぐと、長方形画像92は図8Cに示されるような三次元円筒体になる。したがって、図8Aに示した長方形画像データセット90は、被写体Sの撮影したい部分(図時の例では被写体Sの全体)の外観(外表面テクスチャ)を図8Cに示すような三次元円筒体として表した三次元円筒体データ90でもある。ここで、図示の例では、長方形画像92に被写体Sの全体の外観画像が含まれているが、必ずしもそうでなければならないわけではない。例えば、テクスチャマッピングしたい被写体Sの部分が被写体Sの一部分にすぎない場合、その一部分だけの外観画像が長方形画像92に含まれていればよい。
 図9は、図7に示された3DCG装置84により行われる、被写体Sの三次元ビューを作成するプロセスのフローを示す。
 図9に示すように、3DCG装置84は、ステップ200で、立体物形状計測装置82により作成された被写体Sの三次元形状データ86を入力する。被写体Sの三次元形状データ86は、被写体Sの三次元形状を表現しており、例えば、被写体Sの外表面の多点の三次元座標値を含んだ多点データ又はメッシュデータなどであってよい。
 3DCG装置84は、ステップ202で、立体物イメージスキャナ1により作成された被写体Sの長方形画像データセット90を入力する。図9では、理解しやすいように、長方形画像データセット90は三次元円筒体データとして表現されているが、実際には、図8Aに示したような長方形画像92とスキャン条件設定データ94とのセットである。
 3DCG装置84は、ステップ202と204で、長方形画像データセット90をテクスチャ画像として用いた円筒マッピング法により、三次元形状データ86にテクスチャマッピングを行う。このテクスチャマッピングのプロセスは、実際には数学的になされるものではあるが、分かりやすいように物理的に説明すれば次の通りである。
 ステップ202で、長方形画像データセット(三次元円筒体データ)90と三次元形状データ86とが、前者の中心軸31と開始角度70に後者の中心軸と開始角度がそれぞれ一致するようにして、相互に配置される。両者の中心軸と開始角度を相互に一致させる方法には、例えば、長方形画像データセット(三次元円筒体データ)90内の被写体Sの画像96及び98が表すパターンを、三次元形状データ86の凹凸パターンに対比して両者間のマッチングを行う方法や、ユーザが立次元形状データ86の中心軸と開始角度を指定して、それらを三次元円筒体データ90の中心軸31と開始角度70にそれぞれ一致させる方法などがあり得る。
 ステップ204で、三次元円筒体データ90内の被写体Sの画像96及び98の各画素300の色値が、各画素300から中心軸31へ下ろした垂線302と交差する三次元形状データ86の最も外側に位置する点304に、与えられる。ステップ204のプロセスが、被写体Sの画像96及び98の全ての画素についてなされる。
 その結果、ステップ208で、被写体Sの三次元形状データ86に被写体Sの画像96及び98が円筒マッピングされてなる被写体Sの三次元ビュー88が作成される。3DCG装置84は、そのディスプレイスクリーン134上に、その三次元ビュー88を表示する。
 なお、本発明は上記した実施例に限定されるものではなく、様々な変形例が含まれる。例えば、上記した実施例は本発明を分かりやすく説明するために詳細に説明したものであり、必ずしも説明した全ての構成を備えるものに限定されるものではない。また、ある実施例の構成の一部を他の実施例の構成に置き換えることが可能であり、また、ある実施例の構成に他の実施例の構成を加えることも可能である。また、各実施例の構成の一部について、他の構成の追加・削除・置換をすることが可能である。
 また、図示した各構成要素の寸法、形状等は必ずしも正確に図示されているとは限らず、本実施形態の特徴を強調するために適宜修正されていることもありうる。
1:立体物イメージスキャナ、 4:回転テーブル、 7:キャリッジ、 8:スキャナヘッド、 9:制御装置、 31:中心軸、 50、52:長方形画像、 51、53:環状扇形画像、 70:開始角度、 80:三次元ビューシステム、 82:立体物形状計測装置、 84:三次元コンピュータグラフィックス(3DCG)装置、 90:長方形画像データセット(三次元円筒体データ)、 92:長方形画像、 94:スキャン条件設定データ、 A:被写空間、 S:被写体

Claims (8)

  1.  被写体を所定の中心軸周りに回転可能な回転テーブルと、
     テレセントリックレンズ系を有し、前記テレセントリックレンズ系の正面の被写空間のイメージを取得するスキャナヘッドと、
     前記スキャナヘッドを前記被写空間に対して相対的に移動させる移動手段と、
     前記回転テーブル、前記スキャナヘッド、及び前記移動手段を制御し、前記被写体の画像データを処理する制御装置と、を備えた立体物イメージスキャナにおいて、
     前記制御装置は、
      前記中心軸が前記テレセントリックレンズ系の正面に位置するように前記スキャナヘッドを配置した状態で、前記中心軸周りに前記被写体を回転させながら、前記スキャナヘッドから逐次に出力される回転角の異なる複数の画像データを取得し、
      前記複数の画像データの中から前記被写体に焦点の合った画素データを検出し、検出された前記画素データを統合して、前記被写体の撮影したい部分の外観を表す長方形画像を作成し、
      前記長方形画像を、前記被写体の撮影したい部分の上面寸法と底面寸法と高さ寸法とに基づく環状扇形画像に変換する、立体物イメージスキャナ。
  2.  前記制御装置は、前記被写体の撮影したい部分と、前記上面寸法、前記底面寸法、及び前記高さ寸法をユーザに設定させる、請求項1に記載の立体物イメージスキャナ。
  3.  前記環状扇形画像は、その外側の円弧の寸法とその内側の円弧の寸法とその径方向の幅の寸法との寸法比が、前記上面寸法と前記底面寸法と前記高さ寸法との寸法比と等しく構成されている、請求項1又は請求項2に記載の立体物イメージスキャナ。
  4.  前記制御装置は、前記長方形画像及び前記環状扇形画像を出力する、請求項1から請求項3のいずれか一項に記載の立体物イメージスキャナ。
  5.  前記回転テーブルは、前記スキャナヘッドの撮影方向に沿って移動可能である、請求項1から請求項4のいずれか一項に記載の立体物イメージスキャナ。
  6.  請求項1記載の立体物イメージスキャナにより作成された、前記中心軸回りの回転角が0度から360度の範囲にわたる前記被写体の前記撮影したい部分の前記外観を表す前記長方形画像と、
     前記長方形画像に付属し、前記長方形画像における前記被写体の前記撮影したい部分の高さ方向の範囲を定義した付属データと
    を有し、
     前記被写体の前記撮影したい部分の前記外観を三次元円筒体として表した長方形画像データセットのデータ構造。
  7.  被写体の三次元ビューを作成する三次元コンピュータグラフィクス装置において、
     請求項6記載の長方形画像データセットを入力し、
     前記被写体の三次元形状データを入力し、
     入力された前記三次元形状データに対して、入力された前記長方形画像データセットを用いて円筒マッピング法によりテクスチャマッピングを行うことにより、前記被写体の三次元ビューを作成するように構成された三次元コンピュータグラフィクス装置。
  8.  被写体の三次元ビューを作成する方法において、
     請求項6記載の長方形画像データセットを入力し、
     前記被写体の三次元形状データを入力し、
     入力された前記三次元形状データに対して、入力された前記長方形画像データセットを用いて円筒マッピング法によりテクスチャマッピングを行うことにより、前記被写体の三次元ビューを作成する方法。
PCT/JP2023/003447 2022-02-04 2023-02-02 立体物イメージスキャナ WO2023149515A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2023578624A JPWO2023149515A1 (ja) 2022-02-04 2023-02-02

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2022-016757 2022-02-04
JP2022016757 2022-02-04

Publications (1)

Publication Number Publication Date
WO2023149515A1 true WO2023149515A1 (ja) 2023-08-10

Family

ID=87552573

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2023/003447 WO2023149515A1 (ja) 2022-02-04 2023-02-02 立体物イメージスキャナ

Country Status (2)

Country Link
JP (1) JPWO2023149515A1 (ja)
WO (1) WO2023149515A1 (ja)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015142832A (ja) * 2010-07-14 2015-08-06 株式会社日立メディコ 超音波画像の中間画像を生成する方法及び超音波診断装置
JP2021025921A (ja) * 2019-08-06 2021-02-22 株式会社キーエンス 三次元形状測定装置及び三次元形状測定方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015142832A (ja) * 2010-07-14 2015-08-06 株式会社日立メディコ 超音波画像の中間画像を生成する方法及び超音波診断装置
JP2021025921A (ja) * 2019-08-06 2021-02-22 株式会社キーエンス 三次元形状測定装置及び三次元形状測定方法

Also Published As

Publication number Publication date
JPWO2023149515A1 (ja) 2023-08-10

Similar Documents

Publication Publication Date Title
JP6736423B2 (ja) 三次元測定装置
JP5073256B2 (ja) 位置測定装置及び位置測定方法及び位置測定プログラム
US6519359B1 (en) Range camera controller for acquiring 3D models
US5747822A (en) Method and apparatus for optically digitizing a three-dimensional object
US20060072123A1 (en) Methods and apparatus for making images including depth information
JPH06501585A (ja) 全視野静止カメラオリエンテーションシステム
CN107155341A (zh) 三维扫描系统和框架
JP2018004278A (ja) 測定装置
JP6766883B2 (ja) 画像処理装置、顕微鏡システム、画像処理方法、およびプログラム
JP2019100995A (ja) 測量画像表示制御装置、測量画像表示制御方法および測量画像表示制御用プログラム
JP7460532B2 (ja) システム、方法及び装置
US20170103569A1 (en) Operator interface for 3d surface display using 2d index image
JP6716383B2 (ja) 顕微鏡システム、情報提示方法、プログラム
WO2023149515A1 (ja) 立体物イメージスキャナ
KR20050103597A (ko) 실시간 파노라마 비디오 영상을 이용한 감시 시스템 및 그시스템의 제어방법
JP6736424B2 (ja) 三次元測定装置
CN112132957A (zh) 一种高精度环形扫描方法及装置
CN114155288A (zh) 一种通过手势控制的ar空间可视三维重建方法
JP2021165672A (ja) レーザラスタ走査型3次元画像取得装置
JP7154084B2 (ja) 三次元形状測定装置および三次元形状測定プログラム
Hasanuddin et al. 3D scanner for orthodontic using triangulation method
JP2012138219A (ja) 試料ステージ装置、及び電子線装置
JP2018031746A (ja) 三次元測定装置
KR101990252B1 (ko) Vr 이미지 획득 방법, 이를 수행하기 위한 vr 촬영 프로그램이 설치된 휴대 단말기, 그리고 이 vr 촬영 프로그램을 휴대 단말기에 제공하는 서버
JPH08201025A (ja) 非接触座標寸法測定機

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 23749831

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2023578624

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE