JP2007255974A - Three-dimensional information measuring apparatus - Google Patents

Three-dimensional information measuring apparatus Download PDF

Info

Publication number
JP2007255974A
JP2007255974A JP2006078476A JP2006078476A JP2007255974A JP 2007255974 A JP2007255974 A JP 2007255974A JP 2006078476 A JP2006078476 A JP 2006078476A JP 2006078476 A JP2006078476 A JP 2006078476A JP 2007255974 A JP2007255974 A JP 2007255974A
Authority
JP
Japan
Prior art keywords
light
subject
image
dimensional
pattern
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2006078476A
Other languages
Japanese (ja)
Inventor
Takao Iwasaki
岳雄 岩崎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Brother Industries Ltd
Original Assignee
Brother Industries Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Brother Industries Ltd filed Critical Brother Industries Ltd
Priority to JP2006078476A priority Critical patent/JP2007255974A/en
Publication of JP2007255974A publication Critical patent/JP2007255974A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a three-dimensional information measuring apparatus, capable of enveloping object of photographing in a dark space, controlling increasing in size and weight, performing measurements and having high tolerance with respect to photographic object. <P>SOLUTION: The three-dimensional information measuring apparatus is provided with a mounting base, having a rotatable rotating and mounting surface for mounting an object; a light projection means, having a light source and an emergence hole for projecting light from the light source and emerging from the emergence hole to the object on the rotating and mounting surface; an image information generating means having an incidence hole for receiving images that enter the incidence hole among images of the object acquired by the light projection and generating image information; and a light-shielding screen for forming a substantially dark space and containing at least an emergence hole; the incidence hole; and the object on the rotating and mounting surface in the dark space. <P>COPYRIGHT: (C)2008,JPO&INPIT

Description

この発明は、被写体における三次元の形状を測定する三次元情報測定装置に関する。   The present invention relates to a three-dimensional information measuring apparatus that measures a three-dimensional shape of a subject.

被写体の三次元情報を測定するための装置が種々提案されている。例えば下記特許文献1には、撮像装置の光学条件と位置条件を検出し、検出されたこれらの条件及び撮像画像に基づいて被写体の三次元形状を測定する三次元形状測定装置が開示されている。
特開平11−118438号公報
Various devices for measuring three-dimensional information of a subject have been proposed. For example, Patent Document 1 below discloses a three-dimensional shape measuring device that detects optical conditions and position conditions of an imaging device and measures the three-dimensional shape of a subject based on the detected conditions and the captured image. .
Japanese Patent Laid-Open No. 11-118438

上記特許文献1に記載の三次元形状測定装置を始めとする種々のタイプの装置によって被写体の三次元形状を測定する場合、その測定環境が既定の条件を満たすことが望ましい。これは、一般に、規定の条件を想定してその条件下において好適に機能するよう装置が設計されているからである。三次元形状を高い精度で測定する場合には上記既定の条件を満たすことが必須となることもあり得る。ここで挙げられる測定環境には例えば被写体周辺の環境光等がある。   When measuring the three-dimensional shape of a subject with various types of devices including the three-dimensional shape measuring device described in Patent Document 1, it is desirable that the measurement environment satisfies a predetermined condition. This is because the apparatus is generally designed to function properly under the specified conditions. When measuring a three-dimensional shape with high accuracy, it may be essential to satisfy the predetermined condition. The measurement environment mentioned here includes, for example, ambient light around the subject.

上記特許文献1には三次元形状を測定するための種々の方法が開示されている。被写体周辺の環境光の影響についてモアレトポグラフィ法を例にとって説明する。   Patent Document 1 discloses various methods for measuring a three-dimensional shape. The influence of ambient light around the subject will be described using the moire topography method as an example.

モアレトポグラフィ法では所定のパタン光を被写体に投影する。次いで、パタン光が投影された被写体像を撮像してパタン像を撮像する。そして、この撮像されたパタン像と基準パタンとを重ね合わせてモアレ縞を生成する。これにより被写体の三次元形状を測定する。   In the moire topography method, a predetermined pattern light is projected onto a subject. Next, the subject image onto which the pattern light is projected is picked up to pick up a pattern image. Then, the captured pattern image and the reference pattern are overlapped to generate moire fringes. Thereby, the three-dimensional shape of the subject is measured.

モアレトポグラフィ法による三次元形状測定時において、例えば環境光光源により被写体像に局所的な高輝度部分ができてしまうことがある。ここでいう「環境光光源」とは、例えば測定室等に設置された蛍光灯や白熱灯等を示す。すなわち上記高輝度部分とは、被写体表面における蛍光灯や白熱灯等の反射成分の像である。   When measuring a three-dimensional shape by the moire topography method, for example, a local high-intensity portion may be formed in the subject image by an ambient light source. The term “ambient light source” as used herein refers to, for example, a fluorescent lamp or an incandescent lamp installed in a measurement room or the like. That is, the high brightness portion is an image of a reflection component such as a fluorescent lamp or an incandescent lamp on the surface of the subject.

上記高輝度部分が例えば極めて強い成分である場合、投影パタン光の明部と暗部の境界線が鮮鋭とならず、ぼやけてしまうことがある。この場合正確なモアレ縞が生成されず、結果、精度の高い三次元形状が測定できなくなってしまう。このような観点から、被写体周辺の環境光は既定の条件を満たすことが望ましいと言える。   When the high-luminance part is, for example, an extremely strong component, the boundary line between the bright part and the dark part of the projection pattern light may not be sharp and may be blurred. In this case, an accurate moire fringe is not generated, and as a result, a highly accurate three-dimensional shape cannot be measured. From this point of view, it can be said that the ambient light around the subject preferably satisfies a predetermined condition.

被写体周辺の環境光を既定の条件にするために例えば暗所(例えば明かりが消された部屋等)で三次元形状測定を行う方法が採用され得る。但しこの場合、暗所以外で三次元形状測定が行えないことから、測定場所が極めて限定的となる。   In order to set the ambient light around the subject to a predetermined condition, for example, a method of measuring a three-dimensional shape in a dark place (for example, a room where the light is turned off) may be employed. However, in this case, since the three-dimensional shape measurement cannot be performed except in a dark place, the measurement place is extremely limited.

また被写体周辺の環境光を既定の条件にするための別の方法として、例えば各構成要素を暗箱筐体に内包するよう三次元形状測定装置を構成することが知られている。このような三次元形状測定装置では、被写体は、暗箱筐体が成す暗所空間に内包されるようセットされる。三次元形状測定装置自体が暗所空間を成すことができるため、測定場所が限定的にならない。また暗箱筐体は一般に気密性が高い。このため暗所空間が安定的に形成され得る。すなわち上記の如き暗箱筐体を採用すると、測定場所を選ぶことなく精度の高い三次元形状測定が実現可能な三次元形状測定装置が提供される。   As another method for setting ambient light around the subject to a predetermined condition, for example, it is known to configure a three-dimensional shape measuring apparatus so that each component is included in a dark box housing. In such a three-dimensional shape measuring apparatus, the subject is set so as to be enclosed in a dark space formed by a dark box casing. Since the three-dimensional shape measuring device itself can form a dark space, the measurement location is not limited. Also, the dark box housing is generally highly airtight. For this reason, a dark space can be formed stably. That is, when the dark box casing as described above is employed, a three-dimensional shape measuring apparatus capable of realizing high-precision three-dimensional shape measurement without selecting a measurement place is provided.

しかし、各構成要素を暗箱筐体に内包するよう三次元形状測定装置を構成した場合、以下に示される問題が起こり得る。   However, when the three-dimensional shape measuring apparatus is configured to enclose each component in a dark box housing, the following problems may occur.

暗箱筐体には各構成要素全てを覆う程度に十分な大きさが要求される。従って三次元形状測定装置自体が極めて大型化してしまう。またこれに伴ってその全体的な重量も重くなってしまう。   The dark box housing is required to be large enough to cover all the components. Therefore, the three-dimensional shape measuring apparatus itself becomes very large. Along with this, the overall weight also increases.

また暗箱筐体を持つ三次元形状測定装置では、三次元測定可能な被写体が極めて限定的となる。例えば暗箱筐体を持たない三次元形状測定装置では、被写体が大きなものであっても、撮像装置の視野内に収まる程度の部分に関しては撮像可能であった。ところが暗箱筐体を持つ三次元形状測定装置では、暗箱筐体内のスペースを越えるサイズの被写体を当該筐体内に設置できない。このため上記のような大きな被写体に関しては、たとえその一部であっても撮像することができなかった。   Further, in a three-dimensional shape measuring apparatus having a dark box housing, subjects that can be measured three-dimensionally are extremely limited. For example, in a three-dimensional shape measuring apparatus that does not have a dark box casing, even if the subject is large, it is possible to take an image of a portion that is within the field of view of the imaging apparatus. However, in a three-dimensional shape measuring apparatus having a dark box casing, a subject having a size exceeding the space in the dark box casing cannot be placed in the casing. For this reason, the above-mentioned large subject could not be imaged even if it was a part of it.

すなわち従来の三次元形状測定装置では、三次元測定可能な被写体は暗箱筐体の形状及びサイズに依存して決定される。つまり、暗箱筐体の形状及びサイズに適合しない(すなわち収まらない)被写体を測定対象とすることができなかった。   That is, in the conventional three-dimensional shape measuring apparatus, the subject that can be measured three-dimensionally is determined depending on the shape and size of the dark box casing. That is, a subject that does not match (that is, does not fit) the shape and size of the dark box casing cannot be measured.

そこで、本発明は上記の事情に鑑みて、被写体を暗所空間に包むことが可能であり、大型化及び重量増加が抑えられ、且つ、測定可能な被写体の許容度が高い三次元情報測定装置を提供することを課題としている。   Therefore, in view of the above circumstances, the present invention can wrap a subject in a dark space, suppresses an increase in size and weight, and has a high tolerance for a measurable subject. It is an issue to provide.

上記の課題を解決する本発明の一態様に係る三次元情報測定装置は、被写体における三次元の形状を測定する装置である。この三次元情報測定装置は、被写体が載置される回転可能な回転載置面を有した載置台と、光源及び射出口を有し、射出口から射出される光源からの光を回転載置面上の被写体に投光する投光手段と、入射口を有し、該光が投光される被写体の像のうち入射口に入射する像を受像して画像情報を生成する画像情報生成手段と、略暗所空間を形成するための遮光幕であって、少なくとも射出口、入射口、及び、回転載置面上の被写体を該暗所空間に内包する遮光幕とを備えたことを特徴としたものである。   A three-dimensional information measuring apparatus according to an aspect of the present invention that solves the above problems is an apparatus that measures a three-dimensional shape of a subject. This three-dimensional information measuring device has a mounting table having a rotatable rotating mounting surface on which a subject is mounted, a light source and an emission port, and rotates and mounts light from the light source emitted from the emission port. Projection means for projecting light onto a subject on the surface, and image information generation means for generating image information by receiving an image incident on the entrance of the subject image to which the light is projected. And a light-shielding curtain for forming a substantially dark space, comprising at least an exit opening, an entrance opening, and a light-shielding curtain that includes a subject on the rotating placement surface in the dark space. It is what.

本発明に係る三次元情報測定装置によれば、折り畳み可能で軽量な遮光幕により暗所空間を形成することができる。このような遮光幕を、暗所空間を形成する手段として採用することにより、三次元情報測定装置を小型化及び軽量化させることが可能となる。また遮光幕は変形自在であるため、これにより形成される暗所空間も変形自在である。従って本発明に係る三次元情報測定装置によれば、様々な形状の被写体を暗所空間に内包することが可能となる。これにより、測定可能な被写体形状のバリエーションが増加する。   According to the three-dimensional information measuring apparatus according to the present invention, the dark space can be formed by the light-shielding curtain that is foldable and lightweight. By employing such a light-shielding curtain as a means for forming a dark space, the three-dimensional information measuring apparatus can be reduced in size and weight. Moreover, since the light-shielding curtain is deformable, the dark space formed thereby is also deformable. Therefore, according to the three-dimensional information measuring apparatus according to the present invention, it is possible to enclose subjects having various shapes in the dark space. As a result, variations in the subject shape that can be measured increase.

なお上記三次元情報測定装置において、投光手段は、照明光が射出される照明光射出口を有し、照明光射出口から射出された照明光で被写体を照明する照明手段と、所定のパタン光が射出されるパタン光射出口を有し、パタン光射出口から射出された該パタン光を回転載置面上の被写体に投影するパタン光投影手段とを有したものであっても良い。この場合、投光手段のうち、少なくとも照明光射出口及びパタン光射出口が該暗所空間に内包されていることが望ましい。また照明光が白色光であり、画像情報生成手段がカラー画像情報を生成可能であるものであっても良い。この場合、被写体における三次元の形状情報とともに、被写体における三次元の色情報を測定することができるようになる。   In the above three-dimensional information measuring apparatus, the light projecting means has an illumination light exit through which illumination light is emitted, and an illumination means for illuminating the subject with illumination light emitted from the illumination light exit, and a predetermined pattern. It may have a pattern light emission port from which light is emitted, and pattern light projection means for projecting the pattern light emitted from the pattern light emission port onto a subject on the rotating placement surface. In this case, it is desirable that at least the illumination light exit and the pattern light exit are included in the dark space among the light projecting means. Further, the illumination light may be white light, and the image information generation unit can generate color image information. In this case, the three-dimensional color information on the subject can be measured together with the three-dimensional shape information on the subject.

このような構成によれば、被写体の三次元形状情報に加えてその三次元の色情報を取得することも可能となる。三次元の色情報とは、物体の外周全体を俯瞰してその表面色情報を3次元閉空間上にて連結したものを指す。これは、従来装置にて開示されている、ある一観察面からみた二次元の色情報を三次元の形状情報に貼り付けただけの3次元データとは明確に異なるものを指し示している。   According to such a configuration, it is possible to acquire the three-dimensional color information in addition to the three-dimensional shape information of the subject. The three-dimensional color information refers to information obtained by connecting the surface color information in a three-dimensional closed space by looking down on the entire outer periphery of the object. This points to data that is clearly different from the three-dimensional data disclosed in the conventional apparatus, in which two-dimensional color information viewed from a certain observation plane is simply pasted on the three-dimensional shape information.

ここで、遮光幕の該暗所空間を成す側の面が、例えば照明光を散乱させる散乱面で合っても良い。   Here, the surface of the light shielding curtain that forms the dark space may be a scattering surface that scatters illumination light, for example.

このような構成によれば、暗所空間において被写体を一様な照明光で照明することが可能となる。被写体を一様な照明光で照明することにより、画像情報生成手段で受像される被写体像は色再現性の優れたものとなる。   According to such a configuration, it is possible to illuminate the subject with uniform illumination light in a dark space. By illuminating the subject with uniform illumination light, the subject image received by the image information generating means has excellent color reproducibility.

また上記三次元情報測定装置は、入射口に向かう被写体像の光路上に遮光幕が介在しないよう当該遮光幕の動きを規制する遮光幕規制手段を更に備えたものであっても良い。この遮光幕規制手段は、例えば遮光幕の一部を支持する少なくとも一本の支柱である。   The three-dimensional information measuring apparatus may further include a light-shielding curtain restricting unit that restricts the movement of the light-shielding curtain so that the light-shielding curtain does not intervene on the optical path of the subject image toward the entrance. The light shielding curtain regulating means is, for example, at least one column that supports a part of the light shielding curtain.

このような構成によれば、画像情報生成手段で受像される像が所望の像(すなわち被写体像)に限られるようになる。   According to such a configuration, an image received by the image information generation unit is limited to a desired image (that is, a subject image).

なお上記支柱は例えば載置台上に対して収納又は横倒し可能に立設されている。   In addition, the said support | pillar is standingly arranged so that accommodation or sideways fall is possible, for example with respect to a mounting base.

このような構成によれば、三次元情報測定装置がコンパクトとなり、例えばその持ち運び性が向上する。   According to such a configuration, the three-dimensional information measuring apparatus becomes compact, and for example, its portability is improved.

また上記三次元情報測定装置は、少なくとも投光手段及び画像情報生成手段を保持したハウジングを更に備えたものであっても良い。このハウジングは例えば遮光幕に固着されている。又は、遮光幕に着脱自在に保持されている。   The three-dimensional information measuring apparatus may further include a housing that holds at least light projecting means and image information generating means. This housing is fixed to, for example, a light shielding curtain. Alternatively, it is detachably held by the light shielding curtain.

また上記三次元情報測定装置は、ハウジングと載置台とを機械的に連結した連結手段を更に備えたものであっても良い。この連結手段は、例えばハウジングを載置台に対して移動自在に支持したものである。   The three-dimensional information measuring apparatus may further include a connecting means that mechanically connects the housing and the mounting table. For example, the connecting means supports the housing movably with respect to the mounting table.

本発明によれば、被写体を暗所空間に包むことが可能であり、大型化及び重量増加が抑えられ、且つ、測定可能な被写体の許容度が高い三次元情報測定装置が提供される。   According to the present invention, it is possible to provide a three-dimensional information measuring apparatus that can wrap a subject in a dark space, suppresses an increase in size and weight, and has a high tolerance for a subject that can be measured.

以下、図面を参照して、本発明の実施の形態の三次元情報測定装置の構成及び作用について説明する。   Hereinafter, the configuration and operation of the three-dimensional information measurement apparatus according to the embodiment of the present invention will be described with reference to the drawings.

図1及び2に、本発明の実施の形態の三次元情報測定装置10の外観を斜視図で示す。また、図3及び4に、三次元情報測定装置10の外観を側面図で示す。なお、三次元情報測定装置10は、後述されるようにその全体を白色カーテン600で覆われている。図1及び3では説明の便宜上、各構成要素(すなわち白色カーテン600の内側に配置された構成要素)を視認可能に示している。   1 and 2 are perspective views showing the appearance of the three-dimensional information measuring apparatus 10 according to the embodiment of the present invention. 3 and 4 are side views showing the external appearance of the three-dimensional information measuring apparatus 10. The three-dimensional information measuring apparatus 10 is entirely covered with a white curtain 600 as will be described later. 1 and 3, for convenience of explanation, each component (that is, a component disposed inside the white curtain 600) is visible.

三次元情報測定装置10は投影機能、照明機能、撮像機能、及び、三次元情報取得機能を有している。投影機能とは、被写体S(物体)の三次元形状情報の測定に必要なパタン光であって、複数種類のストライプ状のパタン光を被写体Sに投影する機能を示す。また照明機能とは、被写体Sの表面色情報の測定に必要な照明光を当該被写体Sに照明する機能を示す。また撮像機能とは、上記パタン光が投影された被写体S、又は、照明光が照明された被写体Sを撮像する機能を示す。また三次元情報取得機能とは、その撮像結果を用いて所定の信号処理を行い、被写体Sの三次元情報(表面色情報及び形状)を取得する機能を示す。   The three-dimensional information measuring apparatus 10 has a projection function, an illumination function, an imaging function, and a three-dimensional information acquisition function. The projection function is a pattern light necessary for measuring the three-dimensional shape information of the subject S (object), and indicates a function for projecting a plurality of types of striped pattern light onto the subject S. The illumination function refers to a function of illuminating the subject S with illumination light necessary for measuring the surface color information of the subject S. The imaging function refers to a function for imaging the subject S on which the pattern light is projected or the subject S on which illumination light is illuminated. The three-dimensional information acquisition function indicates a function of performing predetermined signal processing using the imaging result and acquiring three-dimensional information (surface color information and shape) of the subject S.

三次元情報測定装置10は、測定ヘッドMH、回転テーブルユニットRT、及び、レバー510を備えている。   The three-dimensional information measuring apparatus 10 includes a measuring head MH, a rotary table unit RT, and a lever 510.

回転テーブルユニットRT上面の一部は、回転可能な回転載置面190として構成されている。回転載置面190は例えば直径7インチの円状の面である。回転載置面190は、回転テーブルユニットRT上面と同一高さに面を成し、テーブルモータ194(図12参照)により回転し得る。回転載置面190上に被写体Sを載置して回転させると、測定ヘッドMHに対する被写体Sの向きがその回転に応じて変わる。回転テーブルユニットRTによって被写体Sが所定量ずつ回転されて、測定ヘッドMHがその回転毎に当該被写体Sを撮像することにより、被写体S表面の像が全周(すなわち360度)に渡って取得可能となる。   A part of the upper surface of the rotary table unit RT is configured as a rotatable mounting surface 190. The rotary mounting surface 190 is, for example, a circular surface having a diameter of 7 inches. The rotary mounting surface 190 is flush with the upper surface of the rotary table unit RT and can be rotated by a table motor 194 (see FIG. 12). When the subject S is placed on the rotary placement surface 190 and rotated, the orientation of the subject S with respect to the measurement head MH changes according to the rotation. The subject S is rotated by a predetermined amount by the rotary table unit RT, and the measurement head MH captures the subject S for each rotation, so that an image of the surface of the subject S can be acquired over the entire circumference (that is, 360 degrees). It becomes.

なお回転テーブルユニットRT上面には位置規制部196が形成されている。回転載置面190からはみ出るよう被写体Sが載置されている状態で当該回転載置面190が回転すると、そのはみ出し部分が位置規制部196側面に当たる。被写体Sは、位置規制部196側面に押されて回転載置面190内に収まるよう案内される。これにより、被写体Sは適切な位置に収められる。   A position restricting portion 196 is formed on the upper surface of the rotary table unit RT. When the rotation mounting surface 190 rotates while the subject S is mounted so as to protrude from the rotation mounting surface 190, the protruding portion hits the side surface of the position restricting portion 196. The subject S is pushed by the side surface of the position restricting portion 196 and guided so as to be within the rotating placement surface 190. Thereby, the subject S is stored in an appropriate position.

被写体Sについては、回転テーブルユニットRTの回転毎における上記撮像によって複数の部分画像が取得される。ここでいう「画像」とは、通常の平面画像のみならず、三次元物体の表面色情報、及び、その三次元形状情報を有する三次元画像をも包含するように解釈される。   For the subject S, a plurality of partial images are acquired by the above imaging for each rotation of the rotary table unit RT. The “image” here is interpreted so as to include not only a normal planar image but also a surface color information of a three-dimensional object and a three-dimensional image having the three-dimensional shape information.

上記複数の部分画像は、三次元形状情報として個々に抽出された後、形状ステッチ処理により単一の形状ステッチ画像に結合される。次いで、その被写体Sについて取得された複数の部分画像における表面色情報(テクスチャ)が、その形状ステッチ画像にマッピングされる。それと共にテクスチャステッチ処理により、その表面色情報によって表される複数の表面色が、それら複数の部分画像の継ぎ目において境界色差を有することなく接ぎ合わされる。これらの一連の処理により、その被写体Sについての三次元入力結果すなわち三次元色形状データが生成される。   The plurality of partial images are individually extracted as three-dimensional shape information, and then combined into a single shape stitch image by shape stitch processing. Next, the surface color information (texture) in the plurality of partial images acquired for the subject S is mapped to the shape stitch image. At the same time, by the texture stitch processing, the plurality of surface colors represented by the surface color information are joined together without having a boundary color difference at the joint of the plurality of partial images. Through a series of these processes, a three-dimensional input result for the subject S, that is, three-dimensional color shape data is generated.

回転テーブルユニットRTは、例えば周知の連結構造を持つジョイント520によりレバー510を矢印C方向に回動可能に支持している。レバー510とジョイント520は、互いの接触面において所定の静摩擦力が働くよう連結されている。従ってユーザがレバー510を矢印C方向に回動させてある位置で止めると、レバー510はその位置で停止する。   The rotary table unit RT supports a lever 510 so as to be rotatable in the direction of arrow C by a joint 520 having a well-known connection structure, for example. The lever 510 and the joint 520 are connected so that a predetermined static friction force acts on the contact surface. Accordingly, when the user stops the lever 510 at a position that is rotated in the direction of arrow C, the lever 510 stops at that position.

レバー510先端には測定ヘッドMHが機械的に結合されている。レバー510と測定ヘッドMHは、例えばねじ止めや接着等により強固に固定されている。   A measuring head MH is mechanically coupled to the tip of the lever 510. The lever 510 and the measurement head MH are firmly fixed by, for example, screwing or bonding.

測定ヘッドMHは、投影部12、撮像部14、処理部16、及び、ケーシング20を有している。投影部12は被写体Sに所定の複数種類のパタン光を選択的に投影するものである。撮像部14は被写体Sを撮像するものである。処理部16は、被写体Sの三次元形状及び表面色情報の取得を行うために各構成要素の制御、信号処理等を行うものである。ケーシング20は、これら投影部12、撮像部14、及び、処理部16を保持した略直方体状の筐体である。   The measurement head MH includes a projection unit 12, an imaging unit 14, a processing unit 16, and a casing 20. The projection unit 12 selectively projects a plurality of predetermined types of pattern light on the subject S. The imaging unit 14 images the subject S. The processing unit 16 performs control of each component, signal processing, and the like in order to acquire the three-dimensional shape and surface color information of the subject S. The casing 20 is a substantially rectangular parallelepiped housing that holds the projection unit 12, the imaging unit 14, and the processing unit 16.

またケーシング20には鏡筒24も保持されている。鏡筒24は、ケーシング20正面において部分的に露出するよう装着されている。撮像部14は撮像光学系30を有している。撮像光学系30は、その一部を成すレンズがケーシング20正面において露出するよう当該ケーシング20に装着されている。被写体Sの光学像は、撮像光学系30の上記露出部分に入射し得る。   A barrel 24 is also held in the casing 20. The lens barrel 24 is mounted so as to be partially exposed on the front surface of the casing 20. The imaging unit 14 has an imaging optical system 30. The imaging optical system 30 is mounted on the casing 20 such that a lens that forms part of the imaging optical system 30 is exposed on the front surface of the casing 20. The optical image of the subject S can enter the exposed portion of the imaging optical system 30.

鏡筒24の内部には、図10に示されるように、投影部12の一部を成す投影光学系32が収容されている。投影光学系32には、複数枚の投影レンズ34、及び、絞り36が含まれる。   As shown in FIG. 10, a projection optical system 32 constituting a part of the projection unit 12 is accommodated in the lens barrel 24. The projection optical system 32 includes a plurality of projection lenses 34 and a diaphragm 36.

鏡筒24は、投影光学系32を、焦点調節のために鏡筒ホルダ250内において全体的に移動可能である状態で保持している。また鏡筒24は、投影光学系32を損傷から保護している。複数枚の投影レンズ34のうち最も外側に位置するものがケーシング20正面において露出されている。投影光学系32は、その最も外側の投影レンズ34を最終出射面として被写体Sに向かってパタン光を投影する。   The lens barrel 24 holds the projection optical system 32 in a state in which it can move as a whole in the lens barrel holder 250 for focus adjustment. The lens barrel 24 protects the projection optical system 32 from damage. Of the plurality of projection lenses 34, the outermost one is exposed on the front surface of the casing 20. The projection optical system 32 projects the pattern light toward the subject S using the outermost projection lens 34 as the final emission surface.

また測定ヘッドMHの前面には、白色光を照射する白色LED(Light Emitting Diode)群26が備えられている。白色LED群26は被写体Sを照明するための手段であり、複数の周知の白色LED素子から成る。白色LED群26は処理部16に電気的に接続されており、処理部16の制御下で駆動する。   In addition, a white LED (Light Emitting Diode) group 26 that emits white light is provided on the front surface of the measurement head MH. The white LED group 26 is a means for illuminating the subject S, and includes a plurality of known white LED elements. The white LED group 26 is electrically connected to the processing unit 16 and is driven under the control of the processing unit 16.

後に詳説するが、パタン光投影は被写体Sの三次元形状情報を測定するために必要な処理である。パタン光投影時には白色LED群26による被写体Sの照明は行われない。これに対して白色LED群26による被写体Sの照明は、被写体Sの表面色情報を測定するために必要な処理である。上記照明時にはパタン光投影は行われない。   As will be described in detail later, pattern light projection is a process necessary for measuring the three-dimensional shape information of the subject S. The illumination of the subject S by the white LED group 26 is not performed during pattern light projection. On the other hand, illumination of the subject S by the white LED group 26 is a process necessary for measuring the surface color information of the subject S. Pattern light projection is not performed during the illumination.

測定ヘッドMH、回転テーブルユニットRT、レバー510等の各構成要素は白色カーテン600に内包されている。また被写体Sも白色カーテン600に内包されている。従って、被写体Sに入射し得る全ての外乱光は白色カーテン600によって遮断される。これにより、各構成要素及び被写体S周辺が暗所空間に包まれる。   Each component such as the measurement head MH, the rotary table unit RT, and the lever 510 is included in the white curtain 600. The subject S is also included in the white curtain 600. Accordingly, all disturbance light that can enter the subject S is blocked by the white curtain 600. Thereby, each component and the periphery of the subject S are enclosed in a dark space.

図5に、白色カーテン600を内面側から観察した展開図を示す。また図6に、白色カーテン600の断面図を示す。なお白色カーテン600の内面とは、後述の散乱面601aであり、当該白色カーテン600を三次元情報測定装置10に装着した際に各構成要素を覆う側の面を示す。   FIG. 5 shows a developed view of the white curtain 600 observed from the inner surface side. FIG. 6 shows a cross-sectional view of the white curtain 600. The inner surface of the white curtain 600 is a later-described scattering surface 601a, and indicates a surface that covers each component when the white curtain 600 is attached to the three-dimensional information measuring apparatus 10.

白色カーテン600は二層構造を有している。内面側の層が白色散乱層601であり、外面側の層が遮光層602である。遮光層602は例えば黒塗装された塩化ビニル樹脂から成る。遮光層602は優れた遮光性を有している。   The white curtain 600 has a two-layer structure. The inner side layer is the white scattering layer 601, and the outer side layer is the light shielding layer 602. The light shielding layer 602 is made of, for example, black-coated vinyl chloride resin. The light shielding layer 602 has excellent light shielding properties.

白色散乱層601は遮光層602の一方の面に塗布された白色の酸化チタン含有樹脂から成る。より具体的には、白色散乱層601は、遮光層602に塗布された後、その表面形状が機械散乱形状となるように周知のローラエンボス加工が施されている。白色散乱層601のエンボス加工面は、例えば平均表面粗さが2μm程度の面に仕上げられている。これは、白色LED群26が照射する白色光の波長よりも大きい。すなわち白色散乱層601のエンボス加工面は、白色LED群26の白色光を散乱させる特性を有する。以下、このエンボス加工面を散乱面601aと記す。   The white scattering layer 601 is made of a white titanium oxide-containing resin applied to one surface of the light shielding layer 602. More specifically, after the white scattering layer 601 is applied to the light shielding layer 602, a well-known roller embossing process is performed so that the surface shape thereof becomes a mechanical scattering shape. The embossed surface of the white scattering layer 601 is finished to a surface with an average surface roughness of about 2 μm, for example. This is larger than the wavelength of white light emitted by the white LED group 26. That is, the embossed surface of the white scattering layer 601 has a characteristic of scattering the white light of the white LED group 26. Hereinafter, this embossed surface is referred to as a scattering surface 601a.

白色カーテン600は矩形状の開口部603を有している。そして白色カーテン600には、開口部603周辺の外面を接着しろとしてカーテン枠610が接着されている。白色カーテン600とカーテン枠610は、例えばゴム系接着剤から成る接着部604により接着されている。カーテン枠610はその外形が矩形である。カーテン枠610には開口部603と略相似な開口部611が形成されている。   The white curtain 600 has a rectangular opening 603. A curtain frame 610 is bonded to the white curtain 600 with the outer surface around the opening 603 being bonded. The white curtain 600 and the curtain frame 610 are bonded by an adhesive portion 604 made of, for example, a rubber adhesive. The curtain frame 610 has a rectangular outer shape. An opening 611 that is substantially similar to the opening 603 is formed in the curtain frame 610.

カーテン枠610には測定ヘッドMHが装着可能である。図7に、カーテン枠610と測定ヘッドMHとの結合関係を説明するための断面図を示す。図7(a)に、測定ヘッドMHがカーテン枠610に装着された状態を示す。また図7(b)に、測定ヘッドMHがカーテン枠610から取り外された状態を示す。このようにカーテン枠610を取り外すことにより、暗所での撮影には不要な白色カーテン600を取り外して測定時の操作を容易にする効果がある。また、本発明に係る装置を使用しないときの収納に際して、カーテン枠610を取り外すことにより別途白色カーテン600部を折りたたんで収納しておけるため収納性が高いという効果がある。   A measuring head MH can be attached to the curtain frame 610. FIG. 7 shows a cross-sectional view for explaining the coupling relationship between the curtain frame 610 and the measuring head MH. FIG. 7A shows a state where the measurement head MH is mounted on the curtain frame 610. FIG. 7B shows a state in which the measuring head MH is removed from the curtain frame 610. By removing the curtain frame 610 in this manner, there is an effect that the white curtain 600 unnecessary for photographing in a dark place is removed and the operation at the time of measurement is facilitated. In addition, when the apparatus according to the present invention is not used, the white curtain 600 can be separately folded and stored by removing the curtain frame 610, so that the storage property is high.

図7(b)に示されるように、測定ヘッドMHのケーシング20には凸部20aが形成されている。凸部20aは開口部611と略同一形状及びサイズに形成されている。凸部20aは開口部611との嵌め合いが考慮されており、当該開口部611が成す開口に対して僅かに小さく形成されている。従って凸部20aは、開口部611に対して円滑に嵌め合わされる。   As shown in FIG. 7B, a convex portion 20a is formed on the casing 20 of the measuring head MH. The convex portion 20a is formed in substantially the same shape and size as the opening 611. The protrusion 20a is considered to be fit with the opening 611, and is formed slightly smaller than the opening formed by the opening 611. Accordingly, the convex portion 20a is smoothly fitted to the opening 611.

ここで、開口部603は開口部611よりも大きく形成されている。このため開口部611の壁部は、全周において開口部603の縁よりも内側に位置する。これは、測定ヘッドMH装着時において、開口部603の縁が開口部611の壁部と凸部20aとの間に介在し得ないことを意味する。従ってこのような構成によれば、開口部603の縁による上記嵌め合いの阻害が好適に防止される。またこれと同時に、開口部611と凸部20aとを隙間なく嵌合させることが可能となるため、カーテン枠610が成す暗所空間の気密性が向上する。   Here, the opening 603 is formed larger than the opening 611. For this reason, the wall part of the opening part 611 is located inside the edge of the opening part 603 in the whole periphery. This means that the edge of the opening 603 cannot be interposed between the wall of the opening 611 and the protrusion 20a when the measurement head MH is mounted. Therefore, according to such a configuration, the interference of the fitting due to the edge of the opening 603 is preferably prevented. At the same time, the opening 611 and the projection 20a can be fitted with no gap, and the airtightness of the dark space formed by the curtain frame 610 is improved.

なお、カーテン枠610に対する測定ヘッドMHの固定は例えばねじ止めにより実現される。カーテン枠610の四隅には図示しないねじ用穴が形成されている。これらのねじ穴の各々にはカーテン枠固定ねじ612が螺合されている。また開口部603周辺には、各カーテン枠固定ねじ612を挿通させるための四つの取付穴605があけられている。ケーシング20に形成された図示しないねじ用穴にカーテン枠固定ねじ612を螺合することにより、測定ヘッドMHとカーテン枠610とが固定される。   Note that the measurement head MH is fixed to the curtain frame 610 by, for example, screwing. Screw holes (not shown) are formed at the four corners of the curtain frame 610. A curtain frame fixing screw 612 is screwed into each of these screw holes. In addition, around the opening 603, four mounting holes 605 for inserting the curtain frame fixing screws 612 are formed. By screwing a curtain frame fixing screw 612 into a screw hole (not shown) formed in the casing 20, the measurement head MH and the curtain frame 610 are fixed.

図8に、カーテン枠610に装着された状態の測定ヘッドMHの背面図を示す。測定ヘッドMH(より正確には凸部20a)の背面には、レリーズボタン40、モード切替スイッチ42、4接点カーソルキー(方向キー)43、及び、モニタLCD(Liquid Crystal Display)44が設けられている。なおモード切替スイッチ42は三個のボタンから成る。モード切替スイッチ42及び4接点カーソルキー43はそれぞれ、ファンクションボタンの一例を構成する。   FIG. 8 shows a rear view of the measuring head MH mounted on the curtain frame 610. A release button 40, a mode changeover switch 42, a four-contact cursor key (direction key) 43, and a monitor LCD (Liquid Crystal Display) 44 are provided on the back of the measuring head MH (more precisely, the convex portion 20a). Yes. The mode changeover switch 42 includes three buttons. Each of the mode changeover switch 42 and the four-contact cursor key 43 constitutes an example of a function button.

なお三次元情報測定時には、図8に示された部分以外は全て、暗所空間すなわち白色カーテン600の内側に位置する。   Note that at the time of measuring three-dimensional information, all portions other than the portion shown in FIG.

レリーズボタン40は、三次元情報測定装置10を作動させるためにユーザによって操作される。このレリーズボタン40は、2段階の押しボタン式のスイッチによって構成されている。レリーズボタン40は、ユーザの操作状態(押下状態)が「半押し状態」である場合と「全押し状態」である場合とで異なる指令を発令できる。レリーズボタン40の操作状態は処理部16によって監視される。処理部16によって「半押し状態」が検出されれば周知のオートフォーカス(AF)及び自動露出(AE)の機能が起動する。これにより、ピント、絞り及びシャッタスピードが自動的に調節される。これに対して、処理部16によって「全押し状態」が検出されれば撮像等が行われる。   The release button 40 is operated by the user to operate the three-dimensional information measuring apparatus 10. The release button 40 is constituted by a two-stage push button type switch. The release button 40 can issue different commands depending on whether the user's operation state (pressed state) is “half-pressed state” or “full-pressed state”. The operation state of the release button 40 is monitored by the processing unit 16. When the “half-pressed state” is detected by the processing unit 16, known autofocus (AF) and automatic exposure (AE) functions are activated. Thereby, the focus, aperture, and shutter speed are automatically adjusted. On the other hand, if the “fully pressed state” is detected by the processing unit 16, imaging or the like is performed.

モード切替スイッチ42は、ユーザ・オペレーションにより三次元情報測定装置10の作動モードを複数種類のモードの何れかに設定するためのユーザ・インターフェースである。ここでいう複数種類のモードには、後述のSLOWモード、FASTモード、及び、オフモードが少なくとも含まれる。図8において「S」で示されたものがSLOWモードである。また「F」で示されたものがFASTモードである。また「OFF」で示されたものがオフモードである。モード切替スイッチ42の操作状態は処理部16によって監視されている。この操作状態が処理部16によって検出されると、その検出された操作状態に対応するモードでの処理が三次元情報測定装置10において実行される。   The mode changeover switch 42 is a user interface for setting the operation mode of the 3D information measurement apparatus 10 to any one of a plurality of modes by a user operation. The plurality of types of modes here include at least a later-described SLOW mode, FAST mode, and off mode. In FIG. 8, what is indicated by “S” is the SLOW mode. The one indicated by “F” is the FAST mode. Also, what is indicated by “OFF” is an off mode. The operation state of the mode switch 42 is monitored by the processing unit 16. When this operation state is detected by the processing unit 16, processing in a mode corresponding to the detected operation state is executed in the three-dimensional information measuring apparatus 10.

モニタLCD44は、液晶ディスプレイを用いて構成されている。モニタLCD44は処理部16から画像信号を受けて画像を表示する。このモニタLCD44は、例えば被写体Sの三次元形状の検出結果を表す画像(立体画像)等を表示する。   The monitor LCD 44 is configured using a liquid crystal display. The monitor LCD 44 receives the image signal from the processing unit 16 and displays an image. The monitor LCD 44 displays, for example, an image (stereoscopic image) representing the detection result of the three-dimensional shape of the subject S.

またケーシング20にはアンテナ50が装着されている。アンテナ50はRF(radio frequency)インタフェースである。アンテナ50は、図10に示されるようにRFドライバ52に接続されている。このアンテナ50は、所定の情報を、RFドライバ52を介して図示しない外部インタフェースに無線によって送受信する。この所定の情報には、例えば被写体Sを立体画像として表すデータやそれに関連する他の情報等が含まれる。   An antenna 50 is attached to the casing 20. The antenna 50 is an RF (radio frequency) interface. The antenna 50 is connected to the RF driver 52 as shown in FIG. The antenna 50 transmits and receives predetermined information wirelessly to an external interface (not shown) via the RF driver 52. The predetermined information includes, for example, data representing the subject S as a stereoscopic image and other information related thereto.

この三次元情報測定装置10は、上述した複数種類のモードのうちユーザによって選択されたものに従って作動する。SLOWモードは、被写体Sを低速で高精度で撮像する低速撮像モードであり、撮像精度優先モードである。FASTモードは、被写体Sを高速で低精度で撮像する高速撮像モードであり、撮像時間優先モードである。オフモードは、この三次元情報測定装置10の動作を停止させるモードである。   The three-dimensional information measuring apparatus 10 operates according to a mode selected by the user from the above-described multiple types of modes. The SLOW mode is a low-speed imaging mode in which the subject S is imaged with high accuracy at low speed, and is an imaging accuracy priority mode. The FAST mode is a high-speed imaging mode that images the subject S at high speed with low accuracy, and is an imaging time priority mode. The off mode is a mode in which the operation of the three-dimensional information measuring apparatus 10 is stopped.

撮像部14は、被写体Sを撮像し、その撮像結果から画素間引き画像と画素非間引き画像とを選択的に取り出すことができる。なお画素間引き画像とは、その被写体Sの全体画像を構成する画素群(以下、「被写体S全体画素群」と略記)の何れかを間引いて形成される画像である。また画素非間引き画像とは、被写体S全体画素群から何れの画素も間引かずに形成される画像である。信号処理に掛かる時間は、画素非間引き画像よりも画素間引き画像の方が短い。   The imaging unit 14 images the subject S, and can selectively extract a pixel thinned image and a pixel non-thinned image from the imaged result. It should be noted that the pixel thinned image is an image formed by thinning out any pixel group constituting the entire image of the subject S (hereinafter abbreviated as “subject S entire pixel group”). The pixel non-thinned image is an image formed without thinning out any pixels from the entire pixel group of the subject S. The time required for signal processing is shorter for the pixel-thinned image than for the non-pixel-thinned image.

CCDを用いた撮像の分野では、被写体Sの撮像結果から画素間引き画像を取り出すために、例えば加算方式や選択方式等が既に知られている。   In the field of imaging using a CCD, for example, an addition method or a selection method is already known in order to extract a pixel-thinned image from the imaging result of the subject S.

加算方式によれば、被写体S全体画素群が、複数の画素から成る幾つかの画素グループに分けられる。次いで、各画素グループに属する複数の対象画素の照度検出値が画素グループ毎に加算される。そしてその加算された照度を用いて、各画素グループに属する複数の対象画素の照度検出値が均等に分散される。   According to the addition method, the entire pixel group of the subject S is divided into several pixel groups including a plurality of pixels. Next, the illuminance detection values of a plurality of target pixels belonging to each pixel group are added for each pixel group. Then, using the added illuminance, the illuminance detection values of a plurality of target pixels belonging to each pixel group are evenly distributed.

これに対して選択方式によれば、複数の画素グループの各々に属する複数の対象画素から、それら対象画素を代表する代表画素が画素グループ毎に選択される。次いで、その選択された代表画素の照度検出値を用いて、各画素グループに属する複数の対象画素の照度検出値が均等に分散される。   On the other hand, according to the selection method, a representative pixel representing the target pixel is selected for each pixel group from a plurality of target pixels belonging to each of the plurality of pixel groups. Next, the illuminance detection values of a plurality of target pixels belonging to each pixel group are evenly distributed using the illuminance detection values of the selected representative pixels.

本実施形態では、撮像部14は、加算方式又は選択方式のうち予め選択されたものに従って、被写体Sの撮像結果から画素間引き画像を抽出することができる。   In the present embodiment, the imaging unit 14 can extract a pixel-thinned image from the imaging result of the subject S in accordance with an addition method or a selection method selected in advance.

画素間引き画像を抽出する間引き画像処理モードは、被写体Sを低速で高精度で撮像する低速撮像モードに適している。一方、画素非間引き画像を抽出する非間引き画像処理モードは、被写体Sを高速で低精度で撮像する高速撮像モードに適している。   The thinned-out image processing mode for extracting the pixel-thinned image is suitable for the low-speed imaging mode in which the subject S is imaged with high accuracy at low speed. On the other hand, the non-decimated image processing mode for extracting the pixel non-decimated image is suitable for a high-speed imaging mode for imaging the subject S at high speed with low accuracy.

従って本実施形態では、FASTモード選択時には間引き画像処理モードが設定される。一方、SLOWモード選択時には非間引き画像処理モードが設定される。   Therefore, in this embodiment, the thinned image processing mode is set when the FAST mode is selected. On the other hand, when the SLOW mode is selected, the non-decimated image processing mode is set.

図9に、白色カーテン600の作用を説明するための三次元情報測定装置10の側面図を示す。図9においても図1及び3と同様に、白色カーテン600の内側を説明の便宜上、視認可能に示している。   In FIG. 9, the side view of the three-dimensional information measuring device 10 for demonstrating the effect | action of the white curtain 600 is shown. In FIG. 9, as in FIGS. 1 and 3, the inside of the white curtain 600 is shown to be visible for convenience of explanation.

図9に示されるように、白色カーテン600は、例えば環境光光源が照射する外乱環境光α等を始めとする種々の外乱光を遮光する。このため白色カーテン600の内側は暗所空間となる。ここで、パタン光を投影する光学系(すなわち投影レンズ34)、及び、被写体Sは暗所空間に完全に内包されている。従って投影部12からのパタン光投影時において被写体Sに対して照射される光は、実質的に当該パタン光だけである。   As shown in FIG. 9, the white curtain 600 blocks various disturbance light such as disturbance environment light α irradiated by the environment light source. For this reason, the inside of the white curtain 600 becomes a dark space. Here, the optical system for projecting pattern light (that is, the projection lens 34) and the subject S are completely contained in the dark space. Accordingly, the light emitted to the subject S at the time of pattern light projection from the projection unit 12 is substantially only the pattern light.

また、パタン光投影像が入射される光学系(すなわち撮像光学系30)も暗所空間に完全に内包されている。このため撮像光学系30に入射されるパタン光投影像も、外乱光の影響を一切受けていないものとなる。後に詳説するが、撮像光学系30の後方にはCCD70が配置されている。CCD70は例えば周知のカラーCCDである。CCD70は、撮像光学系30の像側焦点面上にその受光面が位置するよう配置されている。   Further, the optical system (that is, the imaging optical system 30) on which the pattern light projection image is incident is completely included in the dark space. For this reason, the pattern light projection image incident on the imaging optical system 30 is also not affected by disturbance light at all. As will be described in detail later, a CCD 70 is disposed behind the imaging optical system 30. The CCD 70 is, for example, a well-known color CCD. The CCD 70 is arranged such that its light receiving surface is positioned on the image side focal plane of the imaging optical system 30.

すなわちCCD70は、外乱光の影響を実質的に受けていないパタン光投影像を受像することができる。このような画像に含まれるパタンの明部と暗部の境界は外乱光によって画面全体に生じるノイズ光成分を含まずに鮮鋭な境界として撮影可能である。このため、境界を特定する為のS/N比を向上させ、高精度な3次元形状を取得することができるという効果がある。処理部16は後述する処理により高精度な三次元形状の情報を取得する。   That is, the CCD 70 can receive a pattern light projection image that is not substantially affected by disturbance light. The boundary between the bright part and the dark part of the pattern included in such an image can be photographed as a sharp boundary without including a noise light component generated in the entire screen by disturbance light. For this reason, there is an effect that the S / N ratio for specifying the boundary can be improved and a highly accurate three-dimensional shape can be acquired. The processing unit 16 acquires highly accurate three-dimensional shape information by a process described later.

このような暗所空間を測定環境としたとき、例えばパタン光用の光源として照度の低いものを採用することができ、低消費電力であるという効果も兼ね備える。これは、外乱光の影響がないことから、投影光の照度が低くてもその投影パタン像のコントラストが十分に確保され、同時に所要精度を実現するS/N比が得られるからである。従って、低消費電力のLED(本実施形態におけるLED62)をパタン光用の光源として採用しても実使用上何ら問題ない。   When such a dark space is used as a measurement environment, for example, a light source with low illuminance can be used as a light source for pattern light, which also has the effect of low power consumption. This is because there is no influence of disturbance light, so that even if the illuminance of the projection light is low, the contrast of the projection pattern image is sufficiently secured, and at the same time, an S / N ratio that achieves the required accuracy can be obtained. Therefore, there is no problem in practical use even if a low power consumption LED (LED 62 in this embodiment) is adopted as a light source for pattern light.

また更に、白色LED群26も暗所空間に完全に内包されている。従って白色LED群26発光時において被写体Sに対して照射される光は、実質的に白色LED群26からの白色光だけである。   Furthermore, the white LED group 26 is also completely contained in the dark space. Therefore, the light emitted to the subject S when the white LED group 26 emits light is substantially only the white light from the white LED group 26.

白色LED群26は例えばある放射角をもって白色光を放射する。この白色光の一部の成分は被写体Sに直接当たる。すなわち被写体Sを直接照明する。これに対して残りの成分は被写体Sに当たらず、三次元情報測定装置10を成す他の構成要素に当たる。後者の成分の大部分は散乱面601aに当たり散乱される。これは、散乱面601aが暗所空間全体を覆うよう存在しているからである。なお被写体Sを直接照明した成分の大部分も、被写体S表面により反射された後、散乱面601aに当たり散乱される。   The white LED group 26 emits white light with a certain radiation angle, for example. A part of the white light component directly strikes the subject S. That is, the subject S is directly illuminated. On the other hand, the remaining components do not hit the subject S but hit other components constituting the three-dimensional information measuring apparatus 10. Most of the latter component hits the scattering surface 601a and is scattered. This is because the scattering surface 601a exists so as to cover the entire dark space. Most of the components directly illuminating the subject S are also reflected by the surface of the subject S and then scattered by the scattering surface 601a.

すなわち白色光は、白色LED群26から照射されてCCD70に受光されるまでに、その多くの成分が散乱面601aにより散乱される。従って白色LED群26発光時には、上記暗所空間は、散乱光成分によって一様な明るさを有した空間となる。このため被写体Sは一様な照度で照明され、かつ、ランダムな照明方向から照明された状態となる。この結果、CCD70で受像される被写体S像の輝度分布も被写体Sに影の生じにくい非常に安定した輝度および色度を有したものとなり、外乱光等に起因した局所的な外乱光による表面反射も存在しない。従って周知の自動露出(AE:例えばCCD70の電子シャッタスピード調整等)も適正に行われ、正確な色再現性が実現されることになる。更には、不正確な輝度および色度情報に起因した、ステッチ境界における色情報の段差も好適に防止される。つまり本実施形態に示される構成によれば、既知の照明条件で被写体Sを照明することにより、色再現性の悪化やステッチ境界における色情報の段差の発生等が好適に防止されるという効果がある。   That is, many components of white light are scattered by the scattering surface 601a before being irradiated from the white LED group 26 and received by the CCD 70. Therefore, when the white LED group 26 emits light, the dark space is a space having uniform brightness due to the scattered light component. Therefore, the subject S is illuminated with uniform illuminance and illuminated from a random illumination direction. As a result, the luminance distribution of the subject S image received by the CCD 70 also has very stable luminance and chromaticity in which the subject S is not easily shadowed, and surface reflection due to local disturbance light caused by disturbance light or the like. Does not exist. Accordingly, well-known automatic exposure (AE: electronic shutter speed adjustment of the CCD 70, for example) is appropriately performed, and accurate color reproducibility is realized. Furthermore, the step of the color information at the stitch boundary due to inaccurate luminance and chromaticity information is also preferably prevented. That is, according to the configuration shown in the present embodiment, by illuminating the subject S under a known illumination condition, it is possible to suitably prevent deterioration of color reproducibility, generation of a color information step at a stitch boundary, and the like. is there.

ここで、白色カーテン600が例えば外力が加えられることにより揺れて、回転載置面190上方の空間(より詳細には、投影レンズ34及び撮像光学系30と被写体Sとの間の光路)に干渉してしまうことが懸念される。このような場合、被写体Sにパタン光が投影されない、又は、白色カーテン600の像が撮像光学系30に入射してしまう(すなわち白色カーテン600がCCD70により撮像されてしまう)からである。このような問題を未然に防ぐため、三次元情報測定装置10には円筒形状を有した三本の支柱530が備えられている。   Here, the white curtain 600 sways, for example, when an external force is applied, and interferes with the space above the rotation mounting surface 190 (more specifically, the optical path between the projection lens 34 and the imaging optical system 30 and the subject S). I am worried about it. In such a case, the pattern light is not projected onto the subject S, or the image of the white curtain 600 is incident on the imaging optical system 30 (that is, the white curtain 600 is imaged by the CCD 70). In order to prevent such a problem, the three-dimensional information measuring apparatus 10 is provided with three columns 530 having a cylindrical shape.

三本の支柱530は回転テーブルユニットRT上面において収納可能に立設されている。上方から俯瞰されたときの回転テーブルユニットRTの形状は矩形である。三本の支柱530の各々は、この矩形が持つ四隅のうち何れかの隅近傍に設置されている。   The three support columns 530 are erected so as to be housed on the upper surface of the rotary table unit RT. The shape of the rotary table unit RT when viewed from above is a rectangle. Each of the three support columns 530 is installed in the vicinity of one of the four corners of the rectangle.

三本の支柱530の各々と回転テーブルユニットRTはコラムジョイント532により機械的に連結されている。コラムジョイント532は例えばジョイント520と同様に周知の連結構造を有している。各支柱530はコラムジョイント532により回転テーブルユニットRTに対して回動可能に支持されている。より詳細には、ユーザは、各支柱530を回動させることにより、当該支柱530を一点鎖線で示された位置にまで横倒しさせることができる。一点鎖線の位置に横倒しされたとき、支柱530は、その側面が回転テーブルユニットRT上面と線接触する。   Each of the three columns 530 and the rotary table unit RT are mechanically connected by a column joint 532. The column joint 532 has a well-known connection structure, for example, like the joint 520. Each column 530 is supported by a column joint 532 so as to be rotatable with respect to the rotary table unit RT. More specifically, the user can cause each column 530 to lie down to the position indicated by the alternate long and short dash line by rotating each column 530. When laid sideways at the position of the dashed line, the side surface of the column 530 is in line contact with the upper surface of the turntable unit RT.

図1及び2に示されたようにレバー510が倒されたとき、白色カーテン600は、その一部が各支柱530に支えられるように掛かる。支柱530は、例えば予め想定される測定対象物の高さよりも十分に長く且つレバー510よりも短くなるよう設計されている。従って支柱530は、被写体Sよりも上方において白色カーテン600を回転載置面190から離れる方向に退避させる。これにより回転載置面190上方の空間が確保されて、当該回転載置面190上方の空間に対する白色カーテン600の干渉が好適に防止される。   When the lever 510 is tilted as shown in FIGS. 1 and 2, the white curtain 600 is hung so that a part of the white curtain 600 is supported by each column 530. The support column 530 is designed to be sufficiently longer than the height of the measurement object assumed in advance and shorter than the lever 510, for example. Therefore, the support column 530 retracts the white curtain 600 in a direction away from the rotating placement surface 190 above the subject S. As a result, a space above the rotary placement surface 190 is secured, and interference of the white curtain 600 with the space above the rotary placement surface 190 is suitably prevented.

また図3及び4に示されたようにレバー510が立てられたとき、白色カーテン600は、レバー510に支持された測定ヘッドMHにより被写体S上方から吊り下げられた状態となる。そしてレバー510及び各支柱530に支えられるように掛かる。これにより白色カーテン600が被写体S上方において回転載置面190から離れる方向に退避される。この結果、回転載置面190上方の空間が確保されて、当該回転載置面190上方の空間に対する白色カーテン600の干渉が好適に防止される。   When the lever 510 is raised as shown in FIGS. 3 and 4, the white curtain 600 is suspended from above the subject S by the measurement head MH supported by the lever 510. Then, it is hung so as to be supported by the lever 510 and the respective columns 530. As a result, the white curtain 600 is retracted in the direction away from the rotary mounting surface 190 above the subject S. As a result, a space above the rotation placement surface 190 is secured, and interference of the white curtain 600 with the space above the rotation placement surface 190 is suitably prevented.

本実施形態に示されたように、白色カーテン600によって暗所空間を成すよう三次元情報測定装置10を構成した場合、以下の効果が期待される。   As shown in the present embodiment, when the three-dimensional information measuring apparatus 10 is configured to form a dark space with the white curtain 600, the following effects are expected.

白色カーテン600は、例えば従来採用されていた暗箱筐体と同等の暗所空間を成すことができる一方、被写体Sの側面全周方向および上面方向、また必要であれば斜め上面方向から、被写体Sの3次元の色および形状を簡便に測定できるという特徴を備えている。そして更に、このような大型暗箱筐体に比べて白色カーテン600の変形により必要な暗所環境を形成できるために、装置に厚みがなく且つ軽量であるという特徴も有している。また折り畳みも可能である。これらの観点から、白色カーテン600は、三次元情報測定装置10の小型化及び軽量化に多大に寄与すると言える。このような小型化及び軽量化に伴って、その持ち運び性も向上する。   The white curtain 600 can form a dark space equivalent to, for example, a conventionally used dark box housing, while the subject S from the entire circumferential direction and upper surface direction of the subject S and, if necessary, from the oblique upper surface direction. The three-dimensional color and shape can be easily measured. Furthermore, since the necessary dark environment can be formed by deformation of the white curtain 600 as compared with such a large dark box housing, the apparatus is also characterized by being thin and lightweight. It can also be folded. From these viewpoints, it can be said that the white curtain 600 greatly contributes to the reduction in size and weight of the three-dimensional information measuring apparatus 10. With such miniaturization and weight reduction, the portability is also improved.

また、回転テーブルユニットRTに対するレバー510や各支柱530の立設角度を変えることにより、白色カーテン600が成す暗所空間の形状を自在に変化させることができる。これは、暗所空間に内包可能な被写体形状のバリエーション増加につながる。投影レンズ34及び撮像光学系30と被写体Sとの間の光路に白色カーテン600が干渉しないようレバー510や各支柱530の立設角度を適切に調整することにより、様々な形状の被写体測定が実現可能となる。   Further, the shape of the dark space formed by the white curtain 600 can be freely changed by changing the standing angle of the lever 510 and each column 530 with respect to the rotary table unit RT. This leads to an increase in variations of the subject shape that can be included in the dark space. By appropriately adjusting the standing angle of the lever 510 and each column 530 so that the white curtain 600 does not interfere with the optical path between the projection lens 34 and the imaging optical system 30 and the subject S, measurement of subjects having various shapes is realized. It becomes possible.

また測定ヘッドMHをカーテン枠610から取り外して白色カーテン600を折り畳むことにより、当該白色カーテン600が極めてコンパクトに収納され得る。測定ヘッドMHや回転テーブルユニットRT等の構造物に対して白色カーテン600を取り外し可能に構成することにより、三次元情報測定装置10の持ち運び性が更に向上される。   Further, by removing the measuring head MH from the curtain frame 610 and folding the white curtain 600, the white curtain 600 can be accommodated extremely compactly. By configuring the white curtain 600 to be removable from structures such as the measurement head MH and the rotary table unit RT, the portability of the three-dimensional information measurement apparatus 10 is further improved.

また支柱530を回転テーブルユニットRT上に横倒しすることにより、三次元情報測定装置10の持ち運び性の更なる向上が期待される。   Further, by further lying the support column 530 on the rotary table unit RT, further improvement in the portability of the three-dimensional information measuring apparatus 10 is expected.

ここで、測定ヘッドMHの説明に戻る。投影部12は、所定の複数種類のパタン光を被写体Sに選択的に投影するためのユニットである。この投影部12は、図10及び図11に示されるように、基板60、LED62、照明絞り63、光源レンズ64、送りモータ(例えばパルスモータ)65、投影機構66、及び、投影光学系32を有している。また基板60、LED62、照明絞り63、及び、光源レンズ64により、光源部68が構成されている。LED62は、例えば金属基板に接合された単一のLED素子によって比較的に広い出射面から光を出力するタイプのLEDである。また投影機構66は、送りモータ65を駆動源として板状の光変調体200を送る機構である。投影部12の各構成要素は、投影方向に沿って直列的に配置されている。   Here, the description returns to the measurement head MH. The projection unit 12 is a unit for selectively projecting a predetermined plurality of types of pattern light onto the subject S. As shown in FIGS. 10 and 11, the projection unit 12 includes a substrate 60, an LED 62, an illumination diaphragm 63, a light source lens 64, a feed motor (for example, a pulse motor) 65, a projection mechanism 66, and a projection optical system 32. Have. A light source unit 68 is configured by the substrate 60, the LED 62, the illumination diaphragm 63, and the light source lens 64. The LED 62 is, for example, a type of LED that outputs light from a relatively wide emission surface by a single LED element bonded to a metal substrate. The projection mechanism 66 is a mechanism that feeds the plate-shaped light modulator 200 using the feed motor 65 as a drive source. Each component of the projection unit 12 is arranged in series along the projection direction.

図11には、この投影部12のハードウエア構成のうち、基板60、LED62、照明絞り63、光源レンズ64、光変調体200、及び、投影光学系32が詳細に示されている。図12には、この投影部12を含む三次元情報測定装置10全体のソフトウエア構成及び電気的接続関係が詳細に示されている。図13乃至図15には、投影部12のハードウエア構成のうち投影機構66が詳細に示されている。図16には、光変調体200が拡大されて示されている。   FIG. 11 shows in detail the substrate 60, the LED 62, the illumination stop 63, the light source lens 64, the light modulator 200, and the projection optical system 32 in the hardware configuration of the projection unit 12. FIG. 12 shows in detail the software configuration and electrical connection relationship of the entire three-dimensional information measuring apparatus 10 including the projection unit 12. 13 to 15 show the projection mechanism 66 in detail in the hardware configuration of the projection unit 12. FIG. 16 shows the light modulator 200 in an enlarged manner.

撮像部14は、被写体Sを撮像するためのユニットである。この撮像部14は、図10に示されるように、撮像光学系30及びCCD70を画像光の入射方向に沿って直列に備えている。CCD70は例えばベイヤー方式のカラーCCDであり、インターライントランスファー方式でプログレッシブ走査を行うよう構成されている。   The imaging unit 14 is a unit for imaging the subject S. As shown in FIG. 10, the imaging unit 14 includes an imaging optical system 30 and a CCD 70 in series along the incident direction of image light. The CCD 70 is, for example, a Bayer type color CCD and is configured to perform progressive scanning by an interline transfer method.

撮像光学系30は、図10に示されるように複数枚のレンズを用いて構成されている。この撮像光学系30は、周知のオートフォーカス機能及び自動露出機能により、焦点距離、絞り及びシャッタ時間を自動調整して入射光をCCD70上に結像させる。   The imaging optical system 30 is configured using a plurality of lenses as shown in FIG. The imaging optical system 30 automatically adjusts the focal length, the aperture, and the shutter time by a well-known autofocus function and automatic exposure function to form incident light on the CCD 70.

CCD70の受光面には、フォトダイオード素子等の光電変換素子がマトリクス状に配置されている。このCCD70は、撮像光学系30を介してその表面に結像される光学像を、周知の光電変換によりその色及び強さに応じた信号として画素毎に生成する。ここで生成された信号は、デジタルデータに変換されて処理部16に出力される。   On the light receiving surface of the CCD 70, photoelectric conversion elements such as photodiode elements are arranged in a matrix. The CCD 70 generates an optical image formed on its surface via the imaging optical system 30 for each pixel as a signal corresponding to its color and intensity by well-known photoelectric conversion. The signal generated here is converted into digital data and output to the processing unit 16.

処理部16は、図12に示されるように、レリーズボタン40及びモード切替スイッチ42の各々に電気的に接続されている。処理部16は、更に、モニタLCDドライバ72を介してモニタLCD44、RFドライバ52を介してアンテナ50、電源インタフェース76を介してバッテリ74にそれぞれ電気的に接続されている。これらの各構成要素は処理部16の制御下で動作する。   As shown in FIG. 12, the processing unit 16 is electrically connected to each of the release button 40 and the mode changeover switch 42. The processing unit 16 is further electrically connected to the monitor LCD 44 via the monitor LCD driver 72, the antenna 50 via the RF driver 52, and the battery 74 via the power interface 76. Each of these components operates under the control of the processing unit 16.

処理部16は、更に、外部メモリ78及びキャッシュメモリ80にそれぞれ電気的に接続されている。処理部16は、更に、光源ドライバ84を介してLED62、送りモータドライバ86を介して投影機構66の送りモータ65、CCDインタフェース88を介してCCD70にそれぞれ電気的に接続されている。これらの各構成要素も先と同様に処理部16の制御下で動作する。   The processing unit 16 is further electrically connected to the external memory 78 and the cache memory 80, respectively. The processing unit 16 is further electrically connected to the LED 62 via the light source driver 84, the feed motor 65 of the projection mechanism 66 via the feed motor driver 86, and the CCD 70 via the CCD interface 88. Each of these components also operates under the control of the processing unit 16 as before.

外部メモリ78は例えば着脱可能なフラッシュROM(Read Only Memory)である。外部メモリ78には、立体画像モードにおいて撮像された撮像画像や三次元情報(前述の三次元色形状データやそれに関連する情報を含む)を記憶することが可能である。外部メモリ78を構成するために、例えばSDカード(登録商標)、コンパクトフラッシュ(登録商標)カード等を採用しても良い。   The external memory 78 is, for example, a detachable flash ROM (Read Only Memory). The external memory 78 can store a captured image captured in the stereoscopic image mode and three-dimensional information (including the above-described three-dimensional color shape data and related information). In order to configure the external memory 78, for example, an SD card (registered trademark), a compact flash (registered trademark) card, or the like may be employed.

キャッシュメモリ80は、例えばデータの読み書きを高速で行い得る記憶装置である。キャッシュメモリ80には、例えば所定のモードで撮像された撮像画像が高速で転送される。キャッシュメモリ80は、処理部16で画像処理が実行された後に外部メモリ78にその画像を格納することを可能とするために使用される。キャッシュメモリ80には、例えばSDRAM(Synchronous DRAM)やDDRRAM(Double Data Rate RAM)等が採用され得る。   The cache memory 80 is a storage device that can read and write data at high speed, for example. For example, a captured image captured in a predetermined mode is transferred to the cache memory 80 at a high speed. The cache memory 80 is used to enable the image to be stored in the external memory 78 after the image processing is executed by the processing unit 16. As the cache memory 80, for example, SDRAM (Synchronous DRAM), DDRRAM (Double Data Rate RAM) or the like can be adopted.

電源インタフェース76、光源ドライバ84、送りモータドライバ86、及び、CCDインタフェース88はそれぞれ、バッテリ74、LED62、モータ65、及び、CCD70を制御する各種のIC(Integrated Circuit)によって構成されている。   The power interface 76, the light source driver 84, the feed motor driver 86, and the CCD interface 88 are configured by various ICs (Integrated Circuits) that control the battery 74, the LED 62, the motor 65, and the CCD 70, respectively.

図8に示されるように測定ヘッドMHには、ACアダプタ端子90、及び、USB端子91が設けられている。ACアダプタ端子90は、図10にも示されるように、バッテリ74に電気的に接続されている。これにより、三次元情報測定装置10は外部の交流電源を電力源として作動可能となっている。USB端子91は、USBドライバ93を介して処理部16に接続されている。また図10に示されるように測定ヘッドMHにはテーブルモータ端子92が備えられている。テーブルモータ端子92は、テーブルモータドライバ94を介して処理部16に接続されている。   As shown in FIG. 8, the measurement head MH is provided with an AC adapter terminal 90 and a USB terminal 91. The AC adapter terminal 90 is electrically connected to the battery 74 as shown in FIG. Thereby, the three-dimensional information measuring apparatus 10 can be operated using an external AC power source as a power source. The USB terminal 91 is connected to the processing unit 16 via the USB driver 93. As shown in FIG. 10, the measurement head MH is provided with a table motor terminal 92. The table motor terminal 92 is connected to the processing unit 16 via a table motor driver 94.

回転テーブルユニットRTから電気ラインとしてハーネス(不図示)が延び出している。このハーネスはテーブルモータ端子92に接続されている。ハーネスは、測定ヘッドMHから回転テーブルユニットRTに制御信号及び電力を供給する電気ラインとして機能する。従って、図12に示されるように、テーブルモータ194がテーブルモータドライバ94を介して処理部16に接続されることになる。   A harness (not shown) extends from the rotary table unit RT as an electric line. This harness is connected to the table motor terminal 92. The harness functions as an electric line that supplies a control signal and power from the measuring head MH to the rotary table unit RT. Accordingly, as shown in FIG. 12, the table motor 194 is connected to the processing unit 16 via the table motor driver 94.

基板60は、例えばアルミニウム製基板に絶縁性合成樹脂を塗布してから無電解メッキによってパタンを形成したものであっても良い。又は、例えばガラスエポキシ基材をコアとする単層または多層構造の基板を使用して製作されたものであって良い。基板60にはLED62が実装されている。LED62は、投影機構66に向けて放射状のアンバー色の光を広い面積で発光する光源である。LED62は、その表側が透明樹脂製であるLEDケーシング100内に収容されている。   For example, the substrate 60 may be formed by applying an insulating synthetic resin to an aluminum substrate and then forming a pattern by electroless plating. Alternatively, for example, it may be manufactured using a single-layer or multilayer substrate having a glass epoxy base as a core. LEDs 62 are mounted on the substrate 60. The LED 62 is a light source that emits radial amber light toward the projection mechanism 66 in a wide area. The LED 62 is accommodated in an LED casing 100 whose front side is made of a transparent resin.

照明絞り63は、LED62から出力された光のうち不要な部分を遮光する機能を果たす。これにより必要な部分の光のみが光源レンズ64に誘導される。光源レンズ64は、LED62からの放射光を集光するレンズである。その材質は例えばアクリルに代表される光学プラスチックである。   The illumination diaphragm 63 functions to shield unnecessary portions of the light output from the LED 62. As a result, only the necessary portion of light is guided to the light source lens 64. The light source lens 64 is a lens that condenses the emitted light from the LED 62. The material is, for example, an optical plastic represented by acrylic.

本実施形態では、図11に示されるように、LED62からの放射光が光源レンズ64によって効率良く集光される。次いでこの光は、所定の円錐頂角を有する入射角特性をもって、入射面106に対してその円錐の軸が略直角であるように入射する。そして指向性の高い放射光として投影機構66の出射面108から出射される。光源レンズ64はコリメートレンズとして機能する。図11には、その出射面108上において互いに隔たった2個の注目点A、Bにつき、それぞれの指向性特性が照度分布のグラフ(θ:半値拡がり半角)で表されている。   In the present embodiment, as shown in FIG. 11, the emitted light from the LED 62 is efficiently condensed by the light source lens 64. This light then has an incident angle characteristic having a predetermined cone apex angle and is incident so that the axis of the cone is substantially perpendicular to the incident surface 106. And it is radiate | emitted from the output surface 108 of the projection mechanism 66 as emitted light with high directivity. The light source lens 64 functions as a collimating lens. In FIG. 11, the directivity characteristics of two attention points A and B separated from each other on the emission surface 108 are represented by an illuminance distribution graph (θ: half-value spread half-angle).

投影光学系32は複数枚の投影レンズ34を含んでいる。複数枚の投影レンズ34は、投影機構66を通過した光を被写体Sに向かって投影するためのものである。これらの投影レンズ34は、例えばガラス製レンズと光学プラスチック製レンズとの組合せから成るテレセントリックなレンズ系を成す。   The projection optical system 32 includes a plurality of projection lenses 34. The plurality of projection lenses 34 are for projecting light that has passed through the projection mechanism 66 toward the subject S. These projection lenses 34 form a telecentric lens system composed of, for example, a combination of a glass lens and an optical plastic lens.

ここでいう「テレセントリック」とは、投影光学系32を通過する主光線が、入射側の空間では投影光学系32の光軸Oに平行になり入射瞳の位置が無限になる構成を意味する。すなわちここでの例では入射側テレセントリックを意味する。 Here, “telecentric” means a configuration in which the principal ray passing through the projection optical system 32 is parallel to the optical axis O 2 of the projection optical system 32 and the position of the entrance pupil is infinite in the incident side space. . That is, in this example, it means incident side telecentric.

投影光学系32は、上述のようにテレセントリック特性を持ち、その入射開口角θNAが0.1程度である。このため投影光学系32の光路は、入射開口角θNAとして垂直±5度以内の光のみが絞り36を通過できるよう規制されている。   The projection optical system 32 has telecentric characteristics as described above, and its incident aperture angle θNA is about 0.1. For this reason, the optical path of the projection optical system 32 is restricted so that only light within an angle of ± 5 degrees perpendicular to the incident aperture angle θNA can pass through the stop 36.

従って本実施形態では、投影光学系32のテレセントリック性により、投影機構66を垂直±5度以内で通過する光のみを投影光学系32によって物体に投影し得る構成と相俟って、投影画像の画質向上を容易に図り得る。   Therefore, in the present embodiment, due to the telecentricity of the projection optical system 32, coupled with a configuration in which only light passing through the projection mechanism 66 within ± 5 degrees perpendicularly can be projected onto the object by the projection optical system 32, the projection image Image quality can be improved easily.

その理由を説明するに、被投影体から出射される特定の角度成分のみが結像に供される方が、解像度特性、スペクトラム特性、照度分布特性、コントラスト特性等、大半の光学的特性の仕様上有利であるからである。なお被投影体は、本実施形態では光変調体200が該当するが、一般にはスライドや透過型液晶が該当する。   To explain the reason, specifications for most optical characteristics such as resolution characteristics, spectrum characteristics, illuminance distribution characteristics, contrast characteristics, etc., when only a specific angle component emitted from the projection object is used for imaging It is because it is advantageous. The projection target corresponds to the light modulator 200 in this embodiment, but generally corresponds to a slide or a transmissive liquid crystal.

ここで、図13乃至図15を参照することにより、投影部12のハードウエア構成のうち投影機構66について詳細に説明する。   Here, the projection mechanism 66 in the hardware configuration of the projection unit 12 will be described in detail with reference to FIGS. 13 to 15.

投影機構66は、光源部68からの入射光を複数種類のパタン光に選択的に変換することができる。投影機構66でのパタン光の切り替えにより、複数種類のパタン光が被写体Sに順次投影される。図13に、投影機構66の正面図を示す。この正面図は、光軸Oに沿った方向において投影光学系32側から投影機構66を観察して示した図である。 The projection mechanism 66 can selectively convert incident light from the light source unit 68 into a plurality of types of pattern light. A plurality of types of pattern light are sequentially projected onto the subject S by switching the pattern light in the projection mechanism 66. FIG. 13 shows a front view of the projection mechanism 66. The front view is a view showing by observing the projection mechanism 66 from the projection optical system 32 side in the direction along the optical axis O 2.

投影機構66は、光軸Oに直交する方向に板状を成して延びた光変調体200を有している。光変調体200はキャリッジ202に取り付けられている。キャリッジ202は、送りモータ65により光変調体200の長手方向沿いに往復直線運動される。 The projection mechanism 66 includes a light modulator 200 that extends in a plate shape in a direction perpendicular to the optical axis O 2 . The light modulator 200 is attached to the carriage 202. The carriage 202 is reciprocated linearly along the longitudinal direction of the light modulator 200 by the feed motor 65.

説明を加えると、投影機構66はハウジング204を備えている。このハウジング204は例えば測定ヘッドMHのハウジングの一部を成すものであっても良い。ハウジング204には送りモータ65が取り付けられている。そのハウジング204のうち対向する2つの支持部206の間に、主ガイド210と副ガイド212とが、半径方向に隙間を隔てて互いに平行に延びる姿勢で設置されている。   In addition, the projection mechanism 66 includes a housing 204. The housing 204 may be a part of the housing of the measuring head MH, for example. A feed motor 65 is attached to the housing 204. A main guide 210 and a sub guide 212 are installed between two opposing support portions 206 of the housing 204 in a posture extending in parallel to each other with a gap in the radial direction.

主ガイド210、副ガイド212はそれぞれ、両端において2つの支持部206の各々に支持されている。主ガイド210、副ガイド212は何れも、同一の円形断面を有して真っ直ぐに延びている。その材質は例えばステンレスである。また、外形は例えば円筒度が3μm程度の精度で加工されている。主ガイド210及び副ガイド212は、光軸Oと直交する方向に直線的に延びる送りガイドとして機能する。 The main guide 210 and the sub guide 212 are respectively supported by two support portions 206 at both ends. Both the main guide 210 and the sub guide 212 have the same circular cross section and extend straight. The material is stainless steel, for example. The outer shape is processed with an accuracy of, for example, a cylindricity of about 3 μm. Main guide 210 and the sub-guide 212 serves as a feed guide extending linearly in a direction perpendicular to the optical axis O 2.

主ガイド210及び副ガイド212により、キャリッジ202が直線的に往復運動可能に案内される。その案内を実現するために、キャリッジ202は、図13に示されるように、嵌合部214及びスライダ216を備えている。嵌合部214及びスライダ216は、キャリッジ202の移動方向と直交する方向に互いに隔てられるよう配置されている。   The carriage 202 is guided linearly and reciprocally by the main guide 210 and the sub guide 212. In order to realize the guidance, the carriage 202 includes a fitting portion 214 and a slider 216 as shown in FIG. The fitting portion 214 and the slider 216 are disposed so as to be separated from each other in a direction orthogonal to the moving direction of the carriage 202.

キャリッジ202は、嵌合部214において、主ガイド210の軸線周りに摺動可能に当該主ガイド210に支持される。具体的には、例えば嵌合部214にすべり軸受218が固定され、そのすべり軸受218に主ガイド210が潤滑剤(グリス等)を介して摺動可能に嵌合される。すべり軸受218は、例えば油浸ポーラス金属体から成り、主ガイド210との液体界面を用いた摺動を可能にする。   The carriage 202 is supported by the main guide 210 at the fitting portion 214 so as to be slidable around the axis of the main guide 210. Specifically, for example, a sliding bearing 218 is fixed to the fitting portion 214, and the main guide 210 is slidably fitted to the sliding bearing 218 via a lubricant (such as grease). The slide bearing 218 is made of, for example, an oil-immersed porous metal body, and enables sliding using a liquid interface with the main guide 210.

主ガイド210とすべり軸受218は、それらの間の嵌合すきま精度が最大でも12μmであるように部品形状精度が管理・製造されている。このような構成を採用することにより、主ガイド210とすべり軸受218の間の嵌合すきまに起因する光変調体200の位置ずれを12μm以内に抑えることが可能となる。その結果、被写体Sに対してパタン光をずれが少ない状態で正確に投影することが可能となる。   The main guide 210 and the plain bearing 218 are managed and manufactured with a component shape accuracy so that the fitting clearance accuracy between them is 12 μm at the maximum. By adopting such a configuration, it is possible to suppress the positional deviation of the light modulator 200 due to the fitting clearance between the main guide 210 and the slide bearing 218 within 12 μm. As a result, it is possible to accurately project the pattern light on the subject S with little deviation.

投影光学系32の倍率を例えば40倍であるとしたとき、光変調体200の位置ずれが12μmを超えない限り、被写体S上におけるパタン光の位置ずれは0.48mmを超えない。このように、がたの少ない高精度な直線運動機構と、移動する光変調体200という適切な組合せにより、被写体Sの三次元入力精度を向上させることが容易となる。   When the magnification of the projection optical system 32 is 40 times, for example, the positional deviation of the pattern light on the subject S does not exceed 0.48 mm unless the positional deviation of the light modulator 200 exceeds 12 μm. As described above, it is easy to improve the three-dimensional input accuracy of the subject S by an appropriate combination of the highly accurate linear motion mechanism with less play and the moving light modulator 200.

一方、キャリッジ202はスライダ216において、副ガイド212の外周面に接触する状態で、その外周面に沿って副ガイド212の軸線方向に摺動させられる。スライダ216は、副ガイド212の外周面に潤滑剤(グリス等)を介して摺動可能に押し付けられる。その押付けは、後述の送りベルト220に予め付与されたテンションを利用して行われる。   On the other hand, the carriage 202 is slid in the axial direction of the sub guide 212 along the outer peripheral surface of the slider 216 while being in contact with the outer peripheral surface of the sub guide 212. The slider 216 is slidably pressed against the outer peripheral surface of the sub guide 212 via a lubricant (such as grease). The pressing is performed using a tension applied in advance to a feed belt 220 described later.

本実施形態では、キャリッジ202が主ガイド210周りに正逆両方向にスライド回転可能に嵌合されている。その一方で、スライダ216と副ガイド212との当接により、それら正逆両方向のスライド回転が一方向的に機械的に阻止されている。光変調体200は、後に詳述するが、選択的に実現されるべき複数種類のパタン光投影に対応する複数の平面的光学素子260(図16参照)を備えている。各平面的光学素子260は同一平面内において直列で並べられている。本実施形態では、キャリッジ202が副ガイド212に当接している状態において、光源部68からの入射光が平面的光学素子260に対して略垂直に入射するよう、キャリッジ202が配置されている。   In this embodiment, the carriage 202 is fitted around the main guide 210 so as to be slidable in both forward and reverse directions. On the other hand, the slide rotation in both forward and reverse directions is mechanically prevented in one direction by the contact between the slider 216 and the sub guide 212. Although described in detail later, the light modulator 200 includes a plurality of planar optical elements 260 (see FIG. 16) corresponding to a plurality of types of pattern light projections to be selectively realized. The planar optical elements 260 are arranged in series in the same plane. In the present embodiment, the carriage 202 is arranged so that incident light from the light source unit 68 enters the planar optical element 260 substantially perpendicularly while the carriage 202 is in contact with the sub guide 212.

なお本実施形態では、主ガイド210及び副ガイド212の何れも円筒外周面を有するロッドとして構成されている。しかし、少なくとも副ガイド212については、そのように構成することは不可欠ではない。副ガイド212は、例えばその軸線に平行に延びる平面部を有するように構成されたものであっても良い。この場合、副ガイド212は、その平面部においてスライダ216を受けることができる。   In this embodiment, both the main guide 210 and the sub guide 212 are configured as rods having a cylindrical outer peripheral surface. However, it is not essential to make such a configuration at least for the sub guide 212. For example, the sub guide 212 may be configured to have a flat surface portion extending in parallel with the axis thereof. In this case, the sub-guide 212 can receive the slider 216 at the plane portion.

投影機構66は、図13に示されるように駆動機構222を有している。駆動機構222は、キャリッジ202を主ガイド210及び副ガイド212に沿って駆動するための機構である。駆動機構222には、送りモータ65、及び、送りベルト220(閉曲線を形成する伝動媒体の一例)が備えられている。   The projection mechanism 66 has a drive mechanism 222 as shown in FIG. The drive mechanism 222 is a mechanism for driving the carriage 202 along the main guide 210 and the sub guide 212. The drive mechanism 222 includes a feed motor 65 and a feed belt 220 (an example of a transmission medium that forms a closed curve).

送りベルト220は、主ガイド210と副ガイド212とが成す空間においてその長手方向に沿って配置されている。上記空間には、駆動ギヤ(駆動回転体の一例)224と従動ギヤ(従動回転体の一例)226とが、キャリッジ202の上記長手方向において隔てられるよう設置されている。送りベルト220は駆動ギヤ224と従動ギヤ226に巻き掛けられている。送りベルト220の内周面には複数の歯が形成されている。一方、駆動ギヤ224及び従動ギヤ226の外周面にも複数の歯が形成されている。送りベルト220の歯と、駆動ギヤ224及び従動ギヤ226の歯は互いに噛み合わせられている。   The feed belt 220 is disposed along the longitudinal direction in a space formed by the main guide 210 and the sub guide 212. In the space, a driving gear (an example of a driving rotator) 224 and a driven gear (an example of a driven rotator) 226 are installed so as to be separated in the longitudinal direction of the carriage 202. The feed belt 220 is wound around the drive gear 224 and the driven gear 226. A plurality of teeth are formed on the inner peripheral surface of the feed belt 220. On the other hand, a plurality of teeth are also formed on the outer peripheral surfaces of the drive gear 224 and the driven gear 226. The teeth of the feed belt 220 and the teeth of the drive gear 224 and the driven gear 226 are meshed with each other.

駆動ギヤ224と従動ギヤ226に送りベルト220が巻き掛けられる結果、その送りベルト220に2本の直線部が形成される。2本の直線部のうちの一方にキャリッジ202が固定されている。具体的には、送りベルト220の一端が、キャリッジ202においてその移動方向に互いに隔てられるよう配置された2つの連結部230の一方に固定される。またその他端がそれら2つの連結部230のもう一方に固定されている。   As a result of the feed belt 220 being wound around the drive gear 224 and the driven gear 226, two linear portions are formed on the feed belt 220. A carriage 202 is fixed to one of the two straight portions. Specifically, one end of the feed belt 220 is fixed to one of the two connecting portions 230 arranged to be separated from each other in the moving direction in the carriage 202. The other end is fixed to the other of the two connecting portions 230.

駆動ギヤ224は送りモータ65によって駆動される。これにより、送りベルト220の往復直線運動が実現される。一方、従動ギヤ226は、ハウジング204に固定された支持シャフト234に回転可能に支持されている。   The drive gear 224 is driven by the feed motor 65. Thereby, the reciprocating linear motion of the feed belt 220 is realized. On the other hand, the driven gear 226 is rotatably supported by a support shaft 234 fixed to the housing 204.

図14には、光変調体200及びキャリッジ202が、光源部68及び投影光学系32と共に平面図で示されている。この平面図は、光軸Oに直交する方向において観察される図である。 In FIG. 14, the light modulator 200 and the carriage 202 are shown in plan view together with the light source unit 68 and the projection optical system 32. The plan view is a view observed in a direction perpendicular to the optical axis O 2.

光源部68は、コリメートレンズ鏡筒242に保持されたコリメートレンズ240を有している。コリメートレンズ240は、図10に示された照明絞り63及び光源レンズ64を含むように構成されている。   The light source unit 68 has a collimating lens 240 held by a collimating lens barrel 242. The collimating lens 240 is configured to include the illumination stop 63 and the light source lens 64 shown in FIG.

投影光学系32は、鏡筒ホルダ250に保持された鏡筒24を有している。鏡筒24には、図10に示されるように、複数の投影レンズ34と絞り36が組み込まれている。ハウジング204には凹部252が形成されている。鏡筒ホルダ250は、凹部252に嵌め込まれて位置決めされた状態でハウジング204に取り付けられている。   The projection optical system 32 has a lens barrel 24 held by a lens barrel holder 250. As shown in FIG. 10, a plurality of projection lenses 34 and a diaphragm 36 are incorporated in the lens barrel 24. A recess 252 is formed in the housing 204. The lens barrel holder 250 is attached to the housing 204 in a state where the lens barrel holder 250 is fitted and positioned in the recess 252.

図13及び図14に示されるように、光変調体200の基板264上には複数の平面的光学素子260が一列に並ぶよう形成されている。   As shown in FIGS. 13 and 14, a plurality of planar optical elements 260 are formed in a line on the substrate 264 of the light modulator 200.

ここで、光変調体200の製造プロセスについて概説する。複数の平面的光学素子260の反転形状が高精度で形成された金型(図示しない)を基板264の表面(出射面108となる面)に押し付けることにより、その金型の形状を高精度に基板264の表面に転写するインプリント成型技術が実施される。この転写により、基板264上に複数の平面的光学素子260が形成される。平面的光学素子260の形状、光学的作用及び製法については後に詳述する。   Here, the manufacturing process of the light modulator 200 will be outlined. By pressing a mold (not shown) in which the inverted shapes of the plurality of planar optical elements 260 are formed with high accuracy against the surface of the substrate 264 (surface to be the emission surface 108), the shape of the mold is made with high accuracy. An imprint molding technique for transferring to the surface of the substrate 264 is performed. By this transfer, a plurality of planar optical elements 260 are formed on the substrate 264. The shape, optical action, and manufacturing method of the planar optical element 260 will be described in detail later.

図13乃至図15に示されるように、投影機構66は、光変調体200の移動方向に平行な平面(以下、「移動平面」と記す)に対する当該光変調体200の傾きを調整する回転角度調整機構270を備えている。回転角度調整機構270は、支持機構272及び回転機構274を有している。支持機構272は、基板264を上記移動平面に対して回転可能な状態でキャリッジ202に支持させている。回転機構274は、基板264をキャリッジ202に対して相対的に回転させるものである。本実施形態では、基板264が、複数の平面的光学素子260を支持する直線可動部材として機能する。   As shown in FIGS. 13 to 15, the projection mechanism 66 adjusts the inclination of the light modulator 200 with respect to a plane parallel to the moving direction of the light modulator 200 (hereinafter referred to as “moving plane”). An adjustment mechanism 270 is provided. The rotation angle adjustment mechanism 270 includes a support mechanism 272 and a rotation mechanism 274. The support mechanism 272 supports the substrate 264 on the carriage 202 so as to be rotatable with respect to the moving plane. The rotation mechanism 274 rotates the substrate 264 relative to the carriage 202. In the present embodiment, the substrate 264 functions as a linear movable member that supports the plurality of planar optical elements 260.

図13及び図14に示されるように、支持機構272は、基板264を保持する一対のホルダ280を備えている。一対のホルダ280は、光変調体200の移動方向における基板264の両端部を保持している。図15には、図14において右側に位置するホルダ280のみが代表的に、その周辺の要素と共に拡大されて正面図で示されている。   As shown in FIGS. 13 and 14, the support mechanism 272 includes a pair of holders 280 that hold the substrate 264. The pair of holders 280 hold both ends of the substrate 264 in the moving direction of the light modulator 200. In FIG. 15, only the holder 280 located on the right side in FIG. 14 is typically shown in a front view enlarged with the peripheral elements.

図14に示されるように、各ホルダ280は、基板264端部を、その板厚方向において両側から僅かな隙間を残して挟むように保持する。一対のホルダ280により、光変調体200がキャリッジ202の背面側に設置される。光変調体200側からの射出光は、キャリッジ202に形成された貫通穴284を通過して投影光学系32に進行する。   As shown in FIG. 14, each holder 280 holds the end portion of the substrate 264 so as to sandwich a small gap from both sides in the plate thickness direction. The light modulator 200 is installed on the back side of the carriage 202 by the pair of holders 280. Light emitted from the light modulator 200 side passes through a through hole 284 formed in the carriage 202 and proceeds to the projection optical system 32.

基板264は、各ホルダ280により、自己に平行な面上において相対移動(相対回転運動を含む)することを許容されている。ここで、各ホルダ280には、固定具として機能し得る固定ねじ286が取り付けられている。固定ねじ286が基板264にねじ込まれると、基板264はそのときの位置に機械的に固定される。   The substrate 264 is allowed to relatively move (including relative rotational movement) on a plane parallel to the substrate 280 by each holder 280. Here, a fixing screw 286 that can function as a fixing tool is attached to each holder 280. When the fixing screw 286 is screwed into the substrate 264, the substrate 264 is mechanically fixed at the current position.

回転機構274は、調整コマ290を主体として構成されている。調整コマ290は、調整ねじ292、及び、調整ねじ292が螺合される本体部294を有している。本体部294には雌ねじが形成され、調整ねじ292にはそれに対応する雄ねじが形成されている。調整ねじ292は、上記移動平面に平行な軸を中心に回転して雌ねじに螺合され得る。   The rotation mechanism 274 is mainly composed of an adjustment piece 290. The adjustment piece 290 has an adjustment screw 292 and a main body portion 294 to which the adjustment screw 292 is screwed. The main body 294 is formed with a female screw, and the adjusting screw 292 is formed with a male screw corresponding thereto. The adjusting screw 292 can be rotated about an axis parallel to the moving plane and can be screwed into the female screw.

本体部294は基板264に固定されている。調整ねじ292は、その先端において本体部294から突出している。調整ねじ292の突出部はキャリッジ202に係合されている。調整ねじ292は、その頭部に工具が当て付けられて作業者によりねじ止め操作される。そのねじ止め操作量に応じて、本体部294からの調整ねじ292の突出量が変わる。これにより、本体部294とキャリッジ202との距離が変化する。   The main body 294 is fixed to the substrate 264. The adjustment screw 292 protrudes from the main body 294 at the tip thereof. The protrusion of the adjustment screw 292 is engaged with the carriage 202. The adjustment screw 292 is screwed by an operator with a tool applied to the head. In accordance with the screwing operation amount, the protruding amount of the adjusting screw 292 from the main body portion 294 changes. As a result, the distance between the main body 294 and the carriage 202 changes.

従って調整コマ290によれば、作業者による操作量に応じて光変調体200の回転角度すなわち上記移動平面に対する傾きが微調整される。その微調整量は、直線運動装置(キャリッジ202)の移動直線に対して例えば平行度12μm程度の公差範囲内に設定されている。その結果、被写体Sの三次元入力精度を向上させることが容易となる。   Therefore, according to the adjustment piece 290, the rotation angle of the light modulator 200, that is, the inclination with respect to the moving plane is finely adjusted according to the operation amount by the operator. The fine adjustment amount is set within a tolerance range of, for example, about 12 μm parallelism with respect to the movement straight line of the linear motion device (carriage 202). As a result, it becomes easy to improve the three-dimensional input accuracy of the subject S.

なお図示しないが、固定ねじ286及び調整ねじ292は、その螺合部分に固定接着剤が塗布される。これによりこれらのねじの緩みが防止される。   Although not shown, the fixing screw 286 and the adjusting screw 292 are applied with a fixing adhesive at the screwed portions. This prevents loosening of these screws.

ハウジング204は、キャリッジ202に向かって局部的に突出するよう形成されている。具体的には、ハウジング204は誘導部296を有している。誘導部296はキャリッジ202に挿通されて、光変調体200の出射面108近傍にまで延びている。誘導部296は遮光性を有し、薄肉角錐状を成す。   The housing 204 is formed so as to locally protrude toward the carriage 202. Specifically, the housing 204 has a guide portion 296. The guiding portion 296 is inserted into the carriage 202 and extends to the vicinity of the emission surface 108 of the light modulator 200. The guiding portion 296 has a light shielding property and has a thin pyramid shape.

誘導部296の先端には窓部297が形成されている。誘導部296は、窓部297において、複数の平面的光学素子260のうち選択されたものだけに光学的に連通する。誘導部296及び窓部297は、ハウジング204と一体成型されている。その材料として、例えば成型精度の高いガラスファイバー補強ポリカーボネートが代表的である。   A window portion 297 is formed at the tip of the guide portion 296. In the window portion 297, the guide portion 296 optically communicates only with a selected one of the plurality of planar optical elements 260. The guide part 296 and the window part 297 are integrally formed with the housing 204. A typical example of the material is glass fiber reinforced polycarbonate with high molding accuracy.

選択された一つの平面的光学素子260から出射したパタン光のみが、光透過性を有した窓部297を通過して誘導部296内の空間に進入する。その進入したパタン光は、誘導部296の外部に漏れることなく投影光学系32に入射する。誘導部296は、外乱光が進入して投影光学系32に入射することを阻止するよう作用している。   Only the pattern light emitted from the selected planar optical element 260 passes through the window portion 297 having light permeability and enters the space in the guiding portion 296. The entered pattern light enters the projection optical system 32 without leaking outside the guiding portion 296. The guiding unit 296 acts to prevent disturbance light from entering and entering the projection optical system 32.

図13に示されるように、ハウジング204には位置決めポスト298が固定されている。位置決めポスト298には、位置センサとして機能するフォトインタラプタ300が取り付けられている。フォトインタラプタ300は、キャリッジ202と一体的に移動する位置決め爪(被検出子)302を光学的に検出する。これにより、キャリッジ202が特定の位置にあることが検出される。   As shown in FIG. 13, a positioning post 298 is fixed to the housing 204. A photo interrupter 300 that functions as a position sensor is attached to the positioning post 298. The photo interrupter 300 optically detects a positioning claw (detector) 302 that moves integrally with the carriage 202. Thereby, it is detected that the carriage 202 is in a specific position.

図12に示されるように、フォトインタラプタ300は処理部16に電気的に接続されている。フォトインタラプタ300は、位置決め爪302の検出状態に応じて処理部16にPI信号を出力する。位置決め爪302を検出していないとき、フォトインタラプタ300はローレベルを示すPI信号を出力する。位置決め爪302を検出したとき、フォトインタラプタ300はハイレベルを示すPI信号を出力する。   As shown in FIG. 12, the photo interrupter 300 is electrically connected to the processing unit 16. The photo interrupter 300 outputs a PI signal to the processing unit 16 according to the detection state of the positioning claw 302. When the positioning claw 302 is not detected, the photo interrupter 300 outputs a PI signal indicating a low level. When the positioning claw 302 is detected, the photo interrupter 300 outputs a PI signal indicating a high level.

ここで、図16を参照することにより、光変調体200を詳細に説明する。   Here, the light modulator 200 will be described in detail with reference to FIG.

図16に、光変調体200を拡大した正面図を示す。平面的光学素子260は、例えば図14に示す窓部297に正対するように位置決めされる。   FIG. 16 shows an enlarged front view of the light modulator 200. The planar optical element 260 is positioned so as to face the window 297 shown in FIG. 14, for example.

本実施形態では八種類のパタン光が被写体Sに順次投影される。これらのパタン光は、被写体Sの三次元形状を後述の空間コード化法によって測定するために被写体Sの撮像時に投影される。このような投影を行うため、光変調体200は、八種類のパタン光の各々に対応する八個の平面的光学パターン260を金属めっき遮光パターンとして備えている。図16には、八個の平面的光学素子260のパタン番号PN0乃至7がそれぞれ、コード0乃至7として表記されている。   In this embodiment, eight types of pattern light are sequentially projected onto the subject S. These pattern lights are projected when the subject S is imaged in order to measure the three-dimensional shape of the subject S by a spatial encoding method described later. In order to perform such projection, the light modulator 200 includes eight planar optical patterns 260 corresponding to each of the eight types of pattern light as metal plating light-shielding patterns. In FIG. 16, pattern numbers PN0 to PN7 of the eight planar optical elements 260 are indicated as codes 0 to 7, respectively.

光変調体200は、青板または白板ガラスを母材として用いた板状のリソグラフィープロセス品である。   The light modulator 200 is a plate-like lithography process product using a blue plate or white plate glass as a base material.

上記公知のリソグラフィープロセス技術を採用することにより、光変調体200の金属めっき遮光パターンの精度は向上する。これに伴って、三次元情報測定装置10の三次元入力精度も向上する。またこのプロセスは光変調体200の量産に適している。この種のリソグラフィープロセスの一例として、1ミクロン精度でパターンが形成されたマスターマスクを用いるものが挙げられる。このプロセスでは、マスキングされた母体を露光機にて密着露光させながら母材上の金属および金属上のレジストを露光する。次いで、露光を受けた母材を現像し、リンスし、洗浄し、乾燥させて、ウェットエッチングによって金属部をケミカルエッチングする。このような簡便で安価なプロセスにより、1ミクロン精度の金属遮光パターンを転写形成することが可能である。このため光変調体200の精度を限界まで高め、且つ、光変調体200の生産コストを低減させることも可能となるといった顕著な効果を奏する。   By employing the known lithography process technique, the accuracy of the metal plating light-shielding pattern of the light modulator 200 is improved. Accordingly, the three-dimensional input accuracy of the three-dimensional information measuring apparatus 10 is also improved. This process is suitable for mass production of the light modulator 200. An example of this type of lithography process is to use a master mask on which a pattern is formed with 1 micron accuracy. In this process, the metal on the base material and the resist on the metal are exposed while the masked base material is closely exposed with an exposure machine. Next, the exposed base material is developed, rinsed, washed and dried, and the metal part is chemically etched by wet etching. By such a simple and inexpensive process, it is possible to transfer and form a metal light-shielding pattern with 1 micron accuracy. For this reason, there are significant effects that the accuracy of the light modulator 200 can be increased to the limit and the production cost of the light modulator 200 can be reduced.

光変調体200には光源部68からの出射光が入射する。そしてその入射光が、平面的光学素子260の作用により、パターンに従って遮光され所定のパタン光として出射する。   The light emitted from the light source unit 68 is incident on the light modulator 200. The incident light is shielded according to the pattern by the action of the planar optical element 260 and is emitted as predetermined pattern light.

平面的光学素子から出射されたパタン光は、鏡筒24(投影レンズ34及び絞り36を含む)により被写体Sに投影されて、その表面にストライプ状の模様を形成させる。   The pattern light emitted from the planar optical element is projected onto the subject S by the lens barrel 24 (including the projection lens 34 and the diaphragm 36) to form a stripe pattern on the surface thereof.

ここで、図12に示されるように、処理部16はコンピュータ400を主体として構成されている。コンピュータ400は、CPU402、ROM404、RAM406、及び、バス408を含むように構成されている。   Here, as illustrated in FIG. 12, the processing unit 16 is configured mainly by a computer 400. The computer 400 is configured to include a CPU 402, a ROM 404, a RAM 406, and a bus 408.

CPU402は、ROM404に記憶されたプログラムをRAM406上に展開して実行する。これにより、レリーズボタン40の操作状態の検出、CCD70からの画像データの取込み、その取り込まれた画像データの転送及び格納、モード切替スイッチ42の操作状態の検出等の各種処理が実施される。   The CPU 402 develops the program stored in the ROM 404 on the RAM 406 and executes it. As a result, various processes such as detection of the operation state of the release button 40, acquisition of image data from the CCD 70, transfer and storage of the acquired image data, and detection of the operation state of the mode switch 42 are performed.

ROM404には、カメラ制御プログラム404a、撮像処理プログラム404b、輝度画像生成プログラム404c、コード画像生成プログラム404d、コード境界抽出プログラム404e、レンズ収差補正プログラム404f、三角測量演算プログラム404g、及び、テーブルモータ制御プログラム404jが格納されている。   The ROM 404 includes a camera control program 404a, an imaging processing program 404b, a luminance image generation program 404c, a code image generation program 404d, a code boundary extraction program 404e, a lens aberration correction program 404f, a triangulation calculation program 404g, and a table motor control program. 404j is stored.

カメラ制御プログラム404aは、三次元情報測定装置10全体の制御を行うためのものである。カメラ制御プログラム404aにより、図17にフローチャートで示されたメイン処理が行われる。   The camera control program 404a is used to control the entire three-dimensional information measuring apparatus 10. The main process shown by the flowchart in FIG. 17 is performed by the camera control program 404a.

撮像処理プログラム404bが実行されると、パタン光が投影された被写体Sが撮像されてパタン光有画像が取得される。また、パタン光が投影されていない被写体Sが撮像されてパタン光無画像が取得される。   When the imaging processing program 404b is executed, the subject S onto which the pattern light is projected is imaged and a pattern light existence image is acquired. Further, the subject S on which no pattern light is projected is imaged, and a pattern light no-image is acquired.

輝度画像生成プログラム404cが実行されると、撮像処理プログラム404bにより被写体Sについて取得された各画素のRGB値に基づいて、複数枚のパタン光有画像にそれぞれ対応する複数枚の輝度画像が生成される。   When the luminance image generation program 404c is executed, a plurality of luminance images respectively corresponding to the plurality of patterned light images are generated based on the RGB values of each pixel acquired for the subject S by the imaging processing program 404b. The

本実施形態では、同じ被写体Sに対して複数種類のパタン光が順次投影される。そして各パタン光が投影される毎に被写体Sが撮像される。そのようにして撮像された複数枚のパタン光有画像の各々について各画素のRGB値が取得される。この結果、パタン光の種類と同数の輝度画像が生成される。   In the present embodiment, a plurality of types of pattern light are sequentially projected onto the same subject S. The subject S is imaged each time each pattern light is projected. The RGB value of each pixel is acquired for each of the plurality of patterned light-captured images thus captured. As a result, the same number of luminance images as the pattern light types are generated.

コード画像生成プログラム404dが実行されると、輝度画像生成プログラム404cにより生成された複数枚の輝度画像それぞれに対する閾値処理により2値化画像が生成される。そして生成された2値化画像から、画素毎に空間コードが割り当てられたコード画像が生成される。   When the code image generation program 404d is executed, a binarized image is generated by threshold processing for each of the plurality of luminance images generated by the luminance image generation program 404c. A code image in which a spatial code is assigned to each pixel is generated from the generated binary image.

概略的に説明すると、コード画像生成プログラム404dが実行されると、特定のパタン光が投影された被写体Sの輝度画像におけるパタンラインの間隔が周期として取得される。この特定のパタン光とは、複数種類のパタン光のうちパタンラインの間隔が最も狭いものである。次いで、その周期の輝度画像全体における分布が周期分布として取得される。   In brief, when the code image generation program 404d is executed, the interval between pattern lines in the luminance image of the subject S onto which specific pattern light is projected is acquired as a cycle. This specific pattern light is the one having the smallest interval between pattern lines among a plurality of types of pattern light. Next, a distribution in the entire luminance image of that period is acquired as a period distribution.

コード画像生成プログラム404dが実行されると、更に、その取得された周期分布に従ってサイズが変化する可変窓がパタン光毎の輝度画像にローカルに設定される。上記可変窓を用いたフィルタ処理により輝度画像全体に対して閾値がローカルに算出されて設定される。そのようにして設定された閾値の分布を表す閾値画像とパタン光毎の輝度画像との関係から、パタン光毎に2値化画像が生成される。   When the code image generation program 404d is executed, a variable window whose size changes according to the acquired periodic distribution is set locally in the luminance image for each pattern light. A threshold value is locally calculated and set for the entire luminance image by the filtering process using the variable window. A binarized image is generated for each pattern light from the relationship between the threshold image representing the threshold distribution set in this way and the luminance image for each pattern light.

なお、可変窓を用いたフィルタ処理により輝度画像全体に対して閾値をローカルに算出する技術は、本出願人の特願2004−285736号公報に詳細に開示されている。本実施形態では、上記公報に記載されている技術が採用されている。   Note that a technique for locally calculating a threshold value for the entire luminance image by filter processing using a variable window is disclosed in detail in Japanese Patent Application No. 2004-285736 of the present applicant. In the present embodiment, the technology described in the above publication is employed.

コード境界抽出プログラム404eが実行されると、コード画像生成プログラム404dにより生成されたコード画像と、輝度画像生成プログラム404cにより生成された輝度画像に基づいて、コードの境界座標がサブピクセル精度で算出される。   When the code boundary extraction program 404e is executed, code boundary coordinates are calculated with subpixel accuracy based on the code image generated by the code image generation program 404d and the luminance image generated by the luminance image generation program 404c. The

レンズ収差補正プログラム404fが実行されると、コード境界抽出プログラム404eによりサブピクセル精度で求められたコードの境界座標に対して撮像光学系20の収差補正が行われる。   When the lens aberration correction program 404f is executed, aberration correction of the imaging optical system 20 is performed with respect to the code boundary coordinates obtained with subpixel accuracy by the code boundary extraction program 404e.

三角測量演算プログラム404gが実行されると、レンズ収差補正プログラム404fにより収差補正されたコードの境界座標から、その境界座標に関する実空間の三次元座標が演算される。   When the triangulation calculation program 404g is executed, the three-dimensional coordinates of the real space related to the boundary coordinates are calculated from the boundary coordinates of the code subjected to aberration correction by the lens aberration correction program 404f.

送りモータ制御プログラム404hが実行されると、複数種類のパタン光を被写体Sに順次投影すべく送りモータ65が制御される。この送りモータ制御プログラム404hは、他の処理と共に図20のフローチャートに示されている。   When the feed motor control program 404h is executed, the feed motor 65 is controlled to sequentially project a plurality of types of pattern light onto the subject S. This feed motor control program 404h is shown in the flowchart of FIG. 20 together with other processes.

テーブルモータ制御プログラム404jが実行されると、被写体Sを回転させるべくテーブルモータ194が制御される。このテーブルモータ制御プログラム404jは、他の処理と共に図19のフローチャートに示されている。   When the table motor control program 404j is executed, the table motor 194 is controlled to rotate the subject S. This table motor control program 404j is shown in the flowchart of FIG. 19 together with other processes.

本実施形態では、前述の一連のパタン光の被写体Sへの投影及び被写体Sの撮像が、被写体Sの回転位置が等間隔で割り出される毎に行われる。具体的には、被写体Sの回転位置が90度ずつ間欠的に割り出される。そして各割り出し位置において、一連のパタン光が投影されて被写体Sが撮像される。その結果、被写体Sの外面の全体領域が4つの部分領域に分割される。そして部分領域毎に立体画像(三次元形状情報)が取得される。次いで、これらの立体画像に対して、互いにオーバラップする部分を除去する処理が施されて互いに結合される。これにより、被写体Sに対応する1つの全体画像がステッチ画像として生成される。   In the present embodiment, the above-described series of pattern light projection onto the subject S and imaging of the subject S are performed every time the rotation position of the subject S is determined at equal intervals. Specifically, the rotational position of the subject S is intermittently determined by 90 degrees. At each indexing position, a series of pattern light is projected and the subject S is imaged. As a result, the entire area of the outer surface of the subject S is divided into four partial areas. Then, a stereoscopic image (three-dimensional shape information) is acquired for each partial region. Next, these stereoscopic images are subjected to a process of removing portions that overlap each other, and are combined with each other. Thereby, one whole image corresponding to the subject S is generated as a stitch image.

更に、本実施形態では、生成されたステッチ画像に対して、同じ被写体Sについて計測された表面色情報がマッピングされる。マッピング後、前述の三次元色形状データが生成される。これにより、被写体Sについての一連の三次元入力処理が終了する。   Further, in the present embodiment, surface color information measured for the same subject S is mapped to the generated stitch image. After mapping, the aforementioned three-dimensional color shape data is generated. Thus, a series of three-dimensional input processes for the subject S is completed.

図12に示されるように、RAM406には、パタン光有画像格納部406a、パタン光無画像格納部406b、輝度画像格納部406c、コード画像格納部406d、コード境界座標格納部406e、収差補正座標格納部406g、三次元座標格納部406h、周期分布格納部406p、閾値画像格納部406q、2値化画像格納部406r、ステッチ画像格納部406s、三次元色形状データ格納部406t、及び、ワーキングエリア410がそれぞれ記憶領域として割り当てられている。   As shown in FIG. 12, the RAM 406 has a pattern light existence image storage unit 406a, a pattern light no image storage unit 406b, a luminance image storage unit 406c, a code image storage unit 406d, a code boundary coordinate storage unit 406e, and aberration correction coordinates. Storage unit 406g, three-dimensional coordinate storage unit 406h, period distribution storage unit 406p, threshold image storage unit 406q, binarized image storage unit 406r, stitch image storage unit 406s, three-dimensional color shape data storage unit 406t, and working area Reference numerals 410 are assigned as storage areas.

パタン光有画像格納部406aはパタン光有画像データを格納する。パタン光有画像データは、撮像処理プログラム404bにより撮像されたパタン光が投影された画像を表すデータである。パタン光無画像格納部406bはパタン光無画像データを格納する。パタン光無画像データは、撮像処理プログラム404bにより撮像されたパタン光が投影されていない画像を表すデータである。   The pattern light existence image storage unit 406a stores the pattern light existence image data. Pattern light existence image data is data showing the image by which the pattern light imaged by the imaging process program 404b was projected. The pattern light no-image storage unit 406b stores pattern light no-image data. The pattern light non-image data is data representing an image on which the pattern light imaged by the imaging processing program 404b is not projected.

輝度画像格納部406cは、輝度画像生成プログラム404cにより生成された輝度画像を表すデータを格納する。コード画像格納部406dは、コード画像生成プログラム404dにより生成されたコード画像を表すデータを格納する。コード境界座標格納部406eは、コード境界抽出プログラム404eによりサブピクセル精度で抽出された各コードの境界座標を表すデータを格納する。   The luminance image storage unit 406c stores data representing the luminance image generated by the luminance image generation program 404c. The code image storage unit 406d stores data representing a code image generated by the code image generation program 404d. The code boundary coordinate storage unit 406e stores data representing the boundary coordinates of each code extracted with subpixel accuracy by the code boundary extraction program 404e.

収差補正座標格納部406gは、レンズ収差補正プログラム404fにより収差補正が行われたコードの境界座標を表すデータを格納する。三次元座標格納部404hは、三角測量演算プログラム404gにより演算された実空間の三次元座標を表すデータを格納する。   The aberration correction coordinate storage unit 406g stores data representing the boundary coordinates of the code subjected to aberration correction by the lens aberration correction program 404f. The three-dimensional coordinate storage unit 404h stores data representing the three-dimensional coordinates of the real space calculated by the triangulation calculation program 404g.

周期分布格納部406p、閾値画像格納部406q、及び、2値化画像格納部406rは、コード画像生成プログラム404dにより取得された周期分布、閾値画像及び2値化画像を表すデータをそれぞれ格納する。   The period distribution storage unit 406p, the threshold image storage unit 406q, and the binarized image storage unit 406r store data representing the period distribution, the threshold image, and the binarized image acquired by the code image generation program 404d, respectively.

ステッチ画像格納部406sは、前述のステッチ画像を格納する。三次元色形状データ格納部406tは、前述の三次元色形状データを格納する。ワーキングエリア410は、CPU402がその動作のために一時的に使用するデータを格納する。   The stitch image storage unit 406s stores the above-described stitch image. The three-dimensional color shape data storage unit 406t stores the above-described three-dimensional color shape data. The working area 410 stores data that the CPU 402 temporarily uses for its operation.

ここで、図17を参照してカメラ制御プログラム404aを説明する。このカメラ制御プログラム404aがコンピュータ400によって実行されることにより、前述のメイン処理が実行される。   Here, the camera control program 404a will be described with reference to FIG. When the camera control program 404a is executed by the computer 400, the main process described above is executed.

このメイン処理では、先ず、ステップ101(以下の明細書及び図面においてステップを「S」と略記)において、バッテリ74を含む電源がONされる。次にS102において、処理部16及び周辺インタフェース等が初期化される。   In this main process, first, in step 101 (step is abbreviated as “S” in the following specification and drawings), the power source including the battery 74 is turned on. In step S102, the processing unit 16, peripheral interfaces, and the like are initialized.

続いてS103において、モード切替スイッチ42の操作状態を判別するためにキースキャンが行われる。次いでS104において、モード切替スイッチ42の操作によってSLOWモードが選択されたか否かが判定される。ここで、SLOWモードが選択された場合には判定がYESとなる。これにより、S105において前述の非間引き画像処理モードが設定される。このS105の実行後、後に詳述するS108が実行されてS103に戻る。   Subsequently, in S103, a key scan is performed to determine the operation state of the mode switch 42. Next, in S104, it is determined whether or not the SLOW mode has been selected by operating the mode switch 42. Here, if the SLOW mode is selected, the determination is YES. Thereby, the above-described non-decimated image processing mode is set in S105. After execution of S105, S108, which will be described in detail later, is executed, and the process returns to S103.

これに対してモード切替スイッチ42の操作によってSLOWモードが選択されなかった場合にはS104の判定がNOとなる。これにより処理はS106に進む。S106において、モード切替スイッチ42の操作によってFASTモードが選択されたか否かが判定される。ここで、FASTモードが選択された場合には判定がYESとなる。これにより、S107において前述の間引き画像処理モードが設定される。このS107の実行後、後に詳述するS108が実行されてS103に戻る。   On the other hand, if the SLOW mode is not selected by operating the mode switch 42, the determination in S104 is NO. Accordingly, the process proceeds to S106. In S106, it is determined whether or not the FAST mode is selected by operating the mode changeover switch 42. Here, if the FAST mode is selected, the determination is YES. Thereby, the above-described thinned image processing mode is set in S107. After execution of S107, S108, which will be described in detail later, is executed, and the process returns to S103.

これに対してモード切替スイッチ42の操作によってFASTモードが選択されなかった場合にはS106の判定がNOとなる。これにより処理はS112に進む。S112において、モード切替スイッチ42の操作によってオフモードが選択されたか否かが判定される。ここで、モード切替スイッチ42の操作によってオフモードが選択された場合には判定がYESとなり、直ちに今回のメイン処理が終了する。これに対してモード切替スイッチ42の操作によってオフモードが選択されなかった場合には判定がNOとなり、S103に戻る。   On the other hand, if the FAST mode is not selected by operating the mode switch 42, the determination in S106 is NO. Accordingly, the process proceeds to S112. In S112, it is determined whether or not the off mode is selected by operating the mode changeover switch 42. Here, if the off mode is selected by operating the mode changeover switch 42, the determination is YES, and the current main process is immediately terminated. On the other hand, if the off mode is not selected by operating the mode switch 42, the determination is no and the process returns to S103.

図18には、図17のS108が立体画像処理ルーチンとしてフローチャートで概念的に表されている。立体画像処理ルーチンの実行により、被写体Sの三次元形状が立体画像として検出される。立体画像処理では、更に、同じ被写体Sの表面色も検出される。これらの立体画像及び表面色の検出結果が位置に関連付けて組み合わされたものが三次元色形状検出結果である。   In FIG. 18, S108 of FIG. 17 is conceptually represented by a flowchart as a stereoscopic image processing routine. By executing the stereoscopic image processing routine, the three-dimensional shape of the subject S is detected as a stereoscopic image. In the stereoscopic image processing, the surface color of the same subject S is also detected. The three-dimensional image and the detection result of the surface color are combined in association with the position, which is the three-dimensional color shape detection result.

立体画像処理では、先ず、S1001においてファインダ画像がモニタLCD44に表示される。ファインダ画像は撮像光学系30を通して見える範囲の画像と同じ画像である。ユーザは、モニタLCD44に表示された画像を見ることにより、実際の撮像前に撮像画像(撮像範囲)を確認することができる。   In the stereoscopic image processing, first, a finder image is displayed on the monitor LCD 44 in S1001. The viewfinder image is the same image as the image in the range that can be seen through the imaging optical system 30. The user can confirm the captured image (imaging range) before actual imaging by looking at the image displayed on the monitor LCD 44.

次に、S1002においてレリーズボタン40の操作状態がスキャンされる。次いで、S1003においてそのスキャン結果に基づいてレリーズボタン40が半押し状態にあるか否かが判定される。半押し状態にあれば判定がYESとなり、S1004においてオートフォーカス(AF)及び自動露出(AE)機能が起動する。これにより、ピント、絞り及びシャッタスピードが調節される。レリーズボタン40が半押し状態になければS1003の判定がNOとなり、S1010に移行する。   Next, in S1002, the operation state of the release button 40 is scanned. Next, in S1003, it is determined whether or not the release button 40 is in a half-pressed state based on the scan result. If it is in the half-pressed state, the determination is YES, and the autofocus (AF) and automatic exposure (AE) functions are activated in S1004. Thereby, the focus, aperture, and shutter speed are adjusted. If the release button 40 is not half-pressed, the determination in S1003 is NO, and the flow proceeds to S1010.

S1004の実行後、S1005において、再度、レリーズボタン40の操作状態がスキャンされる。次いで、S1006においてそのスキャン結果に基づいてレリーズボタン40が全押し状態にあるか否かが判定される。レリーズボタン40が全押し状態になければ、このS1006の判定がNOとなってS1002に戻る。   After the execution of S1004, the operation state of the release button 40 is scanned again in S1005. Next, in S1006, it is determined whether the release button 40 is fully pressed based on the scan result. If the release button 40 is not fully pressed, the determination in S1006 is NO and the process returns to S1002.

レリーズボタン40が半押し状態から全押し状態に移行すれば、S1006の判定がYESとなり、S1007において後述の三次元色形状検出処理が実行される。これにより、被写体Sの三次元形状及び表面色が検出される。   If the release button 40 shifts from the half-pressed state to the fully-pressed state, the determination in S1006 becomes YES, and a later-described three-dimensional color shape detection process is executed in S1007. Thereby, the three-dimensional shape and surface color of the subject S are detected.

概略的に説明するに、この三次元色形状検出処理によって被写体Sの三次元色形状検出結果が生成される。ここに、三次元色形状検出結果とは、後述の空間コード画像において検出される複数の空間コード境界画像を三次元座標に変換した結果取得される頂点座標の集合体であって、頂点毎に色形状情報とポリゴン情報とが互いに関連付けられたものを意味する。色形状情報とは、実空間座標とRGB値との組合せを表す情報である。ポリゴン情報とは、被写体Sを三次元的に表現する立体を構成するために互いに連結されるべき複数の頂点の組合せを表す情報である。   Briefly described, a three-dimensional color shape detection result of the subject S is generated by this three-dimensional color shape detection process. Here, the three-dimensional color shape detection result is a set of vertex coordinates obtained as a result of converting a plurality of spatial code boundary images detected in a spatial code image, which will be described later, into three-dimensional coordinates. It means that color shape information and polygon information are associated with each other. The color shape information is information representing a combination of real space coordinates and RGB values. The polygon information is information that represents a combination of a plurality of vertices that should be connected to each other to form a solid that three-dimensionally represents the subject S.

その後S1008において、その三次元色形状検出結果が外部メモリ78に格納される。次いでS1009において、その三次元色形状検出結果が三次元コンピュータグラフィック画像としてモニタLCD44に表示される。   Thereafter, in S1008, the three-dimensional color shape detection result is stored in the external memory 78. In step S1009, the three-dimensional color shape detection result is displayed on the monitor LCD 44 as a three-dimensional computer graphic image.

その後S1010において、図17のS103と同様にキースキャンが行われる。続いてS1011において、モード切替スイッチ42の操作状態に変化が無いか否かが判定される。変化が無ければS1011の判定がYESとなり、S1001に戻る。これに対して変化が有ればS1011の判定がNOとなり、今回の立体画像処理が終了する。   Thereafter, in S1010, key scanning is performed in the same manner as in S103 of FIG. Subsequently, in S1011, it is determined whether or not the operation state of the mode switch 42 has changed. If there is no change, determination of S1011 will be YES and will return to S1001. On the other hand, if there is a change, the determination in S1011 is NO, and the current stereoscopic image processing ends.

図18のS1007において実行される三次元色形状検出処理では、空間コード化法を用いて被写体Sの三次元形状が検出される。   In the three-dimensional color shape detection process executed in S1007 in FIG. 18, the three-dimensional shape of the subject S is detected using a spatial coding method.

図19には、図18のS1007が三次元色形状検出処理ルーチンとしてフローチャートで概念的に表されている。この三次元色形状検出処理ルーチンには、テーブルモータ制御プログラム404iが組み込まれている。テーブルモータ制御プログラム404iは、図19のS1201及びS1221乃至S1223を含むように構成されている。   In FIG. 19, S1007 of FIG. 18 is conceptually represented by a flowchart as a three-dimensional color shape detection processing routine. A table motor control program 404i is incorporated in the three-dimensional color shape detection processing routine. The table motor control program 404i is configured to include S1201 and S1221 to S1223 of FIG.

この三次元色形状検出処理ルーチンでは、先ず、S1201において回転載置面190の回転位相PHが0に初期化される。本実施形態では、回転載置面190は一回転する間に4回停止される。このため、回転載置面190には4つの回転位相PHが離散的に設定されている。具体的には、回転位相PHは、初期の回転位相PHを表す「0」と、次の回転位相PHを表す「1」と、次の回転位相PHを表す「2」と、最後の回転位相PHを表す「3」とに離散的に変化される。   In this three-dimensional color shape detection processing routine, first, the rotational phase PH of the rotational mounting surface 190 is initialized to 0 in S1201. In this embodiment, the rotation mounting surface 190 is stopped four times during one rotation. For this reason, four rotation phases PH are set discretely on the rotation mounting surface 190. Specifically, the rotation phase PH includes “0” representing the initial rotation phase PH, “1” representing the next rotation phase PH, “2” representing the next rotation phase PH, and the last rotation phase. It is discretely changed to “3” representing PH.

次に、S1210において撮像処理プログラム404bが実行される。これにより、今回の回転位相PHについて撮像処理が実行される。この撮像処理では、投影部12からストライプ状のパタン光が被写体Sに順次投影される。更に、複数種類のパタン光が投影されている被写体Sをそれぞれ撮像した複数枚のパタン光有画像と、パタン光が投影されていない同じ被写体Sを撮像した1枚のパタン光無画像とが取得される。このS1210は、後に図20を参照して詳述する。   Next, the imaging processing program 404b is executed in S1210. Thereby, an imaging process is executed for the current rotational phase PH. In this imaging process, striped pattern light is sequentially projected from the projection unit 12 onto the subject S. Furthermore, a plurality of patterned light images obtained by imaging the subject S on which a plurality of types of pattern light are projected, and a single patterned light non-image obtained by imaging the same subject S on which pattern light is not projected are acquired. Is done. This S1210 will be described in detail later with reference to FIG.

撮像処理が終了すると、S1220において、今回の回転位相PHについて三次元計測処理が実行される。この三次元計測処理が実行されると、複数枚のパタン光有画像と1枚のパタン光無画像とが利用されて実際に被写体Sの三次元情報が計測される。このS1220は、後に図23を参照して詳述する。   When the imaging process ends, in S1220, a three-dimensional measurement process is executed for the current rotational phase PH. When this three-dimensional measurement process is executed, the three-dimensional information of the subject S is actually measured by using a plurality of patterned light images and a single patterned light non-image. This S1220 will be described in detail later with reference to FIG.

この三次元計測処理が終了すると、S1221において、次回の撮像に備えて回転位相PHが1だけインクリメントされる。続いてS1222において、回転位相PHの現在値が4より大きいか否か、すなわち被写体Sについての一連の撮像が既に終了しているか否かが判定される。   When this three-dimensional measurement process is completed, the rotational phase PH is incremented by 1 in S1221 in preparation for the next imaging. Subsequently, in S1222, it is determined whether or not the current value of the rotational phase PH is greater than 4, that is, whether or not a series of imaging for the subject S has already been completed.

回転位相PHの現在値が4より大きくはない場合にはS1222の判定がNOとなり、S1223において所定の駆動信号がテーブルモータ194に対して出力される。この結果、回転載置面190が時計回りに90度回転する。これにより、被写体Sが前回の撮像時とは異なる部分領域において測定ヘッドMHに対向される。その後、S1210及びS1220が実行される。これにより、次の回転位相PHについて前述の撮像処理及び三次元計測処理が行われる。   If the current value of the rotational phase PH is not greater than 4, the determination in S1222 is NO and a predetermined drive signal is output to the table motor 194 in S1223. As a result, the rotary mounting surface 190 rotates 90 degrees clockwise. Thus, the subject S is opposed to the measurement head MH in a partial area different from that at the previous imaging. Thereafter, S1210 and S1220 are executed. Thereby, the above-described imaging process and three-dimensional measurement process are performed for the next rotational phase PH.

S1210乃至S1223のループが必要回数実行された結果、S1222の判定がYESとなれば、S1230において被写体Sについて計測された三次元形状と表面色とを組み合わせることにより、三次元色形状検出結果が生成される。このS1230は、後に図25を参照して詳述する。   As a result of executing the loop of S1210 to S1223 as many times as necessary, if the determination in S1222 is YES, a 3D color shape detection result is generated by combining the 3D shape measured for the subject S in S1230 and the surface color. Is done. This S1230 will be described in detail later with reference to FIG.

この三次元色形状検出結果が生成されると、今回の三次元色形状検出処理が終了する。   When this three-dimensional color shape detection result is generated, the current three-dimensional color shape detection process ends.

ここで、図20を参照することにより、図19におけるS1210を詳述する。図20には、そのS1210が撮像処理プログラム404bとしてフローチャートで概念的に表されている。   Here, S1210 in FIG. 19 will be described in detail with reference to FIG. In FIG. 20, S1210 is conceptually represented by a flowchart as the imaging processing program 404b.

この撮像処理プログラム404bには、送りモータ制御プログラム404hが組み込まれている。送りモータ制御プログラム404hにより、図20のS2002乃至S2005、S2010、S2016及びS2017の処理が実行される。   This imaging processing program 404b incorporates a feed motor control program 404h. The processing of S2002 to S2005, S2010, S2016, and S2017 in FIG. 20 is executed by the feed motor control program 404h.

撮像処理プログラム404bでは、先ず、S2001において今回生成すべきパタン光の番号を表すパタン番号PNが0に初期化される。このパタン番号PNは、複数の平面的光学素子260の中から今回選択されるべき選択光学素子260の番号(図15における「コード」)に対応する。今回選択されるべき選択光学素子260とは、今回のパタン光を被写体Sに投影するために窓部297に位置決めされるものである。   In the imaging processing program 404b, first, in S2001, a pattern number PN indicating a pattern light number to be generated this time is initialized to zero. This pattern number PN corresponds to the number (“code” in FIG. 15) of the selected optical element 260 to be selected at this time among the plurality of planar optical elements 260. The selection optical element 260 to be selected this time is positioned on the window 297 in order to project the current pattern light onto the subject S.

次にS2002において、予め設定された方向に送りモータ65が駆動される。続いてS2003において、フォトインタラプタ300から上記PI信号が読み取られる。その後S2004において、その読み取られたPI信号のレベルがローレベルからハイレベルに変化したか否かが判定される。すなわちキャリッジ202が前述の特定の位置に移動したか否かが判定される。   Next, in S2002, the feed motor 65 is driven in a preset direction. Subsequently, in S2003, the PI signal is read from the photo interrupter 300. Thereafter, in S2004, it is determined whether or not the level of the read PI signal has changed from a low level to a high level. That is, it is determined whether or not the carriage 202 has moved to the specific position described above.

PI信号のレベルがローレベルからハイレベルに変化していない場合にはS2004の判定がNOとなり、S2002乃至S2004のループの実行が再開される。そのループが複数回実行された結果、PI信号のレベルがローレベルからハイレベルに変化した場合にはS2004の判定がYESとなり、S2005に移行する。   If the level of the PI signal has not changed from the low level to the high level, the determination in S2004 is NO, and the execution of the loop from S2002 to S2004 is resumed. As a result of the loop being executed a plurality of times, if the level of the PI signal changes from the low level to the high level, the determination in S2004 is YES, and the process proceeds to S2005.

このS2005では、上述の特定の位置にあるキャリッジ202を更に移動させてホームポジションに位置決めするために、予め設定された駆動信号(例えば、駆動パルス)が送りモータ65に供給される。キャリッジ202がそのホームポジションに位置決めされると、光変調体200が、複数の平面的光学素子260のうち今回のパタン番号PNを有するパタン光を生成するもの(前述の選択光学素子)において窓部297に正対することになる。   In S2005, a preset drive signal (for example, drive pulse) is supplied to the feed motor 65 in order to further move the carriage 202 at the above-mentioned specific position and position it at the home position. When the carriage 202 is positioned at the home position, the light modulator 200 generates a pattern light having the current pattern number PN among the plurality of planar optical elements 260 (the aforementioned selected optical element). It will face 297.

その後S2006において、パタン番号PNの現在値と等しい番号が付されたPN番目のパタン光の投影が開始される。   After that, in S2006, projection of the PN-th pattern light to which the number equal to the current value of the pattern number PN is started.

続いてS2007において、PN番目のパタン光を被写体Sに投影するための投影処理が行われる。図21には、S2007の詳細が投影処理サブルーチンとしてフローチャートで概念的に表されている。投影処理サブルーチンの実行により、PN番目のパタン光を投影部12から被写体Sに投影する投影処理が投影機構66との共同作用によって実現される。   Subsequently, in S2007, a projection process for projecting the PN-th pattern light onto the subject S is performed. FIG. 21 conceptually shows the details of S2007 as a projection processing subroutine in a flowchart. By executing the projection processing subroutine, the projection processing for projecting the PN-th pattern light from the projection unit 12 onto the subject S is realized by the cooperative action with the projection mechanism 66.

この投影処理では、先ず、S3004において光源ドライバ84が駆動される。続いてS3005において、その光源ドライバ84からの電気信号によってLED62が発光する。以上で、今回の投影処理が終了する。   In this projection processing, first, the light source driver 84 is driven in S3004. Subsequently, in S3005, the LED 62 emits light by an electrical signal from the light source driver 84. This is the end of the current projection process.

LED62が発光した光は、光源レンズ64を経て投影機構66に到達する。投影機構66では、選択光学素子260の表面形状に応じて空間変調が施される。この結果、投影機構66への入射光がパタン光に変換されて出射される。このパタン光は、投影光学系32を経て被写体Sに投影画像として投影される。   The light emitted from the LED 62 reaches the projection mechanism 66 through the light source lens 64. In the projection mechanism 66, spatial modulation is performed according to the surface shape of the selection optical element 260. As a result, light incident on the projection mechanism 66 is converted into pattern light and emitted. This pattern light is projected as a projection image onto the subject S via the projection optical system 32.

以上のようにしてPN番目のパタン光が被写体Sに投影されると、続いて図20のS2008において、そのPN番目のパタン光が投影されている被写体Sが撮像部14によって撮像される。   When the PN-th pattern light is projected onto the subject S as described above, the subject S on which the PN-th pattern light is projected is imaged by the imaging unit 14 in S2008 of FIG.

上記撮像によりPN番目のパタン光有画像が取得される。その取得されたパタン光有画像は、対応するパタン番号PNに関連付けてパタン光有画像格納部406aに格納される。   A PN-th pattern light existence image is acquired by the imaging. The acquired pattern light existence image is stored in the pattern light existence image storage unit 406a in association with the corresponding pattern number PN.

上記撮像が終了すると、S2009においてPN番目のパタン光の投影が終了する。続いてS2010において、送りモータ65が、次のパタン光を投影する準備のためにキャリッジ202を1ピッチ送る。その後S2011において、次のパタン光を投影する準備のためにパタン番号PNが1だけインクリメントされる。   When the imaging is finished, the projection of the PN-th pattern light is finished in S2009. In step S2010, the feed motor 65 feeds the carriage 202 by one pitch in preparation for projecting the next pattern light. In step S2011, the pattern number PN is incremented by 1 to prepare for projecting the next pattern light.

続いてS2012において、そのパタン番号PNの現在値が最大値PNmaxより小さいか否かが判定される。最大値PNmaxは、使用されるマスクパタンの合計数に応じて決定される。例えば八種類のマスクパタンが使用される場合には、最大値PNmaxが8に設定される。   Subsequently, in S2012, it is determined whether or not the current value of the pattern number PN is smaller than the maximum value PNmax. The maximum value PNmax is determined according to the total number of mask patterns used. For example, when eight types of mask patterns are used, the maximum value PNmax is set to 8.

パタン番号PNの現在値が最大値PNmaxより小さいと場合にはS2012の判定がYESとなり、S2006乃至S2012のループの実行が、今回のパタン番号PNを有するパタン光の投影のために再開される。   If the current value of the pattern number PN is smaller than the maximum value PNmax, the determination in S2012 is YES, and the execution of the loop from S2006 to S2012 is resumed for projection of the pattern light having the current pattern number PN.

S2006乃至S2012のループの実行がパタン光の種類の数と同数回繰り返された結果パタン番号PNの現在値が最大値PNmaxより大きい値になると、S2012の判定がNOとなり今回の撮像処理が終了する。従って、一回の撮像処理により最大値PNmaxと同数枚のパタン光有画像が取得されることになる。   If the current value of the pattern number PN becomes larger than the maximum value PNmax as a result of repeating the loop of S2006 to S2012 as many times as the number of types of pattern light, the determination in S2012 is NO and the current imaging process is terminated. . Therefore, the same number of patterned light images as the maximum value PNmax are acquired by one imaging process.

続いてS2013において、フラッシュモードが選択されているか否かが判定される。フラッシュモードが選択されている場合にはその判定がYESとなり、S2014において白色LED群26が発光する。これにより、上述したように被写体Sが一様に照明される。一方、フラッシュモードが選択されていない場合にはS2013の判定がNOとなり、S2014がスキップされる。何れにしてもその後、S2015において被写体Sが撮像される。   Subsequently, in S2013, it is determined whether or not the flash mode is selected. If the flash mode is selected, the determination is YES, and the white LED group 26 emits light in S2014. As a result, the subject S is illuminated uniformly as described above. On the other hand, if the flash mode is not selected, the determination in S2013 is NO and S2014 is skipped. In any case, the subject S is then imaged in S2015.

この撮像は、被写体Sの表面色を計測することを目的として、投影部12からパタン光を被写体Sに投影することなく行われる。この結果、被写体Sについて1枚のパタン光無画像が取得される。取得されたパタン光無画像はパタン光無画像格納部406bに格納される。被写体Sは一様に照明されているため、パタン光無画像に含まれる被写体Sは一様な照度および照明方向を受けて被写体Sが発する、全方向均一白色照明に置かれた被写体の有する真値に近い輝度および色度を有した像となり、影となる部分が相当量低減される。従って色再現の高い、かつ、正確な輝度および色度の色情報を得ることができる。これは、3次元的に複数方向からの色情報をステッチした3次元の色情報において、ステッチ境界線における色段差を相当量低減させ高品質な3次元色形状コンテンツのデータを得ることができるという顕著な効果を奏する。   This imaging is performed without projecting pattern light from the projection unit 12 onto the subject S for the purpose of measuring the surface color of the subject S. As a result, one pattern light no image is acquired for the subject S. The acquired pattern light no image is stored in the pattern light no image storage unit 406b. Since the subject S is uniformly illuminated, the subject S included in the non-patterned light image receives a uniform illuminance and illumination direction and is emitted by the subject S. An image having luminance and chromaticity close to the values is obtained, and a shadowed portion is considerably reduced. Therefore, color information with high color reproduction and accurate luminance and chromaticity can be obtained. This means that, in the three-dimensional color information obtained by stitching color information from a plurality of directions three-dimensionally, the color step at the stitch boundary line can be reduced by a considerable amount, and high-quality three-dimensional color shape content data can be obtained. Has a remarkable effect.

続いてS2016において、キャリッジ202を前述のホームポジションに復帰させるよう送りモータ65が駆動される。その後S2017において、送りモータ65が停止して待機状態に移行する。   Subsequently, in S2016, the feed motor 65 is driven so as to return the carriage 202 to the aforementioned home position. Thereafter, in S2017, the feed motor 65 stops and shifts to a standby state.

以上で、撮像処理プログラム404bの一回の実行が終了する。   This completes one execution of the imaging processing program 404b.

図22には、撮像処理プログラム404bの一回の実行に伴うこの三次元情報測定装置10の作動の一例がタイミングチャートで表されている。この作動例は、FASTモード選択時にレリーズボタン40が全押し状態に操作された場合に三次元情報測定装置10によって実行されるものである。   FIG. 22 is a timing chart showing an example of the operation of the three-dimensional information measuring apparatus 10 accompanying one execution of the imaging processing program 404b. This example of operation is executed by the three-dimensional information measuring apparatus 10 when the release button 40 is operated in the fully pressed state when the FAST mode is selected.

図22(a)には、被写体Sからの入射光によってCCD70が複数回、連続して露光される様子が示されている。図22(b)には、それら複数回の露光のそれぞれにつき、被写体Sからの光学像がCCD70で画素毎に光源変換されて出力される信号出力タイミングがタイミングチャートで表されている。図22(c)には、撮像部14の画像処理モードが前述の間引き画像処理モード又は非間引き画像処理モードの何れか一方に切り替わるタイミングがタイミングチャートで表されている。   FIG. 22A shows a state in which the CCD 70 is continuously exposed a plurality of times by the incident light from the subject S. In FIG. 22B, a signal output timing at which the optical image from the subject S is converted into a light source for each pixel by the CCD 70 and output for each of the multiple exposures is shown in a timing chart. FIG. 22C shows a timing chart at which the image processing mode of the imaging unit 14 is switched to one of the above-described thinned-out image processing mode or non-thinned-out image processing mode.

更に、図22(d)には、撮像部14の状態が待機状態と、撮像及び信号取り出しのための作動状態とに切り替わるタイミングがタイミングチャートで表されている。図22(e)には、各パタン光を形成するために光変調体200において各平面的光学素子260が割り出されるタイミングがタイミングチャートで表されている。図22(f)には、白色LED群26がOFF状態とON状態とに切り替わるタイミングがタイミングチャートで表されている。図22(g)には、レリーズボタン40が非操作状態(OFF状態)と操作状態(ON状態)とに切り替わるタイミングがタイミングチャートで表されている。   Further, in FIG. 22D, timings at which the state of the imaging unit 14 is switched between a standby state and an operation state for imaging and signal extraction are shown in a timing chart. In FIG. 22E, the timing at which each planar optical element 260 is determined in the light modulator 200 to form each pattern light is shown in a timing chart. FIG. 22F shows the timing at which the white LED group 26 is switched between the OFF state and the ON state in a timing chart. FIG. 22G shows the timing at which the release button 40 switches between a non-operation state (OFF state) and an operation state (ON state) in a timing chart.

本実施形態では、CCD70が露光状態となり被写体S像を受像し、次いでその露光を反映した信号がCCD70から取り出される。一回の露光に一回の信号取り出しが対応している。これら露光と信号取り出しとが互いに共同して一回の個別撮像処理を成す。   In the present embodiment, the CCD 70 is in an exposure state, receives the subject S image, and then a signal reflecting the exposure is taken out from the CCD 70. One signal extraction corresponds to one exposure. These exposure and signal extraction cooperate with each other to form a single individual imaging process.

本実施形態では、同じ被写体Sについて三次元形状情報及び表面色情報の取得が順番に且つ連続的に行われる。   In the present embodiment, acquisition of three-dimensional shape information and surface color information for the same subject S is performed sequentially and continuously.

前述のように被写体Sに八種類のパタン光(パタン番号PN=0〜7)が順次投影される。そして各パタン光の投影毎に一回の個別撮像処理が行われる。すなわち被写体Sの三次元形状情報を取得するために、その被写体Sに対する個別撮像処理が順次、合計八回行われる。図22には、三次元形状情報を取得するための各回の個別撮像処理に対応するパタン光の番号PNが「0」乃至「7」の数字によって示されている。   As described above, eight types of pattern light (pattern numbers PN = 0 to 7) are sequentially projected onto the subject S. An individual imaging process is performed once for each pattern light projection. That is, in order to acquire the three-dimensional shape information of the subject S, the individual imaging processing for the subject S is sequentially performed a total of eight times. In FIG. 22, the pattern light number PN corresponding to each individual imaging process for acquiring the three-dimensional shape information is indicated by numerals “0” to “7”.

被写体Sの表面色情報を取得するために、被写体Sからの入射光によってCCD70が一回露光され、その後に信号取り出しが行われる。すなわち被写体Sの表面色情報を取得するために、個別撮像処理が一回行われる。図22では、表面色情報を取得するための一回の個別撮像処理が「c」という記号によって示されている。   In order to acquire the surface color information of the subject S, the CCD 70 is exposed once by the incident light from the subject S, and then the signal is extracted. That is, in order to acquire the surface color information of the subject S, the individual imaging process is performed once. In FIG. 22, a single individual imaging process for acquiring surface color information is indicated by a symbol “c”.

従って本実施形態では、三次元形状情報取得のための八回の個別撮像処理と、表面色情報取得のための一回の個別撮像処理とが連続的に行われる。つまり合計九回の個別撮像処理が連続的に行われる。本実施形態では、これら九回の個別撮像処理が互いに共同して一回の全体撮像処理を構成している。   Therefore, in the present embodiment, eight individual imaging processes for acquiring three-dimensional shape information and one individual imaging process for acquiring surface color information are continuously performed. That is, a total of nine individual imaging processes are continuously performed. In the present embodiment, these nine individual imaging processes cooperate with each other to form one whole imaging process.

これら九回の個別撮像処理では、同じ被写体Sについて九回の露光が順次行われる。そしてこれら九回の露光は、例えばビデオレートと同じ速度で且つ同一周期で行われる。これら九回の露光が連続的に行われる期間は、被写体Sと三次元情報測定装置10との相対位置が変化するとその影響がCCD70の撮像結果に現れる期間である。この期間は、三次元情報測定装置10の撮像時間である。この撮像時間が短いほど、三次元情報測定装置10の動画撮像能力が高いことを意味する。   In these nine individual imaging processes, nine exposures of the same subject S are sequentially performed. These nine exposures are performed at the same speed and the same cycle as the video rate, for example. The period in which these nine exposures are continuously performed is a period in which the influence appears in the imaging result of the CCD 70 when the relative position between the subject S and the three-dimensional information measuring apparatus 10 changes. This period is the imaging time of the three-dimensional information measuring apparatus 10. It means that the moving image imaging capability of the three-dimensional information measuring apparatus 10 is higher as the imaging time is shorter.

図22に示す一作動例では、三次元形状情報取得のための八回の個別撮像処理での信号取り出しが何れも間引き画像処理として実行される。従って、三次元形状情報取得のための各回の個別撮像処理では、CCD70の露光に後続して必要な信号取り出し時間t1の経過後、CCD70から電気信号が出力される。信号取り出し時間t1は、1フレーム取り出し時間ともいい、各パタン光の投影毎にCCD70の露光が終了してから、三次元形状情報が1フレーム分、CCD70から出力されるまでに必要な三次元形状情報出力時間を意味する。   In one example of operation shown in FIG. 22, signal extraction in eight individual imaging processes for acquiring three-dimensional shape information is performed as thinned image processing. Accordingly, in each individual imaging process for acquiring three-dimensional shape information, an electrical signal is output from the CCD 70 after the necessary signal extraction time t1 has elapsed following exposure of the CCD 70. The signal extraction time t1 is also referred to as one frame extraction time. The three-dimensional shape required until one frame of three-dimensional shape information is output from the CCD 70 after the exposure of the CCD 70 is completed for each pattern light projection. It means the information output time.

図22に示す一例では、表面色情報取得のための一回の個別撮像処理における信号取り出しが非間引き画像処理として実行される。従って表面色情報取得のための一回の個別撮像処理については、CCD70の露光に後続して必要な信号取り出し時間t2の経過後、CCD70から電気信号が出力される。信号取り出し時間t2は、1フレーム取り出し時間ともいい、CCD70の露光が終了してから、表面色状情報が1フレーム分、CCD70から出力されるまでに必要な表面色情報出力時間を意味する。   In the example illustrated in FIG. 22, signal extraction in one individual imaging process for obtaining surface color information is executed as non-decimated image processing. Accordingly, in one individual imaging process for obtaining surface color information, an electrical signal is output from the CCD 70 after the signal extraction time t2 required after the exposure of the CCD 70 has elapsed. The signal extraction time t2 is also called one frame extraction time, and means the surface color information output time required until the surface color information is output from the CCD 70 for one frame after the exposure of the CCD 70 is completed.

間引き画像処理に必要な信号取り出し時間t1は、非間引き画像処理に必要な信号取り出し時間t2より短い。例えば信号取り出し時間t1が約33msであるのに対して、信号取り出し時間t2は約0.5sである。   The signal extraction time t1 required for the thinned-out image processing is shorter than the signal extraction time t2 required for the non-thinned-out image processing. For example, while the signal extraction time t1 is about 33 ms, the signal extraction time t2 is about 0.5 s.

図22(a)及び(b)に示されるように、一回の個別撮像処理では露光が終了した後に信号取り出しが開始される。そして次回の個別撮像処理における露光は、前回の個別撮像処理における信号取り出しが終了する前に開始される。すなわち、ある回の個別撮像処理における信号取り出しは、次回の個別撮像処理における露光と時間的に一部オーバラップするよう実行される。但し、ある回の個別撮像処理における信号取り出しは、次回の個別撮像処理における露光が終了する前に終了する。   As shown in FIGS. 22A and 22B, in one individual imaging process, signal extraction is started after the exposure is completed. The exposure in the next individual imaging process is started before the signal extraction in the previous individual imaging process is completed. That is, signal extraction in a certain individual imaging process is executed so as to partially overlap with exposure in the next individual imaging process. However, the signal extraction in a certain individual imaging process ends before the exposure in the next individual imaging process ends.

従って本実施形態では、図22(b)に示されるように、三次元形状情報取得のための八回の信号取り出しが時間的に隙間なく連続的に行われる。   Therefore, in this embodiment, as shown in FIG. 22B, eight times of signal extraction for acquiring the three-dimensional shape information are continuously performed with no time gap.

各回の信号取り出しは、それが間引き画像処理として実行される場合には、約33msで終了する。従って八回の信号取り出しは約0.26sで終了する。よって、図22に示される撮像時間(全体撮像時間)のうち三次元形状情報取得のための撮像に必要な部分(以下、「部分撮像時間」という。)の長さは、信号取り出し時間の長さの合計値によって支配されるため、約0.26sの程度の長さで済む。   Each signal extraction is completed in about 33 ms if it is executed as a thinned image process. Therefore, eight signal extractions are completed in about 0.26 s. Therefore, the length of the part (hereinafter referred to as “partial imaging time”) necessary for imaging for acquiring the three-dimensional shape information in the imaging time (total imaging time) shown in FIG. 22 is the length of the signal extraction time. Since it is governed by the total value, the length of about 0.26 s is sufficient.

これに対して各回の信号取り出しは、それを非間引き画像処理として実行すると、約0.5sも必要である。そのため、八回の信号取り出しに約5sも必要となる。これにより、対応する部分撮像時間もその程度の長さが必要となる。   On the other hand, if each signal extraction is executed as non-decimated image processing, about 0.5 s is required. Therefore, about 5 seconds are required for eight times of signal extraction. Thus, the corresponding partial imaging time also needs to be as long as that.

このように、CCD70からの信号取り出しを間引き画像処理として実行する場合には、撮像時間が短縮される。この結果、被写体Sの動きや三次元情報測定装置10の振れの影響が低減して、被写体Sの三次元形状が高精度で計測され得る。   As described above, when the signal extraction from the CCD 70 is executed as the thinned image processing, the imaging time is shortened. As a result, the influence of the movement of the subject S and the shake of the three-dimensional information measuring apparatus 10 is reduced, and the three-dimensional shape of the subject S can be measured with high accuracy.

更に、図22に示されるように、本実施形態では、三次元形状情報取得のための二回目乃至八回目の露光のそれぞれと、表面色情報取得のための露光がそれぞれ、先行する直前の露光に対応する信号取り出しの終了を待つことなく開始される。先行する露光に対応する信号取り出しと、後続する露光とが互いに並行して行われる。すなわち、九回の信号取出しが時間的に隙間なく連続的に行われる。従って、図22に示す撮像時間すなわち三次元形状情報取得のための撮像と表面色情報取得のための撮像との双方を連続的に行うのに必要な時間が短縮される。   Furthermore, as shown in FIG. 22, in this embodiment, the exposures immediately before the second to eighth exposures for acquiring the three-dimensional shape information and the exposures for acquiring the surface color information are respectively preceded. The processing is started without waiting for the end of the signal extraction corresponding to. The signal extraction corresponding to the preceding exposure and the subsequent exposure are performed in parallel with each other. That is, nine times of signal extraction are continuously performed with no time gap. Therefore, the imaging time shown in FIG. 22, that is, the time necessary to continuously perform both the imaging for acquiring the three-dimensional shape information and the imaging for acquiring the surface color information is shortened.

具体的には、各回の信号取り出しは、それが間引き画像処理として実行される場合には約33msで終了する。このため九回の信号取り出しは約0.3sで終了する。これにより、対応する全体撮像時間もその程度の長さで済む。   Specifically, each signal extraction is completed in about 33 ms when it is executed as a thinned image process. For this reason, nine signal extractions are completed in about 0.3 s. As a result, the corresponding total imaging time can be as long as that.

例えば表面色計測撮像処理、三次元計測撮像処理の順に実行する場合、先行する表面色計測撮像処理における信号取出しが大部分終了するまで、三次元形状情報取得のための初回の露光を待機させなければならない。その待ち時間は、信号取り出し時間t2の長さにほぼ等しく約0.5sである。なお表面色計測撮像処理は、信号取り出しが非間引き画像処理として実行される。また三次元計測撮像処理は、信号取り出しが間引き画像処理として実行される。   For example, when performing surface color measurement imaging processing and 3D measurement imaging processing in this order, the first exposure for acquiring 3D shape information must be waited until signal extraction in the preceding surface color measurement imaging processing is almost completed. I must. The waiting time is approximately equal to the length of the signal extraction time t2 and is about 0.5 s. In the surface color measurement imaging process, signal extraction is executed as non-decimated image processing. In the three-dimensional measurement imaging process, signal extraction is executed as a thinned image process.

この場合には、表面色情報取得のための露光と、三次元形状情報取得のための初回の露光との間にやや長い時間間隔が存在する。従って、図22に示される全体撮像時間が長くなる。一方、測定ヘッドMHと被写体Sとの間の相対変位が存在しない又は十分に小さい場合には、その全体撮像時間がやや長いことは問題にならない。これに対して測定ヘッドMHと被写体Sとの間の相対変位が大きい場合には、その全体撮像時間が長いと、表面色情報と三次元形状情報とが画素の位置に関して互いに十分に正確にマッチングしなくなってしまう。すなわち、テクスチャマッピング精度が低下してしまう。   In this case, a slightly longer time interval exists between the exposure for acquiring the surface color information and the first exposure for acquiring the three-dimensional shape information. Therefore, the entire imaging time shown in FIG. 22 becomes long. On the other hand, when the relative displacement between the measuring head MH and the subject S does not exist or is sufficiently small, it is not a problem that the entire imaging time is slightly long. On the other hand, when the relative displacement between the measuring head MH and the subject S is large, if the entire imaging time is long, the surface color information and the three-dimensional shape information are sufficiently accurately matched with respect to the pixel position. I will not. That is, the texture mapping accuracy is lowered.

これに対して本実施形態では、図22に示されるように、三次元形状情報取得のための八回の個別撮像処理が先に、表面色情報取得のための一回の個別撮像処理が後に行われる。その結果、先行する三次元形状情報取得のための八回目の露光と、後続する表面色情報取得のための露光とを、先行する三次元形状情報取得のための八回の露光が行われる周期と同じ周期で連続して行うことが可能となる。よって、本実施形態によれば、全体撮像時間を約0.3s程度にまで短縮することが可能となる。   On the other hand, in this embodiment, as shown in FIG. 22, eight individual imaging processes for acquiring three-dimensional shape information are performed first, and one individual imaging process for acquiring surface color information is performed later. Done. As a result, the eighth exposure for obtaining the preceding three-dimensional shape information and the subsequent exposure for obtaining the surface color information are performed eight times for obtaining the preceding three-dimensional shape information. It becomes possible to carry out continuously with the same period. Therefore, according to the present embodiment, it is possible to reduce the total imaging time to about 0.3 s.

従って本実施形態によれば、三次元形状情報取得のための露光と表面色情報取得のための露光とを十分に短い時間間隔で連続して行うことが可能となる。この結果、測定ヘッドMHと被写体Sの間の相対変位の有無やその程度の大小に影響されることなく、高いテクスチャマッッピング精度が実現される。   Therefore, according to the present embodiment, it is possible to continuously perform exposure for acquiring three-dimensional shape information and exposure for acquiring surface color information at sufficiently short time intervals. As a result, high texture mapping accuracy is realized without being affected by the presence or absence of relative displacement between the measurement head MH and the subject S.

本実施形態によれば、三次元形状情報取得のためのCCD70からの信号取り出しを間引き画像処理モードで実行する場合(ユーザがFASTモードを選択する場合)には、高いテクスチャ解像度すなわち表面色計測精度を確保しつつ、高いテクスチャマッピング精度で動画を撮像するのに適した三次元情報測定装置10が提供される。   According to the present embodiment, when the signal extraction from the CCD 70 for obtaining the three-dimensional shape information is executed in the thinned image processing mode (when the user selects the FAST mode), high texture resolution, that is, surface color measurement accuracy 3D information measuring apparatus 10 suitable for capturing a moving image with high texture mapping accuracy is provided.

更に、本実施形態では、ユーザは、三次元形状情報を取得するための画像処理モードを、間引き画像処理モードすなわちFASTモード、又は、非間引き画像処理モードすなわちSLOWモードの何れかに適宜変更することが可能である。テクスチャマッピング精度の低下が懸念される環境においてユーザがFASTモードを選択すれば、そのような環境にも拘わらずテクスチャマッピング精度が低下せずに済む。一方、テクスチャマッピング精度の低下が懸念されない環境においてユーザがSLOWモードを選択すれば、高いテクスチャマッピング精度のみならず高い三次元形状計測精度も実現される。   Further, in the present embodiment, the user appropriately changes the image processing mode for acquiring the three-dimensional shape information to any one of the thinned image processing mode, that is, the FAST mode, or the non-thinned image processing mode, that is, the SLOW mode. Is possible. If the user selects the FAST mode in an environment where there is a concern about the decrease in texture mapping accuracy, the texture mapping accuracy does not decrease in spite of such an environment. On the other hand, if the user selects the SLOW mode in an environment where there is no concern about the decrease in texture mapping accuracy, not only high texture mapping accuracy but also high three-dimensional shape measurement accuracy is realized.

本実施形態によれば、三次元情報測定装置10の使用環境や、三次元形状計測精度とテクスチャマッピング精度のそれぞれに対するユーザの要望に応じて、三次元情報測定装置10の設定をユーザが任意に変更することができる。従って本実施形態によれば、使い勝手の良い三次元情報測定装置10が提供される。   According to the present embodiment, the user can arbitrarily set the three-dimensional information measuring device 10 according to the usage environment of the three-dimensional information measuring device 10 and the user's request for each of the three-dimensional shape measurement accuracy and the texture mapping accuracy. Can be changed. Therefore, according to the present embodiment, an easy-to-use three-dimensional information measuring apparatus 10 is provided.

ここで、図23を参照することにより、図19のS1220を詳述する。図23には、S1220が三次元計測処理サブルーチンとしてフローチャートで概念的に表されている。   Here, S1220 of FIG. 19 will be described in detail with reference to FIG. In FIG. 23, S1220 is conceptually represented by a flowchart as a three-dimensional measurement processing subroutine.

この三次元計測処理サブルーチンでは、先ず、S4001において輝度画像生成プログラム404cの実行により輝度画像が生成される。   In this three-dimensional measurement processing subroutine, first, in S4001, a luminance image is generated by executing the luminance image generation program 404c.

このS4001では、輝度値がYCbCr空間におけるY値として定義されている。輝度値は各画素のRGB値より、
Y=0.2989・R+0.5866・G+0.1145・B
なる式を用いて計算される。各画素についてY値を求めることにより、複数枚のパタン光有画像にそれぞれ対応複数枚の輝度画像が生成される。これらの生成された輝度画像は、パタン番号PNに関連付けて輝度画像格納部406cに格納される。但し、輝度値の算出に用いられる式は、上記式に限定されるものではなく他の式に適宜変更することが可能である。
In S4001, the luminance value is defined as the Y value in the YCbCr space. Luminance value from RGB value of each pixel,
Y = 0.2989 · R + 0.5866 · G + 0.1145 · B
It is calculated using the following formula. By obtaining the Y value for each pixel, a plurality of luminance images corresponding to the plurality of patterned light images are generated. These generated luminance images are stored in the luminance image storage unit 406c in association with the pattern number PN. However, the formula used for calculating the luminance value is not limited to the above formula, and can be appropriately changed to another formula.

次に、S4002においてコード画像生成プログラム404dが実行される。コード画像生成プログラム404dが実行されると、生成された複数枚の輝度画像が前述の空間コード化法を利用して組み合わされる。これにより、画素毎に空間コードが割り当てられたコード画像が生成される。そのコード画像は、輝度画像格納部406cに格納された複数種類のパタン光有画像に関する輝度画像と、画素毎に輝度閾値が割り当てられた閾値画像との比較による2値化処理によって生成される。その生成されたコード画像はコード画像格納部406dに格納される。   In step S4002, the code image generation program 404d is executed. When the code image generation program 404d is executed, the plurality of generated luminance images are combined using the above-described spatial encoding method. As a result, a code image in which a spatial code is assigned to each pixel is generated. The code image is generated by binarization processing by comparing a luminance image related to a plurality of types of patterned light-stored images stored in the luminance image storage unit 406c and a threshold image to which a luminance threshold is assigned for each pixel. The generated code image is stored in the code image storage unit 406d.

図23には、このコード画像生成プログラム404dの詳細がフローチャートで概念的に表されている。このコード画像生成プログラム404dにおいて採用されている技術は、上述したように、本出願人の特願2004−285736号公報に詳細に記載されたものであり、本実施形態でも採用されている。   FIG. 23 conceptually shows the details of the code image generation program 404d in a flowchart. As described above, the technique employed in the code image generation program 404d is described in detail in Japanese Patent Application No. 2004-285736 of the present applicant, and is also employed in this embodiment.

以下、このコード画像生成プログラム404dについて説明するが、それに先立ち、原理的に説明する。   The code image generation program 404d will be described below, but will be described in principle prior to that.

本実施形態では、同じ被写体S(三次元対象物)につき、複数種類のパタン光のもとにそれぞれ複数枚の輝度画像が生成される。これらのパタン光は何れも、明部すなわち幅を有する明るいパタンラインと、暗部すなわち幅を有する暗いパタンラインとが交互に一定の周期で繰り返すように形成される。これらのパタン光は、その周期に関して互いに異なっており、それぞれ、パタン番号PNを有するパタン光と称される。これらのパタン光のうち最も短い周期を有するパタン光が、パタン番号PNが0であるパタン光であり、最も長い周期を有するパタン光が、パタン番号PNが(PNmax−1)であるパタン光である。   In the present embodiment, a plurality of luminance images are generated for the same subject S (three-dimensional object) based on a plurality of types of pattern light. Each of these pattern lights is formed such that a bright pattern line having a bright part, that is, a width, and a dark part, that is, a dark pattern line having a width, are alternately repeated at a constant period. These pattern lights are different from each other with respect to their periods, and are each referred to as a pattern light having a pattern number PN. Among these pattern lights, the pattern light having the shortest cycle is a pattern light having a pattern number PN of 0, and the pattern light having the longest cycle is a pattern light having a pattern number PN of (PNmax-1). is there.

何れの輝度画像も、対応するパタン光のもとに取得されるため、明るいパタンラインと暗いパタンラインとが交互に並んで成るパタン画像として形成される。パタンラインの間隔すなわち周期は、三次元情報測定装置10と被写体Sとの間における相対的な幾何学的関係(位置及び向きに関する関係)に依存する。このため各輝度画像内の全ての位置において一定であるとは限らない。複数種類のパタン光のもとにそれぞれ取得される複数枚の輝度画像は、対応するパタン光のパタン番号PNを用いて特定される。   Since any luminance image is acquired under the corresponding pattern light, it is formed as a pattern image in which bright pattern lines and dark pattern lines are alternately arranged. The interval, that is, the period of the pattern lines depends on the relative geometric relationship between the three-dimensional information measuring apparatus 10 and the subject S (the relationship regarding the position and orientation). For this reason, it is not necessarily constant at all positions in each luminance image. A plurality of luminance images respectively acquired under a plurality of types of pattern light are specified using the corresponding pattern light pattern number PN.

本実施形態では、複数枚の輝度画像のうちの何れかが代表パタン画像に選択される。その代表パタン画像の一典型例は、複数種類のパタン光のうちパタンライン周期が最小であるものに対応する輝度画像である。すなわちパタン番号PNが0である輝度画像である。   In the present embodiment, any one of the plurality of luminance images is selected as the representative pattern image. A typical example of the representative pattern image is a luminance image corresponding to an image having a minimum pattern line cycle among a plurality of types of pattern light. That is, it is a luminance image whose pattern number PN is 0.

パタン光が投影された被写体Sを撮像した輝度画像では、輝度値が画素列の方向において空間的且つ周期的に変化する。その周期的変化を表すグラフにその複数の下ピーク点(最低輝度点)において接する包絡線が存在する。この包絡線は、同じ被写体Sを無照射状態で撮像した輝度画像における輝度値、すなわち、被写体Sの背景光の輝度値の空間的変化を表している。このような包絡線が存在する輝度画像については、各画素の輝度値を閾値処理によって正確に2値化するため、閾値を画素位置に応じて変化させることが望ましい。すなわち、輝度画像の実際の輝度値変化をトラッキングすることによって閾値を適応的に変化させることが望ましいのである。   In the luminance image obtained by imaging the subject S on which the pattern light is projected, the luminance value changes spatially and periodically in the direction of the pixel column. There is an envelope that touches the lower peak point (lowest luminance point) in the graph representing the periodic change. This envelope represents a spatial change in the luminance value in the luminance image obtained by imaging the same subject S in the non-irradiated state, that is, the luminance value of the background light of the subject S. For a luminance image in which such an envelope exists, it is desirable to change the threshold value according to the pixel position in order to accurately binarize the luminance value of each pixel by threshold processing. That is, it is desirable to adaptively change the threshold value by tracking the actual luminance value change of the luminance image.

このような知見に基づき、本実施形態では、輝度画像に対してフィルタ処理を行うことによって閾値を算出するフィルタ窓がローカルに設定されている。フィルタ処理されることによりその位置に適した閾値が、輝度画像に対してローカルに設定される。輝度画像のうちのあるローカル位置に窓が設定されれば、輝度画像を構成する複数本のパタンラインのうちその窓内に存在する画素の輝度値が取り出されて参照される。これにより、そのあるローカル位置に対応する閾値が設定される。   Based on such knowledge, in this embodiment, a filter window for calculating a threshold value by performing filter processing on the luminance image is locally set. By performing the filtering process, a threshold value suitable for the position is set locally for the luminance image. If a window is set at a certain local position in the luminance image, the luminance values of the pixels existing in the window among the plurality of pattern lines constituting the luminance image are extracted and referred to. Thereby, a threshold value corresponding to the certain local position is set.

本実施形態において使用される窓は方形窓である。この方形窓を採用する場合には、その方形窓内に存在する複数本のパタンラインを構成する画素の輝度値が取り出され、それら輝度値に対して同一の重み係数が用いられて閾値が算出される。その重み係数により方形窓の窓関数が定義される。   The window used in this embodiment is a rectangular window. When this rectangular window is adopted, the luminance values of the pixels constituting the plurality of pattern lines existing in the rectangular window are extracted, and the threshold value is calculated by using the same weighting coefficient for these luminance values. Is done. The window function of the rectangular window is defined by the weight coefficient.

方形窓を採用する場合には、パタンラインが延びるライン方向における方形窓のサイズ(以下、「ライン方向サイズ」と記す)に応じて、その方形窓内においてライン方向に存在する画素の数を可変とすることができる。一方、複数本のパタンラインが列を成して並ぶ列方向における方形窓のサイズ(以下、「列方向サイズ」と記す)に応じて、その方形窓内において列方向に存在するパタンラインの数も画素の数も可変とすることができる。   When a rectangular window is used, the number of pixels existing in the line direction within the rectangular window can be changed according to the size of the rectangular window in the line direction in which the pattern line extends (hereinafter referred to as “line direction size”). It can be. On the other hand, the number of pattern lines existing in the column direction in the rectangular window according to the size of the rectangular window in the column direction in which a plurality of pattern lines are arranged in a row (hereinafter referred to as “column direction size”). The number of pixels can also be variable.

従って方形窓を採用する場合には、その方形窓の列方向サイズにより、輝度画像に窓を設定することによってその輝度画像から算出される閾値が変化することになる。例えばその閾値を適宜変化させることが必要である場合には、方形窓の列方向サイズを適宜変化させれば良い。   Therefore, when a rectangular window is adopted, the threshold value calculated from the luminance image changes by setting the window in the luminance image according to the column-direction size of the rectangular window. For example, when the threshold value needs to be changed as appropriate, the column direction size of the rectangular window may be changed as appropriate.

本実施形態では、方形窓として構成される窓のサイズが、その窓内に存在するパタンラインの数がその間隔すなわち周期(例えば明るいパタンラインが繰り返される周期)の整数倍であるように設定することが望ましい。すなわち窓内に、明るいパタンラインと暗いパタンラインとが同数ずつ存在するように当該窓のサイズを設定することが望ましい。このように設定すれば、窓内に存在する複数本のパタンラインの輝度値の平均値を算出することにより、望ましい閾値を高精度取得することができる。   In the present embodiment, the size of the window configured as a rectangular window is set so that the number of pattern lines existing in the window is an integral multiple of the interval, that is, the period (for example, the period in which bright pattern lines are repeated). It is desirable. That is, it is desirable to set the size of the window so that the same number of bright pattern lines and dark pattern lines exist in the window. With this setting, it is possible to obtain a desired threshold with high accuracy by calculating the average value of the luminance values of a plurality of pattern lines existing in the window.

しかし同じ輝度画像上であっても、パタンラインの周期は場所によって異なる可能性がある。このため窓のサイズを固定した場合には、窓内に存在するパタンラインの数が場所によって変動してしまい、閾値の設定精度が低下してしまう。   However, even on the same luminance image, the period of the pattern line may vary depending on the location. For this reason, when the size of the window is fixed, the number of pattern lines existing in the window varies depending on the location, and the threshold setting accuracy decreases.

本実施形態では、複数枚の輝度画像のうち、パタンラインの周期が最小であるパタン光のもとに撮像されたもの、すなわちパタン番号PNが0である輝度画像が代表パタン画像として選択される。更に、本実施形態では、その代表パタン画像に対してローカルに設定される窓VWが、そのサイズが可変である可変窓として構成されている。それにより、その可変窓VWのサイズが、代表パタン画像の実際のパタンライン周期に適応して変化される。   In the present embodiment, among a plurality of luminance images, an image captured under the pattern light having the minimum pattern line period, that is, a luminance image having a pattern number PN of 0 is selected as the representative pattern image. . Furthermore, in this embodiment, the window VW set locally with respect to the representative pattern image is configured as a variable window whose size is variable. Thereby, the size of the variable window VW is changed in accordance with the actual pattern line period of the representative pattern image.

従って本実施形態によれば、代表パタン画像におけるパタンライン周期が列方向位置に応じて変動しても、それに追従するように可変窓VWのサイズが変更される。この結果、パタンライン周期の変動に影響されることなく、可変窓VW内に存在する明部と暗部のパタンラインの数が一定に維持される。本実施形態では、代表パタン画像に対して可変窓VWが設定されるローカル位置毎に閾値THが取得される。ローカル位置毎の閾値THは、各ローカル位置に最適なサイズを有する可変窓VWのもとに精度良く取得されることになる。   Therefore, according to the present embodiment, even if the pattern line period in the representative pattern image varies according to the position in the column direction, the size of the variable window VW is changed so as to follow it. As a result, the number of bright and dark pattern lines existing in the variable window VW is maintained constant without being affected by variations in the pattern line period. In the present embodiment, the threshold value TH is acquired for each local position where the variable window VW is set for the representative pattern image. The threshold value TH for each local position is accurately obtained based on the variable window VW having the optimum size for each local position.

また、明部と暗部のパタンラインの数が一定に維持されるような可変窓VWのサイズは、パタン番号PNが0である輝度画像において最小となる。従ってパタン番号PNが0のものを代表パタン画像として選択することにより、可変窓VWのサイズを最小とすることが可能となる。これにより、可変窓VWを用いた後のフィルタ処理の計算負担が抑えられる。   Further, the size of the variable window VW that keeps the number of pattern lines of the bright part and the dark part constant is minimum in the luminance image whose pattern number PN is 0. Accordingly, the size of the variable window VW can be minimized by selecting a pattern number PN of 0 as the representative pattern image. Thereby, the calculation burden of the filter process after using the variable window VW is suppressed.

本実施形態では、可変窓VWはそのサイズが可変である方形窓として構成されている。その可変窓VWのサイズは、代表パタン画像の列方向には可変であるように設定されている。これに対してライン方向には固定であるように設定されている。   In the present embodiment, the variable window VW is configured as a rectangular window whose size is variable. The size of the variable window VW is set to be variable in the column direction of the representative pattern image. On the other hand, it is set to be fixed in the line direction.

本実施形態では、可変窓VWのサイズ、すなわち代表パタン画像の列方向におけるサイズが、その代表パタン画像の実際のパタンライン周期を適応的に反映するように設定される。従って可変窓VWのサイズを設定するために、代表パタン画像の実際のパタンライン周期分布が事前に判明していることが必要である。   In the present embodiment, the size of the variable window VW, that is, the size in the column direction of the representative pattern image is set so as to adaptively reflect the actual pattern line period of the representative pattern image. Therefore, in order to set the size of the variable window VW, it is necessary that the actual pattern line period distribution of the representative pattern image is known in advance.

よって本実施形態では、可変窓VWのサイズの設定に先立ち、サイズが固定された固定窓が代表パタン画像に対して設定される。この設定された固定窓によって捕捉される複数の連続画素が複数の注目画素として選択される。そしてそれら選択された注目画素の輝度値に基づいて、代表パタン画像の実際のパタンライン周期分布が取得される。   Therefore, in this embodiment, prior to setting the size of the variable window VW, a fixed window with a fixed size is set for the representative pattern image. A plurality of continuous pixels captured by the set fixed window are selected as a plurality of target pixels. Based on the luminance value of the selected target pixel, the actual pattern line period distribution of the representative pattern image is acquired.

本実施形態では、更に、代表パタン画像における複数の注目画素の輝度値に対してFFT(Fast Fourier Transform:高速フーリエ変換)処理が施される。これにより、代表パタン画像の列方向において輝度値変化の周波数成分のそれぞれについて強度(例えばパワースペクトル)が取得される。ここに、「周波数成分」は、一個の固定窓によって捕捉される複数の注目画素を列方向に辿った場合に、輝度値の変化が反復される反復回数を意味する。   In the present embodiment, an FFT (Fast Fourier Transform) process is further performed on the luminance values of a plurality of target pixels in the representative pattern image. Thereby, the intensity (for example, power spectrum) is acquired for each frequency component of the luminance value change in the column direction of the representative pattern image. Here, the “frequency component” means the number of repetitions in which the change in luminance value is repeated when a plurality of target pixels captured by one fixed window are traced in the column direction.

本実施形態では、代表パタン画像において列方向に連続的に並んだ複数の連続画素のそれぞれが順次注目画素に選定される。そして選定された注目画素毎にパタンライン周期が代表パタン画像の輝度値分布に基づいて取得される。   In the present embodiment, each of a plurality of continuous pixels continuously arranged in the column direction in the representative pattern image is sequentially selected as a target pixel. A pattern line period is acquired for each selected target pixel based on the luminance value distribution of the representative pattern image.

以上、このコード画像生成プログラム404dを原理的に説明したが、以下、図24を参照して説明する。   The code image generation program 404d has been described in principle above, but will be described below with reference to FIG.

コード画像生成プログラム404dでは、先ず、S5001において、輝度画像格納部406cから、パタン番号PN0のパタン光が投影された被写体Sの輝度画像が、代表パタン画像として読み込まれる。   In the code image generation program 404d, first, in S5001, the luminance image of the subject S onto which the pattern light with the pattern number PN0 is projected is read from the luminance image storage unit 406c as a representative pattern image.

次に、S5002においてその代表パタン画像につき、前記読み込まれた輝度画像に基づいて前述のFFT変換によるアプローチにより、代表パタン画像において列方向に連続的に並んだ画素毎にパタンライン周期が演算される。演算された複数のパタンライン周期は、各画素(各列方向画素位置)に関連付けて周期分布格納部406pに格納される。   Next, in S5002, the pattern line period is calculated for each pixel continuously arranged in the column direction in the representative pattern image based on the read luminance image by the above-described approach based on the FFT conversion. . The calculated plurality of pattern line periods are stored in the period distribution storage unit 406p in association with each pixel (each column direction pixel position).

続いてS5003において、演算された複数のパタンライン周期に基づいて可変窓VWの特性がローカルに設定される。本実施形態では、可変窓VWのライン方向サイズは、その可変窓VWが設定される代表パタン画像上の位置に拘わらず変化しないように設定される。これに対して可変窓VWの列方向サイズは、各列方向画素位置に関連付けて演算されたパタンライン周期の整数倍に相当するように設定される。   Subsequently, in S5003, the characteristics of the variable window VW are locally set based on the plurality of calculated pattern line periods. In the present embodiment, the line direction size of the variable window VW is set so as not to change regardless of the position on the representative pattern image where the variable window VW is set. On the other hand, the column direction size of the variable window VW is set so as to correspond to an integral multiple of the pattern line period calculated in association with each column direction pixel position.

その後S5004において、代表パタン画像に対して可変窓VWが、ライン方向と列方向に沿って平面的に各画素に関連付けて設定される。これにより画素毎に、可変窓VW内に存在する複数の画素の輝度値の平均値がローカルな閾値として演算される。S5004では、更に、演算された閾値を各画素に割り当てた閾値画像が生成される。生成された閾値画像は閾値画像格納部406qに格納される。   Thereafter, in S5004, a variable window VW is set in association with each pixel in a plane along the line direction and the column direction with respect to the representative pattern image. Thereby, for each pixel, the average value of the luminance values of a plurality of pixels existing in the variable window VW is calculated as a local threshold value. In S5004, a threshold image in which the calculated threshold is assigned to each pixel is further generated. The generated threshold image is stored in the threshold image storage unit 406q.

続いてS5005において、パタン番号PNが0に初期化される。次いでS5006において、パタン番号PNの現在値が最大値PNmaxより小さいか否かが判定される。ここではパタン番号PNの現在値が0であるため判定がNOとなり、S5007に移行する。   Subsequently, in S5005, the pattern number PN is initialized to 0. Next, in S5006, it is determined whether or not the current value of the pattern number PN is smaller than the maximum value PNmax. Here, since the current value of the pattern number PN is 0, the determination is no, and the process proceeds to S5007.

S5007では、パタン番号PNの現在値と等しいパタン番号PNが割り当てられた輝度画像の輝度値と、生成された閾値画像の閾値とが、画素毎に互いに比較される。その比較結果は画素毎に2値化画像に反映される。具体的には、輝度画像の輝度値が閾値より大きい場合には、「1」を表すデータが、2値化画像のうち対応する画素位置に関連付けて2値化画像格納部406rに格納される。一方、輝度画像の輝度値が閾値より大きくはない場合には、「0」を表すデータが、2値化画像のうち対応する画素位置に関連付けて2値化画像格納部406rに格納される。   In S5007, the luminance value of the luminance image assigned the pattern number PN equal to the current value of the pattern number PN and the threshold value of the generated threshold image are compared with each other for each pixel. The comparison result is reflected in the binarized image for each pixel. Specifically, when the luminance value of the luminance image is larger than the threshold value, data representing “1” is stored in the binarized image storage unit 406r in association with the corresponding pixel position in the binarized image. . On the other hand, when the luminance value of the luminance image is not greater than the threshold value, data representing “0” is stored in the binarized image storage unit 406r in association with the corresponding pixel position in the binarized image.

その後S5008において、パタン番号PNが1だけインクリメントされる。続いてS5006に戻り、パタン番号PNの現在値が最大値PNmaxより小さいか否かが判定される。今回もパタン番号PNの現在値が最大値PNmaxよりも小さいと判定されてNOとなり、S5007に移行する。   Thereafter, in S5008, the pattern number PN is incremented by one. Subsequently, returning to S5006, it is determined whether or not the current value of the pattern number PN is smaller than the maximum value PNmax. Also in this time, it is determined that the current value of the pattern number PN is smaller than the maximum value PNmax, the result is NO, and the process proceeds to S5007.

S5006乃至S5008の実行がパタン光の種類の数と同数回繰り返された結果、パタン番号PNの現在値が最大値PNmaxより大きい値になると、S5006の判定がYESとなり、S5009に移行する。   As a result of the execution of S5006 to S5008 being repeated the same number of times as the number of pattern light types, if the current value of the pattern number PN becomes a value greater than the maximum value PNmax, the determination in S5006 becomes YES, and the flow proceeds to S5009.

S5009では、画素毎に、最大値PNmaxと同数枚の2値化画像から画素値(「1」又は「0」)が、所定の順序に従って抽出される。この所定の順序とは、パタン番号PNが0である輝度画像に対応する2値化画像から、パタン番号PNが(PNmax−1)である輝度画像に対応する2値化画像に至る順序である。これにより、最下位ビットLSMから最上位ビットMSBに至る順序に従って並んだ空間コードが生成される。画素毎の空間コードのビット数は最大値PNmaxと同数である。画素毎に空間コードが生成されることにより、今回の被写体Sに対応する空間コード画像が生成される。生成された空間コードは、各画素位置に関連付けて空間コード格納部116dに格納される。例えば最大値PNmaxが8である場合には、生成される空間コードは0から255までの範囲内の値を有する。   In S5009, for each pixel, pixel values (“1” or “0”) are extracted from the same number of binarized images as the maximum value PNmax according to a predetermined order. This predetermined order is an order from a binary image corresponding to a luminance image having a pattern number PN of 0 to a binary image corresponding to a luminance image having a pattern number PN of (PNmax-1). . Thereby, spatial codes arranged in the order from the least significant bit LSM to the most significant bit MSB are generated. The number of bits of the spatial code for each pixel is the same as the maximum value PNmax. By generating a spatial code for each pixel, a spatial code image corresponding to the current subject S is generated. The generated spatial code is stored in the spatial code storage unit 116d in association with each pixel position. For example, when the maximum value PNmax is 8, the generated spatial code has a value in the range from 0 to 255.

以上で、このコード画像生成プログラム404dの一回の実行が終了する。   This completes one execution of the code image generation program 404d.

その後、図23におけるS4003においてコード境界抽出プログラム404eの実行により、コード境界座標検出処理が実施される。前述の空間コード化法によるコード化は各画素単位で行われる。このため、実際のパタン光における明暗の境界線と、前記生成されたコード画像における空間コードの境界線(ある空間コードが割り当てられた領域と別の空間コードが割り当てられた領域との間の境界線)との間にサブピクセル精度の誤差が生ずる。そのため、このコード境界座標検出処理は、空間コードの境界座標値をサブピクセル精度で検出することを目的として実施される。   Thereafter, a code boundary coordinate detection process is performed by executing the code boundary extraction program 404e in S4003 in FIG. Encoding by the above-described spatial encoding method is performed for each pixel. For this reason, the boundary line of light and dark in the actual pattern light and the boundary line of the spatial code in the generated code image (the boundary between the area assigned with one spatial code and the area assigned with another spatial code) An error of sub-pixel accuracy occurs between the line and the line. Therefore, this code boundary coordinate detection process is performed for the purpose of detecting the boundary coordinate value of the spatial code with subpixel accuracy.

例えば各パタン光のライン方向と交差する離散的な基準線の位置をCCD座標系において255本設定する。このとき最大値PNmaxが8(空間コードを256有するため境界は255)である場合、図23におけるS4003(コード境界抽出プログラム404eの実行)により、最大約6万5千の空間コードの境界座標値が検出される。   For example, 255 discrete reference line positions intersecting the line direction of each pattern light are set in the CCD coordinate system. At this time, if the maximum value PNmax is 8 (the boundary is 255 because it has 256 spatial codes), the boundary coordinate values of a maximum of about 65,000 spatial codes by S4003 (execution of the code boundary extraction program 404e) in FIG. Is detected.

検出されたコード境界座標値はコード境界座標格納部406eに格納される。コード境界座標値は、CCD70の結像面に設定された二次元座標系であるCCD座標系ccdx−ccdyにおいて定義される。   The detected code boundary coordinate value is stored in the code boundary coordinate storage unit 406e. The code boundary coordinate values are defined in a CCD coordinate system ccdx-ccdy, which is a two-dimensional coordinate system set on the imaging plane of the CCD 70.

続いてS4004において、レンズ収差補正プログラム404fの実行により、レンズ収差補正処理が実施される。このレンズ収差補正処理は、撮像光学系30に入射した光束の実際の結像位置であってその撮像光学系30の収差の影響を受けたものを理想結像位置に近づくように補正する処理である。この理想結像位置とは、その撮像光学系30が理想レンズ系(すなわち無収差レンズ系)であるときに結像されるべき位置を表す。   Subsequently, in S4004, a lens aberration correction process is performed by executing the lens aberration correction program 404f. This lens aberration correction process is a process of correcting an actual image formation position of a light beam incident on the image pickup optical system 30 and being affected by the aberration of the image pickup optical system 30 so as to approach the ideal image formation position. is there. The ideal imaging position represents a position to be imaged when the imaging optical system 30 is an ideal lens system (that is, a non-aberration lens system).

このレンズ収差補正処理により、S4003において検出されたコード境界座標値は、撮像光学系30の歪み等に起因した誤差が除去されるように補正される。そのようにして補正されたコード境界座標は収差補正座標格納部406gに格納される。   By this lens aberration correction processing, the code boundary coordinate value detected in S4003 is corrected so that an error caused by distortion or the like of the imaging optical system 30 is removed. The code boundary coordinates corrected as described above are stored in the aberration correction coordinate storage unit 406g.

コード境界座標検出処理及びレンズ収差補正処理は何れも、本発明を理解するために不可欠な事項ではなく、しかも、本出願人の特願2004−105426号公報に詳細に開示されている。従って上記処理の詳細な説明については上記公報を参照すべきであり、ここでの詳細な説明を省略する。   Neither the code boundary coordinate detection process nor the lens aberration correction process is indispensable for understanding the present invention, and is disclosed in detail in Japanese Patent Application No. 2004-105426 of the present applicant. Therefore, the above publication should be referred to for a detailed description of the above process, and a detailed description thereof is omitted here.

その後S4005において、三角測量演算プログラム404gの実行により、三角測量の原理による実空間変換処理が実施される。この実空間変換処理が実施されれば、三角測量の原理により、CCD座標系ccdx−ccdy上のコード境界座標値であって収差補正が施されたものが、実空間に設定された三次元座標系である実空間座標系X−Y−Z上の三次元座標値に変換される。この結果、三次元色形状検出結果としての三次元座標値が取得される。その取得された三次元座標値は、対応する部分画像の回転位相PHに関連付けられて、三次元座標格納部406hに格納される。   Thereafter, in S4005, real space conversion processing based on the principle of triangulation is performed by executing the triangulation calculation program 404g. If this real space conversion processing is performed, the code boundary coordinate values on the CCD coordinate system ccdx-ccdy and subjected to aberration correction are converted into three-dimensional coordinates set in the real space according to the principle of triangulation. It is converted into a three-dimensional coordinate value on the real space coordinate system XYZ which is a system. As a result, a three-dimensional coordinate value as a three-dimensional color shape detection result is acquired. The acquired three-dimensional coordinate value is associated with the rotation phase PH of the corresponding partial image and stored in the three-dimensional coordinate storage unit 406h.

S4005では、被写体Sの三次元形状を複数の三次元頂点の集まりとして空間離散的に計測するために、二次元的なコード画像が、各パタン光のライン方向と交差する離散的な複数本の基準線に関して空間離散的に参照される。これにより、そのコード画像の外周境界上の複数の離散点にそれぞれ対応する複数の三次元頂点が取得されるのみならず、そのコード画像の内部の複数の離散点(S4003において検出されたコードの境界座標点)にそれぞれ対応する複数の三次元頂点が取得される。   In S4005, in order to spatially discretely measure the three-dimensional shape of the subject S as a collection of a plurality of three-dimensional vertices, a plurality of discrete two-dimensional code images intersect with the line direction of each pattern light. Referenced spatially with respect to the reference line. As a result, not only a plurality of three-dimensional vertices respectively corresponding to a plurality of discrete points on the outer boundary of the code image are acquired, but also a plurality of discrete points (the code detected in S4003) inside the code image. A plurality of three-dimensional vertices respectively corresponding to the boundary coordinate point) are acquired.

ここで、図25を参照することにより、図19におけるS1230を詳述する。図25には、S1230が三次元色形状検出結果生成サブルーチンとして概念的にフローチャートで表されている。   Here, S1230 in FIG. 19 will be described in detail with reference to FIG. FIG. 25 conceptually shows a flowchart of S1230 as a three-dimensional color shape detection result generation subroutine.

三次元色形状検出結果生成サブルーチンでは、先ず、S5501において三次元座標格納部406hから、回転位相PH0乃至3のそれぞれに関連付けて、複数の三次元座標値がロードされる。本実施形態では、被写体Sの外面全体が4つの部分面(正面、右側面、左側面及び背面)に分割され、各部分面ごとに立体画像が生成される。S5501では、これら4つの部分面の全てについて、各部分面に属する複数の三次元座標値が三次元座標格納部406hからロードされる。   In the three-dimensional color shape detection result generation subroutine, first, in S5501, a plurality of three-dimensional coordinate values are loaded from the three-dimensional coordinate storage unit 406h in association with the rotation phases PH0 to PH3. In the present embodiment, the entire outer surface of the subject S is divided into four partial surfaces (front, right side, left side, and back), and a stereoscopic image is generated for each partial surface. In S5501, for all four partial surfaces, a plurality of three-dimensional coordinate values belonging to each partial surface are loaded from the three-dimensional coordinate storage unit 406h.

次にS5502において、ロードされた複数の三次元座標値(頂点座標値)に対して、各三次元座標値が属する各部分面の回転位相PHに応じた回転変換が行われる。これにより、4つの部分面に属する複数の三次元座標値が、各部分面の回転位相PHを見込んで組み合わされる。その結果、複数の三次元座標値によって三次元的に表現される4つの部分面が一体化されて、被写体Sの外面全体を現す画像が合成される。但しこの段階ではその合成画像に、測定ヘッドMHの分割撮像手法に起因して空間的にオーバラップする部分が存在する。   Next, in S5502, a rotation transformation corresponding to the rotation phase PH of each partial surface to which each three-dimensional coordinate value belongs is performed on the loaded plurality of three-dimensional coordinate values (vertex coordinate values). Thereby, a plurality of three-dimensional coordinate values belonging to the four partial surfaces are combined in anticipation of the rotational phase PH of each partial surface. As a result, four partial surfaces that are three-dimensionally expressed by a plurality of three-dimensional coordinate values are integrated, and an image showing the entire outer surface of the subject S is synthesized. However, at this stage, there is a spatially overlapping portion in the synthesized image due to the divided imaging method of the measuring head MH.

続いてS5503において、生成された合成画像において空間的にオーバラップする部分が抽出される。更に、その合成画像の長さ方向における各領域においてオーバラップする2つの部分が、それら2部分に属する複数の三次元座標値の平均化等の手法により、1つの部分に結合される。その結果、合成画像において空間的なオーバラップが除去される。これによりステッチ画像が完成する。そのステッチ画像を表すデータがステッチ画像格納部406sに格納される。   In step S5503, a spatially overlapping portion is extracted from the generated composite image. Further, two overlapping portions in each region in the length direction of the composite image are combined into one portion by a method such as averaging of a plurality of three-dimensional coordinate values belonging to the two portions. As a result, spatial overlap is removed in the composite image. Thereby, a stitch image is completed. Data representing the stitch image is stored in the stitch image storage unit 406s.

その後S6001において、前述の実空間三次元座標系に座標変換された三次元頂点群の各実座標空間座標値に対応するRGB値(R輝度値、G輝度値及びB輝度値)が前述の表面色画像から抽出される。   Thereafter, in S6001, the RGB values (R luminance value, G luminance value, and B luminance value) corresponding to each real coordinate space coordinate value of the three-dimensional vertex group coordinate-converted to the above-described real space three-dimensional coordinate system are converted to the above-described surface. Extracted from the color image.

実空間座標系と、表面色画像を定義する平面座標系との関係は、前述の三角測量計算によって幾何学的に互いに対応付けられている。すなわち、コード画像(すなわち被写体Sの三次元形状を計測するための二次元画像である形状画像を定義する平面座標系を実空間三次元座標系に計算によってマッピングさせるために用いられる関数)が存在する場合に、その関数の逆関数を用いることにより、実空間三次元座標系を、表面色画像を定義する平面座標系に計算によってマッピングさせることが可能なのである。従ってS6001では、二次元的な表面色画像から三次元頂点毎に、それに対応する表面色値すなわちRGB値を抽出することが可能である。   The relationship between the real space coordinate system and the plane coordinate system that defines the surface color image is geometrically associated with each other by the triangulation calculation described above. That is, there is a code image (that is, a function used to map a plane coordinate system defining a shape image, which is a two-dimensional image for measuring the three-dimensional shape of the subject S, to a real space three-dimensional coordinate system). In this case, by using an inverse function of the function, the real space three-dimensional coordinate system can be calculated and mapped to the plane coordinate system defining the surface color image. Therefore, in S6001, it is possible to extract the surface color value, that is, the RGB value, corresponding to each three-dimensional vertex from the two-dimensional surface color image.

次にS6002において、頂点毎に、対応する実空間座標値とRGB値とが組み合わされて色形状情報が生成される。更に、その生成された色形状情報が、対応する頂点に直接的又は間接的に関連付けてワーキングエリア410にローカル保存される。   In step S6002, color shape information is generated for each vertex by combining corresponding real space coordinate values and RGB values. Further, the generated color shape information is stored locally in the working area 410 in association with the corresponding vertex directly or indirectly.

続いてS6003において、その被写体Sについて取得された複数の頂点のうち、距離的に近接する複数の頂点が三個ずつグループ分けされる。これは、被写体Sの表面形状を複数のポリゴンの一例である三角形に分割することによって近似的に表現するために行われる。グループ毎に三個の頂点が互いに連結されることにより、一個のポリゴンが形成される。   Subsequently, in S6003, among a plurality of vertices acquired for the subject S, a plurality of vertices that are close in distance are grouped by three. This is performed to approximately represent the surface shape of the subject S by dividing it into triangles, which are examples of a plurality of polygons. Three vertices for each group are connected to each other to form one polygon.

その後S6004において、ポリゴン毎に、そのポリゴンを形成するために互いに連結すべき三個の頂点の組合せがポリゴン情報として、各ポリゴンに直接的又は間接的に関連付けてワーキングエリア410にローカル保存される。またそのポリゴン情報は、必要に応じて、被写体Sの三次元色形状を表す情報として三次元色形状データ格納部406tに格納される。   Thereafter, in S6004, for each polygon, a combination of three vertices to be connected to each other to form the polygon is locally stored in the working area 410 as polygon information in association with each polygon directly or indirectly. The polygon information is stored in the three-dimensional color shape data storage unit 406t as information representing the three-dimensional color shape of the subject S as necessary.

以上で、この三次元色形状検出結果生成サブルーチンの一回の実行が終了する。これに伴い、図19に示す三次元色形状検出処理ルーチンの一回の実行が終了する。   Thus, one execution of this three-dimensional color shape detection result generation subroutine is completed. Accordingly, one execution of the three-dimensional color shape detection processing routine shown in FIG.

ここで、図26を参照して、三次元情報測定装置10を用いて大型な被写体S’の三次元情報測定を行う例を説明する。被写体S’は例えばユーザの手である。図26には、ユーザが白色カーテン600に手を潜らせて回転載置面190上に置いた状態が示されている。   Here, with reference to FIG. 26, an example in which the three-dimensional information measurement apparatus 10 is used to measure the three-dimensional information of the large subject S ′ will be described. The subject S ′ is, for example, a user's hand. FIG. 26 shows a state in which the user puts his hand in the white curtain 600 and places it on the rotary placement surface 190.

白色カーテン600に手を潜らせた場合、図26に示されるように、その縁がユーザの腕表面に沿うように掛かる。すなわち白色カーテン600は、自己が成す暗所空間から突出する物体を、当該空間境界において、その形状に沿って隙間なく取り囲むことができる。これは、白色カーテン600と腕との界面における暗所空間に対する外乱光の進入を良好に防止することを可能とする。   When a hand is submerged in the white curtain 600, as shown in FIG. 26, the edge hangs along the user's arm surface. That is, the white curtain 600 can surround an object protruding from a dark space formed by itself without any gap along the shape at the boundary of the space. This makes it possible to satisfactorily prevent disturbance light from entering the dark space at the interface between the white curtain 600 and the arm.

すなわち白色カーテン600の如く柔軟性を持つ部材を用いた場合、暗所空間を越えるサイズの被写体を回転載置面190上に置いても当該暗所空間の気密性が保たれるという効果がある。つまり本実施形態の三次元情報測定装置10によれば、測定対象物が大きなものであってもその測定部位を、外乱光の影響を受けない暗所空間に内包させることが可能となる。このためCCD70により、コントラストの高い投影パタン像、及び、均一光量で照明された被写体像を撮像することが可能となる。この結果、精度の高い三次元情報測定が実現可能となる。   That is, when a member having flexibility such as the white curtain 600 is used, there is an effect that the airtightness of the dark space is maintained even when a subject having a size exceeding the dark space is placed on the rotating placement surface 190. . That is, according to the three-dimensional information measuring apparatus 10 of the present embodiment, even if the measurement object is large, the measurement site can be included in a dark space that is not affected by ambient light. For this reason, the CCD 70 can capture a high-contrast projection pattern image and a subject image illuminated with a uniform amount of light. As a result, highly accurate three-dimensional information measurement can be realized.

以上が本発明の実施の形態である。本発明はこれらの実施の形態に限定されるものではなく様々な範囲で変形が可能である。例えば暗所空間を形成するための手段は白色カーテン600に限定されない。   The above is the embodiment of the present invention. The present invention is not limited to these embodiments and can be modified in various ranges. For example, the means for forming the dark space is not limited to the white curtain 600.

白色カーテン600の代替として例えば蛇腹状の幕や編み込み状の袋等が挙げられる。図27に、白色カーテン600を蛇腹状の幕700に置き換えた三次元情報測定装置10yを示す。図28に、白色カーテン600を編み込み状の袋800に置き換えた三次元情報測定装置10zを示す。なお、これら三次元情報測定装置10y及びzにおいて本実施形態の三次元情報測定装置10と同一の構成には、同一の符号を付して詳細な説明を省略することとする。   As an alternative to the white curtain 600, for example, a bellows-like curtain or a braided bag can be cited. FIG. 27 shows a three-dimensional information measuring apparatus 10y in which the white curtain 600 is replaced with a bellows-like curtain 700. FIG. 28 shows a three-dimensional information measuring apparatus 10z in which the white curtain 600 is replaced with a braided bag 800. In these three-dimensional information measuring devices 10y and z, the same components as those of the three-dimensional information measuring device 10 of the present embodiment are denoted by the same reference numerals, and detailed description thereof is omitted.

蛇腹状の幕700は、例えば白色カーテン600と同一材料で構成されてものであり得る。また遮光性の高い布等で構成されたものであっても良い。すなわち蛇腹状の幕700は軽量且つ柔軟性に優れた素材から構成される。また図27に示されるように、蛇腹状の幕700は矢印D方向に伸縮自在な蛇腹構造を有している。この蛇腹状の幕700は、本実施形態の白色カーテン600と同様に、測定ヘッドMHから取り外すことも可能である。測定ヘッドMHから取り外して矢印D方向に折り畳むことにより、蛇腹状の幕700は極めてコンパクトになる。   The bellows-like curtain 700 may be made of the same material as the white curtain 600, for example. Further, it may be made of a cloth having a high light shielding property. That is, the bellows-like curtain 700 is made of a material that is lightweight and excellent in flexibility. As shown in FIG. 27, the bellows-like curtain 700 has a bellows structure that can be expanded and contracted in the direction of arrow D. The bellows-like curtain 700 can be detached from the measuring head MH similarly to the white curtain 600 of the present embodiment. By removing from the measuring head MH and folding it in the direction of arrow D, the bellows-like curtain 700 becomes extremely compact.

すなわち蛇腹状の幕700により暗所空間を成すよう三次元情報測定装置10yを構成した場合も、本実施形態と同様に、装置の小型化及び軽量化が実現可能となる。また蛇腹状の幕700は、白色カーテンと同様に柔軟な素材で構成されているため、大型な被写体を測定する際も暗所空間の気密性を保つよう自在に変形することができる。なお、蛇腹状の幕700は、矢印D方向と直交する方向から受ける外力に対しては変形し難い。従って、三次元情報測定装置10yでは支柱530を設けなくても被写体の撮像は良好に行われ得る。   That is, even when the three-dimensional information measuring apparatus 10y is configured to form a dark space with the bellows-like curtain 700, the apparatus can be reduced in size and weight as in the present embodiment. Since the bellows-like curtain 700 is made of a flexible material like the white curtain, it can be freely deformed so as to maintain the airtightness of the dark space even when measuring a large subject. The bellows-shaped curtain 700 is difficult to be deformed by an external force received from a direction orthogonal to the arrow D direction. Therefore, in the three-dimensional information measuring apparatus 10y, the subject can be imaged satisfactorily without the support column 530.

編み込み状の袋800は、例えば優れた遮光性を有する程度に糸が緻密に編み込まれたものである。すなわち編み込み状の袋800も軽量且つ柔軟性に優れた素材から構成されていると言える。この編み込み状の袋800も本実施形態の白色カーテン600と同様に、測定ヘッドMHから取り外すことが可能である。測定ヘッドMHから取り外して折り畳むことにより、編み込み状の袋800は極めてコンパクトになる。   In the knitted bag 800, for example, yarns are densely knitted to an extent that has excellent light shielding properties. That is, it can be said that the braided bag 800 is also made of a material that is lightweight and excellent in flexibility. This braided bag 800 can also be removed from the measuring head MH, like the white curtain 600 of the present embodiment. By removing it from the measuring head MH and folding it, the braided bag 800 becomes extremely compact.

すなわち編み込み状の袋800により暗所空間を成すよう三次元情報測定装置10zを構成した場合も本実施形態と同様に、装置の小型化及び軽量化が実現可能となる。また編み込み状の袋800も白色カーテンと同様に柔軟な素材で構成されているため、大型な被写体を測定する際も暗所空間の気密性を保つよう自在に変形することができる。   That is, when the three-dimensional information measuring apparatus 10z is configured so as to form a dark space with the braided bag 800, the apparatus can be reduced in size and weight as in the present embodiment. Further, since the braided bag 800 is made of a flexible material like the white curtain, it can be freely deformed so as to maintain the airtightness of the dark space even when measuring a large subject.

以上のように、蛇腹状の幕700や編み込み状の袋800を用いて暗所空間を成すよう三次元情報測定装置を構成した場合も、本実施形態の三次元情報測定装置と同様の効果を奏すると言える。   As described above, even when the three-dimensional information measuring device is configured to form a dark space using the bellows-shaped curtain 700 or the braided bag 800, the same effect as the three-dimensional information measuring device of the present embodiment is obtained. I can say that I play.

本発明の実施の形態に係る三次元情報測定装置の外観を示した斜視図である。It is the perspective view which showed the external appearance of the three-dimensional information measuring apparatus which concerns on embodiment of this invention. 本発明の実施の形態に係る三次元情報測定装置の外観を示した斜視図である。It is the perspective view which showed the external appearance of the three-dimensional information measuring apparatus which concerns on embodiment of this invention. 本発明の実施の形態に係る三次元情報測定装置の外観を示した側面図である。It is the side view which showed the external appearance of the three-dimensional information measuring apparatus which concerns on embodiment of this invention. 本発明の実施の形態に係る三次元情報測定装置の外観を示した側面図である。It is the side view which showed the external appearance of the three-dimensional information measuring apparatus which concerns on embodiment of this invention. 白色カーテンを内面側から観察した展開図を示す。The development which observed the white curtain from the inner surface side is shown. 白色カーテンの断面図を示す。Sectional drawing of a white curtain is shown. カーテン枠と測定ヘッドとの結合関係を説明するための断面図である。It is sectional drawing for demonstrating the coupling | bonding relationship of a curtain frame and a measurement head. カーテン枠に装着された状態の測定ヘッドの背面図を示す。The rear view of the measurement head of the state with which the curtain frame was mounted | worn is shown. 白色カーテンの作用を説明するための三次元情報測定装置の側面図を示す。The side view of the three-dimensional information measuring device for demonstrating the effect | action of a white curtain is shown. 測定ヘッドの内部構成を示す平面断面図である。It is a plane sectional view showing an internal configuration of a measurement head. 投影部を拡大して示す平面図である。It is a top view which expands and shows a projection part. 本発明の実施の形態に係る三次元情報測定装置の電気的構成を概念的に表すブロック図である。1 is a block diagram conceptually showing an electrical configuration of a three-dimensional information measuring apparatus according to an embodiment of the present invention. 投影機構を示す正面図である。It is a front view which shows a projection mechanism. 投影機構の要部を示す部分断面平面図である。It is a fragmentary sectional top view which shows the principal part of a projection mechanism. 回転角度調節機構を部分的に拡大して示す正面図である。It is a front view which expands and shows a rotation angle adjustment mechanism partially. 光変調体を拡大して示す正面図である。It is a front view which expands and shows a light modulator. カメラ制御プログラムにおいて実行されるメイン処理を概念的に表すフローチャートである。3 is a flowchart conceptually showing main processing executed in a camera control program. 図17のS108において実行される立体画像処理を概念的に表すフローチャートである。18 is a flowchart conceptually showing stereoscopic image processing executed in S108 of FIG. 図18のS1007において実行される三次元色形状検出処理を三次元色形状検出処理ルーチンとして概念的に表すフローチャートである。FIG. 19 is a flowchart conceptually showing the three-dimensional color shape detection process executed in S1007 of FIG. 18 as a three-dimensional color shape detection process routine. 図19のS1210を撮像処理プログラムとして概念的に表すフローチャートである。FIG. 20 is a flowchart conceptually showing S1210 of FIG. 19 as an imaging processing program. 図20のS2007において実行される投影処理を投影処理サブルーチンとして概念的に表すフローチャートである。FIG. 21 is a flowchart conceptually showing a projection process executed in S2007 of FIG. 20 as a projection process subroutine. 本発明の実施の形態に係る三次元情報測定装置の作動を説明するためのタイミングチャートである。It is a timing chart for demonstrating the action | operation of the three-dimensional information measuring apparatus which concerns on embodiment of this invention. 図19のS1220を三次元計測処理サブルーチンとして概念的に表すフローチャートである。FIG. 20 is a flowchart conceptually showing S1220 of FIG. 19 as a three-dimensional measurement processing subroutine. 図23のS4002において実行されるコード画像生成プログラムを概念的に表すフローチャートである。24 is a flowchart conceptually showing a code image generation program executed in S4002 of FIG. 図19のS1230を三次元色形状検出結果生成ルーチンとして概念的に表すフローチャートである。FIG. 20 is a flowchart conceptually showing S1230 of FIG. 19 as a three-dimensional color shape detection result generation routine. ユーザが白色カーテンに手を潜らせて回転載置面上に置いた状態を示す。A state in which the user puts his hand in the white curtain and places it on the rotating placement surface is shown. 蛇腹状の幕を備えた三次元情報測定装置の外観を示した側面図である。It is the side view which showed the external appearance of the three-dimensional information measuring apparatus provided with the bellows-like curtain. 編み込み状の袋を備えた三次元情報測定装置の外観を示した側面図である。It is the side view which showed the external appearance of the three-dimensional information measuring apparatus provided with the braided bag.

符号の説明Explanation of symbols

10 三次元情報測定装置
12 投影部
14 撮像部
16 処理部
26 白色LED群
510 レバー
520 ジョイント
530 支柱
600 白色カーテン
610 カーテン枠
MH 測定ヘッド
RT 回転テーブルユニット
DESCRIPTION OF SYMBOLS 10 3D information measuring device 12 Projection part 14 Imaging part 16 Processing part 26 White LED group 510 Lever 520 Joint 530 Support | pillar 600 White curtain 610 Curtain frame MH Measurement head RT Rotary table unit

Claims (12)

被写体における三次元の形状を測定する三次元情報測定装置において、
被写体が載置される回転可能な回転載置面を有した載置台と、
光源及び射出口を有し、前記射出口から射出される前記光源からの光を前記回転載置面上の被写体に投光する投光手段と、
入射口を有し、該光が投光される被写体の像のうち前記入射口に入射する像を受像して画像情報を生成する画像情報生成手段と、
略暗所空間を形成するための遮光幕であって、少なくとも前記射出口、前記入射口、及び、前記回転載置面上の被写体を該暗所空間に内包する遮光幕と、を備えたこと、を特徴とする三次元情報測定装置。
In a 3D information measuring device that measures the 3D shape of a subject,
A mounting table having a rotatable rotating mounting surface on which a subject is mounted;
A light projecting unit that has a light source and an emission port, and projects light from the light source emitted from the emission port onto a subject on the rotating placement surface;
An image information generating unit that has an entrance and receives an image incident on the entrance among images of a subject to which the light is projected, and generates image information;
A light-shielding curtain for forming a substantially dark space, comprising at least the exit port, the entrance port, and a light-shielding curtain that encloses the subject on the rotating placement surface in the dark space. The three-dimensional information measuring device characterized by the above.
前記投光手段は、
照明光が射出される照明光射出口を有し、前記照明光射出口から射出された照明光で被写体を照明する照明手段と、
所定のパタン光が射出されるパタン光射出口を有し、前記パタン光射出口から射出された該パタン光を前記回転載置面上の被写体に投影するパタン光投影手段と、を有し、
前記投光手段のうち、少なくとも前記照明光射出口及び前記パタン光射出口が該暗所空間に内包されていること、を特徴とする請求項1に記載の三次元情報測定装置。
The light projecting means is
An illumination means for illuminating a subject with illumination light emitted from the illumination light exit, the illumination light exit having an illumination light exit;
Pattern light projecting means for projecting predetermined pattern light, and pattern light projecting means for projecting the pattern light ejected from the pattern light exit to a subject on the rotating mounting surface,
The three-dimensional information measuring apparatus according to claim 1, wherein at least the illumination light exit and the pattern light exit are included in the dark space of the light projecting unit.
前記照明光が白色光であり、前記画像情報生成手段がカラー画像情報を生成可能であり、被写体における三次元の形状とともに、被写体における三次元の色を測定すること、を特徴とする請求項2に記載の三次元情報測定装置。   3. The illumination light is white light, and the image information generation unit is capable of generating color image information, and measures the three-dimensional color of the subject together with the three-dimensional shape of the subject. The three-dimensional information measuring device described in 1. 前記遮光幕の該暗所空間を成す側の面が、前記照明光を散乱させる散乱面であること、を特徴とする請求項2又は請求項3の何れかに記載の三次元情報測定装置。   4. The three-dimensional information measuring apparatus according to claim 2, wherein a surface of the light shielding curtain that forms the dark space is a scattering surface that scatters the illumination light. 5. 前記入射口に向かう被写体像の光路上に前記遮光幕が介在しないよう当該遮光幕の動きを規制する遮光幕規制手段を更に備えたこと、を特徴とする請求項1から請求項4の何れかに記載の三次元情報測定装置。   5. The light-shielding curtain restricting means for restricting the movement of the light-shielding curtain so that the light-shielding curtain does not intervene on the optical path of the subject image toward the entrance. The three-dimensional information measuring device described in 1. 前記遮光幕規制手段は、前記遮光幕の一部を支持する少なくとも一本の支柱であること、を特徴とする請求項5に記載の三次元情報測定装置。   6. The three-dimensional information measuring apparatus according to claim 5, wherein the light shielding curtain restricting means is at least one support that supports a part of the light shielding curtain. 前記支柱は前記載置台上に対して収納可能に立設されていること、を特徴とする請求項6に記載の三次元情報測定装置。   The three-dimensional information measuring apparatus according to claim 6, wherein the support column is erected so as to be housed on the mounting table. 前記支柱は前記載置台上に対して横倒し可能に立設されていること、を特徴とする請求項6に記載の三次元情報測定装置。   The three-dimensional information measuring apparatus according to claim 6, wherein the support column is erected so as to be laid down on the mounting table. 少なくとも前記投光手段及び画像情報生成手段を保持したハウジングを更に備え、
前記ハウジングは前記遮光幕に固着されていること、を特徴とする請求項1から請求項8の何れかに記載の三次元情報測定装置。
A housing holding at least the light projecting unit and the image information generating unit;
The three-dimensional information measuring apparatus according to claim 1, wherein the housing is fixed to the light-shielding curtain.
少なくとも前記投光手段及び画像情報生成手段を保持したハウジングを更に備え、
前記ハウジングは前記遮光幕に対して着脱自在に保持されていること、を特徴とする請求項1から請求項8の何れかに記載の三次元情報測定装置。
A housing holding at least the light projecting unit and the image information generating unit;
The three-dimensional information measuring apparatus according to claim 1, wherein the housing is detachably held with respect to the light shielding curtain.
前記ハウジングと前記載置台とを機械的に連結した連結手段を更に備えたこと、を特徴とする請求項9又は請求項10の何れかに記載の三次元情報測定装置。   The three-dimensional information measuring apparatus according to claim 9, further comprising a connecting unit that mechanically connects the housing and the mounting table. 前記連結手段は、前記ハウジングを前記載置台に対して移動自在に支持したこと、を特徴とする請求項11に記載の三次元情報測定装置。   The three-dimensional information measuring apparatus according to claim 11, wherein the connecting unit supports the housing so as to be movable with respect to the mounting table.
JP2006078476A 2006-03-22 2006-03-22 Three-dimensional information measuring apparatus Pending JP2007255974A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006078476A JP2007255974A (en) 2006-03-22 2006-03-22 Three-dimensional information measuring apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006078476A JP2007255974A (en) 2006-03-22 2006-03-22 Three-dimensional information measuring apparatus

Publications (1)

Publication Number Publication Date
JP2007255974A true JP2007255974A (en) 2007-10-04

Family

ID=38630381

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006078476A Pending JP2007255974A (en) 2006-03-22 2006-03-22 Three-dimensional information measuring apparatus

Country Status (1)

Country Link
JP (1) JP2007255974A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013092878A (en) * 2011-10-25 2013-05-16 Nippon Telegr & Teleph Corp <Ntt> Three-dimensional shape measurement apparatus
JP2018004278A (en) * 2016-06-27 2018-01-11 株式会社キーエンス Measurement apparatus

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013092878A (en) * 2011-10-25 2013-05-16 Nippon Telegr & Teleph Corp <Ntt> Three-dimensional shape measurement apparatus
JP2018004278A (en) * 2016-06-27 2018-01-11 株式会社キーエンス Measurement apparatus
US10739130B2 (en) 2016-06-27 2020-08-11 Keyence Corporation Optical measuring device generating point cloud data

Similar Documents

Publication Publication Date Title
US7751066B2 (en) Projector and three-dimensional input apparatus using the same
JP2007271530A (en) Apparatus and method for detecting three-dimensional shape
JP5881960B2 (en) 3D imaging using telecentric defocusing
US11468557B2 (en) Free orientation fourier camera
US7630088B2 (en) Apparatus for measurement of 3-D shape of subject using transformable holder with stable and repeatable positioning of the same subject
JP2007256116A (en) Three-dimensional shape detector
JP4379056B2 (en) Three-dimensional imaging apparatus and method
US20070177160A1 (en) Three-dimensional object information acquisition using patterned light projection with optimized image-thresholding
US7295698B2 (en) Three-dimensional image photographing apparatus and method capable of acquiring more natural pasted three-dimensional image including texture image
WO2005095886A1 (en) 3d shape detection device, 3d shape detection method, and 3d shape detection program
WO2007114189A1 (en) Three-dimensional color and shape measuring device
WO1999058930A1 (en) Structured-light, triangulation-based three-dimensional digitizer
JPH1065882A (en) Method for acquiring medium surface shape data
WO2005029408A1 (en) Image processing device and imaging device
JP2018004278A (en) Measurement apparatus
JP2006267031A (en) Three-dimensional input apparatus and method
JP6955910B2 (en) Super resolution bore imaging system
JP2007255975A (en) Three-dimensional information measuring apparatus
JP2005291839A (en) Projecting device and three-dimensional shape detection device
JP4552485B2 (en) Image input / output device
JP2009025189A (en) Measuring instrument
US11326874B2 (en) Structured light projection optical system for obtaining 3D data of object surface
JP2007255974A (en) Three-dimensional information measuring apparatus
JP2007212159A (en) Calibration tool used for calibration of three-dimensional shape detector and calibration method therefor
JP2007255973A (en) Three-dimensional information measuring apparatus