JP2006349390A - Projector - Google Patents

Projector Download PDF

Info

Publication number
JP2006349390A
JP2006349390A JP2005173095A JP2005173095A JP2006349390A JP 2006349390 A JP2006349390 A JP 2006349390A JP 2005173095 A JP2005173095 A JP 2005173095A JP 2005173095 A JP2005173095 A JP 2005173095A JP 2006349390 A JP2006349390 A JP 2006349390A
Authority
JP
Japan
Prior art keywords
light
pattern
incident
image
modulator
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2005173095A
Other languages
Japanese (ja)
Other versions
JP4595690B2 (en
Inventor
Takao Iwasaki
岳雄 岩崎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Brother Industries Ltd
Original Assignee
Brother Industries Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Brother Industries Ltd filed Critical Brother Industries Ltd
Priority to JP2005173095A priority Critical patent/JP4595690B2/en
Priority to PCT/JP2006/311192 priority patent/WO2006134793A1/en
Publication of JP2006349390A publication Critical patent/JP2006349390A/en
Priority to US11/957,215 priority patent/US7751066B2/en
Application granted granted Critical
Publication of JP4595690B2 publication Critical patent/JP4595690B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Length Measuring Devices By Optical Means (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To improve structure of a photoconverting element for converting optically a light from a light source into a pattern light to make the structure suitable for inexpensive and precise manufacturing, in a technique for projecting the pattern light onto an object. <P>SOLUTION: A projection part 12 is provided with the light source 68, a light modulating element 200 for modulating the light from the light source at least partially, angularly or with luminous-intensity-distribution to be emitted, and an optical system 32 for transmitting selectively an angular component having a radiation angle characteristic matched with a predetermined incident opening, out of the plurality of angular components. The light modulating element conducts optical modulation, to an incident light, depending on a surface shape of the light modulating element. The light modulating element has at least one set of two portions with the surface shapes different from each other. The angular component having the radiation angle characteristic matched with an incident opening angle is emitted as a component passing the optical system thereinafter, from one out of the two portions, and the angular component having the radiation angle characteristic not matched with the incident opening angle is emitted as a component not passing the optical system thereinafter, from the other of the two portions. <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

本発明は、物体にパターン電磁波を投影する技術に関するものであり、特に、電磁波源からの電磁波をパターン電磁波に変換する変換体の構造の改良に関するものである。   The present invention relates to a technique for projecting a patterned electromagnetic wave onto an object, and more particularly to an improvement in the structure of a converter that converts an electromagnetic wave from an electromagnetic wave source into a patterned electromagnetic wave.

物体にパターン電磁波を投影する技術が既に用いられている(例えば、特許文献1参照。)。この投影技術は、例えば、半導体デバイス基板等の物体に精密パターンを投影するという用途や、物体の平面形状または立体形状を光学的に測定するという用途に用いられる。   A technique for projecting a pattern electromagnetic wave onto an object has already been used (see, for example, Patent Document 1). This projection technique is used, for example, for a purpose of projecting a precision pattern onto an object such as a semiconductor device substrate or a purpose of optically measuring a planar shape or a three-dimensional shape of an object.

物体にパターン電磁波を投影する投影装置は、一般に、電磁波源と、その電磁波源からの電磁波をパターン電磁波に変換する変換体と、その変換体からのパターン電磁波を物体に投影する光学系とを含むように構成される。   A projection device that projects a pattern electromagnetic wave onto an object generally includes an electromagnetic wave source, a converter that converts the electromagnetic wave from the electromagnetic wave source into a pattern electromagnetic wave, and an optical system that projects the pattern electromagnetic wave from the converter onto the object. Configured as follows.

この種の投影装置の一例は、電磁波として光を用い、電磁波パターンとしてのパターン光を物体に投影する投影装置である。この投影装置は、一般に、光源と、その光源からの光をパターン光に光学的に変換する光変換体と、その光変換体からのパターン光を物体に投影する光学系とを含むように構成される。   An example of this type of projection apparatus is a projection apparatus that uses light as an electromagnetic wave and projects pattern light as an electromagnetic wave pattern onto an object. In general, the projection apparatus includes a light source, a light converter that optically converts light from the light source into pattern light, and an optical system that projects the pattern light from the light converter onto an object. Is done.

そのパターン光は、例えば、明部と暗部とが交互に並んだストライプ状を成すように生成される。そのため、光変換体は、従来、光源からの光を空間周期的にマスクするフォトマスクとして製造される。そのフォトマスクは通常、パターン光における明部に対応する光透過部と、パターン光における暗部に対応する光遮断部とが交互に並ぶように加工され、その光透過部は通常、空気開口である。このように、通常のフォトマスクは、光源からの光を空間選択的に透過・遮断することにより、パターン光に変換するのである。   The pattern light is generated, for example, in a stripe shape in which bright portions and dark portions are alternately arranged. Therefore, the light converter is conventionally manufactured as a photomask that masks light from the light source spatially. The photomask is usually processed so that a light transmission portion corresponding to a bright portion in the pattern light and a light blocking portion corresponding to a dark portion in the pattern light are alternately arranged, and the light transmission portion is usually an air opening. . Thus, a normal photomask converts light from a light source into pattern light by spatially selectively transmitting and blocking light.

したがって、上述の投影技術は、例えば、そのフォトマスクを用いてパターン光を物体に投影し、それにより、その物体の形状を光学的に測定するために用いることが可能である。この場合には、パターン光における明部と暗部との間隔すなわちパターンラインの間隔が短いほど、物体の形状を測定し得る解像度が向上する。   Thus, the above-described projection technique can be used, for example, to project pattern light onto an object using the photomask, thereby optically measuring the shape of the object. In this case, the resolution at which the shape of the object can be measured is improved as the distance between the bright part and the dark part in the pattern light, that is, the interval between the pattern lines is shorter.

また、精密なパターン光を投影する投影器においてその投影精度を向上させたいという要望を満たすためや、物体にパターン光を投影してその物体の平面形状または立体形状を光学的に測定する測定装置においてその測定精度を向上させたいという要望を満たすために、投影されるパターン光の形状の精度を高めることが必要である場合がある。この場合には、フォトマスクをより高精度で製造することが要求される。
特開2003−42736号公報
In addition, in order to satisfy the desire to improve the projection accuracy of a projector that projects precise pattern light, or to measure the planar shape or three-dimensional shape of the object by projecting the pattern light onto the object In order to satisfy the desire to improve the measurement accuracy, it may be necessary to improve the accuracy of the shape of the projected pattern light. In this case, it is required to manufacture the photomask with higher accuracy.
JP 2003-42736 A

フォトマスクを微細にかつ高精度で製造するために従来から用いられる方法の1つとして、金属膜形成法とでも称すべき方法が存在する。この方法によれば、まず、ガラス等の平板の表面にクロム膜等の金属膜が全面的にコーティングされ、次に、光透過部としての空気開口を形成するために、電子ビームリソグラフィープロセスによって電子ビームが局所的に照射され、その照射パターンに従って金属膜が局所的に除去される。   As one of the methods conventionally used for manufacturing a photomask finely and with high accuracy, there is a method that should be called a metal film forming method. According to this method, first, a metal film such as a chromium film is coated on the entire surface of a flat plate such as glass, and then an electron beam lithography process is performed to form an air opening as a light transmission part. The beam is locally irradiated, and the metal film is locally removed according to the irradiation pattern.

フォトマスクを微細にかつ高精度で製造するために従来から用いられる別の方法として、スクリーン印刷法とでも称すべき方法が存在する。この方法によれば、ガラス等の平板の表面に、生成すべきパターン光に対応するパターンが謄写版印刷法によって形成される。   As another method conventionally used for manufacturing a photomask finely and with high accuracy, there is a method that should be referred to as a screen printing method. According to this method, a pattern corresponding to the pattern light to be generated is formed on the surface of a flat plate such as glass by a copying plate printing method.

しかしながら、上述の金属膜形成法では、電子ビームの精密かつ連続的照射が必要であるため、フォトマスクの時間当たりの製造コストが高く、しかも、製造時間が長いなどの理由により、フォトマスクのコストが上昇し易い。また、上述のスクリーン印刷法では、形成し得るパターンの形状精度がせいぜい数10μmであるなどの理由により、フォトマスクの形状精度を向上させることが困難である。   However, since the above-described metal film forming method requires precise and continuous irradiation of an electron beam, the manufacturing cost per time of the photomask is high and the manufacturing time is long. Tends to rise. In the screen printing method described above, it is difficult to improve the shape accuracy of the photomask because the shape accuracy of the pattern that can be formed is at most several tens of μm.

以上説明した事情を背景として、本発明は、物体にパターン電磁波を投影する技術において、電磁波源からの電磁波をパターン電磁波に変換する変換体の構造を、その変換体を安価にかつ高精度で製造するのに好適であるように改良することを課題としてなされたものである。   Against the background described above, the present invention is a technique for projecting a pattern electromagnetic wave onto an object, and a structure of a conversion body that converts an electromagnetic wave from an electromagnetic wave source into a pattern electromagnetic wave is manufactured at low cost and with high accuracy. It is an object of the present invention to improve it so as to be suitable.

本発明によって下記の各態様が得られる。各態様は、項に区分し、各項には番号を付し、必要に応じて他の項の番号を引用する形式で記載する。これは、本発明が採用し得る技術的特徴の一部およびそれの組合せの理解を容易にするためであり、本発明が採用し得る技術的特徴およびそれの組合せが以下の態様に限定されると解釈すべきではない。すなわち、下記の態様には記載されていないが本明細書には記載されている技術的特徴を本発明の技術的特徴として適宜抽出して採用することは妨げられないと解釈すべきなのである。   The following aspects are obtained by the present invention. Each aspect is divided into sections, each section is given a number, and is described in a form that cites other section numbers as necessary. This is to facilitate understanding of some of the technical features that the present invention can employ and combinations thereof, and the technical features that can be employed by the present invention and combinations thereof are limited to the following embodiments. Should not be interpreted. That is, it should be construed that it is not impeded to appropriately extract and employ the technical features described in the present specification as technical features of the present invention although they are not described in the following embodiments.

さらに、各項を他の項の番号を引用する形式で記載することが必ずしも、各項に記載の技術的特徴を他の項に記載の技術的特徴から分離させて独立させることを妨げることを意味するわけではなく、各項に記載の技術的特徴をその性質に応じて適宜独立させることが可能であると解釈すべきである。   Further, describing each section in the form of quoting the numbers of the other sections does not necessarily prevent the technical features described in each section from being separated from the technical features described in the other sections. It should not be construed as meaning, but it should be construed that the technical features described in each section can be appropriately made independent depending on the nature.

(1) 物体にパターン光を投影する投影装置であって、
光源と、
その光源からの入射光を少なくとも部分的に、角度的または光度分布的に変調して出射する光変調体と、
その光変調体からの出射光の複数の角度成分のうち、予め定められた入射開口に適合する放射角特性を有するものを選択的に通過させる光学系と
を含み、
前記光変調体は、前記入射光に対して、前記光変調体の表面形状に依存した光学的変調を行い、
その光変調体は、表面形状が互いに異なる2つの部分が少なくとも1組、前記光変調体に沿った方向において交互に並ぶように構成され、
前記2つの部分のうちの一方からは、前記入射開口に適合する放射角特性を有する角度成分が、その後に前記光学系を通過する通過光成分として出射する一方、前記2つの部分のうちの他方からは、前記入射開口に適合しない放射角特性を有する角度成分が、その後に前記光学系を通過しない非通過光成分として出射する投影装置。
(1) A projection device that projects pattern light onto an object,
A light source;
A light modulator for emitting incident light from the light source after being at least partially modulated in an angular or luminous intensity distribution; and
An optical system that selectively allows passage of a plurality of angular components of light emitted from the light modulator and having a radiation angle characteristic suitable for a predetermined incident aperture; and
The light modulator performs optical modulation on the incident light depending on a surface shape of the light modulator,
The light modulator is configured such that at least one set of two portions having different surface shapes are arranged alternately in a direction along the light modulator,
From one of the two parts, an angle component having a radiation angle characteristic suitable for the incident aperture is emitted as a passing light component that subsequently passes through the optical system, while the other of the two parts. From the above, a projection device in which an angle component having a radiation angle characteristic that does not match the incident aperture is emitted as a non-passing light component that does not pass through the optical system thereafter.

この投影装置においては、光源からの入射光をパターン光に光学的に変換する前述の光変換体が、光源からの入射光を少なくとも部分的に、透過や反射などを行う光変換体の通過後における角度または光度分布(この場合、「光度」という用語は、主な変調位置を外界から観察したときの光度として定義されている。)に関して変調する光変調体として構成される。この光変調体は、光源からの入射光に対し、光変調体の表面形状に依存した光学的変調を行う。   In this projection apparatus, after the light conversion body that optically converts incident light from the light source into pattern light is passed through the light conversion body that at least partially transmits or reflects the incident light from the light source. Is configured as a light modulator that modulates with respect to the angle or luminous intensity distribution (in this case, the term “luminosity” is defined as the luminous intensity when the main modulation position is observed from the outside). This light modulator performs optical modulation depending on the surface shape of the light modulator with respect to the incident light from the light source.

この光変調体は、光源からの入射光と交差する向きに延びるように構成することが可能であるが、その入射光と交差する向きに延びないように構成することも可能である。後者の場合であっても、光変調体は、光源からの入射光を少なくとも部分的に角度的または光度分布的に変調して出射するように構成される。   The light modulator can be configured to extend in a direction intersecting with incident light from the light source, but can also be configured not to extend in a direction intersecting with the incident light. Even in the latter case, the light modulator is configured to emit the incident light from the light source after being at least partially modulated in an angular or luminous intensity distribution.

ここに、「交差」という用語が、直角に交わることを意味する場合には、光変調体が入射光と交差する向きに延びないということは、光変調体が入射光と非直角に交わる可能性と、光変調体が入射光と平行である可能性とを含む。これに対し、「交差」という用語が、直角であるか否かを問わず、光変調体が入射光と交わることを意味する場合には、入射光と交差する向きに延びないということは、光変調体が入射光と平行である可能性のみを含む。   Here, when the term “intersection” means that it intersects at right angles, the fact that the light modulator does not extend in a direction intersecting with the incident light means that the light modulator can intersect the incident light at a non-right angle. And the possibility that the light modulator is parallel to the incident light. On the other hand, if the term “intersection” means that the light modulator intersects with the incident light regardless of whether it is a right angle, it does not extend in the direction intersecting with the incident light. It only includes the possibility that the light modulator is parallel to the incident light.

ところで、入射光と交差する向きに延びないように設置された光変調体(例えば、光源からの光の進行方向を略含む面や、ある面とそれの周辺とを含む空間にその電磁場が設定された光変調体)が、電磁波(光の一般表示)を変調するように構成することが可能である。この種の光変調体の一代表例は、音響光学素子であるが、この素子は、表面形状が互いに異なる2つの部分が少なくとも1組存在するように構成されているわけではないし、ましては、それら2つの部分が交互に並ぶように構成されているわけでもない。   By the way, light modulators installed so as not to extend in the direction that intersects the incident light (for example, the electromagnetic field is set in a space that substantially includes the traveling direction of light from the light source, or in a space that includes a certain surface and its periphery. The light modulator) can be configured to modulate electromagnetic waves (general display of light). A typical example of this type of light modulator is an acousto-optic element, but this element is not configured to have at least one set of two portions having different surface shapes, or even Nor are these two parts arranged alternately.

本項に係る投影装置においては、その光変調体が、その光変調体からの出射光の複数の角度成分のうち、予め定められた入射開口に適合する放射角特性を有するものを選択的に通過させる光学系と共に使用される。   In the projection apparatus according to this section, the light modulator selectively selects one having a radiation angle characteristic suitable for a predetermined incident aperture from a plurality of angle components of light emitted from the light modulator. Used with a passing optical system.

一方、その光変調体は、表面形状が互いに異なる2つの部分が少なくとも1組、その光変調体に沿った方向において交互に並ぶように構成される。それら2つの部分のうちの一方からは、前記入射開口に適合する放射角特性を有する角度成分が、その後に前記光学系を通過する通過光成分として出射する。また、前記2つの部分のうちの他方からは、前記入射開口に適合しない放射角特性を有する角度成分が、その後に前記光学系を通過しない非通過光成分として出射する。   On the other hand, the light modulator is configured such that at least one set of two portions having different surface shapes are alternately arranged in the direction along the light modulator. From one of these two parts, an angle component having a radiation angle characteristic that matches the incident aperture is emitted as a passing light component that subsequently passes through the optical system. Further, from the other of the two portions, an angular component having a radiation angle characteristic that does not match the incident aperture is emitted as a non-passing light component that does not pass through the optical system thereafter.

このように、この投影装置においては、光変調体の表面形状に依存した光学的作用と、前記光学系の角度選択的光透過特性との共同作用により、光源からの入射光をパターン光に光学的に変換して物体に投影することが可能となる。   Thus, in this projection apparatus, the incident light from the light source is optically converted into pattern light by the cooperative action of the optical action depending on the surface shape of the light modulator and the angle selective light transmission characteristic of the optical system. Can be converted into an object and projected onto an object.

この投影装置においては、その光変調体が、それの表面形状に依存した光学的変調を行う点で、光透過部と光遮断部とを有して、光源からの光を空間選択的に透過・遮断する前述のフォトマスクとは、パターン光を生成するために採用する構造も原理も異なる。その結果、光変換体としてこの光変調体を採用する場合には、そのフォトマスクを採用する場合とは異なり、光変換体を製造するために、例えば、空気開口を形成することが不可欠ではなくなる。   In this projection apparatus, the light modulator has a light transmitting part and a light blocking part in that it performs optical modulation depending on the surface shape of the light modulator, and selectively transmits light from the light source. -The structure and principle adopted to generate the pattern light are different from the above-described photomask to be blocked. As a result, when this light modulator is employed as the light converter, unlike the case where the photomask is employed, for example, it is not essential to form an air opening in order to manufacture the light converter. .

具体的には、本項に係る投影装置における光変調体を製造するためには、例えば、その光変調体の表面に特定の形状(例えば、凹凸形状)を与えればよい。光変調体の表面に特定の形状を与えるために、例えば、光変調体の素材の表面に金型を押し付け、それにより、その金型の形状の反転形状を光変調体の表面に転写する加工法を採用することが可能である。この加工法は、上述のフォトマスクを製造する場合とは異なり、素材の局所的切除の如き比較的複雑な工程を伴わずに済むため、比較的簡単に実施することが可能である。   Specifically, in order to manufacture the light modulator in the projection apparatus according to this section, for example, a specific shape (for example, uneven shape) may be given to the surface of the light modulator. In order to give a specific shape to the surface of the light modulator, for example, a mold is pressed against the surface of the material of the light modulator, thereby transferring the inverted shape of the mold to the surface of the light modulator. It is possible to adopt the law. Unlike the case of manufacturing the above-described photomask, this processing method can be performed relatively easily because it does not involve a relatively complicated process such as local excision of the material.

よって、本項に係る投影装置によれば、光変調体の構造が、微細にかつ高精度で製造するのに好適な構造であるため、その光変調体の製造を単純化することが容易となる。このことは、光変調体の量産を容易にし、ひいては、光変調体の製造コストの削減を容易にする。   Therefore, according to the projection apparatus according to this section, the structure of the light modulator is a structure suitable for being manufactured finely and with high accuracy, and thus it is easy to simplify the manufacture of the light modulator. Become. This facilitates mass production of the light modulator, and hence facilitates reduction of the manufacturing cost of the light modulator.

本項における「光学的作用」は、例えば、屈折、反射、回折、散乱等を含んでいる。屈折、反射および回折という現象は、いずれも狭義の偏向に分類されるため、入射光を角度的に変調する光学的作用に分類することが可能であり、また、散乱という現象は、入射光を光度分布的に変調する光学的作用に分類することが可能である。   The “optical action” in this section includes, for example, refraction, reflection, diffraction, scattering, and the like. The phenomena of refraction, reflection, and diffraction are all classified into narrowly defined deflections. Therefore, it is possible to classify the incident light into an optical action that modulates the incident light angularly. It is possible to classify into an optical action that modulates light intensity distribution.

ただし、散乱は、入射光のうち、パターン光において暗部を生成するための部分の進行方向を、前記光学系を回避するように変更する現象である点で、屈折、反射および回折と共通する。したがって、この散乱も、入射光を角度的に変調する光学的作用(広義の偏向)に分類することが可能である。   However, scattering is common to refraction, reflection, and diffraction in that it is a phenomenon in which the traveling direction of a portion for generating a dark portion in pattern light in incident light is changed so as to avoid the optical system. Therefore, this scattering can also be classified into an optical action (deflection in a broad sense) that angularly modulates incident light.

また、本項における「変調」は、例えば、屈折による偏向、反射による偏向、回折による偏向、散乱による偏向等を含んでいる。   The “modulation” in this section includes, for example, deflection by refraction, deflection by reflection, deflection by diffraction, deflection by scattering, and the like.

(2) 前記光変調体は、前記入射光と公差する向きに延びる(1)項に記載の投影装置。 (2) The projection device according to (1), wherein the light modulator extends in a direction that is in tolerance with the incident light.

(3) 前記光変調体は、前記入射光を透過する透過型である(1)または(2)項に記載の投影装置。 (3) The projection device according to (1) or (2), wherein the light modulator is a transmissive type that transmits the incident light.

(4) 前記光変調体は、前記入射光を反射する反射型である(1)または(2)項に記載の投影装置。 (4) The projection apparatus according to (1) or (2), wherein the light modulator is a reflection type that reflects the incident light.

(5) 前記2つの部分のうちの一方は、前記入射光に対して直角な表面を有し、その表面によって前記入射光が変調されずに出射する光直進部であり、
前記2つの部分のうちの他方は、前記入射光に対して傾斜する表面を有し、その表面によって前記入射光が変調されて出射する光変調部であり、
それら光直進部と光変調部とのうちの一方からの出射光が前記通過光成分である一方、他方からの出射光が前記非通過光成分である(1)ないし(4)項のいずれかに記載の投影装置。
(5) One of the two parts has a surface perpendicular to the incident light, and is a light rectilinear part that emits the incident light without being modulated by the surface,
The other of the two parts is a light modulator that has a surface inclined with respect to the incident light, and the incident light is modulated and emitted by the surface.
Any one of the items (1) to (4), wherein the light emitted from one of the light straight traveling part and the light modulation part is the passing light component, and the light emitted from the other is the non-passing light component. The projection apparatus described in 1.

(6) 前記2つの部分は、共に、前記入射光に対して傾斜する表面を有し、その表面によって前記入射光が変調されて出射する2つの光変調部であり、
それら2つの光変調部は、前記入射光に対する前記表面の角度が互いに異なり、前記各光変調部からの出射光の放射角特性も互いに異なり、
それら2つの光変調部のうちの一方からの出射光が前記通過光成分である一方、他方からの出射光が前記非通過光成分である(1)ないし(4)項のいずれかに記載の投影装置。
(6) The two parts are two light modulators each having a surface inclined with respect to the incident light, and the incident light is modulated by the surface and emitted.
The two light modulation units are different from each other in the angle of the surface with respect to the incident light, and the radiation angle characteristics of the emitted light from the respective light modulation units are also different from each other.
The light emitted from one of the two light modulators is the passing light component, while the light emitted from the other is the non-passing light component. Projection device.

(7) 前記2つの部分のうちの少なくとも一方は、屋根型プリズムとして構成される(1)ないし(6)項のいずれかに記載の投影装置。 (7) The projection device according to any one of (1) to (6), wherein at least one of the two portions is configured as a roof-type prism.

(8) 前記2つの部分のうちの少なくとも一方は、それの表面形状として機械的ランダム散乱形状を有する(1)ないし(6)項のいずれかに記載の投影装置。 (8) The projection device according to any one of (1) to (6), wherein at least one of the two portions has a mechanical random scattering shape as a surface shape thereof.

(9) 前記2つの部分のうちの少なくとも一方は、回折格子として構成される(1)ないし(6)項のいずれかに記載の投影装置。 (9) The projection device according to any one of (1) to (6), wherein at least one of the two portions is configured as a diffraction grating.

(10) 前記パターン光は、少なくとも2種類のパターン光を含み、
前記光変調体は、前記入射光に対して相対的に移動させられることにより、前記少なくとも2種類のパターン光を選択的に前記物体に投影する(1)ないし(9)項のいずれかに記載の投影装置。
(10) The pattern light includes at least two types of pattern light,
The light modulator is moved relative to the incident light to selectively project the at least two types of pattern light onto the object. Projection device.

この投影装置によれば、同じ光変調体を入射光に対して相対的に移動させることにより、物体に投影されるパターン光の種類を切り換えることが可能となる。各パターン光ごとに物体が撮像されて取得される複数の撮像画像を参照することにより、その物体の3次元情報を生成することが可能となる。   According to this projection apparatus, the type of pattern light projected onto the object can be switched by moving the same light modulator relative to the incident light. By referring to a plurality of captured images obtained by capturing an object for each pattern light, it is possible to generate three-dimensional information of the object.

物体の3次元情報を生成するために、例えば、複数の撮像画像に対して公知の空間コード化法が実施され、それにより、各パターン光ごとにすなわち各撮像画像ごとに、コード情報が生成される。その生成されたコード情報に基づき、各撮像画像上における各ストラプ境界のID判定が実施される。   In order to generate the three-dimensional information of an object, for example, a known spatial encoding method is performed on a plurality of captured images, thereby generating code information for each pattern light, that is, for each captured image. The Based on the generated code information, ID determination of each strap boundary on each captured image is performed.

(11) 前記2つの部分は、ストライプ状を成す(1)ないし(10)項のいずれかに記載の投影装置。 (11) The projection device according to any one of (1) to (10), wherein the two portions have a stripe shape.

この投影装置によれば、光変調体から出射するパターン光がストライプ構造を有する。この投影装置は、2次元ないしは3次元の投影に適用される。この投影装置の一代表例は、光のストライプパターンを物体に3次元的に投影する3次元入力装置である。   According to this projection apparatus, the pattern light emitted from the light modulator has a stripe structure. This projection apparatus is applied to two-dimensional or three-dimensional projection. A typical example of this projection apparatus is a three-dimensional input apparatus that three-dimensionally projects a light stripe pattern onto an object.

(12) 物体にパターン電磁波を投影する投影装置であって、
電磁波源と、
その電磁波源からの入射電磁波を少なくとも部分的に、角度的または立体角当たりの電磁パワー放射分布的に変調して出射する電磁波変調体と、
その電磁波変調体からの出射電磁波の複数の角度成分のうち、予め定められた入射開口に適合する放射角特性を有するものを選択的に通過させる選択部と
を含み、
前記電磁波変調体は、前記入射電磁波に対して、前記電磁波変調体の表面形状に依存した電磁波的変調を行い、
その電磁波変調体は、表面形状が互いに異なる2つの部分が少なくとも1組、前記電磁波変調体に沿った方向において交互に並ぶように構成され、
前記2つの部分のうちの一方からは、前記入射開口に適合する放射角特性を有する角度成分が、その後に前記選択部によって選択される選択電磁波成分として出射する一方、前記2つの部分のうちの他方からは、前記入射開口に適合しない放射角特性を有する角度成分が、その後に前記選択部によって選択されない非選択電磁波成分として出射する投影装置。
(12) A projection device that projects a pattern electromagnetic wave onto an object,
An electromagnetic source,
An electromagnetic wave modulator that emits an electromagnetic wave emitted from the electromagnetic wave source after being modulated at least partially in an electromagnetic power radiation distribution per angular or solid angle;
A selection unit that selectively allows passage of a plurality of angular components of the electromagnetic wave emitted from the electromagnetic wave modulator and having a radiation angle characteristic suitable for a predetermined incident aperture;
The electromagnetic wave modulator performs electromagnetic wave modulation depending on the surface shape of the electromagnetic wave modulator with respect to the incident electromagnetic wave,
The electromagnetic wave modulator is configured such that at least one set of two portions having different surface shapes are arranged alternately in a direction along the electromagnetic wave modulator,
From one of the two parts, an angle component having a radiation angle characteristic suitable for the incident aperture is emitted as a selected electromagnetic wave component that is then selected by the selection unit, while From the other side, a projection apparatus that emits an angle component having a radiation angle characteristic that does not match the incident aperture as a non-selective electromagnetic wave component that is not subsequently selected by the selection unit.

この投影装置によれば、光のみならず、X線や電波など、いかなる種類の電磁波であっても、物体に電磁的パターンを投影することができる。   According to this projection apparatus, an electromagnetic pattern can be projected onto an object with any kind of electromagnetic waves such as X-rays and radio waves as well as light.

この投影装置の産業上の具体的な用途の一例は、医療である。この例においては、X線が電磁波として選択され、物体としての患者に局所的にX線の強度分布パターンが投影される。この投影装置によれば、患者に正確に2次元または3次元X線パターンを投影することが容易となるため、有効なX線治療が容易となる。   An example of a specific industrial application of the projection apparatus is medical treatment. In this example, X-rays are selected as electromagnetic waves, and an X-ray intensity distribution pattern is locally projected onto a patient as an object. According to this projection apparatus, it becomes easy to accurately project a two-dimensional or three-dimensional X-ray pattern onto a patient, so that effective X-ray therapy is facilitated.

この投影装置の産業上の具体的な用途の別の例は、印刷(表象形成)である。この例においては、電波が電磁波として選択される。この例においては、電界によって潜像パターンを形成し、その後、現像プロセスにより、人間やロボットに知覚可能なn次元表象を生成する装置(具体的には、例えば、2次元表象を生成する平面プリンタ)が、本項に係る投影装置として構成することにより、安価に製造され得る。   Another example of an industrial specific application of this projection apparatus is printing (representation formation). In this example, radio waves are selected as electromagnetic waves. In this example, an apparatus that forms a latent image pattern by an electric field and then generates an n-dimensional representation that can be perceived by a human or a robot by a development process (specifically, for example, a flat printer that generates a two-dimensional representation). ) Can be manufactured at low cost by configuring as the projection apparatus according to this section.

本項における「電磁波」は、X線、紫外光、可視光、赤外光、電波等を含んでいる。この「電磁波」の一例は、テラヘルツ波(赤外光とミリ波との中間の周波数を有する電磁波)であり、このテラヘルツ波は、例えば誘電体プリズムによって変調することが可能である。いずれにしても、この「電磁波」は、光変調体の表面形状に依存した光学的変調を受け得るものであれば、よいのである。   “Electromagnetic wave” in this section includes X-rays, ultraviolet light, visible light, infrared light, radio waves, and the like. An example of this “electromagnetic wave” is a terahertz wave (an electromagnetic wave having an intermediate frequency between infrared light and millimeter wave), and this terahertz wave can be modulated by, for example, a dielectric prism. In any case, this “electromagnetic wave” may be any material as long as it can undergo optical modulation depending on the surface shape of the light modulator.

以下、本発明のさらに具体的な実施の形態のうちのいくつかを図面に基づいて詳細に説明する。   Hereinafter, some of the more specific embodiments of the present invention will be described in detail with reference to the drawings.

図1には、本発明の一実施形態に従う3次元入力装置10の外観が斜視図で示されている。この3次元入力装置10は、複数種類のストライプ状のパターン光の被写体S(物体)への投影と、被写体Sの撮像と、その撮像結果に基づき、被写体Sの3次元情報および表面色情報をコンピュータによって取得する信号処理とを行うように設計されている。   FIG. 1 is a perspective view showing the appearance of a three-dimensional input device 10 according to an embodiment of the present invention. The three-dimensional input device 10 projects three-dimensional information and surface color information of the subject S based on projection of a plurality of types of stripe pattern light onto the subject S (object), imaging of the subject S, and the imaging result. It is designed to perform signal processing acquired by a computer.

図1ないし図5には、3次元入力装置10の外部構成が示される一方、図6ないし図12には、3次元入力装置10の内部構成が示されている。以下、まず、外部構成を説明し、次に、内部構成を説明する。   1 to 5 show the external configuration of the three-dimensional input device 10, while FIGS. 6 to 12 show the internal configuration of the three-dimensional input device 10. Hereinafter, first, the external configuration will be described, and then the internal configuration will be described.

図1に示すように、3次元入力装置10は、測定ヘッドMHと、回転テーブルユニットRTと、ホルダHDとを含むように構成されている。   As shown in FIG. 1, the three-dimensional input device 10 is configured to include a measurement head MH, a rotary table unit RT, and a holder HD.

測定ヘッドMHは、被写体Sを光学的に撮像し、その撮像結果に基づいて被写体Sの3次元形状および表面色を測定するために設けられている。回転テーブルユニットRTは、測定ヘッドMHに対して被写体Sを割り出し回転させるごとに測定ヘッドMHによる被写体Sの撮像を可能にし、それにより、被写体Sの外面の全体領域を複数の部分領域に分割して撮像することを可能にするために設けられている。   The measuring head MH is provided for optically imaging the subject S and measuring the three-dimensional shape and surface color of the subject S based on the imaging result. The rotary table unit RT enables imaging of the subject S by the measuring head MH each time the subject S is indexed and rotated with respect to the measuring head MH, thereby dividing the entire area of the outer surface of the subject S into a plurality of partial regions. It is provided to make it possible to take images.

被写体Sについては、各部分領域ごとの撮像によって複数の部分画像が取得される。ここに、「画像」という用語は、通常の平面画像のみならず、3次元物体の表面色情報とその3次元形状情報とを有する3次元画像をも包含するように解釈される。   For the subject S, a plurality of partial images are acquired by imaging for each partial region. Here, the term “image” is interpreted to include not only a normal planar image but also a three-dimensional image having surface color information of the three-dimensional object and its three-dimensional shape information.

それら取得された複数の部分画像は、それらから3次元形状情報が個々に取り出された後、形状ステッチ処理により、1つの形状ステッチ画像に結合される。続いて、その被写体Sについて取得された複数の部分画像における表面色情報(テクスチャ)が、その形状ステッチ画像にマッピングされる。それと共に、テクスチャステッチ処理により、その表面色情報によって表される複数の表面色が、それら複数の部分画像の継ぎ目において境界色差を有することなく接ぎ合わされる。それら処理により、その被写体Sについての3次元入力結果、すなわち、3次元色形状データが生成される。   The obtained partial images are combined with one shape stitch image by shape stitch processing after three-dimensional shape information is individually extracted from them. Subsequently, the surface color information (texture) in the plurality of partial images acquired for the subject S is mapped to the shape stitch image. At the same time, by the texture stitch processing, the plurality of surface colors represented by the surface color information are joined together without having a boundary color difference at the joint of the plurality of partial images. By these processes, a three-dimensional input result for the subject S, that is, three-dimensional color shape data is generated.

図1に示すように、ホルダHDは、測定ヘッドMHに装着される一方、回転テーブルユニットRTを保持するために設けられている。このホルダHDは、それ自体変形可能である。具体的には、本実施形態においては、ホルダHDが、折畳みによって変形を実現するように設計されている。ホルダHDは、自身の変形により、回転テーブルユニットRTが測定ヘッドMHに対して展開される展開状態と格納される格納状態とを選択的に実現する。さらに、本実施形態においては、ホルダHDが測定ヘッドMHに着脱可能に装着される。   As shown in FIG. 1, the holder HD is provided to hold the rotary table unit RT while being attached to the measurement head MH. This holder HD is itself deformable. Specifically, in the present embodiment, the holder HD is designed to realize deformation by folding. The holder HD selectively realizes an unfolded state in which the rotary table unit RT is unfolded with respect to the measuring head MH and a stored state in which it is stored by its deformation. Further, in the present embodiment, the holder HD is detachably attached to the measurement head MH.

図1には、ホルダHDが展開状態において斜視図で示され、図2(a)には、測定ヘッドMHとホルダHDの一部とが展開状態において側面図で示され、図2(b)には、測定ヘッドMDが背面図で示されている。図3には、測定ヘッドMHが、ホルダHDから離脱された離脱状態において、背面図で示されている。図4には、回転テーブルユニットRTが正面断面図で示されている。   1 is a perspective view of the holder HD in the unfolded state, and FIG. 2A is a side view of the measurement head MH and a part of the holder HD in the unfolded state. The measuring head MD is shown in a rear view. FIG. 3 shows a rear view of the measuring head MH in the detached state in which the measuring head MH is detached from the holder HD. FIG. 4 shows the rotary table unit RT in a front sectional view.

図5(a)には、格納状態(折り畳み状態)にあるホルダHDが測定ヘッドMHおよび回転テーブルユニットRTと共に、斜視図で示されている。図5(b)には、格納状態にあるホルダHDが測定ヘッドMHおよび回転テーブルユニットRTと共に、キャリングケースとしての外箱OC内に収容される様子が斜視図で示されている。3次元入力装置10は、図5(b)に示す収容状態において、持ち運ぶことが可能である。   FIG. 5A shows a perspective view of the holder HD in the retracted state (folded state) together with the measuring head MH and the rotary table unit RT. FIG. 5B shows a perspective view of the holder HD in the retracted state being housed in the outer box OC as a carrying case together with the measuring head MH and the rotary table unit RT. The three-dimensional input device 10 can be carried in the accommodated state shown in FIG.

図1に示すように、測定ヘッドMHは、被写体Sにパターン光を投影するための投影部12と、被写体Sを撮像するための撮像部14と、被写体Sの3次元情報および表面色情報の取得とを行うために信号処理を行う処理部16とを備えている。それら投影部12、撮像部14および処理部16は、測定ヘッドMHの、略直方体状を成すケーシング20に装着されている。   As shown in FIG. 1, the measurement head MH includes a projection unit 12 for projecting pattern light onto the subject S, an imaging unit 14 for imaging the subject S, and three-dimensional information and surface color information of the subject S. A processing unit 16 that performs signal processing is provided to perform acquisition. The projection unit 12, the imaging unit 14, and the processing unit 16 are attached to the casing 20 of the measurement head MH that has a substantially rectangular parallelepiped shape.

図1に示すように、そのケーシング20には、鏡筒24とフラッシュ26とが、それぞれが部分的にケーシング20の正面において露出する姿勢で装着されている。このケーシング20には、さらに、撮像部14の一部である撮像光学系30が、それのレンズの一部がケーシング20の正面において露出する姿勢で装着されている。その撮像光学系30は、それの露出部分において、被写体Sを表す画像光を受光する。   As shown in FIG. 1, the lens barrel 24 and the flash 26 are mounted on the casing 20 in such a posture that each part is exposed in front of the casing 20. Further, an imaging optical system 30 that is a part of the imaging unit 14 is attached to the casing 20 in a posture in which a part of the lens is exposed in the front of the casing 20. The imaging optical system 30 receives image light representing the subject S at the exposed portion thereof.

鏡筒24は、図1に示すように、ケーシング20の正面から突出しており、その内部において、図6に示すように、投影部12の一部である投影光学系32を収容している。投影光学系32は、複数枚の投影レンズ34と絞り36とを含むように構成されている。   As shown in FIG. 1, the lens barrel 24 protrudes from the front surface of the casing 20, and houses therein a projection optical system 32 that is a part of the projection unit 12 as shown in FIG. 6. The projection optical system 32 is configured to include a plurality of projection lenses 34 and a diaphragm 36.

鏡筒24は、投影光学系32を、焦点調節のために鏡筒ホルダ250内において全体的に移動可能である状態で保持し、さらに、この鏡筒24は、投影光学系32を損傷から保護している。鏡筒24の露出端面から、複数枚の投影レンズ34のうち最も外側に位置するものが露出している。投影光学系32は、その最も外側の投影レンズ34を最終出射面として、被写体Sに向かってパターン光を投影する。   The lens barrel 24 holds the projection optical system 32 in a state where the projection optical system 32 can be entirely moved in the lens barrel holder 250 for focus adjustment. Further, the lens barrel 24 protects the projection optical system 32 from damage. is doing. From the exposed end surface of the lens barrel 24, the outermost one of the plurality of projection lenses 34 is exposed. The projection optical system 32 projects pattern light toward the subject S with the outermost projection lens 34 as the final emission surface.

フラッシュ26は、暗所撮影における不足照度を補充するために発光する光源であり、例えば、キセノンガスが充填された放電管を用いて構成されている。したがって、このフラッシュ26は、ケーシング20に内蔵されている充電器(図示しない)の放電により繰り返し使用することができる。   The flash 26 is a light source that emits light to supplement insufficient illuminance in dark place photography. For example, the flash 26 includes a discharge tube filled with xenon gas. Therefore, the flash 26 can be repeatedly used by discharging a charger (not shown) built in the casing 20.

図1に示すように、ケーシング20には、それの上面において、レリーズボタン40が装着されている。図2(b)に示すように、ケーシング20には、さらに、それの背面において、モード切替スイッチ42(図2(b)に示す例においては、3個のボタンから成る。)と、4接点カーソルキー(方向キー)43と、モニタLCD44とが装着されている。それらモード切替スイッチ42および4接点カーソルキー43はそれぞれ、ファンクションボタンの一例を構成する。   As shown in FIG. 1, a release button 40 is attached to the casing 20 on the upper surface thereof. As shown in FIG. 2 (b), the casing 20 further has a mode changeover switch 42 (consisting of three buttons in the example shown in FIG. 2 (b)) and four contact points on the back surface thereof. A cursor key (direction key) 43 and a monitor LCD 44 are attached. Each of the mode changeover switch 42 and the four-contact cursor key 43 constitutes an example of a function button.

レリーズボタン40は、3次元入力装置10を作動させるためにユーザによって操作される。このレリーズボタン40は、ユーザの操作状態(押下状態)が「半押し状態」である場合と「全押し状態」である場合とで異なる指令を発令できる2段階の押しボタン式のスイッチによって構成されている。レリーズボタン40の操作状態は処理部16によって監視される。処理部16によって「半押し状態」が検出されれば、よく知られたオートフォーカス(AF)および自動露出(AF)の機能が起動し、ピント、絞りおよびシャッタスピードが自動的に調節される。これに対し、処理部16によって「全押し状態」が検出されれば、撮像等が行われる。   The release button 40 is operated by the user to operate the three-dimensional input device 10. The release button 40 is composed of a two-stage push button type switch that can issue different commands depending on whether the user's operation state (pressed state) is “half-pressed state” or “full-pressed state”. ing. The operation state of the release button 40 is monitored by the processing unit 16. When the “half-pressed state” is detected by the processing unit 16, well-known auto focus (AF) and automatic exposure (AF) functions are activated, and the focus, aperture, and shutter speed are automatically adjusted. On the other hand, if the “fully pressed state” is detected by the processing unit 16, imaging or the like is performed.

モード切替スイッチ42は、3次元入力装置10の作動モードを、後述のSLOWモード(図2(b)において「S」で示す。)、FASTモード(図2(b)において「F」で示す。)およびオフモード(図2(b)において「OFF」で示す。)を含む複数種類のモードのいずれかとして設定するためにユーザによって操作される。このモード切替スイッチ42の操作状態は処理部16によって監視されており、モード切替スイッチ42の操作状態が処理部16によって検出されると、その検出された操作状態に対応するモードでの処理が3次元入力装置10において行われる。   The mode changeover switch 42 indicates the operation mode of the three-dimensional input device 10 by a later-described SLOW mode (indicated by “S” in FIG. 2B) and FAST mode (indicated by “F” in FIG. 2B). ) And an off mode (indicated by “OFF” in FIG. 2B) is operated by the user to set as one of a plurality of types of modes. The operation state of the mode changeover switch 42 is monitored by the processing unit 16. When the operation state of the mode changeover switch 42 is detected by the processing unit 16, the process in the mode corresponding to the detected operation state is 3. This is performed in the dimension input device 10.

モニタLCD44は、液晶ディスプレイ(Liquid Crystal Display)を用いて構成されており、処理部16から画像信号を受けて、画像をユーザに表示する。このモニタLCD44は、例えば、被写体Sの3次元形状の検出結果を表す画像(立体画像)等を表示する。   The monitor LCD 44 is configured using a liquid crystal display, and receives an image signal from the processing unit 16 and displays an image to the user. The monitor LCD 44 displays, for example, an image (stereoscopic image) representing the detection result of the three-dimensional shape of the subject S.

図2に示すように、ケーシング20には、さらに、RF(無線)インタフェースとしてのアンテナ50が装着されている。アンテナ50は、図6に示すように、RFドライバ52に接続されている。このアンテナ50は、被写体Sを立体画像として表すデータやその他の情報を、RFドライバ52を介して、図示しない外部インタフェースに無線によって送受信する。   As shown in FIG. 2, the casing 20 is further equipped with an antenna 50 as an RF (wireless) interface. The antenna 50 is connected to the RF driver 52 as shown in FIG. The antenna 50 wirelessly transmits and receives data representing the subject S as a stereoscopic image and other information to an external interface (not shown) via the RF driver 52.

ここで、図1を参照することにより、ホルダHDの構成を詳細に説明する。   Here, the configuration of the holder HD will be described in detail with reference to FIG.

ホルダHDは、複数枚の板状部材が一列に並ぶとともに互いに折畳み可能に連結されることにより、構成されている。すなわち、このホルダHDは、複数枚の板状部材が一列を成す姿勢で互いにヒンジ結合されることにより、構成されているのである。   The holder HD is configured by a plurality of plate-like members arranged in a line and connected to each other so as to be foldable. That is, the holder HD is configured by hinge-joining a plurality of plate-like members in a row.

具体的には、ホルダHDは、測定ヘッドMHが着脱可能に装着される板状のヘッドベース130と、回転テーブルユニットRTに装着された板状のテーブルベース132と、それらヘッドベース130とテーブルベース132との間に位置する、共に板状の第1の中継ベース134および第2の中継ベース136とを、折畳み可能に互いに連結された複数枚の板状部材として備えている。   Specifically, the holder HD includes a plate-like head base 130 to which the measurement head MH is detachably attached, a plate-like table base 132 attached to the rotary table unit RT, and the head base 130 and the table base. The first relay base 134 and the second relay base 136, both of which are located between the first relay base 134 and the second relay base 136, are provided as a plurality of plate-like members connected to each other so as to be foldable.

図1に示すように、測定ヘッドMHは、概して、縦方向に長い直方体を成しており、その測定ヘッドMHの上面および下面と、正面および背面とを寸法に関して互いに比較すると、横寸法はほぼ共通するが、縦寸法は、正面および背面の方が上面および下面より長い。一方、後に図5を参照して詳述するが、ホルダHDの格納状態においては、ヘッドベース130が測定ヘッドMHの下面に装着され、第1の中継ベース134が測定ヘッドMHの正面を覆い、第2の中継ベース136が測定ヘッドMHの上面を覆い、テーブルベース132が測定ヘッドMHの背面を覆う。したがって、第1の中継ベース134およびテーブルベース132は、ヘッドベース130および第2の中継ベース136より、縦寸法が長い。   As shown in FIG. 1, the measuring head MH generally has a rectangular parallelepiped that is long in the vertical direction. When the upper surface and the lower surface of the measuring head MH are compared with each other in terms of dimensions, the lateral dimensions are almost equal. Although common, the vertical dimension is longer on the front and back surfaces than on the top and bottom surfaces. On the other hand, as will be described in detail later with reference to FIG. 5, in the retracted state of the holder HD, the head base 130 is mounted on the lower surface of the measurement head MH, and the first relay base 134 covers the front of the measurement head MH. The second relay base 136 covers the upper surface of the measurement head MH, and the table base 132 covers the rear surface of the measurement head MH. Therefore, the first relay base 134 and the table base 132 have a longer vertical dimension than the head base 130 and the second relay base 136.

第1の中継ベース134の両面のうち、格納状態において測定ヘッドMHの正面に対向する面、すなわち、展開状態において露出する面には、3次元入力装置10の操作方法等に関するインストラクションがシール貼付等によって表示されるインクトラクション表示面が割り当てられている。   Of the two surfaces of the first relay base 134, instructions relating to the operation method of the three-dimensional input device 10 are attached to the surface facing the front surface of the measuring head MH in the retracted state, that is, the surface exposed in the expanded state. The ink traction display surface displayed by is assigned.

図1に示すように、ヘッドベース130と第1の中継ベース134とは、それらに共通の軸線を有するジョイント140により、互いに回動可能に連結されている。第1の中継ベース134と第2の中継ベース136とは、それらに共通の軸線を有するジョイント142により、互いに回動可能に連結されている。第2の中継ベース136とテーブルベース132とは、それらに共通の軸線を有するジョイント144により、互いに回動可能に連結されている。   As shown in FIG. 1, the head base 130 and the first relay base 134 are connected to each other by a joint 140 having an axis common to them. The first relay base 134 and the second relay base 136 are connected to each other by a joint 142 having an axis common to them. The second relay base 136 and the table base 132 are rotatably connected to each other by a joint 144 having an axis common to them.

ここで、図1および図3を参照することにより、測定ヘッドMHをヘッドベース130に着脱可能に装着する構造を説明する。   Here, referring to FIG. 1 and FIG. 3, a structure in which the measuring head MH is detachably mounted on the head base 130 will be described.

測定ヘッドMHは、ヘッドベース130の上面に機械的に係合することにより、そのヘッドベース130に装着される。その係合を実現するために、測定ヘッドMHは、図3に示すように、ヘッドベース130との係合部である下端部にヘッド沈座部150が形成されている。このヘッド沈座部150は、第1および第2の係合爪152,154を一対の雄側係合部として有している。   The measuring head MH is attached to the head base 130 by mechanically engaging the upper surface of the head base 130. In order to realize the engagement, as shown in FIG. 3, the measurement head MH is formed with a head settling portion 150 at a lower end portion that is an engagement portion with the head base 130. The head seating portion 150 includes first and second engaging claws 152 and 154 as a pair of male engaging portions.

図3に示すように、それら第1および第2の係合爪152,154は、測定ヘッドMHの横方向、すなわち、ヘッドベース130の幅方向に互いに隔たる一対の位置において、それぞれ測定ヘッドMHの前後方向、すなわち、ヘッドベース130の長さ方向に延びるように形成されている。本実施形態においては、測定ヘッドMHがヘッドベース130にできる限り強固に固定されるようにするために、それら第1および第2の係合爪152,154間の距離ができる限り長くなるようにそれら第1および第2の係合爪152,154の各位置が選定されている。   As shown in FIG. 3, the first and second engaging claws 152 and 154 are respectively arranged at a pair of positions separated from each other in the lateral direction of the measuring head MH, that is, in the width direction of the head base 130. Are formed so as to extend in the longitudinal direction of the head base 130, that is, in the length direction of the head base 130. In the present embodiment, in order to fix the measurement head MH to the head base 130 as firmly as possible, the distance between the first and second engaging claws 152 and 154 is as long as possible. The positions of the first and second engaging claws 152 and 154 are selected.

図3に示すように、ヘッドベース130には、ヘッド沈座部150との機械的係合によってそのヘッド沈座部150を固定的に受容するヘッド受容部160が形成されている。このヘッド受容部160は、ヘッド沈座部150が嵌り入るヘッドベース沈座空隙162を備え、さらに、測定ヘッドMHの第1および第2の係合爪152,154にそれぞれ係合する第1および第2の爪突き当て部164,166を一対の雌側係合部として備えている。   As shown in FIG. 3, the head base 130 is formed with a head receiving portion 160 that fixedly receives the head seating portion 150 by mechanical engagement with the head seating portion 150. The head receiving portion 160 includes a head base retracting space 162 into which the head retracting portion 150 is fitted, and further, first and second engaging claws 152 and 154 of the measuring head MH are respectively engaged. The second claw abutting portions 164 and 166 are provided as a pair of female side engaging portions.

第1の爪突き当て部164は、対応する第1の係合爪152に係合して、測定ヘッドMHがヘッドベース130から、それの上面に直角な方向に離脱することを阻止する固定爪突き当て部である。一方、第2の爪突き当て部166は、(a)対応する第2の係合爪154に係合して、測定ヘッドMHがヘッドベース130から、それの上面に直角な方向に離脱することを阻止する係合位置と、(b)対応する第2の係合爪154から離脱して、測定ヘッドMHがヘッドベース130から、それの上面に直角な方向に離脱することを許可する解放位置とに変位可能な可動爪突き当て部である。   The first claw abutment portion 164 engages with the corresponding first engagement claw 152 to prevent the measurement head MH from being detached from the head base 130 in a direction perpendicular to the upper surface thereof. It is a butting part. On the other hand, the second claw abutting portion 166 (a) engages with the corresponding second engagement claw 154 so that the measuring head MH is detached from the head base 130 in a direction perpendicular to the upper surface thereof. And (b) a release position that allows the measurement head MH to disengage from the head base 130 in a direction perpendicular to the upper surface thereof, by disengaging from the corresponding second engagement pawl 154. And a movable claw abutting portion that is displaceable.

第2の爪突き当て部166の一例は、ヘッドベース130の長さ方向(ヘッドベース130に対する測定ヘッドMHの装着・離脱時にその測定ヘッドMHが回転する回転平面に直角な方向)に延びるピボット軸線まわりにピボット可能なピボット部材170を含んでいる。   An example of the second claw abutting portion 166 is a pivot axis extending in the length direction of the head base 130 (a direction perpendicular to a rotation plane in which the measurement head MH rotates when the measurement head MH is attached to or detached from the head base 130). A pivot member 170 pivotable about is included.

そのピボット部材170は、そのピボット軸線と同軸な軸線を有するジョイント172によってヘッドベース130にピボット可能に装着される。このピボット部材170は、対応する第2の係合爪154に機械的に係合してその第2の係合爪154が離脱することを阻止する可動係合部174を含んでいる。その可動係合部174が第2の係合爪154を上方から係合する向きにピボット部材170が常時、弾性部材としてのスプリング176によって付勢される。本実施形態においては、そのピボット部材170が、さらに、可動係合部174による係合を解除するためにユーザによって押圧操作される操作部178と、スプリング176の弾性力を拡大して可動係合部174に伝達するレバレッジ180とを含んでいる。   The pivot member 170 is pivotally mounted to the head base 130 by a joint 172 having an axis coaxial with the pivot axis. The pivot member 170 includes a movable engagement portion 174 that mechanically engages with the corresponding second engagement claw 154 and prevents the second engagement claw 154 from being detached. The pivot member 170 is always biased by a spring 176 as an elastic member so that the movable engagement portion 174 engages the second engagement claw 154 from above. In the present embodiment, the pivot member 170 further includes an operation portion 178 that is pressed by the user to release the engagement by the movable engagement portion 174, and a movable engagement by expanding the elastic force of the spring 176. And leverage 180 to be transmitted to the section 174.

次に、図3を参照することにより、ヘッドベース130に対する測定ヘッドMHの着脱作業を説明する。   Next, with reference to FIG. 3, the attaching / detaching operation of the measuring head MH with respect to the head base 130 will be described.

測定ヘッドMHをヘッドベース130に装着するためには、ユーザは、ピボット部材170の操作部178を、スプリング176の弾性力に抗して、可動係合部174が係合位置から解放位置に向かう解放方向に押圧する。その押圧状態で、ユーザは、ヘッド沈座部150がヘッドベース沈座空隙162内に進入しつつ第1の係合爪152が第1の爪突き当て部164内に進入して当接するように、測定ヘッドMHを概して垂直面内において回転させつつ下降させる。その後、ユーザは、操作部178の押圧を解除し、それにより、ピボット部材170がスプリング176の弾性回復力によって解放位置から係合位置に回動して、可動係合部174が第2の係合爪154に上方から係合して突き当たる。その結果、第1の係合爪152が第1の爪突き当て部164から上方に離脱することが阻止されるとともに、第2の係合爪154が第2の爪突き当て部166から上方に離脱することも阻止される。それにより、測定ヘッドMHがヘッドベース130から離脱することが阻止される。   In order to mount the measurement head MH on the head base 130, the user moves the movable engagement portion 174 from the engagement position to the release position against the elastic force of the spring 176 by operating the operation portion 178 of the pivot member 170. Press in the release direction. In the pressed state, the user makes the first engaging claw 152 enter and contact the first claw abutting portion 164 while the head settling portion 150 enters the head base settling space 162. The measurement head MH is lowered while rotating in a generally vertical plane. Thereafter, the user releases the pressing of the operation portion 178, whereby the pivot member 170 is rotated from the release position to the engagement position by the elastic recovery force of the spring 176, and the movable engagement portion 174 is moved to the second engagement position. It engages with the claw 154 from above and strikes. As a result, the first engagement claw 152 is prevented from separating upward from the first claw abutting portion 164, and the second engagement claw 154 is moved upward from the second claw abutting portion 166. The withdrawal is also prevented. Thereby, the measurement head MH is prevented from being detached from the head base 130.

これに対し、測定ヘッドMHをヘッドベース130から離脱するためには、ユーザは、上記の場合と同様にして、ピボット部材170の操作部178をスプリング176の弾性力に抗して、解放方向に押圧する。その押圧状態で、ユーザは、ヘッド沈座部150がヘッドベース沈座空隙162から退避しつつ第1の係合爪152が第1の爪突き当て部164から退避するように、測定ヘッドMHを概して垂直面内において回転させつつ上昇させて、測定ヘッドMHをヘッドベース130から離脱させる。その後、ユーザは、操作部178の押圧を解除し、それにより、ピボット部材170がスプリング176の弾性回復力によって解放位置から係合位置に復元する。   On the other hand, in order to detach the measuring head MH from the head base 130, the user moves the operation portion 178 of the pivot member 170 in the release direction against the elastic force of the spring 176 in the same manner as described above. Press. In the pressed state, the user moves the measurement head MH so that the first engaging claw 152 is retracted from the first claw abutting portion 164 while the head retracting portion 150 is retracted from the head base retracting space 162. In general, the measurement head MH is lifted while rotating in the vertical plane, and the measurement head MH is detached from the head base 130. Thereafter, the user releases the pressing of the operation unit 178, whereby the pivot member 170 is restored from the released position to the engaged position by the elastic recovery force of the spring 176.

次に、図4を参照することにより、回転テーブルユニットRTを詳細に説明する。   Next, the rotary table unit RT will be described in detail with reference to FIG.

この回転テーブルユニットRTは、被写体Sが載置されるべき回転テーブル184と、その回転テーブル184を回転可能に支持する支持フレーム186とを含んでいる。その支持フレーム186は、上板部188と下板部189とを含むように薄い中空箱状を成しており、上板部188の開口から回転テーブル184の上面が露出している。本実施形態においては、その支持フレーム186のうちの下板部189がテーブルベース132としても機能する。   The turntable unit RT includes a turntable 184 on which the subject S is to be placed, and a support frame 186 that rotatably supports the turntable 184. The support frame 186 has a thin hollow box shape so as to include an upper plate portion 188 and a lower plate portion 189, and the upper surface of the rotary table 184 is exposed from the opening of the upper plate portion 188. In the present embodiment, the lower plate portion 189 of the support frame 186 also functions as the table base 132.

回転テーブル184の上面は、撮像されるべき被写体Sが載置される載置面190である。一方、回転テーブル184の下面から、回転シャフト191が同軸に延び出しており、この回転シャフト191は、軸受け192を介して支持フレーム186に回転可能に支持されている。その軸受け192は、支持フレーム186に形成された軸受けホルダ193によって保持されている。   The upper surface of the turntable 184 is a placement surface 190 on which the subject S to be imaged is placed. On the other hand, a rotary shaft 191 extends coaxially from the lower surface of the rotary table 184, and the rotary shaft 191 is rotatably supported by a support frame 186 via a bearing 192. The bearing 192 is held by a bearing holder 193 formed on the support frame 186.

回転テーブル184を回転させるテーブルモータ194が支持フレーム186に装着されている。このテーブルモータ194を収容するモータボックス195が支持フレーム186に形成されている。   A table motor 194 that rotates the rotary table 184 is attached to the support frame 186. A motor box 195 that accommodates the table motor 194 is formed on the support frame 186.

このモータボックス195は、支持フレーム186の上板部188の上面に、その上面から上方に突出する姿勢で形成されている。このモータボックス195の上面は、回転テーブル184の上面より高く設定されている。それにより、被写体Sが回転テーブル184と共に回転させられる際にその被写体Sが、回転テーブル184を同軸に投影した投影空間から外側にはみ出していると、モータボックス195のうち回転テーブル184の上面より上方に位置する部分が被写体Sに当接してその被写体Sの向きを変化させる。   The motor box 195 is formed on the upper surface of the upper plate portion 188 of the support frame 186 so as to protrude upward from the upper surface. The upper surface of the motor box 195 is set higher than the upper surface of the rotary table 184. As a result, when the subject S is rotated together with the turntable 184, the subject S protrudes outward from the projection space on which the turntable 184 is coaxially projected, and is above the upper surface of the turntable 184 in the motor box 195. The portion located at the position abuts on the subject S and changes the direction of the subject S.

したがって、モータボックス195は、テーブルモータ194の収容部として機能するのみならず、被写体Sが回転テーブル184に位置決めされる位置を規制する位置規制部196としても機能する。   Therefore, the motor box 195 not only functions as a housing portion for the table motor 194 but also functions as a position restricting portion 196 that restricts the position where the subject S is positioned on the rotary table 184.

テーブルモータ194の回転を回転テーブル184に伝達するために、テーブルモータ194の回転シャフトにモータギヤ197が同軸に固定され、このモータギヤ197にかみ合うテーブルギヤ198が回転テーブル184に同軸に固定されている。モータギヤ197は、テーブルギヤ198より小径であるため、テーブルギヤ198の回転速度が減速されて回転テーブル184に伝達される。   In order to transmit the rotation of the table motor 194 to the rotary table 184, the motor gear 197 is coaxially fixed to the rotary shaft of the table motor 194, and the table gear 198 that meshes with the motor gear 197 is fixed coaxially to the rotary table 184. Since the motor gear 197 has a smaller diameter than the table gear 198, the rotational speed of the table gear 198 is reduced and transmitted to the rotary table 184.

ところで、テーブルモータ194は、支持フレーム186の上板部188の上面から突出しないように支持フレーム186に装着することが可能である。一方、上板部188の上面のうち回転テーブル184が露出する部分を除く部分の上方空間にテーブルモータ194を配置しても、何ら支障がなく、むしろ、支持フレーム186の薄型化に有利である。   Incidentally, the table motor 194 can be attached to the support frame 186 so as not to protrude from the upper surface of the upper plate portion 188 of the support frame 186. On the other hand, even if the table motor 194 is disposed in the upper space of the upper surface of the upper plate portion 188 excluding the portion where the rotary table 184 is exposed, there is no problem, but it is advantageous for thinning the support frame 186. .

したがって、本実施形態によれば、テーブルモータ194を上板部188の上面から突出するように配置することにより、上述の位置規制部196としての機能に加えて、支持フレーム186の薄型化を容易にするという機能も実現される。   Therefore, according to the present embodiment, by arranging the table motor 194 so as to protrude from the upper surface of the upper plate portion 188, in addition to the function as the position restricting portion 196 described above, the support frame 186 can be easily thinned. The function of making is also realized.

図5(a)には、測定ヘッドMHを前後面および上下面という4面において覆うようにホルダHDが折り畳まれた状態、すなわち、ホルダHDの格納状態において、測定ヘッドMH、ホルダHDおよび回転テーブルユニットRTが斜視図で示されている。ホルダHDは、格納状態においては、外形的に概して直方体状を成している。   FIG. 5A shows the measurement head MH, the holder HD, and the rotary table in a state in which the holder HD is folded so as to cover the measurement head MH on four surfaces, ie, the front and rear surfaces and the upper and lower surfaces. The unit RT is shown in perspective view. In the retracted state, the holder HD has a generally rectangular parallelepiped shape.

図5(b)には、ホルダHDの格納状態において測定ヘッドMH、ホルダHDおよび回転テーブルユニットRTが外箱OC内に挿入されて収容される様子が斜視図で示されている。本実施形態においては、それら測定ヘッドMH、ホルダHDおよび回転テーブルユニットRTが、測定ヘッドMHが横倒しの状態で、外箱OC内に挿入される。   FIG. 5B is a perspective view showing the state in which the measuring head MH, the holder HD, and the rotary table unit RT are inserted and accommodated in the outer box OC when the holder HD is stored. In the present embodiment, the measurement head MH, the holder HD, and the rotary table unit RT are inserted into the outer box OC with the measurement head MH lying on its side.

この3次元入力装置10は、複数種類のモードのうちユーザによって選択されたものに従って作動する。それらモードは、SLOWモードと、FASTモードと、オフモードとを含んでいる。SLOWモードは、被写体Sを低速で高精度で撮像する低速撮像モードであり、撮像精度優先モードである。FASTモードは、被写体Sを高速で低精度で撮像する高速撮像モードであり、撮像時間優先モードである。オフモードは、この3次元入力装置10の動作を停止させるモードである。   The three-dimensional input device 10 operates according to a mode selected by the user from among a plurality of types of modes. These modes include a SLOW mode, a FAST mode, and an off mode. The SLOW mode is a low-speed imaging mode in which the subject S is imaged with high accuracy at low speed, and is an imaging accuracy priority mode. The FAST mode is a high-speed imaging mode that images the subject S at high speed with low accuracy, and is an imaging time priority mode. The off mode is a mode in which the operation of the three-dimensional input device 10 is stopped.

撮像部14は、被写体Sを撮像し、その撮像結果から、その被写体Sを表す全体画像を構成する複数個の画素のいずれかを間引いて形成される画素間引き画像と、いずれの画素も間引かずに形成される画素非間引き画像とを選択的に取り出すことが可能であるように構成されている。さらに、撮像部14は、被写体Sの撮像後、その撮像結果から画素間引き画像を、画素非間引き画像を取り出すのに必要な時間より短い時間で取り出すように構成されている。   The imaging unit 14 images the subject S, and from the imaging result, a pixel thinned image formed by thinning out any of a plurality of pixels constituting the entire image representing the subject S, and all the pixels are thinned out. It is configured such that it is possible to selectively extract the non-pixel thinned image formed without any delay. Furthermore, the imaging unit 14 is configured to take out the pixel-thinned image from the imaging result after taking the subject S in a time shorter than the time required to take out the pixel non-thinned image.

CCDを用いた撮像の分野においては、被写体Sの撮像結果から画素間引き画像を取り出すために、加算方式と選択方式とがすでに知られている。   In the field of imaging using a CCD, an addition method and a selection method are already known in order to extract a pixel-thinned image from the imaging result of the subject S.

加算方式によれば、被写体Sを表す全体画像を構成する複数個の画素がグループ分けされた複数個の画素グループの各々に属する複数個の対象画素の照度検出値が各画素グループごとに加算され、その加算された照度を用いて、各画素グループに属する複数個の対象画素の照度検出値が均等に分散される。   According to the addition method, the illuminance detection values of a plurality of target pixels belonging to each of a plurality of pixel groups in which a plurality of pixels constituting the entire image representing the subject S are grouped are added for each pixel group. The detected illuminance values of a plurality of target pixels belonging to each pixel group are evenly distributed using the added illuminance.

これに対し、選択方式によれば、それら複数個の画素グループの各々に属する複数個の対象画素から、それら対象画素を代表する代表画素が各画素グループごとに選択され、その選択された代表画素の照度検出値を用いて、各画素グループに属する複数個の対象画素の照度検出値が均等に分散される。   On the other hand, according to the selection method, a representative pixel representing the target pixel is selected for each pixel group from a plurality of target pixels belonging to each of the plurality of pixel groups, and the selected representative pixel The detected illuminance values of a plurality of target pixels belonging to each pixel group are evenly distributed using the detected illuminance values.

本実施形態においては、撮像部14は、それら加算方式と選択方式とのうち予め選択されたものに従い、被写体Sの撮像結果から画素間引き画像を取り出すように設計されている。   In the present embodiment, the imaging unit 14 is designed to extract a pixel-thinned image from the imaging result of the subject S in accordance with a preselected one of the addition method and the selection method.

被写体Sの撮像結果から画素間引き画像を取り出す間引き画像処理モードは、被写体Sを低速で高精度で撮像する低速撮像モードに適している。一方、被写体Sの撮像結果から画素非間引き画像を取り出す非間引き画像処理モードは、被写体Sを高速で低精度で撮像する高速撮像モードに適している。   The thinned-out image processing mode for extracting a pixel-thinned image from the imaging result of the subject S is suitable for a low-speed imaging mode in which the subject S is imaged with high accuracy at low speed. On the other hand, the non-decimated image processing mode for extracting the pixel non-decimated image from the imaging result of the subject S is suitable for the high-speed imaging mode for imaging the subject S at high speed with low accuracy.

したがって、本実施形態においては、ユーザによってFASTモードが選択されると、間引き画像処理モードが設定される一方、ユーザによってSLOWモードが選択されると、非間引き画像処理モードが設定される。   Therefore, in this embodiment, when the FAST mode is selected by the user, the thinned image processing mode is set, while when the SLOW mode is selected by the user, the non-thinned image processing mode is set.

投影部12は、被写体Sにパターン光を投影するためのユニットである。この投影部12は、図6および図7に示すように、基板60と、LED62(例えば、金属基板に接合された単一のLED素子によって比較的に広い出射面から光を出力する高輝度高放熱タイプのLED)と、照明絞り63と、光源レンズ64と、送りモータ(例えば、パルスモータ)65を駆動源として板状の光変調体200を送る投影機構66と、投影光学系32とを、投影方向に沿って直列に備えている。   The projection unit 12 is a unit for projecting pattern light onto the subject S. As shown in FIGS. 6 and 7, the projection unit 12 includes a substrate 60 and an LED 62 (for example, a single LED element bonded to a metal substrate that outputs light from a relatively wide emission surface. (Radiation type LED), illumination diaphragm 63, light source lens 64, projection mechanism 66 for sending the plate-shaped light modulator 200 using a feed motor (for example, pulse motor) 65 as a drive source, and the projection optical system 32 , Provided in series along the projection direction.

図7には、この投影部12のハードウエア構成のうち、基板60と、LED62と、照明絞り63と、光源レンズ64と、光変調体200と、投影光学系32とが詳細に示されている。図8には、この投影部12を含む3次元入力装置10全体のソフトウエア構成および電気的接続関係が詳細に示されている。図9ないし図11には、投影部12のハードウエア構成のうち投影機構66が詳細に示されており、図12ないし図14には、光変調体200が拡大されて示されている。   FIG. 7 shows in detail the substrate 60, the LED 62, the illumination stop 63, the light source lens 64, the light modulator 200, and the projection optical system 32 in the hardware configuration of the projection unit 12. Yes. FIG. 8 shows in detail the software configuration and electrical connection relationship of the entire three-dimensional input apparatus 10 including the projection unit 12. 9 to 11 show the projection mechanism 66 in detail in the hardware configuration of the projection unit 12, and FIGS. 12 to 14 show the light modulator 200 in an enlarged manner.

撮像部14は、被写体Sを撮像するためのユニットである。この撮像部14は、図6に示すように、撮像光学系30と、CCD(Charge Coupled Device)70とを、画像光の入射方向に沿って直列に備えている。このCCD70は、インターライントランスファー方式でプログレッシブ走査を行うように構成されている。   The imaging unit 14 is a unit for imaging the subject S. As shown in FIG. 6, the imaging unit 14 includes an imaging optical system 30 and a CCD (Charge Coupled Device) 70 in series along the incident direction of image light. The CCD 70 is configured to perform progressive scanning by an interline transfer method.

撮像光学系30は、図6に示すように、複数枚のレンズを用いて構成されている。この撮像光学系30は、よく知られたオートフォーカス機能および自動露出機能により、焦点距離、絞りおよびシャッタ時間を自動調整して外部からの光をCCD70上に結像する。   The imaging optical system 30 is configured by using a plurality of lenses as shown in FIG. The imaging optical system 30 automatically adjusts the focal length, aperture, and shutter time by a well-known autofocus function and automatic exposure function, and forms an image of external light on the CCD 70.

CCD70は、フォトダイオード素子などの光電変換素子をマトリクス状に配列して構成されている。このCCD70は、撮像光学系30を介してこのCCD70の表面に結像される画像の光の色および強さに応じた信号を各画素ごとに生成する。その生成された信号は、デジタルデータに変換されて処理部16に出力される。   The CCD 70 is configured by arranging photoelectric conversion elements such as photodiode elements in a matrix. The CCD 70 generates a signal corresponding to the color and intensity of light of an image formed on the surface of the CCD 70 via the imaging optical system 30 for each pixel. The generated signal is converted into digital data and output to the processing unit 16.

図8にブロック図で表すように、処理部16は、フラッシュ26、レリーズボタン40およびモード切替スイッチ42にそれぞれ電気的に接続されている。処理部16は、さらに、モニタLCD44にはモニタLCDドライバ72を介して、アンテナ50にはRFドライバ52を介して、バッテリ74には電源インタフェース76を介してそれぞれ電気的に接続されている。それらフラッシュ26等は、処理部16によって制御される。   As shown in the block diagram of FIG. 8, the processing unit 16 is electrically connected to the flash 26, the release button 40, and the mode switch 42. The processing unit 16 is further electrically connected to the monitor LCD 44 via the monitor LCD driver 72, to the antenna 50 via the RF driver 52, and to the battery 74 via the power interface 76. The flash 26 and the like are controlled by the processing unit 16.

処理部16は、さらに、外部メモリ78およびキャッシュメモリ80にそれぞれ電気的に接続されている。処理部16は、さらに、LED62には光源ドライバ84を介して、投影機構66の送りモータ65には送りモータドライバ86を介して、CCD70にはCCDインタフェース88を介してそれぞれ電気的に接続されている。それらLED62等は、処理部16によって制御される。   The processing unit 16 is further electrically connected to the external memory 78 and the cache memory 80, respectively. The processing unit 16 is further electrically connected to the LED 62 via the light source driver 84, to the feed motor 65 of the projection mechanism 66 via the feed motor driver 86, and to the CCD 70 via the CCD interface 88. Yes. The LEDs 62 and the like are controlled by the processing unit 16.

外部メモリ78は、着脱可能なフラッシュROMであり、立体画像モードにおいて撮像された撮像画像や3次元情報(前述の3次元色形状データやそれに関連する情報を含む。)を記憶することが可能である。外部メモリ78を構成するために、例えば、SDカード(登録商標)、コンパクトフラッシュ(登録商標)カード等を使用することができる。   The external memory 78 is a detachable flash ROM, and can store a captured image captured in the stereoscopic image mode and three-dimensional information (including the above-described three-dimensional color shape data and related information). is there. In order to configure the external memory 78, for example, an SD card (registered trademark), a compact flash (registered trademark) card, or the like can be used.

キャッシュメモリ80は、データの読み書きを高速で行い得る記憶装置である。キャッシュメモリ80は、例えば、デジカメモードにおいて撮像された撮像画像を高速でキャッシュメモリ80に転送し、処理部16で画像処理を行ってから外部メモリ78に格納することを可能にするために使用される。キャッシュメモリ80を構成するために、例えば、SDRAM、DDRRAM等を使用することができる。   The cache memory 80 is a storage device that can read and write data at high speed. The cache memory 80 is used, for example, to enable a captured image captured in the digital camera mode to be transferred to the cache memory 80 at a high speed and stored in the external memory 78 after being processed by the processing unit 16. The In order to configure the cache memory 80, for example, SDRAM, DDRRAM, or the like can be used.

電源インタフェース76、光源ドライバ84、送りモータドライバ86およびCCDインタフェース88はそれぞれ、バッテリ74、LED62、投影機構66の送りモータ65およびCCD70を制御する各種のIC(Integrated Circuit)によって構成されている。   The power interface 76, the light source driver 84, the feed motor driver 86, and the CCD interface 88 are constituted by various ICs (Integrated Circuits) that control the battery 74, the LED 62, the feed motor 65 of the projection mechanism 66, and the CCD 70, respectively.

図2(a)に示すように、測定ヘッドMHには、ACアダプタ端子90と、USB端子91と、テーブルモータ端子92とが設けられている。ACアダプタ端子90は、図6にも示すように、バッテリ74に電気的に接続されており、それにより、3次元入力装置10が外部の交流電源を電力源として利用することが可能となっている。USB端子91は、図6に示すように、USBドライバ93を介して処理部16に接続されている。テーブルモータ端子92は、図6に示すように、テーブルモータドライバ94を介して処理部16に接続されている。   As shown in FIG. 2A, the measurement head MH is provided with an AC adapter terminal 90, a USB terminal 91, and a table motor terminal 92. As shown in FIG. 6, the AC adapter terminal 90 is electrically connected to the battery 74, so that the three-dimensional input device 10 can use an external AC power source as a power source. Yes. The USB terminal 91 is connected to the processing unit 16 via the USB driver 93 as shown in FIG. As shown in FIG. 6, the table motor terminal 92 is connected to the processing unit 16 via a table motor driver 94.

図1に示すように、回転テーブルユニットRTのテーブルモータ194から電気ラインとしてのハーネス95が延び出している。このハーネス95は、第2の中継ベース136、第1の中継ベース134およびヘッドベース130をそれらの順に通過し、図2(a)に示すように、そのハーネス95の先端に接続されたL字プラグ96においてテーブルモータ端子92に接続されている。そのハーネス95は、測定ヘッドMHからテーブルモータ194に制御信号および電力を供給する電気ラインとして機能する。したがって、図8に示すように、テーブルモータ194がテーブルモータドライバ94を介して処理部16に接続されることになる。   As shown in FIG. 1, a harness 95 as an electric line extends from the table motor 194 of the rotary table unit RT. The harness 95 passes through the second relay base 136, the first relay base 134, and the head base 130 in that order, and is connected to the tip of the harness 95 as shown in FIG. The plug 96 is connected to the table motor terminal 92. The harness 95 functions as an electric line that supplies a control signal and power from the measurement head MH to the table motor 194. Therefore, as shown in FIG. 8, the table motor 194 is connected to the processing unit 16 via the table motor driver 94.

図1に示すように、ハーネス95は、第2の中継ベース136を通過する位置がハーネス止め97によって規定され、第1の中継ベース134を通過する位置が2個のハーネス止め98,98によって規定されている。   As shown in FIG. 1, the position of the harness 95 that passes through the second relay base 136 is defined by a harness stop 97, and the position that passes through the first relay base 134 is defined by two harness stops 98 and 98. Has been.

なお付言するに、それら測定ヘッドMHとテーブルモータ194とを互いに接続する配線として、他の態様を採用することが可能であり、例えば、ハーネス95が各ベース130,132,134,136に埋設される態様を採用することが可能である。   In addition, it is possible to adopt other modes as wiring for connecting the measuring head MH and the table motor 194 to each other. For example, a harness 95 is embedded in each base 130, 132, 134, 136. It is possible to adopt the embodiment.

前述のように、投影部12は、図7に示すように、基板60と、LED62と、照明絞り63と、光源レンズ64と、投影機構66と、投影光学系32とをパターン光の投影方向に沿って直列に備えている。基板60と、LED62と、照明絞り63と、光源レンズ64とにより、光源部68が構成されている。   As described above, the projection unit 12 includes the substrate 60, the LED 62, the illumination diaphragm 63, the light source lens 64, the projection mechanism 66, and the projection optical system 32 as shown in FIG. Are provided in series. The substrate 60, the LEDs 62, the illumination diaphragm 63, and the light source lens 64 constitute a light source unit 68.

基板60は、それにLED62が装着されることにより、その装着されたLED62との間において電気的な配線を行う。基板60は、例えば、アルミニウム製基板に絶縁性合成樹脂を塗布してから無電解メッキによってパターンを形成したものや、ガラスエポキシ基材をコアとする単層または多層構造の基板を使用して製作することができる。LED62は、投影機構66に向けて放射状のアンバー色の光を広い面積で発光する光源であり、表側が透明樹脂製であるLEDケーシング100内に収容されている。   The substrate 60 is electrically connected to the mounted LED 62 by mounting the LED 62 on the substrate 60. The substrate 60 is manufactured using, for example, an aluminum substrate coated with an insulating synthetic resin and then patterned by electroless plating, or a single-layer or multi-layer substrate having a glass epoxy base as a core. can do. The LED 62 is a light source that emits radial amber light toward the projection mechanism 66 in a wide area, and is housed in an LED casing 100 whose front side is made of transparent resin.

図7に示すように、照明絞り63は、LED62から出力された光のうち不要な部分を遮蔽することにより、必要な部分のみを光源レンズ64に誘導するために設けられている。光源レンズ64は、LED62から放射状に発光される光を集光するレンズであり、その材質はアクリルに代表される光学プラスチックである。   As shown in FIG. 7, the illumination stop 63 is provided to guide only a necessary portion to the light source lens 64 by shielding an unnecessary portion of the light output from the LED 62. The light source lens 64 is a lens that collects light emitted radially from the LED 62, and the material thereof is an optical plastic represented by acrylic.

本実施形態においては、図7に示すように、LED62から発光される放射状の光が、光源レンズ64によって効率良く集光され、LED62からの出射光が投影機構66の入射面106に、所定の円錐頂角を有する入射角特性を持って、その円錐の軸が略直角であるように、入射するとともに、指向性の高い放射光として投影機構66の出射面108から出射する。この意味において、光源レンズ64は、コリメートレンズとして機能する。図7には、その出射面108上において互いに隔たった2個の注目点A,Bにつき、それぞれの指向性特性が照度分布のグラフ(θ:半値拡がり半角)で表されている。   In the present embodiment, as shown in FIG. 7, the radial light emitted from the LED 62 is efficiently collected by the light source lens 64, and the emitted light from the LED 62 is incident on the incident surface 106 of the projection mechanism 66 on a predetermined surface. It has an incident angle characteristic having a cone apex angle, and is incident so that the axis of the cone is substantially a right angle, and is emitted from the exit surface 108 of the projection mechanism 66 as radiation having high directivity. In this sense, the light source lens 64 functions as a collimating lens. In FIG. 7, the directivity characteristics of two attention points A and B separated from each other on the emission surface 108 are represented by an illuminance distribution graph (θ: half-value spread half angle).

投影光学系32は、投影機構66を通過した光を被写体Sに向かって投影するための複数枚の投影レンズ34を含んでいる。それら投影レンズ34は、ガラス製レンズと光学プラスチック製レンズとの組合せから成るテレセントリックなレンズ構成を有している。   The projection optical system 32 includes a plurality of projection lenses 34 for projecting light that has passed through the projection mechanism 66 toward the subject S. These projection lenses 34 have a telecentric lens configuration composed of a combination of a glass lens and an optical plastic lens.

ここに、「テレセントリック」という用語は、ここで述べた入射側テレセントリック特性を例にとり説明するに、投影光学系32を通過する主光線が、入射側の空間では光軸に平行になり、入射瞳の位置が無限になる構成を意味する。   Here, the term “telecentric” is described by taking the incident-side telecentric characteristics described here as an example. The principal ray passing through the projection optical system 32 is parallel to the optical axis in the incident-side space, and the entrance pupil This means that the position of is infinite.

投影光学系32は、上述のようにテレセントリック特性を持ち、その入射開口角θNAが0.1程度であるため、入射開口角θNAとして垂直±5°以内の光のみが投影光学系32の内部の絞り36を通過できるように、投影光学系32の光路が規制されている。   Since the projection optical system 32 has telecentric characteristics as described above and has an incident aperture angle θNA of about 0.1, only light within ± 5 ° perpendicular to the incident aperture angle θNA is inside the projection optical system 32. The optical path of the projection optical system 32 is restricted so that it can pass through the aperture 36.

したがって、本実施形態においては、投影光学系32のテレセントリック性により、投影機構66を垂直±5°内で通過する光のみを投影光学系32によって物体に投影し得る構成と相俟って、投影画像の画質向上を容易に図り得る。   Therefore, in the present embodiment, due to the telecentricity of the projection optical system 32, the projection optical system 32 can project only light that passes through the projection mechanism 66 within ± 5 ° perpendicular to the object. The image quality can be easily improved.

その理由を説明するに、被投影体(本実施形態においては、光変調体200が該当するが、一般には、スライドや透過型液晶が該当する。)から出射する特定の角度成分のみが結像に供される方が、解像度特性、スペクトラム特性、照度分布特性、コントラスト特性等、大半の光学的特性の仕様上、有利であるからである。   To explain the reason, only a specific angle component emitted from the projection target (in this embodiment, the light modulator 200 is applicable, but generally a slide or transmissive liquid crystal) is imaged. This is because it is advantageous in terms of specifications of most optical characteristics such as resolution characteristics, spectrum characteristics, illuminance distribution characteristics, and contrast characteristics.

ここで、図9ないし図11を参照することにより、投影部12のハードウエア構成のうち投影機構66を詳細に説明する。   Here, the projection mechanism 66 in the hardware configuration of the projection unit 12 will be described in detail with reference to FIGS. 9 to 11.

この投影機構66は、光源部68からの入射光を複数種類のパターン光に選択的に変換し、それにより、被写体Sに投影されるパターン光の種類を切り替えて、それら複数種類のパターン光を順次被写体Sに投影するために設けられている。図9には、この投影機構66が正面図(投影機構66を投影光学系32の光軸方向において投影光学系32の側から見た図)で示されている。   This projection mechanism 66 selectively converts the incident light from the light source unit 68 into a plurality of types of pattern light, thereby switching the types of pattern light projected onto the subject S, and converting these types of pattern light into It is provided for sequentially projecting onto the subject S. FIG. 9 shows the projection mechanism 66 in a front view (a view of the projection mechanism 66 viewed from the projection optical system 32 side in the optical axis direction of the projection optical system 32).

この投影機構66は、光源部68からの入射光を複数種類のパターン光に選択的に変換し、それにより、被写体Sに投影されるパターン光の種類を切り替えるために、図9に示すように、板状を成して長さ方向に延びる光変調体200を、投影レンズ34の光軸に直交する姿勢で備えている。   As shown in FIG. 9, the projection mechanism 66 selectively converts incident light from the light source unit 68 into a plurality of types of pattern light, thereby switching the type of pattern light projected on the subject S. A light modulator 200 that is formed in a plate shape and extends in the length direction is provided in a posture orthogonal to the optical axis of the projection lens 34.

この投影機構66は、送りモータ65によって往復直線運動させられるキャリッジ202を備えており、そのキャリッジ202に光変調体200が、その光変調体200の面に平行な面内において回転調整可能に装着されている。投影機構66は、その送りモータ65の往復回転運動により、光変調体200をそれの長さ方向に送る。   The projection mechanism 66 includes a carriage 202 that is reciprocated linearly by a feed motor 65, and the light modulator 200 is mounted on the carriage 202 so as to be rotatable and adjustable in a plane parallel to the surface of the light modulator 200. Has been. The projection mechanism 66 feeds the light modulator 200 in the length direction by the reciprocating rotational movement of the feed motor 65.

具体的には、図9に示すように、投影機構66は、ハウジング204(測定ヘッドMHのハウジングとしても機能する。)を備えている。そのハウジング204に送りモータ65が取り付けられている。そのハウジング204のうち互いに対向する2つの支持部206,206の間に、主ガイド210と副ガイド212とが、半径方向に隙間を隔てて互いに平行に延びる姿勢で配置されている。   Specifically, as shown in FIG. 9, the projection mechanism 66 includes a housing 204 (also functions as a housing for the measurement head MH). A feed motor 65 is attached to the housing 204. A main guide 210 and a sub guide 212 are arranged between the two support portions 206 and 206 of the housing 204 facing each other so as to extend in parallel to each other with a gap in the radial direction.

それら主ガイド210と副ガイド212とはそれぞれ、両端において2つの支持部206,206にそれぞれ固定的に取り付けられている。それら主ガイド210と副ガイド212とはいずれも、同一の円形断面を有して真っ直ぐに延びており、素材は例えばステンレスであり、また、外形は例えば円筒度が3μm程度である精度で加工されている。それら主ガイド210と副ガイド212とはいずれも、光変調体200の背後に位置するLED62(図示しない)からの入射光と交差する方向に直線的に延びる送りガイドとして機能する。   The main guide 210 and the sub guide 212 are fixedly attached to the two support portions 206 and 206 at both ends, respectively. Both the main guide 210 and the sub guide 212 have the same circular cross section and extend straight, the material is, for example, stainless steel, and the outer shape is processed with an accuracy such that the cylindricity is, for example, about 3 μm. ing. Both the main guide 210 and the sub guide 212 function as a feed guide that linearly extends in a direction intersecting with incident light from an LED 62 (not shown) located behind the light modulator 200.

それら主ガイド210と副ガイド212とにより、キャリッジ202が直線的に往復運動可能に案内される。その案内を実現するために、図9に示すように、キャリッジ202は、それの移動方向と直角な方向に隔たった嵌合部214とスライダ216とを備えている。   By the main guide 210 and the sub guide 212, the carriage 202 is guided so as to linearly reciprocate. In order to realize the guidance, as shown in FIG. 9, the carriage 202 includes a fitting portion 214 and a slider 216 which are separated in a direction perpendicular to the moving direction thereof.

キャリッジ202は、嵌合部214において、主ガイド210の軸線まわりに摺動可能にその主ガイド210に支持される。具体的には、例えば、嵌合部214にすべり軸受(油浸ポーラス金属体から成り、主ガイド210との液体界面を用いた摺動を可能にする)218が固定され、そのすべり軸受218に主ガイド210が、介在する潤滑剤(グリス等)を用いて摺動可能に嵌合される。   The carriage 202 is supported by the main guide 210 at the fitting portion 214 so as to be slidable around the axis of the main guide 210. Specifically, for example, a sliding bearing (made of an oil-immersed porous metal body that enables sliding using the liquid interface with the main guide 210) 218 is fixed to the fitting portion 214, and the sliding bearing 218 is fixed to the sliding bearing 218. The main guide 210 is slidably fitted using an intervening lubricant (such as grease).

それら主ガイド210とすべり軸受218とは、それらの間の嵌合すきま精度が最大でも12μmであるように、それら主ガイド210とすべり軸受218とのそれぞれの部品形状精度が管理されつつ、製造される。このような構成を採用することにより、それら主ガイド210とすべり軸受218との間の嵌合すきまに起因する光変調体200の位置ずれを12μm以内に抑えることが可能となる。その結果、被写体Sにパターン光を投影位置のずれが少ない状態で正確に投影することが可能となる。   The main guide 210 and the slide bearing 218 are manufactured while controlling the component shape accuracy of the main guide 210 and the slide bearing 218 so that the fitting clearance accuracy between them is 12 μm at the maximum. The By adopting such a configuration, it is possible to suppress the positional deviation of the light modulator 200 due to the fitting clearance between the main guide 210 and the slide bearing 218 within 12 μm. As a result, it is possible to accurately project the pattern light onto the subject S in a state where the deviation of the projection position is small.

投影光学系32の倍率を40倍であると仮定すれば、光変調体200の位置ずれが12μmを超えない限り、被写体S上におけるパターン光の位置ずれは、0.48mmを超えない。このように、がたの少ない高精度な直線運動機構と、移動する光変調体200という適切な組合せにより、被写体Sの3次元入力精度を向上させることが容易となる。   Assuming that the magnification of the projection optical system 32 is 40, the positional deviation of the pattern light on the subject S does not exceed 0.48 mm unless the positional deviation of the light modulator 200 exceeds 12 μm. As described above, it is easy to improve the three-dimensional input accuracy of the subject S by an appropriate combination of the highly accurate linear motion mechanism with less play and the moving light modulator 200.

一方、キャリッジ202はスライダ216において、副ガイド212の外周面に接触する状態で、その外周面に沿って副ガイド212の軸線方向に摺動させられる。スライダ216は、副ガイド212の外周面に、介在する潤滑剤(グリス等)を介して摺動可能に押し付けられる。その押付けは、後述の送りベルト220に予め付与されたテンションを利用して行われる。   On the other hand, the carriage 202 is slid along the outer peripheral surface of the slider 216 in the axial direction of the sub guide 212 while being in contact with the outer peripheral surface of the sub guide 212. The slider 216 is slidably pressed against the outer peripheral surface of the sub guide 212 via an intervening lubricant (such as grease). The pressing is performed using a tension applied in advance to a feed belt 220 described later.

本実施形態においては、キャリッジ202が、主ガイド210まわりに正逆両方向にスライド回転可能にその主ガイド210に嵌合されているが、スライダ216と副ガイド212との当接により、それら正逆両方向のスライド回転が一方向的に機械的に阻止されている。一方、光変調体200は、後に詳述するが、選択的に実現されるべき複数種類のパターン光投影に対応する複数の平面的光学素子260(図12参照)を備えている。それら複数種類のパターン光投影に対応する複数の平面的光学素子260は同一平面内に直列して並んでいる。本実施形態においては、キャリッジ202が副ガイド212に当接している状態において光源部68からの入射光の進行方向が複数の平面的光学素子260に実質的に垂直入射するように、キャリッジ202が投影機構66に配置される。   In this embodiment, the carriage 202 is fitted to the main guide 210 so as to be slidable and rotatable in both forward and reverse directions around the main guide 210, but the forward and reverse directions of the carriage 202 are brought about by contact between the slider 216 and the sub guide 212. Both directions of slide rotation are mechanically blocked in one direction. On the other hand, the light modulator 200 includes a plurality of planar optical elements 260 (see FIG. 12) corresponding to a plurality of types of pattern light projections to be selectively realized, which will be described in detail later. A plurality of planar optical elements 260 corresponding to the plurality of types of pattern light projections are arranged in series in the same plane. In the present embodiment, the carriage 202 is arranged such that the traveling direction of incident light from the light source unit 68 is substantially perpendicularly incident on the plurality of planar optical elements 260 in a state where the carriage 202 is in contact with the sub guide 212. Arranged on the projection mechanism 66.

なお付言するに、本実施形態においては、主ガイド210も副ガイド212も、円筒外周面を有するロッドとして構成されているが、少なくとも副ガイド212については、そのように構成することは不可欠ではない。例えば、副ガイド212は、それの軸線に平行に延びる平面部を有するように構成され、その平面部においてスライダ216を平面的に受けるものとすることが可能である。   In addition, in this embodiment, although the main guide 210 and the sub guide 212 are both configured as rods having a cylindrical outer peripheral surface, it is not essential to configure at least the sub guide 212 as such. . For example, the sub-guide 212 can be configured to have a flat portion extending parallel to the axis thereof, and the slider 216 can be received in a plane on the flat portion.

図9に示すように、投影機構66は、さらに、キャリッジ202を主ガイド210および副ガイド212に沿って駆動する駆動機構222を備えている。この駆動機構222は、送りモータ65と、送りベルト220(閉曲線を形成する伝動媒体の一例)とを備えている。   As shown in FIG. 9, the projection mechanism 66 further includes a drive mechanism 222 that drives the carriage 202 along the main guide 210 and the sub guide 212. The drive mechanism 222 includes a feed motor 65 and a feed belt 220 (an example of a transmission medium that forms a closed curve).

図9に示すように、送りベルト220は、主ガイド210と副ガイド212との間の長い空間内に配置されている。その空間内に、駆動ギヤ(駆動回転体の一例)224と従動ギヤ(従動回転体の一例)226とが、キャリッジ202の移動方向において隔たって配置されている。それら駆動ギヤ224と従動ギヤ226とに送りベルト220が巻き掛けられている。送りベルト220の内周面に複数の歯が形成されており、それら歯は、駆動ギヤ224の外周面に形成された複数の歯と、従動ギヤ226の外周面に形成された複数の歯とにかみ合わされている。   As shown in FIG. 9, the feed belt 220 is disposed in a long space between the main guide 210 and the sub guide 212. In the space, a drive gear (an example of a drive rotator) 224 and a driven gear (an example of a driven rotator) 226 are arranged apart from each other in the moving direction of the carriage 202. A feed belt 220 is wound around the drive gear 224 and the driven gear 226. A plurality of teeth are formed on the inner peripheral surface of the feed belt 220, and these teeth include a plurality of teeth formed on the outer peripheral surface of the drive gear 224 and a plurality of teeth formed on the outer peripheral surface of the driven gear 226. Is engaged.

それら駆動ギヤ224と従動ギヤ226とに送りベルト220が巻き掛けられる結果、その送りベルト220に2本の直線部が形成され、それら2本の直線部のうちの一方にキャリッジ202が固定されている。具体的には、送りベルト220の一端が、キャリッジ202においてそれの移動方向に隔たった2つの連結部230,230の一方に固定される一方、他端がそれら2つの連結部230,230の他方に固定されている。   As a result of the feed belt 220 being wound around the drive gear 224 and the driven gear 226, two straight portions are formed on the feed belt 220, and the carriage 202 is fixed to one of the two straight portions. Yes. Specifically, one end of the feed belt 220 is fixed to one of the two connecting portions 230 and 230 separated in the moving direction of the carriage 202, and the other end is the other of the two connecting portions 230 and 230. It is fixed to.

駆動ギヤ224は、送りモータ65によって駆動され、それにより、送りベルト220の往復直線運動が実現される。一方、従動ギヤ226は、ハウジング204に固定された支持シャフト234に回転可能に支持されている。   The drive gear 224 is driven by the feed motor 65, whereby the reciprocating linear motion of the feed belt 220 is realized. On the other hand, the driven gear 226 is rotatably supported by a support shaft 234 fixed to the housing 204.

図10には、投影機構66のうちの光変調体200およびキャリッジ202が、光源部68および投影光学系32と共に、平面図、すなわち、光源部68および投影光学系32に共通の光軸に直角な方向において見た図で示されている。   In FIG. 10, the light modulator 200 and the carriage 202 of the projection mechanism 66 together with the light source unit 68 and the projection optical system 32 are plan views, that is, perpendicular to the optical axis common to the light source unit 68 and the projection optical system 32. It is shown in the figure seen in various directions.

図10に示すように、光源部68は、コリメートレンズ240がコリメートレンズ鏡筒242に保持されて構成されている。コリメートレンズ240は、図6に示す照明絞り63と光源レンズ64とを含むように構成されている。   As shown in FIG. 10, the light source unit 68 is configured by a collimating lens 240 held by a collimating lens barrel 242. The collimating lens 240 is configured to include the illumination stop 63 and the light source lens 64 shown in FIG.

図10に示すように、投影光学系32は、鏡筒24が鏡筒ホルダ250にねじ込まれることによって構成されている。鏡筒24には、図6に示すように、複数の投影レンズ34と絞り36とが配列されている。鏡筒ホルダ250は、ハウジング204に形成された凹部252に嵌め込まれて位置決めされた状態で、ハウジング204に取り付けられている。   As shown in FIG. 10, the projection optical system 32 is configured by screwing the lens barrel 24 into the lens barrel holder 250. As shown in FIG. 6, a plurality of projection lenses 34 and a diaphragm 36 are arranged in the lens barrel 24. The lens barrel holder 250 is attached to the housing 204 in a state where the lens barrel holder 250 is fitted and positioned in a recess 252 formed in the housing 204.

図9および図10に示すように、光変調体200は、複数の平面的光学素子260が基板264上に平面的に一列に並んで形成されている。   As shown in FIGS. 9 and 10, the light modulator 200 has a plurality of planar optical elements 260 formed on a substrate 264 in a line in a plane.

ここで、光変調体200の製造プロセスを説明するに、それら複数の平面的光学素子260の形状の反転形状が高精度で形成された金型(図示しない)を基板264の表面(出射面108となる面)に押し付けることにより、その金型の形状を高精度に基板264の表面に転写するインプリント成型技術が実施される。この転写により、基板264上に複数の平面的光学素子260が形成される。それら平面的光学素子60の形状、光学的作用および製法については、後に詳述する。   Here, the manufacturing process of the light modulator 200 will be described. A mold (not shown) in which the inverted shape of the plurality of planar optical elements 260 is formed with high accuracy is attached to the surface of the substrate 264 (the emission surface 108). The imprint molding technique for transferring the shape of the mold onto the surface of the substrate 264 with high accuracy is performed. By this transfer, a plurality of planar optical elements 260 are formed on the substrate 264. The shape, optical action, and manufacturing method of these planar optical elements 60 will be described in detail later.

図9ないし図11に示すように、投影機構66は、さらに、光変調体200の、それに平行な面(光変調体200が移動させられる平面である移動平面)回転角度(光変調体200に平行な面内における傾き)を調整する回転角度調整機構270を備えている。その回転角度調整機構270は、基板264をキャリッジ202に、前記移動平面内において回転可能な状態で支持させる支持機構272と、基板264を前記移動平面内においてキャリッジ202に対して相対的に回転させる回転機構274とを含むように構成されている。本実施形態においては、光変調体200のうちの基板264が、複数の平面的光学素子260を支持する直線可動部材として機能する。   As shown in FIGS. 9 to 11, the projection mechanism 66 further includes a plane parallel to the light modulator 200 (moving plane that is a plane on which the light modulator 200 is moved) rotation angle (on the light modulator 200. A rotation angle adjusting mechanism 270 for adjusting the inclination in the parallel plane is provided. The rotation angle adjusting mechanism 270 rotates the substrate 264 relative to the carriage 202 within the moving plane, and a support mechanism 272 that supports the substrate 264 on the carriage 202 while being rotatable in the moving plane. And a rotation mechanism 274. In the present embodiment, the substrate 264 of the light modulator 200 functions as a linear movable member that supports the plurality of planar optical elements 260.

図9および図10に示すように、支持機構272は、基板264を、それの移動方向における両側位置においてそれぞれ保持する一対のホルダ280,280を備えている。図11には、それら一対のホルダ280,280のうち図9において右側に位置するホルダ280のみが代表的に、その周辺の要素と共に、拡大されて正面図で示されている。   As shown in FIGS. 9 and 10, the support mechanism 272 includes a pair of holders 280 and 280 that hold the substrate 264 at both side positions in the moving direction thereof. In FIG. 11, only the holder 280 located on the right side in FIG. 9 among the pair of holders 280 and 280 is typically shown in an enlarged front view together with its peripheral elements.

図10に示すように、各ホルダ280は、基板264のうち対応する部分を、それの板厚方向において両側から、僅かな隙間を残して挟むように保持する。一対のホルダ280,280により、光変調体200がキャリッジ202の背面側に配置されるが、光変調体200から投影光学系32への光の出射が、キャリッジ202に形成された貫通穴284を経て行われる。   As shown in FIG. 10, each holder 280 holds a corresponding portion of the substrate 264 from both sides in the thickness direction of the substrate 264 so as to sandwich a slight gap. The light modulator 200 is arranged on the back side of the carriage 202 by the pair of holders 280, 280, but light is emitted from the light modulator 200 to the projection optical system 32 through a through hole 284 formed in the carriage 202. After that.

各ホルダ280において基板264は、その基板264に平行な面内において相対移動(相対回転運動を含む。)することを許容されるが、各ホルダ280に取り付けられた固定具としての固定ねじ286が基板264に向かってねじ込まれると、基板264がそのときの位置に機械的に固定される。   In each holder 280, the substrate 264 is allowed to relatively move (including relative rotational movement) in a plane parallel to the substrate 264, but a fixing screw 286 as a fixture attached to each holder 280 is provided. When screwed in toward the substrate 264, the substrate 264 is mechanically fixed at that position.

図11に示すように、回転機構274は、調整コマ290を主体として構成されている。その調整コマ290は、調整ねじ292と、その調整ねじ292が螺合された本体部294とを含むように構成されている。その調整ねじ292は、本体部294に形成されためねじに螺合されるおねじとして構成されている。この調整ねじ292は、前記移動平面に平行な回転中心線を有している。   As shown in FIG. 11, the rotation mechanism 274 is configured mainly with an adjustment piece 290. The adjustment piece 290 is configured to include an adjustment screw 292 and a main body portion 294 to which the adjustment screw 292 is screwed. The adjustment screw 292 is formed as a male screw that is formed on the main body 294 and is screwed into the screw. The adjustment screw 292 has a rotation center line parallel to the moving plane.

図11に示すように、本体部294は基板264に固定されている。調整ねじ292は、それの先端において本体部294から突出しており、その突出部においてキャリッジ202に係合させられている。調整ねじ292は、それの頭部において、作業者によって回転操作される。その回転操作量に応じ、調整ねじ292の、本体部294からの突出量が変化し、ひいては、本体部294とキャリッジ202との距離が光変調体200に平行な面内において変化する。   As shown in FIG. 11, the main body portion 294 is fixed to the substrate 264. The adjustment screw 292 protrudes from the main body 294 at the tip thereof, and is engaged with the carriage 202 at the protruding portion. The adjustment screw 292 is rotated by the operator at the head thereof. In accordance with the rotation operation amount, the amount of protrusion of the adjustment screw 292 from the main body 294 changes, and as a result, the distance between the main body 294 and the carriage 202 changes in a plane parallel to the light modulator 200.

したがって、この調整コマ290によれば、作業者による操作量に応じて光変調体200の回転角度すなわち面内傾きを微調整することが可能となる。その微調整量は、直線運動装置(キャリッジ202)の移動直線に対して具体的には平行度12μm程度の公差範囲内に設定されている。その結果、被写体Sの3次元入力精度を向上させることが容易となる。   Therefore, according to the adjustment piece 290, it is possible to finely adjust the rotation angle of the light modulator 200, that is, the in-plane inclination, according to the operation amount by the operator. Specifically, the fine adjustment amount is set within a tolerance range with a parallelism of about 12 μm with respect to the movement straight line of the linear motion device (carriage 202). As a result, it becomes easy to improve the three-dimensional input accuracy of the subject S.

なお付言するに、図示しないが、固定ねじ286および調整ねじ292は、それらが螺合されている部分との間にねじ固定接着剤が塗布されることにより、緩みを防止されている。   In addition, although not shown, the fixing screw 286 and the adjusting screw 292 are prevented from loosening by applying a screw fixing adhesive between the fixing screw 286 and the adjusting screw 292.

図10に示すように、ハウジング204は、投影光学系32の背後において局部的にキャリッジ202に向かって突出している。具体的には、ハウジング204は、投影光学系32の背後において、キャリッジ202を貫通して光変調体200の出射面108の近傍位置まで延びる、遮光性を有して薄肉角錐状を成す誘導部296を有している。   As shown in FIG. 10, the housing 204 protrudes locally toward the carriage 202 behind the projection optical system 32. Specifically, the housing 204 extends behind the projection optical system 32 and extends to a position near the exit surface 108 of the light modulator 200 and has a light shielding property and has a thin pyramid shape. 296.

その誘導部296は、それの先端において窓部297を有しており、その窓部297において、複数の平面的光学素子260のうち選択されたもののみに光学的に連通する。それら誘導部296および窓部297は、ハウジング204と一体成型されて形成されており、その材料としては、成型精度の高いガラスファイバー補強ポリカーボネートが代表的である。   The guide portion 296 has a window portion 297 at the tip thereof, and the window portion 297 optically communicates only with a selected one of the plurality of planar optical elements 260. The guide portion 296 and the window portion 297 are formed integrally with the housing 204, and the material is typically glass fiber reinforced polycarbonate with high molding accuracy.

選択された一つの平面的光学素子260から出射したパターン光のみが、光透過性を有する窓部297を経て、誘導部296内の空間に進入する。その進入したパターン光は、その後、誘導部296の外部に漏れることなく、投影光学系32に入射する。誘導部296は、外部から外乱光が進入して投影光学系32に入射することを阻止する。   Only the pattern light emitted from the selected planar optical element 260 enters the space in the guiding portion 296 through the window portion 297 having light transmittance. The entered pattern light then enters the projection optical system 32 without leaking outside the guiding portion 296. The guiding unit 296 prevents disturbance light from entering from the outside and entering the projection optical system 32.

図9に示すように、ハウジング204に位置決めポスト298が固定され、その位置決めポスト298に、位置センサとしてのフォトインタラプタ300が取り付けられている。このフォトインタラプタ300は、キャリッジ202と一体的に移動する位置決め爪(被検出子)302を光学的に検出し、それにより、キャリッジ202が特定の位置に位置することが検出される。   As shown in FIG. 9, a positioning post 298 is fixed to the housing 204, and a photo interrupter 300 as a position sensor is attached to the positioning post 298. The photo interrupter 300 optically detects a positioning claw (detected element) 302 that moves integrally with the carriage 202, and thereby detects that the carriage 202 is located at a specific position.

図8に示すように、フォトインタラプタ300は処理部16に電気的に接続されている。フォトインタラプタ300から処理部16に出力されるPI信号は、位置決め爪302がなければ、光がフォトインタラプタ300に入射するローレベル(有効)にあるが、位置決め爪302を検出すると、光が遮断されてフォトインタラプタ300に入射しないハイレベルに変化するように設計されている。   As shown in FIG. 8, the photo interrupter 300 is electrically connected to the processing unit 16. The PI signal output from the photo interrupter 300 to the processing unit 16 is at a low level (effective) where light is incident on the photo interrupter 300 if there is no positioning claw 302, but if the positioning claw 302 is detected, the light is blocked. Thus, it is designed to change to a high level that does not enter the photo interrupter 300.

ここで、図12ないし図14を参照することにより、光変調体200を詳細に説明する。   Here, the light modulator 200 will be described in detail with reference to FIGS.

図12には、その光変調体200が拡大されて正面図で示されている。この光変調体200には、前記複数種類のパターン光にそれぞれ対応する複数の平面的光学素子260が光変調体200の長さ方向に一列にかつ平面的に並んで形成されている。それら平面的光学素子260は選択的に、図10に示す窓部297に正対するように位置決めされる。   In FIG. 12, the light modulator 200 is enlarged and shown in a front view. In this light modulator 200, a plurality of planar optical elements 260 respectively corresponding to the plurality of types of pattern light are formed in a line and in a plane in the length direction of the light modulator 200. These planar optical elements 260 are selectively positioned to face the window 297 shown in FIG.

本実施形態においては、被写体Sを撮像するために8種類のパターン光が順次被写体Sに投影される。それら8種類のパターン光は、被写体Sの3次元形状を後述の空間コード化法によって測定するために被写体Sの撮像時にその被写体Sに投影される8種類のパターン光である。そのような投影を行うため、図12に示すように、光変調体200は、それら8種類のパターン光にそれぞれ対応する8個の平面的光学素子260を備えている。図12には、8個の平面的光学素子260のパターン番号PN0ないし7がそれぞれ、コード0ないし7として表記されている。   In the present embodiment, eight types of pattern light are sequentially projected onto the subject S in order to image the subject S. These eight types of pattern light are eight types of pattern light that are projected onto the subject S when the subject S is imaged in order to measure the three-dimensional shape of the subject S by a spatial encoding method described later. In order to perform such projection, as shown in FIG. 12, the light modulator 200 includes eight planar optical elements 260 respectively corresponding to the eight types of pattern light. In FIG. 12, the pattern numbers PN0 to PN7 of the eight planar optical elements 260 are indicated as codes 0 to 7, respectively.

光変調体200は、成形が容易である透明材料を用いた板状の成型品である。そのような透明材料としては、例えば、最も一般に使用されるアクリル系光学プラスチックとしてのPMMAや、非晶質ポリオレフィンという光学プラスチックであって吸湿による膨張が抑制されたものや、成型に適した低融点のモールドガラス材料等がある。光変調体200は、通常のレンズ成型プロセス(例えば、光学プラスチックレンズ成型プロセス)と同じプロセスによって製造される。そのプロセスは、金型を用いて行われ、その金型には、光変調体200(8個の平面的光学素子260)の目標表面形状の反転形状が精密加工技術によって形成される。   The light modulator 200 is a plate-shaped molded product using a transparent material that can be easily molded. Such transparent materials include, for example, PMMA as the most commonly used acrylic optical plastic, an optical plastic called amorphous polyolefin, which has suppressed expansion due to moisture absorption, and a low melting point suitable for molding. There is a mold glass material. The light modulator 200 is manufactured by the same process as a normal lens molding process (for example, an optical plastic lens molding process). The process is performed using a mold, and a reverse shape of the target surface shape of the light modulator 200 (eight planar optical elements 260) is formed on the mold by a precision processing technique.

そのようにして加工された金型を用いて、上記のようにして選定された材料に対して射出成型や注型成型という量産型成型プロセスを適用すると、その材料から成る基板264の表面に、微小な凹凸形状のパターンが転写される。一般に、そのパターン転写精度はナノメートル精度であり、このことに着目し、その転写技術はナノインプリント技術と称される。   When a mass-production molding process such as injection molding or cast molding is applied to the material selected as described above using the mold thus processed, the surface of the substrate 264 made of the material is applied to the surface. A minute uneven pattern is transferred. In general, the pattern transfer accuracy is nanometer accuracy, and paying attention to this, the transfer technology is referred to as nanoimprint technology.

したがって、このように高精度転写が可能なプロセスによって光変調体200を製造すれば、光変調体200の表面形状の精度が向上し、ひいては、3次元入力装置10の3次元入力精度も向上する。さらに、このプロセスは、光変調体200の量産に適しているため、光変調体200の形状精度を限界まで高め、しかも、光変調体200の生産コストを限界まで低減させることが可能となるというように、顕著な効果を奏する。   Therefore, if the light modulator 200 is manufactured by a process capable of high-accuracy transfer in this way, the accuracy of the surface shape of the light modulator 200 is improved, and consequently, the three-dimensional input accuracy of the three-dimensional input device 10 is also improved. . Further, since this process is suitable for mass production of the light modulator 200, the shape accuracy of the light modulator 200 can be increased to the limit, and the production cost of the light modulator 200 can be reduced to the limit. As such, it has a remarkable effect.

次に、光変調体200の形状および光学的作用を、1個の平面的光学素子260に注目して説明する。   Next, the shape and optical action of the light modulator 200 will be described with a focus on one planar optical element 260.

まず、概略的に説明するに、光変調体200は、光源部68から出射した光が入射光として入射し、その入射光が、空間に関して周期的に、かつ、角度的に変調されて出射光として出射する。この光変調体200は、前記入射光と交差する向きに延びており、前記入射光が入射するとその入射光に対し、光変調体200の表面形状に依存した光学的変調すなわち周期的角度変調を行う。本実施形態において、「変調」とは、偏向作用を意味する。   First, as schematically described, in the light modulator 200, the light emitted from the light source unit 68 is incident as incident light, and the incident light is periodically and angularly modulated with respect to the space to be emitted. To be emitted. The light modulator 200 extends in a direction crossing the incident light. When the incident light is incident, the light modulator 200 performs optical modulation, that is, periodic angle modulation depending on the surface shape of the light modulator 200. Do. In the present embodiment, “modulation” means a deflection action.

一方、図7に示すように、投影光学系32の鏡筒24(投影レンズ34および絞り36を含む。)は、光変調体200からの出射光の複数の角度成分のうち、予め定められた入射開口、すなわち、その入射開口角θNA内に適合する放射角特性を有するものを選択的に通過させる。   On the other hand, as shown in FIG. 7, the lens barrel 24 (including the projection lens 34 and the diaphragm 36) of the projection optical system 32 is predetermined among a plurality of angle components of the light emitted from the light modulator 200. An incident aperture, that is, one having a radiation angle characteristic that fits within the incident aperture angle θNA is selectively passed.

各種類のパターン光は、投影結果として明部と暗部とが並ぶように生成される。そのような配列を実現するために、光変調体200は、表面形状が互いに異なる2つの部分、すなわち、本実施形態においては、図13に断面図で示すように、光直進部310および光偏向部312が少なくとも1組、光変調体200に沿った方向において交互に並ぶように構成されている。   Each type of pattern light is generated so that a bright part and a dark part are aligned as a projection result. In order to realize such an arrangement, the light modulator 200 includes two portions having different surface shapes, that is, in this embodiment, as shown in a cross-sectional view in FIG. At least one set of the portions 312 is configured to be alternately arranged in the direction along the light modulator 200.

光直進部310からは、前記入射開口に適合する放射角特性を有する角度成分が、その後に投影光学系32を通過する通過光成分として出射する。したがって、この光直進部310から出射して投影光学系32を通過する光により、各種類のパターン光における明部が生成される。   An angle component having a radiation angle characteristic suitable for the incident aperture is emitted from the light straight traveling section 310 as a passing light component that subsequently passes through the projection optical system 32. Therefore, the bright part in each type of pattern light is generated by the light emitted from the light straight traveling part 310 and passing through the projection optical system 32.

これに対し、光偏向部312からは、前記入射開口に適合しない放射角特性を有する角度成分が、その後に投影光学系32を通過しない非通過光成分として出射する。したがって、この光偏向部312から出射したが投影光学系32を通過しない光の存在により、各種類のパターン光における暗部が生成される。このようにして、被写体Sに投影されるパターン光に、明部と暗部の幾何パターンが形成される。   On the other hand, an angle component having a radiation angle characteristic that does not match the incident aperture is emitted from the light deflecting unit 312 as a non-passing light component that does not pass through the projection optical system 32 thereafter. Therefore, due to the presence of light emitted from the light deflecting unit 312 but not passing through the projection optical system 32, a dark part in each type of pattern light is generated. In this way, a bright portion and a dark portion geometric pattern are formed in the pattern light projected onto the subject S.

光変調体200は、本実施形態においては、空間に関して非選択的に前記入射光を透過する透過型である。すなわち、この光変調体200に入射した光はその入射位置の如何を問わず概ねすべてこの光変調体200を通過するのである。   In this embodiment, the light modulator 200 is a transmission type that transmits the incident light in a non-selective manner with respect to space. That is, almost all of the light incident on the light modulator 200 passes through the light modulator 200 regardless of the incident position.

この光変調体200は、上述のように、光直進部310と光偏向部312とが並ぶように構成されるが、それら光直進部310と光偏向部312とは、前記入射光を透過する光学系である点では共通する。   As described above, the light modulator 200 is configured such that the light rectilinear unit 310 and the light deflecting unit 312 are arranged, and the light rectilinear unit 310 and the light deflecting unit 312 transmit the incident light. It is common in that it is an optical system.

ただし、光直進部310は、図13に示すように、前記入射光に対して直交する面としての部分出射面320を有し、その部分出射面320によって前記入射光が変調されずに出射し、これに対し、光偏向部312は、前記入射光に対して傾斜する面群としての部分出射面322を有し、その部分出射面322によって前記入射光が変調されて出射する。   However, as shown in FIG. 13, the light rectilinear portion 310 has a partial emission surface 320 as a surface orthogonal to the incident light, and the incident light is emitted by the partial emission surface 320 without being modulated. On the other hand, the light deflection unit 312 has a partial emission surface 322 as a group of surfaces inclined with respect to the incident light, and the incident light is modulated by the partial emission surface 322 and emitted.

図13においては、光直進部310への入射光が「Lin−S」で表記され、光直進部310からの出射光であってその入射光Lin−Sと平行であるものが「Lout−S」で表記されている。また、光偏向部312への入射光が「Lin−D」で表記され、光偏向部312からの出射光であってその入射光Lin−Dに対して一定角度で偏向されたものが「Lout−D」で表記されている。   In FIG. 13, the incident light to the light straight traveling unit 310 is represented by “Lin-S”, and the light emitted from the light straight traveling unit 310 that is parallel to the incident light Lin-S is “Lout-S”. ". Further, the incident light to the light deflecting unit 312 is expressed as “Lin-D”, and the light emitted from the light deflecting unit 312 and deflected at a certain angle with respect to the incident light Lin-D is “Lout”. -D ".

以上要するに、光直進部310は、光の進行角度を変調する角度変調(偏向)作用を有しないのに対し、光偏向部312は、それを有するというように、それら光直進部310と光偏向部312とは、角度変調作用の有無、すなわち、出射光の出射角度に関しては相違するのである。   In short, the light rectilinear unit 310 does not have an angle modulation (deflection) action for modulating the traveling angle of light, whereas the light deflector 312 includes the light rectilinear unit 310 and the light deflector. This is different from the unit 312 in terms of the presence or absence of an angle modulation action, that is, the emission angle of emitted light.

光変調体200の出射面108の表面形状をさらに詳細に説明するに、光直進部310の部分出射面320は、平面形状を有しており、これに対し、光偏向部312の部分出射面322は、本実施形態においては、斜面群から成る屋根型プリズム形状を有している。   The surface shape of the light exit surface 108 of the light modulator 200 will be described in more detail. The partial light exit surface 320 of the light rectilinear portion 310 has a planar shape, whereas the partial light exit surface of the light deflector 312. In this embodiment, 322 has a roof-type prism shape composed of slope groups.

図14には、光変調体200の出射面108の表面形状がさらに拡大して断面図で示されている。図14を参照することにより、光変調体200における光変調作用としての光偏向作用を詳細に説明する。   In FIG. 14, the surface shape of the emission surface 108 of the light modulator 200 is further enlarged and shown in a sectional view. With reference to FIG. 14, the light deflection action as the light modulation action in the light modulator 200 will be described in detail.

それに先立ち、各種記号を次のように定義する。   Prior to that, various symbols are defined as follows.

θ:屋根型プリズムのチルト角   θ: Tilt angle of roof prism

θt:光偏向角(出射面108の法線NLすなわち光変調体200への入射光に対する出射光の進行角度)   θt: light deflection angle (normal line NL of the exit surface 108, that is, the traveling angle of the emitted light with respect to the incident light on the light modulator 200)

θi:入射半角   θi: incident half angle

p:屋根型プリズムの幅   p: width of the roof-type prism

d:屋根型プリズムの深さ   d: Depth of roof-type prism

なお付言するに、深さdは、   Note that the depth d is

d=p・tanθ   d = p · tan θ

なる式によって定義されるため、チルト角θが5度、幅pが0.036mmである応用例においては、深さdが3.15μmとなる。 In the application example in which the tilt angle θ is 5 degrees and the width p is 0.036 mm, the depth d is 3.15 μm.

光変調体200の屈折率を「n」で表記すれば、光偏向角θtは、スネルの法則に従い、次式を用いて求められる。   If the refractive index of the light modulator 200 is expressed by “n”, the light deflection angle θt can be obtained using the following equation according to Snell's law.

n・sinθ=sin(θt−θ)   n · sin θ = sin (θt−θ)

屈折率nが1.49、チルト角θが5度である応用例においては、光偏向角θtが12.46度として求められる。光変調体200への入射光の入射半角θiが5度であると仮定すると、光偏向部312を通過した光は、出射面108の法線NLに対して7.46度以上の角度で光変調体200から出射光Lout−Dとして出射する。   In an application example in which the refractive index n is 1.49 and the tilt angle θ is 5 degrees, the light deflection angle θt is obtained as 12.46 degrees. Assuming that the incident half angle θi of the incident light to the light modulator 200 is 5 degrees, the light that has passed through the light deflecting unit 312 is light at an angle of 7.46 degrees or more with respect to the normal line NL of the emission surface 108. The light is emitted from the modulator 200 as outgoing light Lout-D.

前述のように、投影光学系32の鏡筒24は、前記入射開口が0.1、すなわち、入射開口角θNAが5度であるテレセントリック性を有しており、それの光軸に対して±5度以内の光しか絞り36を通過させないように設計されている。そのため、上記出射光Lout−Dの存在により、投影光学系32内に入射しても、光変調体200のパターン面すなわち出射面108に対して光学的に共役関係にある像面(例えば、被写体Sの表面)上に光が到達しない領域(暗部)が形成される。   As described above, the lens barrel 24 of the projection optical system 32 has telecentricity with the incident aperture being 0.1, that is, the incident aperture angle θNA being 5 degrees, and ±± It is designed so that only light within 5 degrees can pass through the aperture 36. For this reason, due to the presence of the exit light Lout-D, an image plane (for example, a subject) that is optically conjugate with the pattern surface of the light modulator 200, that is, the exit surface 108 even when entering the projection optical system 32. A region (dark part) where light does not reach is formed on the surface of S).

したがって、このことは、光直進部310を通過した光はすべて絞り36を通過して上記像面上に光が到達する領域(明部)として投影されることと相俟って、その像面上に光を所望の幾何パターンで投影することを可能にする。   Therefore, this is coupled with the fact that all of the light that has passed through the light straight section 310 is projected as a region (bright part) where the light reaches the image plane through the diaphragm 36, and thus the image plane. Allows light to be projected in a desired geometric pattern on top.

図14に示す例においては、光偏向部312が、基板264の表面に屋根型プリズムを、基板264の表面に対する凹部として、かつ、光の偏向方向が一様ではないように形成することによって構成されるが、光偏向部312は、他の構成を採用することが可能である。   In the example shown in FIG. 14, the light deflection unit 312 is configured by forming a roof prism on the surface of the substrate 264 as a recess with respect to the surface of the substrate 264 and so that the light deflection direction is not uniform. However, the light deflection unit 312 can employ other configurations.

例えば、図15(a)に示すように、基板264の表面に屋根型プリズムを、基板264の表面に対する凹部として、かつ、光の偏向方向が一様であるように形成することにより、光偏向部312を構成することが可能である。また、図15(b)に示すように、基板264の表面に屋根型プリズムを、基板264の表面に対する凸部として、かつ、光の偏向方向が一様であるか否かを問わないように形成することにより、光偏向部312を構成することが可能である。   For example, as shown in FIG. 15A, a roof prism is formed on the surface of the substrate 264 as a recess with respect to the surface of the substrate 264, and the light deflection direction is uniform. The unit 312 can be configured. Further, as shown in FIG. 15B, a roof-type prism is formed on the surface of the substrate 264 as a convex portion with respect to the surface of the substrate 264, and it does not matter whether the light deflection direction is uniform or not. By forming the light deflection unit 312, the light deflection unit 312 can be configured.

また、図15(c)に示すように、基板264の表面に機械的ランダム散乱形状(例えば、成型品の表面形状処理に多用されるシボ形状)を与えることにより、光偏向部312を構成することが可能である。機械的ランダム散乱形状は、例えば、切削加工および化学処理により、基板264の表面粗さのRz値が1μm程度であるようにランダムパターンが基板264の表面に形成される。この例においては、光偏向部312への入射光は、基板264のランダム散乱面により、ランダムな方向に偏向されるように、偏向作用を受ける。   Further, as shown in FIG. 15C, the light deflection unit 312 is configured by giving a mechanical random scattering shape (for example, a texture shape frequently used for surface shape processing of a molded product) to the surface of the substrate 264. It is possible. In the mechanical random scattering shape, for example, a random pattern is formed on the surface of the substrate 264 so that the Rz value of the surface roughness of the substrate 264 is about 1 μm by cutting and chemical processing. In this example, the incident light to the light deflecting unit 312 is subjected to a deflecting action so as to be deflected in a random direction by the random scattering surface of the substrate 264.

ランダム散乱面から出射する散乱光の光度分布を「I」で表記し、散乱光の各角度成分が光偏向部312への入射光の光軸に対して成す散乱角を「θ」で表記すれば、光度分布Iは、一般に、散乱角θの関数として定義される。具体的には、光度分布Iは、   The luminous intensity distribution of the scattered light emitted from the random scattering surface is represented by “I”, and the scattering angle formed by each angle component of the scattered light with respect to the optical axis of the incident light to the light deflecting unit 312 is represented by “θ”. For example, the light intensity distribution I is generally defined as a function of the scattering angle θ. Specifically, the luminous intensity distribution I is

I(θ)=A・cosθ[cd] I (θ) = A · cos n θ [cd]

として定義することが可能である。ただし、「A」は定数、「n」は散乱係数をそれぞれ表す。 Can be defined as However, “A” represents a constant and “n” represents a scattering coefficient.

光偏向部312のランダム散乱面について散乱係数nが1(ランバーシャン散乱特性と称される)である応用例においては、投影光学系32の入射開口が0.1であるときに、光偏向部312と光学投影系32とから成る光学系の光透過率は約0.8%である。したがって、この応用例においては、光直進部310からの出射光と光偏向部312からの出射光との間に、100倍以上であるというように十分に大きなコントラストを確保しつつ、所望の幾何パターン光を被写体Sに投影することが可能である。   In an application example in which the scattering coefficient n is 1 (referred to as the Lambertian scattering characteristic) for the random scattering surface of the light deflecting unit 312, when the incident aperture of the projection optical system 32 is 0.1, the light deflecting unit The optical transmittance of the optical system composed of 312 and the optical projection system 32 is about 0.8%. Therefore, in this application example, the desired geometry is ensured while ensuring a sufficiently large contrast between the light emitted from the light straight traveling unit 310 and the light emitted from the light deflecting unit 312 that is 100 times or more. Pattern light can be projected onto the subject S.

仮に、光直進部310からの出射光と光偏向部312からの出射光との間におけるコントラストが十分に大きくはないとしても、被写体Sに投影されるパターン光の境界形状が高精度であるため、そのパターン光における明部と暗部との境界(「ストライプ境界」ともいう。)さえ正確に検出することができれば、被写体Sの3次元形状を表す座標値を高精度に計算することは可能である。   Even if the contrast between the emitted light from the light straight traveling unit 310 and the emitted light from the light deflecting unit 312 is not sufficiently large, the boundary shape of the pattern light projected on the subject S is highly accurate. If the boundary between the bright part and the dark part (also referred to as “stripe boundary”) in the pattern light can be accurately detected, the coordinate value representing the three-dimensional shape of the subject S can be calculated with high accuracy. is there.

ストライプ境界の位置を判定する境界位置判定を正確に行うためには、各パターン光ごとに撮像された撮像画像中に各部位が明部であるか暗部であるかを判定するために後述のように設定された閾値THであって、撮像画像の輝度成分から適切に設定されたものを採用することが望ましい。   In order to accurately perform the boundary position determination for determining the position of the stripe boundary, it will be described later to determine whether each part is a bright part or a dark part in the captured image captured for each pattern light. It is desirable to adopt a threshold value TH that is appropriately set from the luminance component of the captured image.

図15(d)に示すように、基板264の表面に回折格子を形成することにより、光偏向部312を構成することが可能である。その回折格子の一例は、斜面構造を有しないバイナリグレーティング溝である。   As shown in FIG. 15D, the light deflection unit 312 can be configured by forming a diffraction grating on the surface of the substrate 264. An example of the diffraction grating is a binary grating groove having no slope structure.

グレーティングピッチを「gp」、光偏向部312への入射光の波長を「λ」、その回折格子の回折角を「θg」でそれぞれ表記すれば、それらグレーティングピッチgpと波長λと回折角θgとの関係が、一般に、   If the grating pitch is expressed as “gp”, the wavelength of the incident light to the light deflecting unit 312 as “λ”, and the diffraction angle of the diffraction grating as “θg”, the grating pitch gp, wavelength λ, and diffraction angle θg In general, the relationship

gp・sinθg=λ   gp · sin θg = λ

なる式で表される。その回折格子に光が入射すると、その回折格子からは複数のn次回折光が、それぞれ「n・θg」で表される角度を有する複数の方向に出射させられる。それら複数のn次回折光は、その回折格子への同じ入射光を互いに異なる複数の角度でそれぞれ偏向させて得られる複数の光に該当することになる。 It is expressed by the following formula. When light is incident on the diffraction grating, a plurality of n-order diffracted lights are emitted from the diffraction grating in a plurality of directions having angles represented by “n · θg”, respectively. The plurality of nth-order diffracted lights correspond to a plurality of lights obtained by deflecting the same incident light on the diffraction grating at a plurality of different angles.

例えば、波長λを617nm、回折角θgを12.5度にそれぞれ選定すれば、グレーティングピッチgpは2.85μmとなる。このグレーティングピッチgpで規則正しく並んだ複数のバイナリグレーティング溝に光を入射すると、複数次数の回折光が発生する。このような回折格子を用いる場合には、そのグレーティングピッチgpのみにより、各n次回折光の回折角θgが決まり、その回折格子のうち個別のピッチ内形状(例えば、互いに隣接した凸部と凹部とのそれぞれの形状)により、回折格子への入射光のパワーが各n次回折光に分配される際のパワー分配率が決まる。   For example, if the wavelength λ is selected to be 617 nm and the diffraction angle θg is selected to be 12.5 degrees, the grating pitch gp is 2.85 μm. When light is incident on a plurality of binary grating grooves regularly arranged at the grating pitch gp, a plurality of orders of diffracted light are generated. When such a diffraction grating is used, the diffraction angle θg of each nth-order diffracted light is determined only by the grating pitch gp, and the shapes within the individual pitches of the diffraction grating (for example, adjacent convex portions and concave portions). The power distribution ratio when the power of the incident light to the diffraction grating is distributed to each nth-order diffracted light is determined.

したがって、0次回折光と次数の絶対値が1以上である回折光(高次回折光であり、入射光に対する偏向光でもある。)とができる限り投影光学系32の入射開口に入射しないようにグレーティングピッチgpを設定し、かつ、入射光のパワーの0次回折光(直進光)へのパワー分配比率を全体の50%(光偏向部312への入射光全体のパワーに対する比率が50%)以下の程度に設定すれば、前記境界位置判定を十分な精度で実施することが可能である。このように設定すれば、図15(a)ないし(c)を参照して前述したいくつかの例と同様に、所望のパターン光を高精度で生成し、それにより、被写体Sの3次元情報を高精度で入力することが可能となる。   Therefore, the grating is arranged so that the 0th-order diffracted light and the diffracted light whose absolute value of the order is 1 or more (high-order diffracted light and also deflected light with respect to the incident light) are not incident on the incident aperture of the projection optical system 32 as much as possible. The pitch gp is set, and the power distribution ratio of the incident light power to the zero-order diffracted light (straight-forward light) is 50% or less (the ratio of the incident light to the light deflecting unit 312 is 50% of the total incident light power) If it is set to about, the boundary position determination can be performed with sufficient accuracy. With this setting, the desired pattern light is generated with high accuracy as in some examples described above with reference to FIGS. 15A to 15C, and the three-dimensional information of the subject S is thereby generated. Can be input with high accuracy.

図15(d)に示す例においては、もちろん、入射光のパワーの0次回折光(直進光)へのパワー分配比率が0%近傍の値であるように回折格子を設計することが可能である。このように設計した場合には、光直進部310からの出射光と光偏向部312(回折格子)からの出射光との間におけるコントラストが最大となり、各パターン光において明部と暗部との間におけるコントラストも最大となる。   In the example shown in FIG. 15D, of course, it is possible to design the diffraction grating so that the power distribution ratio of the power of the incident light to the 0th-order diffracted light (straight-forward light) is a value near 0%. . In such a design, the contrast between the light emitted from the light straight traveling part 310 and the light emitted from the light deflecting part 312 (diffraction grating) is maximized, and the light between the bright part and the dark part in each pattern light. The contrast at is also maximized.

入射光のパワーの0次回折光(直進光)へのパワー分配比率が0%近傍である回折格子の一例として、ブレーズド面と称される斜面を利用した回折格子が既に知られている。この回折格子は、図15(a)に示す屋根型プリスムに近似した形状を有しており、ダイヤモンドターニングによる切削加工により、材料を直接、目標形状を有するように加工するか、または、その目標形状の反転形状を有するように成型用の金型を加工し、その金型を用いて材料を目標形状を有するように加工することが可能である。   As an example of a diffraction grating in which the power distribution ratio of incident light power to zero-order diffracted light (straight-forward light) is near 0%, a diffraction grating using a slope called a blazed surface is already known. This diffraction grating has a shape that approximates the roof-type prism shown in FIG. 15A, and the material is directly processed to have a target shape by cutting with diamond turning, or the target It is possible to process a mold for molding so as to have an inverted shape, and to process the material so as to have a target shape using the mold.

図8には、3次元入力装置10の電気的な構成がブロック図で表されている。処理部16はコンピュータ400を主体として構成されており、そのコンピュータ400は、CPU402と、ROM404と、RAM406と、バス408とを含むように構成されている。   FIG. 8 is a block diagram showing the electrical configuration of the three-dimensional input device 10. The processing unit 16 is mainly configured by a computer 400, and the computer 400 is configured to include a CPU 402, a ROM 404, a RAM 406, and a bus 408.

CPU402は、ROM404に記憶されたプログラムをRAM406を利用しつつ実行することにより、レリーズボタン40の操作状態の検出、CCD70からの画像データの取込み、その取り込まれた画像データの転送および格納、モード切替スイッチ42の操作状態の検出等の各種処理を行う。   The CPU 402 executes the program stored in the ROM 404 while using the RAM 406, thereby detecting the operation state of the release button 40, capturing the image data from the CCD 70, transferring and storing the captured image data, and mode switching. Various processes such as detection of the operation state of the switch 42 are performed.

ROM404には、カメラ制御プログラム404aと、撮像処理プログラム404bと、輝度画像生成プログラム404cと、コード画像生成プログラム404dと、コード境界抽出プログラム404eと、レンズ収差補正プログラム404fと、三角測量演算プログラム404gと、テーブルモータ制御プログラム404jとが格納されている。   The ROM 404 includes a camera control program 404a, an imaging processing program 404b, a luminance image generation program 404c, a code image generation program 404d, a code boundary extraction program 404e, a lens aberration correction program 404f, and a triangulation calculation program 404g. The table motor control program 404j is stored.

カメラ制御プログラム404aは、3次元入力装置10全体の制御を実行するために実行され、その制御には、図16にフローチャートで概念的に表されているメイン処理が含まれる。   The camera control program 404a is executed to execute control of the entire three-dimensional input device 10, and the control includes main processing conceptually represented in the flowchart in FIG.

撮像処理プログラム404bは、被写体Sの3次元形状を検出するためにパターン光が投影された被写体Sを撮像してパターン光有画像を取得し、さらに、パターン光が投影されていない被写体Sを撮像してパターン光無画像を取得するために実行される。   In order to detect the three-dimensional shape of the subject S, the imaging processing program 404b captures the subject S on which the pattern light is projected to acquire an image with pattern light, and further captures the subject S on which the pattern light is not projected. Then, it is executed to obtain a pattern light no image.

輝度画像生成プログラム404cは、撮像処理プログラム404bの実行によって被写体Sについて取得された各画素のRGB値に基づき、複数枚のパターン光有画像にそれぞれ対応する複数枚の輝度画像が生成される。   The luminance image generation program 404c generates a plurality of luminance images respectively corresponding to the plurality of patterned light-present images based on the RGB values of each pixel acquired for the subject S by the execution of the imaging processing program 404b.

本実施形態においては、同じ被写体Sに対して複数種類のパターン光が時系列に順次投影され、各パターン光が投影されるごとに被写体Sが撮像される。そのようにして撮像された複数枚のパターン光有画像の各々について各画素のRGB値が取得され、その結果、パターン光の種類と同数の輝度画像が生成される。   In the present embodiment, a plurality of types of pattern light are sequentially projected in time series on the same subject S, and the subject S is imaged each time each pattern light is projected. The RGB values of each pixel are acquired for each of the plurality of pattern light existence images thus captured, and as a result, the same number of luminance images as the types of pattern light are generated.

コード画像生成プログラム404dは、輝度画像生成プログラム404cの実行によって生成された複数枚の輝度画像それぞれに対する閾値処理により生成される2値化画像から、各画素毎に空間コードが割り当てられたコード画像を生成するために実行される。   The code image generation program 404d generates a code image in which a spatial code is assigned to each pixel from a binary image generated by threshold processing for each of a plurality of luminance images generated by the execution of the luminance image generation program 404c. Executed to generate.

概略的に説明するに、このコード画像生成プログラム404dが実行されると、複数種類のパターン光のうちパターンライン間の間隔が最も狭いものが投影された被写体Sの輝度画像におけるパターンライン間の間隔が周期として取得され、その周期の輝度画像全体における分布が周期分布として取得される。   Briefly, when the code image generation program 404d is executed, the interval between pattern lines in the luminance image of the subject S on which the narrowest interval between pattern lines is projected among the plurality of types of pattern light. Is acquired as a period, and the distribution of the entire luminance image of the period is acquired as a period distribution.

このコード画像生成プログラム404dが実行されると、さらに、その取得された周期分布に従ってサイズが変化する可変窓が各パターン光ごとの輝度画像にローカルに設定されることにより、前記可変窓を用いたフィルタ処理により輝度画像全体に対して閾値がローカルに算出されて設定される。そのようにして設定された閾値の分布を表す閾値画像と各パターン光ごとの輝度画像との関係から、各パターン光ごとに2値化画像が生成される。   When the code image generation program 404d is executed, a variable window whose size changes according to the acquired periodic distribution is set locally in the luminance image for each pattern light, thereby using the variable window. A threshold value is locally calculated and set for the entire luminance image by the filter processing. A binarized image is generated for each pattern light from the relationship between the threshold image representing the threshold distribution set in this way and the luminance image for each pattern light.

可変窓を用いたフィルタ処理により輝度画像全体に対して閾値をローカルに算出する技術は、本出願人の特願2004−285736号明細書に詳細に開示されており、その明細書を参照することによってその明細書の内容を本明細書に合体させる。   A technique for locally calculating a threshold value for the entire luminance image by filtering using a variable window is disclosed in detail in Japanese Patent Application No. 2004-285736 of the present applicant, and refer to that specification. Is incorporated herein by reference.

コード境界抽出プログラム404eは、コード画像生成プログラム404dの実行によって生成されたコード画像と、輝度画像生成プログラム404cの実行によって生成された輝度画像とを利用することにより、コードの境界座標をサブピクセル精度で求めるために実行される。   The code boundary extraction program 404e uses the code image generated by the execution of the code image generation program 404d and the luminance image generated by the execution of the luminance image generation program 404c, thereby converting the code boundary coordinates into sub-pixel accuracy. Run to ask for.

レンズ収差補正プログラム404fは、コード境界抽出プログラム404eの実行によってサブピクセル精度で求められたコードの境界座標に対して、撮像光学系20の収差補正を行うために実行される。   The lens aberration correction program 404f is executed to correct the aberration of the imaging optical system 20 with respect to the code boundary coordinates obtained with subpixel accuracy by the execution of the code boundary extraction program 404e.

三角測量演算プログラム404gは、レンズ収差補正プログラム404fの実行によって収差補正が行われたコードの境界座標から、その境界座標に関する実空間の3次元座標を演算するために実行される。   The triangulation calculation program 404g is executed to calculate the three-dimensional coordinates of the real space related to the boundary coordinates from the boundary coordinates of the code subjected to the aberration correction by the execution of the lens aberration correction program 404f.

送りモータ制御プログラム404hは、複数種類のパターン光を順次被写体Sに投影すべく送りモータ65を制御するために実行される。この送りモータ制御プログラム404hは、他の処理と共に図19にフローチャートで概念的に表されている。   The feed motor control program 404h is executed to control the feed motor 65 so as to sequentially project a plurality of types of pattern light onto the subject S. This feed motor control program 404h is conceptually represented in the flowchart of FIG. 19 together with other processes.

テーブルモータ制御プログラム404jは、回転テーブル184を被写体Sと共に割り出し回転させるべくテーブルモータ194を制御するために実行される。このテーブルモータ制御プログラム404jは、他の処理と共に図18にフローチャートで概念的に表されている。   The table motor control program 404j is executed to control the table motor 194 to index and rotate the rotary table 184 together with the subject S. This table motor control program 404j is conceptually represented in the flowchart of FIG. 18 together with other processes.

本実施形態においては、前述の一連のパターン光の被写体Sへの投影および被写体Sの撮像が、被写体Sの回転位置が等間隔で割り出されるごとに行われる。具体的には、被写体Sの回転位置が90度ずつ間欠的に割り出され、各割り出し位置において、一連のパターン光の投影および被写体Sの撮像が行われる。その結果、被写体Sの外面の全体領域が4つの部分領域に分割され、各部分領域ごとに立体画像(3次元形状情報)が取得される。それら立体画像が、互いにオーバラップする部分を除去する処理が施されて互いに結合されることにより、被写体Sに対応する1つの全体画像がステッチ画像として生成される。   In the present embodiment, the above-described series of pattern light projection onto the subject S and imaging of the subject S are performed each time the rotation position of the subject S is determined at equal intervals. Specifically, the rotation position of the subject S is intermittently determined by 90 degrees, and a series of pattern light projections and imaging of the subject S are performed at each index position. As a result, the entire area of the outer surface of the subject S is divided into four partial areas, and a stereoscopic image (three-dimensional shape information) is acquired for each partial area. The three-dimensional images are subjected to processing for removing portions that overlap each other and are combined with each other, whereby one whole image corresponding to the subject S is generated as a stitch image.

さらに、本実施形態においては、その生成されたステッチ画像に、同じ被写体Sについて計測された表面色情報がマッピングされることにより、前述の3次元色形状データが生成される。これにより、被写体Sについての一連の3次元入力処理が終了する。   Furthermore, in the present embodiment, the above-described three-dimensional color shape data is generated by mapping the surface color information measured for the same subject S to the generated stitch image. Thus, a series of three-dimensional input processes for the subject S is completed.

図8に示すように、RAM406には、パターン光有画像格納部406aと、パターン光無画像格納部406bと、輝度画像格納部406cと、コード画像格納部406dと、コード境界座標格納部406eと、収差補正座標格納部406gと、3次元座標格納部406hと、周期分布格納部406pと、閾値画像格納部406qと、2値化画像格納部406rと、ステッチ画像格納部406sと、3次元色形状データ格納部406tと、ワーキングエリア410とがそれぞれ記憶領域として割り当てられている。   As shown in FIG. 8, the RAM 406 includes a pattern light existence image storage unit 406a, a pattern light no image storage unit 406b, a luminance image storage unit 406c, a code image storage unit 406d, and a code boundary coordinate storage unit 406e. Aberration correction coordinate storage unit 406g, three-dimensional coordinate storage unit 406h, period distribution storage unit 406p, threshold image storage unit 406q, binarized image storage unit 406r, stitch image storage unit 406s, three-dimensional color The shape data storage unit 406t and the working area 410 are allocated as storage areas.

パターン光有画像格納部406aは、撮像処理プログラム404bの実行によって撮像されたパターン光有画像を表すパターン光有画像データを格納する。パターン光無画像格納部406bは、撮像処理プログラム404bの実行によって撮像されたパターン光無画像を表すパターン光無画像データを格納する。   The pattern light existence image storage unit 406a stores pattern light existence image data representing the pattern light existence image captured by the execution of the imaging processing program 404b. The pattern light no-image storage unit 406b stores pattern light no-image data representing the pattern light no-image captured by the execution of the imaging processing program 404b.

輝度画像格納部406cは、輝度画像生成プログラム404cの実行によって生成された輝度画像を表すデータを格納する。コード画像格納部406dは、コード画像生成プログラム404dの実行によって生成されたコード画像を表すデータを格納する。コード境界座標格納部406eは、コード境界抽出プログラム404eの実行によってサブピクセル精度で抽出された各コードの境界座標を表すデータを格納する。   The luminance image storage unit 406c stores data representing a luminance image generated by executing the luminance image generation program 404c. The code image storage unit 406d stores data representing a code image generated by executing the code image generation program 404d. The code boundary coordinate storage unit 406e stores data representing the boundary coordinates of each code extracted with subpixel accuracy by executing the code boundary extraction program 404e.

収差補正座標格納部406gは、レンズ収差補正プログラム404fの実行によって収差補正が行われたコードの境界座標を表すデータを格納する。3次元座標格納部404hは、三角測量演算プログラム404gの実行によって演算された実空間の3次元座標を表すデータを格納する。   The aberration correction coordinate storage unit 406g stores data representing the boundary coordinates of the code subjected to the aberration correction by the execution of the lens aberration correction program 404f. The three-dimensional coordinate storage unit 404h stores data representing the three-dimensional coordinates of the real space calculated by executing the triangulation calculation program 404g.

周期分布格納部406p、閾値画像格納部406qおよび2値化画像格納部406rは、コード画像生成プログラム404dの実行によって取得された周期分布、閾値画像および2値化画像を表すデータをそれぞれ格納する。   The period distribution storage unit 406p, the threshold image storage unit 406q, and the binarized image storage unit 406r store data representing the period distribution, the threshold image, and the binarized image acquired by executing the code image generation program 404d, respectively.

ステッチ画像格納部406sは、前述のステッチ画像を格納し、3次元色形状データ格納部406tは、前述の3次元色形状データを格納する。ワーキングエリア410は、CPU402がその動作のために一時的に使用するデータを格納する。   The stitch image storage unit 406s stores the above-described stitch image, and the three-dimensional color shape data storage unit 406t stores the above-described three-dimensional color shape data. The working area 410 stores data that the CPU 402 temporarily uses for its operation.

ここで、図16を参照することにより、カメラ制御プログラム404aを説明する。このカメラ制御プログラム404aがコンピュータ400によって実行されることにより、前述のメイン処理が実行される。   Here, the camera control program 404a will be described with reference to FIG. When the camera control program 404a is executed by the computer 400, the main process described above is executed.

このメイン処理においては、まず、ステップS101(以下、単に「S101」で表す。他のステップについても同じとする。)において、バッテリ74を含む電源がONされる。次に、S102において、処理部16、周辺インタフェース等が初期化される。   In this main process, first, in step S101 (hereinafter simply referred to as “S101”; the same applies to other steps), the power source including the battery 74 is turned on. Next, in S102, the processing unit 16, peripheral interfaces, and the like are initialized.

続いて、S103において、モード切替スイッチ42の操作状態を判別するためにキースキャンが行われ、その後、S104において、モード切替スイッチ42の操作によってSLOWモードが選択されたか否かが判定される。今回は、SLOWモードが選択されたと仮定すれば、判定がYESとなり、S105において、前述の非間引き画像処理モードが設定される。このS105の実行後、後に詳述するS108が実行され、続いて、S103に戻る。   Subsequently, in S103, a key scan is performed to determine the operation state of the mode changeover switch 42. Thereafter, in S104, it is determined whether or not the SLOW mode is selected by the operation of the mode changeover switch 42. If it is assumed that the SLOW mode is selected this time, the determination is YES, and the above-described non-decimated image processing mode is set in S105. After execution of S105, S108, which will be described in detail later, is executed, and then the process returns to S103.

これに対し、今回は、モード切替スイッチ42の操作によってSLOWモードが選択されなかったと仮定すれば、S104の判定がNOとなり、S106において、モード切替スイッチ42の操作によってFASTモードが選択されたか否かが判定される。今回は、FASTモードが選択されたと仮定すれば、判定がYESとなり、S107において、前述の間引き画像処理モードが設定される。このS107の実行後、後に詳述するS108が実行され、続いて、S103に戻る。   On the other hand, this time, if it is assumed that the SLOW mode is not selected by the operation of the mode change switch 42, the determination in S104 is NO, and whether or not the FAST mode is selected by the operation of the mode change switch 42 in S106. Is determined. If it is assumed that the FAST mode is selected this time, the determination is YES, and the above-described thinned image processing mode is set in S107. After execution of S107, S108, which will be described in detail later, is executed, and then the process returns to S103.

これに対し、今回は、モード切替スイッチ42の操作によってFASTモードが選択されなかったと仮定すれば、S106の判定がNOとなり、S112において、モード切替スイッチ42の操作によってオフモードが選択されたか否かが判定される。今回は、モード切替スイッチ42の操作によってオフモードが選択されたと仮定すれば、判定がYESとなり、直ちに今回のメイン処理が終了するが、今回は、モード切替スイッチ42の操作によってオフモードが選択されなかったと仮定すれば、判定がYESとなり、S103に戻る。   On the other hand, this time, if it is assumed that the FAST mode is not selected by the operation of the mode switch 42, the determination in S106 is NO, and whether or not the off mode is selected by the operation of the mode switch 42 in S112. Is determined. If it is assumed that the off mode is selected by operating the mode switch 42 this time, the determination is YES, and the main process of this time is immediately terminated. However, this time, the off mode is selected by operating the mode switch 42. If it is assumed that there is not, the determination is YES and the process returns to S103.

図17には、図16におけるS108が立体画像処理ルーチンとしてフローチャートで概念的に表されている。この立体画像処理ルーチンの実行により、被写体Sの3次元形状を立体画像として検出し、表示する立体画像処理が実行される。この立体画像処理においては、さらに、同じ被写体Sの表面色も検出される。それら立体画像の検出結果と表面色の検出結果とが位置に関連付けて組み合わされたものが3次元色形状検出結果である。   17, S108 in FIG. 16 is conceptually represented by a flowchart as a stereoscopic image processing routine. By executing this stereoscopic image processing routine, stereoscopic image processing for detecting and displaying the three-dimensional shape of the subject S as a stereoscopic image is executed. In this stereoscopic image processing, the surface color of the same subject S is also detected. The three-dimensional color shape detection result is a combination of the detection result of the stereoscopic image and the detection result of the surface color in association with the position.

この立体画像処理においては、まず、S1001において、ファインダ画像、すなわち、撮像光学系30を通して見える範囲の画像と同じ画像がモニタLCD44に表示される。よって、ユーザは、モニタLCD44に表示された画像を見ることにより、実際の撮像前に、撮像画像(撮像範囲)を確認することができる。   In this stereoscopic image processing, first, in S1001, the finder image, that is, the same image as the image in the range visible through the imaging optical system 30 is displayed on the monitor LCD 44. Therefore, the user can confirm the captured image (imaging range) before actual imaging by viewing the image displayed on the monitor LCD 44.

次に、S1002において、レリーズボタン40の操作状態がスキャンされ、その後、S1003において、そのスキャン結果に基づき、レリーズボタン40が半押し状態にあるか否かが判定される。半押し状態にあれば、判定がYESとなり、S1004において、オートフォーカス(AF)および自動露出(AE)機能が起動し、それにより、ピント、絞りおよびシャッタスピードが調節される。レリーズボタン40が半押し状態になければ、S1003の判定がNOとなり、S1010に移行する。   Next, in S1002, the operation state of the release button 40 is scanned, and then, in S1003, it is determined based on the scan result whether the release button 40 is in a half-pressed state. If it is in the half-pressed state, the determination is yes, and in S1004, the autofocus (AF) and automatic exposure (AE) functions are activated, thereby adjusting the focus, aperture, and shutter speed. If the release button 40 is not half-pressed, the determination in S1003 is NO, and the flow proceeds to S1010.

S1004の実行後、S1005において、再度、レリーズボタン40の操作状態がスキャンされ、その後、S1006において、そのスキャン結果に基づき、レリーズボタン40が全押し状態にあるか否かが判定される。レリーズボタン40が全押し状態になければ、このS1006の判定がNOとなってS1002に戻る。   After the execution of S1004, the operation state of the release button 40 is scanned again in S1005, and thereafter, in S1006, it is determined whether or not the release button 40 is fully pressed based on the scan result. If the release button 40 is not fully pressed, the determination in S1006 is NO and the process returns to S1002.

レリーズボタン40が半押し状態から全押し状態に移行すれば、S1006の判定がYESとなり、S1007において、後述の3次元色形状検出処理が実行され、それにより、被写体Sの3次元形状および表面色が検出される。   If the release button 40 shifts from the half-pressed state to the fully-pressed state, the determination in S1006 becomes YES, and in S1007, the three-dimensional color shape detection process described later is executed, whereby the three-dimensional shape and surface color of the subject S are determined. Is detected.

概略的に説明するに、その3次元色形状検出処理により、被写体Sについて3次元色形状検出結果が生成される。ここに、3次元色形状検出結果とは、後述の空間コード画像において検出される複数の空間コード境界画像を3次元座標に変換した結果取得される頂点座標の集合体であって、各頂点ごとに色形状情報とポリゴン情報とが互いに関連付けられたものを意味する。色形状情報は、実空間座標とRGB値との組合せを表す情報である。ポリゴン情報は、複数個の頂点のうち、被写体Sを3次元的に表面する立体を構成するために互いに連結されるべき複数の頂点の組合せを表す情報である。   Briefly described, a three-dimensional color shape detection result for the subject S is generated by the three-dimensional color shape detection process. Here, the three-dimensional color shape detection result is a set of vertex coordinates acquired as a result of converting a plurality of spatial code boundary images detected in a spatial code image, which will be described later, into three-dimensional coordinates. Means that color shape information and polygon information are associated with each other. The color shape information is information representing a combination of real space coordinates and RGB values. The polygon information is information representing a combination of a plurality of vertices to be connected to each other in order to form a solid that three-dimensionally faces the subject S among the plurality of vertices.

その後、S1008において、その3次元色形状検出結果が外部メモリ78に格納され、続いて、S1009において、その3次元色形状検出結果が3次元コンピュータグラフィック画像としてモニタLCD44に表示される。   Thereafter, in S1008, the three-dimensional color shape detection result is stored in the external memory 78. Subsequently, in S1009, the three-dimensional color shape detection result is displayed on the monitor LCD 44 as a three-dimensional computer graphic image.

その後、S1010において、図16におけるS103と同様にしてキースキャンが行われる。続いて、S1011において、モード切替スイッチ42の操作状態に変化が無いか否かが判定される。変化が無ければ、S1011の判定がYESとなり、S1001に戻るが、変化が有れば、S1011の判定がNOとなり、今回の立体画像処理が終了する。   Thereafter, in S1010, key scanning is performed in the same manner as in S103 in FIG. Subsequently, in S1011, it is determined whether or not the operation state of the mode switch 42 has changed. If there is no change, the determination in S1011 is YES and the process returns to S1001, but if there is a change, the determination in S1011 is NO and the current stereoscopic image processing ends.

図17のS1007において実行される3次元色形状検出処理においては、空間コード化法を用いて被写体Sの3次元形状が検出される。   In the three-dimensional color shape detection process executed in S1007 in FIG. 17, the three-dimensional shape of the subject S is detected using a spatial coding method.

図18には、図17におけるS1007が3次元色形状検出処理ルーチンとしてフローチャートで概念的に表されている。この3次元色形状検出処理ルーチンには、テーブルモータ制御プログラム404iが組み込まれており、このテーブルモータ制御プログラム404iは、図18におけるS1201およびS1221ないしS1223を含むように構成されている。   In FIG. 18, S1007 in FIG. 17 is conceptually represented by a flowchart as a three-dimensional color shape detection processing routine. This three-dimensional color shape detection processing routine incorporates a table motor control program 404i, and this table motor control program 404i is configured to include S1201 and S1221 to S1223 in FIG.

この3次元色形状検出処理ルーチンにおいては、まず、S1201において、回転テーブル184の回転位相PHが0に初期化される。本実施形態においては、回転テーブル184が1回転する間に4回停止させられるため、回転テーブル184には4つの回転位相PHが離散的に設定される。具体的には、回転位相PHは、初期の回転位相PHを表す「0」と、次の回転位相PHを表す「1」と、次の回転位相PHを表す「2」と、最後の回転位相PHを表す「3」とに離散的に変化させられる。   In this three-dimensional color shape detection processing routine, first, the rotational phase PH of the rotary table 184 is initialized to 0 in S1201. In the present embodiment, the rotation table 184 is stopped four times during one rotation, so that four rotation phases PH are set discretely on the rotation table 184. Specifically, the rotation phase PH includes “0” representing the initial rotation phase PH, “1” representing the next rotation phase PH, “2” representing the next rotation phase PH, and the last rotation phase. It is discretely changed to “3” representing PH.

次に、S1210において、撮像処理プログラム404bが実行されることにより、今回の回転位相PHについて撮像処理が実行される。この撮像処理においては、投影部12からストライプ状のパターン光が時系列的に被写体Sに投影される。さらに、複数種類のパターン光が投影されている被写体Sをそれぞれ撮像した複数枚のパターン光有画像と、パターン光が投影されていない同じ被写体Sを撮像した1枚のパターン光無画像とが取得される。このS1210は、後に図19を参照して詳述する。   Next, in S1210, the imaging process program 404b is executed, whereby the imaging process is executed for the current rotational phase PH. In this imaging process, striped pattern light is projected from the projection unit 12 onto the subject S in time series. Further, a plurality of pattern light existence images obtained by imaging the subject S on which a plurality of types of pattern light are projected and a single pattern light no image obtained by imaging the same subject S on which the pattern light is not projected are acquired. Is done. This S1210 will be described in detail later with reference to FIG.

撮像処理が終了すると、S1220において、今回の回転位相PHについて3次元計測処理が実行される。この3次元計測処理が実行されると、上述の撮像処理によって取得された複数枚のパターン光有画像と1枚のパターン光無画像とが利用されて、実際に被写体Sの3次元形状が計測される。このS1220は、後に図22を参照して詳述する。   When the imaging process ends, in S1220, a three-dimensional measurement process is executed for the current rotational phase PH. When this three-dimensional measurement process is executed, the three-dimensional shape of the subject S is actually measured using a plurality of pattern-lighted images and one pattern-lightless image acquired by the above-described imaging process. Is done. This S1220 will be described in detail later with reference to FIG.

この3次元計測処理が終了すると、S1221において、次回の撮像に備えて、回転位相PHが1だけインクリメントされる。続いて、S1222において、回転位相PHの現在値が4より大きいか否か、すなわち、被写体Sについての一連の撮像が既に終了しているか否かが判定される。   When this three-dimensional measurement process is completed, the rotational phase PH is incremented by 1 in preparation for the next imaging in S1221. Subsequently, in S1222, it is determined whether or not the current value of the rotational phase PH is greater than 4, that is, whether or not a series of imaging for the subject S has already been completed.

今回は、回転位相PHの現在値が4より大きくはないと仮定すれば、そのS1222の判定がNOとなり、S1223において、回転テーブル184を時計方向に90度回転させるのに必要な駆動信号がテーブルモータ194に対して出力される。その結果、回転テーブル184が時計方向に90度回転させられ、それにより、被写体Sが、前回の撮像時とは異なる部分領域において測定ヘッドMHに対向させられる。その後、S1210およびS1220が実行され、それにより、次の回転位相PHについて前述の撮像処理および3次元計測処理が行われる。   If it is assumed that the current value of the rotational phase PH is not greater than 4, this time, the determination in S1222 is NO, and in S1223, the driving signal necessary to rotate the rotary table 184 by 90 degrees clockwise is the table. Output to the motor 194. As a result, the turntable 184 is rotated 90 degrees in the clockwise direction, so that the subject S is opposed to the measurement head MH in a partial area different from that at the previous imaging. Thereafter, S1210 and S1220 are executed, whereby the above-described imaging process and three-dimensional measurement process are performed for the next rotational phase PH.

S1210ないしS1223のループが必要回数実行された結果、S1222の判定がYESとなれば、その後、S1230において、被写体Sについて計測された3次元形状と表面色とを組み合わせることにより、3次元色形状検出結果が生成される。このS1230は、後に図24を参照して詳述する。   As a result of executing the loop of S1210 to S1223 as many times as necessary, if the determination in S1222 is YES, then in S1230, the three-dimensional shape measured for the subject S and the surface color are combined to detect the three-dimensional color shape. Results are generated. This S1230 will be described in detail later with reference to FIG.

この3次元色形状検出結果が生成されると、今回の3次元色形状検出処理が終了する。   When this three-dimensional color shape detection result is generated, the current three-dimensional color shape detection process ends.

ここで、図19を参照することにより、図18におけるS1210を詳述する。図19には、そのS1210が撮像処理プログラム404bとしてフローチャートで概念的に表されている。   Here, S1210 in FIG. 18 will be described in detail with reference to FIG. In FIG. 19, S1210 is conceptually represented by a flowchart as the imaging processing program 404b.

この撮像処理プログラム404bには、送りモータ制御プログラム404hが組み込まれており、この送りモータ制御プログラム404hは、図19におけるS2002ないしS2005,S2010,S2016およびS2017を含むように構成されている。   The imaging processing program 404b incorporates a feed motor control program 404h, and the feed motor control program 404h is configured to include S2002 to S2005, S2010, S2016, and S2017 in FIG.

この撮像処理プログラム404bにおいては、まず、S2001において、今回生成すべきパターン光の番号を表すパターン番号PNが0に初期化される。このパターン番号PNは、複数の平面的光学素子260のうち、今回のパターン光を被写体Sに投影するために窓部297に位置決めされるものとして選択されるべき選択光学素子260の番号(図12における「コード」)に対応する。   In this imaging processing program 404b, first, in S2001, a pattern number PN indicating the number of pattern light to be generated this time is initialized to zero. This pattern number PN is the number of the selected optical element 260 to be selected as the position of the window 297 for projecting the current pattern light onto the subject S among the plurality of planar optical elements 260 (FIG. 12). Corresponds to “code” in FIG.

次に、S2002において、予め設定された方向に送りモータ65が駆動される。続いて、S2003において、フォトインタラプタ300から前記PI信号が読み取られる。その後、S2004において、その読み取られたPI信号のレベルがローレベルからハイレベルに変化した直後であるか否かが判定される。すなわち、フォトインタラプタ300によってキャリッジ202が検出された直後、すなわち、キャリッジ202が前述の特定の位置に移動させられた直後であるか否かが判定される。   Next, in S2002, the feed motor 65 is driven in a preset direction. Subsequently, in S2003, the PI signal is read from the photo interrupter 300. Thereafter, in S2004, it is determined whether or not the level of the read PI signal has just changed from the low level to the high level. That is, it is determined whether or not it is immediately after the carriage 202 is detected by the photo interrupter 300, that is, immediately after the carriage 202 is moved to the specific position.

今回は、PI信号のレベルがローレベルからハイレベルに変化した直後ではないと仮定すれば、S2004の判定がNOとなり、S2002ないしS2004のループの実行が再開される。そのループが何回が実行された結果、PI信号のレベルがローレベルからハイレベルに変化したと仮定すれば、S2004の判定がYESとなり、S2005に移行する。   This time, if it is assumed that the level of the PI signal is not immediately after changing from the low level to the high level, the determination in S2004 is NO, and the execution of the loop from S2002 to S2004 is resumed. Assuming that the level of the PI signal has changed from a low level to a high level as a result of how many times the loop has been executed, the determination in S2004 is YES, and the flow proceeds to S2005.

このS2005においては、上述の特定の位置に位置するキャリッジ202をさらに移動させてホームポジションに位置決めするために、予め設定された駆動信号(例えば、駆動パルス)が送りモータ65に供給される。キャリッジ202がそのホームポジションに位置決めされると、光変調体200が、それの複数の平面的光学素子260のうち今回のパターン番号PNを有するパターン光を生成するもの(前述の選択光学素子)において窓部297に正対することになる。   In S2005, a preset drive signal (for example, a drive pulse) is supplied to the feed motor 65 in order to further move the carriage 202 located at the above-mentioned specific position and position it at the home position. When the carriage 202 is positioned at its home position, the light modulator 200 generates a pattern light having the current pattern number PN among the plurality of planar optical elements 260 (the above-described selected optical element). It will face the window 297.

その後、S2006において、複数のパターン光のうち、パターン番号PNの現在値と等しい番号が付されたPN番目のパターン光の投影が開始される。   After that, in S2006, projection of the PN-th pattern light to which the number equal to the current value of the pattern number PN among the plurality of pattern lights is started.

続いて、S2007において、PN番目のパターン光を被写体Sに投影するための投影処理が行われる。図20には、このS2007の詳細が投影処理サブルーチンとしてフローチャートで概念的に表されている。この投影処理サブルーチンの実行により、PN番目のパターン光を投影部12から被写体Sに投影する投影処理が投影機構66との共同作用によって実行される。   Subsequently, in S2007, a projection process for projecting the PN-th pattern light onto the subject S is performed. FIG. 20 conceptually shows the details of S2007 as a projection processing subroutine in a flowchart. By executing this projection processing subroutine, the projection processing for projecting the PN-th pattern light from the projection unit 12 onto the subject S is executed in cooperation with the projection mechanism 66.

この投影処理においては、まず、S3004において、光源ドライバ84が駆動され、続いて、S3005において、その光源ドライバ84からの電気信号によってLED62が発光する。以上で、今回の投影処理が終了する。   In this projection processing, first, the light source driver 84 is driven in S3004, and then, in S3005, the LED 62 emits light by an electrical signal from the light source driver 84. This is the end of the current projection process.

LED62から発光した光は、光源レンズ64を経て投影機構66に到達する。その投影機構66においては、光変調体200の選択光学素子260の表面形状に応じた空間変調が施され、その結果、投影機構66への入射光がパターン光に変換されて出力される。その投影機構66から出力されるパターン光は、投影光学系32を経て被写体Sに投影画像として投影される。   The light emitted from the LED 62 reaches the projection mechanism 66 through the light source lens 64. In the projection mechanism 66, spatial modulation corresponding to the surface shape of the selection optical element 260 of the light modulator 200 is performed. As a result, incident light on the projection mechanism 66 is converted into pattern light and output. The pattern light output from the projection mechanism 66 is projected as a projection image onto the subject S via the projection optical system 32.

以上のようにして、PN番目のパターン光が被写体Sに投影されると、続いて、図19におけるS2008において、そのPN番目のパターン光が投影されている被写体Sが撮像部14によって撮像される。   When the PN-th pattern light is projected onto the subject S as described above, subsequently, the subject S on which the PN-th pattern light is projected is imaged by the imaging unit 14 in S2008 in FIG. .

その撮像により、PN番目のパターン光が投影されている被写体Sを撮像したPN番目のパターン光有画像が取得される。その取得されたパターン光有画像は、対応するパターン番号PNに関連付けてパターン光有画像格納部406aに格納される。   By the imaging, a PN-th pattern light existence image obtained by imaging the subject S on which the PN-th pattern light is projected is acquired. The acquired pattern light present image is stored in the pattern light present image storage unit 406a in association with the corresponding pattern number PN.

その撮像が終了すると、S2009において、PN番目のパターン光の投影が終了し、続いて、S2010において、次のパターン光を投影する準備のために、キャリッジ202が1ピッチ送られるように送りモータ65に駆動信号が供給される。その後、S2011において、次のパターン光を投影する準備のために、パターン番号PNが1だけインクリメントされる。   When the imaging is finished, the projection of the PN-th pattern light is finished in S2009. Subsequently, in S2010, the feed motor 65 is fed so that the carriage 202 is fed by one pitch in preparation for projecting the next pattern light. Is supplied with a drive signal. Thereafter, in S2011, the pattern number PN is incremented by 1 in preparation for projecting the next pattern light.

続いて、S2012において、そのパターン番号PNの現在値が最大値PNmaxより小さいか否かが判定される。その最大値PNmaxは、使用されるマスクパターンの合計数に応じて決定される。例えば、8種類のマスクパターンが使用される場合には、最大値PNmaxが8に設定される。   Subsequently, in S2012, it is determined whether or not the current value of the pattern number PN is smaller than the maximum value PNmax. The maximum value PNmax is determined according to the total number of mask patterns used. For example, when 8 types of mask patterns are used, the maximum value PNmax is set to 8.

今回は、パターン番号PNの現在値が最大値PNmaxより小さいと仮定すれば、S2012の判定がYESとなり、続いて、S2006ないしS2012のループの実行が、今回のパターン番号PNを有するパターン光の投影のために再開される。   If it is assumed that the current value of the pattern number PN is smaller than the maximum value PNmax this time, the determination in S2012 is YES, and then the execution of the loop from S2006 to S2012 is performed to project the pattern light having the current pattern number PN. Be resumed for.

S2006ないしS2012のループの実行がパターン光の種類の数と同数回繰り返された結果、パターン番号PNの現在値が最大値PNmaxより小さくはない値になると、S2012の判定がNOとなり、今回の撮像処理が終了する。したがって、一回の撮像処理により、最大値PNmaxと同数枚のパターン光有画像が取得されることになる。   When the execution of the loop from S2006 to S2012 is repeated the same number of times as the number of types of pattern light, if the current value of the pattern number PN becomes a value not smaller than the maximum value PNmax, the determination in S2012 is NO, and the current imaging The process ends. Therefore, the same number of images with pattern light as the maximum value PNmax are acquired by one imaging process.

続いて、S2013において、フラッシュモードが選択されているか否かが判定される。フラッシュモードが選択されていれば、その判定がYESとなり、S2014において、フラッシュ26が発光させられるが、フラッシュモードが選択されていなければ、S2013の判定がNOとなり、S2014がスキップされる。いずれにしても、その後、S2015において、被写体Sが撮像される。   Subsequently, in S2013, it is determined whether or not the flash mode is selected. If the flash mode is selected, the determination is YES, and the flash 26 is caused to emit light in S2014. If the flash mode is not selected, the determination in S2013 is NO and S2014 is skipped. In any case, the subject S is then imaged in S2015.

この撮像は、被写体Sの表面色を計測することを目的として、投影部12からパターン光を被写体Sに投影することなく、行われる。その結果、被写体12について1枚のパターン光無画像が取得される。その取得されたパターン光無画像はパターン光無画像格納部406bに格納される。   This imaging is performed without projecting pattern light from the projection unit 12 onto the subject S for the purpose of measuring the surface color of the subject S. As a result, one pattern light no image is acquired for the subject 12. The acquired pattern light no image is stored in the pattern light no image storage unit 406b.

続いて、S2016において、キャリッジ202が前述のホームポジションに復帰するように送りモータ65が駆動される。その後、S2017において、送りモータ65が停止させられて待機状態に移行させられる。   Subsequently, in S2016, the feed motor 65 is driven so that the carriage 202 returns to the above-described home position. Thereafter, in S2017, the feed motor 65 is stopped and shifted to a standby state.

以上で、この撮像処理プログラム404bの一回の実行が終了する。   Thus, one execution of the imaging processing program 404b is completed.

図21には、この撮像処理プログラム404bの一回の実行に伴うこの3次元入力装置10の作動の一例がタイミングチャートで表されている。この作動例は、ユーザによってFASTモードが選択されている状態でユーザによってレリーズボタン40が全押し状態に操作された場合にこの3次元入力装置10によって実行されるものである。   FIG. 21 is a timing chart illustrating an example of the operation of the three-dimensional input apparatus 10 that accompanies one execution of the imaging processing program 404b. This operation example is executed by the three-dimensional input device 10 when the user operates the release button 40 in a fully-pressed state while the FAST mode is selected by the user.

図21(a)には、被写体Sからの入射光によってCCD70が複数回、連続して露光される様子が示されている。図21(b)には、それら複数回の露光のそれぞれにつき、被写体Sからの入射光によって表される全体画像のうちの各画素ごとに光がCCD70によって電気信号に変換されてCCD70から出力される信号出力タイミングがタイミングチャートで表されている。図21(c)には、撮像部14の画像処理モードが前述の間引き画像処理モードと非間引き画像処理モードとに時間的に切り替わるタイミングがタイミングチャートで表されている。   FIG. 21A shows a state in which the CCD 70 is continuously exposed a plurality of times by the incident light from the subject S. In FIG. 21B, for each of the multiple exposures, light is converted into an electrical signal by the CCD 70 for each pixel in the entire image represented by the incident light from the subject S and output from the CCD 70. The signal output timing is represented by a timing chart. In FIG. 21C, timings at which the image processing mode of the imaging unit 14 is temporally switched between the thinned image processing mode and the non-thinned image processing mode are shown in a timing chart.

さらに、図21(d)には、撮像部14の状態が、待機状態と、撮像および信号取り出しのための作動状態とに時間的に切り替わるタイミングがタイミングチャートで表されている。図21(e)には、各パターン光を形成するために光変調体200において各平面的光学素子260が割り出されるタイミングがタイミングチャートで表されている。図21(f)には、フラッシュ26がOFF状態とON状態とに時間的に切り替わるタイミングがタイミングチャートで表されている。図21(g)には、レリーズボタン40が非操作状態(OFF状態)と操作状態(ON状態)とに時間的に切り替わるタイミングがタイミングチャートで表されている。   Further, FIG. 21D shows a timing chart showing the timing at which the state of the imaging unit 14 is temporally switched between a standby state and an operation state for imaging and signal extraction. In FIG. 21E, timings at which the respective planar optical elements 260 are determined in the light modulator 200 to form each pattern light are shown in a timing chart. FIG. 21F shows a timing chart showing the timing at which the flash 26 is temporally switched between the OFF state and the ON state. FIG. 21G shows a timing chart showing the timing at which the release button 40 is temporally switched between a non-operation state (OFF state) and an operation state (ON state).

本実施形態においては、被写体Sからの入射光によるCCD70の露光後に、その露光を反映した信号のCCD70からの取り出しが行われる。1回の露光に1回の信号取り出しが対応しており、それら露光と信号取り出しとが互いに共同して1回の個別撮像処理を構成する。   In the present embodiment, after the CCD 70 is exposed by incident light from the subject S, a signal reflecting the exposure is taken out from the CCD 70. One signal extraction corresponds to one exposure, and these exposure and signal extraction together constitute one individual imaging process.

本実施形態においては、同じ被写体Sについて3次元形状情報の取得と表面色情報の取得とが連続的に、かつ、それらの順で行われる。   In the present embodiment, the acquisition of the three-dimensional shape information and the acquisition of the surface color information for the same subject S are continuously performed in that order.

前述のように、被写体Sの3次元形状情報を取得するために、その被写体Sに8種類のパターン光(パターン番号PN=0〜7)が順次投影され、各パターン光の投影ごとに、CCD70の露光とCCD70からの信号取り出しとが行われる。すなわち、被写体Sの3次元形状情報を取得するために、その被写体Sに対する個別撮像処理が順次、合計8回行われるのである。図21においては、3次元形状情報を取得するための各回の個別撮像処理に対応するパターン光の番号PNが、「0」ないし「7」の数字によって示されている。   As described above, in order to acquire the three-dimensional shape information of the subject S, eight types of pattern light (pattern numbers PN = 0 to 7) are sequentially projected on the subject S, and the CCD 70 is projected for each projection of the pattern light. Exposure and signal extraction from the CCD 70 are performed. That is, in order to acquire the three-dimensional shape information of the subject S, the individual imaging processing for the subject S is sequentially performed a total of eight times. In FIG. 21, the number PN of the pattern light corresponding to each individual imaging process for acquiring the three-dimensional shape information is indicated by the numbers “0” to “7”.

被写体Sの表面色情報を取得するために、被写体Sからの入射光によってCCD70が1回露光され、その後に信号取り出しが行われる。すなわち、被写体Sの表面色情報を取得するために、被写体Sに対する個別撮像処理が1回行われるのである。図21においては、表面色情報を取得するための1回の個別撮像処理が「c」という記号によって示されている。   In order to acquire the surface color information of the subject S, the CCD 70 is exposed once by the incident light from the subject S, and then the signal is extracted. That is, in order to acquire the surface color information of the subject S, the individual imaging process for the subject S is performed once. In FIG. 21, a single individual imaging process for obtaining surface color information is indicated by a symbol “c”.

3次元形状情報取得のための撮像においては、照明光としてパターン光を被写体Sに投影することが必須であるのに対し、表面色情報取得のための撮像においては、照明光を被写体Sに投影することが選択的である。具体的には、表面色情報取得のための撮像においては、被写体Sからの受光量が不足している場合に、フラッシュ26が自動的に発光させられ、それにより、被写体Sに照明光が投影される。   In imaging for obtaining three-dimensional shape information, it is indispensable to project pattern light as illumination light on the subject S, whereas in imaging for obtaining surface color information, illumination light is projected onto the subject S. It is selective to do. Specifically, in imaging for acquiring surface color information, when the amount of light received from the subject S is insufficient, the flash 26 is automatically caused to emit light, thereby projecting illumination light onto the subject S. Is done.

したがって、本実施形態においては、3次元形状情報取得のための8回の個別撮像処理と、表面色情報取得のための1回の個別撮像処理とが連続的に行われ、合計9回の個別撮像処理が連続的に行われる。本実施形態においては、それら9回の個別撮像処理が互いに共同して1回の全体撮像処理を構成している。   Therefore, in the present embodiment, eight individual imaging processes for acquiring three-dimensional shape information and one individual imaging process for acquiring surface color information are continuously performed, for a total of nine individual imaging processes. Imaging processing is continuously performed. In the present embodiment, these nine individual imaging processes cooperate with each other to constitute one whole imaging process.

それら9回の個別撮像処理においては、同じ被写体Sについて9回の露光が順次行われ、それら9回の露光は、例えば、ビデオレートと同じ速度で同一周期で行われる。それら9回の露光が連続的に行われる期間は、被写体Sと3次元入力装置10との相対位置が変化するとその影響がCCD70の撮像結果に現れる期間である。この期間は、3次元入力装置10の撮像時間である。この撮像時間が短いほど、3次元入力装置10の動画撮像能力が高いことを意味する。   In these nine individual imaging processes, nine exposures are sequentially performed on the same subject S, and these nine exposures are performed at the same cycle as the video rate, for example. The period in which these nine exposures are continuously performed is a period in which the influence appears in the imaging result of the CCD 70 when the relative position between the subject S and the three-dimensional input device 10 changes. This period is the imaging time of the three-dimensional input device 10. It means that the moving image imaging capability of the three-dimensional input device 10 is higher as the imaging time is shorter.

図21に示す一作動例においては、3次元形状情報取得のための8回の個別撮像処理における信号取り出しがいずれも、間引き画像処理として実行される。したがって、3次元形状情報取得のための各回の個別撮像処理においては、CCD70の露光に後続し、必要な信号取り出し時間t1の経過後、CCD70から電気信号が出力される。信号取り出し時間t1は、1フレーム取り出し時間ともいい、各パターン光の投影ごとに、CCD70の露光が終了してから、3次元形状情報が1フレーム分、CCD70から出力されるまでに必要な3次元形状情報出力時間を意味する。   In one operation example shown in FIG. 21, signal extraction in eight individual imaging processes for acquiring three-dimensional shape information is performed as a thinned image process. Accordingly, in each individual imaging process for obtaining three-dimensional shape information, an electrical signal is output from the CCD 70 after the CCD 70 has been exposed and after a necessary signal extraction time t1 has elapsed. The signal extraction time t1 is also referred to as one frame extraction time. For each pattern light projection, the three-dimensional necessary for the three-dimensional shape information to be output from the CCD 70 after the exposure of the CCD 70 is completed. It means shape information output time.

これに対し、図21に示す一例においては、表面色情報取得のための1回の個別撮像処理における信号取り出しが、非間引き画像処理として実行される。したがって、表面色情報取得のための1回の個別撮像処理については、CCD70の露光に後続し、必要な信号取り出し時間t2の経過後、CCD70から電気信号が出力される。信号取り出し時間t2は、1フレーム取り出し時間ともいい、CCD70の露光が終了してから、表面色状情報が1フレーム分、CCD70から出力されるまでに必要な表面色情報出力時間を意味する。   On the other hand, in the example shown in FIG. 21, signal extraction in one individual imaging process for acquiring surface color information is executed as non-decimated image processing. Therefore, for one individual imaging process for acquiring surface color information, an electrical signal is output from the CCD 70 after the exposure of the CCD 70 and after a necessary signal extraction time t2. The signal extraction time t2 is also called one frame extraction time, and means the surface color information output time required until the surface color information is output from the CCD 70 for one frame after the exposure of the CCD 70 is completed.

間引き画像処理に必要な信号取り出し時間t1は、非間引き画像処理に必要な信号取り出し時間t2より短い。例えば、信号取り出し時間t1は、約33msであるのに対し、信号取り出し時間t2は、約0.5sである。   The signal extraction time t1 required for the thinned-out image processing is shorter than the signal extraction time t2 required for the non-thinned-out image processing. For example, the signal extraction time t1 is about 33 ms, while the signal extraction time t2 is about 0.5 s.

図21(a)および(b)に示すように、1回の個別撮像処理においては、露光が終了した後に信号取り出しが開始されるが、次回の個別撮像処理における露光は、前回の個別撮像処理における信号取り出しが終了する前に開始される。すなわち、ある回の個別撮像処理における信号取り出しと次回の個別撮像処理における露光とが時間的に部分的にオーバラップするように行われるのである。ただし、ある回の個別撮像処理における信号取り出しは、次回の個別撮像処理における露光が終了する前に終了する。   As shown in FIGS. 21A and 21B, in one individual imaging process, signal extraction is started after the exposure is completed, but the exposure in the next individual imaging process is performed in the previous individual imaging process. This is started before the signal extraction at is finished. That is, the signal extraction in one individual imaging process and the exposure in the next individual imaging process are performed so as to partially overlap in time. However, the signal extraction in a certain individual imaging process ends before the exposure in the next individual imaging process ends.

したがって、本実施形態においては、図21(b)に示すように、3次元形状情報取得のための8回の信号取り出しが時間的に隙間なく連続的に行われる。   Therefore, in the present embodiment, as shown in FIG. 21B, eight signal extractions for acquiring the three-dimensional shape information are continuously performed with no time gap.

各回の信号取り出しは、それが間引き画像処理として実行される場合には、約33msで終了する。したがって、8回の信号取り出しは約0.26sで終了する。よって、図21に示す撮像時間(全体撮像時間)のうち3次元形状情報取得のための撮像に必要な部分(以下、「部分撮像時間」という。)の長さは、信号取り出し時間の長さの合計値によって支配されるため、約0.26sの程度の長さで済む。   Each signal extraction is completed in about 33 ms if it is executed as a thinned image process. Therefore, eight signal extractions are completed in about 0.26 s. Therefore, the length of the part (hereinafter referred to as “partial imaging time”) necessary for imaging for obtaining the three-dimensional shape information in the imaging time (total imaging time) shown in FIG. 21 is the length of the signal extraction time. Therefore, a length of about 0.26 s is required.

これに対し、各回の信号取り出しは、それを非間引き画像処理として実行すると、約0.5sも必要である。そのため、8回の信号取り出しに約5sも必要となり、よって、それに対応する部分撮像時間もその程度の長さが必要となる。   On the other hand, if each signal is extracted as non-decimated image processing, about 0.5 s is required. Therefore, about 5 s is required for eight signal extractions, and accordingly, the corresponding partial imaging time is also required to be as long as that.

このように、CCD70からの信号取り出しを間引き画像処理として実行する場合には、撮像時間が短縮され、その結果、被写体Sの動きや3次元入力装置10の手振れにもかかわらず、被写体Sの3次元形状を高精度で計測できる。   As described above, when the signal extraction from the CCD 70 is executed as the thinned image processing, the imaging time is shortened. As a result, the 3 of the subject S can be obtained regardless of the movement of the subject S and the camera shake of the three-dimensional input device 10. Dimensional shape can be measured with high accuracy.

さらに、図21に示すように、本実施形態においては、3次元形状情報取得のための2回目ないし8回目の露光のそれぞれと、表面色情報取得のための露光とが、それぞれ、先行する直前の露光に対応する信号取り出しの終了を待つことなく、開始される。先行する露光に対応する信号取り出しと、後続する露光とが互いに並行して行われるのであり、これにより、9回の信号取出しが時間的に隙間なく連続的に行われる。したがって、図21に示す撮像時間、すなわち、3次元形状情報取得のための撮像と表面色情報取得のための撮像との双方を連続的に行うのに必要な時間が短縮される。   Further, as shown in FIG. 21, in the present embodiment, each of the second to eighth exposures for acquiring the three-dimensional shape information and the exposure for acquiring the surface color information are immediately preceding each other. The process is started without waiting for the end of signal extraction corresponding to the exposure. The signal extraction corresponding to the preceding exposure and the subsequent exposure are performed in parallel with each other, whereby nine signal extractions are continuously performed with no time gap. Therefore, the imaging time shown in FIG. 21, that is, the time necessary to continuously perform both the imaging for acquiring the three-dimensional shape information and the imaging for acquiring the surface color information is shortened.

具体的には、各回の信号取り出しは、それが間引き画像処理として実行される場合には、約33msで終了するため、9回の信号取り出しは約0.3sで終了し、よって、それに対応する全体撮像時間もその程度の長さで済む。   Specifically, since each signal extraction is completed in about 33 ms when it is executed as a thinned-out image process, nine signal extractions are completed in about 0.3 s, and thus correspond to it. The entire imaging time can be as long as that.

仮に、表面色情報取得のための1回の個別撮像処理すなわち表面色計測撮像処理(信号取り出しが非間引き画像処理として実行される。)を先に、3次元形状情報取得のための8回の個別撮像処理すなわち3次元計測撮像処理(信号取り出しが間引き画像処理として実行される。)を後に実行した場合には、先行する表面色計測撮像処理における信号取出しがほとんど終了するまで、3次元形状情報取得のための初回の露光を待たせなければならない。その待ち時間は、信号取り出し時間t2の長さにほぼ等しく、約0.5sである。   Temporarily, one individual imaging process for surface color information acquisition, that is, surface color measurement imaging process (signal extraction is executed as non-decimated image processing) is performed eight times for acquiring three-dimensional shape information. When individual imaging processing, that is, three-dimensional measurement imaging processing (signal extraction is executed as a thinned-out image processing) is performed later, three-dimensional shape information is obtained until signal extraction in the preceding surface color measurement imaging processing is almost completed. You have to wait for the first exposure for acquisition. The waiting time is approximately equal to the length of the signal extraction time t2 and is about 0.5 s.

この場合には、表面色情報取得のための露光と、3次元形状情報取得のための初回の露光との間にやや長い時間間隔が存在し、図21に示す全体撮像時間が長くなる。一方、測定ヘッドMHと被写体Sとの間の相対変位が存在しないかないしは十分に小さい場合には、その全体撮像時間がやや長いことは問題にならない。これに対し、測定ヘッドMHと被写体Sとの間の相対変位が大きい場合には、その全体撮像時間が長いと、表面色情報と3次元形状情報とが画素の位置に関して互いに十分に正確にマッチングしなくなってしまう。すなわち、テクスチャマッピング精度が低下してしまうのである。   In this case, there is a slightly longer time interval between the exposure for acquiring the surface color information and the first exposure for acquiring the three-dimensional shape information, and the total imaging time shown in FIG. 21 becomes longer. On the other hand, when the relative displacement between the measuring head MH and the subject S does not exist or is sufficiently small, it is not a problem that the entire imaging time is slightly long. On the other hand, when the relative displacement between the measuring head MH and the subject S is large, if the entire imaging time is long, the surface color information and the three-dimensional shape information are matched sufficiently accurately with respect to the pixel position. I will not. That is, the texture mapping accuracy is lowered.

これに対し、本実施形態においては、図21に示すように、3次元形状情報取得のための8回の個別撮像処理が先に、表面色情報取得のための1回の個別撮像処理が後に行われる。その結果、先行する3次元形状情報取得のための8回目の露光と、後続する表面色情報取得のための露光とを、先行する3次元形状情報取得のための8回の露光が行われる周期と同じ周期で連続して行うことが可能となる。よって、本実施形態によれば、全体撮像時間を、約0.3s程度にまで短縮することが可能となる。   On the other hand, in this embodiment, as shown in FIG. 21, eight individual imaging processes for acquiring three-dimensional shape information are performed first, and one individual imaging process for acquiring surface color information is performed later. Done. As a result, the eighth exposure for acquiring the preceding three-dimensional shape information and the subsequent exposure for acquiring the surface color information are performed eight times for acquiring the preceding three-dimensional shape information. It becomes possible to carry out continuously with the same period. Therefore, according to the present embodiment, it is possible to reduce the total imaging time to about 0.3 s.

したがって、本実施形態によれば、3次元形状情報取得のための露光と表面色情報取得のための露光とを十分に短い時間間隔で連続して行うことが可能となり、その結果、測定ヘッドMHと被写体Sの間の相対変位の有無やその程度の大小にかかわらず、高いテクスチャマッッピング精度が実現される。   Therefore, according to this embodiment, it is possible to continuously perform exposure for acquiring three-dimensional shape information and exposure for acquiring surface color information at sufficiently short time intervals, and as a result, the measurement head MH. Regardless of the presence or absence of relative displacement between the subject S and the subject S, high texture mapping accuracy is realized.

よって、本実施形態によれば、3次元形状情報取得のためのCCD70からの信号取り出しを間引き画像処理モードで実行する場合(ユーザがFASTモードを選択する場合)には、高いテクスチャ解像度すなわち表面色計測精度を確保しつつ、高いテクスチャマッピング精度で動画を撮像するのに適した3次元入力装置10が提供される。   Therefore, according to the present embodiment, when the signal extraction from the CCD 70 for obtaining the three-dimensional shape information is executed in the thinned image processing mode (when the user selects the FAST mode), the high texture resolution, that is, the surface color A three-dimensional input device 10 suitable for capturing a moving image with high texture mapping accuracy while ensuring measurement accuracy is provided.

さらに、本実施形態においては、ユーザが、3次元形状情報を取得するための画像処理モードを、間引き画像処理モードすなわちFASTモードと、非間引き画像処理モードすなわちSLOWモードとに適宜変更することが可能である。テクスチャマッピング精度の低下が懸念される環境において、ユーザがFASTモードを選択すれば、そのような環境にもかかわらず、テクスチャマッピング精度が低下せずに済む。一方、テクスチャマッピング精度の低下が懸念されない環境において、ユーザがSLOWモードを選択すれば、高いテクスチャマッピング精度のみならず高い3次元形状計測精度も実現される。   Furthermore, in this embodiment, the user can appropriately change the image processing mode for acquiring the three-dimensional shape information into a thinned image processing mode, that is, a FAST mode, and a non-thinned image processing mode, that is, a SLOW mode. It is. If the user selects the FAST mode in an environment where a decrease in texture mapping accuracy is a concern, the texture mapping accuracy does not decrease in spite of such an environment. On the other hand, if the user selects the SLOW mode in an environment where there is no concern about a decrease in texture mapping accuracy, not only high texture mapping accuracy but also high three-dimensional shape measurement accuracy is realized.

このように、本実施形態によれば、3次元入力装置10の使用環境や3次元形状計測精度とテクスチャマッピング精度とのそれぞれに対するユーザの要望に応じて、3次元入力装置10の設定をユーザが任意に変更することができ、よって、3次元入力装置10の使い勝手が向上する。   As described above, according to the present embodiment, the user sets the three-dimensional input device 10 according to the use environment of the three-dimensional input device 10 and the user's request for each of the three-dimensional shape measurement accuracy and the texture mapping accuracy. It can be arbitrarily changed, so that the usability of the three-dimensional input device 10 is improved.

ここで、図22を参照することにより、図18におけるS1220を詳述する。図22には、そのS1220が3次元計測処理サブルーチンとしてフローチャートで概念的に表されている。   Here, S1220 in FIG. 18 will be described in detail with reference to FIG. FIG. 22 conceptually shows the S1220 in a flowchart as a three-dimensional measurement processing subroutine.

この3次元計測処理サブルーチンにおいては、まず、S4001において、輝度画像生成プログラム404cの実行により、輝度画像が生成される。   In this three-dimensional measurement processing subroutine, first, in S4001, a luminance image is generated by executing the luminance image generation program 404c.

このS4001においては、輝度値が、YCbCr空間におけるY値として定義されており、各画素のRGB値より、   In S4001, the luminance value is defined as the Y value in the YCbCr space, and from the RGB value of each pixel,

Y=0.2989・R+0.5866・G+0.1145・B   Y = 0.2989 · R + 0.5866 · G + 0.1145 · B

なる式を用いて計算される。各画素についてY値を求めることにより、複数枚のパターン光有画像にそれぞれ対応複数枚の輝度画像が生成される。それら生成された輝度画像は、パターン番号PNに関連付けて輝度画像格納部406cに格納される。ただし、輝度値の算出に用いられる式は、上記式に限定されるものではなく、他の式に適宜変更することが可能である。 It is calculated using the following formula. By obtaining the Y value for each pixel, a plurality of luminance images corresponding to the plurality of pattern light existence images are generated. The generated luminance images are stored in the luminance image storage unit 406c in association with the pattern number PN. However, the formula used for calculating the luminance value is not limited to the above formula, and can be appropriately changed to another formula.

次に、S4002において、コード画像生成プログラム404dが実行される。このコード画像生成プログラム404dが実行されると、生成された複数枚の輝度画像が前述の空間コード化法を利用して組み合わされることにより、各画素ごとに空間コードが割り当てられたコード画像が生成される。そのコード画像は、輝度画像格納部406cに格納された複数種類のパターン光有画像に関する輝度画像と、各画素ごとに輝度閾値が割り当てられた閾値画像との比較による2値化処理によって生成される。その生成されたコード画像はコード画像格納部406dに格納される。   Next, in S4002, the code image generation program 404d is executed. When the code image generation program 404d is executed, a plurality of generated luminance images are combined using the above-described spatial encoding method to generate a code image in which a spatial code is assigned to each pixel. Is done. The code image is generated by binarization processing by comparing a luminance image related to a plurality of types of pattern light existence images stored in the luminance image storage unit 406c and a threshold image to which a luminance threshold is assigned for each pixel. . The generated code image is stored in the code image storage unit 406d.

図22には、このコード画像生成プログラム404dの詳細がフローチャートで概念的に表されている。このコード画像生成プログラム404dにおいて採用されている技術は、本出願人の特願2004−285736号明細書に詳細に記載されているため、その特許出願を参照することにより、その特許出願の内容を本明細書に合体させる。   FIG. 22 conceptually shows the details of the code image generation program 404d in a flowchart. The technology adopted in the code image generation program 404d is described in detail in the specification of the applicant's Japanese Patent Application No. 2004-285736. Therefore, by referring to the patent application, the contents of the patent application can be changed. Combined herein.

以下、このコード画像生成プログラム404dを時系列的に説明するが、それに先立ち、原理的に説明する。   Hereinafter, the code image generation program 404d will be described in time series, but prior to that, it will be described in principle.

本実施形態においては、同じ被写体S(3次元対象物)につき、複数種類のパターン光のもとにそれぞれ複数枚の輝度画像が生成される。それらパターン光はいずれも、明部、すなわち、幅を有する明るいパターンラインと、暗部、すなわち、幅を有する暗いパターンラインとが交互に一定の周期で繰り返すように形成される。それらパターン光は、その周期に関して互いに異なっており、それぞれ、パターン番号PNを有するパターン光と称される。それらパターン光のうち最も短い周期を有するパターン光が、パターン番号PNが0であるパターン光であり、最も長い周期を有するパターン光が、パターン番号PNが(PNmax−1)であるパターン光である。   In the present embodiment, a plurality of luminance images are generated for the same subject S (three-dimensional object) under a plurality of types of pattern light. Each of the pattern lights is formed such that a bright part, that is, a bright pattern line having a width, and a dark part, that is, a dark pattern line having a width, are alternately repeated at a constant period. The pattern lights are different from each other with respect to the period, and are each referred to as a pattern light having a pattern number PN. Among the pattern lights, the pattern light having the shortest cycle is the pattern light having the pattern number PN of 0, and the pattern light having the longest cycle is the pattern light having the pattern number PN of (PNmax-1). .

いずれの輝度画像も、対応するパターン光のもとに取得されるため、明部としての明るいパターンラインと、暗部としての暗いパターンラインとが交互に並んで成るパターン画像として形成される。パターンライン間の間隔すなわち周期は、3次元入力装置10と被写体Sとの間における相対的な幾何学的関係(位置および向きに関する関係)に依存するため、各輝度画像内のすべての位置において一定であるとは限らない。複数種類のパターン光のもとにそれぞれ取得される複数枚の輝度画像は、対応するパターン光のパターン番号PNを用いて特定される。   Since any luminance image is acquired under the corresponding pattern light, it is formed as a pattern image in which bright pattern lines as bright portions and dark pattern lines as dark portions are alternately arranged. Since the interval, that is, the period between the pattern lines depends on the relative geometric relationship (relationship between position and orientation) between the three-dimensional input device 10 and the subject S, it is constant at all positions in each luminance image. Not necessarily. A plurality of luminance images respectively acquired under a plurality of types of pattern light are specified using the pattern number PN of the corresponding pattern light.

本実施形態においては、それら複数枚の輝度画像のうちのいずれかが代表パターン画像に選択される。その代表パターン画像の一典型例は、複数種類のパターン光のうちパターンライン周期が最小であるものに対応する輝度画像であり、これは、パターン番号PNが0である輝度画像である。   In the present embodiment, any one of the plurality of luminance images is selected as the representative pattern image. A typical example of the representative pattern image is a luminance image corresponding to one of a plurality of types of pattern light having a minimum pattern line cycle. This is a luminance image having a pattern number PN of 0.

パターン光が投影された被写体Sを撮像した輝度画像においては、輝度値が画素列の方向において空間的にかつ周期的に変化する。その周期的変化を表すグラフにそれの複数個の下ピーク点(最低輝度点)において接する包絡線が存在する。この包絡線は、同じ被写体Sを無照射状態で撮像した輝度画像における輝度値、すなわち、被写体Sの背景光の輝度値の空間的変化を表している。このような包絡線が存在する輝度画像については、各画素の輝度値を閾値処理によって正確に2値化するためには、閾値を画素位置に応じて変化させることが望ましい。すなわち、輝度画像の実際の輝度値変化をトラッキングすることによって閾値を適応的に変化させることが望ましいのである。   In the luminance image obtained by imaging the subject S on which the pattern light is projected, the luminance value changes spatially and periodically in the direction of the pixel column. In the graph representing the periodic change, there is an envelope that touches at a plurality of lower peak points (lowest luminance points). This envelope represents a spatial change in the luminance value in the luminance image obtained by imaging the same subject S in the non-irradiated state, that is, the luminance value of the background light of the subject S. For a luminance image in which such an envelope exists, in order to binarize the luminance value of each pixel accurately by threshold processing, it is desirable to change the threshold according to the pixel position. That is, it is desirable to adaptively change the threshold value by tracking the actual luminance value change of the luminance image.

このような知見に基づき、本実施形態においては、輝度画像に対してフィルタ処理を行うことによって閾値を算出するフィルタ窓がローカルに設定され、フィルタ処理されることによりその位置に適した閾値が、輝度画像に対してローカルに設定される。輝度画像のうちのあるローカル位置に窓が設定されれば、輝度画像を構成する複数本のパターンラインのうちその窓内に存在する画素の輝度値が取り出されて参照されることにより、そのあるローカル位置に対応する閾値が設定される。   Based on such knowledge, in this embodiment, a filter window for calculating a threshold value by performing filter processing on the luminance image is set locally, and the threshold value suitable for the position by the filter processing is Set locally for the luminance image. If a window is set at a certain local position in the luminance image, the luminance value of the pixel existing in the window is extracted and referred to from among the plurality of pattern lines constituting the luminance image, and the window is set. A threshold value corresponding to the local position is set.

本実施形態において使用される窓は、方形窓である。この方形窓を採用する場合には、その方形窓内に存在する複数本のパターンラインを構成する画素の輝度値が取り出され、それら輝度値に対して同一の重み係数が用いられて閾値が算出される。その重み係数により、方形窓の窓関数が定義される。   The window used in this embodiment is a rectangular window. When this rectangular window is adopted, the luminance values of the pixels constituting the plurality of pattern lines existing in the rectangular window are extracted, and the threshold value is calculated by using the same weighting coefficient for the luminance values. Is done. The window function of the rectangular window is defined by the weight coefficient.

さらに、方形窓を採用する場合には、その方形窓の、パターンラインが延びるライン方向におけるライン方向サイズに応じて、その方形窓内においてライン方向に存在する画素の数を可変とすることができる。一方、その方形窓の、複数本のパターンラインが列を成して並ぶ列方向における列方向サイズに応じて、その方形窓内において列方向に存在するパターンラインの数も画素の数も可変とすることができる。   Further, when a rectangular window is adopted, the number of pixels existing in the line direction in the rectangular window can be made variable according to the line direction size in the line direction in which the pattern line extends. . On the other hand, the number of pattern lines and the number of pixels existing in the column direction in the rectangular window are variable according to the column direction size in the column direction in which a plurality of pattern lines are arranged in a row. can do.

したがって、方形窓を採用する場合には、その方形窓の列方向サイズにより、輝度画像に窓を設定することによってその輝度画像から算出される閾値が変化することになる。よって、その閾値を適応的に変化させることが必要である場合には、方形窓の列方向サイズを適応的に変化させればよい。   Therefore, when a rectangular window is adopted, the threshold value calculated from the luminance image changes by setting the window in the luminance image depending on the column direction size of the rectangular window. Therefore, when it is necessary to adaptively change the threshold value, the column direction size of the rectangular window may be adaptively changed.

本実施形態においては、方形窓として構成される窓のサイズが、その窓内に存在するパターンラインの数がそれらパターンラインの間隔すなわち周期(例えば、明るいパターンラインが繰り返される周期)の整数倍であるように設定することが望ましい。すなわち、窓内に、明るいパターンラインと暗いパターンラインとが同数ずつ存在するように窓のサイズを設定することが望ましいのである。このように設定すれば、窓内に存在する複数本のパターンラインの輝度値の平均値を算出することにより、望ましい閾値を高精度取得することができる。   In the present embodiment, the size of the window configured as a rectangular window is such that the number of pattern lines existing in the window is an integral multiple of the interval between the pattern lines, that is, the period (for example, the period in which bright pattern lines are repeated). It is desirable to set so that there is. That is, it is desirable to set the size of the window so that the same number of bright pattern lines and dark pattern lines exist in the window. With this setting, it is possible to obtain a desired threshold with high accuracy by calculating the average value of the luminance values of a plurality of pattern lines existing in the window.

しかしながら、同じ輝度画像上であっても、パターンラインの周期は場所によって異なる可能性がある。そのため、窓のサイズを固定した場合には、窓内に存在するパターンラインの数が場所によって変動してしまい、閾値の設定精度が低下してしまう。   However, even on the same luminance image, the pattern line period may vary depending on the location. Therefore, when the size of the window is fixed, the number of pattern lines existing in the window varies depending on the location, and the threshold setting accuracy is lowered.

本実施形態においては、複数枚の輝度画像のうち、パターンラインの周期が最小であるパターン光のもとに撮像されたもの、すなわち、パターン番号PNが0である輝度画像が代表パターン画像として選択される。さらに、本実施形態においては、その代表パターン画像に対してローカルに設定される窓VWが、それのサイズが可変である可変窓として構成されている。それにより、その可変窓VWのサイズが、代表パターン画像の実際のパターンライン周期に適応して変化させられる。   In the present embodiment, among a plurality of luminance images, an image captured under the pattern light having the minimum pattern line period, that is, a luminance image having a pattern number PN of 0 is selected as the representative pattern image. Is done. Furthermore, in this embodiment, the window VW set locally with respect to the representative pattern image is configured as a variable window whose size is variable. Thereby, the size of the variable window VW is changed in conformity with the actual pattern line period of the representative pattern image.

したがって、本実施形態によれば、代表パターン画像におけるパターンライン周期が列方向位置に応じて変動しても、それに追従するように可変窓VWのサイズが変更され、その結果、パターンライン周期の変動にもかかわらず、可変窓VW内に存在する明部と暗部のパターンラインの数が一定に維持される。本実施形態においては、代表パターン画像に対して可変窓VWが設定される各ローカル位置ごとに閾値THが取得される。各ローカル位置ごとの閾値THは、各ローカル位置に最適なサイズを有する可変窓VWのもとに精度よく取得されることになる。   Therefore, according to the present embodiment, even if the pattern line period in the representative pattern image varies according to the position in the column direction, the size of the variable window VW is changed so as to follow it, and as a result, the pattern line period varies. Nevertheless, the number of bright and dark pattern lines existing in the variable window VW is kept constant. In the present embodiment, the threshold value TH is acquired for each local position where the variable window VW is set for the representative pattern image. The threshold value TH for each local position is accurately obtained based on the variable window VW having the optimum size for each local position.

また、明部と暗部のパターンラインの数が一定に維持されるような可変窓VWのサイズは、パターン番号PNが0である輝度画像において最小となる。したがって、パターン番号PNが0である輝度画像を代表パターン画像として選択することにより、最小の可変窓VWのサイズが可能になり、可変窓VWを用いた後のフィルタ処理の計算負担を抑えることが可能になる。   In addition, the size of the variable window VW that keeps the number of bright and dark pattern lines constant is minimum in a luminance image having a pattern number PN of zero. Therefore, by selecting a luminance image whose pattern number PN is 0 as a representative pattern image, the size of the minimum variable window VW can be made, and the calculation burden of the filter processing after using the variable window VW can be suppressed. It becomes possible.

本実施形態においては、その可変窓VWが、サイズが可変である方形窓として構成されている。その可変窓VWのサイズは、代表パターン画像の列方向には可変であるが、ライン方向には固定であるように設定されている。   In the present embodiment, the variable window VW is configured as a rectangular window having a variable size. The size of the variable window VW is set so as to be variable in the column direction of the representative pattern image but fixed in the line direction.

本実施形態においては、その可変窓VWのサイズ、すなわち、代表パターン画像の列方向におけるサイズが、その代表パターン画像の実際のパターンライン周期を適応的に反映するように設定される。そのため、可変窓VWのサイズを設定するために、代表パターン画像の実際のパターンライン周期分布が事前に判明していることが必要である。   In the present embodiment, the size of the variable window VW, that is, the size in the column direction of the representative pattern image is set so as to adaptively reflect the actual pattern line period of the representative pattern image. Therefore, in order to set the size of the variable window VW, it is necessary that the actual pattern line period distribution of the representative pattern image is known in advance.

よって、本実施形態においては、可変窓VWのサイズの設定に先立ち、サイズが固定された固定窓が代表パターン画像に対して設定される。その設定された固定窓によって捕捉される複数個の連続画素が複数個の注目画素として選択され、それら選択された注目画素の輝度値に基づき、代表パターン画像の実際のパターンライン周期分布が取得される。   Therefore, in this embodiment, prior to setting the size of the variable window VW, a fixed window with a fixed size is set for the representative pattern image. A plurality of continuous pixels captured by the set fixed window are selected as a plurality of target pixels, and an actual pattern line period distribution of the representative pattern image is acquired based on the luminance values of the selected target pixels. The

本実施形態においては、さらに、代表パターン画像における複数個の注目画素の輝度値に対してFFT(Fast Fourier Transform:高速フーリエ変換)処理が施され、それにより、代表パターン画像の列方向において輝度値変化の周波数成分のそれぞれについて強度(例えば、パワースペクトル)が取得される。ここに、「周波数成分」は、1個の固定窓によって捕捉される複数個の注目画素を列方向に辿った場合に、輝度値の変化が反復される反復回数を意味する。   In the present embodiment, further, FFT (Fast Fourier Transform) processing is performed on the luminance values of a plurality of pixels of interest in the representative pattern image, whereby the luminance value in the column direction of the representative pattern image. Intensity (eg, power spectrum) is acquired for each frequency component of the change. Here, the “frequency component” means the number of repetitions in which the change in luminance value is repeated when a plurality of target pixels captured by one fixed window are traced in the column direction.

本実施形態においては、代表パターン画像において列方向に連続的に並んだ複数個の連続画素のそれぞれが順次注目画素に選定され、その選定された各注目画素ごとにパターンライン周期が、代表パターン画像の輝度値分布に基づいて取得される。   In the present embodiment, each of a plurality of continuous pixels continuously arranged in the column direction in the representative pattern image is sequentially selected as a target pixel, and the pattern line period for each of the selected target pixels is the representative pattern image. Obtained based on the luminance value distribution.

以上、このコード画像生成プログラム404dを原理的に説明したが、以下、図23を参照することにより、時系列的に説明する。   The code image generation program 404d has been described in principle above. Hereinafter, the code image generation program 404d will be described in time series with reference to FIG.

このコード画像生成プログラム404dにおいては、まず、S5001において、パターン番号PNが0であるパターン光が投影された被写体Sが撮像された輝度画像が輝度画像格納部406cから、代表パターン画像として読み込まれる。   In the code image generation program 404d, first, in S5001, a luminance image obtained by imaging the subject S onto which pattern light having a pattern number PN of 0 is captured is read from the luminance image storage unit 406c as a representative pattern image.

次に、S5002において、その代表パターン画像につき、前記読み込まれた輝度画像に基づき、前述のFFT変換によるアプローチにより、代表パターン画像において列方向に連続的に並んだ各画素ごとにパターンライン周期が演算される。演算された複数個のパターンライン周期は各画素(各列方向画素位置)に関連付けて周期分布格納部406pに格納される。   Next, in S5002, the pattern line cycle is calculated for each pixel that is continuously arranged in the column direction in the representative pattern image based on the read luminance image for the representative pattern image by the above-described approach by FFT conversion. Is done. The plurality of calculated pattern line periods are stored in the period distribution storage unit 406p in association with each pixel (each column direction pixel position).

続いて、S5003において、演算された複数個のパターンライン周期に基づき、可変窓VWの特性がローカルに設定される。本実施形態においては、可変窓VWのライン方向サイズは、その可変窓VWが設定される代表パターン画像上の位置にかかわらず、変化しないように設定されるのに対し、可変窓VWの列方向サイズは、各列方向画素位置に関連付けて演算されたパターンライン周期の整数倍に相当するように設定される。   Subsequently, in S5003, the characteristics of the variable window VW are set locally based on the plurality of calculated pattern line periods. In the present embodiment, the line direction size of the variable window VW is set so as not to change regardless of the position on the representative pattern image where the variable window VW is set, whereas the column direction of the variable window VW The size is set so as to correspond to an integral multiple of the pattern line period calculated in association with each column direction pixel position.

その後、S5004において、代表パターン画像に対して可変窓VWが、ライン方向と列方向とに沿って平面的に、かつ、各画素に関連付けて設定される。それにより、各画素ごとに、可変窓VW内に存在する複数個の画素の輝度値の平均値がローカルな閾値として演算される。このS5004においては、さらに、演算された閾値が各画素に割り当てられた閾値画像が生成される。生成された閾値画像は閾値画像格納部406qに格納される。   After that, in S5004, a variable window VW is set for the representative pattern image in a plane along the line direction and the column direction and in association with each pixel. Thereby, for each pixel, an average value of luminance values of a plurality of pixels existing in the variable window VW is calculated as a local threshold value. In S5004, a threshold image in which the calculated threshold value is assigned to each pixel is further generated. The generated threshold image is stored in the threshold image storage unit 406q.

続いて、S5005において、パターン番号PNが0に初期化され、その後、S5006において、パターン番号PNの現在値が最大値PNmaxより小さいか否かが判定される。今回は、パターン番号PNの現在値が0であるため、判定がNOとなり、S5007に移行する。   Subsequently, in S5005, the pattern number PN is initialized to 0. Thereafter, in S5006, it is determined whether or not the current value of the pattern number PN is smaller than the maximum value PNmax. Since the current value of the pattern number PN is 0 this time, the determination is no and the process moves to S5007.

このS5007においては、パターン番号PNの現在値と等しいパターン番号PNが割り当てられた輝度画像の輝度値と、前記生成された閾値画像の閾値とが、各画素ごとに互いに比較される。その比較結果は、各画素ごとに2値化画像に反映される。具体的には、輝度画像の輝度値が閾値より大きい場合には、「1」を表すデータが、2値化画像のうち対応する画素位置に関連付けて2値化画像格納部406rに格納され、一方、輝度画像の輝度値が閾値より大きくはない場合には、「0」を表すデータが、2値化画像のうち対応する画素位置に関連付けて2値化画像格納部406rに格納される。   In S5007, the luminance value of the luminance image assigned the pattern number PN equal to the current value of the pattern number PN and the threshold value of the generated threshold image are compared with each other for each pixel. The comparison result is reflected in the binarized image for each pixel. Specifically, when the luminance value of the luminance image is larger than the threshold, data representing “1” is stored in the binarized image storage unit 406r in association with the corresponding pixel position in the binarized image, On the other hand, when the luminance value of the luminance image is not greater than the threshold value, data representing “0” is stored in the binarized image storage unit 406r in association with the corresponding pixel position in the binarized image.

その後、S5008において、パターン番号PNが1だけインクリメントされる。続いて、S5006に戻り、パターン番号PNの現在値が最大値PNmaxより小さいか否かが判定される。今回も、最大値PNmaxより小さい場合には、判定がNOとなり、S5007に移行する。   Thereafter, in S5008, the pattern number PN is incremented by one. Subsequently, returning to S5006, it is determined whether or not the current value of the pattern number PN is smaller than the maximum value PNmax. Again, if it is smaller than the maximum value PNmax, the determination is no and the process moves to S5007.

S5006ないしS5008の実行がパターン光の種類の数と同数回繰り返された結果、パターン番号PNの現在値が最大値PNmaxより小さくはない値になると、S5006の判定がYESとなり、S5009に移行する。   As a result of the execution of S5006 to S5008 being repeated the same number of times as the number of types of pattern light, if the current value of the pattern number PN becomes a value not smaller than the maximum value PNmax, the determination in S5006 becomes YES, and the process proceeds to S5009.

このS5009においては、各画素ごとに、最大値PNmaxと同数枚の2値化画像から画素値(「1」または「0」)が、パターン番号PNが0である輝度画像に対応する2値化画像から、パターン番号PNが(PNmax−1)である輝度画像に対応する2値化画像に至る順序に従って抽出され、最下位ビットLSMから最上位ビットMSBに至る順序に従って並んだ空間コードが生成される。各画素ごとの空間コードのビット数は、最大値PNmaxと同数である。各画素ごとに空間コードが生成されることにより、今回の被写体Sに対応する空間コード画像が生成される。生成された空間コードは、各画素位置に関連付けて空間コード格納部116dに格納される。例えば、最大値PNmaxが8である場合には、生成される空間コードは0から255までの範囲内の値を有する。   In S5009, for each pixel, the binarization corresponding to the luminance image in which the pixel value (“1” or “0”) from the same number of binarized images as the maximum value PNmax is the pattern number PN is 0. The spatial code is extracted from the image in accordance with the order from the binary image corresponding to the luminance image having the pattern number PN of (PNmax-1), and the spatial code arranged in the order from the least significant bit LSM to the most significant bit MSB is generated. The The number of bits of the spatial code for each pixel is the same as the maximum value PNmax. By generating a spatial code for each pixel, a spatial code image corresponding to the current subject S is generated. The generated spatial code is stored in the spatial code storage unit 116d in association with each pixel position. For example, when the maximum value PNmax is 8, the generated spatial code has a value in the range of 0 to 255.

以上で、このコード画像生成プログラム404dの一回の実行が終了する。   This completes one execution of the code image generation program 404d.

その後、図22におけるS4003において、コード境界抽出プログラム404eの実行により、コード境界座標検出処理が実施される。前述の空間コード化法によるコード化は、各画素単位で行われるため、実際のパターン光における明暗の境界線と、前記生成されたコード画像における空間コードの境界線(ある空間コードが割り当てられた領域と別の空間コードが割り当てられた領域との間の境界線)との間にサブピクセル精度の誤差が生ずる。そのため、このコード境界座標検出処理は、空間コードの境界座標値をサブピクセル精度で検出することを目的として実施される。   Thereafter, in S4003 in FIG. 22, a code boundary coordinate detection process is performed by executing the code boundary extraction program 404e. Since the coding by the above-described spatial coding method is performed in units of pixels, the bright / dark boundary line in the actual pattern light and the spatial code boundary line in the generated code image (a certain spatial code is assigned) An error in sub-pixel accuracy occurs between the region and the boundary between the region assigned with another spatial code. Therefore, this code boundary coordinate detection process is performed for the purpose of detecting the boundary coordinate value of the spatial code with subpixel accuracy.

例えば、各パターン光のライン方向と交差する離散的な基準線の位置をCCD座標系において255本設定すると、最大値PNmaxが8(空間コードを256有するため、境界は255)である場合には、図22におけるS4003(コード境界抽出プログラム404eの実行)により、最大約6万5千の空間コードの境界座標値が検出される。   For example, when 255 discrete reference line positions intersecting the line direction of each pattern light are set in the CCD coordinate system, the maximum value PNmax is 8 (the boundary is 255 because it has 256 spatial codes). , S4003 (execution of the code boundary extraction program 404e) in FIG. 22 detects boundary coordinate values of a maximum of about 65,000 spatial codes.

検出されたコード境界座標値はコード境界座標格納部406eに格納される。コード境界座標値は、CCD70の結像面に設定された2次元座標系であるCCD座標系ccdx−ccdyにおいて定義される。   The detected code boundary coordinate value is stored in the code boundary coordinate storage unit 406e. The code boundary coordinate values are defined in a CCD coordinate system ccdx-ccdy, which is a two-dimensional coordinate system set on the imaging plane of the CCD 70.

続いて、S4004において、レンズ収差補正プログラム404fの実行により、レンズ収差補正処理が実施される。このレンズ収差補正処理は、撮像光学系30に入射した光束の実際の結像位置であってその撮像光学系30の収差の影響を受けたものを、その撮像光学系30が理想レンズであったならば結像されるはずである理想結像位置に近づくように補正する処理である。   Subsequently, in S4004, a lens aberration correction process is performed by executing the lens aberration correction program 404f. In this lens aberration correction processing, the actual imaging position of the light beam incident on the imaging optical system 30 that is affected by the aberration of the imaging optical system 30 is the ideal lens. If so, it is a process of correcting the image so as to approach the ideal image formation position where the image should be formed.

このレンズ収差補正処理により、S4003において検出されたコード境界座標値が、撮像光学系30の歪みなどに起因した誤差が除去されるように補正される。そのようにして補正されたコード境界座標は収差補正座標格納部406gに格納される。   By this lens aberration correction process, the code boundary coordinate value detected in S4003 is corrected so that an error caused by distortion of the imaging optical system 30 or the like is removed. The code boundary coordinates corrected as described above are stored in the aberration correction coordinate storage unit 406g.

それらコード境界座標検出処理およびレンズ収差補正処理はいずれも、本発明を理解するために不可欠な事項ではなく、しかも、本出願人の特願2004−105426号明細書に詳細に開示されているため、それを参照することによって本明細書に合体させることにより、本明細書においては詳細な説明を省略する。   Neither the code boundary coordinate detection process nor the lens aberration correction process is indispensable for understanding the present invention, and is disclosed in detail in the specification of the applicant's Japanese Patent Application No. 2004-105426. The detailed description is omitted in this specification by combining it with this specification by referring to it.

その後、S4005において、三角測量演算プログラム404gの実行により、三角測量の原理による実空間変換処理が実施される。この実空間変換処理が実施されれば、三角測量の原理により、前述の、CCD座標系ccdx−ccdy上のコード境界座標値であって収差補正が施されたものが、実空間に設定された3次元座標系である実空間座標系X−Y−Z上の3次元座標値に変換され、その結果、3次元色形状検出結果としての3次元座標値が取得される。その取得された3次元座標値は、対応する部分画像の回転位相PHに関連付けて、3次元座標格納部406hに格納される。   Thereafter, in S4005, real space conversion processing based on the principle of triangulation is performed by executing the triangulation calculation program 404g. If this real space conversion process is performed, the above-described code boundary coordinate values on the CCD coordinate system ccdx-ccdy and subjected to aberration correction are set in the real space according to the principle of triangulation. It is converted into a three-dimensional coordinate value on the real space coordinate system XYZ which is a three-dimensional coordinate system, and as a result, a three-dimensional coordinate value as a three-dimensional color shape detection result is acquired. The acquired three-dimensional coordinate value is stored in the three-dimensional coordinate storage unit 406h in association with the rotation phase PH of the corresponding partial image.

このS4005においては、被写体Sの3次元形状を複数個の3次元頂点の集まりとして空間離散的に計測するために、2次元的なコード画像が、各パターン光のライン方向と交差する離散的な複数本の基準線に関して空間離散的に参照される。これにより、そのコード画像の外周境界上の複数個の離散点にそれぞれ対応する複数個の3次元頂点が取得されるのみならず、そのコード画像の内部の複数個の離散点(S4003において検出されたコードの境界座標点)にそれぞれ対応する複数個の3次元頂点が取得される。   In S4005, in order to spatially discretely measure the three-dimensional shape of the subject S as a collection of a plurality of three-dimensional vertices, the two-dimensional code image is discretely intersected with the line direction of each pattern light. Reference is made spatially with respect to a plurality of reference lines. As a result, not only a plurality of three-dimensional vertices respectively corresponding to a plurality of discrete points on the outer boundary of the code image are acquired, but also a plurality of discrete points (detected in S4003) inside the code image. A plurality of three-dimensional vertices respectively corresponding to the boundary coordinate points of the codes are acquired.

ここで、図24を参照することにより、図18におけるS1230を詳述する。図24には、そのS1230が3次元色形状検出結果生成サブルーチンとして概念的にフローチャートで表されている。   Here, S1230 in FIG. 18 will be described in detail with reference to FIG. FIG. 24 conceptually shows the S1230 as a three-dimensional color shape detection result generation subroutine in a flowchart.

この3次元色形状検出結果生成サブルーチンにおいては、まず、S5501において、3次元座標格納部406hから、回転位相PH0ないし3のそれぞれに関連付けて、複数個の3次元座標値がロードされる。本実施形態においては、被写体Sの外面全体が4つの部分面(正面、右側面、左側面および背面)に分割され、各部分面ごとに立体画像が生成される。このS5501においては、それら4つの部分面のすべてについて、各部分面に属する複数個の3次元座標値が3次元座標格納部406hからロードされる。   In the three-dimensional color shape detection result generation subroutine, first, in S5501, a plurality of three-dimensional coordinate values are loaded from the three-dimensional coordinate storage unit 406h in association with the rotation phases PH0 to PH3. In the present embodiment, the entire outer surface of the subject S is divided into four partial surfaces (front, right side, left side, and back), and a stereoscopic image is generated for each partial surface. In S5501, a plurality of three-dimensional coordinate values belonging to each of the four partial surfaces are loaded from the three-dimensional coordinate storage unit 406h for all four partial surfaces.

次に、S5502において、それらロードされた複数個の3次元座標値(頂点座標値)に対し、各3次元座標値が属する各部分面の回転位相PHに応じた回転変換が行われ、それにより、4つの部分面に属する複数個の3次元座標値が、各部分面の回転位相PHを見込んで組み合わされる。その結果、複数個の3次元座標値によって3次元的に表現される4つの部分面が一体化されて、被写体Sの外面全体を現す画像が合成される。ただし、この段階においては、その合成画像に、測定ヘッドMHの分割撮像手法に起因して空間的にオーバラップする部分が存在する。   Next, in S5502, the plurality of loaded three-dimensional coordinate values (vertex coordinate values) are subjected to rotational transformation according to the rotational phase PH of each partial surface to which each three-dimensional coordinate value belongs, thereby A plurality of three-dimensional coordinate values belonging to the four partial surfaces are combined in anticipation of the rotational phase PH of each partial surface. As a result, four partial surfaces that are three-dimensionally expressed by a plurality of three-dimensional coordinate values are integrated, and an image showing the entire outer surface of the subject S is synthesized. However, at this stage, there is a portion that overlaps spatially due to the divided imaging method of the measurement head MH in the synthesized image.

続いて、S5503において、その生成された合成画像において空間的にオーバラップする部分が抽出される。さらに、その合成画像の長さ方向における各領域においてオーバラップする2つの部分が、それら2部分に属する複数個の3次元座標値の平均化等の手法により、1つの部分に結合される。その結果、合成画像において空間的なオーバラップが除去され、それにより、ステッチ画像が完成する。そのステッチ画像を表すデータがステッチ画像格納部406sに格納される。   Subsequently, in S5503, a spatially overlapping portion is extracted from the generated composite image. Further, two overlapping portions in each region in the length direction of the composite image are combined into one portion by a technique such as averaging of a plurality of three-dimensional coordinate values belonging to the two portions. As a result, spatial overlap is removed in the composite image, thereby completing the stitch image. Data representing the stitch image is stored in the stitch image storage unit 406s.

その後、S6001において、前述の実空間3次元座標系に座標変換された3次元頂点群の各実座標空間座標値に対応するRGB値(R輝度値、G輝度値およびB輝度値)が前述の表面色画像から抽出される。   Thereafter, in S6001, the RGB values (R luminance value, G luminance value, and B luminance value) corresponding to each real coordinate space coordinate value of the three-dimensional vertex group coordinate-converted to the above-described real space three-dimensional coordinate system are set as described above. Extracted from the surface color image.

実空間座標系と、表面色画像を定義する平面座標系との関係は、前述の三角測量計算によって幾何学的に互いに対応付けられている。すなわち、コード画像、すなわち、被写体Sの3次元形状を計測するための2次元画像である形状画像を定義する平面座標系を実空間3次元座標系に計算によってマッピングさせるために用いられる関数が存在する場合に、その関数の逆関数を用いることにより、実空間3次元座標系を、表面色画像を定義する平面座標系に計算によってマッピングさせることが可能なのである。したがって、このS6001においては、2次元的な表面色画像から、各3次元頂点ごとに、それに対応する表面色値すなわちRGB値を抽出することが可能である。   The relationship between the real space coordinate system and the plane coordinate system that defines the surface color image is geometrically associated with each other by the triangulation calculation described above. That is, there is a function used for mapping a code image, that is, a plane coordinate system defining a shape image, which is a two-dimensional image for measuring the three-dimensional shape of the subject S, to a real space three-dimensional coordinate system by calculation. In this case, by using an inverse function of the function, a real space three-dimensional coordinate system can be mapped by calculation to a plane coordinate system that defines a surface color image. Therefore, in S6001, it is possible to extract the surface color value, that is, the RGB value, corresponding to each three-dimensional vertex from the two-dimensional surface color image.

次に、S6002において、各頂点ごとに、対応する実空間座標値とRGB値とが組み合わされて色形状情報が生成される。さらに、その生成された色形状情報が、対応する頂点に直接にまたは間接に関連付けてワーキングエリア410にローカル保存される。   In step S6002, color shape information is generated by combining corresponding real space coordinate values and RGB values for each vertex. Further, the generated color shape information is stored locally in the working area 410 in association with the corresponding vertex directly or indirectly.

続いて、S6003において、被写体Sの表面形状を複数個のポリゴンの一例である三角形に分割することによって近似的に表現するために、その被写体Sについて取得された複数個の頂点のうち、距離的に互いに近接する複数個の頂点が3個ずつ、グループ分けされる。各グループごとに、3個の頂点が互いに連結されることにより、1個のポリゴンが形成される。   Subsequently, in S6003, in order to approximately represent the surface shape of the subject S by dividing it into triangles, which are examples of a plurality of polygons, among the plurality of vertices acquired for the subject S, the distance A plurality of vertices adjacent to each other are grouped in groups of three. For each group, three vertices are connected to each other to form one polygon.

その後、S6004において、各ポリゴンごとに、そのポリゴンを形成するために互いに連結すべき3個の頂点の組合せがポリゴン情報として、各ポリゴンに直接にまたは間接に関連付けてワーキングエリア410にローカル保存される。また、そのポリゴン情報は、必要に応じ、被写体Sの3次元色形状を表す情報として、3次元色形状データ格納部406tに格納される。   Thereafter, in S6004, for each polygon, a combination of three vertices to be connected to form the polygon is locally stored in the working area 410 as polygon information, directly or indirectly associated with each polygon. . The polygon information is stored in the three-dimensional color shape data storage unit 406t as information representing the three-dimensional color shape of the subject S as necessary.

以上で、この3次元色形状検出結果生成サブルーチンの一回の実行が終了し、それに伴い、図18に示す3次元色形状検出処理ルーチンの一回の実行が終了する。   Thus, one execution of the three-dimensional color shape detection result generation subroutine is completed, and accordingly, one execution of the three-dimensional color shape detection processing routine shown in FIG. 18 is ended.

本実施形態においては、ユーザがホルダHDを格納状態から、ヘッドベース130とテーブルベース132とが同一平面にあるように展開すると、測定ヘッドMHに対する回転テーブル184の相対位置が自動的にかつ一義的に決まる。その相対位置は、例えば、測定ヘッドMHからの距離と、その測定ヘッドMHの光軸に対する角度とによって規定される。   In the present embodiment, when the user unfolds the holder HD so that the head base 130 and the table base 132 are on the same plane, the relative position of the rotary table 184 with respect to the measuring head MH is automatically and uniquely determined. It is decided. The relative position is defined by, for example, the distance from the measurement head MH and the angle of the measurement head MH with respect to the optical axis.

本実施形態においては、ホルダHDを構成する4枚の板状部材間の距離が、そのホルダHDの姿勢の変化に依存しないし、それら4枚の板状部材間の角度も、ホルダHDの姿勢の変化に依存しない。   In the present embodiment, the distance between the four plate-like members constituting the holder HD does not depend on the change in the posture of the holder HD, and the angle between the four plate-like members also depends on the posture of the holder HD. Does not depend on changes in

したがって、本実施形態によれば、ホルダHDを格納状態から展開したときに自動的に位置決めされる回転テーブル184の、測定ヘッドMHに対する相対位置が常に同じものとして再現される。よって、本実施形態によれば、ユーザは、そのようにして同じ展開位置が再現される回転テーブル184に被写体Sを載置するだけで、測定ヘッドMHに対する被写体Sの位置決めが自動的に行われる。   Therefore, according to the present embodiment, the relative position of the rotary table 184, which is automatically positioned when the holder HD is expanded from the stored state, with respect to the measuring head MH is always reproduced as the same. Therefore, according to the present embodiment, the user can automatically position the subject S with respect to the measuring head MH simply by placing the subject S on the rotary table 184 in which the same unfolded position is reproduced. .

その結果、本実施形態によれば、ユーザが回転テーブル184に被写体Sを載置する限り、その被写体Sの、測定ヘッドMHに対する相対位置の変化可能領域が縮小し、それにより、その変化可能領域の広さを見込んで測定ヘッドMHが撮像しなければならない領域(撮像可能領域)も縮小する。   As a result, according to the present embodiment, as long as the user places the subject S on the turntable 184, the changeable area of the relative position of the subject S with respect to the measurement head MH is reduced. The area (image pickup possible area) that the measurement head MH needs to image in consideration of the size of the area is also reduced.

よって、本実施形態によれば、被写体Sを配置する際の空間的自由度が高い前述の従来例に比較し、被写体Sの撮像および測定のために測定ヘッドMHに課されるべき負担を軽減することが容易となる。   Therefore, according to the present embodiment, compared with the above-described conventional example having a high degree of spatial freedom when the subject S is arranged, the burden imposed on the measurement head MH for imaging and measuring the subject S is reduced. Easy to do.

被写体Sの撮像および測定のために測定ヘッドMHに課されるべき負担が軽減される理由はその他にも存在する。その一例を説明するに、回転テーブル184を用いた、被写体Sの4面方向(PN=0〜3)からの3次元形状測定において、その回転テーブル184の回転中心軸の座標を推定するための処理が高効率化される。   There are other reasons why the burden imposed on the measurement head MH for imaging and measurement of the subject S is reduced. To explain an example, in the three-dimensional shape measurement of the subject S from the four plane directions (PN = 0 to 3) using the rotation table 184, the coordinates of the rotation center axis of the rotation table 184 are estimated. Processing is highly efficient.

具体的に説明するに、本実施形態においては、被写体Sが配置される回転テーブル184の回転中心軸の、測定ヘッドMHに対する空間座標値が既知である。したがって、4面各々についての3次元形状測定結果である各3次元座標値(図23におけるS4005において演算される。)に対して、前記回転中心軸を中心に空間回転演算処理を行うことにより、被写体Sの形状および色を表すポリゴンサーフェスおよびテクスチャのステッチ処理(結合処理)が行われ、ひいては、最終的な出力である、被写体Sの全周の3次元色形状検出結果が生成される(図18におけるS1230)。その結果、被写体Sの全周の形状および色が、位置のずれなく、正しく結合されることになる。   Specifically, in this embodiment, the spatial coordinate value of the rotation center axis of the rotary table 184 on which the subject S is arranged with respect to the measurement head MH is known. Accordingly, by performing spatial rotation calculation processing around the rotation center axis for each three-dimensional coordinate value (calculated in S4005 in FIG. 23) which is a three-dimensional shape measurement result for each of the four surfaces, Polygon surface and texture stitch processing (combination processing) representing the shape and color of the subject S is performed, and as a result, the final output of the three-dimensional color shape detection result of the entire circumference of the subject S is generated (see FIG. 18 at S1230). As a result, the shape and color of the entire circumference of the subject S are correctly combined without any positional deviation.

この3次元入力装置10においては、ホルダHDが格納状態から展開されると、回転テーブル184が自動的に位置決めされ、その際、その回転テーブル184の、測定ヘッドMHに対する相対位置が、位置決めごとに、同じものとして再現される。したがって、この3次元入力装置10によれば、回転テーブル184が自動的に位置決めされるごとに、その回転テーブル184の回転中心軸の、測定ヘッドMHに対する相対位置も、同じものとして再現される。   In the three-dimensional input device 10, when the holder HD is unfolded from the stored state, the rotary table 184 is automatically positioned. At this time, the relative position of the rotary table 184 with respect to the measuring head MH is set for each positioning. Is reproduced as the same thing. Therefore, according to the three-dimensional input device 10, every time the rotary table 184 is automatically positioned, the relative position of the rotation center axis of the rotary table 184 with respect to the measuring head MH is also reproduced as the same.

よって、この3次元入力装置10によれば、被写体Sの3次元測定のために、回転テーブル184の回転中心軸の検出または推定を完全にないしは部分的に省略可能となる。   Therefore, according to the three-dimensional input device 10, for the three-dimensional measurement of the subject S, detection or estimation of the rotation center axis of the turntable 184 can be omitted completely or partially.

回転テーブル184の回転中心軸の推定を行うにしても、その推定が行われるべき空間領域の大きさを、展開時におけるホルダHDの各ジョイント(各ヒンジ部)140,142,144に存在するクリアランス(がた)に起因する回転中心軸の位置変動を考慮して決定すれば足り、よって、その空間領域が小さくて済む。   Even when the rotation center axis of the rotary table 184 is estimated, the size of the space area to be estimated is determined by the clearance existing in each joint (each hinge part) 140, 142, 144 of the holder HD at the time of deployment. It is sufficient to determine in consideration of the position fluctuation of the rotation center axis due to (again), and thus the space area can be small.

いずれにしても、本実施形態によれば、同じ被写体Sにつき、各面ごとに独立して測定された複数の形状および色を正しく結合するために行われる回転中心軸推定処理の負担を軽減することが容易となる。ここに、「回転中心軸推定処理」の一例としては、被写体Sの全周について離散的に測定された複数の色形状間の位置ずれが実質的に最小となるように、回転中心軸の座標を推定する手法を採用することが可能である。   In any case, according to the present embodiment, for the same subject S, the burden of the rotation center axis estimation process performed to correctly combine a plurality of shapes and colors independently measured for each surface is reduced. It becomes easy. Here, as an example of the “rotation center axis estimation process”, the coordinates of the rotation center axis are set so that the positional deviation between the plurality of color shapes discretely measured on the entire circumference of the subject S is substantially minimized. It is possible to employ a method for estimating

被写体Sの撮像および測定のために測定ヘッドMHに課されるべき負担が軽減される別の理由を説明するに、ホルダHDが展開されるごとに、回転テーブル184が常に同じ正規位置(測定ヘッドMHからの距離および角度)に自動的に位置決めされるため、被写体Sが常に撮像視野の中心に位置するという効果、焦点調節を簡略化することができるという効果等が得られ、それら効果により、被写体Sの撮像および測定のために測定ヘッドMHに課されるべき負担が軽減される。   To explain another reason for reducing the burden imposed on the measuring head MH for imaging and measuring the subject S, the rotary table 184 always has the same normal position (measuring head) every time the holder HD is deployed. (The distance and the angle from MH) are automatically positioned, so that the effect that the subject S is always located at the center of the imaging field, the effect that the focus adjustment can be simplified, and the like are obtained. The burden imposed on the measuring head MH for imaging and measuring the subject S is reduced.

さらに、ホルダHDが展開されるごとに、回転テーブル184が常に同じ正規位置(測定ヘッドMHからの距離および角度)に自動的に位置決めされるため、測定ヘッドMの撮像可能領域いっぱいに配置された被写体Sを、撮像視野内で画面全体にできる限り大きく撮像することが容易となる。その結果、被写体Sの3次元入力精度を向上させることが容易となり、このことによっても、被写体Sの撮像および測定のために測定ヘッドMHに課されるべき負担が軽減される可能性がある。   Furthermore, each time the holder HD is deployed, the rotary table 184 is always automatically positioned at the same normal position (distance and angle from the measuring head MH), and therefore, the entire position of the measuring head M that can be imaged is arranged. It becomes easy to image the subject S as large as possible on the entire screen within the imaging field of view. As a result, it becomes easy to improve the three-dimensional input accuracy of the subject S, and this also may reduce the burden imposed on the measurement head MH for imaging and measuring the subject S.

さらに、本実施形態によれば、それ自体幾何学的な再現性を有して変形可能なホルダHDにより、回転テーブルユニットRTと測定ヘッドMHとが物理的に互いに関連付けられる。したがって、本実施形態によれば、ユーザが、ホルダHDの変形によって回転テーブルユニットRTを測定ヘッドMHに格納する作業が単純化されるとともに、ユーザが、特別の配慮なしで、回転テーブルユニットRTを測定ヘッドMHにコンパクトに格納することが可能となる。   Furthermore, according to the present embodiment, the rotary table unit RT and the measuring head MH are physically associated with each other by the holder HD that is deformable with geometric reproducibility. Therefore, according to this embodiment, the user can simplify the operation of storing the rotary table unit RT in the measuring head MH by the deformation of the holder HD, and the user can install the rotary table unit RT without any special consideration. It is possible to store in the measuring head MH in a compact manner.

以上の説明から明らかなように、本実施形態においては、投影部12が前記(1)項に係る「投影装置」の一例を構成し、光源部68が同項における「光源」の一例を構成し、光変調体200が同項における「光変調体」の一例を構成し、投影光学系32が同項における「光学系」の一例を構成しているのである。   As is clear from the above description, in the present embodiment, the projection unit 12 constitutes an example of the “projection device” according to the item (1), and the light source unit 68 constitutes an example of the “light source” in the item. The light modulator 200 constitutes an example of the “light modulator” in the same term, and the projection optical system 32 constitutes an example of the “optical system” in the same term.

さらに、本実施形態においては、光変調体200が前記(3)項における「透過型の光変調体」の一例を構成し、光直進部310が前記(5)項における「光直進部」の一例を構成し、光偏向部312が同項における「光偏向部」の一例を構成しているのである。   Further, in the present embodiment, the light modulator 200 constitutes an example of the “transmission type light modulator” in the item (3), and the light rectilinear unit 310 corresponds to the “light rectilinear unit” in the item (5). One example is configured, and the light deflection unit 312 constitutes one example of the “light deflection unit” in the same section.

さらに、本実施形態においては、投影部12が前記(12)項に係る「投影装置」の一例を構成し、光源部68が同項における「電磁波源」の一例を構成し、光変調体200が同項における「電磁波変調体」の一例を構成し、投影光学系32が同項における「選択部」の一例を構成しているのである。   Further, in the present embodiment, the projection unit 12 constitutes an example of the “projection device” according to the item (12), the light source unit 68 constitutes an example of the “electromagnetic wave source” in the item, and the light modulator 200. Constitutes an example of “electromagnetic wave modulator” in the same term, and the projection optical system 32 constitutes an example of “selection unit” in the same term.

なお付言するに、本実施形態においては、光変調体200が、空間に関して非選択的に光透過を行う形式とされているが、例えば、空間に関して非選択的に光反射を行う形式の光変調体に変更して本発明を実施することが可能である。   In addition, in the present embodiment, the light modulator 200 is configured to transmit light non-selectively with respect to space, but for example, light modulation with a format that performs light reflection non-selectively with respect to space. It is possible to change the body to implement the present invention.

さらに付言するに、本実施形態においては、光変調体200が、入射光の偏向を行わない光直進部310と、入射光の偏向を行う光偏向部312とを含むように構成されている。これに対し、この光変調体200を、例えば、いずれも入射光の偏向を行う小偏向部と大偏向部とであって、大偏向部は小偏向部より大きい角度で入射光を偏向するものを含む光変調体に置換して本発明を実施することが可能である。   In addition, in this embodiment, the light modulator 200 is configured to include an optical rectilinear unit 310 that does not deflect incident light and an optical deflector 312 that deflects incident light. On the other hand, the light modulator 200 includes, for example, a small deflection unit and a large deflection unit that deflect incident light, and the large deflection unit deflects incident light at an angle larger than that of the small deflection unit. It is possible to carry out the present invention by substituting a light modulator including

さらに付言するに、本実施形態においては、複数種類のパターン光が選択的に物体に投影されるが、固定パターン光を物体に投影することによってその物体の3次元形状を入力する3次元入力装置に本発明を適用することが可能である。この場合、入射光に対して位置が固定された光変調体における所定の部分が、入射光を通過光成分と非通過光成分とに分割する作用を有することになる。その結果、前述の実施形態と同様にして、この3次元入力装置を、その入力精度を確保しつつ、安価に製造することが容易となる。   In addition, in this embodiment, a plurality of types of pattern light is selectively projected onto an object, but a three-dimensional input device that inputs a three-dimensional shape of the object by projecting fixed pattern light onto the object. It is possible to apply this invention to. In this case, a predetermined portion of the light modulator whose position is fixed with respect to the incident light has an action of dividing the incident light into a passing light component and a non-passing light component. As a result, like the above-described embodiment, it is easy to manufacture the three-dimensional input device at low cost while ensuring the input accuracy.

以上、本発明の実施の形態のうちのいくつかを図面に基づいて詳細に説明したが、これらは例示であり、前記[発明の開示]の欄に記載の態様を始めとして、当業者の知識に基づいて種々の変形、改良を施した他の形態で本発明を実施することが可能である。   As described above, some of the embodiments of the present invention have been described in detail with reference to the drawings. However, these are merely examples, and the knowledge of those skilled in the art including the aspects described in the above [Disclosure of the Invention] section. It is possible to implement the present invention in other forms in which various modifications and improvements are made based on the above.

本発明の一実施形態に従う3次元入力装置10の外観を展開状態において示す斜視図である。It is a perspective view which shows the external appearance of the three-dimensional input device 10 according to one Embodiment of this invention in an unfolded state. 図1に示す3次元入力装置10を部分的に展開状態において示す側面図および背面図である。It is the side view and back view which show the three-dimensional input device 10 shown in FIG. 1 in a partially expanded state. 図1における測定ヘッドMHとヘッドベース130との取付構造を説明するための部分断面背面図である。FIG. 2 is a partial cross-sectional rear view for explaining an attachment structure between a measurement head MH and a head base 130 in FIG. 1. 図1における回転テーブルユニットRTを示す背面断面図である。FIG. 2 is a rear sectional view showing the rotary table unit RT in FIG. 1. 図1に示す3次元入力装置10を格納状態において示す斜視図およびその3次元入力装置10が外箱OC内に収納される様子を説明するための斜視図である。It is the perspective view which shows the three-dimensional input device 10 shown in FIG. 1 in a storage state, and the perspective view for demonstrating a mode that the three-dimensional input device 10 is accommodated in the outer box OC. 図1における測定ヘッドMHの内部構成を示す平面断面図である。FIG. 2 is a plan sectional view showing an internal configuration of the measurement head MH in FIG. 1. 図1における投影部12を拡大して示す平面図である。It is a top view which expands and shows the projection part 12 in FIG. 図1に示す3次元入力装置10の電気的構成を概念的に表すブロック図である。FIG. 2 is a block diagram conceptually showing an electrical configuration of the three-dimensional input device 10 shown in FIG. 1. 図6における投影機構66を示す正面図である。It is a front view which shows the projection mechanism 66 in FIG. 図9に示す投影機構66の要部を示す部分断面平面図である。FIG. 10 is a partial cross-sectional plan view showing a main part of the projection mechanism 66 shown in FIG. 9. 図9における回転角度調節機構270を部分的に拡大して示す正面図である。FIG. 10 is a partially enlarged front view showing a rotation angle adjusting mechanism 270 in FIG. 9. 図9における光変調体200を拡大して示す正面図である。It is a front view which expands and shows the light modulator 200 in FIG. 図12に示す光変調体200における一対の光直進部310と光偏向部312とをさらに拡大して示す断面図である。FIG. 13 is a cross-sectional view further enlarging a pair of light rectilinear portion 310 and light deflecting portion 312 in the light modulator 200 shown in FIG. 12. 図13に示す光直進部310および光偏向部312のそれぞれにおける光偏向作用を原理的に説明するための断面図である。It is sectional drawing for demonstrating in principle the light deflection effect | action in each of the light rectilinear advance part 310 and the light deflection | deviation part 312 shown in FIG. 図13に示す光偏向部312に対する複数の変形例をそれぞれ示す複数の断面図である。FIG. 14 is a plurality of cross-sectional views illustrating a plurality of modified examples of the light deflection unit 312 illustrated in FIG. 13. 図8におけるカメラ制御プログラムにおいて実行されるメイン処理を概念的に表すフローチャートである。It is a flowchart which represents notionally the main process performed in the camera control program in FIG. 図16におけるS108において実行される立体画像処理を概念的に表すフローチャートである。17 is a flowchart conceptually showing stereoscopic image processing executed in S108 in FIG. 図17におけるS1007において実行される3次元色形状検出処理を3次元色形状検出処理ルーチンとして概念的に表すフローチャートである。FIG. 18 is a flowchart conceptually showing the three-dimensional color shape detection process executed in S1007 in FIG. 17 as a three-dimensional color shape detection process routine. 図18におけるS1210を撮像処理プログラム404bとして概念的に表すフローチャートである。FIG. 19 is a flowchart conceptually showing S1210 in FIG. 18 as an imaging processing program 404b. 図19におけるS2007において実行される投影処理を投影処理サブルーチンとして概念的に表すフローチャートである。FIG. 20 is a flowchart conceptually showing the projection processing executed in S2007 in FIG. 19 as a projection processing subroutine. 図1に示す3次元入力装置10の作動の一例を説明するためのタイミングチャートである。It is a timing chart for demonstrating an example of the action | operation of the three-dimensional input device 10 shown in FIG. 図18におけるS1220を3次元計測処理サブルーチンとして概念的に表すフローチャートである。FIG. 19 is a flowchart conceptually showing S1220 in FIG. 18 as a three-dimensional measurement processing subroutine. 図22におけるS4002において実行されるコード画像生成プログラム404dを概念的に表すフローチャートである。It is a flowchart which represents notionally the code image generation program 404d performed in S4002 in FIG. 図18におけるS1230を3次元色形状検出結果生成ルーチンとして概念的に表すフローチャートである。19 is a flowchart conceptually showing S1230 in FIG. 18 as a three-dimensional color shape detection result generation routine.

符号の説明Explanation of symbols

10 3次元入力装置
12 投影部
14 撮像部
16 処理部
24 鏡筒
32 投影光学系
34 投影レンズ
36 絞り
66 投影機構
68 光源部
106 入射面
108 出射面
200 光変調体
260 平面的光学素子
264 基板
310 光直進部
312 光偏向部
DESCRIPTION OF SYMBOLS 10 3D input device 12 Projection part 14 Imaging part 16 Processing part 24 Lens tube 32 Projection optical system 34 Projection lens 36 Diaphragm 66 Projection mechanism 68 Light source part 106 Incident surface 108 Output surface 200 Light modulator 260 Planar optical element 264 Substrate 310 Light straight section 312 Light deflection section

Claims (12)

物体にパターン光を投影する投影装置であって、
光源と、
その光源からの入射光を少なくとも部分的に、角度的または光度分布的に変調して出射する光変調体と、
その光変調体からの出射光の複数の角度成分のうち、予め定められた入射開口に適合する放射角特性を有するものを選択的に通過させる光学系と
を含み、
前記光変調体は、前記入射光に対して、前記光変調体の表面形状に依存した光学的変調を行い、
その光変調体は、表面形状が互いに異なる2つの部分が少なくとも1組、前記光変調体に沿った方向において交互に並ぶように構成され、
前記2つの部分のうちの一方からは、前記入射開口に適合する放射角特性を有する角度成分が、その後に前記光学系を通過する通過光成分として出射する一方、前記2つの部分のうちの他方からは、前記入射開口に適合しない放射角特性を有する角度成分が、その後に前記光学系を通過しない非通過光成分として出射する投影装置。
A projection device that projects pattern light onto an object,
A light source;
A light modulator for emitting incident light from the light source after being at least partially modulated in an angular or luminous intensity distribution; and
An optical system that selectively allows passage of a plurality of angular components of light emitted from the light modulator and having a radiation angle characteristic suitable for a predetermined incident aperture; and
The light modulator performs optical modulation on the incident light depending on a surface shape of the light modulator,
The light modulator is configured such that at least one set of two portions having different surface shapes are arranged alternately in a direction along the light modulator,
From one of the two parts, an angle component having a radiation angle characteristic suitable for the incident aperture is emitted as a passing light component that subsequently passes through the optical system, while the other of the two parts. From the above, a projection device in which an angle component having a radiation angle characteristic that does not match the incident aperture is emitted as a non-passing light component that does not pass through the optical system thereafter.
前記光変調体は、前記入射光と公差する向きに延びる請求項1に記載の投影装置。   The projection apparatus according to claim 1, wherein the light modulator extends in a direction that is in tolerance with the incident light. 前記光変調体は、前記入射光を透過する透過型である請求項1または2に記載の投影装置。   The projection apparatus according to claim 1, wherein the light modulator is a transmissive type that transmits the incident light. 前記光変調体は、前記入射光を反射する反射型である請求項1または2に記載の投影装置。   The projection device according to claim 1, wherein the light modulator is of a reflective type that reflects the incident light. 前記2つの部分のうちの一方は、前記入射光に対して直角な表面を有し、その表面によって前記入射光が変調されずに出射する光直進部であり、
前記2つの部分のうちの他方は、前記入射光に対して傾斜する表面を有し、その表面によって前記入射光が変調されて出射する光変調部であり、
それら光直進部と光変調部とのうちの一方からの出射光が前記通過光成分である一方、他方からの出射光が前記非通過光成分である請求項1ないし4のいずれかに記載の投影装置。
One of the two parts has a surface perpendicular to the incident light, and is a light straight-ahead part that emits the incident light without being modulated by the surface,
The other of the two parts is a light modulator that has a surface inclined with respect to the incident light, and the incident light is modulated and emitted by the surface.
5. The light output from one of the light straight traveling part and the light modulation part is the passing light component, and the light emitted from the other is the non-passing light component. 6. Projection device.
前記2つの部分は、共に、前記入射光に対して傾斜する表面を有し、その表面によって前記入射光が変調されて出射する2つの光変調部であり、
それら2つの光変調部は、前記入射光に対する前記表面の角度が互いに異なり、前記各光変調部からの出射光の放射角特性も互いに異なり、
それら2つの光変調部のうちの一方からの出射光が前記通過光成分である一方、他方からの出射光が前記非通過光成分である請求項1ないし4のいずれかに記載の投影装置。
The two parts are two light modulators that both have a surface inclined with respect to the incident light, and the incident light is modulated and emitted by the surface,
The two light modulation units are different from each other in the angle of the surface with respect to the incident light, and the radiation angle characteristics of the emitted light from the respective light modulation units are also different from each other.
The projection apparatus according to claim 1, wherein light emitted from one of the two light modulation units is the passing light component, and light emitted from the other is the non-passing light component.
前記2つの部分のうちの少なくとも一方は、屋根型プリズムとして構成される請求項1ないし6のいずれかに記載の投影装置。   The projection device according to claim 1, wherein at least one of the two portions is configured as a roof prism. 前記2つの部分のうちの少なくとも一方は、それの表面形状として機械的ランダム散乱形状を有する請求項1ないし6のいずれかに記載の投影装置。   The projection device according to claim 1, wherein at least one of the two portions has a mechanical random scattering shape as a surface shape thereof. 前記2つの部分のうちの少なくとも一方は、回折格子として構成される請求項1ないし6のいずれかに記載の投影装置。   The projection apparatus according to claim 1, wherein at least one of the two parts is configured as a diffraction grating. 前記パターン光は、少なくとも2種類のパターン光を含み、
前記光変調体は、前記入射光に対して相対的に移動させられることにより、前記少なくとも2種類のパターン光を選択的に前記物体に投影する請求項1ないし9のいずれかに記載の投影装置。
The pattern light includes at least two types of pattern light,
The projection device according to claim 1, wherein the light modulator selectively moves the at least two kinds of pattern light onto the object by being moved relative to the incident light. .
前記2つの部分は、ストライプ状を成す請求項1ないし10のいずれかに記載の投影装置。   The projection device according to claim 1, wherein the two portions are formed in a stripe shape. 物体にパターン電磁波を投影する投影装置であって、
電磁波源と、
その電磁波源からの入射電磁波を少なくとも部分的に、角度的または立体角当たりの電磁パワー放射分布的に変調して出射する電磁波変調体と、
その電磁波変調体からの出射電磁波の複数の角度成分のうち、予め定められた入射開口に適合する放射角特性を有するものを選択的に通過させる選択部と
を含み、
前記電磁波変調体は、前記入射電磁波に対して、前記電磁波変調体の表面形状に依存した電磁波的変調を行い、
その電磁波変調体は、表面形状が互いに異なる2つの部分が少なくとも1組、前記電磁波変調体に沿った方向において交互に並ぶように構成され、
前記2つの部分のうちの一方からは、前記入射開口に適合する放射角特性を有する角度成分が、その後に前記選択部によって選択される選択電磁波成分として出射する一方、前記2つの部分のうちの他方からは、前記入射開口に適合しない放射角特性を有する角度成分が、その後に前記選択部によって選択されない非選択電磁波成分として出射する投影装置。
A projection device that projects a pattern electromagnetic wave on an object,
An electromagnetic source,
An electromagnetic wave modulator that emits an electromagnetic wave emitted from the electromagnetic wave source after being modulated at least partially in an electromagnetic power radiation distribution per angular or solid angle;
A selection unit that selectively allows passage of a plurality of angular components of the electromagnetic wave emitted from the electromagnetic wave modulator and having a radiation angle characteristic suitable for a predetermined incident aperture;
The electromagnetic wave modulator performs electromagnetic wave modulation depending on the surface shape of the electromagnetic wave modulator with respect to the incident electromagnetic wave,
The electromagnetic wave modulator is configured such that at least one set of two portions having different surface shapes are arranged alternately in a direction along the electromagnetic wave modulator,
From one of the two parts, an angle component having a radiation angle characteristic suitable for the incident aperture is emitted as a selected electromagnetic wave component that is then selected by the selection unit, while From the other side, a projection apparatus that emits an angle component having a radiation angle characteristic that does not match the incident aperture as a non-selective electromagnetic wave component that is not subsequently selected by the selection unit.
JP2005173095A 2005-06-14 2005-06-14 Projection device Expired - Fee Related JP4595690B2 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2005173095A JP4595690B2 (en) 2005-06-14 2005-06-14 Projection device
PCT/JP2006/311192 WO2006134793A1 (en) 2005-06-14 2006-06-05 Projector
US11/957,215 US7751066B2 (en) 2005-06-14 2007-12-14 Projector and three-dimensional input apparatus using the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005173095A JP4595690B2 (en) 2005-06-14 2005-06-14 Projection device

Publications (2)

Publication Number Publication Date
JP2006349390A true JP2006349390A (en) 2006-12-28
JP4595690B2 JP4595690B2 (en) 2010-12-08

Family

ID=37645414

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005173095A Expired - Fee Related JP4595690B2 (en) 2005-06-14 2005-06-14 Projection device

Country Status (1)

Country Link
JP (1) JP4595690B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015185724A (en) * 2014-03-25 2015-10-22 株式会社サーマプレシジョン Exposure method of stereoscopic workpiece
JP2020193945A (en) * 2019-05-30 2020-12-03 本田技研工業株式会社 Measurement device, grasping system, method for controlling measurement device, and program

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0353103A (en) * 1989-07-21 1991-03-07 Omron Corp Surface shape discriminating device
JP2003050111A (en) * 2001-08-07 2003-02-21 Minolta Co Ltd Three-dimensional shape input device and projector
JP2004053532A (en) * 2002-07-23 2004-02-19 Ricoh Co Ltd Optical shape measuring device

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0353103A (en) * 1989-07-21 1991-03-07 Omron Corp Surface shape discriminating device
JP2003050111A (en) * 2001-08-07 2003-02-21 Minolta Co Ltd Three-dimensional shape input device and projector
JP2004053532A (en) * 2002-07-23 2004-02-19 Ricoh Co Ltd Optical shape measuring device

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015185724A (en) * 2014-03-25 2015-10-22 株式会社サーマプレシジョン Exposure method of stereoscopic workpiece
JP2020193945A (en) * 2019-05-30 2020-12-03 本田技研工業株式会社 Measurement device, grasping system, method for controlling measurement device, and program

Also Published As

Publication number Publication date
JP4595690B2 (en) 2010-12-08

Similar Documents

Publication Publication Date Title
WO2006134793A1 (en) Projector
JP2007271530A (en) Apparatus and method for detecting three-dimensional shape
EP3516328B1 (en) Non-contact coordinate measuring machine using hybrid cyclic binary code structured light
EP2615412B1 (en) Scanner device and device for measuring three-dimensional shape of object
US11468557B2 (en) Free orientation fourier camera
JP2006300531A (en) Three-dimensional shape measuring device
JP2007256116A (en) Three-dimensional shape detector
JP2005090958A (en) Three-dimensional imaging apparatus and method
CN108169887B (en) 3D multi-focal plane structured light rapid microscopic imaging system and method
CN1251178A (en) Display device incorporating one-dimensional high-speed grating light valve array
JP2005293075A5 (en)
JP2005293075A (en) 3-dimensional shape detection device, 3-dimensional shape detection method, 3-dimensional shape detection program
JP2006267031A (en) Three-dimensional input apparatus and method
JP2021025914A (en) Three-dimensional shape measuring device, three-dimensional shape measuring method, three-dimensional shape measuring program and computer-readable recording medium, and recorded equipment
JP4552485B2 (en) Image input / output device
WO2019116526A1 (en) Projection device, interface device, and projection method
JP4595690B2 (en) Projection device
JP4447970B2 (en) Object information generation apparatus and imaging apparatus
WO2007119396A1 (en) Three-dimensional information measuring apparatus
JP7363068B2 (en) 3D information acquisition system
JP2006349394A (en) Three-dimensional input device
US20210131798A1 (en) Structured light projection optical system for obtaining 3d data of object surface
JP2007212159A (en) Calibration tool used for calibration of three-dimensional shape detector and calibration method therefor
JP2006266957A (en) Three-dimensional input apparatus
JP2007255974A (en) Three-dimensional information measuring apparatus

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080317

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100615

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100802

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100824

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100906

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131001

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees