JP2006267031A - Three-dimensional input apparatus and method - Google Patents

Three-dimensional input apparatus and method Download PDF

Info

Publication number
JP2006267031A
JP2006267031A JP2005089076A JP2005089076A JP2006267031A JP 2006267031 A JP2006267031 A JP 2006267031A JP 2005089076 A JP2005089076 A JP 2005089076A JP 2005089076 A JP2005089076 A JP 2005089076A JP 2006267031 A JP2006267031 A JP 2006267031A
Authority
JP
Japan
Prior art keywords
imaging
image
dimensional
pixel
surface color
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2005089076A
Other languages
Japanese (ja)
Inventor
Takao Iwasaki
岳雄 岩崎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Brother Industries Ltd
Original Assignee
Brother Industries Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Brother Industries Ltd filed Critical Brother Industries Ltd
Priority to JP2005089076A priority Critical patent/JP2006267031A/en
Priority to PCT/JP2006/305788 priority patent/WO2006104001A1/en
Publication of JP2006267031A publication Critical patent/JP2006267031A/en
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/521Depth or shape recovery from laser ranging, e.g. using interferometry; from the projection of structured light

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Optics & Photonics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Processing (AREA)
  • Studio Devices (AREA)
  • Image Analysis (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To shorten the time required for imaging in a technique for imaging an object and measuring the three-dimensional shape and surface color of the object. <P>SOLUTION: For measuring the three-dimensional shape of the object, the object is imaged by a CCD, and a pixel-thinned image is formed from results of this imaging by thinning out some of a plurality of pixels constituting the overall image displaying the object. On the basis of the extracted pixel-thinned image, the three-dimensional shape of the object is measured. For measuring the surface color of the same object, the object is imaged by the CCD continuously to the imaging for three-dimensional shape measurement, and a pixel-unthinned image is formed from results of this imaging without thinning out any of a plurality of pixels constituting the overall image displaying the object. On the basis of the extracted pixel-unthinned image, the surface color of the object is measured. It is thereby possible to shorten the time required for imaging and improve accuracy in texture mapping while securing high texture resolution. <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

本発明は、物体を撮像してその物体の3次元形状と表面色とを計測する技術に関するものであり、特に、その撮像時間を短縮する技術に関するものである。   The present invention relates to a technique for imaging an object and measuring the three-dimensional shape and surface color of the object, and more particularly to a technique for shortening the imaging time.

物体を3次元的に入力する技術がすでに存在する(例えば、特許文献1参照。)。この技術の一例によれば、物体が撮像され、その撮像結果に基づき、その物体の3次元形状と表面色とが演算によって計測される。   A technique for inputting an object three-dimensionally already exists (for example, see Patent Document 1). According to an example of this technique, an object is imaged, and the three-dimensional shape and surface color of the object are measured by calculation based on the imaging result.

この種の技術を実施するための3次元入力装置は、一般に、複数種類のパターン光を物体に投影する投影部と、物体を撮像する撮像部と、その撮像結果を処理する処理部とを含むように構成される。   A three-dimensional input device for implementing this kind of technology generally includes a projection unit that projects a plurality of types of pattern light onto an object, an imaging unit that images the object, and a processing unit that processes the imaging result. Configured as follows.

撮像部は、具体的には、(a)物体の3次元形状を計測するために、投影部によって複数種類のパターン光が順に物体に投影される期間中に各パターン光の投影ごとに物体を撮像する3次元計測撮像処理と、(b)物体の表面色を計測するために、物体を撮像する表面色計測撮像処理とを行うように設計される。   Specifically, the imaging unit (a) measures an object for each projection of each pattern light during a period in which a plurality of types of pattern light is sequentially projected onto the object by the projection unit in order to measure the three-dimensional shape of the object. It is designed to perform a three-dimensional measurement imaging process for imaging, and (b) a surface color measurement imaging process for imaging an object in order to measure the surface color of the object.

この撮像部においては、通常、物体について画像の1フレームを形成するために、物体から撮像部に入射した光によるその撮像部の露光と、その入射光を反映する電気信号を撮像部から取り出す信号取り出しとがそれらの順に行われる。画像の各フレームごとに行われる露光と信号取り出しとが、1回の個別撮像処理を構成する。   In this imaging unit, in general, in order to form one frame of an image of an object, exposure of the imaging unit with light incident on the imaging unit from the object, and a signal for extracting an electrical signal reflecting the incident light from the imaging unit Removal is performed in that order. The exposure and signal extraction performed for each frame of the image constitute one individual imaging process.

したがって、この撮像部によって同じ物体について複数の画像フレーム(例えば、前述の複数種類のパターン光の数と同数の画像フレーム)を形成することが必要である場合には、露光と信号取り出しとが交互に行われるように、複数回の個別撮像処理を順次行うことが必要である。   Therefore, when it is necessary to form a plurality of image frames (for example, the same number of image frames as the above-described plurality of types of pattern lights) for the same object by the imaging unit, the exposure and the signal extraction are alternately performed. As described above, it is necessary to sequentially perform a plurality of individual imaging processes.

処理部は、具体的には、撮像部による3次元計測撮像処理の撮像結果に基づいて物体の3次元形状を計測する3次元計測演算処理と、撮像部による表面色計測撮像処理の撮像結果に基づいて物体の表面色を計測する表面色計測演算処理とを行うように設計される。
特開2000−105108号公報
Specifically, the processing unit includes a three-dimensional measurement calculation process for measuring the three-dimensional shape of the object based on an imaging result of the three-dimensional measurement imaging process by the imaging unit, and an imaging result of the surface color measurement imaging process by the imaging unit. It is designed so as to perform surface color measurement calculation processing for measuring the surface color of the object based on it.
JP 2000-105108 A

この種の3次元入力装置においては、通常、物体の3次元計測のために撮像部において個別撮像処理が複数回行われ、さらに、同じ物体の表面色計測のために撮像部において個別撮像処理が少なくとも1回行われる。3次元計測のための複数回の個別撮像処理の結果を用いて物体の3次元形状が計測され、その計測結果は、実空間上において定義される。表面色計測のための少なくとも1回の個別撮像処理の結果を用いて物体の表面色が計測され、その計測結果も、同じ実空間上において定義される。   In this type of three-dimensional input device, usually, an individual imaging process is performed a plurality of times in the imaging unit for three-dimensional measurement of an object, and an individual imaging process is performed in the imaging unit for measuring the surface color of the same object. At least once. A three-dimensional shape of an object is measured using a result of a plurality of individual imaging processes for three-dimensional measurement, and the measurement result is defined in real space. The surface color of the object is measured using the result of at least one individual imaging process for surface color measurement, and the measurement result is also defined in the same real space.

物体の現実の3次元形状と現実の表面色とは、空間的に互いに関連付けられる。しかしながら、それら3次元形状の計測と表面色の計測とはそれぞれ、互いに異なる時期に行われる複数回の個別撮像処理の結果を用いて行われる。   The actual three-dimensional shape of the object and the actual surface color are spatially related to each other. However, the measurement of the three-dimensional shape and the measurement of the surface color are each performed using the results of a plurality of individual imaging processes performed at different times.

一方、それら複数回の個別撮像処理に必要な時間が長いほど、それら複数回の個別撮像処理の実行期間中に物体と撮像部とが相対変位する可能性が高い。その相対変位の程度が大きいほど、3次元計測のために用いられる撮像画像により表される物体と、表面色計測のために用いられる撮像画像により表される物体とが、空間的にずれてしまう可能性が高い。その可能性が高いほど、3次元計測結果と表面色計測結果とが空間的に正しくマッピングしない可能性が高い。   On the other hand, the longer the time required for the plurality of individual imaging processes, the higher the possibility that the object and the imaging unit are relatively displaced during the execution period of the plurality of individual imaging processes. As the degree of relative displacement increases, the object represented by the captured image used for three-dimensional measurement and the object represented by the captured image used for surface color measurement will be spatially displaced. Probability is high. The higher the possibility, the higher the possibility that the three-dimensional measurement result and the surface color measurement result will not be spatially mapped correctly.

3次元計測結果に表面色計測結果をマッピングする精度(以下、「テクスチャマッピング精度」という。)を向上させるためには、3次元計測のために用いられる撮像画像により表される物体と、表面色計測のために用いられる撮像画像により表される物体とが、空間的にずれることを抑制することが望ましい。そのような空間的なずれを抑制する対策の一例は、3次元計測および表面色計測のための全体撮像時間を短縮することである。   In order to improve the accuracy of mapping the surface color measurement result to the three-dimensional measurement result (hereinafter referred to as “texture mapping accuracy”), the object represented by the captured image used for the three-dimensional measurement, and the surface color It is desirable to suppress a spatial shift from an object represented by a captured image used for measurement. An example of a measure for suppressing such a spatial shift is to shorten the entire imaging time for three-dimensional measurement and surface color measurement.

以上説明した知見に基づき、本発明は、物体を撮像してその物体の3次元形状と表面色とを計測する技術において、その撮像時間を短縮することを課題としてなされたものである。   Based on the knowledge described above, the present invention has been made to reduce the imaging time in a technique for imaging an object and measuring the three-dimensional shape and surface color of the object.

本発明によって下記の各態様が得られる。各態様は、項に区分し、各項には番号を付し、必要に応じて他の項の番号を引用する形式で記載する。これは、本発明が採用し得る技術的特徴の一部およびそれの組合せの理解を容易にするためであり、本発明が採用し得る技術的特徴およびそれの組合せが以下の態様に限定されると解釈すべきではない。すなわち、下記の態様には記載されていないが本明細書には記載されている技術的特徴を本発明の技術的特徴として適宜抽出して採用することは妨げられないと解釈すべきなのである。   The following aspects are obtained by the present invention. Each aspect is divided into sections, each section is given a number, and is described in a form that cites other section numbers as necessary. This is to facilitate understanding of some of the technical features that the present invention can employ and combinations thereof, and the technical features that can be employed by the present invention and combinations thereof are limited to the following embodiments. Should not be interpreted. That is, it should be construed that it is not impeded to appropriately extract and employ the technical features described in the present specification as technical features of the present invention although they are not described in the following embodiments.

さらに、各項を他の項の番号を引用する形式で記載することが必ずしも、各項に記載の技術的特徴を他の項に記載の技術的特徴から分離させて独立させることを妨げることを意味するわけではなく、各項に記載の技術的特徴をその性質に応じて適宜独立させることが可能であると解釈すべきである。   Further, describing each section in the form of quoting the numbers of the other sections does not necessarily prevent the technical features described in each section from being separated from the technical features described in the other sections. It should not be construed as meaning, but it should be construed that the technical features described in each section can be appropriately made independent depending on the nature.

(1) 物体を3次元的に入力する3次元入力装置であって、
複数種類のパターン光を物体に投影する投影部と、
前記物体を撮像する撮像部であって、(a)前記物体の3次元形状を計測するために、前記投影部によって前記複数種類のパターン光が順に前記物体に投影される期間中に各パターン光の投影ごとに前記物体を撮像する3次元計測撮像処理と、(b)前記物体の表面色を計測するために、前記物体を撮像する表面色計測撮像処理とを行うものと
その撮像部による前記3次元計測撮像処理の撮像結果に基づいて前記物体の3次元形状を計測する3次元計測演算処理と、前記撮像部による前記表面色計測撮像処理の撮像結果に基づいて前記物体の表面色を計測する表面色計測演算処理とを行う処理部と
を含み、
前記撮像部は、前記物体の撮像結果から、その物体を表す全体画像を構成する複数個の画素のいずれかを間引いて形成される画素間引き画像と、いずれの画素も間引かずに形成される画素非間引き画像とを選択的に取り出すことが可能であるように構成されており、
前記処理部は、前記撮像部による前記3次元計測撮像処理の撮像結果から取り出された前記画素間引き画像に基づいて前記3次元計測演算処理を行う一方、前記撮像部による前記表面色計測撮像処理の撮像結果から取り出された前記画素非間引き画像に基づいて前記表面色計測演算処理を行う3次元入力装置。
(1) A three-dimensional input device for three-dimensionally inputting an object,
A projection unit that projects multiple types of pattern light onto an object;
An imaging unit that images the object, and (a) each pattern light during a period in which the plurality of types of pattern light is sequentially projected onto the object by the projection unit in order to measure a three-dimensional shape of the object. A three-dimensional measurement imaging process for imaging the object for each projection of the image, and (b) a surface color measurement imaging process for imaging the object in order to measure the surface color of the object, and the imaging unit Three-dimensional measurement calculation processing for measuring the three-dimensional shape of the object based on the imaging result of the three-dimensional measurement imaging processing, and measuring the surface color of the object based on the imaging result of the surface color measurement imaging processing by the imaging unit And a processing unit for performing surface color measurement calculation processing.
The imaging unit is formed by thinning out a pixel thinned image formed by thinning out any of a plurality of pixels constituting an entire image representing the object from the imaging result of the object, and without thinning out any of the pixels. It is configured to be able to selectively extract a pixel non-decimated image,
The processing unit performs the three-dimensional measurement calculation process based on the pixel thinned image extracted from the imaging result of the three-dimensional measurement imaging process by the imaging unit, while the surface color measurement imaging process by the imaging unit. A three-dimensional input device that performs the surface color measurement calculation processing based on the pixel non-thinned image extracted from the imaging result.

この3次元入力装置においては、物体について3次元計測演算処理を行うため、撮像部において、その物体の撮像結果から、その物体を表す全体画像を構成する複数個の画素のいずれかを間引いて形成される画素間引き画像を取り出す3次元計測撮像処理が行われる。その取り出された画素間引き画像に基づき、物体の3次元形状を計測する3次元計測演算処理が行われる。   In this three-dimensional input apparatus, since three-dimensional measurement calculation processing is performed on an object, one of a plurality of pixels constituting the entire image representing the object is thinned out from the imaging result of the object in the imaging unit. A three-dimensional measurement imaging process is performed to extract the pixel thinned image. Based on the extracted pixel thinning image, a three-dimensional measurement calculation process for measuring the three-dimensional shape of the object is performed.

この3次元入力装置においては、さらに、同じ物体について表面色計測演算処理を行うため、撮像部において、その物体の撮像結果から、その物体を表す全体画像を構成する複数個の画素のいずれも間引かずに形成される画素非間引き画像を取り出す表面色計測撮像処理が行われる。その取り出された画素非間引き画像に基づき、物体の表面色を計測する表面色計測演算処理が行われる。   In this three-dimensional input device, surface color measurement calculation processing is further performed on the same object, and therefore, in the imaging unit, any of a plurality of pixels constituting the entire image representing the object is detected from the imaging result of the object. Surface color measurement and imaging processing is performed to extract a pixel non-thinned image formed without subtraction. Based on the extracted pixel non-thinned image, surface color measurement calculation processing for measuring the surface color of the object is performed.

したがって、この3次元入力装置によれば、3次元計測演算処理のための撮像処理も、表面色計測演算処理のための撮像処理も、撮像部において物体の撮像結果から取り出された画素非間引き画像を参照画像として利用して行う場合に比較し、撮像部において物体の撮像結果から参照画像を取り出すのに必要な取り出し時間を短縮することが容易となる。一方、その取り出し時間が短いほど、撮像部が物体を撮影し続ける撮像時間が短くて済む。   Therefore, according to this three-dimensional input device, both the imaging processing for the three-dimensional measurement calculation processing and the imaging processing for the surface color measurement calculation processing are performed by the pixel non-decimated image extracted from the imaging result of the object in the imaging unit. Compared to the case where the image is used as a reference image, it is easy to shorten the extraction time required for extracting the reference image from the imaging result of the object in the imaging unit. On the other hand, the shorter the take-out time, the shorter the imaging time during which the imaging unit continues to capture an object.

よって、この3次元入力装置によれば、上述のように撮像時間が短くて済むため、撮像部が物体を、その物体が少なくとも瞬間的には空間に固定されているとみなして、動画像であるか静止画像であるかを問わず、画像の1フレームとして撮影する期間中に、それら撮像部と物体との相対位置が予定外に変化することがあっても、物体の3次元形状が計測される精度が低下せずに済むことに加えて、その物体の3次元形状に、同じ物体について計測された表面色が空間的にマッピングされる精度も低下せずに済む。   Therefore, according to this three-dimensional input device, since the imaging time is short as described above, the imaging unit regards the object as a moving image, assuming that the object is fixed in space at least instantaneously. Regardless of whether it is a still image or a still image, the three-dimensional shape of the object is measured even if the relative position between the imaging unit and the object changes unexpectedly during the period of shooting as one frame of the image. In addition to the reduction in accuracy, the accuracy in which the surface color measured for the same object is spatially mapped to the three-dimensional shape of the object does not need to be reduced.

また、この3次元入力装置によれば、3次元計測演算処理のための撮像処理も、表面色計測演算処理のための撮像処理も、撮像部において物体の撮像結果から取り出された画素間引き画像を参照画像として利用して行う場合に比較し、撮像部において物体の表面色が計測される精度が低下せずに済む。その結果、高いテクスチャ解像度が実現される。   In addition, according to the three-dimensional input device, the imaging processing for the three-dimensional measurement calculation processing and the imaging processing for the surface color measurement calculation processing are performed by using the pixel thinned image extracted from the imaging result of the object in the imaging unit. Compared to the case where the image is used as a reference image, the accuracy with which the surface color of the object is measured in the imaging unit is not reduced. As a result, a high texture resolution is realized.

(2) 前記撮像部は、前記物体の撮像後、その撮像結果から前記画素間引き画像を、前記画素非間引き画像を取り出すのに必要な時間より短い時間で取り出す(1)項に記載の3次元入力装置。 (2) After the imaging of the object, the imaging unit extracts the pixel thinned image from the imaging result in a time shorter than the time required to extract the pixel non-thinned image. Input device.

この3次元入力装置によれば、撮像部による物体の撮像後(後述の実施形態においては、CCDの露光後)、その撮像結果から画素非間引き画像を取り出すのに必要な時間より短い時間で、画素間引き画像が取り出されて、撮像部から出力される。すなわち、1回の撮像ごとに、その撮像画像を表す電気信号(画像信号)が撮像部から出力されるのに必要な時間が、画素間引き画像については短いのに対し、画素非間引き画像については長いのである。   According to this three-dimensional input device, after imaging of an object by the imaging unit (in the later-described embodiment, after exposure of the CCD), the time is shorter than the time required to extract a pixel non-decimated image from the imaging result. A pixel-thinned image is taken out and output from the imaging unit. That is, for each imaging, the time required for an electrical signal (image signal) representing the captured image to be output from the imaging unit is short for a pixel-thinned image, but for a non-pixel-thinned image It's long.

一方、3次元計測演算処理のための撮像処理にあっては、撮像部による撮像が通常、複数回行われるのに対し、表面色計測演算処理のための撮像処理にあっては、撮像部による撮像が通常、3次元計測演算処理のための撮像処理における撮像回数より少ない回数行われる。よって、3次元計測演算処理のための撮像処理における各回の撮像ごとに撮像部から画像信号が出力されるのに必要な時間が短いほど、3次元計測演算処理のための撮像処理と表面色計測演算処理のための撮像処理とを含む全体撮像処理の所要時間が短くて済む。   On the other hand, in imaging processing for three-dimensional measurement calculation processing, imaging by the imaging unit is usually performed a plurality of times, whereas in imaging processing for surface color measurement calculation processing, by the imaging unit Imaging is normally performed a number of times less than the number of times of imaging in the imaging process for the three-dimensional measurement calculation process. Therefore, the imaging process and the surface color measurement for the three-dimensional measurement calculation process are shorter as the time required for outputting the image signal from the imaging unit for each imaging in the imaging process for the three-dimensional measurement calculation process is shorter. The time required for the entire imaging process including the imaging process for the arithmetic process can be shortened.

さらに、3次元計測演算処理のための撮像処理における各回の撮像ごとに撮像部から画像信号が出力されるのに必要な時間が短い場合には、その3次元計測演算処理のための撮像処理の後に、表面色計測演算のための撮像処理に行うと、先行する撮像処理と後続する撮像処理との間に長い時間間隔が存在せずに済む。その結果、それら2種類の撮像処理を大きな時間間隔を隔てることなく連続的に行うことが可能となり、このことは、前述の全体撮像時間の短縮に寄与する。   Further, when the time required for outputting an image signal from the imaging unit for each imaging in the imaging process for the three-dimensional measurement calculation process is short, the imaging process for the three-dimensional measurement calculation process is performed. When the imaging process for the surface color measurement calculation is performed later, there is no need for a long time interval between the preceding imaging process and the subsequent imaging process. As a result, these two types of imaging processing can be performed continuously without a large time interval, which contributes to the reduction of the total imaging time described above.

したがって、本項に係る3次元入力装置によれば、3次元計測演算処理のための撮像処理における各回の撮像ごとに撮像部から画像信号が出力されるのに必要な時間が、表面色計測演算処理のための撮像処理における撮像において撮像部から画像信号が出力されるのに必要な時間より短いことを前提として、物体の3次元計測と表面色計測とを行うために撮像部がその物体を撮像し続けなければならない撮像時間が短縮される。その結果、テクスチャマッピング精度が向上する。   Therefore, according to the three-dimensional input device according to this section, the time required for the image signal to be output from the imaging unit for each imaging in the imaging process for the three-dimensional measurement calculation process is the surface color measurement calculation. In order to perform three-dimensional measurement and surface color measurement of an object on the assumption that the time required for the image signal to be output from the imaging unit in imaging in the imaging process for processing is set, the imaging unit The imaging time that must be continued is reduced. As a result, the texture mapping accuracy is improved.

(3) 前記撮像部による一回の3次元計測撮像処理と、前記撮像部による一回の表面色計測撮像処理とが、前記物体に対する一回の全体撮像処理を構成し、
前記撮像部は、一回の3次元計測撮像処理において、前記複数種類のパターン光の数に応じた複数回、個別撮像処理を順次行う一方、一回の表面色計測撮像処理において、少なくとも一回、個別撮像処理を行う(1)または(2)項に記載の3次元入力装置。
(3) One time three-dimensional measurement imaging process by the imaging unit and one surface color measurement imaging process by the imaging unit constitute one whole imaging process for the object,
The imaging unit sequentially performs individual imaging processing a plurality of times according to the number of the plurality of types of pattern light in one three-dimensional measurement imaging processing, while at least once in one surface color measurement imaging processing. The three-dimensional input device according to (1) or (2), which performs individual imaging processing.

(4) 前記撮像部は、前記3次元計測撮像処理を先に、前記表面色計測撮像処理を後に行う(3)項に記載の3次元入力装置。 (4) The three-dimensional input apparatus according to (3), wherein the imaging unit performs the surface color measurement imaging process after the three-dimensional measurement imaging process.

この3次元入力装置によれば、3次元計測演算処理のための撮像処理における各回の撮像ごとに撮像部から画像信号が出力されるのに必要な時間が、表面色計測演算処理のための撮像処理における撮像において撮像部から画像信号が出力されるのに必要な時間より短いことを前提として、3次元計測演算処理のための先行する撮像処理と、表面色計測演算のための後続する撮像処理との間に長い時間間隔が存在せずに済む。その結果、それら2種類の撮像処理を大きな時間間隔を隔てることなく連続的に行うことが可能となり、このことは、前述の全体撮像時間の短縮に寄与する。   According to this three-dimensional input device, the time required for the image signal to be output from the imaging unit for each imaging in the imaging process for the three-dimensional measurement calculation process is the imaging for the surface color measurement calculation process. Preceding imaging processing for three-dimensional measurement calculation processing and subsequent imaging processing for surface color measurement calculation on the premise that the time required for outputting an image signal from the imaging unit in imaging in processing is shorter There is no long time interval between them. As a result, these two types of imaging processing can be performed continuously without a large time interval, which contributes to the reduction of the total imaging time described above.

(5) 前記撮像部は、前記3次元計測撮像処理に続いて、他の処理を行うことなく連続して、前記表面色計測撮像処理を行う(4)項に記載の3次元入力装置。 (5) The three-dimensional input device according to (4), wherein the imaging unit performs the surface color measurement imaging process continuously without performing other processes following the three-dimensional measurement imaging process.

この3次元入力装置によれば、3次元計測演算処理のための先行する撮像処理と、表面色計測演算のための後続する撮像処理とが、それら処理以外の処理を経ることなく、より連続して行われる。その結果、前述の全体撮像時間を短縮することが一層容易となる。   According to this three-dimensional input device, the preceding imaging process for the three-dimensional measurement calculation process and the subsequent imaging process for the surface color measurement calculation are more continuous without passing through other processes. Done. As a result, it becomes easier to shorten the entire imaging time.

(6) 前記撮像部は、前記3次元計測撮像処理における複数回の個別撮像処理と、前記表面色計測撮像処理における少なくとも1回の個別撮像処理とを、それらの順に、同一周期で行う(5)項に記載の3次元入力装置。 (6) The imaging unit performs a plurality of individual imaging processes in the three-dimensional measurement imaging process and at least one individual imaging process in the surface color measurement imaging process in that order in the same cycle (5 3D input device according to item.

(7) 前記撮像部は、前記3次元計測撮像処理における複数回の個別撮像処理と、前記表面色計測撮像処理における少なくとも1回の個別撮像処理とを、それらの順に、ビデオレートで行う(6)項に記載の3次元入力装置。 (7) The imaging unit performs a plurality of individual imaging processes in the three-dimensional measurement imaging process and at least one individual imaging process in the surface color measurement imaging process in that order at a video rate (6 3D input device according to item.

(8) 前記撮像部は、前記各パターン光が投影された前記物体を撮像して前記画素間引き画像を取り出すことにより前記3次元計測撮像処理を行う高速撮像モードと、前記各パターン光が投影された前記物体を撮像して前記画素非間引き画像を取り出すことにより前記3次元計測撮像処理を行う低速撮像モードとを選択的に実行する(1)ないし(6)項のいずれかに記載の3次元入力装置。 (8) The imaging unit projects the object on which each pattern light is projected and takes out the pixel thinned image to perform the three-dimensional measurement imaging process, and the pattern light is projected. The three-dimensional image according to any one of (1) to (6), wherein the low-speed imaging mode in which the three-dimensional measurement imaging process is performed is performed by imaging the object and taking out the pixel non-decimated image. Input device.

この3次元入力装置によれば、高速撮像モードが選択されて実行されれば、物体が動作物体であることや、撮像部の位置変動が大きいことが理由でそれら撮像部と物体との相対変位が大きい環境であるにもかかわらず、高いテクスチャマッピング精度で物体を3次元入力することが容易となる。これに対し、低速撮像モードが選択されて実行されれば、撮像部と物体との相対変位が小さいことを条件に、高い形状計測精度で、かつ、高いテクスチャマッピング精度で物体を3次元入力することが容易となる。   According to this three-dimensional input device, if the high-speed imaging mode is selected and executed, the relative displacement between the imaging unit and the object because the object is a moving object or the positional variation of the imaging unit is large. Although the environment is large, it is easy to input an object three-dimensionally with high texture mapping accuracy. On the other hand, if the low-speed imaging mode is selected and executed, the object is three-dimensionally input with high shape measurement accuracy and high texture mapping accuracy on the condition that the relative displacement between the imaging unit and the object is small. It becomes easy.

したがって、この3次元入力装置によれば、撮像すべき物体の動的挙動の有無やユーザの要求および好みに応じて、撮像部から画像を取り出すモードを変更することが可能となり、その結果、当該3次元入力装置の使い勝手が向上する。   Therefore, according to this three-dimensional input device, it is possible to change the mode for extracting an image from the imaging unit in accordance with the presence or absence of the dynamic behavior of the object to be imaged and the user's request and preference. Usability of the three-dimensional input device is improved.

本項における「高速撮像モード」と「低速撮像モード」との切替えは、例えば、当該3次元入力装置が、そのユーザからの指令に応じて行うようにしたり、当該3次元入力装置が、物体の撮像結果(物体の動き)や当該3次元入力装置の使用状態(装置の動き)に基づいて自動的に行うようにすることが可能である。   The switching between the “high-speed imaging mode” and the “low-speed imaging mode” in this section is performed, for example, by the three-dimensional input device in response to a command from the user, or the three-dimensional input device It is possible to perform automatically based on the imaging result (movement of the object) and the usage state (movement of the device) of the three-dimensional input device.

(9) 前記撮像部は、前記複数個の画素がグループ分けされた複数個の画素グループの各々に属する複数個の対象画素の照度検出値が各画素グループごとに加算され、その加算された照度を用いて、各画素グループに属する複数個の対象画素の照度検出値が均等に分散される加算方式により、前記物体の撮像結果から前記画素間引き画像を取り出す(1)ないし(8)項のいずれかに記載の3次元入力装置。 (9) The imaging unit adds the illuminance detection values of a plurality of target pixels belonging to each of the plurality of pixel groups into which the plurality of pixels are grouped, for each pixel group, and the added illuminance Any one of the items (1) to (8), in which the pixel-thinned image is extracted from the imaging result of the object by an addition method in which illuminance detection values of a plurality of target pixels belonging to each pixel group are evenly distributed using A three-dimensional input device according to claim 1.

(10) 前記撮像部は、前記複数個の画素がグループ分けされた複数個の画素グループの各々に属する複数個の対象画素から、それら対象画素を代表する代表画素が各画素グループごとに選択され、その選択された代表画素の照度検出値を用いて、各画素グループに属する複数個の対象画素の照度検出値が設定される選択方式により、前記物体の撮像結果から前記画素間引き画像を取り出す(1)ないし(8)項のいずれかに記載の3次元入力装置。 (10) The imaging unit selects, for each pixel group, a representative pixel representing the target pixel from a plurality of target pixels belonging to each of the plurality of pixel groups in which the plurality of pixels are grouped. The pixel-thinned image is extracted from the imaging result of the object by a selection method in which the illuminance detection values of a plurality of target pixels belonging to each pixel group are set using the illuminance detection values of the selected representative pixels ( The three-dimensional input device according to any one of items 1) to (8).

(11) 当該3次元入力装置がハンドヘルドタイプである(1)ないし(10)項のいずれかに記載の3次元入力装置。 (11) The three-dimensional input device according to any one of (1) to (10), wherein the three-dimensional input device is a handheld type.

(12) 物体を3次元的に入力する3次元入力方法であって、
複数種類のパターン光を物体に投影する投影工程と、
前記物体を撮像する撮像工程であって、(a)前記物体の3次元形状を計測するために、前記投影工程によって前記複数種類のパターン光が順に前記物体に投影される期間中に各パターン光の投影ごとに前記物体を撮像する3次元計測撮像処理と、(b)前記物体の表面色を計測するために、前記物体を撮像する表面色計測撮像処理とを行うものと
その撮像工程による前記3次元計測撮像処理の撮像結果に基づいて前記物体の3次元形状を計測する3次元計測演算処理と、前記撮像工程による前記表面色計測撮像処理の撮像結果に基づいて前記物体の表面色を計測する表面色計測演算処理とを行う処理工程と
を含み、
前記撮像工程は、前記物体の撮像結果から、その物体を表す全体画像を構成する複数個の画素のいずれかを間引いて形成される画素間引き画像と、いずれの画素も間引かずに形成される画素非間引き画像とを選択的に取り出し、
前記処理工程は、前記撮像工程による前記3次元計測撮像処理の撮像結果から取り出された前記画素間引き画像に基づいて前記3次元計測演算処理を行う一方、前記撮像工程による前記表面色計測撮像処理の撮像結果から取り出された前記画素非間引き画像に基づいて前記表面色計測演算処理を行う3次元入力方法。
(12) A three-dimensional input method for inputting an object three-dimensionally,
A projection step of projecting multiple types of pattern light onto an object;
An imaging step of imaging the object, wherein: (a) each pattern light during a period in which the plurality of types of pattern light is sequentially projected onto the object by the projection step in order to measure a three-dimensional shape of the object; Performing a three-dimensional measurement imaging process for imaging the object for each projection of the image, and (b) performing a surface color measurement imaging process for imaging the object in order to measure the surface color of the object. 3D measurement calculation processing for measuring the 3D shape of the object based on the imaging result of the 3D measurement imaging processing, and measuring the surface color of the object based on the imaging result of the surface color measurement imaging processing by the imaging process And a processing step for performing surface color measurement calculation processing.
In the imaging step, a pixel-thinned image formed by thinning out any of a plurality of pixels constituting the entire image representing the object, and any pixels are not thinned out from the imaging result of the object. Select pixel non-decimated image and
The processing step performs the three-dimensional measurement calculation processing based on the pixel thinned image extracted from the imaging result of the three-dimensional measurement imaging processing in the imaging step, while the surface color measurement imaging processing in the imaging step. A three-dimensional input method for performing the surface color measurement calculation processing based on the pixel non-thinned image extracted from the imaging result.

本項に係る3次元入力方法が実施されれば、前記(1)項に係る3次元入力装置と基本的に同じ原理に従い、基本的に同じ作用効果を実現することが可能である。   If the three-dimensional input method according to this section is implemented, it is possible to realize basically the same function and effect according to basically the same principle as the three-dimensional input apparatus according to the above (1).

(13) (12)項に記載の3次元入力方法を実施するためにコンピュータによって実行されるプログラム。 (13) A program executed by a computer to implement the three-dimensional input method described in (12).

本項に係るプログラムがコンピュータによって実行されれば、前記(1)項に係る3次元入力装置と基本的に同じ原理に従い、基本的に同じ作用効果を実現することが可能である。   If the program according to this section is executed by a computer, it is possible to realize basically the same operation effect according to basically the same principle as that of the three-dimensional input device according to the above section (1).

本項に係るプログラムは、それの機能を果たすためにコンピュータにより実行される指令の組合せのみならず、各指令に従って処理されるファイルやデータをも含むように解釈することが可能である。   The program according to this section can be interpreted so as to include not only a combination of instructions executed by a computer to fulfill its function, but also files and data processed in accordance with each instruction.

また、このプログラムは、それ単独でコンピュータにより実行されることにより、所期の目的を達するものとしたり、他のプログラムと共にコンピュータにより実行されることにより、所期の目的を達するものとすることができる。後者の場合、本項に係るプログラムは、データを主体とするものとすることができる。   In addition, this program may achieve its intended purpose by being executed by a computer alone, or may be intended to achieve its intended purpose by being executed by a computer together with other programs. it can. In the latter case, the program according to this section can be mainly composed of data.

以下、本発明のさらに具体的な実施の形態の一つを図面に基づいて詳細に説明する。   Hereinafter, one of more specific embodiments of the present invention will be described in detail with reference to the drawings.

図1には、本発明の一実施形態に従う3次元入力装置10の外観が斜視図で示されている。この3次元入力装置10は、ストライプ状のパターン光の被写体S(物体)への投影と、被写体Sの撮像と、その撮像結果に基づき、被写体Sの3次元情報および表面色情報をコンピュータによって取得する信号処理とを行うように設計されている。   FIG. 1 is a perspective view showing the appearance of a three-dimensional input device 10 according to an embodiment of the present invention. The three-dimensional input device 10 obtains the three-dimensional information and surface color information of the subject S by a computer based on the projection of the striped pattern light onto the subject S (object), the imaging of the subject S, and the imaging result. It is designed to perform signal processing.

図1に示すように、この3次元入力装置10は、ハンドヘルドタイプであり、ユーザは手で持って移動させることが可能である。また、この3次元入力装置10は、その手振れや、被写体Sの移動にもかかわらず、被写体Sの3次元形状情報と表面色情報とを画素の位置に関して互いに正確にマッチングするように被写体Sを撮像するように設計されている。そのため、図1には、動く被写体Sの一例として動物の亀が示されている。   As shown in FIG. 1, the three-dimensional input device 10 is a handheld type, and the user can move it by hand. In addition, the three-dimensional input device 10 controls the subject S so that the three-dimensional shape information of the subject S and the surface color information are accurately matched to each other with respect to the pixel position, regardless of the camera shake or the movement of the subject S. Designed to image. Therefore, in FIG. 1, an animal turtle is shown as an example of the moving subject S.

それら被写体Sへの投影と、被写体Sの撮像と、被写体Sの3次元情報および表面色情報の取得とを行うために、この3次元入力装置10は、図2に示すように、投影部12と、撮像部14と、処理部16とをそれぞれ含むように構成されている。   In order to perform projection onto the subject S, imaging of the subject S, and acquisition of three-dimensional information and surface color information of the subject S, the three-dimensional input device 10 includes a projection unit 12 as shown in FIG. And an imaging unit 14 and a processing unit 16.

この3次元入力装置10は、複数種類のモードのうちユーザによって選択されたものに従って作動する。それらモードは、SLOWモードと、FASTモードと、オフモードとを含んでいる。SLOWモードは、被写体Sを低速で高精度で撮像する低速撮像モードであり、撮像精度優先モードである。FASTモードは、被写体Sを高速で低精度で撮像する高速撮像モードであり、撮像時間優先モードである。オフモードは、この3次元入力装置10の動作を停止させるモードである。   The three-dimensional input device 10 operates according to a mode selected by the user from among a plurality of types of modes. These modes include a SLOW mode, a FAST mode, and an off mode. The SLOW mode is a low-speed imaging mode in which the subject S is imaged with high accuracy at low speed, and is an imaging accuracy priority mode. The FAST mode is a high-speed imaging mode that images the subject S at high speed with low accuracy, and is an imaging time priority mode. The off mode is a mode in which the operation of the three-dimensional input device 10 is stopped.

撮像部14は、被写体Sを撮像し、その撮像結果から、その被写体Sを表す全体画像を構成する複数個の画素のいずれかを間引いて形成される画素間引き画像と、いずれの画素も間引かずに形成される画素非間引き画像とを選択的に取り出すことが可能であるように構成されている。さらに、撮像部14は、被写体Sの撮像後、その撮像結果から画素間引き画像を、画素非間引き画像を取り出すのに必要な時間より短い時間で取り出すように構成されている。   The imaging unit 14 images the subject S, and from the imaging result, a pixel thinned image formed by thinning out any of a plurality of pixels constituting the entire image representing the subject S, and all the pixels are thinned out. It is configured such that it is possible to selectively extract the non-pixel thinned image formed without any delay. Furthermore, the imaging unit 14 is configured to take out the pixel-thinned image from the imaging result after taking the subject S in a time shorter than the time required to take out the pixel non-thinned image.

被写体Sを撮像する素子としてCCDが知られている。このCCDの一例に、インターライントランスファー方式でプログレッシブ走査を行う形式のCCDが存在する。   A CCD is known as an element for imaging the subject S. As an example of this CCD, there is a CCD of a type that performs progressive scanning by an interline transfer method.

図17(a)に示すように、この種のCCDにおいては、垂直方向に並んだフォトダイオード列が複数、水平方向に並んでおり、それにより、光電変換素子としてのフォトダイオードが複数個、2次元的に配列されている。この種のCCDにおいては、さらに、垂直方向に並んだ垂直転送CCD列が複数、水平方向に並んでおり、それにより、電荷蓄積・転送素子としてのCCD素子が複数個、2次元的に配列されている。この種のCCDにおいては、さらに、それら垂直転送CCD列に共通に、かつ、各垂直転送CCD列の末端に水平転送CCD行が配置されている。この水平転送CCD行の末端に、全CCD素子に共通の電荷出口としての出力回路が接続されている。   As shown in FIG. 17A, in this type of CCD, a plurality of photodiode rows arranged in the vertical direction are arranged in the horizontal direction, whereby a plurality of photodiodes as photoelectric conversion elements are arranged. Dimensionally arranged. In this type of CCD, a plurality of vertical transfer CCD columns arranged in the vertical direction are arranged in the horizontal direction, so that a plurality of CCD elements as charge storage / transfer elements are arranged two-dimensionally. ing. In this type of CCD, a horizontal transfer CCD row is arranged in common to the vertical transfer CCD columns and at the end of each vertical transfer CCD column. An output circuit as a charge outlet common to all CCD elements is connected to the end of the horizontal transfer CCD row.

この種のCCDにおいては、各フォトダイオードが露光されると、その露光量に応じた信号電荷がフォトダイオードに発生する。各フォトダイオードに発生した信号電荷は、読み出し指令パルスに応答し、垂直転送CCD列における複数個のCCD素子のうち対応するものに転送されて蓄積される。その後、各水平転送指令パルスが発生させられるごとに、各垂直転送CCD列において信号電荷が1個のCCD素子を単位にして転送され、その際、各垂直転送CCD列ごとに、それの末端から信号電荷が水平転送CCD行に転送される。さらに、各水平転送指令パルスが発生させられるごとに、水平転送CCD行において信号電荷が1個のCCD素子を単位にして転送され、その際、その水平転送CCD行の末端から信号電荷が出力回路に出力される。それら垂直転送動作および水平転送動作に並行して、フォトダイオードにおける画像の光電変換が行われる。   In this type of CCD, when each photodiode is exposed, a signal charge corresponding to the exposure amount is generated in the photodiode. In response to the read command pulse, the signal charge generated in each photodiode is transferred to and stored in a corresponding one of the plurality of CCD elements in the vertical transfer CCD array. Thereafter, as each horizontal transfer command pulse is generated, signal charges are transferred in units of one CCD element in each vertical transfer CCD column. At this time, each vertical transfer CCD column is transferred from its end. The signal charge is transferred to the horizontal transfer CCD row. Further, as each horizontal transfer command pulse is generated, signal charges are transferred in units of one CCD element in the horizontal transfer CCD row, and at this time, signal charges are output from the end of the horizontal transfer CCD row. Is output. In parallel with the vertical transfer operation and the horizontal transfer operation, photoelectric conversion of an image in the photodiode is performed.

図17(a)ないし(d)には、この種のCCDにおける転送動作が時系列的に示されている。図17(a)は、垂直ブランキング期間における信号電荷の移動を示し、図17(b)は、第1行水平ブランキング期間における信号電荷の移動を示し、図17(c)は、第1行水平転送期間における信号電荷の移動を示し、図17(d)は、第2行水平ブランキング期間における信号電荷の移動を示している。   17A to 17D show the transfer operation in this type of CCD in time series. FIG. 17A shows the movement of signal charges in the vertical blanking period, FIG. 17B shows the movement of signal charges in the first row horizontal blanking period, and FIG. The signal charge movement in the row horizontal transfer period is shown, and FIG. 17D shows the signal charge movement in the second row horizontal blanking period.

この種のCCDにおける転送原理を説明するために、図18には、前述の出力回路の出力信号の電圧変化、φ1転送パルス信号およびφ2転送パルス信号の各変化ならびにリセットパルス信号の変化がそれぞれタイミングチャートで表されている。さらに、図19(a)には、このCCDの構成が断面図で示されている。さらに、図19(b)には、このCCDの各部位における電位の分布が変化する様子が、図18に示す時刻T1ないしT4のそれぞれに関連付けて示されている。   In order to explain the transfer principle in this kind of CCD, FIG. 18 shows the timing of the voltage change of the output signal of the output circuit, the changes of the φ1 transfer pulse signal and the φ2 transfer pulse signal, and the change of the reset pulse signal. It is represented by a chart. Further, FIG. 19A shows a cross-sectional view of the structure of the CCD. Further, FIG. 19B shows how the potential distribution in each part of the CCD changes in association with each of the times T1 to T4 shown in FIG.

図19(a)に示すように、このCCDは、転送チャネル、φ1転送ゲート、φ2転送ゲート、出力チャネル、リセットドレイン、リセットゲートおよび出力アンプを備えている。それらのうち、出力チャネル、リセットドレイン、リセットゲートおよび出力アンプが前述の出力回路を構成する。その出力アンプは、FETによるソースフォロワー回路として構成される。図18に示すφ1転送パルス信号は、φ1転送ゲートに出力され、φ2転送パルス信号は、φ2転送ゲートに出力され、リセットパルス信号は、リセットゲートに出力される。   As shown in FIG. 19A, the CCD includes a transfer channel, a φ1 transfer gate, a φ2 transfer gate, an output channel, a reset drain, a reset gate, and an output amplifier. Among them, the output channel, the reset drain, the reset gate, and the output amplifier constitute the aforementioned output circuit. The output amplifier is configured as a source follower circuit using FETs. The φ1 transfer pulse signal shown in FIG. 18 is output to the φ1 transfer gate, the φ2 transfer pulse signal is output to the φ2 transfer gate, and the reset pulse signal is output to the reset gate.

図18に示すように、φ1転送パルス信号がオフからオンに遷移すると、図19に示すように、φ1転送ゲートに対応する今回の転送チャネルの電位が引き上げられ(図19(b)においては引き下げられ)、その結果、その今回の転送チャネルの前段の転送チャネルから電荷が今回の転送チャネルに転送される。図18に示すように、φ1転送ゲートとφ2転送ゲートとには、互いに逆位相で信号変化が与えられ、その結果、図19(b)に示すように、互いに隣接した転送チャネル間において、上流側から下流側に電荷が転送される。   As shown in FIG. 18, when the φ1 transfer pulse signal transitions from OFF to ON, as shown in FIG. 19, the potential of the current transfer channel corresponding to the φ1 transfer gate is raised (in FIG. 19B, it is lowered). As a result, charge is transferred from the transfer channel preceding the current transfer channel to the current transfer channel. As shown in FIG. 18, signal changes are given to the φ1 transfer gate and φ2 transfer gate in opposite phases, and as a result, as shown in FIG. Charge is transferred from the side to the downstream side.

このようにして水平転送CCD行において信号電荷がプログレッシブに転送されてそれの末端に到達すると、その信号電荷は出力チャネルを経て出力アンプに出力される。その出力アンプにおいては、その信号電荷に応じた電位を有する信号電圧に変換される。   In this way, when the signal charge is transferred progressively in the horizontal transfer CCD row and reaches the end thereof, the signal charge is output to the output amplifier via the output channel. In the output amplifier, the signal is converted into a signal voltage having a potential corresponding to the signal charge.

CCDの信号出力速度は、出力アンプにおける信号変換速度によって決定される。一般的には、φ1転送ゲートの電位を引き上げてから、図18に示すように信号電圧が確保されるまでの時間は、0.1μs程度が上限である。したがって、500万画素を有するCCDから信号電荷を全画素分出力するには、0.5s程度の時間が必要である。また、出力画素がVGA解像度(640*480画素)であれば、0.0307sの時間が必要である。これは、30フレーム/秒という動画出力レートを満たす。   The signal output speed of the CCD is determined by the signal conversion speed in the output amplifier. Generally, the upper limit of the time from when the potential of the φ1 transfer gate is raised until the signal voltage is secured as shown in FIG. 18 is about 0.1 μs. Therefore, it takes about 0.5 s to output signal charges for all pixels from a CCD having 5 million pixels. Further, if the output pixel is VGA resolution (640 * 480 pixels), a time of 0.0307 s is required. This satisfies the moving picture output rate of 30 frames / second.

図18に示すように、リセットパルス信号がオフからオンに遷移すると、図19(b)に示すように、信号電荷が出力チャネルからリセットドレインに移動し、消去される。このような電荷消去回路は、複数のCCD素子については、それに共通の回路として前述の出力回路に設けられる。一方、同様な電荷消去回路は、複数個のフォトダイオードにそれぞれ設けられており、その結果、フォトダイオードにおいて発生した光電荷のうち、選択されずに不要である画素について生じた電荷については、垂直転送CCD列に転送されずに最上流位置において直接消去される。この作用により、後述の選択式の画素間引きが可能となる。   As shown in FIG. 18, when the reset pulse signal transitions from OFF to ON, as shown in FIG. 19B, the signal charge moves from the output channel to the reset drain and is erased. Such a charge erasing circuit is provided in the aforementioned output circuit as a circuit common to a plurality of CCD elements. On the other hand, a similar charge erasing circuit is provided for each of the plurality of photodiodes. As a result, among the photocharges generated in the photodiodes, the charges generated for the pixels that are not selected and are not selected are vertical. It is erased directly at the most upstream position without being transferred to the transfer CCD column. This action enables selective pixel thinning, which will be described later.

この種のCCDの選択転送原理を説明するために、図20(a)には、CCDの垂直転送クロックラインV1の信号変化と、水平転送クロックラインH1の信号変化と、水平転送クロックラインH2の信号変化とがそれぞれタイミングチャートで表されている。さらに、図20(b)には、CCDの構成が断面図で示されている。さらに、図20(c)には、CCDの各部位における電位の分布が変化する様子が、図20(a)に示す時刻T5およびT6のそれぞれに関連付けて示されている。   In order to explain the principle of selective transfer of this kind of CCD, FIG. 20A shows the signal change of the vertical transfer clock line V1, the signal change of the horizontal transfer clock line H1, and the horizontal transfer clock line H2. Each signal change is represented by a timing chart. Further, FIG. 20B shows a cross-sectional view of the structure of the CCD. Further, FIG. 20C shows how the potential distribution in each part of the CCD changes in association with each of times T5 and T6 shown in FIG.

図20(a)に示すように、水平転送クロックラインH1が有効とされる例においては、垂直転送クロックラインV1が時刻T5とT6との間においてオンからオフに遷移すると、図20(b)および(c)において左側に示すように、信号電荷が垂直転送チャネルから水平転送チャネルに移動する。これに対し、図20(a)に示すように、水平転送クロックラインH2が無効とされる例においては、垂直転送クロックラインV1が時刻T5とT6との間においてオンからオフに遷移すると、図20(b)および(c)において右側に示すように、信号電荷が垂直転送チャネルから水平転送チャネルに移動することなく、垂直転送チャネルに滞留する。   As shown in FIG. 20A, in the example in which the horizontal transfer clock line H1 is enabled, when the vertical transfer clock line V1 transitions from ON to OFF between times T5 and T6, FIG. And as shown on the left side in (c), the signal charge moves from the vertical transfer channel to the horizontal transfer channel. On the other hand, as shown in FIG. 20A, in the example in which the horizontal transfer clock line H2 is disabled, when the vertical transfer clock line V1 transitions from on to off between times T5 and T6, As shown on the right side of 20 (b) and 20 (c), the signal charge stays in the vertical transfer channel without moving from the vertical transfer channel to the horizontal transfer channel.

したがって、このCCDによれば、信号電荷の選択的転送が可能であり、これを利用することにより、信号電荷の加算による画素間引きが可能である。   Therefore, according to this CCD, it is possible to selectively transfer signal charges, and by using this, it is possible to thin out pixels by adding signal charges.

以上説明したように、この種のCCDを用いた撮像の分野においては、被写体Sの撮像結果から画素間引き画像を取り出すために、加算方式と選択方式とがすでに知られている。   As described above, in the field of imaging using this type of CCD, an addition method and a selection method are already known in order to extract a pixel-thinned image from the imaging result of the subject S.

加算方式によれば、被写体Sを表す全体画像を構成する複数個の画素がグループ分けされた複数個の画素グループの各々に属する複数個の対象画素の照度検出値が各画素グループごとに加算され、その加算された照度を用いて、各画素グループに属する複数個の対象画素の照度検出値が均等に分散される。   According to the addition method, the illuminance detection values of a plurality of target pixels belonging to each of a plurality of pixel groups in which a plurality of pixels constituting the entire image representing the subject S are grouped are added for each pixel group. The detected illuminance values of a plurality of target pixels belonging to each pixel group are evenly distributed using the added illuminance.

これに対し、選択方式によれば、それら複数個の画素グループの各々に属する複数個の対象画素から、それら対象画素を代表する代表画素が各画素グループごとに選択され、その選択された代表画素の照度検出値を用いて、各画素グループに属する複数個の対象画素の照度検出値が均等に分散される。   On the other hand, according to the selection method, a representative pixel representing the target pixel is selected for each pixel group from a plurality of target pixels belonging to each of the plurality of pixel groups, and the selected representative pixel The detected illuminance values of a plurality of target pixels belonging to each pixel group are evenly distributed using the detected illuminance values.

本実施形態においては、撮像部14は、それら加算方式と選択方式とのうち予め選択されたものに従い、被写体Sの撮像結果から画素間引き画像を取り出すように設計されている。   In the present embodiment, the imaging unit 14 is designed to extract a pixel-thinned image from the imaging result of the subject S in accordance with a preselected one of the addition method and the selection method.

被写体Sの撮像結果から画素間引き画像を取り出す間引き画像処理モードは、被写体Sを低速で高精度で撮像する低速撮像モードに適している。一方、被写体Sの撮像結果から画素非間引き画像を取り出す非間引き画像処理モードは、被写体Sを高速で低精度で撮像する高速撮像モードに適している。   The thinned-out image processing mode for extracting a pixel-thinned image from the imaging result of the subject S is suitable for a low-speed imaging mode in which the subject S is imaged with high accuracy at low speed. On the other hand, the non-decimated image processing mode for extracting the pixel non-decimated image from the imaging result of the subject S is suitable for the high-speed imaging mode for imaging the subject S at high speed with low accuracy.

したがって、本実施形態においては、ユーザによってFASTモードが選択されると、間引き画像処理モードが設定される一方、ユーザによってSLOWモードが選択されると、非間引き画像処理モードが設定される。   Therefore, in this embodiment, when the FAST mode is selected by the user, the thinned image processing mode is set, while when the SLOW mode is selected by the user, the non-thinned image processing mode is set.

図1に示すように、この3次元入力装置10は、略箱状を成すケーシング20を備えている。   As shown in FIG. 1, the three-dimensional input apparatus 10 includes a casing 20 having a substantially box shape.

ケーシング20内においては、図2に示すように、投影部12および撮像部14がそれぞれ、破線で示すサブケーシング内に収容された状態で配置されている。図1に示すように、このケーシング20は、鏡筒24と、フラッシュ26とを、それぞれが部分的にケーシング20の正面において露出する姿勢で備えている。このケーシング20は、さらに、撮像部14の一部である撮像光学系30を、それのレンズの一部がケーシング20の正面において露出する姿勢で備えている。その撮像光学系30は、それの露出部分において、被写体Sを表す画像光を受光する。   In the casing 20, as shown in FIG. 2, the projection part 12 and the imaging part 14 are each arrange | positioned in the state accommodated in the subcasing shown with a broken line. As shown in FIG. 1, the casing 20 includes a lens barrel 24 and a flash 26 in a posture in which each is partially exposed in front of the casing 20. The casing 20 further includes an imaging optical system 30 that is a part of the imaging unit 14 in a posture in which a part of the lens is exposed in front of the casing 20. The imaging optical system 30 receives image light representing the subject S at the exposed portion thereof.

鏡筒24は、図1に示すように、ケーシング20の正面から突出しており、その内部において、図2に示すように、投影部12の一部である投影光学系32を収容している。この鏡筒24は投影光学系32を、焦点調節のために全体的に移動可能である状態で保持し、さらに、この鏡筒24は、投影光学系32を損傷から保護している。鏡筒24の露出端面から、投影部12の一部である投影光学系32のレンズの一部が露出している。投影光学系32は、それの露出部分において、被写体Sに向かってパターン光を投影する。   The lens barrel 24 protrudes from the front surface of the casing 20 as shown in FIG. 1, and accommodates a projection optical system 32 that is a part of the projection unit 12 as shown in FIG. The lens barrel 24 holds the projection optical system 32 in a state where the projection optical system 32 can be moved as a whole for focus adjustment. Further, the lens barrel 24 protects the projection optical system 32 from damage. A part of the lens of the projection optical system 32 that is a part of the projection unit 12 is exposed from the exposed end face of the lens barrel 24. The projection optical system 32 projects pattern light toward the subject S at the exposed portion.

フラッシュ26は、不足光量を補充するために発光する光源であり、例えば、キセノンガスが充填された放電管を用いて構成されている。したがって、このフラッシュ26は、ケーシング20に内蔵されているコンデンサ(図示しない)の放電により繰り返し使用することができる。   The flash 26 is a light source that emits light to supplement the insufficient light amount, and is configured using, for example, a discharge tube filled with xenon gas. Therefore, the flash 26 can be repeatedly used by discharging a capacitor (not shown) built in the casing 20.

ケーシング20は、さらに、それの上面において、レリーズボタン40と、モード切替スイッチ42と、モニタLCD44とを備えている。   The casing 20 further includes a release button 40, a mode changeover switch 42, and a monitor LCD 44 on the upper surface thereof.

レリーズボタン40は、3次元入力装置10を作動させるためにユーザによって操作される。このレリーズボタン40は、ユーザの操作状態(押下状態)が「半押し状態」である場合と「全押し状態」である場合とで異なる指令を発令できる2段階の押しボタン式のスイッチによって構成されている。レリーズボタン40の操作状態は処理部16によって監視される。処理部16によって「半押し状態」が検出されれば、よく知られたオートフォーカス(AF)および自動露出(AF)の機能が起動し、ピント、絞りおよびシャッタスピードが自動的に調節される。これに対し、処理部16によって「全押し状態」が検出されれば、撮像等が行われる。   The release button 40 is operated by the user to operate the three-dimensional input device 10. The release button 40 is composed of a two-stage push button type switch that can issue different commands depending on whether the user's operation state (pressed state) is “half-pressed state” or “full-pressed state”. ing. The operation state of the release button 40 is monitored by the processing unit 16. When the “half-pressed state” is detected by the processing unit 16, well-known auto focus (AF) and automatic exposure (AF) functions are activated, and the focus, aperture, and shutter speed are automatically adjusted. On the other hand, if the “fully pressed state” is detected by the processing unit 16, imaging or the like is performed.

モード切替スイッチ42は、3次元入力装置10の作動モードを、前述のSLOWモード、FASTモードおよびオフモードを含む複数種類のモードのいずれかとして設定するためにユーザによって操作される。このモード切替スイッチ42の操作状態は処理部16によって監視されており、モード切替スイッチ42の操作状態が処理部16によって検出されると、その検出された操作状態に対応するモードでの処理が3次元入力装置10において行われる。   The mode changeover switch 42 is operated by the user to set the operation mode of the three-dimensional input apparatus 10 as one of a plurality of modes including the SLOW mode, the FAST mode, and the off mode. The operation state of the mode changeover switch 42 is monitored by the processing unit 16. When the operation state of the mode changeover switch 42 is detected by the processing unit 16, the process in the mode corresponding to the detected operation state is 3. This is performed in the dimension input device 10.

モニタLCD44は、液晶ディスプレイ(Liquid Crystal Display)を用いて構成されており、処理部16から画像信号を受けて、画像をユーザに表示する。このモニタLCD44は、例えば、被写体Sの3次元形状の検出結果を表す画像(立体画像)等を表示する。   The monitor LCD 44 is configured using a liquid crystal display, and receives an image signal from the processing unit 16 and displays an image to the user. The monitor LCD 44 displays, for example, an image (stereoscopic image) representing the detection result of the three-dimensional shape of the subject S.

図1に示すように、ケーシング20は、さらに、RF(無線)インタフェイスとしてのアンテナ50を備えている。   As shown in FIG. 1, the casing 20 further includes an antenna 50 as an RF (wireless) interface.

アンテナ50は、図2に示すように、RFドライバ52に接続されている。このアンテナ50は、上述の立体画像を表すデータ等を、RFドライバ52を介して、図示しない外部インタフェイスに無線によって送信する。   The antenna 50 is connected to the RF driver 52 as shown in FIG. The antenna 50 wirelessly transmits the above-described data representing a stereoscopic image to an external interface (not shown) via the RF driver 52.

図2には、ケーシング20の内部構成が概念的に表されている。ケーシング20は、前述のように、投影部12と、撮像部14と、処理部16とを主に内蔵している。   FIG. 2 conceptually shows the internal configuration of the casing 20. As described above, the casing 20 mainly includes the projection unit 12, the imaging unit 14, and the processing unit 16.

投影部12は、被写体Sにパターン光を投影するためのユニットである。この投影部12は、図2に示すように、基板60と、複数個のLED62(以下、それらのアレイを「LEDアレイ62A」という。)と、光源レンズ64と、投影LCD66と、投影光学系32とを、投影方向に沿って直列に備えている。この投影部12の詳細は、後に図3を参照して説明する。   The projection unit 12 is a unit for projecting pattern light onto the subject S. As shown in FIG. 2, the projection unit 12 includes a substrate 60, a plurality of LEDs 62 (hereinafter referred to as “LED array 62A”), a light source lens 64, a projection LCD 66, and a projection optical system. 32 in series along the projection direction. Details of the projection unit 12 will be described later with reference to FIG.

撮像部14は、被写体Sを撮像するためのユニットである。この撮像部14は、図2に示すように、撮像光学系30と、CCD(Charge Coupled Device)70とを、画像光の入射方向に沿って直列に備えている。   The imaging unit 14 is a unit for imaging the subject S. As shown in FIG. 2, the imaging unit 14 includes an imaging optical system 30 and a CCD (Charge Coupled Device) 70 in series along the incident direction of image light.

撮像光学系30は、図2に示すように、複数枚のレンズを用いて構成されている。この撮像光学系30は、よく知られたオートフォーカス機能により、焦点距離および絞りを自動調整して外部からの光をCCD70上に結像する。   As shown in FIG. 2, the imaging optical system 30 is configured using a plurality of lenses. The imaging optical system 30 automatically adjusts a focal length and a diaphragm by a well-known autofocus function to form an image of external light on the CCD 70.

CCD70は、フォトダイオード素子などの光電変換素子をマトリクス状に配列して構成されている。このCCD70は、撮像光学系30を介してこのCCD70の表面に結像される画像の光の色および照度に応じた信号を各画素ごとに生成する。その生成された信号は、デジタルデータに変換されて処理部16に出力される。   The CCD 70 is configured by arranging photoelectric conversion elements such as photodiode elements in a matrix. The CCD 70 generates a signal corresponding to the color and illuminance of the image formed on the surface of the CCD 70 via the imaging optical system 30 for each pixel. The generated signal is converted into digital data and output to the processing unit 16.

図5にブロック図で表すように、処理部16は、フラッシュ26、レリーズボタン40およびモード切替スイッチ42にそれぞれ電気的に接続されている。処理部16は、さらに、モニタLCD44にはモニタLCDドライバ72を介して、アンテナ50にはRFドライバ52を介して、バッテリ74には電源インタフェイス76を介してそれぞれ電気的に接続されている。   As shown in the block diagram of FIG. 5, the processing unit 16 is electrically connected to the flash 26, the release button 40, and the mode changeover switch 42. Further, the processing unit 16 is electrically connected to the monitor LCD 44 via the monitor LCD driver 72, to the antenna 50 via the RF driver 52, and to the battery 74 via the power interface 76.

処理部16は、さらに、外部メモリ78およびキャッシュメモリ80にそれぞれ電気的に接続されている。処理部16は、さらに、LEDアレイ62Aには光源ドライバ84を介して、投影LCD66には投影LCDドライバ86を介して、CCD70にはCCDインタフェイス88を介してそれぞれ電気的に接続されている。それらフラッシュ26等は、処理部16によって制御される。   The processing unit 16 is further electrically connected to the external memory 78 and the cache memory 80, respectively. The processing unit 16 is further electrically connected to the LED array 62A via the light source driver 84, to the projection LCD 66 via the projection LCD driver 86, and to the CCD 70 via the CCD interface 88. The flash 26 and the like are controlled by the processing unit 16.

外部メモリ78は、着脱可能なフラッシュROMであり、立体画像モードにおいて撮像された撮像画像や3次元情報を記憶することが可能である。外部メモリ78を構成するために、例えば、SDカード、コンパクトフラッシュ(登録商標)カード等を使用することができる。   The external memory 78 is a detachable flash ROM, and can store captured images and three-dimensional information captured in the stereoscopic image mode. In order to configure the external memory 78, for example, an SD card, a compact flash (registered trademark) card, or the like can be used.

キャッシュメモリ80は、データの読み書きを高速で行い得る記憶装置である。キャッシュメモリ80は、例えば、デジカメモードにおいて撮像された撮像画像を高速でキャッシュメモリ80に転送し、処理部16で画像処理を行ってから外部メモリ78に格納することを可能にするために使用される。キャッシュメモリ80を構成するために、例えば、SDRAM、DDRRAM等を使用することができる。   The cache memory 80 is a storage device that can read and write data at high speed. The cache memory 80 is used, for example, to enable a captured image captured in the digital camera mode to be transferred to the cache memory 80 at a high speed and stored in the external memory 78 after being processed by the processing unit 16. The In order to configure the cache memory 80, for example, SDRAM, DDRRAM, or the like can be used.

電源インタフェイス76、光源ドライバ84、投影LCDドライバ86およびCCDインタフェイス88はそれぞれ、バッテリ74、LEDアレイ62A、投影LCD66およびCCD70を制御する各種のIC(Integrated Circuit)によって構成されている。   The power supply interface 76, the light source driver 84, the projection LCD driver 86, and the CCD interface 88 are constituted by various ICs (Integrated Circuits) that control the battery 74, the LED array 62A, the projection LCD 66, and the CCD 70, respectively.

ここで、投影部12の詳細を図3を参照することによって説明する。図3(a)は投影部12の拡大図であり、図3(b)は光源レンズ64の正面図である。   Here, details of the projection unit 12 will be described with reference to FIG. FIG. 3A is an enlarged view of the projection unit 12, and FIG. 3B is a front view of the light source lens 64.

前述のように、投影部12は、図3(a)に示すように、基板60と、LEDアレイ62Aと、光源レンズ64と、投影LCD66と、投影光学系32とをパターン光の投影方向に沿って直列に備えている。   As described above, the projection unit 12 moves the substrate 60, the LED array 62A, the light source lens 64, the projection LCD 66, and the projection optical system 32 in the pattern light projection direction, as shown in FIG. It is equipped in series along.

基板60は、それにLEDアレイ62Aが装着されることにより、その装着されたLEDアレイ62Aとの間において電気的な配線を行う。基板60は、例えば、アルミニウム製基板に絶縁性合成樹脂を塗布してから無電解メッキにてパターンを形成したものや、ガラスエポキシ基材をコアとする単層または多層構造の基板を使用して製作することができる。   When the LED array 62A is attached to the substrate 60, electrical wiring is performed between the substrate 60 and the attached LED array 62A. As the substrate 60, for example, an insulating synthetic resin is applied to an aluminum substrate and then a pattern is formed by electroless plating, or a single layer or multilayer structure substrate having a glass epoxy base as a core is used. Can be produced.

LEDアレイ62Aは、投影LCD66に向けて放射状の光を発光する光源である。このLEDアレイ62Aにおいては、基板60上に複数個のLED(発光ダイオード)62が、図3(b)に示すように、千鳥状配列のもとに、銀ペーストを介して接着されている。それら基板60と複数個のLED62とは、ボンディングワイヤを介して電気的に結線されている。複数個のLED62を千鳥状に配列することによる効果は、後に図4を参照して詳細に説明する。   The LED array 62 </ b> A is a light source that emits radial light toward the projection LCD 66. In this LED array 62A, a plurality of LEDs (light emitting diodes) 62 are bonded on a substrate 60 via a silver paste in a staggered arrangement as shown in FIG. The substrate 60 and the plurality of LEDs 62 are electrically connected via bonding wires. The effect obtained by arranging the plurality of LEDs 62 in a staggered manner will be described in detail later with reference to FIG.

このように、本実施形態においては、投影部12の光源として複数個のLED62が使用されているため、光源として白熱電球、ハロゲンランプ等が使用される場合に比べて、電気が光に変換される電気光変換効率の向上や、赤外線や紫外線の発生の抑制を容易に行い得る。よって、3次元入力装置10の節電、長寿命化、発熱抑制等を容易に図り得る。   As described above, in the present embodiment, since a plurality of LEDs 62 are used as the light source of the projection unit 12, electricity is converted into light as compared with the case where an incandescent bulb, a halogen lamp, or the like is used as the light source. Therefore, it is possible to easily improve the electro-optical conversion efficiency and suppress the generation of infrared rays and ultraviolet rays. Therefore, it is possible to easily achieve power saving, long life, and suppression of heat generation of the three-dimensional input device 10.

このように、LED62はハロゲンランプ等に比べて熱線の発生率が極めて低いため、光源レンズ64や投影光学系32に合成樹脂製のレンズを採用することができる。よって、ガラス製のレンズを採用する場合に比べて、光源レンズ64および投影光学系32を安価で軽量に構成することができる。   As described above, the LED 62 has an extremely low heat ray generation rate as compared with a halogen lamp or the like, and therefore, a synthetic resin lens can be used for the light source lens 64 and the projection optical system 32. Therefore, the light source lens 64 and the projection optical system 32 can be made cheaper and lighter than when a glass lens is employed.

さらに、本実施形態においては、LEDアレイ62Aを構成する各LED62が、互いに同じ色の光を発光し、具体的には、材料にAl、In、GaおよびPの4元素を用いたアンバー色を発光するように構成されている。したがって、複数色の光を発光させる場合に考慮しなければならない問題である色収差の補正を考慮する必要がなく、よって、色収差を補正するために投影光学系32に色消しレンズを採用する必要もない。その結果、簡単な面構成および安価な材料の投影手段を提供することが容易となる。   Furthermore, in this embodiment, each LED 62 constituting the LED array 62A emits light of the same color, and specifically, an amber color using four elements of Al, In, Ga, and P as materials. It is configured to emit light. Therefore, it is not necessary to consider correction of chromatic aberration, which is a problem that must be taken into account when light of a plurality of colors is emitted. Therefore, it is also necessary to employ an achromatic lens in the projection optical system 32 in order to correct chromatic aberration. Absent. As a result, it is easy to provide a simple surface configuration and an inexpensive material projection means.

さらに、本実施形態においては、LED62として、電気光変換効率が約80[lumen/W]というように他の発光色に比べて高い4元素材料のアンバー色LEDが採用されるため、3次元入力装置10の高輝度化、節電および長寿命化を容易に図り得る。   Furthermore, in this embodiment, since the LED 62 is an amber LED of a four-element material that has an electro-optical conversion efficiency of about 80 [lumen / W] compared to other emission colors, a three-dimensional input is used. The device 10 can easily achieve high brightness, power saving, and long life.

本実施形態においては、具体的には、LEDアレイ62Aが59個のLED62によって構成され、各LED62は50[mW](20[mA],2.5[V])で駆動され、結局、59個のLED62の全体は略3[W]の消費電力で駆動される。   Specifically, in this embodiment, the LED array 62A is composed of 59 LEDs 62, and each LED 62 is driven at 50 [mW] (20 [mA], 2.5 [V]). The entire LED 62 is driven with power consumption of about 3 [W].

さらに、本実施形態においては、各LED62から発光される光が光源レンズ64および投影LCD66を通過して投影光学系32から出射する場合の光束値としての明るさが、全面照射の場合であっても25ANSIルーメン程度に設定されている。   Further, in the present embodiment, the brightness as the light flux value when the light emitted from each LED 62 passes through the light source lens 64 and the projection LCD 66 and is emitted from the projection optical system 32 is the case where the entire surface is irradiated. Is also set to about 25 ANSI lumens.

本実施形態においては、3次元入力装置10の投影部12からの出射光の明るさがその程度に選定されるため、例えば、被写体Sが人や動物の顔である場合に、その被写体Sの3次元形状を検出するためにその被写体Sにパターン光を投影しても、被写体Sに眩しさを与えずに済む。したがって、本実施形態によれば、被写体Sが人や動物である場合に、その被写体Sが目をつぶらない状態でその被写体Sの3次元形状を検出することが容易となる。   In this embodiment, since the brightness of the emitted light from the projection unit 12 of the three-dimensional input device 10 is selected to that extent, for example, when the subject S is a human or animal face, the subject S Even if pattern light is projected onto the subject S in order to detect a three-dimensional shape, the subject S does not have to be dazzled. Therefore, according to the present embodiment, when the subject S is a person or an animal, it is easy to detect the three-dimensional shape of the subject S in a state where the subject S does not close his eyes.

図3に示すように、光源レンズ64は、LEDアレイ62Aから放射状に発光される光を集光するレンズであり、その材質はアクリルに代表される光学樹脂である。   As shown in FIG. 3, the light source lens 64 is a lens that collects light emitted radially from the LED array 62A, and the material thereof is an optical resin typified by acrylic.

図3(a)に示すように、光源レンズ64は、複数個の凸状のレンズ部90と、それらレンズ部90を支持するベース部92と、エポキシ封止材94と、複数本の位置決めピン96とを備えている。   As shown in FIG. 3A, the light source lens 64 includes a plurality of convex lens portions 90, a base portion 92 that supports the lens portions 90, an epoxy sealing material 94, and a plurality of positioning pins. 96.

図3(a)に示すように、各レンズ部90は、ベース部92のうちLEDアレイ62Aの各LED62に対向する位置に、ベース部92から投影LCD66に向かって突設されている。エポキシ封止材94は、ベース部92のうちLEDアレイ62Aが気密に収容されるべき凹部98内に充填され、それにより、その凹部98内においてLEDアレイ62Aが封止される。このエポキシ封止材94は、LEDアレイ62Aの封止機能を有するのであり、さらに、基板60と光源レンズ64とを互いに接着する機能も有する。   As shown in FIG. 3A, each lens unit 90 is projected from the base unit 92 toward the projection LCD 66 at a position facing the LEDs 62 of the LED array 62 </ b> A in the base unit 92. The epoxy sealing material 94 is filled in the concave portion 98 in which the LED array 62 </ b> A of the base portion 92 is to be hermetically accommodated, whereby the LED array 62 </ b> A is sealed in the concave portion 98. The epoxy sealing material 94 has a function of sealing the LED array 62A, and further has a function of bonding the substrate 60 and the light source lens 64 to each other.

図3(a)に示すように、複数本の位置決めピン96は、光源レンズ64と基板60とを相対的に位置決めするために、光源レンズ64に、その光源レンズ64から基板60に向かって突設されている。図3(b)に示すように、複数本の位置決めピン96のうちの一部は、基板60に穿設された長穴100に挿入される一方、残りは、基板60に穿設された真円穴102に挿入され、それにより、基板60に光源レンズ64ががたなく正規の位置に固定される。   As shown in FIG. 3A, the plurality of positioning pins 96 protrude from the light source lens 64 toward the substrate 60 in order to relatively position the light source lens 64 and the substrate 60. It is installed. As shown in FIG. 3 (b), some of the plurality of positioning pins 96 are inserted into the long holes 100 formed in the substrate 60, while the rest are true holes formed in the substrate 60. The light source lens 64 is inserted into the circular hole 102, thereby fixing the light source lens 64 to the substrate 60 in a proper position.

このように、本実施形態においては、光源レンズ64と、LEDアレイ62Aと、基板60とが、投影方向に空間的に詰めて互いに積層されているため、それら光源レンズ64等の組立体のコンパクト化および省スペース化が容易となる。   Thus, in this embodiment, since the light source lens 64, the LED array 62A, and the substrate 60 are spatially packed in the projection direction and stacked on each other, the assembly of the light source lens 64 and the like is compact. And space saving become easy.

さらに、本実施形態においては、基板60が、LEDアレイ62Aを保持するという基本的な機能の他に、光源レンズ64を保持するという付随的な機能をも果たしている。したがって、本実施形態によれば、光源レンズ64を専ら保持する部品の追加を省略でき、その結果、3次元入力装置10の部品点数の削減が容易となる。   Further, in the present embodiment, the substrate 60 fulfills an additional function of holding the light source lens 64 in addition to the basic function of holding the LED array 62A. Therefore, according to the present embodiment, the addition of components that exclusively hold the light source lens 64 can be omitted, and as a result, the number of components of the three-dimensional input device 10 can be easily reduced.

さらに、本実施形態においては、各レンズ部90が、図3(a)に示すように、LEDアレイ62Aの各LED62に1対1の関係で正対するように配置されている。よって、各LED62から発光される放射状の光は、各LED62に対向する各レンズ部18によって効率良く集光され、図3(a)に示すように、指向性の高い放射光として投影LCD66に照射される。   Furthermore, in this embodiment, as shown in FIG. 3A, the lens units 90 are arranged so as to face each LED 62 of the LED array 62A in a one-to-one relationship. Therefore, the radial light emitted from each LED 62 is efficiently condensed by each lens unit 18 facing each LED 62, and irradiated to the projection LCD 66 as radiation having high directivity as shown in FIG. Is done.

このように指向性を高めたのは、投影LCD66に略垂直に光が入射すれば、その投影LCD66の面内における透過率むらが抑制されて画質が向上し得るという理由からである。   The reason why the directivity is improved in this way is that, if light is incident on the projection LCD 66 substantially perpendicularly, the transmittance unevenness in the plane of the projection LCD 66 is suppressed and the image quality can be improved.

投影光学系32は、投影LCD66を通過した光を被写体Sに向かって投影するための複数枚のレンズである。それらレンズは、ガラス製レンズと合成樹脂製レンズとの組合せから成るテレセントリックレンズによって構成されている。テレセントリックとは、投影光学系32を通過する主光線が、入射側の空間では光軸に平行になり、入射瞳の位置が無限になる構成をいう。   The projection optical system 32 is a plurality of lenses for projecting light that has passed through the projection LCD 66 toward the subject S. These lenses are constituted by a telecentric lens composed of a combination of a glass lens and a synthetic resin lens. Telecentric means a configuration in which the principal ray passing through the projection optical system 32 is parallel to the optical axis in the incident side space and the position of the entrance pupil is infinite.

投影光学系32は、上述のようにテレセントリック特性を持ち、その入射NAが0.1程度であるため、垂直±5°以内の光のみが投影光学系32の内部の絞りを通過できるように、投影光学系32の光路が規制されている。   Since the projection optical system 32 has a telecentric characteristic as described above and its incident NA is about 0.1, only light within a vertical ± 5 ° can pass through the diaphragm inside the projection optical system 32. The optical path of the projection optical system 32 is restricted.

したがって、本実施形態においては、投影光学系32のテレセントリック性により、投影LCD66を垂直±5°で通過する光のみを投影光学系32に投影し得る構成と相俟って、画質の向上を容易に図り得る。   Therefore, in the present embodiment, due to the telecentricity of the projection optical system 32, it is easy to improve the image quality in combination with the configuration in which only light passing through the projection LCD 66 at the vertical ± 5 ° can be projected onto the projection optical system 32 It can be planned.

よって、本実施形態においては、画質向上のために、各LED62からの出射光が投影LCD660に略垂直に入射するように各LED62からの光の出射角度を揃え、かつ、各LED62からの出射光のほとんどが投影光学系32に垂直±5°の入射角度範囲内で入射させることが重要である。   Therefore, in this embodiment, in order to improve the image quality, the light emission angles from the respective LEDs 62 are aligned so that the light emitted from the respective LEDs 62 enters the projection LCD 660 substantially perpendicularly, and the light emitted from the respective LEDs 62 is provided. It is important that most of the light is incident on the projection optical system 32 within an incident angle range of vertical ± 5 °.

以下、図4を参照することにより、LEDアレイ62Aの配列をさらに詳しく説明する。図4(a)は、光源レンズ64から出射する光の3次元形状を示す側面図である。図4(b)は、1個のLED62から投影LCD66の入射面106に入射した光の照度分布を示すグラフである。図4(c)は、LEDアレイ62Aの配列を部分的に拡大して示す正面図である。図4(d)は、複数個のLED62から投影LCD66の入射面106に入射した複数の光の合成照度分布を示すグラフである。   Hereinafter, the arrangement of the LED array 62A will be described in more detail with reference to FIG. FIG. 4A is a side view showing a three-dimensional shape of light emitted from the light source lens 64. FIG. 4B is a graph showing the illuminance distribution of light incident on the incident surface 106 of the projection LCD 66 from one LED 62. FIG. 4C is a front view showing the LED array 62A partially enlarged. FIG. 4D is a graph showing a combined illuminance distribution of a plurality of lights incident on the incident surface 106 of the projection LCD 66 from the plurality of LEDs 62.

図4(a)に示すように、光源レンズ64からの出射光が、半値拡がり半角θが略5°である状態で、図4(b)に示すような照度分布を有する光として、投影LCD66の入射面106に到達するように光源レンズ64が設計されている。   As shown in FIG. 4A, the projection LCD 66 outputs the light emitted from the light source lens 64 as light having an illuminance distribution as shown in FIG. 4B in a state where the half-value spread half-angle θ is about 5 °. The light source lens 64 is designed to reach the light incident surface 106.

また、図4(c)に示すように、複数個のLED62は、基板上16に千鳥状に配列されている。具体的には、複数個のLED62がピッチdで横方向に直列に並んで成るLED列が複数、ピッチdの√3/2倍と等しいピッチで縦方向に並列に並んでいる。さらに、縦方向において互いに隣接する2つのLED列は、ピッチdと等しい長さで、横方向に互いにずらされている。   Further, as shown in FIG. 4C, the plurality of LEDs 62 are arranged in a staggered pattern on the substrate 16. Specifically, a plurality of LED rows each having a plurality of LEDs 62 arranged in series in the horizontal direction at a pitch d are arranged in parallel in the vertical direction at a pitch equal to √3 / 2 times the pitch d. Furthermore, two LED rows adjacent to each other in the vertical direction are shifted from each other in the horizontal direction with a length equal to the pitch d.

すなわち、本実施形態においては、それらLED62の配列が三角格子配列とされ、いずれのLED62も、それに隣接する別のいずれのLED62からもピッチdと等しい距離離れているのである。   That is, in this embodiment, the arrangement of the LEDs 62 is a triangular lattice arrangement, and any LED 62 is separated from any other LED 62 adjacent thereto by a distance equal to the pitch d.

そして、本実施形態においては、ピッチdの長さが、1個のLED62から出射した光によって投影LCD66について与えられる照度分布の半値全幅(FWHM(Full Width Half Maximun))以下となるように、予め設定されている。   In this embodiment, the length of the pitch d is previously set to be equal to or less than the full width at half maximum (FWHM (Full Width Half Maximun)) of the illuminance distribution given to the projection LCD 66 by the light emitted from one LED 62. Is set.

よって、本実施形態においては、光源レンズ64を通過して投影LCD66の入射面106に到達する光の合成照度分布が、図4(d)に示すように、小さなリップルを有する略直線状のグラフで表され、その結果、投影LCD66の入射面106の全体に略均一に光が照射される。したがって、本実施形態によれば、投影LCD66における照度むらが抑制され、その結果、パターン光が被写体Sに高品質で投影される。   Therefore, in this embodiment, the combined illuminance distribution of the light passing through the light source lens 64 and reaching the incident surface 106 of the projection LCD 66 is a substantially linear graph having small ripples as shown in FIG. As a result, the entire incident surface 106 of the projection LCD 66 is irradiated with light substantially uniformly. Therefore, according to the present embodiment, uneven illuminance in the projection LCD 66 is suppressed, and as a result, the pattern light is projected onto the subject S with high quality.

図5には、3次元入力装置10の電気的な構成がブロック図で表されている。処理部16はコンピュータ110を主体として構成されており、そのコンピュータ110は、CPU112と、ROM114と、RAM116とを含むように構成されている。   FIG. 5 is a block diagram showing the electrical configuration of the three-dimensional input device 10. The processing unit 16 is configured mainly by a computer 110, and the computer 110 is configured to include a CPU 112, a ROM 114, and a RAM 116.

CPU112は、ROM114に記憶されたプログラムをRAM116を利用しつつ実行することにより、レリーズボタン40の操作状態の検出、CCD70からの画像データの取込み、その取り込まれた画像データの転送および格納、モード切替スイッチ42の操作状態の検出等の各種処理を行う。   The CPU 112 executes the program stored in the ROM 114 while using the RAM 116, thereby detecting the operation state of the release button 40, taking in the image data from the CCD 70, transferring and storing the taken image data, and mode switching. Various processes such as detection of the operation state of the switch 42 are performed.

ROM114には、カメラ制御プログラム114aと、撮像処理プログラム114bと、輝度画像生成プログラム114cと、コード画像生成プログラム114dと、コード境界抽出プログラム114eと、レンズ収差補正プログラム114fと、三角測量演算プログラム114gとが格納されている。   The ROM 114 includes a camera control program 114a, an imaging processing program 114b, a luminance image generation program 114c, a code image generation program 114d, a code boundary extraction program 114e, a lens aberration correction program 114f, and a triangulation calculation program 114g. Is stored.

カメラ制御プログラム114aは、3次元入力装置10全体の制御を実行するために実行され、その制御には、図6にフローチャートで概念的に表されているメイン処理が含まれる。   The camera control program 114a is executed to execute control of the entire three-dimensional input apparatus 10, and the control includes main processing conceptually shown in the flowchart of FIG.

撮像処理プログラム114bは、被写体Sの3次元形状を検出するためにパターン光が投影された被写体Sを撮像してパターン光有画像を取得し、さらに、パターン光が投影されていない被写体Sを撮像してパターン光無画像を取得するために実行される。   In order to detect the three-dimensional shape of the subject S, the imaging processing program 114b captures the subject S on which the pattern light is projected to obtain an image with pattern light, and further captures the subject S on which the pattern light is not projected. Then, it is executed to obtain a pattern light no image.

輝度画像生成プログラム114cは、撮像処理プログラム114bの実行によって同じ被写体Sについて取得された各画素のRGB値に基づき、複数枚のパターン光有画像にそれぞれ対応する複数枚の輝度画像が生成される。   The luminance image generation program 114c generates a plurality of luminance images respectively corresponding to the plurality of patterned light-present images based on the RGB values of the respective pixels acquired for the same subject S by the execution of the imaging processing program 114b.

本実施形態においては、同じ被写体Sに対して複数種類のパターン光が時系列に順次投影され、各パターン光が投影されるごとに被写体Sが撮像される。そのようにして撮像された複数枚のパターン光有画像の各々について各画素のRGB値が取得され、その結果、パターン光の種類と同数の輝度画像が生成される。   In the present embodiment, a plurality of types of pattern light are sequentially projected in time series on the same subject S, and the subject S is imaged each time each pattern light is projected. The RGB values of each pixel are acquired for each of the plurality of pattern light existence images thus captured, and as a result, the same number of luminance images as the types of pattern light are generated.

コード画像生成プログラム114dは、輝度画像生成プログラム114cの実行によって生成された複数枚の輝度画像それぞれに対する閾値処理により生成される2値化画像から、各画素毎に空間コードが割り当てられたコード画像を生成するために実行される。   The code image generation program 114d generates a code image in which a spatial code is assigned to each pixel from a binarized image generated by threshold processing for each of a plurality of luminance images generated by the execution of the luminance image generation program 114c. Executed to generate.

概略的に説明するに、このコード画像生成プログラム114dが実行されると、複数種類のパターン光のうちパターンライン間の間隔が最も狭いものが投影された被写体Sの輝度画像におけるパターンライン間の間隔が周期として取得され、その周期の輝度画像全体における分布が周期分布として取得される。   Briefly, when the code image generation program 114d is executed, the interval between pattern lines in the luminance image of the subject S on which the narrowest interval between pattern lines is projected among the plurality of types of pattern light. Is acquired as a period, and the distribution of the entire luminance image of the period is acquired as a period distribution.

このコード画像生成プログラム114dが実行されると、さらに、その取得された周期分布に従ってサイズが変化する可変窓が各パターン光ごとの輝度画像にローカルに設定されることにより、前記可変窓を用いたフィルタ処理により輝度画像全体に対して閾値がローカルに算出されて設定される。そのようにして設定された閾値の分布を表す閾値画像と各パターン光ごとの輝度画像との関係から、各パターン光ごとに2値化画像が生成される。   When the code image generation program 114d is executed, a variable window whose size changes according to the acquired periodic distribution is set locally in the luminance image for each pattern light, thereby using the variable window. A threshold value is locally calculated and set for the entire luminance image by the filter processing. A binarized image is generated for each pattern light from the relationship between the threshold image representing the threshold distribution set in this way and the luminance image for each pattern light.

可変窓を用いたフィルタ処理により輝度画像全体に対して閾値をローカルに算出する技術は、本出願人の特願2004−285736号に詳細に開示されており、その明細書を参照することによってその明細書の内容を本明細書に引用する。   A technique for locally calculating a threshold value for the entire luminance image by filtering using a variable window is disclosed in detail in Japanese Patent Application No. 2004-285736 of the present applicant. The contents of the specification are incorporated herein by reference.

コード境界抽出プログラム114eは、コード画像生成プログラム114dの実行によって生成されたコード画像と、輝度画像生成プログラム114cの実行によって生成された輝度画像とを利用することにより、コードの境界座標をサブピクセル精度で求めるために実行される。   The code boundary extraction program 114e uses the code image generated by the execution of the code image generation program 114d and the luminance image generated by the execution of the luminance image generation program 114c, thereby converting the boundary coordinates of the code into subpixel accuracy. Run to ask for.

レンズ収差補正プログラム114fは、コード境界抽出プログラム114eの実行によってサブピクセル精度で求められたコードの境界座標に対して、撮像光学系20の収差補正を行うために実行される。   The lens aberration correction program 114f is executed to correct the aberration of the imaging optical system 20 with respect to the code boundary coordinates obtained with subpixel accuracy by the execution of the code boundary extraction program 114e.

三角測量演算プログラム114gは、レンズ収差補正プログラム114fの実行によって収差補正が行われたコードの境界座標から、その境界座標に関する実空間の3次元座標を演算するために実行される。   The triangulation calculation program 114g is executed to calculate the three-dimensional coordinates of the real space related to the boundary coordinates from the boundary coordinates of the code subjected to the aberration correction by the execution of the lens aberration correction program 114f.

図5に示すように、RAM116には、パターン光有画像格納部116aと、パターン光無画像格納部116bと、輝度画像格納部116cと、コード画像格納部116dと、コード境界座標格納部116eと、収差補正座標格納部116gと、3次元座標格納部116hと、原稿姿勢演算結果格納部116iと、平面変換結果格納部116jと、投影画像格納部116kと、周期分布格納部116pと、閾値画像格納部116qと、2値化画像格納部116rと、ワーキングエリア120とがそれぞれ記憶領域として割り当てられている。   As illustrated in FIG. 5, the RAM 116 includes a pattern light existence image storage unit 116 a, a pattern light no image storage unit 116 b, a luminance image storage unit 116 c, a code image storage unit 116 d, and a code boundary coordinate storage unit 116 e. , Aberration correction coordinate storage unit 116g, three-dimensional coordinate storage unit 116h, document orientation calculation result storage unit 116i, plane conversion result storage unit 116j, projection image storage unit 116k, period distribution storage unit 116p, threshold image The storage unit 116q, the binarized image storage unit 116r, and the working area 120 are allocated as storage areas.

パターン光有画像格納部116aは、撮像処理プログラム114bの実行によって撮像されたパターン光有画像を表すパターン光有画像データを格納する。パターン光無画像格納部116bは、撮像処理プログラム114bの実行によって撮像されたパターン光無画像を表すパターン光無画像データを格納する。   The pattern light present image storage unit 116a stores pattern light present image data representing the pattern light present image captured by the execution of the image capturing processing program 114b. The pattern light no-image storage unit 116b stores pattern light no-image data representing the pattern light no-image captured by the execution of the imaging processing program 114b.

輝度画像格納部116cは、輝度画像生成プログラム114cの実行によって生成された輝度画像を表すデータを格納する。コード画像格納部116dは、コード画像生成プログラム114dの実行によって生成されたコード画像を表すデータを格納する。コード境界座標格納部116eは、コード境界抽出プログラム114eの実行によってサブピクセル精度で抽出された各コードの境界座標を表すデータを格納する。   The luminance image storage unit 116c stores data representing a luminance image generated by executing the luminance image generation program 114c. The code image storage unit 116d stores data representing a code image generated by executing the code image generation program 114d. The code boundary coordinate storage unit 116e stores data representing the boundary coordinates of each code extracted with subpixel accuracy by the execution of the code boundary extraction program 114e.

収差補正座標格納部116gは、レンズ収差補正プログラム114fの実行によって収差補正が行われたコードの境界座標を表すデータを格納する。3次元形状座標格納部116hは、三角測量演算プログラム114gの実行によって演算された実空間の3次元座標を表すデータを格納する。   The aberration correction coordinate storage unit 116g stores data representing the boundary coordinates of the code that has been subjected to aberration correction by executing the lens aberration correction program 114f. The three-dimensional shape coordinate storage unit 116h stores data representing the three-dimensional coordinates of the real space calculated by executing the triangulation calculation program 114g.

投影画像格納部116kは、投影部12が被写体Sに投影する投影画像すなわちパターン光に関する情報を格納する。   The projection image storage unit 116k stores a projection image that the projection unit 12 projects onto the subject S, that is, information regarding pattern light.

周期分布格納部116p、閾値画像格納部116qおよび2値化画像格納部116rは、コード画像生成プログラム114dの実行によって取得された周期分布、閾値画像および2値化画像を表すデータをそれぞれ格納する。   The period distribution storage unit 116p, the threshold image storage unit 116q, and the binarized image storage unit 116r store data representing the period distribution, the threshold image, and the binarized image acquired by executing the code image generation program 114d, respectively.

ワーキングエリア120は、CPU112がその動作のために一時的に使用するデータを格納する。   The working area 120 stores data temporarily used by the CPU 112 for its operation.

ここで、図6を参照することにより、カメラ制御プログラム114aを説明する。このカメラ制御プログラム114aがコンピュータ110によって実行されることにより、前述のメイン処理が実行される。   Here, the camera control program 114a will be described with reference to FIG. When the camera control program 114a is executed by the computer 110, the main process described above is executed.

このメイン処理においては、まず、ステップS101(以下、単に「S101」で表す。他のステップについても同じとする。)において、バッテリ74を含む電源がONされる。次に、S102において、処理部16、周辺インタフェイス等が初期化される。   In this main process, first, in step S101 (hereinafter simply referred to as “S101”; the same applies to other steps), the power source including the battery 74 is turned on. Next, in S102, the processing unit 16, peripheral interfaces, and the like are initialized.

続いて、S103において、モード切替スイッチ42の操作状態を判別するためにキースキャンが行われ、その後、S104において、モード切替スイッチ42の操作によってSLOWモードが選択されたか否かが判定される。今回は、SLOWモードが選択されたと仮定すれば、判定がYESとなり、S105において、前述の非間引き画像処理モードが設定される。このS105の実行後、後に詳述するS108が実行され、続いて、S103に戻る。   Subsequently, in S103, a key scan is performed to determine the operation state of the mode changeover switch 42. Thereafter, in S104, it is determined whether or not the SLOW mode is selected by the operation of the mode changeover switch 42. If it is assumed that the SLOW mode is selected this time, the determination is YES, and the above-described non-decimated image processing mode is set in S105. After execution of S105, S108, which will be described in detail later, is executed, and then the process returns to S103.

これに対し、今回は、モード切替スイッチ42の操作によってSLOWモードが選択されなかったと仮定すれば、S104の判定がNOとなり、S106において、モード切替スイッチ42の操作によってFASTモードが選択されたか否かが判定される。今回は、FASTモードが選択されたと仮定すれば、判定がYESとなり、S107において、前述の間引き画像処理モードが設定される。このS107の実行後、後に詳述するS108が実行され、続いて、S103に戻る。   On the other hand, this time, if it is assumed that the SLOW mode is not selected by the operation of the mode change switch 42, the determination in S104 is NO, and whether or not the FAST mode is selected by the operation of the mode change switch 42 in S106. Is determined. If it is assumed that the FAST mode is selected this time, the determination is YES, and the above-described thinned image processing mode is set in S107. After execution of S107, S108, which will be described in detail later, is executed, and then the process returns to S103.

これに対し、今回は、モード切替スイッチ42の操作によってFASTモードが選択されなかったと仮定すれば、S106の判定がNOとなり、S112において、モード切替スイッチ42の操作によってオフモードが選択されたか否かが判定される。今回は、モード切替スイッチ42の操作によってオフモードが選択されたと仮定すれば、判定がYESとなり、直ちに今回のメイン処理が終了するが、今回は、モード切替スイッチ42の操作によってオフモードが選択されなかったと仮定すれば、判定がYESとなり、S103に戻る。   On the other hand, this time, if it is assumed that the FAST mode is not selected by the operation of the mode switch 42, the determination in S106 is NO, and whether or not the off mode is selected by the operation of the mode switch 42 in S112. Is determined. If it is assumed that the off mode is selected by operating the mode switch 42 this time, the determination is YES, and the main process of this time is immediately terminated. However, this time, the off mode is selected by operating the mode switch 42. If it is assumed that there is not, the determination is YES and the process returns to S103.

図7には、図6におけるS108が立体画像処理ルーチンとしてフローチャートで概念的に表されている。この立体画像処理ルーチンの実行により、被写体Sの3次元形状を立体画像として検出し、表示する立体画像処理が実行される。この立体画像処理においては、さらに、同じ被写体Sの表面色も検出される。それら立体画像の検出結果と表面色の検出結果とが位置に関連付けて組み合わされたものが3次元色形状検出結果である。   FIG. 7 conceptually shows a flowchart of S108 in FIG. 6 as a stereoscopic image processing routine. By executing this stereoscopic image processing routine, stereoscopic image processing for detecting and displaying the three-dimensional shape of the subject S as a stereoscopic image is executed. In this stereoscopic image processing, the surface color of the same subject S is also detected. The three-dimensional color shape detection result is a combination of the detection result of the stereoscopic image and the detection result of the surface color in association with the position.

この立体画像処理においては、まず、S1001において、ファインダ画像、すなわち、撮像光学系30を通して見える範囲の画像と同じ画像がモニタLCD44に表示される。よって、ユーザは、モニタLCD44に表示された画像を見ることにより、実際の撮像前に、撮像画像(撮像範囲)を確認することができる。   In this stereoscopic image processing, first, in S1001, the finder image, that is, the same image as the image in the range visible through the imaging optical system 30 is displayed on the monitor LCD 44. Therefore, the user can confirm the captured image (imaging range) before actual imaging by viewing the image displayed on the monitor LCD 44.

次に、S1002において、レリーズボタン40の操作状態がスキャンされ、その後、S1003において、そのスキャン結果に基づき、レリーズボタン40が半押し状態にあるか否かが判定される。半押し状態にあれば、判定がYESとなり、S1004において、オートフォーカス(AF)および自動露出(AE)機能が起動し、それにより、ピント、絞りおよびシャッタスピードが調節される。レリーズボタン40が半押し状態になければ、S1003の判定がNOとなり、S1010に移行する。   Next, in S1002, the operation state of the release button 40 is scanned, and then, in S1003, it is determined based on the scan result whether the release button 40 is in a half-pressed state. If it is in the half-pressed state, the determination is yes, and in S1004, the autofocus (AF) and automatic exposure (AE) functions are activated, thereby adjusting the focus, aperture, and shutter speed. If the release button 40 is not half-pressed, the determination in S1003 is NO, and the flow proceeds to S1010.

S1004の実行後、S1005において、再度、レリーズボタン40の操作状態がスキャンされ、その後、S1006において、そのスキャン結果に基づき、レリーズボタン40が全押し状態にあるか否かが判定される。レリーズボタン40が全押し状態になければ、このS1006の判定がNOとなってS1002に戻る。   After the execution of S1004, the operation state of the release button 40 is scanned again in S1005, and thereafter, in S1006, it is determined whether or not the release button 40 is fully pressed based on the scan result. If the release button 40 is not fully pressed, the determination in S1006 is NO and the process returns to S1002.

レリーズボタン40が半押し状態から全押し状態に移行すれば、S1006の判定がYESとなり、S1007において、後述の3次元色形状検出処理が実行され、それにより、被写体Sの3次元形状および表面色が検出される。   If the release button 40 shifts from the half-pressed state to the fully-pressed state, the determination in S1006 becomes YES, and in S1007, a three-dimensional color shape detection process described later is executed, whereby the three-dimensional shape and surface color of the subject S Is detected.

概略的に説明するに、その3次元色形状検出処理により、被写体Sについて3次元色形状検出結果が生成される。ここに、3次元色形状検出結果とは、後述の空間コード画像において検出される複数の空間コード境界画像を3次元座標に変換した結果取得される頂点座標の集合体であって、各頂点ごとに色形状情報とポリゴン情報とが互いに関連付けられたものを意味する。色形状情報は、実空間座標とRGB値との組合せを表す情報である。ポリゴン情報は、複数個の頂点のうち、被写体Sを3次元的に表面する立体を構成するために互いに連結されるべき複数の頂点の組合せを表す情報である。   Briefly described, a three-dimensional color shape detection result for the subject S is generated by the three-dimensional color shape detection process. Here, the three-dimensional color shape detection result is a set of vertex coordinates obtained as a result of converting a plurality of spatial code boundary images detected in a spatial code image, which will be described later, into three-dimensional coordinates. Means that color shape information and polygon information are associated with each other. The color shape information is information representing a combination of real space coordinates and RGB values. The polygon information is information representing a combination of a plurality of vertices to be connected to each other in order to form a solid that three-dimensionally faces the subject S among the plurality of vertices.

その後、S1008において、その3次元色形状検出結果が外部メモリ78に格納され、続いて、S1009において、その3次元色形状検出結果が3次元コンピュータグラフィック画像としてモニタLCD44に表示される。   Thereafter, in S1008, the three-dimensional color shape detection result is stored in the external memory 78. Subsequently, in S1009, the three-dimensional color shape detection result is displayed on the monitor LCD 44 as a three-dimensional computer graphic image.

その後、S1010において、図6におけるS103と同様にしてキースキャンが行われる。続いて、S1011において、モード切替スイッチ42の操作状態に変化が無いか否かが判定される。変化が無ければ、S1011の判定がYESとなり、S1001に戻るが、変化が有れば、S1011の判定がNOとなり、今回の立体画像処理が終了する。   Thereafter, in S1010, key scanning is performed in the same manner as in S103 in FIG. Subsequently, in S1011, it is determined whether or not the operation state of the mode switch 42 has changed. If there is no change, the determination in S1011 is YES and the process returns to S1001, but if there is a change, the determination in S1011 is NO and the current stereoscopic image processing ends.

図7のS1007において実行される3次元色形状検出処理においては、空間コード化法を用いて被写体Sの3次元形状が検出される。以下、図8を参照することにより、空間コード化法を説明する。図8(a)には、3次元座標系XYZが設定された実空間をY座標軸方向に見た図と、X座標軸方向に見た図と、純2進コードによる3種類のマスクA,BおよびCのパターンとが示されている。これに対し、図8(b)には、グレイコードによる3種類のマスクA,BおよびCのパターンと、複数個の空間コードとが示されている。   In the three-dimensional color shape detection process executed in S1007 in FIG. 7, the three-dimensional shape of the subject S is detected using a spatial coding method. Hereinafter, the spatial coding method will be described with reference to FIG. FIG. 8A shows a real space in which the three-dimensional coordinate system XYZ is set as viewed in the Y coordinate axis direction, a view as viewed in the X coordinate axis direction, and three types of masks A and B using pure binary codes. And C pattern. On the other hand, FIG. 8B shows three types of masks A, B, and C patterns using a gray code and a plurality of spatial codes.

図8(a)に示すように、空間コード化法は、観察対象である被写体Sの像である観察画像と、その被写体Sに光(拡散光)を投影する投影光源(例えば、プロジェクタ)と、被写体Sを観測する観測器(例えば、カメラ)との間に三角測量の原理を適用することによって被写体Sの3次元形状を検出する手法の一種である。この空間コード化法においては、図8(a)に示すように、投影光源L(PROJECTOR)と観測器O(CAMERA)とが距離dだけ離して設置される。したがって、観測空間内の任意の点Pは、投影光の向きψと、観測器Oから見える向きθとが計測できれば、特定できる。この空間コード化法においては、さらに、被写体Sの表面上の任意の位置を特定するため、観測空間が複数個の細長い扇状領域に分割されてコード化されている。   As shown in FIG. 8A, the spatial encoding method is an observation image that is an image of a subject S that is an observation target, and a projection light source (for example, a projector) that projects light (diffuse light) onto the subject S. This is a kind of technique for detecting the three-dimensional shape of the subject S by applying the principle of triangulation to an observer (for example, a camera) that observes the subject S. In this spatial coding method, as shown in FIG. 8A, the projection light source L (PROJECTOR) and the observation device O (CAMERA) are set apart by a distance d. Therefore, an arbitrary point P in the observation space can be specified if the direction ψ of the projection light and the direction θ seen from the observer O can be measured. In this spatial coding method, in order to specify an arbitrary position on the surface of the subject S, the observation space is coded by being divided into a plurality of elongated fan-shaped regions.

被写体Sの表面上の任意の位置のコードを観測画像から取得するために、複数種類のストライプ状のパターン光が時系列的に被写体Sに投影される。パターン光の切換えは、パターン光の種類と同数のマスクを用意し、マスクを機械的に交換する機械式として実施したり、電気光学効果を有する材料を用いてストライプ状の光シャッタ列を構成し、その光シャッタ列における各ストライプの光透過率を電子的に制御する電子式として実施することが可能である。もっとも、本実施形態においては、後者の電子式が採用され、具体的には、投影LCD66によって複数種類のマスクパターンが時系列的に再現すなわち表示される。   In order to obtain a code at an arbitrary position on the surface of the subject S from the observation image, a plurality of types of stripe pattern light are projected onto the subject S in time series. Pattern light can be switched by preparing the same number of masks as the type of pattern light and mechanically exchanging the masks, or by forming a striped optical shutter array using a material having an electro-optic effect. It is possible to implement as an electronic system that electronically controls the light transmittance of each stripe in the optical shutter row. However, in the present embodiment, the latter electronic method is employed. Specifically, a plurality of types of mask patterns are reproduced or displayed in time series by the projection LCD 66.

図8(a)に示す例においては、投影光源Lと被写体S(四角柱と円柱)との間にマスクが交換可能に設置される。この例においては、パターンが互いに異なる3種類のマスクA,BおよびCが用意されており、よって、3種類のパターン光が時系列的に被写体Sに投影される。   In the example shown in FIG. 8A, a mask is installed in a replaceable manner between the projection light source L and the subject S (square pole and cylinder). In this example, three types of masks A, B, and C having different patterns are prepared, and therefore, three types of pattern light are projected onto the subject S in time series.

各マスクA,B,Cによって生成されたパターン光を被写体Sに投影すると、8個の扇状領域のそれぞれが、明領域「1」と暗領域「0」とのいずれかにコード化される。3枚のマスクA,B,Cを経た光をそれらの順に被写体Sに投影すると、各扇状領域には、3ビットから成るコードが割り当てられる。それら3ビットは、最初のマスクAに対応する最上位ビットMSBから、最後のマスクCに対応する最下位ビットLSMまで順に並んでいる。例えば、図8(a)に示す例においては、点Pが属する扇状領域は、マスクA,Bによって光が遮られるのに対し、マスクCによってのみ光が通過して明領域になるため、「001(A=0、B=0、C=1)」としてコード化される。   When the pattern light generated by the masks A, B, and C is projected onto the subject S, each of the eight fan-shaped areas is encoded into either the bright area “1” or the dark area “0”. When the light that has passed through the three masks A, B, and C is projected onto the subject S in that order, a code consisting of 3 bits is assigned to each fan-shaped area. These 3 bits are arranged in order from the most significant bit MSB corresponding to the first mask A to the least significant bit LSM corresponding to the last mask C. For example, in the example shown in FIG. 8A, the fan-shaped region to which the point P belongs is blocked by the masks A and B, whereas the light passes only by the mask C and becomes a bright region. 001 (A = 0, B = 0, C = 1) ”.

このように、各扇状領域には、投影光源Lからの向きψに相当するコードが割り当てられる。一方、各パターン光が投影された被写体Sの明暗パターンを各マスクごとに2値化してメモリの各ビットプレーンを構成すれば、各ビットプレーン画像の横方向の位置(アドレス)は、観測器Oからの向きθに相当する。また、3枚のマスクにそれぞれ対応する3枚のビットプレーンのメモリ内容を各ビット(各画素)ごとに注目すれば、各画素ごとに3ビットのコードが取得される。このコードから、各扇状領域の投影光源Lからの向きψが特定される。そして、距離dが既知である状況において、向きψおよびθが特定されれば、三角測量の原理により、被写体Sの表面上の注目点の3次元座標が特定される。   Thus, a code corresponding to the direction ψ from the projection light source L is assigned to each fan-shaped region. On the other hand, if each bit plane of the memory is constructed by binarizing the light / dark pattern of the subject S on which each pattern light is projected for each mask, the horizontal position (address) of each bit plane image is determined by the observer O. This corresponds to the direction θ from If attention is paid to the memory contents of the three bit planes corresponding to the three masks for each bit (each pixel), a 3-bit code is acquired for each pixel. From this code, the direction ψ from the projection light source L of each fan-shaped region is specified. In a situation where the distance d is known, if the directions ψ and θ are specified, the three-dimensional coordinates of the point of interest on the surface of the subject S are specified by the principle of triangulation.

図8(a)には、マスクA,BおよびCの如き複数のマスクを用いることにより、空間を純2進コードを用いてコード化する例が示されているが、図8(b)には、マスクA,BおよびCの如き複数のマスクを用いることにより、隣接するコード間のハミング距離が常に1であるグレイコードを空間コードとして用いて空間をコード化する例が示されている。   FIG. 8A shows an example in which a space is coded using a pure binary code by using a plurality of masks such as masks A, B and C. FIG. 8B shows an example. Shows an example in which a space is coded by using a gray code whose Hamming distance between adjacent codes is always 1 as a space code by using a plurality of masks such as masks A, B and C.

本実施形態においては、前述の3次元色形状検出処理において、純2進コードによる空間コード化法を採用しても、グレイコードによる空間コード化法を採用してもよい。   In the present embodiment, in the above-described three-dimensional color shape detection process, a spatial encoding method using a pure binary code or a spatial encoding method using a Gray code may be used.

この空間コード化法の詳細は、例えば、佐藤宏介、他1名、「空間コード化による距離画像入力」、電子通信学会論文誌、85/3Vol.J 68−D No3 p369〜375に詳細に開示されている。   Details of this spatial coding method are described in, for example, Kosuke Sato and one other, “Distance Image Input by Spatial Coding”, IEICE Transactions, 85/3 Vol. J 68-D No3 p369-375.

図9には、図7におけるS1007が3次元色形状検出処理ルーチンとしてフローチャートで概念的に表されている。   FIG. 9 conceptually shows a flowchart of S1007 in FIG. 7 as a three-dimensional color shape detection processing routine.

この3次元色形状検出処理ルーチンにおいては、まず、S1210において、撮像処理が実行される。この撮像処理が実行されれば、例えば、図8(b)に示す複数枚のグレイコードのマスクパターンを利用して投影部12からストライプ状のパターン光が時系列的に被写体Sに投影される。さらに、複数種類のパターン光が投影されている被写体Sをそれぞれ撮像した複数枚のパターン光有画像と、パターン光が投影されていない同じ被写体Sを撮像した1枚のパターン光無画像とが取得される。   In this three-dimensional color shape detection processing routine, first, in S1210, an imaging process is executed. If this imaging process is executed, for example, the striped pattern light is projected onto the subject S in time series from the projection unit 12 using a plurality of gray code mask patterns shown in FIG. . Further, a plurality of pattern light existence images obtained by imaging the subject S on which a plurality of types of pattern light are projected and a single pattern light no image obtained by imaging the same subject S on which the pattern light is not projected are acquired. Is done.

撮像処理が終了すると、S1220において、3次元計測処理が実行される。この3次元計測処理が実行されると、上述の撮像処理によって取得された複数枚のパターン光有画像と1枚のパターン光無画像とが利用されて、実際に被写体Sの3次元形状が計測される。   When the imaging process ends, a three-dimensional measurement process is executed in S1220. When this three-dimensional measurement process is executed, the three-dimensional shape of the subject S is actually measured using a plurality of pattern-lighted images and one pattern-lightless image acquired by the above-described imaging process. Is done.

この3次元計測処理が終了すると、S1230において、被写体Sについて計測された3次元形状と表面色とを組み合わせることにより、3次元色形状検出結果が生成される。この3次元色形状検出結果が生成されると、今回の3次元色形状検出処理が終了する。   When this three-dimensional measurement process is completed, a three-dimensional color shape detection result is generated by combining the three-dimensional shape measured for the subject S and the surface color in S1230. When this three-dimensional color shape detection result is generated, the current three-dimensional color shape detection process ends.

図9におけるS1210においては、上述の撮像処理のために撮像処理プログラム114bが実行される。図10には、この撮像処理プログラム114bがフローチャートで概念的に表されている。   In S1210 in FIG. 9, the imaging processing program 114b is executed for the above-described imaging processing. FIG. 10 conceptually shows the imaging processing program 114b in a flowchart.

この撮像処理プログラム114bにおいては、まず、S2001において、パターン光を形成するために使用されるマスクパターンの番号を表すパターン番号PNが0に初期化される。続いて、S2002において、そのパターン番号PNの現在値が最大値PNmaxより小さいか否かが判定される。その最大値PNmaxは、使用されるマスクパターンの合計数に応じて決定される。例えば、8種類のマスクパターンが使用される場合には、最大値PNmaxが8に設定される。   In this imaging processing program 114b, first, in S2001, a pattern number PN representing a mask pattern number used for forming pattern light is initialized to zero. Subsequently, in S2002, it is determined whether or not the current value of the pattern number PN is smaller than the maximum value PNmax. The maximum value PNmax is determined according to the total number of mask patterns used. For example, when 8 types of mask patterns are used, the maximum value PNmax is set to 8.

今回は、パターン番号PNの現在値が最大値PNmaxより小さいと仮定すれば、S2002の判定がYESとなり、その後、S2003において、使用される複数種類のマスクパターンのうち、パターン番号PNの現在値と等しい番号が付されたPN番目のマスクパターンの投影が開始される。   This time, if it is assumed that the current value of the pattern number PN is smaller than the maximum value PNmax, the determination in S2002 is YES, and then in S2003, the current value of the pattern number PN among the plurality of types of mask patterns used. Projection of the PN-th mask pattern with the same number is started.

続いて、S2004において、PN番目のマスクパターンを被写体Sに投影するための投影処理が行われる。図11には、このS2004の詳細が投影処理サブルーチンとしてフローチャートで概念的に表されている。この投影処理サブルーチンの実行により、投影画像格納部37kに格納されている画像を投影部12から被写体Sに投影する投影処理が実行される。   Subsequently, in S2004, a projection process for projecting the PN-th mask pattern onto the subject S is performed. FIG. 11 conceptually shows the details of S2004 as a projection processing subroutine in a flowchart. By executing this projection processing subroutine, the projection processing for projecting the image stored in the projection image storage unit 37k from the projection unit 12 onto the subject S is executed.

この投影処理においては、まず、S3001において、投影画像格納部116kに画像が格納されているか否かが判定される。格納されていない場合には、判定がNOとなり、直ちに今回の投影処理が終了する。これに対し、格納されている場合には、判定がYESとなり、S3002において、投影画像格納部116kに格納されている画像が投影LCDドライバ86に転送される。続いて、S3003において、その格納されている画像に応じた画像信号が投影LCDドライバ86から投影LCD66に送出され、それにより、その投影LCD66に画像が表示される。   In this projection processing, first, in S3001, it is determined whether or not an image is stored in the projection image storage unit 116k. If it is not stored, the determination is no and the current projection process is immediately terminated. On the other hand, if it is stored, the determination is YES, and the image stored in the projection image storage unit 116k is transferred to the projection LCD driver 86 in S3002. Subsequently, in S3003, an image signal corresponding to the stored image is sent from the projection LCD driver 86 to the projection LCD 66, whereby an image is displayed on the projection LCD 66.

その後、S3004において、光源ドライバ84が駆動され、続いて、S3005において、その光源ドライバ84からの電気信号によってLEDアレイ62Aが発光する。以上で、今回の投影処理が終了する。   Thereafter, in S3004, the light source driver 84 is driven. Subsequently, in S3005, the LED array 62A emits light by an electrical signal from the light source driver 84. This is the end of the current projection process.

LEDアレイ62Aから発光した光は、光源レンズ64を経て投影LCD66に到達する。その投影LCD66においては、投影LCDドライバ86から送信された画像信号に応じた空間変調が施され、その結果、投影LCD66への入射光が画像信号光に変換されて出力される。その投影LCD66から出力される画像信号光は、投影光学系32を経て被写体Sに投影画像として投影される。   The light emitted from the LED array 62A reaches the projection LCD 66 via the light source lens 64. In the projection LCD 66, spatial modulation is performed in accordance with the image signal transmitted from the projection LCD driver 86. As a result, incident light on the projection LCD 66 is converted into image signal light and output. The image signal light output from the projection LCD 66 is projected as a projected image onto the subject S via the projection optical system 32.

以上のようにして、PN番目のマスクパターンによって形成されるPN番目のパターン光が被写体Sに投影されると、続いて、図10におけるS2005において、そのPN番目のパターン光が投影されている被写体Sが撮像部14によって撮像される。   As described above, when the PN-th pattern light formed by the PN-th mask pattern is projected onto the subject S, subsequently, the subject onto which the PN-th pattern light is projected in S2005 in FIG. S is imaged by the imaging unit 14.

その撮像により、PN番目のパターン光が投影されている被写体Sを撮像したPN番目のパターン光有画像が取得される。その取得されたパターン光有画像は、対応するパターン番号PNに関連付けてパターン光有画像格納部116aに格納される。   By the imaging, a PN-th pattern light existence image obtained by imaging the subject S on which the PN-th pattern light is projected is acquired. The acquired pattern light present image is stored in the pattern light present image storage unit 116a in association with the corresponding pattern number PN.

その撮像が終了すると、S2006において、PN番目のパターン光の投影が終了し、続いて、S2007において、次のパターン光を投影すべく、パターン番号PNが1だけインクリメントされ、その後、S2002に戻る。   When the imaging is finished, the projection of the PN-th pattern light is finished in S2006. Subsequently, in S2007, the pattern number PN is incremented by 1 to project the next pattern light, and then the process returns to S2002.

S2002ないしS2007の実行がパターン光の種類の数と同数回繰り返された結果、パターン番号PNの現在値が最大値PNmaxより小さくはない値になると、S2002の判定がNOとなり、今回の撮像処理が終了する。したがって、一回の撮像処理により、最大値PNmaxと同数枚のパターン光有画像が取得されることになる。   As a result of the execution of S2002 to S2007 being repeated the same number of times as the number of types of pattern light, if the current value of the pattern number PN becomes a value not smaller than the maximum value PNmax, the determination in S2002 becomes NO, and the current imaging process is performed. finish. Therefore, the same number of images with pattern light as the maximum value PNmax are acquired by one imaging process.

続いて、S2008において、フラッシュモードが選択されているか否かが判定される。フラッシュモードが選択されていれば、その判定がYESとなり、S2009において、フラッシュ26が発光させられるが、フラッシュモードが選択されていなければ、S2008の判定がNOとなり、S2009がスキップされる。いずれにしても、その後、S2010において、被写体Sが撮像される。   Subsequently, in S2008, it is determined whether or not the flash mode is selected. If the flash mode is selected, the determination is YES, and the flash 26 is caused to emit light in S2009. If the flash mode is not selected, the determination in S2008 is NO and S2009 is skipped. In any case, the subject S is then imaged in S2010.

この撮像は、被写体Sの表面色を計測することを目的として、投影部12からパターン光を被写体Sに投影することなく、行われる。その結果、被写体12について1枚のパターン光無画像が取得される。その取得されたパターン光無画像はパターン光無画像格納部116bに格納される。   This imaging is performed without projecting pattern light from the projection unit 12 onto the subject S for the purpose of measuring the surface color of the subject S. As a result, one pattern light no image is acquired for the subject 12. The acquired pattern light no image is stored in the pattern light no image storage unit 116b.

以上で、この撮像処理プログラム114bの一回の実行が終了する。   This completes one execution of the imaging processing program 114b.

図12には、この撮像処理プログラム114bの一回の実行に伴うこの3次元入力装置10の作動の一例がタイミングチャートで表されている。この作動例は、ユーザによってFASTモードが選択されている状態でユーザによってレリーズボタン40が全押し状態に操作された場合にこの3次元入力装置10によって実行されるものである。   FIG. 12 is a timing chart showing an example of the operation of the three-dimensional input apparatus 10 accompanying one execution of the imaging processing program 114b. This operation example is executed by the three-dimensional input device 10 when the user operates the release button 40 in a fully-pressed state while the FAST mode is selected by the user.

図12(a)には、被写体Sからの入射光によってCCD70が複数回、連続して露光される様子が示されている。図12(b)には、それら複数回の露光のそれぞれにつき、被写体Sからの入射光によって表される全体画像のうちの各画素ごとに光がCCD70によって電気信号に変換されてCCD70から出力される信号出力タイミングがタイミングチャートで表されている。図12(c)には、撮像部14の画像処理モードが前述の間引き画像処理モードと非間引き画像処理モードとに時間的に切り替わるタイミングがタイミングチャートで表されている。   FIG. 12A shows a state in which the CCD 70 is continuously exposed a plurality of times by the incident light from the subject S. In FIG. 12B, for each of these multiple exposures, light is converted into an electrical signal by the CCD 70 for each pixel in the entire image represented by the incident light from the subject S and output from the CCD 70. The signal output timing is represented by a timing chart. In FIG. 12C, timing when the image processing mode of the imaging unit 14 is temporally switched between the thinned-out image processing mode and the non-thinned-out image processing mode is represented by a timing chart.

さらに、図12(d)には、撮像部14の状態が、待機状態と、撮像および信号取り出しのための作動状態とに時間的に切り替わるタイミングがタイミングチャートで表されている。図12(e)には、各パターン光を表す投影画像データが投影LCD66に転送されるタイミングがタイミングチャートで表されている。図12(f)には、レリーズボタン40が、非操作状態と操作状態とに時間的に切り替わるタイミングがタイミングチャートで表されている。   Further, in FIG. 12D, timings at which the state of the imaging unit 14 is temporally switched between a standby state and an operation state for imaging and signal extraction are shown in a timing chart. FIG. 12E shows the timing at which the projection image data representing each pattern light is transferred to the projection LCD 66 in a timing chart. FIG. 12F shows the timing at which the release button 40 is temporally switched between the non-operating state and the operating state in a timing chart.

本実施形態においては、被写体Sからの入射光によるCCD70の露光後に、その露光を反映した信号のCCD70からの取り出しが行われる。1回の露光に1回の信号取り出しが対応しており、それら露光と信号取り出しとが互いに共同して1回の個別撮像処理を構成する。   In the present embodiment, after the CCD 70 is exposed by incident light from the subject S, a signal reflecting the exposure is taken out from the CCD 70. One signal extraction corresponds to one exposure, and these exposure and signal extraction together constitute one individual imaging process.

本実施形態においては、同じ被写体Sについて3次元形状情報の取得と表面色情報の取得とが連続的に、かつ、それらの順で行われる。   In the present embodiment, the acquisition of the three-dimensional shape information and the acquisition of the surface color information for the same subject S are continuously performed in that order.

前述のように、被写体Sの3次元形状情報を取得するために、その被写体Sに8種類のパターン光(パターン番号PN=0〜7)が順次投影され、各パターン光の投影ごとに、CCD70の露光とCCD70からの信号取り出しとが行われる。すなわち、被写体Sの3次元形状情報を取得するために、その被写体Sに対する個別撮像処理が順次、合計8回行われるのである。図12においては、3次元形状情報を取得するための各回の個別撮像処理に対応するパターン光の番号PNが、「0」ないし「7」の数字によって示されている。   As described above, in order to acquire the three-dimensional shape information of the subject S, eight types of pattern light (pattern numbers PN = 0 to 7) are sequentially projected on the subject S, and the CCD 70 is projected for each projection of the pattern light. Exposure and signal extraction from the CCD 70 are performed. That is, in order to acquire the three-dimensional shape information of the subject S, the individual imaging processing for the subject S is sequentially performed a total of eight times. In FIG. 12, the number PN of the pattern light corresponding to each individual imaging process for acquiring the three-dimensional shape information is indicated by numbers “0” to “7”.

被写体Sの表面色情報を取得するために、被写体Sからの入射光によってCCD70が1回露光され、その後に信号取り出しが行われる。すなわち、被写体Sの表面色情報を取得するために、被写体Sに対する個別撮像処理が1回行われるのである。図12においては、表面色情報を取得するための1回の個別撮像処理が「c」という記号によって示されている。   In order to acquire the surface color information of the subject S, the CCD 70 is exposed once by the incident light from the subject S, and then the signal is extracted. That is, in order to acquire the surface color information of the subject S, the individual imaging process for the subject S is performed once. In FIG. 12, a single individual imaging process for acquiring surface color information is indicated by a symbol “c”.

3次元形状情報取得のための撮像においては、照明光としてパターン光を被写体Sに投影することが必須であるのに対し、表面色情報取得のための撮像においては、照明光を被写体Sに投影することが選択的である。具体的には、表面色情報取得のための撮像においては、被写体Sからの受光量が不足している場合に、フラッシュ26が自動的に発光させられ、それにより、被写体Sに照明光が投影される。   In imaging for obtaining three-dimensional shape information, it is indispensable to project pattern light as illumination light on the subject S, whereas in imaging for obtaining surface color information, illumination light is projected onto the subject S. It is selective to do. Specifically, in imaging for acquiring surface color information, when the amount of light received from the subject S is insufficient, the flash 26 is automatically caused to emit light, thereby projecting illumination light onto the subject S. Is done.

したがって、本実施形態においては、3次元形状情報取得のための8回の個別撮像処理と、表面色情報取得のための1回の個別撮像処理とが連続的に行われ、合計9回の個別撮像処理が連続的に行われる。本実施形態においては、それら9回の個別撮像処理が互いに共同して1回の全体撮像処理を構成している。   Therefore, in the present embodiment, eight individual imaging processes for acquiring three-dimensional shape information and one individual imaging process for acquiring surface color information are continuously performed, for a total of nine individual imaging processes. Imaging processing is continuously performed. In the present embodiment, these nine individual imaging processes cooperate with each other to constitute one whole imaging process.

それら9回の個別撮像処理においては、同じ被写体Sについて9回の露光が順次行われ、それら9回の露光は、例えば、ビデオレートと同じ速度で同一周期で行われる。それら9回の露光が連続的に行われる期間は、被写体Sと3次元入力装置10との相対位置が変化するとその影響がCCD70の撮像結果に現れる期間である。この期間は、3次元入力装置10の撮像時間である。この撮像時間が短いほど、3次元入力装置10の動画撮像能力が高いことを意味する。   In these nine individual imaging processes, nine exposures are sequentially performed on the same subject S, and these nine exposures are performed at the same cycle as the video rate, for example. The period in which these nine exposures are continuously performed is a period in which the influence appears in the imaging result of the CCD 70 when the relative position between the subject S and the three-dimensional input device 10 changes. This period is the imaging time of the three-dimensional input device 10. It means that the moving image imaging capability of the three-dimensional input device 10 is higher as the imaging time is shorter.

図12に示す一作動例においては、3次元形状情報取得のための8回の個別撮像処理における信号取り出しがいずれも、間引き画像処理として実行される。したがって、3次元形状情報取得のための各回の個別撮像処理においては、CCD70の露光に後続し、必要な信号取り出し時間t1の経過後、CCD70から電気信号が出力される。信号取り出し時間t1は、1フレーム取り出し時間ともいい、各パターン光の投影ごとに、CCD70の露光が終了してから、3次元形状情報が1フレーム分、CCD70から出力されるまでに必要な3次元形状情報出力時間を意味する。   In one operation example shown in FIG. 12, signal extraction in eight individual imaging processes for acquiring three-dimensional shape information is performed as a thinned image process. Accordingly, in each individual imaging process for obtaining three-dimensional shape information, an electrical signal is output from the CCD 70 after the CCD 70 has been exposed and after a necessary signal extraction time t1 has elapsed. The signal extraction time t1 is also referred to as one frame extraction time. For each pattern light projection, the three-dimensional necessary for the three-dimensional shape information to be output from the CCD 70 after the exposure of the CCD 70 is completed. It means shape information output time.

これに対し、図12に示す一例においては、表面色情報取得のための1回の個別撮像処理における信号取り出しが、非間引き画像処理として実行される。したがって、表面色情報取得のための1回の個別撮像処理については、CCD70の露光に後続し、必要な信号取り出し時間t2の経過後、CCD70から電気信号が出力される。信号取り出し時間t2は、1フレーム取り出し時間ともいい、CCD70の露光が終了してから、表面色状情報が1フレーム分、CCD70から出力されるまでに必要な表面色情報出力時間を意味する。   On the other hand, in the example shown in FIG. 12, signal extraction in one individual imaging process for acquiring surface color information is executed as non-decimated image processing. Therefore, in one individual imaging process for acquiring surface color information, an electrical signal is output from the CCD 70 after the exposure of the CCD 70 and after a necessary signal extraction time t2. The signal extraction time t2 is also called one frame extraction time, and means the surface color information output time required until the surface color information is output from the CCD 70 for one frame after the exposure of the CCD 70 is completed.

間引き画像処理に必要な信号取り出し時間t1は、非間引き画像処理に必要な信号取り出し時間t2より短い。例えば、信号取り出し時間t1は、約33msであるのに対し、信号取り出し時間t2は、約0.5sである。   The signal extraction time t1 required for the thinned-out image processing is shorter than the signal extraction time t2 required for the non-thinned-out image processing. For example, the signal extraction time t1 is about 33 ms, while the signal extraction time t2 is about 0.5 s.

図12(a)および(b)に示すように、1回の個別撮像処理においては、露光が終了した後に信号取り出しが開始されるが、次回の個別撮像処理における露光は、前回の個別撮像処理における信号取り出しが終了する前に開始される。すなわち、ある回の個別撮像処理における信号取り出しと次回の個別撮像処理における露光とが時間的に部分的にオーバラップするように行われるのである。ただし、ある回の個別撮像処理における信号取り出しは、次回の個別撮像処理における露光が終了する前に終了する。   As shown in FIGS. 12A and 12B, in one individual imaging process, signal extraction is started after the exposure is completed, but the exposure in the next individual imaging process is performed in the previous individual imaging process. This is started before the signal extraction at is finished. That is, the signal extraction in one individual imaging process and the exposure in the next individual imaging process are performed so as to partially overlap in time. However, the signal extraction in a certain individual imaging process ends before the exposure in the next individual imaging process ends.

したがって、本実施形態においては、図12(b)に示すように、3次元形状情報取得のための8回の信号取り出しが時間的に隙間なく連続的に行われる。   Accordingly, in the present embodiment, as shown in FIG. 12B, eight signal extractions for acquiring three-dimensional shape information are continuously performed with no time gap.

各回の信号取り出しは、それが間引き画像処理として実行される場合には、約33msで終了する。したがって、8回の信号取り出しは約0.26sで終了する。よって、図12に示す撮像時間(全体撮像時間)のうち3次元形状情報取得のための撮像に必要な部分(以下、「部分撮像時間」という。)の長さは、信号取り出し時間の長さの合計値によって支配されるため、約0.26sの程度の長さで済む。   Each signal extraction is completed in about 33 ms if it is executed as a thinned image process. Therefore, eight signal extractions are completed in about 0.26 s. Therefore, the length of the part (hereinafter referred to as “partial imaging time”) necessary for imaging for obtaining the three-dimensional shape information in the imaging time (total imaging time) shown in FIG. 12 is the length of the signal extraction time. Therefore, a length of about 0.26 s is required.

これに対し、各回の信号取り出しは、それを非間引き画像処理として実行すると、約0.5sも必要である。そのため、8回の信号取り出しに約5sも必要となり、よって、それに対応する部分撮像時間もその程度の長さが必要となる。   On the other hand, if each signal is extracted as non-decimated image processing, about 0.5 s is required. Therefore, about 5 s is required for eight signal extractions, and accordingly, the corresponding partial imaging time is also required to be as long as that.

このように、CCD70からの信号取り出しを間引き画像処理として実行する場合には、撮像時間が短縮され、その結果、被写体Sの動きや3次元入力装置10の手振れにもかかわらず、被写体Sの3次元形状を高精度で計測できる。   As described above, when the signal extraction from the CCD 70 is executed as the thinned image processing, the imaging time is shortened. As a result, the 3 of the subject S can be obtained regardless of the movement of the subject S and the camera shake of the three-dimensional input device 10. Dimensional shape can be measured with high accuracy.

さらに、図12に示すように、本実施形態においては、3次元形状情報取得のための2回目ないし8回目の露光のそれぞれと、表面色情報取得のための露光とが、それぞれ、先行する直前の露光に対応する信号取り出しの終了を待つことなく、開始される。先行する露光に対応する信号取り出しと、後続する露光とが互いに並行して行われるのであり、これにより、9回の信号取出しが時間的に隙間なく連続的に行われる。したがって、図12に示す撮像時間、すなわち、3次元形状情報取得のための撮像と表面色情報取得のための撮像との双方を連続的に行うのに必要な時間が短縮される。   Further, as shown in FIG. 12, in the present embodiment, each of the second to eighth exposures for acquiring the three-dimensional shape information and the exposure for acquiring the surface color information are immediately preceding each other. The process is started without waiting for the end of signal extraction corresponding to the exposure. The signal extraction corresponding to the preceding exposure and the subsequent exposure are performed in parallel with each other, whereby nine signal extractions are continuously performed with no time gap. Therefore, the imaging time shown in FIG. 12, that is, the time required to continuously perform both the imaging for acquiring the three-dimensional shape information and the imaging for acquiring the surface color information is shortened.

具体的には、各回の信号取り出しは、それが間引き画像処理として実行される場合には、約33msで終了するため、9回の信号取り出しは約0.3sで終了し、よって、それに対応する全体撮像時間もその程度の長さで済む。   Specifically, since each signal extraction is completed in about 33 ms when it is executed as a thinned-out image process, nine signal extractions are completed in about 0.3 s, and thus correspond to it. The entire imaging time can be as long as that.

仮に、表面色情報取得のための1回の個別撮像処理すなわち表面色計測撮像処理(信号取り出しが非間引き画像処理として実行される。)を先に、3次元形状情報取得のための8回の個別撮像処理すなわち3次元計測撮像処理(信号取り出しが間引き画像処理として実行される。)を後に実行した場合には、先行する表面色計測撮像処理における信号取出しがほとんど終了するまで、3次元形状情報取得のための初回の露光を待たせなければならない。その待ち時間は、信号取り出し時間t2の長さにほぼ等しく、約0.5sである。   Temporarily, one individual imaging process for surface color information acquisition, that is, surface color measurement imaging process (signal extraction is executed as non-decimated image processing) is performed eight times for acquiring three-dimensional shape information. When individual imaging processing, that is, three-dimensional measurement imaging processing (signal extraction is executed as a thinned-out image processing) is performed later, three-dimensional shape information is obtained until signal extraction in the preceding surface color measurement imaging processing is almost completed. You have to wait for the first exposure for acquisition. The waiting time is approximately equal to the length of the signal extraction time t2 and is about 0.5 s.

この場合には、表面色情報取得のための露光と、3次元形状情報取得のための初回の露光との間にやや長い時間間隔が存在し、図12に示す全体撮像時間が長くなる。一方、被写体Sが静止物体であり、かつ、この3次元入力装置10の手振れの程度が大きくはない場合には、その全体撮像時間がやや長いことは問題にならない。これに対し、図1に示す如き、被写体Sが動作物体である場合や、3次元入力装置10の手振れの程度が大きい場合には、その全体撮像時間が長いと、表面色情報と3次元形状情報とが画素の位置に関して互いに十分に正確にマッチングしなくなってしまう。すなわち、テクスチャマッピング精度が低下してしまうのである。   In this case, there is a slightly longer time interval between the exposure for acquiring the surface color information and the first exposure for acquiring the three-dimensional shape information, and the total imaging time shown in FIG. 12 becomes longer. On the other hand, when the subject S is a stationary object and the degree of camera shake of the three-dimensional input device 10 is not large, it is not a problem that the entire imaging time is slightly long. On the other hand, as shown in FIG. 1, when the subject S is a moving object or when the degree of camera shake of the three-dimensional input device 10 is large, if the entire imaging time is long, the surface color information and the three-dimensional shape Information does not match each other sufficiently accurately with respect to the pixel position. That is, the texture mapping accuracy is lowered.

これに対し、本実施形態においては、図12に示すように、3次元形状情報取得のための8回の個別撮像処理が先に、表面色情報取得のための1回の個別撮像処理が後に行われる。その結果、先行する3次元形状情報取得のための8回目の露光と、後続する表面色情報取得のための露光とを、先行する3次元形状情報取得のための8回の露光が行われる周期と同じ周期で連続して行うことが可能となる。よって、本実施形態によれば、全体撮像時間を、約0.3s程度にまで短縮することが可能となる。   In contrast, in the present embodiment, as shown in FIG. 12, eight individual imaging processes for acquiring three-dimensional shape information are performed first, and one individual imaging process for acquiring surface color information is performed later. Done. As a result, the eighth exposure for acquiring the preceding three-dimensional shape information and the subsequent exposure for acquiring the surface color information are performed eight times for acquiring the preceding three-dimensional shape information. It becomes possible to carry out continuously with the same period. Therefore, according to the present embodiment, it is possible to reduce the total imaging time to about 0.3 s.

したがって、本実施形態によれば、3次元形状情報取得のための露光と表面色情報取得のための露光とを十分に短い時間間隔で連続して行うことが可能となり、その結果、被写体Sの動きの程度や3次元入力装置10の手振れの程度にかかわらず、高いテクスチャマッッピング精度が実現される。   Therefore, according to the present embodiment, it is possible to continuously perform exposure for acquiring three-dimensional shape information and exposure for acquiring surface color information at sufficiently short time intervals. Regardless of the degree of movement or the degree of camera shake of the three-dimensional input device 10, high texture mapping accuracy is realized.

よって、本実施形態によれば、3次元形状情報取得のためのCCD70からの信号取り出しを間引き画像処理モードで実行する場合(ユーザがFASTモードを選択する場合)には、高いテクスチャ解像度すなわち表面色計測精度を確保しつつ、高いテクスチャマッピング精度で動画を撮像するのに適した3次元入力装置10が提供される。   Therefore, according to the present embodiment, when the signal extraction from the CCD 70 for obtaining the three-dimensional shape information is executed in the thinned image processing mode (when the user selects the FAST mode), the high texture resolution, that is, the surface color A three-dimensional input device 10 suitable for capturing a moving image with high texture mapping accuracy while ensuring measurement accuracy is provided.

さらに、本実施形態においては、ユーザが、3次元形状情報を取得するための画像処理モードを、間引き画像処理モードすなわちFASTモードと、非間引き画像処理モードすなわちSLOWモードとに適宜変更することが可能である。テクスチャマッピング精度の低下が懸念される環境において、ユーザがFASTモードを選択すれば、そのような環境にもかかわらず、テクスチャマッピング精度が低下せずに済む。一方、テクスチャマッピング精度の低下が懸念されない環境において、ユーザがSLOWモードを選択すれば、高いテクスチャマッピング精度のみならず高い3次元形状計測精度も実現される。   Furthermore, in this embodiment, the user can appropriately change the image processing mode for acquiring the three-dimensional shape information into a thinned image processing mode, that is, a FAST mode, and a non-thinned image processing mode, that is, a SLOW mode. It is. If the user selects the FAST mode in an environment where a decrease in texture mapping accuracy is a concern, the texture mapping accuracy does not decrease in spite of such an environment. On the other hand, if the user selects the SLOW mode in an environment where there is no concern about a decrease in texture mapping accuracy, not only high texture mapping accuracy but also high three-dimensional shape measurement accuracy is realized.

このように、本実施形態によれば、3次元入力装置10の使用環境や3次元形状計測精度とテクスチャマッピング精度とのそれぞれに対するユーザの要望に応じて、3次元入力装置10の設定をユーザが任意に変更することができ、よって、3次元入力装置10の使い勝手が向上する。   As described above, according to the present embodiment, the user sets the three-dimensional input device 10 according to the use environment of the three-dimensional input device 10 and the user's request for each of the three-dimensional shape measurement accuracy and the texture mapping accuracy. It can be arbitrarily changed, so that the usability of the three-dimensional input device 10 is improved.

図13には、図9におけるS1220が3次元計測処理サブルーチンとしてフローチャートで概念的に表されている。   FIG. 13 conceptually shows a flowchart of S1220 in FIG. 9 as a three-dimensional measurement processing subroutine.

この3次元計測処理サブルーチンにおいては、まず、S4001において、輝度画像生成プログラム114cの実行により、輝度画像が生成される。   In this three-dimensional measurement processing subroutine, first, in S4001, a luminance image is generated by executing the luminance image generation program 114c.

このS4001においては、輝度値が、YCbCr空間におけるY値として定義されており、各画素のRGB値より、   In S4001, the luminance value is defined as the Y value in the YCbCr space, and from the RGB value of each pixel,

Y=0.2989・R+0.5866・G+0.1145・B   Y = 0.2989 · R + 0.5866 · G + 0.1145 · B

なる式を用いて計算される。各画素についてY値を求めることにより、複数枚のパターン光有画像にそれぞれ対応する複数枚の輝度画像が生成される。それら生成された輝度画像は、パターン番号PNに関連付けて輝度画像格納部116cに格納される。ただし、輝度値の算出に用いられる式は、上記式に限定されるものではなく、他の式に適宜変更することが可能である。 It is calculated using the following formula. By obtaining the Y value for each pixel, a plurality of luminance images respectively corresponding to the plurality of pattern light existence images are generated. The generated luminance images are stored in the luminance image storage unit 116c in association with the pattern number PN. However, the formula used for calculating the luminance value is not limited to the above formula, and can be appropriately changed to another formula.

次に、S4002において、コード画像生成プログラム114dが実行される。このコード画像生成プログラム114dが実行されると、生成された複数枚の輝度画像が前述の空間コード化法を利用して組み合わされることにより、各画素ごとに空間コードが割り当てられたコード画像が生成される。そのコード画像は、輝度画像格納部116cに格納された複数種類のパターン光有画像に関する輝度画像と、各画素ごとに輝度閾値が割り当てられた閾値画像との比較による2値化処理によって生成される。その生成されたコード画像はコード画像格納部116dに格納される。   Next, in S4002, the code image generation program 114d is executed. When the code image generation program 114d is executed, a plurality of generated luminance images are combined using the above-described spatial encoding method, thereby generating a code image in which a spatial code is assigned to each pixel. Is done. The code image is generated by binarization processing by comparing a luminance image related to a plurality of types of pattern light existence images stored in the luminance image storage unit 116c with a threshold image to which a luminance threshold is assigned for each pixel. . The generated code image is stored in the code image storage unit 116d.

図14には、このコード画像生成プログラム114dの詳細がフローチャートで概念的に表されている。このコード画像生成プログラム114dにおいて採用されている技術は、本出願人の特願2004−285736号に詳細に記載されているため、その特許出願を参照することにより、その特許出願の内容を本明細書に引用する。   FIG. 14 conceptually shows the details of the code image generation program 114d in a flowchart. Since the technology employed in the code image generation program 114d is described in detail in Japanese Patent Application No. 2004-285736 of the present applicant, the contents of the patent application are described in this specification by referring to the patent application. Quote in the book.

以下、このコード画像生成プログラム114dを時系列的に説明するが、それに先立ち、原理的に説明する。   Hereinafter, the code image generation program 114d will be described in time series, but prior to that, it will be described in principle.

本実施形態においては、同じ被写体S(3次元対象物)につき、複数種類のパターン光のもとにそれぞれ複数枚の輝度画像が生成される。それらパターン光はいずれも、明部、すなわち、幅を有する明るいパターンラインと、暗部、すなわち、幅を有する暗いパターンラインとが交互に一定の周期で繰り返すように形成される。それらパターン光は、その周期に関して互いに異なっており、それぞれ、パターン番号PNを有するパターン光と称される。それらパターン光のうち最も短い周期を有するパターン光が、パターン番号PNが0であるパターン光であり、最も長い周期を有するパターン光が、パターン番号PNが(PNmax−1)であるパターン光である。   In the present embodiment, a plurality of luminance images are generated for the same subject S (three-dimensional object) under a plurality of types of pattern light. Each of the pattern lights is formed such that a bright part, that is, a bright pattern line having a width, and a dark part, that is, a dark pattern line having a width, are alternately repeated at a constant period. The pattern lights are different from each other with respect to the period, and are each referred to as a pattern light having a pattern number PN. Among the pattern lights, the pattern light having the shortest cycle is the pattern light having the pattern number PN of 0, and the pattern light having the longest cycle is the pattern light having the pattern number PN of (PNmax-1). .

いずれの輝度画像も、対応するパターン光のもとに取得されるため、明部としての明るいパターンラインと、暗部としての暗いパターンラインとが交互に並んで成るパターン画像として形成される。パターンライン間の間隔すなわち周期は、3次元入力装置10と被写体Sとの間における相対的な幾何学的関係(位置および向きに関する関係)に依存するため、各輝度画像内のすべての位置において一定であるとは限らない。複数種類のパターン光のもとにそれぞれ取得される複数枚の輝度画像は、対応するパターン光のパターン番号PNを用いて特定される。   Since any luminance image is acquired under the corresponding pattern light, it is formed as a pattern image in which bright pattern lines as bright portions and dark pattern lines as dark portions are alternately arranged. Since the interval, that is, the period between the pattern lines depends on the relative geometric relationship (relationship between position and orientation) between the three-dimensional input device 10 and the subject S, it is constant at all positions in each luminance image. Not necessarily. A plurality of luminance images respectively acquired under a plurality of types of pattern light are specified using the pattern number PN of the corresponding pattern light.

本実施形態においては、それら複数枚の輝度画像のうちのいずれかが代表パターン画像に選択される。その代表パターン画像の一典型例は、複数種類のパターン光のうちパターンライン周期が最小であるものに対応する輝度画像であり、これは、パターン番号PNが0である輝度画像である。   In the present embodiment, any one of the plurality of luminance images is selected as the representative pattern image. A typical example of the representative pattern image is a luminance image corresponding to one of a plurality of types of pattern light having a minimum pattern line cycle. This is a luminance image having a pattern number PN of 0.

パターン光が投影された被写体Sを撮像した輝度画像においては、輝度値が画素列の方向において空間的にかつ周期的に変化する。その周期的変化を表すグラフにそれの複数個の下ピーク点(最低輝度点)において接する包絡線が存在する。この包絡線は、同じ被写体Sを無照射状態で撮像した輝度画像における輝度値、すなわち、被写体Sの背景光の輝度値の空間的変化を表している。このような包絡線が存在する輝度画像については、各画素の輝度値を閾値処理によって正確に2値化するためには、閾値を画素位置に応じて変化させることが望ましい。すなわち、輝度画像の実際の輝度値変化をトラッキングすることによって閾値を適応的に変化させることが望ましいのである。   In the luminance image obtained by imaging the subject S on which the pattern light is projected, the luminance value changes spatially and periodically in the direction of the pixel column. In the graph representing the periodic change, there is an envelope that touches at a plurality of lower peak points (lowest luminance points). This envelope represents a spatial change in the luminance value in the luminance image obtained by imaging the same subject S in the non-irradiated state, that is, the luminance value of the background light of the subject S. For a luminance image in which such an envelope exists, in order to binarize the luminance value of each pixel accurately by threshold processing, it is desirable to change the threshold according to the pixel position. That is, it is desirable to adaptively change the threshold value by tracking the actual luminance value change of the luminance image.

このような知見に基づき、本実施形態においては、輝度画像に対してフィルタ処理を行うことによって閾値を算出するフィルタ窓がローカルに設定され、フィルタ処理されることによりその位置に適した閾値が、輝度画像に対してローカルに設定される。輝度画像のうちのあるローカル位置に窓が設定されれば、輝度画像を構成する複数本のパターンラインのうちその窓内に存在する画素の輝度値が取り出されて参照されることにより、そのあるローカル位置に対応する閾値が設定される。   Based on such knowledge, in this embodiment, a filter window for calculating a threshold value by performing filter processing on the luminance image is set locally, and the threshold value suitable for the position by the filter processing is Set locally for the luminance image. If a window is set at a certain local position in the luminance image, the luminance value of the pixel existing in the window is extracted and referred to from among the plurality of pattern lines constituting the luminance image, and the window is set. A threshold value corresponding to the local position is set.

本実施形態において使用される窓は、方形窓である。この方形窓を採用する場合には、その方形窓内に存在する複数本のパターンラインを構成する画素の輝度値が取り出され、それら輝度値に対して同一の重み係数が用いられて閾値が算出される。その重み係数により、方形窓の窓関数が定義される。   The window used in this embodiment is a rectangular window. When this rectangular window is adopted, the luminance values of the pixels constituting the plurality of pattern lines existing in the rectangular window are extracted, and the threshold value is calculated by using the same weighting coefficient for the luminance values. Is done. The window function of the rectangular window is defined by the weight coefficient.

さらに、方形窓を採用する場合には、その方形窓の、パターンラインが延びるライン方向におけるライン方向サイズに応じて、その方形窓内においてライン方向に存在する画素の数を可変とすることができる。一方、その方形窓の、複数本のパターンラインが列を成して並ぶ列方向における列方向サイズに応じて、その方形窓内において列方向に存在するパターンラインの数も画素の数も可変とすることができる。   Further, when a rectangular window is adopted, the number of pixels existing in the line direction in the rectangular window can be made variable according to the line direction size in the line direction in which the pattern line extends. . On the other hand, the number of pattern lines and the number of pixels existing in the column direction in the rectangular window are variable according to the column direction size in the column direction in which a plurality of pattern lines are arranged in a row. can do.

したがって、方形窓を採用する場合には、その方形窓の列方向サイズにより、輝度画像に窓を設定することによってその輝度画像から算出される閾値が変化することになる。よって、その閾値を適応的に変化させることが必要である場合には、方形窓の列方向サイズを適応的に変化させればよい。   Therefore, when a rectangular window is adopted, the threshold value calculated from the luminance image changes by setting the window in the luminance image depending on the column direction size of the rectangular window. Therefore, when it is necessary to adaptively change the threshold value, the column direction size of the rectangular window may be adaptively changed.

本実施形態においては、方形窓として構成される窓のサイズが、その窓内に存在するパターンラインの数がそれらパターンラインの間隔すなわち周期(例えば、明るいパターンラインが繰り返される周期)の整数倍であるように設定することが望ましい。すなわち、窓内に、明るいパターンラインと暗いパターンラインとが同数ずつ存在するように窓のサイズを設定することが望ましいのである。このように設定すれば、窓内に存在する複数本のパターンラインの輝度値の平均値を算出することにより、望ましい閾値を高精度取得することができる。   In the present embodiment, the size of the window configured as a rectangular window is such that the number of pattern lines existing in the window is an integral multiple of the interval between the pattern lines, that is, the period (for example, the period in which bright pattern lines are repeated) It is desirable to set so that there is. That is, it is desirable to set the size of the window so that the same number of bright pattern lines and dark pattern lines exist in the window. With this setting, it is possible to obtain a desired threshold with high accuracy by calculating the average value of the luminance values of a plurality of pattern lines existing in the window.

しかしながら、同じ輝度画像上であっても、パターンラインの周期は場所によって異なる可能性がある。そのため、窓のサイズを固定した場合には、窓内に存在するパターンラインの数が場所によって変動してしまい、閾値の設定精度が低下してしまう。   However, even on the same luminance image, the pattern line period may vary depending on the location. Therefore, when the size of the window is fixed, the number of pattern lines existing in the window varies depending on the location, and the threshold setting accuracy is lowered.

本実施形態においては、複数枚の輝度画像のうち、パターンラインの周期が最小であるパターン光のもとに撮像されたもの、すなわち、パターン番号PNが0である輝度画像が代表パターン画像として選択される。さらに、本実施形態においては、その代表パターン画像に対してローカルに設定される窓VWが、それのサイズが可変である可変窓として構成されている。それにより、その可変窓VWのサイズが、代表パターン画像の実際のパターンライン周期に適応して変化させられる。   In the present embodiment, among a plurality of luminance images, an image captured under the pattern light having the minimum pattern line period, that is, a luminance image having a pattern number PN of 0 is selected as the representative pattern image. Is done. Furthermore, in this embodiment, the window VW set locally with respect to the representative pattern image is configured as a variable window whose size is variable. Thereby, the size of the variable window VW is changed in conformity with the actual pattern line period of the representative pattern image.

したがって、本実施形態によれば、代表パターン画像におけるパターンライン周期が列方向位置に応じて変動しても、それに追従するように可変窓VWのサイズが変更され、その結果、パターンライン周期の変動にもかかわらず、可変窓VW内に存在する明部と暗部のパターンラインの数が一定に維持される。本実施形態においては、代表パターン画像に対して可変窓VWが設定される各ローカル位置ごとに閾値THが取得される。各ローカル位置ごとの閾値THは、各ローカル位置に最適なサイズを有する可変窓VWのもとに精度よく取得されることになる。   Therefore, according to the present embodiment, even if the pattern line period in the representative pattern image varies according to the position in the column direction, the size of the variable window VW is changed so as to follow it, and as a result, the pattern line period varies. Nevertheless, the number of bright and dark pattern lines existing in the variable window VW is kept constant. In the present embodiment, the threshold value TH is acquired for each local position where the variable window VW is set for the representative pattern image. The threshold value TH for each local position is accurately obtained based on the variable window VW having the optimum size for each local position.

また、明部と暗部のパターンラインの数が一定に維持されるような可変窓VWのサイズは、パターン番号PNが0である輝度画像において最小となる。したがって、パターン番号PNが0である輝度画像を代表パターン画像として選択することにより、最小の可変窓VWのサイズが可能になり、可変窓VWを用いた後のフィルタ処理の計算負荷を抑えることが可能になる。   In addition, the size of the variable window VW that keeps the number of bright and dark pattern lines constant is minimum in a luminance image having a pattern number PN of zero. Therefore, by selecting a luminance image whose pattern number PN is 0 as a representative pattern image, the size of the minimum variable window VW can be made, and the calculation load of filter processing after using the variable window VW can be suppressed. It becomes possible.

本実施形態においては、その可変窓VWが、サイズが可変である方形窓として構成されている。その可変窓VWのサイズは、代表パターン画像の列方向には可変であるが、ライン方向には固定であるように設定されている。   In the present embodiment, the variable window VW is configured as a rectangular window having a variable size. The size of the variable window VW is set so as to be variable in the column direction of the representative pattern image but fixed in the line direction.

本実施形態においては、その可変窓VWのサイズ、すなわち、代表パターン画像の列方向におけるサイズが、その代表パターン画像の実際のパターンライン周期を適応的に反映するように設定される。そのため、可変窓VWのサイズを設定するために、代表パターン画像の実際のパターンライン周期分布が事前に判明していることが必要である。   In the present embodiment, the size of the variable window VW, that is, the size in the column direction of the representative pattern image is set so as to adaptively reflect the actual pattern line period of the representative pattern image. Therefore, in order to set the size of the variable window VW, it is necessary that the actual pattern line period distribution of the representative pattern image is known in advance.

よって、本実施形態においては、可変窓VWのサイズの設定に先立ち、サイズが固定された固定窓が代表パターン画像に対して設定される。その設定された固定窓によって捕捉される複数個の連続画素が複数個の注目画素として選択され、それら選択された注目画素の輝度値に基づき、代表パターン画像の実際のパターンライン周期分布が取得される。   Therefore, in this embodiment, prior to setting the size of the variable window VW, a fixed window with a fixed size is set for the representative pattern image. A plurality of continuous pixels captured by the set fixed window are selected as a plurality of target pixels, and an actual pattern line period distribution of the representative pattern image is acquired based on the luminance values of the selected target pixels. The

本実施形態においては、さらに、代表パターン画像における複数個の注目画素の輝度値に対してFFT(Fast Fourier Transform:高速フーリエ変換)処理が施され、それにより、代表パターン画像の列方向において輝度値変化の周波数成分のそれぞれについて強度(例えば、パワースペクトル)が取得される。ここに、「周波数成分」は、1個の固定窓によって捕捉される複数個の注目画素を列方向に辿った場合に、輝度値の変化が反復される反復回数を意味する。   In the present embodiment, further, FFT (Fast Fourier Transform) processing is performed on the luminance values of a plurality of pixels of interest in the representative pattern image, whereby the luminance value in the column direction of the representative pattern image. Intensity (eg, power spectrum) is acquired for each frequency component of the change. Here, the “frequency component” means the number of repetitions in which the change in luminance value is repeated when a plurality of target pixels captured by one fixed window are traced in the column direction.

本実施形態においては、代表パターン画像において列方向に連続的に並んだ複数個の連続画素のそれぞれが順次注目画素に選定され、その選定された各注目画素ごとにパターンライン周期が、代表パターン画像の輝度値分布に基づいて取得される。   In the present embodiment, each of a plurality of continuous pixels continuously arranged in the column direction in the representative pattern image is sequentially selected as a target pixel, and the pattern line period for each of the selected target pixels is the representative pattern image. Obtained based on the luminance value distribution.

以上、このコード画像生成プログラム114dを原理的に説明したが、以下、図14を参照することにより、時系列的に説明する。   The code image generation program 114d has been described in principle above. Hereinafter, the code image generation program 114d will be described in time series with reference to FIG.

このコード画像生成プログラム114dにおいては、まず、S5001において、パターン番号PNが0であるパターン光が投影された被写体Sが撮像された輝度画像が輝度画像格納部116cから、代表パターン画像として読み込まれる。   In the code image generation program 114d, first, in S5001, a luminance image obtained by imaging the subject S on which pattern light having a pattern number PN of 0 is captured is read as a representative pattern image from the luminance image storage unit 116c.

次に、S5002において、その代表パターン画像につき、前記読み込まれた輝度画像に基づき、前述のFFT変換によるアプローチにより、代表パターン画像において列方向に連続的に並んだ各画素ごとにパターンライン周期が演算される。演算された複数個のパターンライン周期は各画素(各列方向画素位置)に関連付けて周期分布格納部116pに格納される。   Next, in S5002, the pattern line cycle is calculated for each pixel that is continuously arranged in the column direction in the representative pattern image based on the read luminance image for the representative pattern image by the above-described approach by FFT conversion. Is done. The calculated plurality of pattern line periods are stored in the period distribution storage unit 116p in association with each pixel (each column direction pixel position).

続いて、S5003において、演算された複数個のパターンライン周期に基づき、可変窓VWの特性がローカルに設定される。本実施形態においては、可変窓VWのライン方向サイズは、その可変窓VWが設定される代表パターン画像上の位置にかかわらず、変化しないように設定されるのに対し、可変窓VWの列方向サイズは、各列方向画素位置に関連付けて演算されたパターンライン周期の整数倍に相当するように設定される。   Subsequently, in S5003, the characteristics of the variable window VW are set locally based on the plurality of calculated pattern line periods. In the present embodiment, the line direction size of the variable window VW is set so as not to change regardless of the position on the representative pattern image where the variable window VW is set, whereas the column direction of the variable window VW The size is set so as to correspond to an integral multiple of the pattern line period calculated in association with each column direction pixel position.

その後、S5004において、代表パターン画像に対して可変窓VWが、ライン方向と列方向とに沿って平面的に、かつ、各画素に関連付けて設定される。それにより、各画素ごとに、可変窓VW内に存在する複数個の画素の輝度値の平均値がローカルな閾値として演算される。このS5004においては、さらに、演算された閾値が各画素に割り当てられた閾値画像が生成される。生成された閾値画像は閾値画像格納部116qに格納される。   After that, in S5004, a variable window VW is set for the representative pattern image in a plane along the line direction and the column direction and in association with each pixel. Thereby, for each pixel, an average value of luminance values of a plurality of pixels existing in the variable window VW is calculated as a local threshold value. In S5004, a threshold image in which the calculated threshold value is assigned to each pixel is further generated. The generated threshold image is stored in the threshold image storage unit 116q.

続いて、S5005において、パターン番号PNが0に初期化され、その後、S5006において、パターン番号PNの現在値が最大値PNmaxより小さいか否かが判定される。今回は、パターン番号PNの現在値が0であるため、判定がNOとなり、S5007に移行する。   Subsequently, in S5005, the pattern number PN is initialized to 0. Thereafter, in S5006, it is determined whether or not the current value of the pattern number PN is smaller than the maximum value PNmax. Since the current value of the pattern number PN is 0 this time, the determination is no and the process moves to S5007.

このS5007においては、パターン番号PNの現在値と等しいパターン番号PNが割り当てられた輝度画像の輝度値と、前記生成された閾値画像の閾値とが、各画素ごとに互いに比較される。その比較結果は、各画素ごとに2値化画像に反映される。具体的には、輝度画像の輝度値が閾値より大きい場合には、「1」を表すデータが、2値化画像のうち対応する画素位置に関連付けて2値化画像格納部116rに格納され、一方、輝度画像の輝度値が閾値より大きくはない場合には、「0」を表すデータが、2値化画像のうち対応する画素位置に関連付けて2値化画像格納部116rに格納される。   In S5007, the luminance value of the luminance image assigned the pattern number PN equal to the current value of the pattern number PN and the threshold value of the generated threshold image are compared with each other for each pixel. The comparison result is reflected in the binarized image for each pixel. Specifically, when the luminance value of the luminance image is larger than the threshold value, data representing “1” is stored in the binarized image storage unit 116r in association with the corresponding pixel position in the binarized image, On the other hand, when the luminance value of the luminance image is not greater than the threshold value, data representing “0” is stored in the binarized image storage unit 116r in association with the corresponding pixel position in the binarized image.

その後、S5008において、パターン番号PNが1だけインクリメントされる。続いて、S5006に戻り、パターン番号PNの現在値が最大値PNmaxより小さいか否かが判定される。今回も、最大値PNmaxより小さい場合には、判定がNOとなり、S107に移行する。   Thereafter, in S5008, the pattern number PN is incremented by one. Subsequently, returning to S5006, it is determined whether or not the current value of the pattern number PN is smaller than the maximum value PNmax. Again, if it is smaller than the maximum value PNmax, the determination is no and the process moves to S107.

S5006ないしS5008の実行がパターン光の種類の数と同数回繰り返された結果、パターン番号PNの現在値が最大値PNmaxより小さくはない値になると、S5006の判定がYESとなり、S5009に移行する。   As a result of the execution of S5006 to S5008 being repeated the same number of times as the number of types of pattern light, if the current value of the pattern number PN becomes a value not smaller than the maximum value PNmax, the determination in S5006 becomes YES and the process proceeds to S5009.

このS5009においては、各画素ごとに、最大値PNmaxと同数枚の2値化画像から画素値(「1」または「0」)が、パターン番号PNが0である輝度画像に対応する2値化画像から、パターン番号PNが(PNmax−1)である輝度画像に対応する2値化画像に至る順序に従って抽出され、最下位ビットLSMから最上位ビットMSBに至る順序に従って並んだ空間コードが生成される。各画素ごとの空間コードのビット数は、最大値PNmaxと同数である。各画素ごとに空間コードが生成されることにより、今回の被写体Sに対応する空間コード画像が生成される。生成された空間コードは、各画素位置に関連付けて空間コード格納部116dに格納される。例えば、最大値PNmaxが8である場合には、生成される空間コードは0から255までの範囲内の値を有する。   In S5009, for each pixel, the binarization corresponding to the luminance image in which the pixel value (“1” or “0”) from the same number of binarized images as the maximum value PNmax is the pattern number PN is 0. The spatial code is extracted from the image in accordance with the order from the binary image corresponding to the luminance image having the pattern number PN of (PNmax-1), and the spatial code arranged in the order from the least significant bit LSM to the most significant bit MSB is generated. The The number of bits of the spatial code for each pixel is the same as the maximum value PNmax. By generating a spatial code for each pixel, a spatial code image corresponding to the current subject S is generated. The generated spatial code is stored in the spatial code storage unit 116d in association with each pixel position. For example, when the maximum value PNmax is 8, the generated spatial code has a value in the range of 0 to 255.

以上で、このコード画像生成プログラム114dの一回の実行が終了する。   Thus, one execution of the code image generation program 114d is completed.

その後、図13におけるS4003において、コード境界抽出プログラム114eの実行により、コード境界座標検出処理が実施される。前述の空間コード化法によるコード化は、各画素単位で行われるため、実際のパターン光における明暗の境界線と、前記生成されたコード画像における空間コードの境界線(ある空間コードが割り当てられた領域と別の空間コードが割り当てられた領域との間の境界線)との間にサブピクセル精度の誤差が生ずる。そのため、このコード境界座標検出処理は、空間コードの境界座標値をサブピクセル精度で検出することを目的として実施される。   Thereafter, in S4003 in FIG. 13, a code boundary coordinate detection process is performed by executing the code boundary extraction program 114e. Since the coding by the above-described spatial coding method is performed in units of pixels, the bright / dark boundary line in the actual pattern light and the spatial code boundary line in the generated code image (a certain spatial code is assigned) An error in sub-pixel accuracy occurs between the region and the boundary between the region assigned with another spatial code. Therefore, this code boundary coordinate detection process is performed for the purpose of detecting the boundary coordinate value of the spatial code with subpixel accuracy.

例えば、各パターン光のライン方向と交差する離散的な基準線の位置をCCD座標系において255本設定すると、最大値PNmaxが8(空間コードを256有するため、境界は255)である場合には、図13におけるS4003(コード境界抽出プログラム114eの実行)により、最大約6万5千の空間コードの境界座標値が検出される。   For example, when 255 discrete reference line positions intersecting the line direction of each pattern light are set in the CCD coordinate system, the maximum value PNmax is 8 (the boundary is 255 because it has 256 spatial codes). By S4003 (execution of the code boundary extraction program 114e) in FIG. 13, boundary coordinate values of a maximum of about 65,000 spatial codes are detected.

検出されたコード境界座標値はコード境界座標格納部116eに格納される。コード境界座標値は、CCD70の結像面に設定された2次元座標系であるCCD座標系ccdx−ccdyにおいて定義される。   The detected code boundary coordinate value is stored in the code boundary coordinate storage unit 116e. The code boundary coordinate values are defined in a CCD coordinate system ccdx-ccdy, which is a two-dimensional coordinate system set on the imaging plane of the CCD 70.

続いて、S4004において、レンズ収差補正プログラム114fの実行により、レンズ収差補正処理が実施される。このレンズ収差補正処理は、撮像光学系30に入射した光束の実際の結像位置であってその撮像光学系30の収差の影響を受けたものを、その撮像光学系30が理想レンズであったならば結像されるはずである理想結像位置に近づくように補正する処理である。   Subsequently, in S4004, a lens aberration correction process is performed by executing the lens aberration correction program 114f. In this lens aberration correction processing, the actual imaging position of the light beam incident on the imaging optical system 30 that is affected by the aberration of the imaging optical system 30 is the ideal lens. If so, it is a process of correcting the image so as to approach the ideal image formation position where the image should be formed.

このレンズ収差補正処理により、S4003において検出されたコード境界座標値が、撮像光学系30の歪みなどに起因した誤差が除去されるように補正される。そのようにして補正されたコード境界座標は収差補正座標格納部116gに格納される。   By this lens aberration correction processing, the code boundary coordinate value detected in S4003 is corrected so that an error caused by distortion of the imaging optical system 30 or the like is removed. The code boundary coordinates corrected in this way are stored in the aberration correction coordinate storage unit 116g.

それらコード境界座標検出処理およびレンズ収差補正処理はいずれも、本発明を理解するために不可欠な事項ではなく、しかも、本出願人の特願2004−105426号明細書に詳細に開示されているため、それを参照することによって引用することにより、本明細書においては詳細な説明を省略する。   Neither the code boundary coordinate detection process nor the lens aberration correction process is indispensable for understanding the present invention, and is disclosed in detail in the specification of the applicant's Japanese Patent Application No. 2004-105426. The detailed description is omitted in this specification by citing it by referring to it.

その後、S4005において、三角測量演算プログラム114gの実行により、三角測量の原理による実空間変換処理が実施される。この実空間変換処理が実施されれば、三角測量の原理により、前述の、CCD座標系ccdx−ccdy上のコード境界座標値であって収差補正が施されたものが、実空間に設定された3次元座標系である実空間座標系X−Y−Z上の3次元座標値に変換され、その結果、3次元色形状検出結果としての3次元座標値が取得される。その取得された3次元座標値は3次元座標格納部116hに格納される。   Thereafter, in S4005, real space conversion processing based on the principle of triangulation is performed by executing the triangulation calculation program 114g. When this real space conversion processing is performed, the above-described code boundary coordinate values on the CCD coordinate system ccdx-ccdy and subjected to aberration correction are set in the real space according to the principle of triangulation. It is converted into a three-dimensional coordinate value on the real space coordinate system XYZ which is a three-dimensional coordinate system, and as a result, a three-dimensional coordinate value as a three-dimensional color shape detection result is acquired. The acquired three-dimensional coordinate value is stored in the three-dimensional coordinate storage unit 116h.

ここで、図15を参照することにより、三角測量の原理により、CCD座標系ccdx−ccdy上の2次元座標値を実空間座標系X−Y−Z上の3次元座標値に変換する手法を詳細に説明する。   Here, referring to FIG. 15, a method of converting a two-dimensional coordinate value on the CCD coordinate system ccdx-ccdy into a three-dimensional coordinate value on the real space coordinate system XYZ according to the principle of triangulation. This will be described in detail.

本実施形態においては、実空間座標系X−Y−Zが3次元入力装置10に固定され、この実空間座標系X−Y−Z上において、撮像対象である被写体Sが撮像される。図15に示すように、この実空間座標系X−Y−Zは3次元入力装置10に対し、X軸は水平方向に延び、Y軸は垂直方向に延び、Z軸は撮像光学系30の光軸方向に延びるように位置決めされている。図15(a)には、実空間座標系X−Y−ZがX軸方向に観察された状態で示され、図15(b)には、実空間座標系X−Y−ZがY軸方向に観察された状態で示されている。この実空間座標系X−Y−Zは3次元入力装置10に対し、原点が、撮像光学系30の入力瞳位置からZ軸に沿って距離VPZ離れた位置に位置するように設定されている。   In the present embodiment, the real space coordinate system XYZ is fixed to the three-dimensional input device 10, and the subject S that is the imaging target is imaged on the real space coordinate system XYZ. As shown in FIG. 15, the real space coordinate system XYZ extends in the horizontal direction, the Y axis extends in the vertical direction, and the Z axis corresponds to the imaging optical system 30 with respect to the three-dimensional input device 10. It is positioned so as to extend in the optical axis direction. FIG. 15A shows the real space coordinate system XYZ observed in the X-axis direction, and FIG. 15B shows the real space coordinate system XYZ Y-axis. It is shown as observed in the direction. The real space coordinate system XYZ is set with respect to the three-dimensional input device 10 so that the origin is located at a position VPZ away from the input pupil position of the imaging optical system 30 along the Z axis. .

この実空間座標系X−Y−Zにおいては、投影部12から被写体Sへの投影角度が「θp」で表記され、撮像光学系30の光軸と投影部12の光軸との距離が「D」で表記されている。投影角度θpは、各画素ごとに割り当てられた空間コードによって一義的に特定される。   In the real space coordinate system XYZ, the projection angle from the projection unit 12 to the subject S is expressed as “θp”, and the distance between the optical axis of the imaging optical system 30 and the optical axis of the projection unit 12 is “ D ”. The projection angle θp is uniquely specified by a spatial code assigned to each pixel.

この実空間座標系X−Y−Zにおいては、さらに、被写体S上の対象点targetからの反射光がCCD70に入射する光路が逆向きに延長された直線とX−Y平面との交点のY座標値が「Ytarget」、X座標値が「Xtarget」でそれぞれ表記されている。この実空間座標系X−Y−Zにおいては、さらに、撮像光学系30のY方向の視野が、「Yftop」で示す表記される点から「Yfbottom」で表記される点までの領域として定義され、X方向の視野が、「Xfstart」で表記される点から「Xfend」で表記される点までの領域として定義されている。さらに、CCD70のY軸方向における長さ(高さ)が「Hc」で表記され、X軸方向における長さ(幅)が「Wc」で表記されている。   In the real space coordinate system XYZ, further, the intersection Y between the straight line in which the optical path where the reflected light from the target point on the subject S enters the CCD 70 is extended in the opposite direction and the XY plane is used. The coordinate value is expressed as “Ytarget”, and the X coordinate value is expressed as “Xtarget”. In the real space coordinate system XYZ, the field of view of the imaging optical system 30 in the Y direction is further defined as a region from a point represented by “Yftop” to a point represented by “Yfbottom”. , The field of view in the X direction is defined as a region from a point represented by “Xfstart” to a point represented by “Xfend”. Further, the length (height) of the CCD 70 in the Y-axis direction is represented by “Hc”, and the length (width) in the X-axis direction is represented by “Wc”.

このように定義された実空間座標系X−Y−Z上においては、CCD70のCCD座標系上の任意座標値(ccdx,ccdy)に対応する実空間座標系上の3次元座標値(X,Y,Z)は、   On the real space coordinate system XYZ defined in this way, the three-dimensional coordinate values (X, X, Y) on the real space coordinate system corresponding to the arbitrary coordinate values (ccdx, ccdy) on the CCD coordinate system of the CCD 70. Y, Z) is

(a)被写体S上の対象点target(X,Y,Z)(図15において引出し線を付して「(a)」示す。)と、   (A) a target point target (X, Y, Z) on the subject S (indicated by “(a)” with a leader line in FIG. 15);

(b)撮像光学系30の入力瞳位置(図15において引出し線を付して「(b)」示す。)と、   (B) The input pupil position of the imaging optical system 30 (shown as “(b)” with a leader line in FIG. 15);

(c)投影光学系32の出力瞳位置(図15において引出し線を付して「(c)」示す。)と、   (C) The output pupil position of the projection optical system 32 (shown as “(c)” with a leader line in FIG. 15);

(d)撮像光学系30の入力瞳位置と被写体S上の対象点を通る直線とX−Y平面との交点(Xtarget,Ytarget)(図15において引出し線を付して「(d)」示す。)と、   (D) Intersection (Xtarget, Ytarget) between the input pupil position of the imaging optical system 30 and a straight line passing through the target point on the subject S and the XY plane (shown as “(d)” with a leader line in FIG. 15) .)When,

(e)投影光学系32の出力瞳位置と被写体S上の対象点を通る直線とX−Y平面との交点(図15において引出し線を付して「(e)」示す。)と   (E) The intersection of the output pupil position of the projection optical system 32 and the straight line passing through the target point on the subject S and the XY plane (shown as “(e)” with a leader line in FIG. 15).

に関する関係を示す次の5つの式を解くことにより、取得される。 It is obtained by solving the following five expressions showing the relationship regarding

(1)Y=(PPZ−Z)・tanθp−D+cmp(Xtarget) (1) Y = (PPZ−Z) tan θp−D + cmp (Xtarget)

(2)Y=−(Ytarget/VPZ)Z+Ytarget (2) Y = − (Ytarget / VPZ) Z + Ytarget

(3)X=−(Xtarget/VPZ)Z+Xtarget (3) X = − (Xtarget / VPZ) Z + Xtarget

(4)Ytarget=Yftop−(ccdcy/Hc)×(Yftop−Yfbottom) (4) Ytarget = Yftop− (ccdcy / Hc) × (Yftop−Yfbottom)

(5)Xtarget=Xfstart+(ccdcx/Wc)×(Xfend−Xfstart) (5) Xtarget = Xfstart + (ccdcx / Wc) × (Xfend−Xfstart)

ただし、式(1)における「cmp(Xtarget)」は、撮像光学系20と投影部12とのズレを補正する関数であり、ズレが無い理想的な場合には、0とみなすことができる。   However, “cmp (Xtarget)” in the equation (1) is a function for correcting the deviation between the imaging optical system 20 and the projection unit 12, and can be regarded as 0 in an ideal case where there is no deviation.

さらに、この実空間変換処理においては、実画像における任意点の座標値(ccdx,ccdy)が、理想カメラで撮像された画像における座標値(ccdcx,ccdcy)に変換される。この変換は、次の3つの式、すなわち、カメラキャリブレーションのための近似式を用いて行われる。   Further, in this real space conversion process, the coordinate value (ccdx, ccdy) of an arbitrary point in the real image is converted into the coordinate value (ccdcx, ccdcy) in the image captured by the ideal camera. This conversion is performed using the following three expressions, that is, an approximate expression for camera calibration.

(6)ccdcx=(ccdx−Centx)/(1+dist/100)+Centx (6) ccdcx = (ccdx−Centx) / (1 + dist / 100) + Centx

(7)ccdcy=(ccdy−Centy)/(1+dist/100)+Centy (7) ccdcy = (ccdy−Centy) / (1 + dist / 100) + Centy

(8)hfa=arctan[(((ccdx−Centx) +(ccdy−Centy)0.5)×pixellength/focallength] (8) hfa = arctan [(((ccdx−Centx) 2 + (ccdy−Centy) 2 ) 0.5 ) × pixellength / focallength]

ただし、収差量dist(%)は、半画角hfa(deg)の関数fを用いてdist=f(hfa)と記述される。また、撮像光学系30の焦点距離は、「focallength(mm)」で表記され、ccd画素長は、「pixellength(mm)」で表記され、CCD70におけるレンズの中心の座標値は、(Centx,Centy)として定義されている。   However, the aberration amount dist (%) is described as dist = f (hfa) using the function f of the half field angle hfa (deg). Further, the focal length of the imaging optical system 30 is expressed by “focallength (mm)”, the ccd pixel length is expressed by “pixelwell (mm)”, and the coordinate value of the center of the lens in the CCD 70 is (Centx, Centy). ).

この実空間座標系X−Y−Zにおいては、図15に示すように、光束が投影部12から被写体S上の対象点targetに入射する光路が同じ向きに延長された直線とX−Y平面との交点のY座標値が「Yptarget」、X座標値が「Xptarget」でそれぞれ表記されている。さらに、投影部12の出力瞳位置が(0,0,PPZ)として定義されている。さらに、投影部12のY方向の視野が、「Ypftop」で表記される点から「Ypfbottom」で表記される点までの領域として定義され、X方向の視野が、「Xpfstart」で表記される点から「Xpfend」で表記される点までの領域として定義されている。さらに、投影LCD66のY軸方向における長さ(高さ)が「Hp」で表記され、X軸方向における長さ(幅)が「Wp」で表記されている。   In this real space coordinate system XYZ, as shown in FIG. 15, an XY plane and an XY plane in which light paths from which light beams are incident on the target point target on the subject S are extended in the same direction from the projection unit 12. The Y-coordinate value of the intersection with is expressed as “Yptarget” and the X-coordinate value as “Xptarget”. Furthermore, the output pupil position of the projection unit 12 is defined as (0, 0, PPZ). Further, the field of view of the projection unit 12 in the Y direction is defined as a region from the point represented by “Ypftop” to the point represented by “Ypfbottom”, and the field of view in the X direction is represented by “Xpfstart”. To the point represented by “Xpfend”. Further, the length (height) in the Y-axis direction of the projection LCD 66 is represented by “Hp”, and the length (width) in the X-axis direction is represented by “Wp”.

S4005においては、被写体Sの3次元形状を複数個の3次元頂点の集まりとして空間離散的に計測するために、2次元的なコード画像が、各パターン光のライン方向と交差する離散的な複数本の基準線に関して空間離散的に参照される。これにより、そのコード画像の外周境界上の複数個の離散点にそれぞれ対応する複数個の3次元頂点が取得されるのみならず、そのコード画像の内部の複数個の離散点(S4003において検出されたコードの境界座標点)にそれぞれ対応する複数個の3次元頂点が取得される。   In step S4005, in order to spatially discretely measure the three-dimensional shape of the subject S as a collection of a plurality of three-dimensional vertices, the two-dimensional code image intersects with the line direction of each pattern light. Referenced spatially with respect to the baseline of the book. As a result, not only a plurality of three-dimensional vertices respectively corresponding to a plurality of discrete points on the outer boundary of the code image are acquired, but also a plurality of discrete points (detected in S4003) inside the code image. A plurality of three-dimensional vertices respectively corresponding to the boundary coordinate points of the codes are acquired.

図16には、図9におけるS1230が3次元色形状検出結果生成サブルーチンとして概念的にフローチャートで表されている。   FIG. 16 conceptually shows a flowchart of S1230 in FIG. 9 as a three-dimensional color shape detection result generation subroutine.

まず、S6001において、前述の実空間3次元座標系に座標変換された3次元頂点群の各実座標空間座標値に対応するRGB値(R輝度値、G輝度値およびB輝度値)が前述の表面色画像から抽出される。   First, in S6001, the RGB values (R luminance value, G luminance value, and B luminance value) corresponding to each real coordinate space coordinate value of the three-dimensional vertex group coordinate-converted to the above-described real space three-dimensional coordinate system are described above. Extracted from the surface color image.

実空間座標系と、表面色画像を定義する平面座標系との関係は、前述の三角測量計算によって幾何学的に互いに対応付けられている。すなわち、コード画像、すなわち、被写体Sの3次元形状を計測するための2次元画像である形状画像を定義する平面座標系を実空間3次元座標系に計算によってマッピングさせるために用いられる関数が存在する場合に、その関数の逆関数を用いることにより、実空間3次元座標系を、表面色画像を定義する平面座標系に計算によってマッピングさせることが可能なのである。したがって、このS6001においては、2次元的な表面色画像から、各3次元頂点ごとに、それに対応する表面色値すなわちRGB値を抽出することが可能である。   The relationship between the real space coordinate system and the plane coordinate system that defines the surface color image is geometrically associated with each other by the triangulation calculation described above. That is, there is a function used for mapping a code image, that is, a plane coordinate system defining a shape image, which is a two-dimensional image for measuring the three-dimensional shape of the subject S, to a real space three-dimensional coordinate system by calculation. In this case, by using an inverse function of the function, a real space three-dimensional coordinate system can be mapped by calculation to a plane coordinate system that defines a surface color image. Therefore, in S6001, it is possible to extract the surface color value, that is, the RGB value, corresponding to each three-dimensional vertex from the two-dimensional surface color image.

次に、S6002において、各頂点ごとに、対応する実空間座標値とRGB値とが組み合わされて色形状情報が生成される。さらに、その生成された色形状情報が、対応する頂点に直接にまたは間接に関連付けてワーキングエリア120にローカル保存される。   In step S6002, color shape information is generated by combining corresponding real space coordinate values and RGB values for each vertex. Further, the generated color shape information is stored locally in the working area 120 in association with the corresponding vertex directly or indirectly.

続いて、S6003において、被写体Sの表面形状を複数個のポリゴンの一例である三角形に分割することによって近似的に表現するために、その被写体Sについて取得された複数個の頂点のうち、距離的に互いに近接する複数個の頂点が3個ずつ、グループ分けされる。各グループごとに、3個の頂点が互いに連結されることにより、1個のポリゴンが形成される。   Subsequently, in S6003, in order to approximately represent the surface shape of the subject S by dividing it into triangles, which are examples of a plurality of polygons, among the plurality of vertices acquired for the subject S, the distance A plurality of vertices adjacent to each other are grouped in groups of three. For each group, three vertices are connected to each other to form one polygon.

その後、S6004において、各ポリゴンごとに、そのポリゴンを形成するために互いに連結すべき3個の頂点の組合せがポリゴン情報として、各ポリゴンに直接にまたは間接に関連付けてワーキングエリア120にローカル保存される。   Thereafter, in S6004, for each polygon, a combination of three vertices to be connected to form the polygon is locally stored in the working area 120 as polygon information, directly or indirectly associated with each polygon. .

以上で、この3次元色形状検出結果生成サブルーチンの一回の実行が終了し、それに伴い、図9に示す3次元色形状検出処理ルーチンの一回の実行が終了する。   Thus, one execution of the three-dimensional color shape detection result generation subroutine is completed, and accordingly, one execution of the three-dimensional color shape detection processing routine shown in FIG. 9 is ended.

以上の説明から明らかなように、本実施形態においては、投影部12(鏡筒24、投影光学系32、LED62、光源レンズ64、投影LCD66および投影LCDドライバ86)と、コンピュータ110のうち図10におけるS2001ないしS2004およびS2006ないしS2009を実行する部分とが互いに共同して前記(1)項における「投影部」の一例を構成しているのである。   As is apparent from the above description, in the present embodiment, the projection unit 12 (the barrel 24, the projection optical system 32, the LED 62, the light source lens 64, the projection LCD 66, and the projection LCD driver 86) and the computer 110 shown in FIG. The parts executing S2001 to S2004 and S2006 to S2009 in the above together constitute an example of the “projection unit” in the above item (1).

さらに、本実施形態においては、撮像部14(撮像光学系30、CCD70およびCCDインタフェース88)と、コンピュータ110のうち図10におけるS2005およびS2010を実行する部分とが互いに共同して前記(1)項における「撮像部」の一例を構成しているのである。   Further, in the present embodiment, the imaging unit 14 (imaging optical system 30, CCD 70, and CCD interface 88) and the part of the computer 110 that executes S2005 and S2010 in FIG. This constitutes an example of the “imaging unit”.

さらに、本実施形態においては、処理部16(特に、コンピュータ110のうち図6、図7、図9、図10、図13、図14および図16に示す複数のステップのうち撮像部14に関連するステップを除くものを実行する部分)が前記(1)項における「処理部」の一例を構成しているのである。   Furthermore, in the present embodiment, the processing unit 16 (particularly related to the imaging unit 14 among the plurality of steps shown in FIGS. 6, 7, 9, 10, 13, 14, and 16 of the computer 110). The part that executes the steps excluding the step to be performed) constitutes an example of the “processing unit” in the item (1).

さらに、本実施形態においては、コンピュータ110が撮像部14を介して図10におけるS2005を実行することによって行われる撮像処理が前記(1)項における「3次元計測撮像処理」の一例を構成し、コンピュータ110が撮像部14を介して図10におけるS2010を実行することによって行われる撮像処理が同項における「表面色計測撮像処理」の一例を構成しているのである。   Furthermore, in the present embodiment, the imaging process performed by the computer 110 executing S2005 in FIG. 10 via the imaging unit 14 constitutes an example of the “three-dimensional measurement imaging process” in the section (1), The imaging process performed when the computer 110 executes S2010 in FIG. 10 via the imaging unit 14 constitutes an example of the “surface color measurement imaging process” in the same section.

さらに、本実施形態においては、コンピュータ110が図6におけるS106ないしS108(図9におけるS1230に相当する部分を除く。)を実行することによって行われる演算処理が前記(1)項における「3次元計測演算処理」の一例を構成し、コンピュータ110が図9におけるS1230を実行することによって行われる演算処理が同項における「表面色計測演算処理」の一例を構成しているのである。   Further, in the present embodiment, the arithmetic processing performed when the computer 110 executes S106 to S108 in FIG. 6 (except for the part corresponding to S1230 in FIG. 9) is the “three-dimensional measurement” in the item (1). An example of “calculation process” is configured, and the calculation process performed by the computer 110 executing S1230 in FIG. 9 configures an example of “surface color measurement calculation process” in the same section.

以上の説明から明らかなように、本実施形態においては、被写体Sの3次元形状情報と表面色情報とを取得するために3次元入力装置10において実施される方法が前記(12)項に係る「3次元入力方法」の一例を構成しているのである。   As is clear from the above description, in the present embodiment, the method implemented in the three-dimensional input device 10 to acquire the three-dimensional shape information and surface color information of the subject S relates to the item (12). It constitutes an example of a “three-dimensional input method”.

さらに、本実施形態においては、図10におけるS2001ないしS2004およびS2006ないしS2009が互いに共同して前記(12)項における「投影工程」の一例を構成しているのである。   Further, in the present embodiment, S2001 through S2004 and S2006 through S2009 in FIG. 10 together constitute an example of the “projection step” in the above item (12).

さらに、本実施形態においては、図10におけるS2005およびS2010を実行する部分が互いに共同して前記(12)項における「撮像工程」の一例を構成しているのである。   Further, in the present embodiment, the portions that execute S2005 and S2010 in FIG. 10 together constitute one example of the “imaging process” in the above item (12).

さらに、本実施形態においては、図6、図7、図9、図10、図13、図14および図16に示す複数のステップのうち撮像部14に関連するステップを除くものが前記(12)項における「処理工程」の一例を構成しているのである。   Furthermore, in the present embodiment, the step (12) except for the step related to the imaging unit 14 among the plurality of steps shown in FIGS. 6, 7, 9, 10, 13, 14, and 16 is performed. It constitutes an example of the “processing step” in the section.

さらに、本実施形態においては、図10におけるS2005が前記(12)項における「3次元計測撮像処理」の一例を構成し、図10におけるS2010が同項における「表面色計測撮像処理」の一例を構成しているのである。   Furthermore, in the present embodiment, S2005 in FIG. 10 constitutes an example of “three-dimensional measurement imaging process” in the item (12), and S2010 in FIG. 10 represents an example of “surface color measurement imaging process” in the same term. It is composed.

さらに、本実施形態においては、S106ないしS108(図9におけるS1230に相当する部分を除く。)が前記(12)項における「3次元計測演算処理」の一例を構成図9におけるS1230が同項における「表面色計測演算処理」の一例を構成しているのである。   Furthermore, in the present embodiment, S106 to S108 (excluding the portion corresponding to S1230 in FIG. 9) are an example of “three-dimensional measurement calculation processing” in the above item (12). S1230 in FIG. It constitutes an example of “surface color measurement calculation processing”.

なお付言するに、本実施形態においては、撮像素子としてCCDが使用され、選択的な電荷転送によって画素間引きが行われるが、他の素子、例えば、CMOSを使用して同様にして画素間引きを行う態様で本発明を実施することが可能である。   In addition, in this embodiment, a CCD is used as an image sensor and pixel thinning is performed by selective charge transfer. However, pixel thinning is similarly performed using another element, for example, a CMOS. It is possible to carry out the present invention in an embodiment.

以上、本発明の実施の形態の一つを図面に基づいて詳細に説明したが、これは例示であり、前記[発明の開示]の欄に記載の態様を始めとして、当業者の知識に基づいて種々の変形、改良を施した他の形態で本発明を実施することが可能である。   Although one embodiment of the present invention has been described in detail with reference to the drawings, this is an exemplification and is based on the knowledge of those skilled in the art including the aspects described in the section of [Disclosure of the Invention]. The present invention can be implemented in other forms with various modifications and improvements.

本発明の一実施形態に従う3次元入力装置10の外観を示す斜視図である。It is a perspective view which shows the external appearance of the three-dimensional input device 10 according to one Embodiment of this invention. 図1におけるケーシング20の内部の構成を示す平面図である。It is a top view which shows the structure inside the casing 20 in FIG. 図2における投影部12を拡大して示す平面図、および図2における光源レンズ64を拡大して示す正面図である。FIG. 3 is an enlarged plan view showing a projection unit 12 in FIG. 2 and an enlarged front view showing a light source lens 64 in FIG. 2. 図3における複数個のLED62の配列を説明するための側面図、1個のLED62によって個別的に実現される照度分布を示すグラフ、それら複数個のLED62を示す正面図、およびそれら複数個のLED62により総合的に実現される合成照度分布を示グラフである。FIG. 3 is a side view for explaining the arrangement of the plurality of LEDs 62, a graph showing the illuminance distribution individually realized by the one LED 62, a front view showing the plurality of LEDs 62, and the plurality of LEDs 62. It is a graph which shows the synthetic | combination illumination intensity distribution implement | achieved synthetically by. 図1に示す3次元入力装置10の電気的構成を概念的に表すブロック図である。FIG. 2 is a block diagram conceptually showing an electrical configuration of the three-dimensional input device 10 shown in FIG. 1. 図5におけるカメラ制御プログラムにおいて実行されるメイン処理を概念的に表すフローチャートである。6 is a flowchart conceptually showing main processing executed in the camera control program in FIG. 5. 図6におけるS108において実行される立体画像処理を概念的に表すフローチャートである。7 is a flowchart conceptually showing stereoscopic image processing executed in S108 in FIG. 図7の立体画像処理において採用される空間コード化法の原理を説明するための平面図および側面図と、2組のマスクパターンを示す平面図とである。FIG. 8 is a plan view and a side view for explaining the principle of the spatial coding method employed in the stereoscopic image processing of FIG. 7 and a plan view showing two sets of mask patterns. 図7におけるS1007において実行される3次元色形状検出処理を3次元色形状検出処理ルーチンとして概念的に表すフローチャートである。FIG. 8 is a flowchart conceptually showing the three-dimensional color shape detection processing executed in S1007 in FIG. 7 as a three-dimensional color shape detection processing routine. 図7におけるS1210を撮像処理プログラム114bとして概念的に表すフローチャートである。8 is a flowchart conceptually showing S1210 in FIG. 7 as an imaging processing program 114b. 図10におけるS2004において実行される投影処理を投影処理サブルーチンとして概念的に表すフローチャートである。11 is a flowchart conceptually showing a projection process executed in S2004 in FIG. 10 as a projection process subroutine. 図1に示す3次元入力装置10の作動の一例を説明するためのタイミングチャートである。It is a timing chart for demonstrating an example of the action | operation of the three-dimensional input device 10 shown in FIG. 図9におけるS1220を3次元計測処理サブルーチンとして概念的に表すフローチャートである。FIG. 10 is a flowchart conceptually showing S1220 in FIG. 9 as a three-dimensional measurement processing subroutine. 図13におけるS4002において実行されるコード画像生成プログラム114dを概念的に表すフローチャートである。14 is a flowchart conceptually showing a code image generation program 114d executed in S4002 in FIG. 図13におけるS4005の実行によって2次元のCCD座標系と3次元の実空間座標系との間において行われる座標変換と、2次元のLCD座標系と3次元の実空間座標系との間とにおいて座標変換とを説明するための側面図および平面図である。In step S4005 in FIG. 13, coordinate conversion performed between the two-dimensional CCD coordinate system and the three-dimensional real space coordinate system, and between the two-dimensional LCD coordinate system and the three-dimensional real space coordinate system. It is the side view and top view for demonstrating coordinate transformation. 図7におけるS1230を3次元色形状検出結果生成ルーチンとして概念的に表すフローチャートである。FIG. 8 is a flowchart conceptually showing S1230 in FIG. 7 as a three-dimensional color shape detection result generation routine. インターライントランスファー型のCCDセンサのプログレッシブ走査を説明するための平面図である。It is a top view for demonstrating progressive scanning of an interline transfer type CCD sensor. 図17に示すCCDセンサの電荷転送原理を説明するためのタイミングチャートである。It is a timing chart for demonstrating the charge transfer principle of the CCD sensor shown in FIG. 図17に示すCCDセンサを示す断面図および電位分布の時間的推移を説明するためのグラフである。FIG. 18 is a cross-sectional view of the CCD sensor shown in FIG. 17 and a graph for explaining the temporal transition of the potential distribution. 図17に示すCCDセンサの選択的電荷転送原理を説明するためのタイミングチャートならびにそのCCDセンサを示す断面図および電位分布の時間的推移を説明するためのグラフである。FIG. 18 is a timing chart for explaining the principle of selective charge transfer of the CCD sensor shown in FIG.

符号の説明Explanation of symbols

10 3次元入力装置
12 投影部
14 撮像部
16 処理部
70 CCD
110 コンピュータ
DESCRIPTION OF SYMBOLS 10 3D input device 12 Projection part 14 Imaging part 16 Processing part 70 CCD
110 computers

Claims (13)

物体を3次元的に入力する3次元入力装置であって、
複数種類のパターン光を物体に投影する投影部と、
前記物体を撮像する撮像部であって、(a)前記物体の3次元形状を計測するために、前記投影部によって前記複数種類のパターン光が順に前記物体に投影される期間中に各パターン光の投影ごとに前記物体を撮像する3次元計測撮像処理と、(b)前記物体の表面色を計測するために、前記物体を撮像する表面色計測撮像処理とを行うものと
その撮像部による前記3次元計測撮像処理の撮像結果に基づいて前記物体の3次元形状を計測する3次元計測演算処理と、前記撮像部による前記表面色計測撮像処理の撮像結果に基づいて前記物体の表面色を計測する表面色計測演算処理とを行う処理部と
を含み、
前記撮像部は、前記物体の撮像結果から、その物体を表す全体画像を構成する複数個の画素のいずれかを間引いて形成される画素間引き画像と、いずれの画素も間引かずに形成される画素非間引き画像とを選択的に取り出すことが可能であるように構成されており、
前記処理部は、前記撮像部による前記3次元計測撮像処理の撮像結果から取り出された前記画素間引き画像に基づいて前記3次元計測演算処理を行う一方、前記撮像部による前記表面色計測撮像処理の撮像結果から取り出された前記画素非間引き画像に基づいて前記表面色計測演算処理を行う3次元入力装置。
A three-dimensional input device for three-dimensionally inputting an object,
A projection unit that projects multiple types of pattern light onto an object;
An imaging unit that images the object, and (a) each pattern light during a period in which the plurality of types of pattern light is sequentially projected onto the object by the projection unit in order to measure a three-dimensional shape of the object. A three-dimensional measurement imaging process for imaging the object for each projection of the image, and (b) a surface color measurement imaging process for imaging the object in order to measure the surface color of the object, and the imaging unit Three-dimensional measurement calculation processing for measuring the three-dimensional shape of the object based on the imaging result of the three-dimensional measurement imaging processing, and measuring the surface color of the object based on the imaging result of the surface color measurement imaging processing by the imaging unit And a processing unit for performing surface color measurement calculation processing.
The imaging unit is formed by thinning out a pixel thinned image formed by thinning out any of a plurality of pixels constituting an entire image representing the object from the imaging result of the object, and without thinning out any of the pixels. It is configured to be able to selectively extract a pixel non-decimated image,
The processing unit performs the three-dimensional measurement calculation process based on the pixel thinned image extracted from the imaging result of the three-dimensional measurement imaging process by the imaging unit, while the surface color measurement imaging process by the imaging unit. A three-dimensional input device that performs the surface color measurement calculation processing based on the pixel non-thinned image extracted from the imaging result.
前記撮像部は、前記物体の撮像後、その撮像結果から前記画素間引き画像を、前記画素非間引き画像を取り出すのに必要な時間より短い時間で取り出す請求項1に記載の3次元入力装置。   The three-dimensional input device according to claim 1, wherein after the imaging of the object, the imaging unit extracts the pixel-thinned image from the imaging result in a time shorter than a time required to extract the pixel non-thinned image. 前記撮像部による一回の3次元計測撮像処理と、前記撮像部による一回の表面色計測撮像処理とが、前記物体に対する一回の全体撮像処理を構成し、
前記撮像部は、一回の3次元計測撮像処理において、前記複数種類のパターン光の数に応じた複数回、個別撮像処理を順次行う一方、一回の表面色計測撮像処理において、少なくとも一回、個別撮像処理を行う請求項1または2に記載の3次元入力装置。
One time three-dimensional measurement imaging process by the imaging unit and one surface color measurement imaging process by the imaging unit constitute one whole imaging process for the object,
The imaging unit sequentially performs individual imaging processing a plurality of times according to the number of the plurality of types of pattern light in one three-dimensional measurement imaging processing, while at least once in one surface color measurement imaging processing. The three-dimensional input device according to claim 1, wherein the individual imaging process is performed.
前記撮像部は、前記3次元計測撮像処理を先に、前記表面色計測撮像処理を後に行う請求項3に記載の3次元入力装置。   The three-dimensional input device according to claim 3, wherein the imaging unit performs the surface color measurement imaging process after the three-dimensional measurement imaging process. 前記撮像部は、前記3次元計測撮像処理に続いて、他の処理を行うことなく連続して、前記表面色計測撮像処理を行う請求項4に記載の3次元入力装置。   The three-dimensional input device according to claim 4, wherein the imaging unit performs the surface color measurement imaging process continuously without performing other processes following the three-dimensional measurement imaging process. 前記撮像部は、前記3次元計測撮像処理における複数回の個別撮像処理と、前記表面色計測撮像処理における少なくとも1回の個別撮像処理とを、それらの順に、同一周期で行う請求項5に記載の3次元入力装置。   6. The imaging unit according to claim 5, wherein the imaging unit performs a plurality of individual imaging processes in the three-dimensional measurement imaging process and at least one individual imaging process in the surface color measurement imaging process in that order in the same cycle. 3D input device. 前記撮像部は、前記3次元計測撮像処理における複数回の個別撮像処理と、前記表面色計測撮像処理における少なくとも1回の個別撮像処理とを、それらの順に、ビデオレートで行う請求項6に記載の3次元入力装置。   The imaging unit performs a plurality of individual imaging processes in the three-dimensional measurement imaging process and at least one individual imaging process in the surface color measurement imaging process in that order at a video rate. 3D input device. 前記撮像部は、前記各パターン光が投影された前記物体を撮像して前記画素間引き画像を取り出すことにより前記3次元計測撮像処理を行う高速撮像モードと、前記各パターン光が投影された前記物体を撮像して前記画素非間引き画像を取り出すことにより前記3次元計測撮像処理を行う低速撮像モードとを選択的に実行する請求項1ないし7のいずれかに記載の3次元入力装置。   The imaging unit captures the object on which the pattern light is projected and takes out the pixel-thinned image to perform the three-dimensional measurement imaging process, and the object on which the pattern light is projected The three-dimensional input device according to claim 1, which selectively executes a low-speed imaging mode in which the three-dimensional measurement imaging processing is performed by taking out the image and taking out the pixel non-decimated image. 前記撮像部は、前記複数個の画素がグループ分けされた複数個の画素グループの各々に属する複数個の対象画素の照度検出値が各画素グループごとに加算され、その加算された照度を用いて、各画素グループに属する複数個の対象画素の照度検出値が均等に分散される加算方式により、前記物体の撮像結果から前記画素間引き画像を取り出す請求項1ないし8のいずれかに記載の3次元入力装置。   The imaging unit adds illuminance detection values of a plurality of target pixels belonging to each of a plurality of pixel groups into which the plurality of pixels are grouped, and uses the added illuminance. The three-dimensional image according to any one of claims 1 to 8, wherein the pixel-thinned image is extracted from the imaging result of the object by an addition method in which illuminance detection values of a plurality of target pixels belonging to each pixel group are evenly distributed. Input device. 前記撮像部は、前記複数個の画素がグループ分けされた複数個の画素グループの各々に属する複数個の対象画素から、それら対象画素を代表する代表画素が各画素グループごとに選択され、その選択された代表画素の照度検出値を用いて、各画素グループに属する複数個の対象画素の照度検出値が設定される選択方式により、前記物体の撮像結果から前記画素間引き画像を取り出す請求項1ないし8のいずれかに記載の3次元入力装置。   The imaging unit selects, for each pixel group, a representative pixel representing the target pixel from a plurality of target pixels belonging to each of a plurality of pixel groups in which the plurality of pixels are grouped. The pixel-thinned image is extracted from the imaging result of the object by a selection method in which illuminance detection values of a plurality of target pixels belonging to each pixel group are set using the detected illuminance detection values of the representative pixels. The three-dimensional input device according to any one of 8. 当該3次元入力装置がハンドヘルドタイプである請求項1ないし10のいずれかに記載の3次元入力装置。   The three-dimensional input device according to any one of claims 1 to 10, wherein the three-dimensional input device is a handheld type. 物体を3次元的に入力する3次元入力方法であって、
複数種類のパターン光を物体に投影する投影工程と、
前記物体を撮像する撮像工程であって、(a)前記物体の3次元形状を計測するために、前記投影工程によって前記複数種類のパターン光が順に前記物体に投影される期間中に各パターン光の投影ごとに前記物体を撮像する3次元計測撮像処理と、(b)前記物体の表面色を計測するために、前記物体を撮像する表面色計測撮像処理とを行うものと
その撮像工程による前記3次元計測撮像処理の撮像結果に基づいて前記物体の3次元形状を計測する3次元計測演算処理と、前記撮像工程による前記表面色計測撮像処理の撮像結果に基づいて前記物体の表面色を計測する表面色計測演算処理とを行う処理工程と
を含み、
前記撮像工程は、前記物体の撮像結果から、その物体を表す全体画像を構成する複数個の画素のいずれかを間引いて形成される画素間引き画像と、いずれの画素も間引かずに形成される画素非間引き画像とを選択的に取り出し、
前記処理工程は、前記撮像工程による前記3次元計測撮像処理の撮像結果から取り出された前記画素間引き画像に基づいて前記3次元計測演算処理を行う一方、前記撮像工程による前記表面色計測撮像処理の撮像結果から取り出された前記画素非間引き画像に基づいて前記表面色計測演算処理を行う3次元入力方法。
A three-dimensional input method for inputting an object three-dimensionally,
A projection step of projecting multiple types of pattern light onto an object;
An imaging step of imaging the object, wherein: (a) each pattern light during a period in which the plurality of types of pattern light is sequentially projected onto the object by the projection step in order to measure a three-dimensional shape of the object; Performing a three-dimensional measurement imaging process for imaging the object for each projection of the image, and (b) performing a surface color measurement imaging process for imaging the object in order to measure the surface color of the object. 3D measurement calculation processing for measuring the 3D shape of the object based on the imaging result of the 3D measurement imaging processing, and measuring the surface color of the object based on the imaging result of the surface color measurement imaging processing by the imaging process And a processing step for performing surface color measurement calculation processing.
In the imaging step, a pixel-thinned image formed by thinning out any of a plurality of pixels constituting the entire image representing the object, and any pixels are not thinned out from the imaging result of the object. Select pixel non-decimated image and
The processing step performs the three-dimensional measurement calculation processing based on the pixel thinned image extracted from the imaging result of the three-dimensional measurement imaging processing in the imaging step, while the surface color measurement imaging processing in the imaging step. A three-dimensional input method for performing the surface color measurement calculation processing based on the pixel non-thinned image extracted from the imaging result.
請求項12に記載の3次元入力方法を実施するためにコンピュータによって実行されるプログラム。   A program executed by a computer to implement the three-dimensional input method according to claim 12.
JP2005089076A 2005-03-25 2005-03-25 Three-dimensional input apparatus and method Withdrawn JP2006267031A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2005089076A JP2006267031A (en) 2005-03-25 2005-03-25 Three-dimensional input apparatus and method
PCT/JP2006/305788 WO2006104001A1 (en) 2005-03-25 2006-03-23 Three-dimensional input device and three-dimensional input method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005089076A JP2006267031A (en) 2005-03-25 2005-03-25 Three-dimensional input apparatus and method

Publications (1)

Publication Number Publication Date
JP2006267031A true JP2006267031A (en) 2006-10-05

Family

ID=37203157

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005089076A Withdrawn JP2006267031A (en) 2005-03-25 2005-03-25 Three-dimensional input apparatus and method

Country Status (1)

Country Link
JP (1) JP2006267031A (en)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2246660A1 (en) * 2009-04-30 2010-11-03 Jan Antonis An optical probe
JP2011530071A (en) * 2008-08-06 2011-12-15 クリアフォーム インコーポレイティッド Adaptive 3D scanning system for surface features
WO2015068470A1 (en) * 2013-11-06 2015-05-14 凸版印刷株式会社 3d-shape measurement device, 3d-shape measurement method, and 3d-shape measurement program
JP2015524050A (en) * 2012-05-14 2015-08-20 コーニンクレッカ フィリップス エヌ ヴェ Apparatus and method for profiling the depth of the surface of a target object
CN107710275A (en) * 2016-05-23 2018-02-16 索尼公司 Electronic installation, electronic apparatus control method and program
JP2020128928A (en) * 2019-02-08 2020-08-27 株式会社キーエンス Inspection device
JP2020128929A (en) * 2019-02-08 2020-08-27 株式会社キーエンス Inspection device
JP2020128930A (en) * 2019-02-08 2020-08-27 株式会社キーエンス Inspection device

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011530071A (en) * 2008-08-06 2011-12-15 クリアフォーム インコーポレイティッド Adaptive 3D scanning system for surface features
EP2246660A1 (en) * 2009-04-30 2010-11-03 Jan Antonis An optical probe
JP2015524050A (en) * 2012-05-14 2015-08-20 コーニンクレッカ フィリップス エヌ ヴェ Apparatus and method for profiling the depth of the surface of a target object
US9797708B2 (en) 2012-05-14 2017-10-24 Koninklijke Philips N.V. Apparatus and method for profiling a depth of a surface of a target object
US10347029B2 (en) 2013-11-06 2019-07-09 Toppan Printing Co., Ltd. Apparatus for measuring three dimensional shape, method for measuring three dimensional shape and three dimensional shape measurement program
WO2015068470A1 (en) * 2013-11-06 2015-05-14 凸版印刷株式会社 3d-shape measurement device, 3d-shape measurement method, and 3d-shape measurement program
JPWO2015068470A1 (en) * 2013-11-06 2017-03-09 凸版印刷株式会社 3D shape measuring apparatus, 3D shape measuring method, and 3D shape measuring program
CN107710275A (en) * 2016-05-23 2018-02-16 索尼公司 Electronic installation, electronic apparatus control method and program
JP2020128928A (en) * 2019-02-08 2020-08-27 株式会社キーエンス Inspection device
JP2020128929A (en) * 2019-02-08 2020-08-27 株式会社キーエンス Inspection device
JP2020128930A (en) * 2019-02-08 2020-08-27 株式会社キーエンス Inspection device
JP7176969B2 (en) 2019-02-08 2022-11-22 株式会社キーエンス inspection equipment
JP7266416B2 (en) 2019-02-08 2023-04-28 株式会社キーエンス inspection equipment

Similar Documents

Publication Publication Date Title
US7672505B2 (en) Apparatus, method and program for three-dimensional-shape detection
US7576845B2 (en) Three-dimensional color and shape measuring device
JP2006267031A (en) Three-dimensional input apparatus and method
US8973826B2 (en) Imaging device having light field image sensor
US7845807B2 (en) Projection apparatus and three-dimensional-shape detection apparatus
KR101833576B1 (en) Wide angle field of view active illumination imaging system
JP2007271530A (en) Apparatus and method for detecting three-dimensional shape
JP2005293075A5 (en)
US20070177160A1 (en) Three-dimensional object information acquisition using patterned light projection with optimized image-thresholding
JP4379056B2 (en) Three-dimensional imaging apparatus and method
JP2008002995A (en) Three-dimensional shape measuring device
JP5133626B2 (en) Surface reflection characteristic measuring device
WO2006134793A1 (en) Projector
WO2006112297A1 (en) Three-dimensional profile measuring equipment
JP2007256116A (en) Three-dimensional shape detector
JP2005291839A5 (en)
JP2018204976A (en) Distance measuring apparatus, distance measuring method, and imaging apparatus
JP2021015089A (en) Distance measuring sensor
JP4552485B2 (en) Image input / output device
KR100661861B1 (en) 3D Depth Imaging Apparatus with Flash IR Source
JP2005352835A (en) Image i/o device
JP2006266957A (en) Three-dimensional input apparatus
JP2007212159A (en) Calibration tool used for calibration of three-dimensional shape detector and calibration method therefor
WO2006104001A1 (en) Three-dimensional input device and three-dimensional input method
JP2006277023A (en) Apparatus for acquiring three-dimensional information, method for creating pattern light, method for acquiring three-dimensional information, program, and recording medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20071204

A761 Written withdrawal of application

Free format text: JAPANESE INTERMEDIATE CODE: A761

Effective date: 20090401