JP2005354306A - Image input output apparatus - Google Patents
Image input output apparatus Download PDFInfo
- Publication number
- JP2005354306A JP2005354306A JP2004171659A JP2004171659A JP2005354306A JP 2005354306 A JP2005354306 A JP 2005354306A JP 2004171659 A JP2004171659 A JP 2004171659A JP 2004171659 A JP2004171659 A JP 2004171659A JP 2005354306 A JP2005354306 A JP 2005354306A
- Authority
- JP
- Japan
- Prior art keywords
- image
- projection
- unit
- imaging
- light
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N1/00—Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
- H04N1/00519—Constructional details not otherwise provided for, e.g. housings, covers
- H04N1/00562—Supporting the apparatus as a whole, e.g. stands
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/50—Constructional details
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N1/00—Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
- H04N1/00795—Reading arrangements
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N1/00—Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
- H04N1/00795—Reading arrangements
- H04N1/00827—Arrangements for reading an image from an unusual original, e.g. 3-dimensional objects
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N1/00—Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
- H04N1/04—Scanning arrangements, i.e. arrangements for the displacement of active reading or reproducing elements relative to the original or reproducing medium, or vice versa
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/70—Circuitry for compensating brightness variation in the scene
- H04N23/74—Circuitry for compensating brightness variation in the scene by influencing the scene brightness using illuminating means
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N1/00—Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
- H04N1/04—Scanning arrangements, i.e. arrangements for the displacement of active reading or reproducing elements relative to the original or reproducing medium, or vice versa
- H04N1/19—Scanning arrangements, i.e. arrangements for the displacement of active reading or reproducing elements relative to the original or reproducing medium, or vice versa using multi-element arrays
- H04N1/195—Scanning arrangements, i.e. arrangements for the displacement of active reading or reproducing elements relative to the original or reproducing medium, or vice versa using multi-element arrays the array comprising a two-dimensional array or a combination of two-dimensional arrays
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N2201/00—Indexing scheme relating to scanning, transmission or reproduction of documents or the like, and to details thereof
- H04N2201/04—Scanning arrangements
- H04N2201/0402—Arrangements not specific to a particular one of the scanning methods covered by groups H04N1/04 - H04N1/207
- H04N2201/0436—Scanning a picture-bearing surface lying face up on a support
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Image Input (AREA)
- Studio Devices (AREA)
Abstract
Description
本発明は、投影手段により画像信号光が投影される方向に存在する被写体、及び投影手段により画像信号光が投影される方向と異なる方向に存在する被写体を撮像することができ、投影方向に任意の情報を表示出力させることのできる画像入出力装置に関する。 The present invention can capture a subject existing in a direction in which the image signal light is projected by the projection unit and a subject present in a direction different from the direction in which the image signal light is projected by the projection unit. The present invention relates to an image input / output device that can display and output the above information.
従来より、面上に載置された被写体を撮像し、その撮像データを取得可能な画像入出力装置において、撮像可能な領域を視覚的に表示するために、面上の撮像可能な領域に光を投射する投影手段を備えたものが知られている。そのような画像入出力装置に備えられた投影手段は、光源から出射された光に空間変調を施す液晶パネルを備え、光源から出射された光の透過を画素毎に制御することにより、その撮像領域を示すスポット光を投射することができるよう構成されている。
しかしながら、特許文献1に記載されるような画像入出力装置では、投影手段と撮像手段との相対的な位置関係が固定されており、投影手段により画像信号光が投影される方向に存在する被写体のみ撮像可能に構成されていたため、画像入出力装置の用途が限定されてしまうという問題点があった。
However, in the image input / output device described in
例えば、使用者が撮像手段を自分自身に向け、使用者自身を撮像しようとする場合が考えられるが、その場合は、投影手段を用いて、被写体の撮像方向を含まない方向、例えば、机上に投影手段の投影方向を向けて情報を表示出力させることができない。 For example, the user may point the imaging means toward himself and try to image the user himself. In that case, the projection means may be used, for example, in a direction that does not include the imaging direction of the subject, for example, on a desk Information cannot be displayed and output with the projection direction of the projection means directed.
本発明は、上述した問題点を解決するためになされたものであり、投影手段により画像信号光が投影される方向に存在する被写体、及び投影手段により画像信号光が投影される方向と異なる方向に存在する被写体を撮像することができ、投影方向に任意の情報を表示出力させることのできる画像入出力装置を提供することを目的としている。 The present invention has been made in order to solve the above-described problems. A subject existing in a direction in which image signal light is projected by the projection unit and a direction different from the direction in which image signal light is projected by the projection unit. It is an object of the present invention to provide an image input / output device capable of capturing an image of a subject existing in the camera and displaying and outputting arbitrary information in the projection direction.
この目的を達成するために請求項1記載の画像入出力装置は、光を出射する光源手段と、その光源手段から出射される光に空間変調を施して任意の画像信号光を出力する空間変調手段とを有し、その空間変調手段により出力される画像信号光を投影方向に向けて投影する投影手段と、少なくとも前記投影方向に存在する被写体を撮像し、その撮像データを取得可能な撮像手段とを備えたものであって、前記投影方向とは異なる方向に存在する被写体を前記撮像手段により撮像可能なように、前記撮像手段の撮像方向が前記投影手段の投影方向に対して相対的に変更可能に設けられている。
In order to achieve this object, an image input / output apparatus according to
この請求項1記載の画像入出力装置によれば、撮像手段の撮像方向と投影手段の投影方向とを任意に相対的に変更可能であり、且つ空間変調手段により任意の画像信号光が出力され、その画像信号光が投影手段により投影方向に向けて投影されるので、撮像方向とは異なる方向に任意の情報を投影手段により表示出力可能である。 According to the image input / output apparatus of the first aspect, the imaging direction of the imaging unit and the projection direction of the projection unit can be arbitrarily changed relatively, and arbitrary image signal light is output by the spatial modulation unit. Since the image signal light is projected in the projection direction by the projection means, arbitrary information can be displayed and output by the projection means in a direction different from the imaging direction.
請求項2記載の画像入出力装置は、請求項1記載の画像入出力装置において、前記空間変調手段は液晶パネルで構成され、前記投影手段はその液晶パネルにより出力された画像信号光を所定の投影面に結像させる投影光学系を有し、前記撮像手段は、光を電気信号に変換する受光素子と、入射する光をその受光素子に結像させる撮像光学系とを有するものであって、前記投影手段を保持する投影筺体を有し、前記撮像手段はその投影筺体に対し相対的に移動可能に配設された前記撮像手段を保持する撮像筺体を有する。
The image input / output device according to
この請求項2記載の画像入出力装置によれば、請求項1記載の画像入出力装置と同様に作用する上、投影手段は液晶パネルにより出力された画像信号光を所定の投影面に結像させる投影光学系を有し、撮像手段は入射する光を受光素子に結像させる撮像光学系を有する。一般的に、上記撮像手段に設けられる受光素子は、上記投影手段に設けられる液晶パネルに比較して、小さいものが多い。このような場合、撮像手段が有する撮像光学系は、投影手段が有する投影光学系よりも小さく構成される。さらに、投影手段には、光源手段が備えられている。よって、撮像手段を保持する撮像筺体は、投影手段を保持する投影筺体に比較して小さく構成することが容易であり、その撮像筺体が投影筺体に対し相対的に移動可能に配設されている。
According to the image input / output device described in
請求項3記載の画像入出力装置は、請求項2記載の画像入出力装置において、前記投影手段は、前記光源手段から出射される光を所定の投影方向に投影するための投影方向決定手段を有する。
The image input / output device according to
請求項4記載の画像入出力装置は、請求項1記載の画像入出力装置において、前記投影手段及び前記撮像手段を支持する基体と、その基体に対して前記投影手段及び前記撮像手段の少なくとも一方の位置を移動可能に支持する支持部材とを有する。
The image input / output device according to
請求項5記載の画像入出力装置は、請求項4記載の画像入出力装置において、前記支持部材は、その一端側が前記投影手段及び前記撮像手段の少なくとも一方に連結されるとともに、その他端側に、前記基体にその支持部材を取り付けるための取付部を有し、前記基体及び前記支持部材の少なくとも一方には、前記投影手段及び前記撮像手段の少なくとも一方へ電力を供給するための電源部が設けられている。
The image input / output device according to
請求項6記載の画像入出力装置は、請求項1から5のいずれかに記載の画像入出力装置において、前記投影手段により画像信号光を投影しつつ、前記撮像手段による撮像を実行する投影撮像制御手段を備える。
6. The image input / output device according to
請求項7記載の画像入出力装置は、請求項6記載の画像入出力装置において、前記投影撮像制御手段は、前記投影手段を制御することにより、前記撮像手段により取得された撮像画像に関する関連情報を、前記投影手段により投影するものである。
The image input / output device according to
ここで、撮像手段に関する関連情報とは、例えば、撮像手段の操作方法、操作手順、撮像手段の撮像モードを示す文字列や図形が相当する。 Here, the related information related to the imaging unit corresponds to, for example, a character string or a figure indicating the operation method, operation procedure, and imaging mode of the imaging unit.
請求項8記載の画像入出力装置は、請求項6記載の画像入出力装置において、前記投影撮像制御手段は、前記投影手段を制御することにより、前記撮像手段により撮像された被写体の撮像画像を前記投影手段により投影するものである。
The image input / output device according to
請求項9記載の画像入出力装置は、請求項6から8のいずれかに記載の画像入出力装置において、前記投影手段により投影される画像信号光を更新する投影画像更新手段を有する。 An image input / output device according to a ninth aspect of the present invention is the image input / output device according to any one of the sixth to eighth aspects, further comprising a projected image update means for updating image signal light projected by the projection means.
請求項10記載の画像入出力装置は、請求項1から9のいずれかに記載の画像入出力装置において、所定のパターンを有した画像信号光が前記投影手段により前記被写体上に投影された場合に、前記撮像手段により撮像された撮像画像に基づいて、前記被写体の三次元情報を検出する三次元情報検出手段を備えたものである。
The image input / output device according to
請求項11記載の画像入出力装置は、請求項1から10のいずれかに記載の画像入出力装置において、前記撮像手段と前記投影手段との相対的な位置関係が所定範囲の位置関係にあるかを判定する位置判定手段を有する。
The image input / output device according to
請求項12記載の画像入出力装置は、請求項11記載の画像入出力装置において、前記撮像手段と前記投影手段との相対的な位置関係が前記所定の位置関係にある状態で、前記撮像手段と前記投影手段の位置関係を固定する固定手段を有する。
The image input / output device according to
請求項13記載の画像入出力装置は、請求項10記載の画像入出力装置において、前記撮像手段と前記投影手段との相対的な位置関係を判定する位置判定手段を有し、その位置判定手段により、前記撮像手段と前記投影手段との相対的な位置関係が所定範囲の位置関係にないと判定された場合には、前記三次元情報検出手段による三次元情報の検出を禁止する三次元情報検出禁止手段とを有する。 An image input / output device according to a thirteenth aspect of the present invention is the image input / output device according to the tenth aspect, further comprising a position determination unit that determines a relative positional relationship between the imaging unit and the projection unit. Therefore, when it is determined that the relative positional relationship between the imaging unit and the projecting unit is not within a predetermined range, the three-dimensional information that prohibits the detection of the three-dimensional information by the three-dimensional information detection unit Detection prohibiting means.
請求項14記載の画像入出力装置は、請求項1から13のいずれかに記載の画像入出力装置において、前記撮像手段により取得される撮像画像の解像度を下げて外部に送信する解像度低下送信手段を有する。
The image input / output device according to
この請求項1記載の画像入出力装置によれば、光源手段より出射された光に対して、空間変調手段により空間変調が施されて任意の画像信号光として出力されると、その任意の画像信号光が、投影手段により投影方向に向けて投影される。ここで、撮像手段の撮像方向と投影手段の投影方向とは相対的に変更可能であり、投影手段により任意の画像信号光が投影方向に向けて投影されるので、投影手段により画像信号光が投影される方向に存在する被写体、及び投影手段により画像信号光が投影される方向と異なる方向に存在する被写体を撮像することができ、さらに投影方向に任意の情報を表示出力させることができるという効果がある。
According to the image input / output device of
請求項2記載の画像入出力装置によれば、請求項1記載の画像入出力装置の奏する効果に加えて、撮像筺体は投影筺体に比較して小さく構成することが容易であり、その撮像筺体が投影筺体に対し相対的に移動可能に配設されているので、その撮像筺体に保持された撮像手段と投影筺体に保持された投影手段とを容易に相対的に移動させることができるという効果がある。 According to the image input / output device of the second aspect, in addition to the effect produced by the image input / output device according to the first aspect, the imaging housing can be easily configured smaller than the projection housing, and the imaging housing Is disposed so as to be relatively movable with respect to the projection housing, so that the imaging means held by the imaging housing and the projection means held by the projection housing can be easily moved relatively. There is.
請求項3記載の画像入出力装置によれば、請求項2記載の画像入出力装置の奏する効果に加えて、投影手段は、光源手段から出射される光を所定の投影方向に投光するための投影方向決定手段を有するので、光源手段、空間変調手段及び投影光学系を一直線上に設ける必要がなく、投影筺体の形状に合わせて投影手段をコンパクトに設けることができ、投影筺体を小型化できるという効果がある。 According to the image input / output device of the third aspect, in addition to the effect produced by the image input / output device according to the second aspect, the projection unit projects the light emitted from the light source unit in a predetermined projection direction. Therefore, it is not necessary to provide the light source means, the spatial modulation means, and the projection optical system on a straight line, and the projection means can be provided in a compact manner according to the shape of the projection casing, thereby reducing the size of the projection casing. There is an effect that can be done.
請求項4記載の画像入出力装置によれば、請求項1記載の画像入出力装置の奏する効果に加えて、基体に対し投影手段及び撮像手段の少なくとも一方の位置を移動することができるので、投影手段及び撮像手段が基体に支持された状態であっても、投影手段により画像信号光を投影可能な方向や、撮像手段により撮像可能な方向に融通性を持たせることができるという効果がある。
According to the image input / output device according to
請求項5記載の画像入出力装置によれば、請求項4記載の画像入出力装置の奏する効果に加えて、投影手段及び撮像手段の少なくとも一方へ電力を供給するための電源部は基体及び支持部材の少なくとも一方に設けられているので、投影手段及び撮像手段を軽量化することができ、基体に対し投影手段及び撮像手段の位置を移動する操作が容易になるという効果がある。また、投影手段及び撮像手段が軽量化されているので、投影手段及び撮像手段に電源部を設ける場合に比較して、支持部材の強度がそれほど要求されないという効果もある。 According to the image input / output device of the fifth aspect, in addition to the effect of the image input / output device according to the fourth aspect, the power supply unit for supplying electric power to at least one of the projection unit and the imaging unit is the base and the support. Since it is provided on at least one of the members, the projection unit and the imaging unit can be reduced in weight, and there is an effect that the operation of moving the position of the projection unit and the imaging unit with respect to the base becomes easy. In addition, since the projection unit and the imaging unit are reduced in weight, there is an effect that the strength of the support member is not so required as compared with the case where the power supply unit is provided in the projection unit and the imaging unit.
請求項6記載の画像入出力装置によれば、請求項1から5のいずれかに記載の画像入出力装置の奏する効果に加え、投影手段により画像信号光を投影しつつ、撮像手段による撮像が実行される。ここで、撮像手段により投影方向とは異なる方向に存在する被写体を撮像することができるので、例えば、使用者自身が存在する方向とは異なる方向に画像信号光を投影しつつ、撮像手段により使用者自身を撮像することにより、使用者は、投影手段により投影された画像を視認しながら、自分自身を撮像することができるという効果がある。また、例えば、撮像手段により、投影方向と異なる方向に存在する被写体を撮像する場合には、その被写体上には画像信号光が投影されないので、投影手段により投影された画像を含まずに被写体の撮像を行うことができるという効果がある。 According to the image input / output device of the sixth aspect, in addition to the effect produced by the image input / output device according to any one of the first to fifth aspects, the image signal light is projected by the projecting unit and the image is captured by the image capturing unit. Executed. Here, since the imaging means can capture a subject that exists in a direction different from the projection direction, for example, the image signal light is projected in a direction different from the direction in which the user is present, and used by the imaging means. By imaging the person himself / herself, there is an effect that the user can image himself / herself while visually recognizing the image projected by the projection means. Further, for example, when an image of a subject that exists in a direction different from the projection direction is picked up by the image pickup means, the image signal light is not projected onto the subject, so that the image of the subject is not included without including the image projected by the projection means. There is an effect that imaging can be performed.
請求項7記載の画像入出力装置によれば、請求項6記載の画像入出力装置の奏する効果に加え、撮像手段により取得された撮像画像に関する関連情報が投影手段により投影されるので、使用者は、撮像手段により取得された撮像画像に関する関連情報を視認しつつ、撮像を実行することができるという効果がある。 According to the image input / output device of the seventh aspect, in addition to the effect produced by the image input / output device according to the sixth aspect, the related information regarding the captured image acquired by the imaging unit is projected by the projection unit. Has an effect that imaging can be executed while visually recognizing related information regarding the captured image acquired by the imaging means.
請求項8記載の画像入出力装置によれば、請求項6記載の画像入出力装置の奏する効果に加え、撮像手段により撮像された被写体の撮像画像が投影手段により投影されるので、使用者は、撮像手段により撮像された被写体の撮像画像を視認しつつ、撮像を実行することができるという効果がある。 According to the image input / output device of the eighth aspect, in addition to the effect produced by the image input / output device according to the sixth aspect, the captured image of the subject imaged by the imaging means is projected by the projection means. There is an effect that imaging can be executed while visually recognizing the captured image of the subject imaged by the imaging means.
請求項9記載の画像入出力装置によれば、請求項6から8のいずれかに記載の画像入出力装置の奏する効果に加え、投影手段により投影される画像信号光が更新されるので、使用者は投影手段により投影された画像の更新を視認しつつ、撮像を実行することができるという効果がある。 According to the image input / output device of the ninth aspect, in addition to the effect produced by the image input / output device according to any one of the sixth to eighth aspects, the image signal light projected by the projecting means is updated. There is an effect that the person can execute imaging while visually checking the update of the image projected by the projection unit.
請求項10記載の画像入出力装置によれば、請求項1から9のいずれかに記載の画像入出力装置の奏する効果に加え、所定のパターンを有した画像信号光が投影手段により被写体上に投影された場合に、撮像手段により撮像された撮像画像に基づいて、被写体の三次元情報が検出される画像入出力装置において、撮像手段と投影手段とを互いに相対的に移動させることにより、投影方向とは異なる方向に存在する被写体を撮像することができるよう構成されているので、画像入出力装置において三次元情報を検出するために設けられた投影手段及び撮像手段の用途が拡大するという効果がある。 According to the image input / output device of the tenth aspect, in addition to the effect produced by the image input / output device according to any one of the first to ninth aspects, the image signal light having a predetermined pattern is projected onto the subject by the projection means. In the image input / output device in which the three-dimensional information of the subject is detected based on the captured image captured by the image capturing unit when projected, the image capturing unit and the projecting unit are moved relative to each other to perform projection. Since it is configured so that a subject existing in a direction different from the direction can be imaged, the application of the projection unit and the imaging unit provided for detecting three-dimensional information in the image input / output device is expanded. There is.
請求項11記載の画像入出力装置によれば、請求項10記載の画像入出力装置の奏する効果に加え、位置判定手段により、撮像手段と投影手段との相対的な位置関係が所定範囲の位置関係にないと判定することができるという効果がある。
According to the image input / output device described in
請求項12記載の画像入出力装置によれば、請求項11記載の画像入出力装置の奏する効果に加え、撮像手段と投影手段との相対的な位置関係が所定の位置関係にある状態で、固定手段により、撮像手段と投影手段の位置関係を固定することができるという効果がある。
According to the image input / output device according to
請求項13記載の画像入出力装置によれば、請求項10記載の画像入出力装置の奏する効果に加え、位置判定手段により、撮像手段と投影手段との相対的な位置関係が所定範囲の位置関係にないと判定された場合には、三次元情報検出手段による三次元情報の検出が禁止されるので、精度の高い三次元情報を確実に検出することができるという効果がある。すなわち、三次元情報検出手段は、所定のパターンを有した画像信号光が投影手段により被写体上に投影された場合に、撮像手段により撮像された撮像画像に基づいて、三次元情報を検出する。したがって、撮像手段と投影手段との相対的な位置関係が所定範囲の位置関係になく、投影手段により所定のパターンを有した画像信号光を被写体上に投影することができない、または精度の高い三次元情報が得られない場合には、三次元情報の検出が禁止されるので、精度の悪い三次元情報が検出されるのを抑制することができるのである。
According to the image input / output device described in
請求項14記載の画像入出力装置によれば、請求項1から13のいずれかに記載の画像入出力装置の奏する効果に加え、撮像手段により取得される撮像画像の解像度が下げられて外部に送信されるので、処理速度を向上することができるという効果がある。
According to the image input / output device according to
以下、本発明の好ましい実施例について、添付図面を参照して説明する。図1は、本発明の画像入出力装置1の外観斜視図であって、(a)は上面側から見た図であり、(b)は撮像ヘッド2を拡大して示す図である。
Hereinafter, preferred embodiments of the present invention will be described with reference to the accompanying drawings. FIG. 1 is an external perspective view of an image input /
画像入出力装置1は、デジタルカメラとして機能するデジカメモード、ウェブカメラとして機能するwebcamモード、3次元形状を検出して立体画像を取得するための立体画像モード、湾曲した原稿等を平面化した平面化画像を取得するための平面化画像モード等の種々のモードを備えた装置であるとともに、任意の画像を投影可能な装置である。さらに、画像入出力装置1は、画像が投影される方向に位置する被写体だけではなく、画像が投影される方向と異なる方向に位置する被写体も撮像可能なように構成されている。
The image input /
図1では、特に、立体画像モードや平面化画像モードにおいて、被写体Pの3次元形状を検出するために、後述する画像投影部13から明暗を交互に並べてなる縞状のパターン光(所定のパターンを有した画像信号光)を投影している様子を図示している。
In FIG. 1, in particular, in the stereoscopic image mode and the planarized image mode, in order to detect the three-dimensional shape of the subject P, striped pattern light (predetermined pattern) formed by alternately arranging light and dark from the
画像入出力装置1は、撮像ヘッド2と、その撮像ヘッド2と一端が着脱自在に連結されたアーム部材3とが設けられ、そのアーム部材3の他端には、ラップトップ型のパーソナルコンピュータ49(以下、単に「PC49」と称す)に、撮像ヘッド2及びアーム部材3を取り付け可能な取付部4が備えられている。
The image input /
撮像ヘッド2は、その内部に後述する画像投影部13を内包するとともに、その外部において円筒状の撮像ケース11を軸心回りに回転可能に保持するケースである。撮像ヘッド2の一面には、その中央部に筒状の鏡筒5が配置されている。以下の説明では、鏡筒5が設けられている面を撮像ヘッド2の正面とする。
The
鏡筒5は、撮像ヘッド2の正面から突出し、その内部に画像投影部13の一部である投影光学系20を内包する部材である。この鏡筒5によって、投影光学系20が保持され、全体を焦点調節のため移動可能とされている。また、鏡筒5端面からは、画像投影部13の一部である投影光学系20のレンズの一部が外面に露出しており、この露出部分から投影面に向かって画像信号光が投影される。
The
撮像ケース11には、ホワイトバランスセンサー6と、フラッシュ7とが設けられている。また、ホワイトバランスセンサー6とフラッシュ7との間に、後述する画像撮像部14の一部である撮像光学系21のレンズの一部が外面に露出しており、この撮像光学系21に対向する被写体が撮像される。
The
フラッシュ7は、例えば、デジカメモードにおいて、必要な被写体照度を補足するための光源であり、キセノンガスが充填された放電管で構成されている。また、撮像ヘッド2に内蔵されているコンデンサ(図示せず)からの放電により繰り返し使用することができる。
The
また撮像ヘッド2の背面には、モニタLCD10が配置されている。モニタLCD10は、液晶ディスプレイ(Liquid Crystal Display)で構成されており、後述するプロセッサ15からの画像信号を受けて画像を使用者に表示する。例えば、モニタLCD10には、デジカメモードやwebcamモードにおける撮像画像や、立体画像モードにおける3次元形状検出結果画像、平面化画像モードにおける平面化画像等が表示される。
A
更に、撮像ヘッド2の側面には、撮像ヘッド2とアーム部材3とを着脱自在に連結する連結部材12が配置されている。画像入出力装置1のうち、撮像ヘッド2部分は単なるモバイル型のデジタルカメラとしても使用可能である。
Furthermore, a connecting
連結部材12は、リング状に形成され、撮像ヘッド2の側面に固定されている。また、アーム部材3の一端側には連結部材12に嵌合する部位が形成されている。この嵌合により、撮像ヘッド2とアーム部材3とを連結することができると共に、撮像ヘッド2をPC49に対し任意の角度で固定することができるようになっている。また嵌合を解放することによって、アーム部材3と撮像ヘッド2とを切り離すことができる。
The connecting
アーム部材3は、撮像ヘッド2の向きをPC49に対し変更可能に保持するためのものであり、任意の形状に屈曲可能な蛇腹状のパイプで構成されている。よって撮像ヘッド2を任意の位置に向けることができるので、PC49に取り付けられた状態でも、画像入出力装置1により画像投影可能な方向と撮像可能な方向とを任意に設定することができる。
The
また、アーム部材3は、上述のようにその一端側が連結部材12を介して撮像ヘッド2に連結されるとともに、その他端側には、アーム部材3をPC49に着脱可能に取り付けるための取付部4が設けられている。
Further, as described above, the
取付部4は、その内部に後述するバッテリ26や電子回路基板等が内包されている。さらに、取付部4には、手前側にレリーズボタン8と、そのレリーズボタン8の上方にオン/オフスイッチ9aと、下方にモード切替スイッチ9bと、パソコン用インターフェイス24のコネクタとが設けられている。画像入出力装置1は、このパソコン用インターフェイス24に接続されたケーブル(図示せず)を介して、PC49と接続される。
The mounting
レリーズボタン8は、「半押し状態」と「全押し状態」との2種類の状態に設定可能な2段階の押しボタン式のスイッチで構成されている。レリーズボタン8の状態は後述するプロセッサ15に管理されており、「半押し状態」で周知のオートフォーカス(AF)および自動露出(AE)機能が起動し、ピント、絞り、シャッタスピードが調節され、「全押し状態」で撮像等が行われる。
The
オン/オフスイッチ9aは、これを押圧することにより、画像入出力装置1の主電源のオンとオフとを切り換える。
The on / off
モード切替スイッチ9bは、デジカメモード、webcamモード、立体画像モード、平面化画像モード、オフモード等の種々のモードに設定可能なスイッチである。モード切替スイッチ9bの状態はプロセッサ15に管理されており、モード切替スイッチ9bの状態がプロセッサ15によって検出されることで各モードの処理が実行される。
The
図2は、撮像ヘッド2の内部構成を示す図である。図2(a)に示すように、撮像ヘッド2は、蓋部2aと底部2bとからなる。また、撮像ケース11は、後述する画像撮像部14を内包する円筒状のケースであって、その外周面に、画像撮像部14の一部である撮像光学系21のレンズの一部が露出しているとともに、複数のリブ11aが立設されている。
FIG. 2 is a diagram illustrating an internal configuration of the
図2(b)は、撮像ヘッド2の蓋部2aを取り外し、撮像ヘッド2に内包される画像投影部13を取り外した状態を示す図である。図2(b)に示すように、底部2bには、撮像ヘッド位置検出センサS1と、撮像部位置検出センサS2と、孔2cとが設けられている。
FIG. 2B is a diagram illustrating a state in which the
撮像ヘッド位置検出センサS1は、撮像ヘッド2の傾きを検出するための2軸加速度センサであって、撮像ヘッド2に固定される画像投影部13の投影方向(後述する投影光学系20の光軸方向)が鉛直方向に対し何度傾斜しているかを2軸で検出し、電気信号として出力する。
The imaging head position detection sensor S1 is a biaxial acceleration sensor for detecting the tilt of the
撮像部位置検出センサS2は、撮像ヘッド2に対する画像撮像部14の位置を検出するためのセンサである。
The imaging unit position detection sensor S <b> 2 is a sensor for detecting the position of the
孔2cは撮像ヘッド2の正面を構成する面に形成される略円形の孔であって、ネジ切りが施され、この孔2cに鏡筒5(図1参照)がネジ嵌合される。後述するように、撮像ヘッド2に内包される画像投影部13は、この孔2cに移動自在にネジ嵌合された鏡筒5から画像を投影する。
The
撮像ケース11は、その両端面に撮像ケース11よりも小径の円筒状部材である小径部11bを有し、その小径部11bの一方には、撮像部位置検出用リブ11cが設けられている。
The
小径部11bは、底部2bに設けられた切欠きに、軸心回りに回転可能に支持される。これにより、撮像ケース11は、撮像ヘッド2に対し相対回転可能に保持される。
The small-
撮像部位置検出用リブ11cは、小径部11bの一方に固定されており、撮像ケース11の回転に伴って撮像ケース11の軸心回りに回転する。この撮像部位置検出用リブ11cの近傍には、底部2bに固定された上述の撮像部位置検出センサS2が位置している。その撮像部位置検出センサS2により、この撮像部位置検出用リブ11cの位置を検出することで、撮像ヘッド2に対する画像撮像部14の撮像方向の向きを検出し、投影方向と撮像方向とが所定範囲の位置関係にあるか否かを判定する為の電気信号を出力する。
The imaging portion
図2(c)は、底部2bから撮像ケース11を取り外した状態を示す図であり、図2(d)は、撮像ケース11を示す図である。図2(c)に示すように、底部2bは、所定位置固定用リブ2dと回転止め2eとを備えている。
2C is a diagram illustrating a state where the
所定位置固定用リブ2dは、撮像ケース11の小径部11bと付勢係合することにより、画像投影部13と画像撮像部14との相対的な位置関係が所定の位置関係にある状態で撮像ケース11を所定の位置に固定する。
The predetermined
回転止め2eは、撮像ケース11の外周面に立設された複数のリブ11aと係合するように設けられている。したがって、複数のリブ11aにより撮像ケース11を付勢することによって、撮像ケース11を断続的に回動させ且つ固定させることができる。
The
図2(e)は、撮像ケース11の内部構成を示す図である。図2(e)に示すように、撮像ケース11には、撮像光学系21と、その撮像光学系21を介して入射した光を電気信号に変換するCCD22とが固定されている。この撮像光学系21とCCD22とから構成される画像撮像部14は、その画像撮像部14に対向して存在する被写体を撮像しその撮像データを取得することができる。また、撮像ケース11を撮像ヘッド2に対し軸心回りに回動させることにより、撮像ケース11に固定された画像撮像部14による撮像方向が、撮像ヘッド2に固定された画像投影部13の投影方向に対して相対的に変更される。よって、投影方向とは異なる方向に存在する被写体に画像撮像部14を対向させることができるので、画像投影部13により画像信号光が投影される方向に存在する被写体だけでなく、画像投影部13により画像信号光が投影される方向と異なる方向に存在する被写体をも撮像することができる。
FIG. 2E is a diagram illustrating an internal configuration of the
また、図2(e)に示すように、小径部11bの一方は管状に構成されており、信号ケーブルが挿通される。この信号ケーブルにより、撮像ケース11内の電気的構成部品と撮像ヘッド2内の電気的構成部品とが電気的に接続される。
Moreover, as shown in FIG.2 (e), one side of the
図3は、画像入出力装置1の内部の電気的構成をブロック図として示す図である。撮像ヘッド2には主に画像投影部13と画像撮像部14とが設けられ、取付部4には主にプロセッサ15やバッテリ26が内蔵されている。
FIG. 3 is a block diagram showing an internal electrical configuration of the image input /
また、アーム部材3の内部には信号ケーブルが挿通される。この信号ケーブルは、取付部4の内部まで延出され、取付部4内の電気的構成部品と撮像ヘッド2内の電気的構成部品とを接続する。
A signal cable is inserted into the
画像投影部13は、投影面に任意の投影画像を投影するためのユニットであり、基板16と、複数個のLED17(その総称として以下「LEDアレイ17A」という)と、光源レンズ18と、投影LCD19と、投影光学系20とを、投影方向(投影光学系20の光軸)13aに沿って一直線上に備えている。尚、この画像投影部13については、図4において詳細に説明する。
The
画像撮像部14は、被写体Pを撮像するためのユニットであり、撮像光学系21と、CCD22とを、光の入力方向(撮像光学系21の光軸)14aに沿って備えている。
The
撮像光学系21は、複数枚のレンズで構成され、周知のオートフォーカス機能を有し、自動で焦点距離及び絞りを調整して外部からの光をCCD22上に結像する。
The imaging
CCD22は、CCD(Charge Coupled Device)素子などの光電変換素子をマトリクス状に配列して構成され、撮像光学系21を介して表面に結像される画像の光の色及び強さに応じた信号を生成し、これをデジタルデータに変換してプロセッサ15に出力する。
The
プロセッサ15には、フラッシュ7、レリーズボタン8、オン/オフスイッチ9a、モード切替スイッチ9b、パソコン用インターフェイス24、電源インターフェイス25を介してバッテリ26、外部メモリ27、キャッシュメモリ28、光源ドライバ29を介してLEDアレイ17A、投影LCDドライバ30を介して投影LCD19、CCDインターフェイス31を介してCCD22の各々が電気的に接続され、プロセッサ15によって管理されている。
The
外部メモリ27は、着脱自在なフラッシュROMであり、デジカメモードやwebcamモード、そして立体画像モードにおいて撮像した撮像画像や3次元情報を記憶する。具体的には、SDカード、XDカード(共に登録商標)等を使用することができる。
The
キャッシュメモリ28は、高速な記憶装置である。例えば、デジカメモードにおいて撮像した撮像画像を高速でキャッシュメモリ28に転送し、プロセッサ15で画像処理を行ってから外部メモリ27に格納されるように使われる。具体的には、SDRAM、DDRRAM等を使用することができる。
The
尚、電源インターフェイス25はバッテリ26を、光源ドライバ29はLEDアレイ17Aを、投影LCDドライバ30は投影LCD19を、CCDインターフェイス31はCCD22を各々制御する各種のIC(Integrated Circuit:集積回路)によって構成されている。
The
ここで、図3に示すように、撮像ヘッド2へ駆動電力を供給するためのメインバッテリ26は取付部4に設けられているので、撮像ヘッド2を軽量化することができる。よって、PC49に対し撮像ヘッド2の向きを変更する操作が容易になる。また、撮像ヘッド2が軽量化されているので、撮像ヘッド2にメインバッテリ26を設ける場合に比較して、アーム部材3の強度がそれほど要求されない。
Here, as shown in FIG. 3, the
図4(a)は画像投影部13の拡大図であり、(b)は光源レンズ18の平面図であり、(c)は投影LCD19とCCD22との配置関係を示す図である。
4A is an enlarged view of the
上述した通り、画像投影部13は、投影方向に沿って、基板16と、LEDアレイ17Aと、光源レンズ18と、投影LCD19と、投影光学系20とを備えている。
As described above, the
基板16は、LEDアレイ17Aを実装すると共に、LEDアレイ17Aとの電気的な配線をするためのものである。具体的には、スルーホールを設けたアルミ製基板に絶縁樹脂を塗布してから無電解メッキにて銅パターンを形成したものやガラエポ基材をコアとする単層または多層構造の基板を使用することができる。
The
LEDアレイ17Aは、各々が放射状の光を発光する光源であり、基板16上に、複数個のLED17(発光ダイオード)が千鳥状に配列され、銀ペーストを介して接着および電気的に結線されている。また、ボンディングワイヤを介しても電気的に結線されている。
The LED array 17A is a light source that emits radial light. A plurality of LEDs 17 (light emitting diodes) are arranged in a staggered pattern on the
このように光源として複数個のLED17を使用することで、光源として白熱電球、ハロゲンランプ等を使用する場合に比べて、電気を光に変換する効率(電気光変換効率)を高め、同時に赤外線や紫外線の発生を抑えることができる。よって、省電力で駆動でき、節電化、長寿命化を図ることができる。また、装置の温度上昇を低減させることができる。
By using a plurality of
この様に、LED17はハロゲンランプ等に比べて熱線の発生が極めて低く、且つ光源自身の総発熱量も低いので、後述する光源レンズ18や投影光学系20として、樹脂製のレンズを採用することができる。よって、ガラス製のレンズを採用する場合に比べて、各レンズ18,20を安価で軽量に構成することができる。
As described above, the
また、LEDアレイ17Aを構成する各LED17は、各々同じ発光色を発光するもので、材料にAl、In、Ga、Pの4元素を用いたアンバー色を発光するもので構成されている。よって、複数色の発光色を発光させる場合に生ずる色収差の補正を考慮する必要はなく、色収差を補正するために投影光学系20として色消しレンズを採用する必要はないので、簡単な面構成および安価な材料の投影手段を提供することができるという効果がある。
Each
また、他の発光色に比べて電気光変換率が約80lumen/Wと高い4元素材料のアンバー色LEDを採用することで、一層、高輝度、節電、長寿命化を図ることができる。尚、各LED17を千鳥状に配置する事に関する効果については、図4を参照して説明する。
In addition, by using an amber LED of a four-element material having an electro-optical conversion rate as high as about 80 lumen / W compared to other luminescent colors, it is possible to achieve higher brightness, power saving, and longer life. The effect related to arranging the
具体的には、LEDアレイ17Aは59個のLED17からなり、各LED17は50mW(20mA,2.5V)で駆動され、結局、全59個のLED17は略3Wの消費電力で駆動される。また、各LED17から発光される光が、光源レンズ18、投影LCD19を通過して投影光学系20から照射される場合の光束値としての明るさは、全面照射の場合であっても25ANSIルーメン程度に設定されている。
Specifically, the LED array 17A is composed of 59
この明るさを採用することで、例えば、立体画像モードにおいて、人や動物の顔面等の被写体の3次元形状を検出する場合に、人や動物に眩しさを与えず、人や動物が目をつぶっていない状態の3次元形状を検出することができる。 By adopting this brightness, for example, in the stereoscopic image mode, when detecting the three-dimensional shape of a subject such as the face of a person or animal, the person or animal does not give glare to the person or animal. A three-dimensional shape that is not collapsed can be detected.
光源レンズ18は、LEDアレイ17Aから放射状に発光される光を集光するレンズであり、その材質はアクリルに代表される光学樹脂で構成されている。
The
具体的には、光源レンズ18は、LEDアレイ17Aの各LED17に対向する位置に投影LED19側に向けて凸設された凸状のレンズ部18aと、そのレンズ部18aを支持するベース部18bと、そのベース部18bの内部空間であってLEDアレイ17Aを内包する開口に充填されるLED17の封止および基板16と光源レンズ18との接着を目的としたエポキシまたはシリコン樹脂の封止材18cと、ベース部18bから基板16側に突設され、光源レンズ18と基板16とを接続する位置決めピン18dとを備えている。
Specifically, the
光源レンズ18は、開口の内部にLEDアレイ17Aを内包させつつ、基板16に穿設されている長孔16に位置決めピン18dを差込み、基板16上に固定される。
The
よって、省スペースで光源レンズ18を配置することができる。また、基板16にLEDアレイ17Aを実装するという機能の他に、光源レンズ18を支持するという機能を兼任させることで、光源レンズ18を支持する部品を別途必要とせず、部品の点数を削減することができる。
Therefore, the
また、各レンズ部18aは、LEDアレイ17Aの各LED17と1対1の関係で対向する位置に配置されている。
Each
よって、各LED17から発光される放射状の光は、各LED17に対向する各レンズ部18によって効率良く集光され、図に示すような指向性の高い放射光として投影LED19に照射される。この様に指向性を高めたのは、投影LCD19に略垂直に光を入射することによって、液晶の旋光性に起因する面内の透過率ムラが抑制され得るためである。また同時に、投影光学系20は、テレセントリック特性を持ち、その入射NAが0.1程度であるため、垂直±5°以内の光のみが内部の絞りを通過できるように規制されているためである。従って、LED17からの光を出射角度を垂直に揃え、且つ、±5°にほどんどの光束を入れることが画質向上の要点となる。なぜなら投影LCD19に垂直から外れた光を入射すると、液晶の旋光性により、透過率が入射角度に依存して変わってしまい、透過率ムラとなるからである。
Therefore, the radial light emitted from each
投影LCD19は、光源レンズ18を通過して集光された光に空間変調を施して、投影光学系20に向けて任意の画像信号光を出力する空間変調素子であって、具体的には、縦横の比率の異なる板状の液晶ディスプレイ(Liquid Crystal Display)で構成されている。
The
また、(C)に示すように、この投影LCD19を構成する各画素は、その液晶ディスプレイの長手方向に沿って一直線状に並べられた1の画素列と、その1の画素列とは液晶ディスプレイの長手方向に所定間隔ずれた他の画素列とを交互に並列に並べて配置されている。
As shown in (C), each pixel constituting the
尚、(C)は紙面手前側に撮像ヘッド2の正面を向け、紙面裏側から光が投影LCD19に向けて照射され、紙面手前側からCCD22に被写体像が結像される状態であるとする。
Note that (C) is a state in which the front surface of the
このように、投影LCD19を構成する画素を長手方向に千鳥状に配置することで、長手方向と直交する方向(短手方向)において、投影LCD19によって空間変調が施される光を1/2ピッチで制御することができる。従って、細いピッチで投影パターンを制御でき、分解能を上げて高精度に3次元の形状を検出することができる。
In this way, by arranging the pixels constituting the
特に、後述する立体画像モードにおいて、被写体の3次元形状を検出すべく、被写体に向けて明暗を交互に並べてなる縞状のパターン光を投光する場合に、その縞方向を投影LCD19の短手方向に一致させることで、明暗の境界を1/2ピッチで制御することができるので、同様に高い解像点数で高精度に3次元の形状を検出することができる。
In particular, in the stereoscopic image mode, which will be described later, in the case of projecting striped pattern light in which light and dark are alternately arranged toward the subject in order to detect the three-dimensional shape of the subject, the direction of the stripe is determined by the short side of the
また、撮像ヘッド2の内部において、投影LCD19とCCD22とは、(C)に示すような関係で配置される。具体的には、投影LCD19の幅広面とCCD22の幅広面とは略同一の方向に向いて配置されているので、投影LCD19から投影面に投影されている画像をCCD22に結像させる場合に、投影画像をハーフミラー等で屈曲させることなく、そのままの状態で投影画像を結像させることができる。
In the
また、CCD22は、投影LCD19の長手方向側(画素列が延びる方向側)に配置されている。よって、特に、立体画像モードにおいて、三角測量の原理を利用して被写体の3次元形状を検出する場合には、CCD22と被写体とのなす傾きを1/2ピッチで制御することができるので、同様に高精度に3次元の形状を検出することができる。
The
投影光学系20は、投影LED19を通過した画像信号光を投影面に向けて投影する複数のレンズであり、ガラス及び樹脂の組み合わせからなるテレセントリックレンズで構成されている。テレセントリックとは、投影光学系20を通過する主光線は、入射側の空間では光軸に平行になり、射出瞳の位置は無限になる構成をいう。このようにテレセントリックにすることで、前述のように投影LCD19を垂直±5°で通過する光のみを投影し得るので、画質を向上させることができる。
The projection
図5は、LEDアレイ17Aの配列に関する説明をするための図である。(a)は光源レンズ18を通過した光の照度分布を示す図であり、(b)はLEDアレイ17Aの配列状態を示す平面図であり、(c)は投影LCD19面における合成照度分布を示す図である。
FIG. 5 is a diagram for explaining the arrangement of the LED array 17A. (A) is a figure which shows the illumination intensity distribution of the light which passed the
(a)に示すように、光源レンズ18を通過した光は、半値拡がり半角θ(=略5°)で、(a)左側に図示するような照度分布を有する光として投影LCD19の表面に到達するように設計されている。
As shown in (a), the light that has passed through the
また、(b)に示すように、複数のLED17は基板上16に千鳥状に配列されている。具体的には、複数個のLED17をdピッチで直列に並べたLED列を、√3/2dピッチで並列に並べ、更に、そのLED列を1列おきに同じ方向に1/2d移動させた状態になるように配置されている。
Further, as shown in (b), the plurality of
換言すれば、1のLED17と、その1のLED17の周辺のLCD17との間隔はdになるように設定されている(三角格子配列)。
In other words, the distance between one
そして、このdの長さは、LED17の1つから出射された光によって投影LCD19において形成される照度分布の半値全幅(FWHM(Full Width Half Maximun))以下となる様に決定されている。
The length d is determined to be equal to or less than the full width at half maximum (FWHM (Full Width Half Maximun)) of the illuminance distribution formed in the
よって、光源レンズ18を通過して投影LCD19の表面に到達する光の合成照度分布は、(c)に示すように小さなリップルを含んだ略直線状になり、投影LCD19の面に略均一に光を照射することができる。従って、投影LCD19における照度ムラを抑制することができ、結果的に、高品質な画像を投影することができる。
Accordingly, the combined illuminance distribution of the light passing through the
図6は、画像入出力装置1の電気的なブロック図である。尚、既に上述した構成ついては、その説明を省略する。プロセッサ15は、CPU35と、ROM36と、RAM37とを備えている。
FIG. 6 is an electrical block diagram of the image input /
CPU35は、ROM36に記憶されたプログラムによる処理に応じて、RAM37を利用して、レリーズボタン8の押下げ操作の検知、CCD22から画像データの取り込み、その画像データの転送、格納、モード切替スイッチ9bの状態の検出等の各種処理を行う。
The
ROM36には、カメラ制御プログラム36aと、パターン光撮影プログラム36bと、輝度画像生成プログラム36cと、コード画像生成プログラム36dと、コード境界抽出プログラム36eと、レンズ収差補正プログラム36fと、三角測量演算プログラム36gと、原稿姿勢演算プログラム36hと、平面変換プログラム36iとが格納されている。
The
カメラ制御プログラム36aは、図7に示すメイン処理を含む画像入出力装置1全体の制御に関するプログラムである。
The camera control program 36a is a program related to the control of the entire image input /
パターン光撮影プログラム36bは、被写体Pの3次元形状を検出するために被写体にパターン光を投影した状態と、投影していない状態とを撮像するプログラムである。 The pattern light imaging program 36b is a program for imaging a state in which pattern light is projected onto a subject and a state in which the subject is not projected in order to detect the three-dimensional shape of the subject P.
輝度画像生成プログラム36cは、パターン光撮影プログラム36bによってパターン光を投影した状態を撮像したパターン光有画像と、パターン光を投影していない状態を撮像したパターン光無画像のそれぞれについて、YCbCr空間におけるY値を画像のRGB値から算出するプログラムである。
The luminance
また、パターン光は複数種類のものが時系列に投影され各パターン光毎に撮像され、複数種類の輝度画像が生成される。 Also, a plurality of types of pattern light are projected in time series and imaged for each pattern light, and a plurality of types of luminance images are generated.
コード画像生成プログラム36dは、輝度画像生成プログラム36cによって生成される複数枚の輝度画像について、予め設定した輝度閾値あるいはパターン光無画像の輝度画像を参照して2値化し、その結果より各画素毎に所定のコードを割り当てたコード画像を生成するプログラムである。
The code
コード境界抽出プログラム36eは、コード画像生成プログラム36dによっって生成されるコード画像と、輝度画像生成プログラム36cによって生成される輝度画像とを利用して、コードの境界座標をサブピクセル精度で求めるプログラムである。
The code
レンズ収差補正プログラム36fは、コード境界抽出プログラム36eによってサブピクセル精度で求められているコードの境界座標に対して、撮像光学系20の収差補正を行うプログラムである。
The lens aberration correction program 36f is a program that corrects the aberration of the imaging
三角測量演算プログラム36gは、レンズ収差補正プログラム36fによって収差補正がなされたコードの境界座標から、その境界座標に関する実空間の3次元座標を演算するプログラムである。 The triangulation calculation program 36g is a program for calculating the three-dimensional coordinates of the real space related to the boundary coordinates from the boundary coordinates of the code subjected to the aberration correction by the lens aberration correction program 36f.
原稿姿勢演算プログラム36hは、三角測量演算プログラム36gで演算された3次元座標から例えば書籍などの被写体Pの3次元形状を推定して求めるプログラムである。 The document orientation calculation program 36h is a program that estimates and determines the three-dimensional shape of the subject P such as a book from the three-dimensional coordinates calculated by the triangulation calculation program 36g.
平面変換プログラム36iは、原稿姿勢演算プログラム36hで演算される原稿などの被写体Pの3次元形状に基づき、例えば書籍などの被写体Pを正面から撮像したような平面化画像を生成するプログラムである。 The plane conversion program 36i is a program for generating a flattened image such as an image of the subject P such as a book from the front based on the three-dimensional shape of the subject P such as a document calculated by the document orientation calculation program 36h.
RAM37には、パターン光有画像格納部37aと、パターン光無画像格納部37bと、輝度画像格納部37cと、コード画像格納部37dと、コード境界座標格納部37eと、ID格納部37fと、収差補正座標格納部37gと、3次元座標格納部37hと、原稿姿勢演算結果格納部37iと、平面変換結果格納部37jと、投影画像格納部37kと、ワーキングエリア37lとが記憶領域として割り当てられている。
The
パターン光有画像格納部37aは、パターン光撮影プログラム36bによって被写体Pにパターン光を投影した状態を撮像したパターン光有画像を格納する。パターン光無画像格納部37bは、パターン光撮影プログラム36bによって被写体Pにパターン光を投影していない状態を撮像したパターン光無画像を格納する。 The pattern light present image storage unit 37a stores a pattern light present image obtained by imaging a state in which the pattern light is projected onto the subject P by the pattern light photographing program 36b. The pattern light no-image storage unit 37b stores a pattern light no-image obtained by imaging the state where the pattern light is not projected onto the subject P by the pattern light photographing program 36b.
輝度画像格納部37cは、輝度画像生成プログラム36cによって生成される輝度画像を格納する。コード画像格納部37dは、コード画像生成プログラム36dによって生成されるコード画像を格納する。コード境界座標格納部37eは、コード境界抽出プログラム36eによって、抽出されるサブピクセル精度で求められた各コードの境界座標を格納する。ID格納部37fは、境界を有する画素位置において明暗の変化を有する輝度画像に割り当てられるID等を格納する。収差補正座標格納部37gは、レンズ収差補正プログラム36fによって収差補正がなされたコードの境界座標を格納する。3次元形状座標格納部37hは、三角測量演算プログラム36gによって演算される実空間の3次元座標を格納する。
The luminance image storage unit 37c stores a luminance image generated by the luminance
原稿姿勢演算結果格納部37iは、原稿姿勢演算プログラム36hによって演算される原稿などの被写体Pの3次元形状に関するパラメータを格納する。平面変換結果格納部37jは、平面変換プログラム36iよって生成される平面変換結果を格納する。投影画像格納部37kは、画像投影部13から投影する画像情報を格納する。ワーキングエリア37lは、CPU15での演算のために一時的に使用するデータを格納する。
The document orientation calculation result storage unit 37i stores parameters related to the three-dimensional shape of the subject P such as a document calculated by the document orientation calculation program 36h. The plane conversion result storage unit 37j stores the plane conversion result generated by the plane conversion program 36i. The projection image storage unit 37k stores image information to be projected from the
プロセッサ15には、上述した構成に加え、バスラインを介してアンプ32が接続されており、アンプ32は、そのアンプ32に接続されたスピーカ33を鳴動して、警告音などを出力するためのものである。
In addition to the configuration described above, an
また、PC49は、CPU50と、そのCPU50と内部バスを介して接続されたROM51及びRAM52と、パソコン用インターフェイス24と接続可能なインターフェイス55と、CRTディスプレイ58と、キーボード59とが各々入出力ポート54を介して電気的に接続されている。
The
図7は、メイン処理のフローチャートである。尚、このメイン処理におけるデジカメ処理(S605)、webcam処理(S607)、立体画像処理(S609)、平面化画像処理(S611)の各処理についての詳細は後述する。 FIG. 7 is a flowchart of the main process. Details of the digital camera processing (S605), webcam processing (S607), stereoscopic image processing (S609), and planarized image processing (S611) in the main processing will be described later.
メイン処理では、まず、電源が起動されると(S601)、プロセッサ15やその他のインターフェイス等が初期化される(S602)。
In the main process, first, when the power supply is activated (S601), the
そして、モード切替スイッチ9の状態を判別するキースキャンが行われ(S603)、モード切替スイッチ9の設定がデジカメモードか否かが判断され(S604)、デジカメモードであれば(S604:Yes)、後述するデジカメ処理に移行する(S605)。
Then, a key scan for determining the state of the
一方、デジカメモードでなければ(S604:No)、モード切替スイッチ9の設定がwebcamモードか否かが判断され(S606)、webcamモードであれば(S606:Yes)、後述するwebcam処理に移行する(S607)。
On the other hand, if it is not the digital camera mode (S604: No), it is determined whether or not the setting of the
一方、webcamモードでなければ(S606:No)、モード切替スイッチ9の設定が立体画像モードか否かが判断され(S608)、立体画像モードであれば(S608:Yes)、後述する立体画像処理に移行する(S609)。
On the other hand, if it is not the webcam mode (S606: No), it is determined whether the setting of the
一方、立体画像モードでなければ(S608:No)、モード切替スイッチ9の設定が平面化画像モードか否かが判断され(S610)、平面化画像モードであれば(S610:Yes)、後述する平面化画像処理に移行する(S611)。
On the other hand, if it is not the stereoscopic image mode (S608: No), it is determined whether or not the setting of the
一方、平面化画像モードでなければ(S610:No)、モード切替スイッチ9の設定がオフモードか否かが判断され(S612)、オフモードでなければ(S612:No)、S603からの処理を繰り返し、オフモードであれば(S612:Yes)、当該処理を終了する。
On the other hand, if it is not the planar image mode (S610: No), it is determined whether or not the setting of the
以下に、デジカメ処理、webcam処理、立体画像処理について詳細に説明する。これらの処理では、画像投影部13と画像撮像部14との相対的な位置関係に基づいて、条件判定が行われるため、まず、画像投影部13と画像撮像部14との相対的な位置関係について説明する。
Hereinafter, the digital camera processing, webcam processing, and stereoscopic image processing will be described in detail. In these processes, since the condition determination is performed based on the relative positional relationship between the
図8は画像投影部13と画像撮像部14との位置関係を示す図である。まず、撮像ヘッド位置検出センサS1及び撮像部位置検出センサS2により出力される信号に基づいて、画像投影部13の投影方向(投影光学系20の光軸方向)が鉛直方向に対し0°±30°(略−30°〜略30°)であり、画像撮像部14の撮像方向(撮像光学系21の光軸方向)が、撮像ヘッド2の正面(鏡筒5が設けられた面)に対し0°以外であると検出された場合を、以下Aモードと称する(図8(b)Aに示す状態)。
FIG. 8 is a diagram illustrating a positional relationship between the
また、撮像ヘッド位置検出センサS1及び撮像部位置検出センサS2により出力される信号に基づいて、画像投影部13の投影方向が鉛直方向に対し0°±30°であり、画像撮像部14の撮像方向が、撮像ヘッド2の正面に対し略0°であると検出された場合を、以下Bモードと称する(図8(b)Bに示す状態)。
Further, based on signals output from the imaging head position detection sensor S1 and the imaging unit position detection sensor S2, the projection direction of the
このBモードでは、画像撮像部14により撮像される被写体が存在する方向と、画像投影部13により画像信号光が投影される方向とが互いに垂直に近い大きな角度となるので、被写体上には画像信号光が投影されず、画像投影部13により画像信号光を投影しつつ画像撮像部14による撮像を行っても、投影画像は撮像しないようにすることができる。したがって、画像投影部13と画像撮像部14との位置関係がBモードである場合には、例えば操作方法や操作手順を示す文字列等(撮像手段により取得された撮像画像に関する関連情報)が投影された状態で、使用者がそれらの投影された文字列等を確認しながら、適宜撮像を実行することができる。また例えば、使用者自身が存在する方向とは異なる方向に画像信号光を投影しつつ、画像撮像部14を使用者自身に対向させて撮像することにより、使用者は、画像投影部13により投影された画像を視認しながら、自分自身を撮像することができる。
In this B mode, the direction in which the subject imaged by the
また、撮像ヘッド位置検出センサS1及び撮像部位置検出センサS2により出力される信号に基づいて、画像投影部13の投影方向が鉛直方向に対し0°±30°以外であり、画像撮像部14の撮像方向が撮像ヘッド2の正面に対し略0°以外であると検出された場合を、以下Cモードと称する(図8(b)Cに示す状態)。
Further, based on the signals output by the imaging head position detection sensor S1 and the imaging unit position detection sensor S2, the projection direction of the
また、撮像ヘッド位置検出センサS1及び撮像部位置検出センサS2により出力される信号に基づいて、画像投影部13の投影方向が鉛直方向に対し0°±30°以外であり、画像撮像部14の撮像方向が撮像ヘッド2の正面に対し略0°であると検出された場合を、以下Dモードと称する(図8(b)Dに示す状態)。
Further, based on the signals output by the imaging head position detection sensor S1 and the imaging unit position detection sensor S2, the projection direction of the
このDモードでは、画像撮像部14により撮像される被写体が存在する方向と、画像投影部13により画像信号光が投影される方向とが互いに垂直に近い大きな角度となるので、被写体上には画像信号光が投影されず、画像投影部13により画像信号光を投影しつつ画像撮像部14による撮像を行っても、投影画像は撮像しないようにすることができる。
In this D mode, the direction in which the subject imaged by the
図9は、デジカメ処理(図6のS605)のフローチャートである。デジカメ処理は、画像撮像部14によって撮像した画像を取得する処理である。
FIG. 9 is a flowchart of the digital camera process (S605 in FIG. 6). The digital camera process is a process for acquiring an image captured by the
この処理では、まず、CCD22に高解像度設定信号を送信する(S701)。これにより高品質の撮像画像を使用者に提供することができる。 In this process, first, a high resolution setting signal is transmitted to the CCD 22 (S701). Thereby, a high quality captured image can be provided to the user.
次に、撮像ヘッド位置検出センサS1から出力される信号に基づいて、画像投影部13の位置を取得し、撮像部位置検出センサS2から出力される信号に基づいて、画像撮像部14の位置を取得する(S702b)。
Next, the position of the
続いて、画像投影部13と画像撮像部14との位置関係が上述したAモード(図8参照)か否かを調べ(S702c)、Aモードである場合(S702c:Yes)、画像投影部13により撮像可能な領域に撮像可能範囲を示す画像である矩形画像光を投射する(S702d)。図10は、撮像可能な領域を示す矩形画像光が面上に投射されている状態を示す図である。このように、使用者はレリーズボタン8を押下することにより実際に撮像する前に、矩形画像光により撮像可能な領域を視認することができる。
Subsequently, it is checked whether or not the positional relationship between the
一方、画像投影部13と画像撮像部14との位置関係が上述したAモードではない場合(S702c:No)、Bモード(図8参照)か否かを調べ(S702e)、Bモードである場合(S702e:Yes)、撮像が可能であることを知らせるための文字等の画像を、画像投影部13により投影する(S702f)。
On the other hand, when the positional relationship between the
一方、画像投影部13と画像撮像部14との位置関係が上述したBモードではない場合(S702e:No)、撮像可能である旨をスピーカ33(図6参照)を鳴動して報知する(S702g)。すなわち、画像投影部13による画像信号光の投影方向が鉛直方向に対し0°±30°以外(CモードまたはDモード)である場合は、画像投影部13の投影方向に投影可能な面が存在していない可能性が高いので、画像投影部13と画像撮像部14との位置関係が上述したAモード及びBモードのいずれでもない場合は、撮像可能である旨を投影画像によってではなく、音声により報知するのである。なお、音声による報知に替えて、図示しないパイロットランプ等の点灯、点滅により撮像可能である旨を報知するものであっても良い。
On the other hand, when the positional relationship between the
次に、レリーズボタン8をスキャンし(S703a)、レリーズボタン8が半押しされたか否かを判断する(S703b)。半押しされていれば(S703b:Yes)、オートフォーカス(AF)および自動露出(AE)機能を起動し、ピント、絞り、シャッタスピードを調節する(S703c)。尚、半押しされていなければ(S703b:No)、S703aからの処理を繰り返す。
Next, the
次に、再び、レリーズボタン8をスキャンし(S703d)、レリーズボタン8が全押しされたか否かを判断する(S703e)。全押しされていれば(S703e:Yes)、フラッシュモードか否かを判断する(S704)。
Next, the
その結果、フラッシュモードであれば(S704:Yes)、フラッシュ7を投光して(S705)、撮影し(S706)、フラッシュモードでなければ(S704:No)、フラッシュ7を投光することなく撮影する(S706)。尚、S703eの判断において、全押しされていなければ(S703e:No)、S703aからの処理を繰り返す。
As a result, if the flash mode is selected (S704: Yes), the
ここで、S702eの処理においてBモードであると判定され、S702fの処理において、撮像可能を知らせる画像が投影されている場合には、S706の処理では、その画像の投影が継続されつつ、被写体Pの撮像が行われる。すなわち、Bモードでは、撮像方向が撮像ヘッド2の正面に対し略0°であり、画像撮像部14により撮像される方向と画像投影部13により画像信号光が投影される方向とが互いに略垂直に近い大きな角度となるため、画像撮像部14により撮像されるべき被写体上には、画像投影部13による画像信号光の投影がなされない。よって、画像投影部13により画像の投影を行いつつ撮像したとしても、その投影された画像を含まずに被写体Pを撮像することができるのである。
If it is determined in step S702e that the mode is the B mode and an image notifying that imaging is possible is being projected in step S702f, the projection of the image is continued in step S706 while the subject P is being projected. Imaging is performed. That is, in the B mode, the imaging direction is substantially 0 ° with respect to the front of the
次に、撮影した撮像画像をCCD22からキャッシュメモリ28に転送し(S707)、キャッシュメモリ28に記憶された撮像画像をモニタLCD10に表示する(S708)。このように、撮像画像をキャッシュメモリ28に転送することでメインメモリに転送する場合に比較して、撮像画像を高速にモニタLCD10に表示させることができる。そして、その撮像画像を外部メモリ27に格納する(S709)。
Next, the captured image is transferred from the
最後に、モード切替スイッチ9に変化が無いか否かを判断し(S710)、そ変化が無ければ(S710:Yes)、S702bからの処理を繰り返し、変化があれば(S710:No)、当該処理を終了する。
Finally, it is determined whether or not the
図11は、webcam処理(図7のS607)のフローチャートである。webcam処理は、画像撮像部14で撮像した撮像画像(静止画および動画を含む)を外部ネットワークに送信する処理である。尚、本実施例では、撮像画像として動画を外部ネットワークに送信する場合を想定している。
FIG. 11 is a flowchart of the webcam process (S607 in FIG. 7). The webcam process is a process of transmitting a captured image (including a still image and a moving image) captured by the
この処理では、まず、CCD22に低解像度設定信号を送信し(S801)、周知のオートフォーカス(AF)及び自動露出(AE)機能を起動して、ピント、絞り、シャッター速度を調節する(S802a)。 In this process, first, a low resolution setting signal is transmitted to the CCD 22 (S801), and the known autofocus (AF) and automatic exposure (AE) functions are activated to adjust the focus, aperture, and shutter speed (S802a). .
次に、撮像ヘッド位置検出センサS1から出力される信号に基づいて、画像投影部13の位置を取得し、撮像部位置検出センサS2から出力される信号に基づいて、画像撮像部14の位置を取得する(S802b)。
Next, the position of the
続いて、画像投影部13と画像撮像部14との位置関係が上述したAモード(図8参照)か否かを調べ(S802c)、Aモードである場合(S802c:Yes)、デジカメ処理(図9参照)におけるS702dの処理と同様に、画像投影部13により撮像可能範囲を示す画像である矩形画像光を投射する(S802d)。
Subsequently, it is checked whether or not the positional relationship between the
一方、画像投影部13と画像撮像部14との位置関係が上述したAモードではない場合(S802c:No)、Bモード(図8参照)か否かを調べる(S802e)。Bモードである場合(S802e:Yes)、後述する投影処理が行われ(S802f)、続いて画像撮像部14により撮像が行われる。画像投影部13と画像撮像部14との位置関係がBモードである場合、撮像方向が投影方向に対し垂直に近い大きな角度で交わるため、画像撮像部14により撮像されるべき被写体P上には、画像投影部13による画像信号光の投影はなされない。よって、デジカメ処理(図9参照)におけるS702fの処理と同様に、画像投影部13により画像の投影を行いつつ撮像したとしても、その投影された画像を含まずに被写体Pを撮像することができる。
On the other hand, when the positional relationship between the
図12は、webcam処理の投影処理(S802f)において、画像投影部13により画像出力光が投影されている状態を示す図である。図12に示すようにwebcam処理では、例えば、「WEBCAMモードです」などの撮像モードを示す文字列からなるメッセージ画像Mと、撮像画像fとが合成されて投影される。webcam処理の開始時には、未だ撮像画像fが得られていないので、メッセージMのみが投影される。
FIG. 12 is a diagram illustrating a state in which image output light is projected by the
一方、画像投影部13と画像撮像部14との位置関係が上述したBモードではない場合(S802e:No)、撮像可能である旨をスピーカ33(図6参照)を鳴動して報知し(S802g)、撮影を開始する(S803)。すなわち、デジカメ処理(図9参照)と同様の理由により、画像投影部13と画像撮像部14との位置関係がAモードではなくBモードでもない場合は、画像投影部13による画像の投影を行わなわず、音声のみで使用者に対する報知を行う。
On the other hand, when the positional relationship between the
そして、撮影された撮像画像をモニタLCD10に表示する(S804)。次に、例えば「撮像中です」などの文字列からなるメッセージ画像Mと撮像画像fとを合成して、投影画像格納部37kに格納する(S805)。すなわち、S804の処理において、投影画像格納部37kに格納される投影画像が更新されるので、S802fの投影処理において、更新された画像出力光により、撮像画像f及びメッセージ画像Mが投影され、使用者は、画像撮像部14による撮像状態の変化を投影画像により視認することができる。
Then, the captured image is displayed on the monitor LCD 10 (S804). Next, for example, the message image M composed of a character string such as “being imaged” and the captured image f are combined and stored in the projection image storage unit 37k (S805). That is, since the projection image stored in the projection image storage unit 37k is updated in the process of S804, the captured image f and the message image M are projected and used by the updated image output light in the projection process of S802f. The person can visually recognize the change in the imaging state by the
また、撮像画像をCCD22からキャッシュメモリ28に転送し(S807)、キャッシュメモリ28に転送された撮像画像をRFインターフェイスであるRFドライバ24及びアンテナ11を介して外部ネットワークに送信する(S808)。
Further, the captured image is transferred from the
そして、最後に、モード切替スイッチ9に変化が無いかを判断し(S809)、変化が無ければ(S809:Yes)、S802からの処理を繰り返し、変化があれば(S809:No)、当該処理を終了する。 Finally, it is determined whether there is any change in the mode changeover switch 9 (S809). If there is no change (S809: Yes), the processing from S802 is repeated, and if there is a change (S809: No), the processing Exit.
なお、上述のwebcam処理では、図12に示すように、メッセージ画像Mと撮像画像fとが投影されていたが、図13に示すように、撮像画像fのみが画像投影部13により投影されるようにしても良い。
In the webcam process described above, the message image M and the captured image f are projected as shown in FIG. 12, but only the captured image f is projected by the
また、図13に示されるように、画像投影部13と画像撮像部14との相対的な位置関係がBモードである場合には、例えば使用者が自らを撮像しながらその撮像により取得された撮像画像fを随時確認することができる。
As shown in FIG. 13, when the relative positional relationship between the
図14は、投影処理(図11のS802f)のフローチャートである。この処理は、画像投影部13から投影画像格納部37kに格納されている画像を投影面に投影する処理である。この処理では、まず、投影画像格納部37kに画像が格納されているか否かを確認する(S901)。格納されていれば(S901:Yes)、投影画像格納部37kに格納されている画像を投影LCDドライバ30に転送し(S902)、投影LCDドライバ30から、その画像に応じた画像信号を投影LCD19に送り、投影LCD19に画像を表示する(S903)。
FIG. 14 is a flowchart of the projection process (S802f in FIG. 11). This process is a process of projecting the image stored in the projection image storage unit 37k from the
次に、光源ドライバ29を駆動し(S904)、その光源ドライバ29からの電気信号によってLEDアレイ17Aを点灯し(S905)、当該処理を終了する。
Next, the
こうして、LEDアレイ17Aが点灯すると、LEDアレイ17Aから発光する光は、光源レンズ18を介して投影LCD19に到達し、投影LCD19において、投影LCDドライバ30から送信される画像信号に応じた空間変調が施され、画像信号光として出力される。そして、その投影LCD19から出力される画像信号光は、投影光学系20を介して投影面に投影画像として投影される。
Thus, when the LED array 17A is turned on, the light emitted from the LED array 17A reaches the
図15は、立体画像処理(図7のS609)のフローチャートである。立体画像処理は、被写体の3次元形状を検出し、その立体画像としての3次元形状検出結果画像を取得、表示する処理である。 FIG. 15 is a flowchart of the stereoscopic image processing (S609 in FIG. 7). The stereoscopic image processing is processing for detecting a three-dimensional shape of a subject and acquiring and displaying a three-dimensional shape detection result image as the stereoscopic image.
この処理では、まず、CCD22に高解像度設定信号を送信し(S1001)、撮像ヘッド位置検出センサS1から出力される信号に基づいて、画像投影部13の位置を取得し、撮像部位置検出センサS2から出力される信号に基づいて、画像撮像部14の位置を取得する(S1002b)。
In this process, first, a high resolution setting signal is transmitted to the CCD 22 (S1001), the position of the
続いて、画像投影部13と画像撮像部14との位置関係が上述したCモード(図8参照)か否かを調べ(S1002c)、Cモードである場合(S1002c:Yes)、撮像可能である旨をスピーカ33を鳴動して音声により報知する(S1002d)。
Subsequently, it is checked whether or not the positional relationship between the
一方、画像投影部13と画像撮像部14との相対的な位置関係が上述したCモードではない場合(S1002c:No)、Aモード(図8参照)か否かを調べる(1002e)。Aモードである場合(S1002e:Yes)、撮像可能である旨をスピーカ33を鳴動して音声により報知する(S1002d)。なお、Aモードである場合は、この音声による報知に替えて、メッセージを投影したり、撮像可能範囲を示す矩形画像光を投影しても良い。
On the other hand, if the relative positional relationship between the
一方、画像投影部13と画像撮像部14との相対的な位置関係が上述したCモードではなく、Aモードでもない場合(S1002e:No)、AモードまたはCモードの状態にするようスピーカ33を鳴動して音声により警告し(S1002g)、S1002bの処理に戻る。すなわち、使用者が撮像ヘッド2と撮像ケース11を調整することによりAモードまたはCモードとするまで、後述する三次元形状検出処理(S1006)による三次元形状の検出が禁止される。
On the other hand, when the relative positional relationship between the
後に詳細に説明するが、三次元形状検出処理(S1006)では、画像投影部13により所定のパターン光が投影されている状態で画像撮像部14により被写体が撮像され、その撮像により取得された撮像データに基づいて被写体Pの三次元形状が検出される。したがって、画像投影部13と画像撮像部14との相対的な位置関係が予め定められた所定の関係にない場合は、その三次元形状の計測の精度が著しく低下するため、画像投影部13と画像撮像部14とが予め定められた所定の関係にある場合のみ、三次元形状検出処理(S1006)の実行を許可することとしたのである。
As will be described in detail later, in the three-dimensional shape detection process (S1006), a subject is imaged by the
次に、レリーズボタン8をスキャンし(S1003a)、レリーズボタン8が半押しされたか否かを判断する(S1003b)。半押しされていれば(S1003b:Yes)、オートフォーカス(AF)および自動露出(AE)機能を起動し、ピント、絞り、シャッタスピードを調節する(S1003c)。尚、半押しされていなければ(S1003b:No)、S1003aからの処理を繰り返す。
Next, the
次に、再び、レリーズボタン8をスキャンし(S1003d)、レリーズボタン8が全押しされたか否かを判断する(S1003e)。全押しされていれば(S1003e:Yes)、フラッシュモードか否かを判断する(S1003f)。
Next, the
その結果、フラッシュモードであれば(S1003f:Yes)、フラッシュ7を投光して(S1003g)、撮影し(S1003h)、フラッシュモードでなければ(S1003f:No)、フラッシュ7を投光することなく撮影する(S1003h)。尚、S1003eの判断において、全押しされていなければ(S1003e:No)、S1003aからの処理を繰り返す。
As a result, if the flash mode is selected (S1003f: Yes), the
次に、後述する3次元形状検出処理を行い、被写体の3次元形状を検出する(S1006)。 Next, a three-dimensional shape detection process described later is performed to detect the three-dimensional shape of the subject (S1006).
次に、3次元形状検出処理(S1006)における3次元形状検出結果を外部メモリ27に格納し(S1007)、3次元形状検出結果をモニタLCD10に表示する(S1008a)。尚、この3次元形状検出結果とは、各計測頂点の実空間における3次元座標(X,Y,Z)の集合体として表示される。すなわち、3次元形状検出結果としての計測頂点をポリゴンで結んでそのサーフェスを表示した立体画像(3DのCG画像)としての3次元形状検出結果画像がモニタLCD10に表示される。
Next, the three-dimensional shape detection result in the three-dimensional shape detection process (S1006) is stored in the external memory 27 (S1007), and the three-dimensional shape detection result is displayed on the monitor LCD 10 (S1008a). The three-dimensional shape detection result is displayed as an aggregate of three-dimensional coordinates (X, Y, Z) in the real space of each measurement vertex. That is, a three-dimensional shape detection result image is displayed on the
そして、モード切替スイッチ9に変化が無いか否かを判断し(S1011)、変化が無ければ(S1011:Yes)、S702からの処理を繰り返し、変化があれば(S1011:No)、当該処理を終了する。
Then, it is determined whether or not the
図16(a)は、上述した3次元形状検出処理(図15のS1006)において、3次元形状を検出するために利用する空間コード法の原理を説明するための図であり、(b)は(a)とは異なるパターン光を示す図である。パターン光にはこれら(a)または(b)のいずれを用いても良く、更には、多階調コードであるグレイレベルコードを用いても良い。 FIG. 16A is a diagram for explaining the principle of the spatial code method used to detect a three-dimensional shape in the above-described three-dimensional shape detection process (S1006 in FIG. 15). It is a figure which shows the pattern light different from (a). Either (a) or (b) may be used for the pattern light, and further, a gray level code which is a multi-tone code may be used.
尚、この空間コード法につての詳細は、佐藤宏介、他1名、「空間コード化による距離画像入力」、電子通信学会論文誌、85/3Vol.J 68−D No3 p369〜375に詳細に開示されている。 Details of this spatial coding method are described by Kosuke Sato and one other, “Distance Image Input by Spatial Coding”, IEICE Transactions, 85/3 Vol. J 68-D No3 p369-375.
空間コード法は、投影光と観測画像間の三角測量に基づいて被写体の3次元形状を検出する方法の1種であり、(a)に示すように、投影光源Lと観測器Oとを距離Dだけ離して設置し、空間を細長い扇状領域に分割しコード化することを特徴とする。 The spatial code method is one type of method for detecting the three-dimensional shape of a subject based on triangulation between projected light and an observed image. As shown in (a), the distance between the projection light source L and the observation device O is determined. It is characterized in that it is set apart by D, and the space is divided into long and narrow fan-shaped regions and coded.
図中の3枚のマスクパターンA,B,CをMSBから順番に投影すると、各扇状領域はマスクによって明「1」と暗「0」とにコード化される。例えば、点Pを含む領域は、マスクA,Bでは光が当たらず、マスクCでは明になるので、001(A=0、B=0、C=1)とコード化される。 When the three mask patterns A, B, and C in the figure are projected in order from the MSB, each fan-shaped area is coded into bright “1” and dark “0” by the mask. For example, since the area including the point P is not exposed to light in the masks A and B and bright in the mask C, it is encoded as 001 (A = 0, B = 0, C = 1).
各扇状の領域には、その方向φに相当するコードが割り当てられ、それぞれを1本のスリット光線とみなすことができる。そこで各マスクごとに情景を観測機器としてのカメラで撮影し、明暗パターンを2値化してメモリの各ビットプレーンを構成していく。 Each fan-shaped region is assigned a code corresponding to the direction φ, and each can be regarded as one slit beam. Therefore, the scene is photographed for each mask with a camera as an observation device, and the bit plane of the memory is constructed by binarizing the light / dark pattern.
こうして、得られた多重ビットプレーン画像の横方向の位置(アドレス)は、観測方向θに相当し、このアドレスのメモリの内容は投影光コード、即ち、φを与える。このθとφとから注目点の座標を決定する。 Thus, the horizontal position (address) of the obtained multiple bit-plane image corresponds to the observation direction θ, and the contents of the memory at this address give the projected light code, that is, φ. The coordinates of the point of interest are determined from θ and φ.
また、この方法で使用するマスクパターンとしては、(a)ではマスクパターンA,B,Cのような純2進コードを用いる場合を図示しているが、マスクの位置ズレが起こると領域の境界で大きな誤差が生ずる危険性がある。 In addition, as a mask pattern used in this method, a case where a pure binary code such as mask patterns A, B, and C is used is illustrated in FIG. There is a risk that a large error will occur.
例えば、(a)の点Qは領域3(011)と領域4(100)の境界を示しているが、もしマスクAの1がずれ込むと領域7(111)のコードが生ずる可能性がある。換言すれば、隣接する領域間でハミング距離が2以上のところで、大きな誤差が発生する可能性がある。 For example, the point Q in (a) indicates the boundary between the region 3 (011) and the region 4 (100), but if 1 of the mask A is shifted, the code in the region 7 (111) may be generated. In other words, a large error may occur when the Hamming distance is 2 or more between adjacent regions.
そこで、この方法で使用するマスクパターンとしては、(b)に示すように、隣接する領域間でハミング距離が常に1であるコードを使うことで、上述したようなコード化誤差を避けることができるとされている。 Therefore, as the mask pattern used in this method, as shown in (b), by using a code whose hamming distance is always 1 between adjacent regions, the coding error as described above can be avoided. It is said that.
図17(a)は、3次元形状検出処理(図15のS1006)のフローチャートである。この処理では、まず、撮像処理を行う(S1210)。この撮像処理は、図16(a)に示す複数枚の純2進コードのマスクパターンを利用して画像投影部13から、明暗を交互に並べてなる縞状のパターン光(図1及び図18参照)を時系列的に被写体に投影し、各パターン光が投影されている状態を撮像したパターン光有画像と、パターン光が投影されていな状態を撮像したパターン光無画像とを取得する処理である。図1は、画像投影部13と画像撮像部14との相対的な位置関係がAモードである場合に、上記パターン光が投影されている状態を示す図であって、図18は、画像投影部13と画像撮像部14との相対的な位置関係がCモードである場合に、上記パターン光が投影されている状態を示す図である。
FIG. 17A is a flowchart of the three-dimensional shape detection process (S1006 in FIG. 15). In this process, first, an imaging process is performed (S1210). This imaging process is performed by using a plurality of pure binary code mask patterns shown in FIG. 16 (a) from the
撮像処理を終了すると(S1210)、3次元計測処理を行う(S1220)。3次元計測処理は、撮像処理によって取得したパターン光有画像とパターン光無画像とを利用して、実際に被写体の3次元形状を計測する処理である。こうして、3次元計測処理を終了すると(S1220)、当該処理を終了する。 When the imaging process is completed (S1210), a three-dimensional measurement process is performed (S1220). The three-dimensional measurement process is a process of actually measuring the three-dimensional shape of the subject using the pattern light existence image and the pattern light no image acquired by the imaging process. Thus, when the three-dimensional measurement process ends (S1220), the process ends.
図17(b)は、撮像処理(図12(a)のS1210)のフローチャートである。この処理は、パターン光撮影プログラム36aに基づき実行され、まず、画像投影部13からパターン光を投影することなく、画像撮像部14によって被写体を撮像することで、パターン光無画像を取得する(S1211)。尚、取得したパターン光無画像はパターン光無画像格納部37bに格納される。
FIG. 17B is a flowchart of the imaging process (S1210 in FIG. 12A). This process is executed based on the pattern light imaging program 36a. First, the
次に、カウンタiを初期化し(S1212)、そのカウンタiの値が最大値imaxか否かを判断する(S1213)。尚、最大値imaxは使用するマスクパターンの数によって決定される。例えば、8種類のマスクパターンを使用する場合には、最大imax(=8)となる。 Next, the counter i is initialized (S1212), and it is determined whether or not the value of the counter i is the maximum value imax (S1213). The maximum value imax is determined by the number of mask patterns to be used. For example, when 8 types of mask patterns are used, the maximum is imax (= 8).
そして、判断の結果、カウンタiの値が最大値imaxより小さい場合には(S1213:Yes)、使用するマスクパターンの内、i番のマスクパターンを投影LCD19に表示し、そのi番のマスクパターンによって投影されるi番のパターン光を投影面に投影し(S1214)、そのパターン光が投影されている状態を画像撮像部14によって撮影する(S1215)。
If it is determined that the value of the counter i is smaller than the maximum value imax (S1213: Yes), the i-th mask pattern among the mask patterns to be used is displayed on the
こうして、被写体にi番のパターン光が投影された状態を撮像したパターン光有画像を取得する。尚、取得したパターン光有画像は、パターン光有画像格納部37aに格納される。 In this way, a pattern light existence image obtained by imaging the state in which the i-th pattern light is projected onto the subject is acquired. The acquired pattern light existence image is stored in the pattern light existence image storage unit 37a.
撮影を終了すると、i番のパターン光の投影を終了し(S1216)、次のパターン光を投影すべく、カウンタiに「1」を加算して(S1217)、S1213からの処理を繰り返す。 When the photographing is finished, the projection of the i-th pattern light is finished (S1216), "1" is added to the counter i to project the next pattern light (S1217), and the processing from S1213 is repeated.
そして、カウンタiの値が最大値imaxより大きいと判断すると(S1213:No)、当該処理を終了する。即ち、この撮像処理においては、1枚のパターン光無画像と、最大値imax枚のパターン光有画像とを取得することになる。 If it is determined that the value of the counter i is greater than the maximum value imax (S1213: No), the process ends. That is, in this imaging process, one pattern light no image and the maximum value imax pattern light existence images are acquired.
図17(c)は、3次元計測処理(図17(a)のS1220)のフローチャートである。この処理は、輝度画像生成プログラム36cに基づき実行され、まず、輝度画像を生成する(S1221)。ここで、輝度は、YCbCr空間におけるY値であり、各画素のRGB値よりY=0.2989・R+0.5866・G+0.1145・Bから計算される値である。各画素についてY値を求めることにより、各パターン光有及び無し画像に関する輝度画像を生成する。生成した輝度画像は、輝度画像格納部37cに格納される。また、パターン光の番号に対応した番号を各輝度画像に割り付けておく。
FIG. 17C is a flowchart of the three-dimensional measurement process (S1220 in FIG. 17A). This process is executed based on the luminance
次に、コード画像生成プログラム36dにより、上述した空間コード法を利用して、生成した輝度画像を組み合わせることで、各画素毎にコード化されたコード画像を生成する(S1222)。
Next, the code
このコード画像は、輝度画像格納部37cに格納したパターン光有り画像に関する輝度画像の各画素について、あらかじめ設定した輝度閾値あるいはパターン光無画像と比較することで2値化し、その結果を図16(a),(b)に説明した様に、LSB〜MSBに割り当てることで生成することができる。生成されたコード画像はコード画像格納部37dに格納される。
This code image is binarized by comparing each pixel of the luminance image related to the image with pattern light stored in the luminance image storage unit 37c with a preset luminance threshold value or no pattern light image, and the result is shown in FIG. As described in a) and (b), it can be generated by assigning to LSB to MSB. The generated code image is stored in the code
次に、コード境界抽出プログラム36eにより、後述するコード境界座標検出処理を行い(S1223)、各画素毎に割り当てられたコードの境界座標をサブピクセル精度で検出する。
Next, a code boundary coordinate detection process described later is performed by the code
次に、レンズ収差補正プログラム36fにより、レンズ収差補正処理を行う(S1224)。この処理によって、撮像光学系21の歪みなどの影響で誤差を含んでいるS1223で検出されるコード境界座標の誤差を補正することができる。
Next, lens aberration correction processing is performed by the lens aberration correction program 36f (S1224). By this processing, it is possible to correct the error in the code boundary coordinates detected in S1223 that includes an error due to the influence of distortion or the like of the imaging
次に、三角測量演算プログラム36gにより、三角測量原理による実空間変換処理を行う(S1225)。この処理によって収差補正が施された後のCCD空間上のコード境界座標は、実空間における3次元座標に変換され、3次元形状検出結果としての3次元座標が求められる。 Next, real space conversion processing based on the triangulation principle is performed by the triangulation calculation program 36g (S1225). The code boundary coordinates on the CCD space after the aberration correction is performed by this processing are converted into the three-dimensional coordinates in the real space, and the three-dimensional coordinates as the three-dimensional shape detection result are obtained.
図19は、コード境界座標検出処理(図17のS1223)の概略を説明するための図である。上側の図は、CCD空間において実際のパターン光の明暗の境界を境界線Kで示し、そのパターン光を上述した空間コード法でコード化し、1のコードと他のコードとの境界を図中太線で示した図である。 FIG. 19 is a diagram for explaining the outline of the code boundary coordinate detection process (S1223 in FIG. 17). In the upper diagram, the bright and dark boundaries of the actual pattern light in the CCD space are indicated by the boundary line K. The pattern light is encoded by the spatial code method described above, and the boundary between one code and another code is indicated by a bold line in the figure. It is the figure shown by.
即ち、上述した空間コード法におけるコード化は、各画素単位で行われるため、実際のパターン光の境界線Kと、コード化された境界(図中太線)とではサブピクセル精度の誤差が生ずる。そこで、このコード境界座標検出処理は、コードの境界座標をサブピクセル精度で検出することを目的とする。 That is, since the coding in the spatial coding method described above is performed on a pixel-by-pixel basis, an error in sub-pixel accuracy occurs between the boundary line K of the actual pattern light and the coded boundary (thick line in the figure). Therefore, the purpose of this code boundary coordinate detection process is to detect code boundary coordinates with sub-pixel accuracy.
この処理では、まず、ある検出位置(以下「curCCDX」と称す)において、ある着目コード(以下「curCode」という)から他のコードに変化する第1画素Gを検出する(第1画素検出工程)。 In this process, first, at a certain detection position (hereinafter referred to as “curCDX”), a first pixel G that changes from a certain target code (hereinafter referred to as “curCode”) to another code is detected (first pixel detection step). .
例えば、curCCDXにおいて、上から順番に各画素を検出すると、境界(太線)まではcurCodeを有する画素であるが、境界の次の画素、即ち、第1画素Gにおいて、curCodeは変化しているので、これを第1画素Gとして検出する。 For example, in curCDXX, when each pixel is detected in order from the top, it is a pixel having curCode up to the boundary (thick line), but curCode changes in the pixel next to the boundary, that is, the first pixel G. This is detected as the first pixel G.
次に、その第1画素Gの画素位置において、図17のS1221において輝度画像格納部37cに格納された輝度画像の内から、明暗の変化を持つ輝度画像の全部を抽出する(輝度画像抽出工程)。 Next, at the pixel position of the first pixel G, all of the luminance images having a change in brightness are extracted from the luminance images stored in the luminance image storage unit 37c in S1221 of FIG. 17 (luminance image extraction step). ).
次に、近似に利用するための画素領域を特定するために検出位置を「2」左側に移動させ、検出位置curCCDX−2の位置において、コード画像を参照して、着目コード(curCode)から他のコードに変化する画素(境界画素(curCCDX−2の検出位置では画素H))を探し、その画素を中心に予め定めた範囲(本実施例の場合Y軸方向に−3画素と+2画素の範囲)の画素範囲を特定する(画素領域特定工程の一部)。 Next, in order to specify a pixel area to be used for approximation, the detection position is moved to the left by “2”, and the code image is referred to at the position of the detection position curCDXX-2 to change from the target code (curCode). Pixel (boundary pixel (pixel H at the detection position of cur CCDX-2)) is searched for, and a predetermined range centered on that pixel (in the present embodiment, -3 pixels and +2 pixels in the Y-axis direction) Range) is specified (part of the pixel region specifying step).
次に、その予め定めた範囲内において、図中の下側の左側のグラフに示すように、Y方向の画素位置と輝度とに関する近似式(図中実線で示す)を求め、その近似式における輝度閾値bThとの交点におけるY座標Y1を求める(境界座標検出工程の一部)。 Next, within the predetermined range, as shown in the lower left graph in the figure, an approximate expression (shown by a solid line) in the Y direction is obtained, and the approximate expression The Y coordinate Y1 at the intersection with the brightness threshold value bTh is obtained (part of the boundary coordinate detection step).
尚、輝度閾値bThは、予め定められた範囲内から算出(例えば、各画素の輝度の平均の2分の1)しても良く、予め与えられた固定値であっても良い。これにより、明と暗との境界をサブピクセル精度で検出することができる。 Note that the luminance threshold value bTh may be calculated from a predetermined range (for example, one half of the average luminance of each pixel) or may be a fixed value given in advance. As a result, the boundary between light and dark can be detected with sub-pixel accuracy.
次に、検出位置をcurCCDX−2から「1」右側に移動させ、curCCDX−1において上述したのと同様な処理を行い、curCCDX−1における代表値を求める(境界座標検出工程の一部)。 Next, the detection position is moved to the right side of “1” from curCCDX-2, and the same processing as described above is performed in curCCDX-1 to obtain a representative value in curCCDX-1 (part of the boundary coordinate detection step).
このように、境界画素を中心にY軸方向に予め定めた範囲と、X軸方向におけるcurCCDX−2からcurCCDX+2の範囲とで構成される画素領域(図中右下がり斜線部参照)において、各検出位置における代表値を求める。 In this manner, each detection is performed in a pixel area (see the lower right hatched portion in the figure) composed of a predetermined range in the Y-axis direction centering on the boundary pixel and a range of curCCDX-2 to curCCDX + 2 in the X-axis direction. The representative value at the position is obtained.
これまでの処理をcurCodeから他のコードへ変化する画素を持つ輝度画像の全てに行い、各輝度画像についての代表値の加重平均値を最終的にcurCodeにおける境界座標として採用する(境界座標検出工程の一部)。 The above processing is performed on all luminance images having pixels that change from curCode to another code, and a weighted average value of representative values for each luminance image is finally adopted as boundary coordinates in curCode (boundary coordinate detection step) Part of).
これにより、コードの境界座標を高精度にサブピクセル精度で検出することができ、この境界座標を利用して上述した三角測量原理による実空間変換処理(図17のS1225)を行うことで、高精度に被写体の3次元形状を検出することができる。 As a result, the boundary coordinates of the code can be detected with high accuracy with sub-pixel precision, and by performing the real space conversion process (S1225 in FIG. 17) based on the above-described triangulation principle using the boundary coordinates, high The three-dimensional shape of the subject can be detected with high accuracy.
また、このように輝度画像に基づき算出される近似式を利用して境界座標をサブピクセル精度で検出することができるため、従来のように撮像枚数を増加させることもなく、また、純2進コードで明暗付けられたパターン光であっても良く、特殊なパターン光であるグレイコードを用いる必要はない。 In addition, since the boundary coordinates can be detected with sub-pixel accuracy by using the approximate expression calculated based on the luminance image in this way, the number of images to be captured is not increased as in the prior art, and pure binary. Pattern light brightened and darkened by a code may be used, and it is not necessary to use a gray code which is a special pattern light.
尚、本実施例では、各検出位置において境界画素を中心にY軸方向に「−3」から「+2」の範囲と、X軸方向における検出位置としてのcurCCDX−2からcurCCDX+2の範囲とで構成される領域を、近似を求めるための画素領域として説明したが、この画素領域のY軸、X軸の範囲はこれらに限定されるものではない。例えば、curCCDXの検出位置における境界画素を中心としたY軸方向への所定範囲だけを画素領域としても良い。 In this embodiment, each detection position is composed of a range from “−3” to “+2” in the Y-axis direction around the boundary pixel, and a range from curCCDX-2 to curCCDX + 2 as the detection position in the X-axis direction. Although the region to be processed has been described as a pixel region for obtaining approximation, the ranges of the Y axis and the X axis of the pixel region are not limited to these. For example, only a predetermined range in the Y-axis direction centering on the boundary pixel at the curCDX detection position may be set as the pixel region.
図20は、コード境界座標検出処理(図17のS1223)のフローチャートである。この処理は、コード境界抽出プログラム36eに基づき実行され、まず、CCD空間におけるコード境界座標列の各要素を初期化し(S1401)、curCCDXを開始座標に設定する(S1402)。
FIG. 20 is a flowchart of the code boundary coordinate detection process (S1223 in FIG. 17). This process is executed based on the code
次に、curCCDXが終了座標以下か否かを判断し(S1403)、終了座標以下であれば(S1403:Yes)、curCodeを「0」に設定する(S1404)。即ち、curCodeは当初、最小値に設定される。 Next, it is determined whether curCCDX is equal to or less than the end coordinate (S1403). If it is equal to or less than the end coordinate (S1403: Yes), curCode is set to “0” (S1404). That is, curCode is initially set to a minimum value.
次に、curCodeが最大コードより小さいか否かを判断する(S1405)。curCodeが最大コードより小さければ(S1405:Yes)、curCCDXにおいてコード画像を参照して、curCodeの画素を探し(S1406)、curCodeの画素が存在するか否かを判断する(S1407)。 Next, it is determined whether curCode is smaller than the maximum code (S1405). If the curCode is smaller than the maximum code (S1405: Yes), the curCCDX refers to the code image to search for the curCode pixel (S1406), and determines whether the curCode pixel exists (S1407).
その結果、curCodeの画素が存在していれば(S1407:Yes)、curCCDXにおいて、そのcurCodeよりも大きなCodeの画素をコード画像を参照して探し(S1408)、そのcurCodeよりも大きなcurCodeの画素が存在するか否かを判断する(S1409)。 As a result, if there is a curCode pixel (S1407: Yes), the curCDXX searches for a code pixel larger than the curCode with reference to the code image (S1408), and a curCode pixel larger than the curCode is found. It is determined whether or not it exists (S1409).
その結果、curCodeよりも大きなCodeの画素が存在していれば(S1409:Yes)、後述する境界をサブピクセル精度で求める処理を行う(S1410)。そして、次のcurCodeについて境界座標を求めるべく、curCodeに「1」を加算して(S1411)、S1405からの処理を繰り返す。 As a result, if there is a pixel with a code larger than curCode (S1409: Yes), a process for obtaining a later-described boundary with subpixel accuracy is performed (S1410). Then, in order to obtain boundary coordinates for the next curCode, “1” is added to curCode (S1411), and the processing from S1405 is repeated.
即ち、境界は、curCodeを有する画素の画素位置またはcurCodeよりも大きなCodeの画素の画素位置に存在しているため、本実施例では、暫定的に境界は、curCodeより大きなcurCodeの画素の画素位置にあると仮定して処理を進めるものである。 That is, since the boundary exists at the pixel position of the pixel having the curCode or the pixel position of the pixel of the Code that is larger than the curCode, in the present embodiment, the boundary is temporarily the pixel position of the pixel of the CurCode that is larger than the curCode. It is assumed that the process is in progress.
また、curCodeが存在していない場合や(S1407:No)、curCodeよりも大きなCodeの画素が存在していない場合には(S1409:No)、次のcurCodeについて境界座標を求めるべく、curCodeに「1」を加算して(S1411)、S1405からの処理を繰り返す。 In addition, when curCode does not exist (S1407: No), or when a pixel with a code larger than curCode does not exist (S1409: No), in order to obtain boundary coordinates for the next curCode, “ 1 "is added (S1411), and the processing from S1405 is repeated.
こうして、0から最大コードまでのcurCodeについて、S1405からS1411までの処理を繰り返し、curCodeが最大コードより大きくなると(S1405:No)、検出位置を変更すべく、curCCDXに「dCCDX」を加算し(S1412)、新たな検出位置において、上述したのと同様にS1403からの処理を繰り返す。 Thus, for curCode from 0 to the maximum code, the processing from S1405 to S1411 is repeated, and when curCode becomes larger than the maximum code (S1405: No), “dCCDX” is added to curCCDX to change the detection position (S1412). ) The process from S1403 is repeated at the new detection position in the same manner as described above.
そして、curCCDXを変更してゆき、最終的にcurCCDXが終了座標より大きくなると(S1403)、即ち、開始座標から終了座標までの検出が終了すると、当該処理を終了する。 Then, curCDXX is changed, and finally when curCDX becomes larger than the end coordinate (S1403), that is, when the detection from the start coordinate to the end coordinate is completed, the process ends.
図21は、コード境界座標をサブピクセル精度で求める処理(図20のS1410)のフローチャートである。 FIG. 21 is a flowchart of the process (S1410 in FIG. 20) for obtaining the code boundary coordinates with subpixel accuracy.
この処理では、まず、図17のS1221において輝度画像格納部37cに格納された輝度画像の内から、図20のS1409において検出されたcurCodeよりも大きなCodeを有する画素の画素位置において、明暗の変化を持つ輝度画像の全部を抽出する(S1501)。 In this process, first, a change in brightness at the pixel position of a pixel having a code larger than the curCode detected in S1409 of FIG. 20 from the luminance image stored in the luminance image storage unit 37c in S1221 of FIG. All the luminance images having are extracted (S1501).
そして、その抽出した輝度画像のマスクパターン番号を配列PatID[]へ格納し、その抽出した輝度画像の画像数をnoPatIDへ格納する(S1502)。尚、配列PatID[]とnoPatIDとはID格納部37fに格納される。 Then, the mask pattern number of the extracted luminance image is stored in the array PatID [], and the number of extracted luminance images is stored in noPatID (S1502). The arrays PatID [] and noPatID are stored in the ID storage unit 37f.
次に、カウンタiを初期化し(S1503)、カウンタiの値がnoPatIDより小さいか否かを判断する(S1504)。その結果、小さいと判断されれば(S1504:Yes)、カウンタiに対応するPatID[i]のマスクパターン番号を持つ輝度画像について、境界のCCDY値を求め、その値をfCCDY[i]へ格納する(S1505)。 Next, the counter i is initialized (S1503), and it is determined whether or not the value of the counter i is smaller than noPatID (S1504). As a result, if it is determined to be small (S1504: Yes), the CCDY value at the boundary is obtained for the luminance image having the mask pattern number of PatID [i] corresponding to the counter i, and the value is stored in fCDY [i]. (S1505).
このS1505の処理を終了すると、カウンタiに「1」を加算し(S1506)、S1504からの処理を繰り返す。そして、S1504において、カウンタiの値がnoPatIDより大きいと判断されると(S1504:No)、即ち、S1501で抽出された全部の輝度画像についてS1505の処理が終了すると、S1505の処理で求めたfCCDY[i]の加重平均値を計算し、その結果を境界値とする(S1507)。 When the processing of S1505 is completed, “1” is added to the counter i (S1506), and the processing from S1504 is repeated. If it is determined in S1504 that the value of the counter i is greater than noPatID (S1504: No), that is, when the processing of S1505 is completed for all the luminance images extracted in S1501, the fCCDY obtained in the processing of S1505 The weighted average value of [i] is calculated, and the result is set as a boundary value (S1507).
尚、加重平均値に代えて、S1505の処理で求めたfCCDY[i]の中央値を計算し、その結果を境界値としたり、統計的な計算により境界値を計算したりすることもできる。 In place of the weighted average value, the median value of fCCDY [i] obtained in the processing of S1505 can be calculated, and the result can be used as a boundary value, or the boundary value can be calculated by statistical calculation.
即ち、境界座標は、curCCDXの座標と、S1507で求められる加重平均値とで表現され、この境界座標をコード境界座標格納部37eに格納して、当該処理を終了する。 In other words, the boundary coordinates are expressed by the curCDXX coordinates and the weighted average value obtained in S1507. The boundary coordinates are stored in the code boundary coordinate storage unit 37e, and the process ends.
図22は、PatID[i]のマスクパターン番号を持つ輝度画像について、境界のCCDY値を求める処理(図21のS1505)のフローチャートである。 FIG. 22 is a flowchart of processing (S1505 in FIG. 21) for obtaining the CCDY value of the boundary for the luminance image having the mask pattern number of PatID [i].
この処理では、まず、「curCCDX−dx」と「0」との内、大きい値をccdxとして設定する「ccdx=MAX(curCCDX−dx,0)」で表される処理を行うと共に、カウンタjを初期化する(S1601)。 In this process, first, a process represented by “ccdx = MAX (curCCDX−dx, 0)” for setting a larger value of “curCDX−dx” and “0” as ccdx is performed, and a counter j is set. Initialization is performed (S1601).
具体的には、S1601でいう「0」はCCDX値の最小値を意味し、例えば、今、検出位置としてのcurCCDX値が「1」で、予め設定されているdx値が「2」であったとすると、「curCCDX−dx」は「−1」となり、CCDX値の最小値である「0」よりも小さくなるため、「−1」における以降の処理は、「ccdx=0」として設定する処理を行う。 Specifically, “0” in S1601 means the minimum value of the CCDX value. For example, the curCDX value as a detection position is “1” and the preset dx value is “2”. Assuming that “curCDXX-dx” is “−1”, which is smaller than “0” which is the minimum value of the CCDX value, the subsequent processing in “−1” is set as “ccdx = 0”. I do.
即ち、CCDX値の最小値よりも小さい位置については、以降の処理を除外する処理を行う。 That is, for a position smaller than the minimum value of the CCDX value, processing for excluding the subsequent processing is performed.
尚、この「dx」の値は、予め「0」を含む適当な整数に設定することができ、図19で説明した例では、この「dx」は「2」に設定されており、図19の例に従えば、このccdxは「curCCDX−2」に設定されることになる。 The value of “dx” can be set in advance to an appropriate integer including “0”. In the example described with reference to FIG. 19, this “dx” is set to “2”. According to the example, the ccdx is set to “curCDX-2”.
次に、ccdx<=MIN(curCCDX+dx,ccdW−1)であるか否かを判断する(S1602)。つまり、左辺の「MIN(curCCDX+dx,ccdW−1)」は、「curCCDX+dx」と、CCDX値の最大値「ccdW」から「1」を減算した「ccdW−1」との内、小さい値であることを意味しているので、その値と「ccdx」値との大小を比較する。 Next, it is determined whether or not ccdx <= MIN (curCCDX + dx, ccdW−1) (S1602). That is, “MIN (curCCDX + dx, ccdW−1)” on the left side is a smaller value among “curCDXX + dx” and “ccdW−1” obtained by subtracting “1” from the maximum CCDX value “ccdW”. Therefore, the value is compared with the “ccdx” value.
即ち、CCDX値の最大値よりも大きい位置については、以降の処理を除外する処理を行う。 That is, for a position larger than the maximum value of the CCDX value, processing for excluding the subsequent processing is performed.
そして、判断の結果、ccdxがMIN(curCCDX+dx,ccdW−1)よりも小さければ(S1602:Yes)、コード画像とPatID[i]が割り当てられた輝度画像とを参照して、境界の存在する画素の画素位置のeCCDY値を求める(S1603)。 If the result of determination is that ccdx is smaller than MIN (curCCDX + dx, ccdW−1) (S1602: Yes), the code image and the luminance image to which PatID [i] is assigned are referred to and the pixel having the boundary exists. The eCDY value of the pixel position is obtained (S1603).
例えば、検出位置を図19に示すcurCCDX−1であるとすると、画素Iを境界が存在する画素候補として検出し、画素Iの位置においてeCCDY値を求める。 For example, assuming that the detection position is curCCDX-1 shown in FIG. 19, the pixel I is detected as a pixel candidate having a boundary, and the eCDY value is obtained at the position of the pixel I.
次に、PatID[i]のマスクパターン番号を持つ輝度画像から、MAX(eCCDY−dy,0)<=ccdy<=MIN(eCCDY+dy−1,ccdH−1)の範囲で、ccdy方向における輝度に関する近似多項式Bt=fb(ccdy)を求める(S1604)。 Next, from the luminance image having the mask pattern number of PatID [i], an approximation regarding the luminance in the ccdy direction within the range of MAX (eCDY-dy, 0) <= ccdy <= MIN (eCCY + dy-1, ccdH-1). A polynomial Bt = fb (ccdy) is obtained (S1604).
次に、その近似多項式Btと輝度閾値bThとの交差するccdy値を求め、その値をefCCDY[j]へ格納する(S1605)。このS1604とS1605とによって、サブピクセル精度の境界座標の検出をすることができる。 Next, the ccdy value at which the approximate polynomial Bt and the luminance threshold value bTh intersect is obtained, and the value is stored in efCCDY [j] (S1605). By S1604 and S1605, it is possible to detect the boundary coordinates with subpixel accuracy.
次に、ccdxとカウンタjとに各々「1」を加算し(S1605)、S1602からの処理を繰り返す。即ち、curCCDXを中心とした左右の所定範囲内における各検出位置において、サブピクセル精度の境界を検出するのである。 Next, “1” is added to each of ccdx and counter j (S1605), and the processing from S1602 is repeated. That is, the boundary of subpixel accuracy is detected at each detection position within a predetermined range on the left and right with the cur CCDX as the center.
そして、S1602において、「ccdx」が「MIN(curCCDX+dx,ccdW−1)」より大きいと判断されると(S1602:No)、curCCDX−dxからcurCCDX+dxの範囲で計算されたefCCDY[j]について、ccdy=fy(ccdx)の近似多項式を求める(S1606)。この処理によってS1605において検出された各値を用いるので、1つの検出位置において境界座標を検出しようとする場合に比べて、境界座標の検出精度を向上させることができる。 If it is determined in S1602 that “ccdx” is larger than “MIN (curCCDX + dx, ccdW−1)” (S1602: No), ccCDY [j] calculated in the range of curCCDX−dx to curCCDX + dx is ccdy. = Approximate polynomial of fy (ccdx) is obtained (S1606). Since each value detected in S1605 by this process is used, the detection accuracy of the boundary coordinates can be improved as compared with the case of detecting the boundary coordinates at one detection position.
こうして得られた近似多項式とcurCCDXとの交点を、PatID[i]のマスクパターン番号を持つ輝度画像についての境界のCCDY値として(S1607)、当該処理を終了する。ここまでの処理を図15のフローチャートに示すように、抽出した全部の輝度画像の1枚、1枚に実行し、求められた境界座標について加重平均値を計算して、その結果を最終的な境界座標としているので(S1507)、更に、境界座標の検出精度を向上させることができる。 The intersection of the approximate polynomial and curCDXX obtained in this way is set as the CCDY value at the boundary for the luminance image having the mask pattern number of PatID [i] (S1607), and the process ends. As shown in the flowchart of FIG. 15, the processing up to this point is executed for each of the extracted luminance images, and a weighted average value is calculated for the obtained boundary coordinates. Since the boundary coordinates are used (S1507), the detection accuracy of the boundary coordinates can be further improved.
図23は、レンズ収差補正処理(図17のS1224)を説明するための図である。レンズ収差補正処理は、図23(a)に示すように、撮像光学系21の収差により、入射した光束が理想レンズにより結像すべき位置からずれてしまうことに対して、撮像された画素の位置を本来結像すべき位置へ補正する処理である。
FIG. 23 is a diagram for explaining lens aberration correction processing (S1224 in FIG. 17). In the lens aberration correction processing, as shown in FIG. 23A, the incident light beam is deviated from the position to be imaged by the ideal lens due to the aberration of the imaging
この収差補正は、例えば、図23(b)に示すように、撮像光学系21の撮像範囲において、入射光の角度である半画角hfaをパラメータとして光学系の収差を計算して求めたデータを基に補正する。
For example, as shown in FIG. 23B, this aberration correction is data obtained by calculating the aberration of the optical system in the imaging range of the imaging
この収差補正処理では、レンズ収差補正プログラム36fに基づき実行され、コード境界座標格納部37eに格納されているコード境界座標について行なわれ、収差補正処理がなされたデータは、収差補正座標格納部37gに格納される。 This aberration correction processing is executed based on the lens aberration correction program 36f and performed on the code boundary coordinates stored in the code boundary coordinate storage unit 37e, and the data subjected to the aberration correction processing is stored in the aberration correction coordinate storage unit 37g. Stored.
具体的には、実画像における任意点座標(ccdx、ccdy)を理想カメラ画像での座標(ccdcx、ccdcy)に変換する次の(a)から(c)のカメラキャリブレーション(近似式)を用いて補正する。 Specifically, the following camera calibration (approximate expression) from (a) to (c) for converting arbitrary point coordinates (ccdx, ccdy) in the real image into coordinates (ccdcx, ccdcy) in the ideal camera image is used. To correct.
本実施例では、収差量dist(%)は、半画角hfa(deg)を用いてdist=f(hfa)と記述する。また、撮像光学系21の焦点距離をfocallength(mm)、ccd画素長pixellength(mm)、CCD22におけるレンズの中心座標を(Centx、Centy)とする。
In this embodiment, the aberration amount dist (%) is described as dist = f (hfa) using a half angle of view hfa (deg). In addition, the focal length of the imaging
(a)ccdcx=(ccdx−Centx)/(1+dist/100)+Centx
(b)ccdcy=(ccdy−Centy)/(1+dist/100)+Centy
(c)hfa=arctan[(((ccdx−Centx)2+(ccdy−Centy)2)0.5)×pixellength/focallength]
図24は、三角測量原理による実空間変換処理(図17のS1225)において、CCD空間における座標から、3次元空間における3次元座標を算出する方法を説明するための図である。
(A) ccdcx = (ccdx−Centx) / (1 + dist / 100) + Centx
(B) ccdcy = (ccdy−Centy) / (1 + dist / 100) + Centy
(C) hfa = arctan [(((ccdx−Centx) 2 + (ccdy−Centy) 2 ) 0.5 ) × pixellength / focallength]
FIG. 24 is a diagram for explaining a method of calculating the three-dimensional coordinates in the three-dimensional space from the coordinates in the CCD space in the real space conversion process (S1225 in FIG. 17) based on the triangulation principle.
三角測量原理による実空間変換処理では、三角測量演算プログラム36gによって、収差補正座標格納部37gに格納されている収差補正がなされたコード境界座標についての3次元空間における3次元座標が算出される。こうして算出される3次元座標は、3次元座標格納部37hに格納される。 In the real space conversion process based on the triangulation principle, the triangulation calculation program 36g calculates the three-dimensional coordinates in the three-dimensional space for the code boundary coordinates subjected to the aberration correction stored in the aberration correction coordinate storage unit 37g. The three-dimensional coordinates calculated in this way are stored in the three-dimensional coordinate storage unit 37h.
本実施例では、撮像される横方向に湾曲した被写体Pに対する画像入力出力装置1の座標系として、撮像光学系21の光軸方向をZ軸、そのZ軸に沿って撮像光学系21の主点位置からVPZ離れた地点を原点、画像入出力装置1に対して水平方向をX軸、垂直方向をY軸とする。
In this embodiment, as the coordinate system of the image input /
また、3次元空間(X,Y,Z)への画像投影部13からの投影角度θp、撮像光学系21の光軸と画像投影部13の光軸との距離をD、撮像光学系21のY方向の視野をYftopからYfbottom、X方向の視野をXfstartからXfend、CCD22のY軸方向の長さ(高さ)をHc、X軸方向の長さ(幅)をWcとする。尚、投影角度θpは、各画素毎に割り当てられたコードに基づき与えられる。
Further, the projection angle θp from the
この場合、CCD22の任意座標(ccdx,ccdy)に対応する3次元空間位置(X,Y,Z)は、CCD22の結像面上の点と、パターン光の投影点と、X−Y平面に交差する点とで形成される三角形について5つの式を解くことで得ることができる。
(1)Y=−(tanθp)Z+PPZ+tanθp−D+cmp(Xtarget)
(2)Y=−(Ytarget/VPZ)Z+Ytarget
(3)X=−(Xtarget/VP)Z+Xtarget
(4)Ytarget=Yftop−(ccdcy/Hc)×(Yftop−Yfbottom)
(5)Xtarget=Xfstart+(ccdcx/Wc)×(Xfend−Xfstart)
尚、(1)におけるcmp(Xtarget)は、撮像光学系21と画像投影部13とのズレを補正する関数であり、ズレが無い理想的な場合にはcmp(Xtarget)=0とみなすことができる。この式は、湾曲した被写体Pに限られるものではなく、任意の三次元形状を有するものに対しても利用できるものである。
In this case, the three-dimensional space position (X, Y, Z) corresponding to the arbitrary coordinates (ccdx, ccdy) of the
(1) Y = − (tan θp) Z + PPZ + tan θp−D + cmp (Xtarget)
(2) Y = − (Ytarget / VPZ) Z + Ytarget
(3) X = − (Xtarget / VP) Z + Xtarget
(4) Ytarget = Yftop− (ccdcy / Hc) × (Yftop−Yfbottom)
(5) Xtarget = Xfstart + (ccdcx / Wc) × (Xfend−Xfstart)
Note that cmp (Xtarget) in (1) is a function for correcting the deviation between the imaging
一方、上述したのと同様に、画像投影部13に含まれる投影LCD19上の任意座標(lcdcx、lcdcy)と3次元空間中の3次元座標(X,Y,Z)との関係は次の(6)から(9)の式で表せる。
On the other hand, as described above, the relationship between the arbitrary coordinates (lcdcx, lcdccy) on the
尚、本実施例では、画像投影部13の主点位置(0,0,PPZ)、画像投影部13のY方向の視野をYpftopからYpfbottom、X方向の視野をXpfstartからXpfend、投影LED19のY軸方向の長さ(高さ)をHp、X軸方向の長さ(幅)Wpとする。
(6)Y=−(Yptarget/PPZ)Z+Yptarget
(7)X=−(Xptarget/PPZ)Z+Xptarget
(8)Yptarget=Ypftop−(lcdcy/Hp)×(Ypftop−Ypfbottom)
(9)Xptarget=Xpfstart+(lcdcx/Wp)×(Xpfend−Xpfstart)
この関係式を利用することで、3次元空間座標(X,Y,Z)を上記(6)から(9)の式に与えることで、LCD空間座標を(lcdcx,lcdcy)を算出することができる。よって、例えば、3次元空間に任意の形状、文字を投影するためのLCD素子パターンを算出することができる。
In this embodiment, the principal point position (0, 0, PPZ) of the
(6) Y = − (Yptarget / PPZ) Z + Yptarget
(7) X = − (Xptarget / PPZ) Z + Xptarget
(8) Yptarget = Ypftop− (lcdcy / Hp) × (Ypftop−Ypfbottom)
(9) Xptarget = Xpfstart + (lcdcx / Wp) × (Xpfend−Xpfstart)
By using this relational expression, the LCD spatial coordinates (lcdcx, lcdcy) can be calculated by giving the three-dimensional spatial coordinates (X, Y, Z) to the above formulas (6) to (9). it can. Therefore, for example, an LCD element pattern for projecting an arbitrary shape and character in a three-dimensional space can be calculated.
図25は、平面化画像処理(図7のS611)のフローチャートである。平面化画像処理は、例えば、書籍のような湾曲した状態の原稿(被写体)Pを撮像した場合や矩形状の原稿Pを斜め方向から撮像した場合(撮像された画像は台形状になる)であっても、その原稿が湾曲していない状態やその面に対して垂直方向から撮像したような状態に補正された平面化画像を取得、表示する処理である。 FIG. 25 is a flowchart of planarized image processing (S611 in FIG. 7). The planarized image processing is performed when, for example, an image of a curved document (subject) P such as a book is captured or when a rectangular document P is imaged from an oblique direction (the captured image has a trapezoidal shape). Even if it exists, it is the process which acquires and displays the planarized image corrected in the state which the original is not curving, or the state imaged from the orthogonal | vertical direction with respect to the surface.
この処理では、まず、CCD22に高解像度設定信号を送信する(S1901)。 In this process, first, a high resolution setting signal is transmitted to the CCD 22 (S1901).
次に、レリーズボタン8をスキャンし(S1903a)、レリーズボタン8が半押しされたか否かを判断する(S1903b)。半押しされていれば(S1903b:Yes)、オートフォーカス(AF)および自動露出(AE)機能を起動し、ピント、絞り、シャッタスピードを調節する(S1903c)。尚、半押しされていなければ(S1903b:No)、S1903aからの処理を繰り返す。
Next, the
次に、再び、レリーズボタン8をスキャンし(S1903d)、レリーズボタン8が全押しされたか否かを判断する(S1903e)。全押しされていれば(S1903e:Yes)、フラッシュモードか否かを判断する(S1903f)。
Next, the
その結果、フラッシュモードであれば(S1903f:Yes)、フラッシュ7を投光して(S1903g)、撮影し(S1903h)、フラッシュモードでなければ(S1903f:No)、フラッシュ7を投光することなく撮影する(S1903h)。尚、S1903eの判断において、全押しされていなければ(S1903e:No)、S1903aからの処理を繰り返す。
As a result, if the flash mode is selected (S1903f: Yes), the
次に、上述した3次元形状検出処理(図15のS1006)と同一の処理である3次元形状検出処理を行い、被写体の3次元形状を検出する(S1906)。 Next, a three-dimensional shape detection process that is the same as the above-described three-dimensional shape detection process (S1006 in FIG. 15) is performed to detect the three-dimensional shape of the subject (S1906).
次に、3次元形状検出処理(S1906)によって得られた3次元形状検出結果に基づき、原稿Pの姿勢を演算する原稿姿勢演算処理を行う(S1907)。この処理によって原稿Pの姿勢パラメータとして、原稿Pの画像入力装置1に対する位置Lや角度θ、湾曲φ(x)が演算される。
Next, based on the three-dimensional shape detection result obtained by the three-dimensional shape detection process (S1906), a document attitude calculation process for calculating the attitude of the document P is performed (S1907). With this process, the position L, the angle θ, and the curvature φ (x) of the document P with respect to the
次に、その演算結果に基づき、後述する平面変換処理を行い(S1908)、たとえ、原稿Pが湾曲していたとしても湾曲していない状態に平面化された平面化画像を生成する。 Next, based on the calculation result, a plane conversion process to be described later is performed (S1908), and a flattened image flattened in a state where the original P is not curved even if it is curved is generated.
次に、平面変化処理(S1908)によって得られた平面化画像を外部メモリ27に格納し(S1909)、平面化画像をモニタLCD10に表示する(S1910)。 Next, the planarized image obtained by the planar change process (S1908) is stored in the external memory 27 (S1909), and the planarized image is displayed on the monitor LCD 10 (S1910).
そして、モード切替スイッチ9に変化が無いか否かを判断し(S1911)、その結果、変化が無ければ(S1911:Yes)、再び、S702からの処理を繰り返し、変化があれば(S1911:No)、当該処理を終了する。
Then, it is determined whether or not the
図26は、原稿姿勢演算処理(図25のS1907)を説明するための図である。尚、本等の原稿の仮定条件として、原稿Pの湾曲はy方向に一様であるとする。この原稿姿勢演算処理では、まず、図26(a)に示すように、3次元座標格納部37hに格納されているコード境界に関する座標データから3次元空間位置において2列に並ぶ点を回帰曲線近似した2本の曲線を求める。 FIG. 26 is a diagram for explaining the document orientation calculation process (S1907 in FIG. 25). Note that, as an assumption condition for a document such as a book, it is assumed that the curvature of the document P is uniform in the y direction. In this manuscript attitude calculation processing, first, as shown in FIG. 26A, regression line approximation is performed on points arranged in two columns at a three-dimensional space position from the coordinate data regarding the code boundary stored in the three-dimensional coordinate storage unit 37h. Obtain the two curves.
例えば、パターン光を投影した範囲の上下それぞれ4分の1の位置情報(コード63とコード64の境界と、コード191とコード192との境界とに関する境界)から求めることができる。 For example, it can be obtained from position information (a boundary relating to the boundary between the code 63 and the code 64 and the boundary between the code 191 and the code 192) of the upper and lower quarters of the projected range of the pattern light.
その2本の曲線のX軸方向の位置が「0」における点を結ぶ直線を想定し、この直線がZ軸と交わる点、つまり、光軸が原稿Pと交差する点を、原稿Pの3次元空間位置(0,0,L)とし、この直線がX−Y平面となす角を原稿PのX軸まわりの傾きθとする。 Assuming a straight line connecting points where the positions of the two curves in the X-axis direction are “0”, the point where the straight line intersects the Z-axis, that is, the point where the optical axis intersects the original P, is 3 A dimension space position (0, 0, L) is defined, and an angle formed by the straight line with the XY plane is defined as an inclination θ around the X axis of the document P.
次に、図26(b)に示すように、原稿Pを、先に求めたX軸まわりの傾きθ分だけ逆方向に回転変換し、つまり、原稿PをX−Y平面に対して平行にした状態を想定する。 Next, as shown in FIG. 26B, the document P is rotationally converted in the opposite direction by the inclination θ around the X axis obtained earlier, that is, the document P is parallel to the XY plane. Assuming that
そして、図26(c)に示すように、X−Z平面における原稿Pの断面について、Z軸方向の変位をXの関数として湾曲φ(X)で表すことができる。こうして、原稿姿勢パラメータとして、原稿Pの位置Lや角度θ、湾曲φ(x)が演算され、当該処理を終了する。 Then, as shown in FIG. 26C, with respect to the cross section of the document P in the XZ plane, the displacement in the Z-axis direction can be expressed as a curve φ (X) as a function of X. Thus, the position L, the angle θ, and the curvature φ (x) of the document P are calculated as the document orientation parameters, and the process ends.
図27は、平面変換処理(図25のS1908)のフローチャートである。この処理は、まず、RAM37のワーキングエリア37lに当該処理の処理領域を割り当て、当該処理に用いるカウンタbの変数を初期値(b=0)に設定する(S2101)。
FIG. 27 is a flowchart of the plane conversion process (S1908 in FIG. 25). In this process, first, the processing area of the process is assigned to the working area 37l of the
次に、原稿姿勢演算プログラム36hでの演算結果による原稿Pの位置Lと、傾きθと、湾曲φ(x)とに基づき、パターン光無画像格納部37bに格納されたパターン光無画像の4隅の点を、それぞれ、Z方向に−L移動し、X軸方向に−θ回転し、更にφ(x)にする湾曲の逆変換(後述する「湾曲処理」と同等な処理)により求められる点で取成される矩形領域(つまり、原稿Pの文字等が書かれた面が略直交方向から観察されたような画像となる矩形領域)を設定すると共に、この矩形領域内に含まれる画素数aを求める(S2102)。
Next, based on the position L of the original P, the inclination θ, and the curvature φ (x) based on the calculation result in the original attitude calculation program 36h, the pattern light no-
次に、設定された矩形領域を構成する各画素に対応するパターン光無画像上の座標を求めて、この座標周辺の画素情報から、平面化画像の各画素の画素情報を設定する。 Next, coordinates on the non-patterned light image corresponding to each pixel constituting the set rectangular area are obtained, and pixel information of each pixel of the planarized image is set from pixel information around this coordinate.
つまり、まず、カウンタbが画素数aに到達したか否かを判断する(S2103)。カウンタbが画素数aに到達していなけば(S2103:No)、矩形領域を構成する1つの画素について、Y軸を中心に湾曲φ(x)回転移動させる湾曲計算処理を行い(S2104)、X軸を中心に傾きθ回転移動させ(S2105)、Z軸方向に距離Lだけシフトさせる(S2106)。 That is, first, it is determined whether or not the counter b has reached the pixel number a (S2103). If the counter b has not reached the pixel number a (S2103: No), a curve calculation process is performed in which one pixel constituting the rectangular area is rotated and moved by a curve φ (x) around the Y axis (S2104). A tilt θ is rotated about the X axis (S2105), and is shifted by a distance L in the Z axis direction (S2106).
次に、求められた3次元空間位置を、先の3角測量の逆関数により理想カメラで写されたCCD画像上の座標(ccdcx,ccdcy)を求め(S2107)、使用している撮像光学系20の収差特性に従って、先のカメラキャリブレーションの逆関数により、実際のカメラで写されたCCD画像上の座標(ccdx,ccdy)を求め(S2108)、この位置に対応するパターン光無画像の画素の状態を求めて、RAM37のワーキングエリア37lに格納する(S2109)。 Next, the coordinates (ccdcx, ccdcy) on the CCD image obtained by imaging the ideal camera with the inverse function of the previous triangulation are obtained from the obtained three-dimensional spatial position (S2107), and the imaging optical system used According to the aberration characteristics of 20, the coordinates (ccdx, ccdy) on the CCD image captured by the actual camera are obtained by the inverse function of the previous camera calibration (S2108), and the pixel of the pattern light no image corresponding to this position Is stored in the working area 37l of the RAM 37 (S2109).
そして、次の画素について上述したS2103からS2109までの処理を実行すべく、カウンタbに「1」を加算する(S2110)。 Then, “1” is added to the counter b in order to execute the above-described processing from S2103 to S2109 for the next pixel (S2110).
こうして、S2104からS2110までの処理をカウンタbが画素数aになるまで繰り返すと(S2103:Yes)、S2101において、当該処理を実行するためにワーキングエリア37lに割り当てた処理領域を開放して(S2111)、当該処理を終了する。 In this way, when the processing from S2104 to S2110 is repeated until the counter b reaches the pixel number a (S2103: Yes), in S2101, the processing area allocated to the working area 37l is released to execute the processing (S2111). ), The process ends.
図28(a)は、湾曲処理(図27のS2104)についての概略を説明するための図であり、(b)は平面変換処理(図25のS1908)によって平面化された原稿Pを示している。尚、この湾曲処理についての詳細については、電子情報通信学会論文誌DIIVol.J86−D2 No.3 p409「アイスキャナによる湾曲ドキュメント撮影」に詳細に開示されている。 FIG. 28A is a diagram for explaining the outline of the bending process (S2104 in FIG. 27), and FIG. 28B shows the document P flattened by the plane conversion process (S1908 in FIG. 25). Yes. The details of the curving process are disclosed in detail in the IEICE Transactions DIIVol. J86-D2 No. 3 p409 “Curved Document Shooting with an Eye Scanner”.
湾曲Z=φ(x)は、求められたコード境界座標列(実空間)で構成される3次元形状を、任意のY値におけるXZ平面に平行な平面切断された断面形状を、最小2乗法により多項式で近似した式で表現される。 The curve Z = φ (x) is obtained by converting a three-dimensional shape constituted by the obtained code boundary coordinate sequence (real space), a cross-sectional shape parallel to the XZ plane at an arbitrary Y value, and a least square method. Is expressed by an equation approximated by a polynomial.
湾曲する曲面を平面化する場合、(a)に示すように、Z=φ(x)上の点に対応する平面化された点は、Z=φ(0)からZ=φ(x)までの曲線の長さによって対応付けられることになる。 When flattening a curved curved surface, as shown in (a), the flattened points corresponding to the points on Z = φ (x) are from Z = φ (0) to Z = φ (x). Are associated with each other according to the length of the curve.
こうした湾曲処理を含む平面変換処理によって、例えば、湾曲している状態の原稿Pを撮像した場合であっても、図22(b)に示すように、平面化された平面画像を取得することができ、このように平面化された画像を用いればOCR処理の精度を高めることができるため、その画像によって、原稿に記載された文字や図形等を明確に認識することができる。 By plane conversion processing including such bending processing, for example, even when a document P in a curved state is imaged, a planarized planar image can be acquired as shown in FIG. If the flattened image is used, the accuracy of the OCR process can be increased. Therefore, characters, figures, and the like written on the original can be clearly recognized from the image.
図9に示したデジカメ処理、図11に示したwebcam処理、図15に示した立体画像処理において、投影方向に依存することなく無歪の投影画像を投影する場合には、図14のS806の投影処理と同様に実行される投影処理(S702f、S802f、S1010)に換えて、後述するような投影用画像変換処理(S2900)を実行するように構成される。 In the digital camera process shown in FIG. 9, the webcam process shown in FIG. 11, and the stereoscopic image process shown in FIG. 15, in the case of projecting an undistorted projection image without depending on the projection direction, the process of S806 in FIG. Instead of the projection processing (S702f, S802f, S1010) executed in the same manner as the projection processing, a projection image conversion processing (S2900) as will be described later is executed.
図29は、その無歪投影用画像変換処理(S2900)のフローチャートである。この無歪投影用画像変換処理(S2900)は、投影画像格納部37kに格納される画像情報に従って投影LCD19に表示される画像を、無歪な状態で被写体に投影可能な画像に変換する処理である。
FIG. 29 is a flowchart of the distortion-free image conversion processing (S2900). The distortion-free image conversion process (S2900) is a process for converting an image displayed on the
この処理では、まず、RAM37のワーキングエリア37lに当該処理の処理領域を割り当て、当該処理に用いるカウンタqの変数を初期値(q=0)に設定する(S2901)。
In this process, first, the processing area of the process is allocated to the working area 37l of the
次に、無歪投影用画像(つまり、湾曲した被写体上において無歪である画像)に変換された後の画像となる矩形領域として、LCD空間座標(lcdcx,lcdcy)の空間に相当するメモリをRAM37のワーキングエリア37lに確保し、設定すると共に、この矩形領域内に含まれる画素数Qaを求める(S2902)。
Next, a memory corresponding to the space of LCD space coordinates (lcdcx, lcdcy) is used as a rectangular area that becomes an image after being converted into an image for distortion-free projection (that is, an image that is undistorted on a curved subject). The area is secured and set in the working area 37l of the
次に、投影画像格納部37kに格納される、例えばメッセージ画像Mや撮像画像fなどの画像情報の各画素値を、理想カメラ画像座標系(ccdcx,ccdcy)の各画素に配置する(S2903)。 Next, each pixel value of image information such as the message image M and the captured image f stored in the projection image storage unit 37k is arranged in each pixel of the ideal camera image coordinate system (ccdcx, ccdcy) (S2903). .
次に、設定された矩形領域を構成するLCD空間座標(lcdcx,lcdcy)上の各画素について、上述した式(6)〜(9)により、3次元座標格納部37hに格納された被写体の表面上の対応点である三次元座標(X,Y,Z)を求め、さらに式(1)〜(5)において、(ccdcx,ccdcy)について解くことにより、無歪投影用画像の各画素の画素情報を算出し設定する。 Next, for each pixel on the LCD space coordinates (lcdcx, lcdccy) constituting the set rectangular area, the surface of the subject stored in the three-dimensional coordinate storage unit 37h according to the above-described equations (6) to (9). The three-dimensional coordinates (X, Y, Z) which are the corresponding points above are obtained, and further, by solving for (ccdcx, ccdcy) in equations (1) to (5), pixels of each pixel of the image for distortion-free projection Calculate and set information.
つまり、まず、カウンタqが画素数Qaに到達したか否かを判断する(S2904)。カウンタqが画素数Qaに到達していなければ(S2904:No)、カウンタqの値に対応する画素のLCD空間座標(lcdcx,lcdcy)を、式(6)〜(9)により、ワーキングエリア37lに格納された被写体上の座標(X,Y,Z)に変換する(S2905)。 That is, first, it is determined whether or not the counter q has reached the number of pixels Qa (S2904). If the counter q has not reached the number of pixels Qa (S2904: No), the LCD space coordinates (lcdcx, lcdcy) of the pixel corresponding to the value of the counter q are obtained from the expressions (6) to (9) according to the working area 37l. Is converted into the coordinates (X, Y, Z) on the subject stored in (S2905).
次に、S2905の処理により変換されて得られた被写体上の座標(X,Y,Z)を、式(1)〜(5)において、(ccdcx,ccdcy)について解いた式を利用して理想カメラ画像上の座標(ccdcx,ccdcy)に変換する(S2906)。 Next, the coordinates (X, Y, Z) on the subject obtained by the conversion by the processing of S2905 are ideally obtained using the equations solved for (ccdcx, cdccy) in equations (1) to (5). The coordinates (ccdcx, cdccy) on the camera image are converted (S2906).
次に、S2906の処理により変換されて得られた座標(ccdcx,ccdcy)に配置されている画素情報を取得し、その画素情報を、カウンタqの値に対応するLCD空間座標(lcdcx,lcdcy)に書き込む(S2907)。 Next, the pixel information arranged at the coordinates (ccdcx, ccdcy) obtained by the conversion in the process of S2906 is acquired, and the pixel information is converted into the LCD space coordinates (lcdcx, lcdcy) corresponding to the value of the counter q. (S2907).
そして、次の画素について上述したS2904からS2907までの処理を実行すべく、カウンタqに「1」を加算する(S2908)。 Then, “1” is added to the counter q in order to execute the above-described processing from S2904 to S2907 for the next pixel (S2908).
こうして、S2904からS2908までの処理を、カウンタqが画素数Qaになるまで繰り返すと(S2904:Yes)、設定された矩形領域を構成するLCD空間座標(lcdcx,lcdcy)に対応付けられた画素情報を、投影LCDドライバ30に転送する(S2909)。 Thus, when the processing from S2904 to S2908 is repeated until the counter q reaches the number of pixels Qa (S2904: Yes), the pixel information associated with the LCD space coordinates (lcdcx, lcdcy) that constitute the set rectangular area Is transferred to the projection LCD driver 30 (S2909).
最後に、S2901において、当該処理を実行するためにワーキングエリア37lに割り当てた処理領域を開放して(S2910)、当該処理を終了する。 Finally, in S2901, the processing area allocated to the working area 371 for executing the process is released (S2910), and the process is terminated.
S2909の処理により、LCD空間座標(lcdcx,lcdcy)上の画素情報が投影LCDドライバ30へ転送されることにより、投影LCD19は、歪曲面上において無歪に投影される投影画像が表示される。よって、被写体上に無歪な画像が投影される。
By the processing of S2909, the pixel information on the LCD space coordinates (lcdcx, lcdcy) is transferred to the
従って、無歪投影用画像変換処理(S2900)を実行することにより、投影方向が斜めである場合だけでなく、投影面が湾曲している場合であっても、無歪な投影画像を投影することができる。その結果として、特に、メッセージ画像Mなどの文字列を投影する場合に、使用者にその情報を正確に認識させることができる。 Accordingly, by executing the distortion-free image conversion process (S2900), a distortion-free projection image is projected not only when the projection direction is oblique but also when the projection surface is curved. be able to. As a result, particularly when a character string such as the message image M is projected, the user can be made to accurately recognize the information.
図30は、上述した第1実施例の光源レンズ18に関する第2実施例の光源レンズ50aを説明するための図であり、(a)は第2実施例の光源レンズ50aを示す側面図であり、(b)は第2実施例の光源レンズ50aを示す平面図である。尚、上述したのと同一な部材には、同一の符号を付し、その説明は省略する。
FIG. 30 is a view for explaining the
第1実施例における光源レンズ18は、各LED17に対応する凸状の非球面形状からレンズ部18aをベース18b上に一体的に並べて配置して構成されているのに対し、この第2実施例の光源レンズ50aは、LED17の各々を内包する砲弾型に形成された樹脂製レンズを各々別体に構成したものである。
The
このように、各LED17を内包する光源レンズ50aを各々別体に構成することで、各々のLED17とそれに対応する各々の光学レンズ50aとの位置が1対1で決められるので、相対的な位置精度を高めることができ、光の出射方向が揃うという効果がある。
In this manner, by configuring the
これに対し、基板16上にレンズアレイをまとめて位置合わせをすると、各々のLED17がダイボンディングされる際の位置決め誤差やレンズアレイと基板の線膨張係数の違いから、光の出射方向がバラバラになってしまう恐れがある。
On the other hand, when the lens array is collectively aligned on the
従って、投影LCD19の面には、LED17からの光の入射方向が投影LCD19の面に垂直にそろった光が照射され、投影光学系20の絞りを均一に通過できる様になるため、投影画像の照度ムラを抑えることができ、結果的に高品質な画像を投影することができる。尚、光源レンズ50aに内包されているLED17はリードおよびリフレクタからなる電極51aを介して基板16に実装されている。
Therefore, the surface of the
また、この第2実施例における1群の光源レンズ50aの外周面には、各光源レンズ50aを束ねて所定の方向に規制する枠状の弾性を有する固定部材52aが配置されている。この固定部材52aは、ゴム、プラスチック等の樹脂製材料で構成されている。
Further, on the outer peripheral surface of the group of
第2実施例の光源レンズ50aは各LED17に対して各々別体に構成されているので、各光源レンズ50aの凸状の先端部が形成する光軸の角度を正しく揃えて投影LCD19と対向するように設置することが困難である。
Since the
そこで、この固定部材52aによって1群の光源レンズ50aを取り囲み、各光源レンズ50aの外周面同士を接触させ、各光源レンズ50aの光軸が投影LCD19と正しい角度で対向するように各光源レンズ50aの位置を規制することで、各光源レンズ50aから投影LCD19に向けて光を略垂直に照射させることができる。よって、投影LCD19の面に垂直にそろった光が照射され、投影レンズの絞りを均一に通過できる様になるため、投影画像の照度ムラを抑えることができる。従って、一層、高品質な画像を投影することができる。
Therefore, the
尚、この固定部材52aは、予め所定の大きさに規定された剛性を有するものであっても良く、弾性力を有する材料で構成してその弾性力によって各光源レンズ50の位置を所定の位置に規制するようにしても良い。
The fixing
図31は、図30で説明した光源レンズ50aを所定位置に規制する固定部材52aに関する第2実施例を説明するための図であり、(a)は光源レンズ50aを固定した状態を示す斜視図であり、(b)はその部分的な断面図である。尚、上述したのと同一の部材には、同一の符号を付し、その説明は省略する。
FIG. 31 is a view for explaining a second embodiment relating to the fixing
この第2実施例の固定部材60は、各光源レンズ50aの外周面に沿った断面を有する断面視円錐形状の貫通孔60aが穿設された板状に形成されている。各光源レンズ50aは、この各貫通孔60aに差し込まれて固定される。
The fixing
また、この固定部材60と基板16との間には弾性を有する付勢プレート61が介装されており、更に、この付勢プレート61と各光源レンズ50aの下面との間には、電極51aを囲むように弾性を有する環状のOリング62が配置されている。
Further, an urging
尚、光源レンズ50aに内包されるLED17は、付勢プレート61、基板16に穿設されたスルーホールを貫通する電極51aを介して基板16に実装されている。
The
上述した固定部材60によれば、各光源レンズ50aを、その光源レンズの外周面に沿った断面を有する各貫通孔60aに各々貫通させて固定するので、上述した固定部材50aよりも、一層確実に光源レンズ50の光軸を正しい角度で投影LCD19に向くように固定することができる。
According to the fixing
また、組立時に、Oリング62の付勢力によってLED17を正しい位置に付勢して固定することができる。
Further, at the time of assembly, the
また、本装置1を運搬する場合等に生ずる可能性のある衝撃力を、Oリング62の弾性力によって吸収することができ、その衝撃の影響で光源レンズ50aの位置がずれてしまい、光源レンズ50aから垂直に投影LCD19に向けて光を照射できないという不都合を防止することができる。
Further, an impact force that may be generated when the
なお、請求項6記載の投影中撮像制御手段としては、図9のデジカメ処理におけるS706の処理、図11のwebcam処理におけるS803の処理が該当する。
Note that the imaging control unit during projection described in
また、請求項9記載の投影画像更新手段は、図11のwebcam処理におけるS805の処理が該当する。請求項10記載の三次元情報検出手段としては、図15の立体画像処理におけるS1006の処理が該当する。
Further, the projection image updating means according to
また、請求項13記載の三次元情報検出禁止手段としては、図15の立体画像処理におけるS1002gの処理が該当する。請求項14記載の解像度低下送信手段としては、図11のwebcam処理におけるS801の処理が該当する。
Further, the three-dimensional information detection prohibiting means according to
以上実施例に基づき本発明を説明したが、本発明は上記実施例に何ら限定されるものでなく、本発明の主旨を逸脱しない範囲内で種々の改良変形が可能であることは容易に推察できるものである。 Although the present invention has been described based on the embodiments, the present invention is not limited to the above-described embodiments, and various modifications can be easily made without departing from the gist of the present invention. It can be done.
例えば、上記実施例では、平面化画像モードとして、平面化された画像を取得、表示する処理を説明したが、周知のOCR機能を搭載させ、平面化された平面画像をこのOCR機能によって読み取らせるように構成しても良い。かかる場合には、OCR機能によって湾曲した状態の原稿を読み取る場合に比べて高精度に原稿に記載された文章を読み取ることができるという大きな効果を奏する。 For example, in the above-described embodiment, the process of acquiring and displaying a planarized image has been described as the planarized image mode. However, a known OCR function is installed, and the planarized planar image is read by this OCR function. You may comprise as follows. In such a case, there is a great effect that the text described on the original can be read with higher accuracy than the case of reading the original in a curved state by the OCR function.
また、上記実施例における図11のウェブカム処理は、CCD22に低解像度設定信号を送信する処理(S801)に代えて、CCD22からキャッシュメモリ28に転送する処理(S807)または撮像画像を外部ネットワークに送信する処理(S808)において、撮像画像の解像度を低下させて送信するものであっても良い。このようにしても、撮像画像の解像度を低下させることにより、その後の処理速度を向上させることができる。
In the web cam process of FIG. 11 in the above embodiment, instead of the process of transmitting the low resolution setting signal to the CCD 22 (S801), the process of transferring from the
また、上記実施例における図21のS1501においては、明暗の変化を持つ輝度画像の全部を抽出し、その全部について暫定的なCCDY値を求める場合について説明したが、抽出する輝度画像としては、全部である必要はなく、1枚以上であれば、その枚数に限定されることはない。抽出する枚数を減らすことで境界座標を高速に求めることができる。 Further, in S1501 of FIG. 21 in the above-described embodiment, a case has been described in which all luminance images having a change in brightness are extracted, and provisional CCDY values are obtained for all of them. It is not necessary that the number of sheets is limited to one or more. The boundary coordinates can be obtained at high speed by reducing the number of extractions.
また、上記実施例における図21のS1507では、fCCDY[i]を加重平均し、図22のS1607ではefCCDY[j]を近似多項式として、各値を平均化する場合について説明したが、各値を平均化する方法としては、これらに限定されるものではなく、例えば、各値の単純平均値を採る方法、各値の中央値を採用する方法、各値の近似式を算出し、その近似式における検出位置を境界座標とする方法、統計的な演算により求める方法等であっても良い。 Further, in S1507 of FIG. 21 in the above embodiment, fCCDY [i] is weighted average, and in S1607 of FIG. 22 efCCDY [j] is an approximate polynomial, each value is averaged. The averaging method is not limited to these. For example, a method of taking a simple average value of each value, a method of employing a median value of each value, calculating an approximate expression of each value, and calculating the approximate expression For example, a method of using the detection position in the boundary coordinates as a boundary coordinate, a method of obtaining by statistical calculation, or the like may be used.
また、例えば、上記実施例における平面化画像モードにおける3次元形状検出処理においては、原稿Pの3次元形状を検出するために、複数種類の明暗を交互に並べてなる縞状のパターン光を投影する場合について説明したが、3次元形状を検出するための光は、かかるパターン光に限定されるものではない。 Further, for example, in the three-dimensional shape detection process in the planar image mode in the above-described embodiment, in order to detect the three-dimensional shape of the document P, a striped pattern light formed by alternately arranging a plurality of types of light and dark is projected. Although the case has been described, the light for detecting the three-dimensional shape is not limited to such pattern light.
例えば、図32に示すように、湾曲原稿の3次元形状の検出を簡便に行う場合には、画像投影部13から2本の帯状のスリット光70,71を投影するようにしても良い。この場合には、8枚のパターン光を投影する場合にくらべ、僅か2枚の撮像画像から高速に3次元形状の検出をすることができる。
For example, as shown in FIG. 32, when the three-dimensional shape of a curved document is simply detected, two strip-shaped slit lights 70 and 71 may be projected from the
また、上記実施例における画像投影部13において、光源レンズ18と、投影LCD19と、投影光学系20とは、投影方向に沿って一直線上に備えられていたが、画像投影部13の構成は必ずしもこれに限られない。
Further, in the
図33は、画像投影部13の変形例を示す図であって、(a)は撮像ヘッド2の平面図であり、(b)、(c)は(a)のA−A視断面図である。なお、(a)は撮像ヘッド2の内部を示すために蓋部2aの記載を省略している。図33(b)、(c)に示すように、複数のレンズから構成される投影光学系20に反射ミラー200を設け、光源レンズ18から出射した光の方向を所定の投影方向に変更して投影するものであっても良い。
FIG. 33 is a diagram illustrating a modification of the
このようにすれば、反射ミラー200により光路を変更できるので、光源レンズ18、LCD19、投影光学系20は必ずしも投影方向に沿って一直線上に設ける必要はなく、画像投影部13を撮像ヘッド2の形状に合わせてコンパクトに収納することができる。
In this way, since the optical path can be changed by the
また、上記実施例は光源手段として、LEDアレイ17A、光源レンズ18を備えていたが、これらの光源手段に代えて、図33(c)に示すように、光源手段が、白色光を発光するハロゲンランプや白色LED(Light Emitting Diode)などの光源170と、光源170から発せられた白色光をLCD19に効率的に入射させるための反射板180とから構成されるものであっても良い。
Moreover, although the said Example was equipped with LED array 17A and the
また、上記実施例のデジカメ処理(図9参照)、webcam処理(図11参照)、立体画像処理(図15参照)の各処理において、撮像ケース11の小径部11bに固定された撮像部位置検出用リブ11cの位置を、撮像部位置検出センサS2により検出することで、撮像ヘッド2に対する画像撮像部14の位置を検出していたが、画像投影部13と画像撮像部14との相対的な位置関係を検出する手段はこれに限られない。例えば、所定位置固定用リブ2dが、撮像ケース11の小径部11bの一方に設けられた図示しないストッパと係合し、撮像ケース11のそれ以上の回動が規制されたことに基づいて、画像撮像部14が画像投影部13に対し所定の位置関係にあることを検出しても良い。このようにすれば、画像投影部13と画像撮像部14との位置関係が確実に所定の位置関係となった場合にのみ三次元形状の検出が許可され、三次元形状の検出をより高い精度で行うことができる。
In addition, in the digital camera processing (see FIG. 9), webcam processing (see FIG. 11), and stereoscopic image processing (see FIG. 15) of the above embodiment, the position of the imaging unit fixed to the small-
2 撮像ヘッド(投影筺体、基体)
2d 所定位置固定用リブ(固定手段)
3 アーム部材(支持部材)
4 取付部
11 撮像ケース(撮像筺体)
13 画像投影部(投影手段)
14 画像撮像部(撮像手段)
17 LED(光源手段)
19 投影LCD(空間変調手段、液晶パネル)
20 投影光学系(投影手段の一部)
21 撮像光学系(撮像手段の一部)
22 CCD(撮像手段の一部、受光素子)
26 メインバッテリ(電源部)
49 PC(基体)
200 反射ミラー(投影方向決定手段)
S2 撮像部位置検出センサ(位置判定手段)
2 Imaging head (projection housing, base)
2d rib for fixing a predetermined position (fixing means)
3 Arm member (support member)
4 Mounting
13 Image projection unit (projection means)
14 Image pickup unit (image pickup means)
17 LED (light source means)
19 Projection LCD (spatial modulation means, liquid crystal panel)
20 Projection optical system (part of projection means)
21. Imaging optical system (part of imaging means)
22 CCD (part of imaging means, light receiving element)
26 Main battery (power supply)
49 PC (base)
200 Reflection mirror (projection direction determination means)
S2 Imaging unit position detection sensor (position determination means)
Claims (14)
少なくとも前記投影方向に存在する被写体を撮像し、その撮像データを取得可能な撮像手段とを備えた画像入出力装置であって、
前記投影方向とは異なる方向に存在する被写体を前記撮像手段により撮像可能なように、前記撮像手段の撮像方向が前記投影手段の投影方向に対して相対的に変更可能に設けられていることを特徴とする画像入出力装置。 Light source means for emitting light, and spatial modulation means for spatially modulating the light emitted from the light source means to output an arbitrary image signal light, and the image signal light output by the spatial modulation means Projection means for projecting in the projection direction;
An image input / output device comprising at least an imaging means capable of capturing an image of a subject existing in the projection direction and acquiring the captured image data;
The imaging direction of the imaging unit is provided so as to be relatively changeable with respect to the projection direction of the projection unit so that a subject existing in a direction different from the projection direction can be captured by the imaging unit. A characteristic image input / output device.
前記撮像手段は、光を電気信号に変換する受光素子と、入射する光をその受光素子に結像させる撮像光学系とを有するものであって、
前記投影手段を保持する投影筺体と、その投影筺体に対し相対的に移動可能に配設された前記撮像手段を保持する撮像筺体を有することを特徴とする請求項1記載の画像入出力装置。 The spatial modulation means is composed of a liquid crystal panel, and the projection means has a projection optical system that forms an image of the image signal light output from the liquid crystal panel on a predetermined projection surface,
The imaging means includes a light receiving element that converts light into an electrical signal, and an imaging optical system that forms an image of incident light on the light receiving element,
2. The image input / output apparatus according to claim 1, further comprising: a projection housing that holds the projection means; and an imaging housing that holds the imaging means arranged to be movable relative to the projection housing.
その基体に対して前記投影手段及び前記撮像手段の少なくとも一方の位置を移動可能に支持する支持部材とを有することを特徴とする請求項1記載の画像入出力装置。 A base that supports the projection means and the imaging means;
2. The image input / output device according to claim 1, further comprising a support member that movably supports at least one position of the projection unit and the imaging unit with respect to the base.
前記基体及び前記支持部材の少なくとも一方には、前記投影手段及び前記撮像手段の少なくとも一方へ電力を供給するための電源部が設けられていることを特徴とする請求項4記載の画像入出力装置。 The support member has one end side connected to at least one of the projection unit and the imaging unit, and has an attachment portion for attaching the support member to the base on the other end side,
5. The image input / output device according to claim 4, wherein at least one of the base and the support member is provided with a power supply unit for supplying power to at least one of the projection unit and the imaging unit. .
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004171659A JP2005354306A (en) | 2004-06-09 | 2004-06-09 | Image input output apparatus |
PCT/JP2005/010470 WO2005122553A1 (en) | 2004-06-09 | 2005-06-08 | Image i/o device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004171659A JP2005354306A (en) | 2004-06-09 | 2004-06-09 | Image input output apparatus |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2005354306A true JP2005354306A (en) | 2005-12-22 |
Family
ID=35503494
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2004171659A Pending JP2005354306A (en) | 2004-06-09 | 2004-06-09 | Image input output apparatus |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP2005354306A (en) |
WO (1) | WO2005122553A1 (en) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009088881A (en) * | 2007-09-28 | 2009-04-23 | Omron Corp | Imaging system |
JP2014529925A (en) * | 2011-08-02 | 2014-11-13 | ヒューレット−パッカード デベロップメント カンパニー エル.ピー.Hewlett‐Packard Development Company, L.P. | Portable projection capture device |
US9521276B2 (en) | 2011-08-02 | 2016-12-13 | Hewlett-Packard Development Company, L.P. | Portable projection capture device |
JP2022131476A (en) * | 2021-02-26 | 2022-09-07 | レノボ・シンガポール・プライベート・リミテッド | Camera module and electronic apparatus with camera module |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101323313B1 (en) * | 2013-04-09 | 2013-10-29 | 주식회사 힘스인터내셔널 | Video magnifying apparatus |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000138856A (en) * | 1998-10-29 | 2000-05-16 | Seiko Epson Corp | Image input device, presentation system and information storage medium |
JP2003015218A (en) * | 2001-07-03 | 2003-01-15 | Ricoh Co Ltd | Projection display device |
JP4139626B2 (en) * | 2002-05-29 | 2008-08-27 | 株式会社エルモ社 | Document presentation device |
-
2004
- 2004-06-09 JP JP2004171659A patent/JP2005354306A/en active Pending
-
2005
- 2005-06-08 WO PCT/JP2005/010470 patent/WO2005122553A1/en active Application Filing
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009088881A (en) * | 2007-09-28 | 2009-04-23 | Omron Corp | Imaging system |
JP2014529925A (en) * | 2011-08-02 | 2014-11-13 | ヒューレット−パッカード デベロップメント カンパニー エル.ピー.Hewlett‐Packard Development Company, L.P. | Portable projection capture device |
US9521276B2 (en) | 2011-08-02 | 2016-12-13 | Hewlett-Packard Development Company, L.P. | Portable projection capture device |
JP2022131476A (en) * | 2021-02-26 | 2022-09-07 | レノボ・シンガポール・プライベート・リミテッド | Camera module and electronic apparatus with camera module |
Also Published As
Publication number | Publication date |
---|---|
WO2005122553A1 (en) | 2005-12-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2005293075A (en) | 3-dimensional shape detection device, 3-dimensional shape detection method, 3-dimensional shape detection program | |
JP2005293075A5 (en) | ||
US7845807B2 (en) | Projection apparatus and three-dimensional-shape detection apparatus | |
CN101852370B (en) | Illumination device for visual inspection and visual inspection apparatus | |
US9243900B2 (en) | Apparatus and method for measuring a three dimensional shape | |
WO2006035736A1 (en) | 3d information acquisition method and 3d information acquisition device | |
JP2005291839A5 (en) | ||
KR101487248B1 (en) | Optical tracking system | |
JP4552485B2 (en) | Image input / output device | |
CN112312123A (en) | Optical mechanism alignment inspection device | |
US9906695B2 (en) | Manufacturing method of imaging module and imaging module manufacturing apparatus | |
WO2005122553A1 (en) | Image i/o device | |
JP2005352835A (en) | Image i/o device | |
JP4552484B2 (en) | Image input / output device | |
US11326874B2 (en) | Structured light projection optical system for obtaining 3D data of object surface | |
JP2005293290A5 (en) | ||
US20160323486A1 (en) | Imaging module, manufacturing method of imaging module, and electronic device | |
JP2006031506A (en) | Image input-output apparatus | |
CN207691920U (en) | A kind of structure light camera module | |
JP4141874B2 (en) | Focal length and / or angle of view calculation method and focal length calculation light projection apparatus | |
US10015401B2 (en) | Imaging module, manufacturing method of imaging module, and electronic device | |
JP2006004010A (en) | Image input/output device | |
JP2006277023A (en) | Apparatus for acquiring three-dimensional information, method for creating pattern light, method for acquiring three-dimensional information, program, and recording medium | |
CN110599450A (en) | LED light source position correction method and system | |
JP2006145849A (en) | Optical device for inspection and inspecting device equipped with the same |