JP2001141430A - Image pickup device and image processing device - Google Patents

Image pickup device and image processing device

Info

Publication number
JP2001141430A
JP2001141430A JP32618599A JP32618599A JP2001141430A JP 2001141430 A JP2001141430 A JP 2001141430A JP 32618599 A JP32618599 A JP 32618599A JP 32618599 A JP32618599 A JP 32618599A JP 2001141430 A JP2001141430 A JP 2001141430A
Authority
JP
Japan
Prior art keywords
subject
image
shape pattern
unit
projected
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP32618599A
Other languages
Japanese (ja)
Inventor
Shuji Ono
修司 小野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Holdings Corp
Original Assignee
Fuji Photo Film Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Photo Film Co Ltd filed Critical Fuji Photo Film Co Ltd
Priority to JP32618599A priority Critical patent/JP2001141430A/en
Publication of JP2001141430A publication Critical patent/JP2001141430A/en
Pending legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To provide an image pickup device and an image processing device capable of easily and accurately acquiring information on the depth of a subject. SOLUTION: This image pickup device and image processing device comprise a projecting part 14 to project a shape pattern to a subject by projecting light, an image pickup part 12 to converge the light from the subject to which the shape pattern is projected and to pick up the image of the subject at a location optically different from the divergence center of light which propagates the shape pattern projected by the projecting part 14, a shape pattern detecting part 304 to detect the size of the image of the shape pattern projected to a specific area in the subject of which the image is picked up by the image pickup part 12, and a depth computing part 308 to compute the depth value of the specific area in the subject on the basis of the size detected by the shape pattern detecting part 304.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、被写体の奥行きに
関する情報を取得する画像撮像装置、画像処理装置、画
像処理方法、及び記録媒体に関する。特に本発明は、投
影パターンを撮影して被写体の奥行きに関する情報を取
得する画像撮像装置、画像処理装置、画像処理方法、及
び記録媒体に関する。
[0001] 1. Field of the Invention [0002] The present invention relates to an image pickup apparatus, an image processing apparatus, an image processing method, and a recording medium for acquiring information on the depth of a subject. In particular, the present invention relates to an image capturing apparatus, an image processing apparatus, an image processing method, and a recording medium that acquire information on the depth of a subject by capturing a projection pattern.

【0002】[0002]

【従来の技術】物体までの距離情報や物体の位置情報を
得るために、物体にスリットや縞模様などのパターン光
を投影し、物体に投影されたパターンを撮影して解析す
る三次元画像計測の手法が知られている。代表的な計測
手法として、スリット光投影法(別名、光切断法)、コ
ード化パターン光投影法などがあり、井口征士、佐藤宏
介著『三次元画像計測』(昭晃堂)に詳しい。
2. Description of the Related Art In order to obtain information on the distance to an object and information on the position of the object, three-dimensional image measurement in which a pattern light such as a slit or a striped pattern is projected on the object, and the pattern projected on the object is photographed and analyzed. Are known. Typical measurement methods include slit light projection (also known as light sectioning) and coded pattern light projection, which are detailed in Seiji Iguchi and Kosuke Sato, "Three-dimensional image measurement" (Shokodo).

【0003】また、河北他「三次元撮像装置Axi-Vision
Cameraの開発」(3次元画像コンファレンス99、199
9年)には、投影光に超高速の強度変調を加え、強度変
調光で照明された被写体を高速シャッター機能を備えた
カメラで撮影し、被写体までの距離によって変化する強
度変調度合いから、距離を測定する方法が開示されてい
る。
Also, Kahoku et al., "Axi-Vision three-dimensional imaging device"
Camera Development ”(3D Image Conference 99, 199
9 years), ultra-high-speed intensity modulation is applied to the projection light, and a subject illuminated with the intensity-modulated light is photographed with a camera equipped with a high-speed shutter function. Is disclosed.

【0004】[0004]

【発明が解決しようとする課題】従来の光投影法による
計測手法は、3角測量の原理に基づいて、投影パターン
が投影された被写体の領域までの距離を測定する。した
がって、距離測定の高い分解能を得るためには、原理的
に投影光学系と撮影光学系を十分に離して配置する必要
があり、測定装置の大型化が避けられないという問題が
生じていた。また、投影光学系と撮影光学系の光軸が離
れているために、撮影光学系から見た場合に、投影され
たパターンが被写体の陰に隠れて観察されない場所がで
き、距離情報が得られない「死角」となるという問題も
生じていた。
The conventional measuring method based on the light projection method measures a distance to a region of a subject on which a projection pattern is projected based on the principle of triangulation. Therefore, in order to obtain a high resolution of the distance measurement, it is necessary to arrange the projection optical system and the photographing optical system sufficiently in principle, and there has been a problem that the size of the measuring apparatus cannot be avoided. Also, since the optical axes of the projection optical system and the imaging optical system are far apart, when viewed from the imaging optical system, there is a place where the projected pattern is hidden behind the subject and cannot be observed, and distance information can be obtained. There was also the problem that there was no "blind spot".

【0005】また、前述の強度変調を用いた手法は、非
常に高速に光変調や光シャッター操作を行う必要があ
り、測定装置は大型で高価になり、簡便に測定すること
ができないという問題がある。
Further, the above-mentioned method using intensity modulation requires that light modulation and optical shutter operation be performed at a very high speed, and the measuring device becomes large and expensive, and cannot be easily measured. is there.

【0006】そこで本発明は、上記の課題を解決するた
めに、簡便に効率よく被写体の奥行きに関する情報を取
得することのできる画像撮像装置、画像処理装置、画像
処理方法、及び記録媒体を提供することを目的とする。
この目的は特許請求の範囲における独立項に記載の特徴
の組み合わせにより達成される。また従属項は本発明の
更なる有利な具体例を規定する。
In order to solve the above-mentioned problems, the present invention provides an image pickup apparatus, an image processing apparatus, an image processing method, and a recording medium that can easily and efficiently acquire information on the depth of a subject. The purpose is to:
This object is achieved by a combination of features described in the independent claims. The dependent claims define further advantageous embodiments of the present invention.

【0007】[0007]

【課題を解決するための手段】上記課題を解決するため
に、本発明の第1の形態においては、被写体の奥行きに
関する情報を取得する画像撮像装置であって、光を投射
して、被写体に形状パターンを投影する投影部と、投影
部が投射した形状パターンを伝達する光の発散中心とは
光学的に異なる位置において、形状パターンが投影され
た被写体における光を収斂させ、被写体を撮像する撮像
部とを備えたことを特徴とする。
According to a first aspect of the present invention, there is provided an image pickup apparatus for acquiring information relating to the depth of a subject. An imaging unit that converges light on a subject on which a shape pattern is projected at an optically different position from a projection unit that projects the shape pattern and a divergence center of light that transmits the shape pattern projected by the projection unit, and captures an image of the subject. And a unit.

【0008】撮像部が撮像する被写体の特定領域に投影
された形状パターンの像の大きさを検出する形状パター
ン検出部と、形状パターン検出部が検出した大きさに基
づいて、被写体の特定領域の奥行き値を算出する奥行き
算出部とをさらに備えてもよい。
[0008] A shape pattern detecting section for detecting the size of the image of the shape pattern projected on the specific area of the subject imaged by the imaging section, and a specific area of the subject based on the size detected by the shape pattern detecting section. The apparatus may further include a depth calculator that calculates a depth value.

【0009】投影部が被写体に光を投射するときの光軸
と、撮像部が被写体を撮像するときの光軸とが略同一で
あってもよい。撮像部及び投影部は同一光軸の光学素子
を用いて、それぞれ被写体の撮像及び被写体への光の投
射を行ってもよい。
The optical axis when the projection unit projects light onto the subject and the optical axis when the imaging unit captures the subject may be substantially the same. The imaging unit and the projection unit may perform imaging of a subject and projection of light onto the subject, respectively, using optical elements having the same optical axis.

【0010】形状パターンは2次元に配置された複数の
図形パターンであり、投影部は、複数の図形パターンを
被写体上に同時に投影し、撮影部は、複数の図形パター
ンが投影された被写体を撮像し、形状パターン検出部
は、複数の図形パターンの像の大きさをそれぞれ検出
し、奥行き算出部は、形状パターン検出部が検出した複
数の図形パターンの像のそれぞれの大きさに基づいて、
複数の図形パターンが投影された被写体の各領域の奥行
き値を算出してもよい。図形パターンは、点、線、円、
または多角形のいずれかであってもよい。
[0010] The shape pattern is a plurality of figure patterns arranged two-dimensionally. The projecting unit projects the plurality of figure patterns on the subject simultaneously, and the photographing unit captures the subject on which the plurality of figure patterns are projected. Then, the shape pattern detection unit detects the size of each of the plurality of figure pattern images, and the depth calculation unit based on the size of each of the plurality of figure pattern images detected by the shape pattern detection unit.
The depth value of each region of the subject on which a plurality of graphic patterns are projected may be calculated. Shape patterns include points, lines, circles,
Or it may be any of polygons.

【0011】本発明の第2の形態においては、被写体の
奥行きに関する情報を取得する画像撮像装置であって、
光軸に対して垂直な2つの方位によって2つの異なる光
学的な発散中心を有する光を投射して、被写体に形状パ
ターンを投影する投影部と、2つの発散中心のいずれか
1つと光学的に略同一位置にある収斂位置において、形
状パターンが投影された被写体における光を収斂させ、
被写体を撮像する撮像部とを備えたことを特徴とする。
According to a second aspect of the present invention, there is provided an image pickup apparatus for acquiring information on the depth of a subject,
A projection unit that projects light having two different optical divergence centers in two directions perpendicular to the optical axis to project a shape pattern on a subject, and optically communicates with one of the two divergence centers At the convergence position at substantially the same position, the light on the subject on which the shape pattern is projected is converged,
An imaging unit for imaging a subject.

【0012】収斂位置とは光学的に異なる位置にある発
散中心における光の発散方位について、撮像部が撮像す
る被写体の特定領域に投影された形状パターンの像の大
きさを検出する形状パターン検出部と、形状パターン検
出部が検出した形状パターンの像の発散方位の大きさに
基づいて、被写体の特定領域の奥行き値を算出する奥行
き算出部とをさらに備えてもよい。
A shape pattern detection unit for detecting the size of an image of a shape pattern projected on a specific region of a subject to be imaged by an imaging unit, with respect to a divergence direction of light at a divergence center optically different from the converging position. And a depth calculation unit that calculates a depth value of a specific region of the subject based on the size of the divergence direction of the image of the shape pattern detected by the shape pattern detection unit.

【0013】投影部が被写体に光を投影するときの光軸
と、撮像部が被写体を撮像するときの光軸とが略同一で
あってもよい。投影部は、一方向にのみパワーを有する
光学素子を用いて、2つの方位によって2つの異なる光
学的な発散中心を有する光を投射してもよい。一方向に
のみレンズパワーを有する光学素子を光軸周りに回転さ
せる駆動部をさらに備えてもよい。
[0013] The optical axis when the projection unit projects light onto the subject and the optical axis when the imaging unit captures the subject may be substantially the same. The projection unit may project light having two different optical divergence centers in two directions using an optical element having power only in one direction. A drive unit for rotating an optical element having lens power only in one direction around the optical axis may be further provided.

【0014】形状パターン検出部は、駆動部が光学素子
を光軸周りに90度回転させる前後で、光学素子のパワ
ーの方向において、形状パターンの像の大きさをそれぞ
れ検出し、奥行き算出部は、形状パターン検出部が、光
学素子の回転前後に検出した形状パターンの像の大きさ
を用いて、被写体の特定領域の奥行き値を算出してもよ
い。
The shape pattern detecting section detects the size of the shape pattern image in the direction of the power of the optical element before and after the driving section rotates the optical element by 90 degrees around the optical axis, and the depth calculating section Alternatively, the shape pattern detection unit may calculate the depth value of the specific region of the subject using the size of the image of the shape pattern detected before and after the rotation of the optical element.

【0015】本発明の第3の形態においては、被写体の
奥行きに関する情報を取得する画像撮像装置であって、
光軸に対して垂直な2つの方位によって2つの異なる光
学的な発散中心を有する光を投射して、被写体に形状パ
ターンを投影する投影部と、2つの発散中心のいずれと
も光学的に異なる位置にある収斂位置において、形状パ
ターンが投影された被写体における光を収斂させ、被写
体を撮像する撮像部とを備えたことを特徴とする。
According to a third aspect of the present invention, there is provided an image pickup apparatus for acquiring information on the depth of a subject,
A projection unit that projects light having two different optical divergence centers in two directions perpendicular to the optical axis to project a shape pattern on a subject, and a position that is optically different from any of the two divergence centers And an image capturing unit that captures an image of the subject by converging light on the subject on which the shape pattern is projected at the converging position.

【0016】2つの発散中心における光の2つの方位に
おいて、撮像部が撮像する被写体の特定領域に投影され
た形状パターンの像の2つの大きさを検出する形状パタ
ーン検出部と、形状パターン検出部が検出した形状パタ
ーンの像の2つの方位における2つの大きさを斟酌し
て、被写体の特定領域の奥行き値を算出する奥行き算出
部とをさらに備えてもよい。
A shape pattern detector for detecting two sizes of an image of a shape pattern projected on a specific area of a subject to be imaged by the imaging unit in two directions of light at two divergence centers; and a shape pattern detector. And a depth calculation unit that calculates a depth value of the specific region of the subject in consideration of two sizes in two directions of the image of the shape pattern detected by.

【0017】投影部が被写体に光を投影するときの光軸
と、撮像部が被写体を撮像するときの光軸とが略同一で
あってもよい。投影部は、光軸に対して垂直な2方向に
独立なパワーを有する光学素子を用いて、2つの方位に
よって2つの異なる光学的な発散中心を有する光を投射
してもよい。
The optical axis when the projection unit projects light onto the subject and the optical axis when the imaging unit images the subject may be substantially the same. The projection unit may project light having two different optical divergence centers in two directions using optical elements having independent powers in two directions perpendicular to the optical axis.

【0018】本発明の第3の形態においては、被写体の
奥行きに関する情報を取得する画像処理方法であって、
光を投射して、被写体に形状パターンを投影し、形状パ
ターンを伝達する光の発散中心とは光学的に異なる位置
において、形状パターンが投影された被写体における光
を収斂させ、被写体の像を撮像し、被写体の特定領域に
投影された形状パターンの像の大きさを検出し、大きさ
に基づいて、被写体の特定領域の奥行き値を算出するこ
とを特徴とする。
According to a third aspect of the present invention, there is provided an image processing method for acquiring information relating to the depth of a subject,
By projecting light, the shape pattern is projected on the subject, and at a position optically different from the divergence center of the light transmitting the shape pattern, the light on the subject on which the shape pattern is projected is converged to capture an image of the subject. Then, the size of the image of the shape pattern projected on the specific region of the subject is detected, and the depth value of the specific region of the subject is calculated based on the size.

【0019】本発明の第4の形態においては、被写体の
奥行きに関する情報を取得する画像処理方法であって、
光軸に対して垂直な2つの方位によって2つの異なる光
学的な発散中心を有する光を投射して、被写体に形状パ
ターンを投影し、2つの発散中心のいずれか1つと光学
的に略同一位置にある収斂位置において、形状パターン
が投影された被写体における光を収斂させ、被写体を撮
像し、収斂位置とは光学的に異なる位置にある発散中心
における光の発散方位について、撮像部が撮像する被写
体の特定領域に投影された形状パターンの像の大きさを
検出し、形状パターン検出部が検出した形状パターンの
像の発散方位の大きさに基づいて、被写体の特定領域の
奥行き値を算出することを特徴とする。
According to a fourth aspect of the present invention, there is provided an image processing method for acquiring information relating to the depth of a subject,
By projecting light having two different optical divergence centers in two directions perpendicular to the optical axis, a shape pattern is projected on the subject, and optically substantially at the same position as one of the two divergence centers At the convergence position, the light of the object on which the shape pattern is projected is converged to image the object, and the image pickup unit images the divergence direction of light at the divergence center at a position optically different from the convergence position Detecting the size of the image of the shape pattern projected on the specific area of the object, and calculating the depth value of the specific area of the subject based on the divergence direction of the image of the shape pattern detected by the shape pattern detection unit. It is characterized by.

【0020】本発明の第5の形態においては、被写体の
奥行きに関する情報を取得する画像処理方法であって、
光軸に対して垂直な2つの方位によって2つの異なる光
学的な発散中心を有する光を投射して、被写体に形状パ
ターンを投影し、2つの発散中心のいずれとも光学的に
異なる位置にある収斂位置において、形状パターンが投
影された被写体における光を収斂させ、被写体を撮像
し、2つの発散中心における光の2つの方位において、
撮像部が撮像する被写体の特定領域に投影された形状パ
ターンの像の2つの大きさを検出し、形状パターン検出
部が検出した形状パターンの像の2つの方位における2
つの大きさを斟酌して、被写体の特定領域の奥行き値を
算出することを特徴とする。
According to a fifth aspect of the present invention, there is provided an image processing method for acquiring information relating to the depth of a subject,
Projects light having two different optical divergence centers in two directions perpendicular to the optical axis to project a shape pattern on a subject, and converges at optically different positions from any of the two divergence centers At the position, converge the light at the object on which the shape pattern is projected, image the object, and in two directions of light at the two divergence centers,
The image pickup unit detects two sizes of the shape pattern image projected on the specific area of the subject, and detects two sizes of the shape pattern image detected by the shape pattern detection unit in two directions.
The depth value of the specific region of the subject is calculated in consideration of the three sizes.

【0021】本発明の第6の形態においては、被写体の
奥行きに関する情報を取得する画像処理装置であって、
形状パターンが投影された被写体の画像を入力する入力
部と、被写体の特定領域に投影された形状パターンの像
の大きさを検出する形状パターン検出部と、形状パター
ン検出部が検出した大きさに基づいて、被写体の特定領
域の奥行き値を算出する奥行き算出部とを備えたことを
特徴とする画像処理装置。
According to a sixth aspect of the present invention, there is provided an image processing apparatus for acquiring information relating to the depth of a subject,
An input unit for inputting an image of the subject on which the shape pattern is projected, a shape pattern detection unit for detecting the size of the shape pattern image projected on a specific area of the subject, and a size detected by the shape pattern detection unit An image processing apparatus comprising: a depth calculation unit that calculates a depth value of a specific area of a subject based on the depth calculation unit.

【0022】本発明の第7の形態においては、被写体の
奥行きに関する情報を取得するコンピュータ用のプログ
ラムを格納した記録媒体であって、プログラムが、形状
パターンが投影された被写体の画像を入力させる入力モ
ジュールと、被写体の特定領域に投影された形状パター
ンの像の大きさを検出させる形状パターン検出モジュー
ルと、形状パターン検出モジュールが検出した大きさに
基づいて、被写体の特定領域の奥行き値を算出させる奥
行き算出モジュールとを備えたことを特徴とする。
According to a seventh aspect of the present invention, there is provided a recording medium storing a computer program for acquiring information on the depth of a subject, the program comprising an input for inputting an image of the subject on which a shape pattern is projected. A module, a shape pattern detection module for detecting the size of the image of the shape pattern projected on the specific region of the subject, and calculating a depth value of the specific region of the subject based on the size detected by the shape pattern detection module. A depth calculation module.

【0023】なお上記の発明の概要は、本発明の必要な
特徴の全てを列挙したものではなく、これらの特徴群の
サブコンビネーションも又発明となりうる。
The above summary of the present invention does not list all of the necessary features of the present invention, and sub-combinations of these features may also be included in the present invention.

【0024】[0024]

【発明の実施の形態】以下、発明の実施の形態を通じて
本発明を説明するが、以下の実施形態は特許請求の範囲
にかかる発明を限定するものではなく、また、実施形態
の中で説明されている特徴の組み合わせの全てが発明の
解決手段に必須であるとは限らない。
DESCRIPTION OF THE PREFERRED EMBODIMENTS Hereinafter, the present invention will be described through embodiments of the present invention. However, the following embodiments do not limit the invention according to the claims and are described in the embodiments. Not all combinations of the features described above are essential to the solution of the invention.

【0025】(実施形態1)本発明の第1の実施形態を
説明する。図1は、画像撮像装置の一例としてのデジタ
ルカメラ10の構成図である。デジタルカメラ10に
は、デジタルスチルカメラや静止画像を撮影できるデジ
タルビデオカメラ等が含まれる。デジタルカメラ10
は、主に投影撮像ユニット20、制御ユニット40、処
理ユニット60、表示ユニット100、および操作ユニ
ット110を含む。
(Embodiment 1) A first embodiment of the present invention will be described. FIG. 1 is a configuration diagram of a digital camera 10 as an example of an image capturing device. The digital camera 10 includes a digital still camera, a digital video camera capable of capturing a still image, and the like. Digital camera 10
Mainly includes a projection imaging unit 20, a control unit 40, a processing unit 60, a display unit 100, and an operation unit 110.

【0026】投影撮像ユニット20は、投影、撮影およ
び結像に関する機構部材および電気部材を含む。投影撮
像ユニット20は、被写体を結像して撮影する撮像部1
2と、被写体に光を投影する投影部14とを有する。撮
像部12は、映像を取り込んで処理を施す撮影レンズ2
2、光路分割素子23、絞り24、シャッタ26、光学
LPF(ローパスフィルタ)28、固体撮像素子の一例
であるCCD30、および撮像信号処理部32を含む。
投影部14は、投影レンズ34、コード化パターン3
6、および光源38を含む。
The projection imaging unit 20 includes a mechanical member and an electric member related to projection, photographing, and imaging. The projection imaging unit 20 is an imaging unit 1 that forms an image of a subject and shoots it.
2 and a projection unit 14 for projecting light onto a subject. The imaging unit 12 is a photographing lens 2 that captures an image and performs processing.
2, includes an optical path dividing element 23, an aperture 24, a shutter 26, an optical LPF (low-pass filter) 28, a CCD 30 as an example of a solid-state image sensor, and an image signal processor 32.
The projection unit 14 includes a projection lens 34, a coded pattern 3
6, and a light source 38.

【0027】撮影レンズ22は、フォーカスレンズやズ
ームレンズ等からなる。撮影レンズ22を通る光は、光
路分割素子23を透過して、光学LPF28によってフ
ィルタリングされ、CCD30に受光される。この構成
により、被写体像がCCD30の受光面上に結像する。
結像した被写体像の光量に応じ、CCD30の各センサ
エレメント(図示せず)に電荷が蓄積される(以下その
電荷を「蓄積電荷」という)。蓄積電荷は、リードゲー
トパルスによってシフトレジスタ(図示せず)に読み出
され、レジスタ転送パルスによって電圧信号として順次
読み出される。
The photographing lens 22 includes a focus lens, a zoom lens, and the like. Light passing through the taking lens 22 passes through the optical path splitting element 23, is filtered by the optical LPF 28, and is received by the CCD 30. With this configuration, a subject image is formed on the light receiving surface of the CCD 30.
Charges are accumulated in each sensor element (not shown) of the CCD 30 according to the amount of light of the formed subject image (hereinafter, the charges are referred to as “accumulated charges”). The accumulated charge is read out to a shift register (not shown) by a read gate pulse, and is sequentially read out as a voltage signal by a register transfer pulse.

【0028】デジタルカメラ10は一般に電子シャッタ
機能を有するので、シャッタ26のような機械式シャッ
タは必須ではない。電子シャッタ機能を実現するため
に、CCD30にシャッタゲートを介してシャッタドレ
インが設けられる。シャッタゲートを駆動すると蓄積電
荷がシャッタドレインに掃き出される。シャッタゲート
の制御により、各センサエレメントに電荷を蓄積するた
めの時間、すなわちシャッタ速度が制御できる。
Since the digital camera 10 generally has an electronic shutter function, a mechanical shutter such as the shutter 26 is not essential. In order to realize the electronic shutter function, the CCD 30 is provided with a shutter drain via a shutter gate. When the shutter gate is driven, accumulated charges are swept out to the shutter drain. By controlling the shutter gate, the time for accumulating the electric charges in each sensor element, that is, the shutter speed can be controlled.

【0029】CCD30から出力される電圧信号、すな
わちアナログ信号は撮像信号処理部32でR、G、B成
分に色分解され、まずホワイトバランスが調整される。
つづいて撮像信号処理部32はガンマ補正を行い、必要
なタイミングでR、G、B信号を順次A/D変換し、そ
の結果得られたデジタルの画像データ(以下単に「デジ
タル画像データ」とよぶ)を処理ユニット60へ出力す
る。
A voltage signal output from the CCD 30, that is, an analog signal is color-separated into R, G, and B components by an image signal processing unit 32, and the white balance is adjusted first.
Subsequently, the imaging signal processing unit 32 performs gamma correction, sequentially A / D converts the R, G, and B signals at necessary timing, and obtains digital image data (hereinafter, simply referred to as “digital image data”) obtained as a result. ) Is output to the processing unit 60.

【0030】投影部14は、パターン光を被写体に投影
する。光源38によってコード化パターン36を照射
し、投影レンズ34及び撮影レンズ22によってパター
ンを伝達する光を被写体に投影する。ここで光路分割素
子23は、投影レンズ34を通る光源38の光を反射さ
せて、撮影レンズ22に入射させる。光路分割素子23
は、たとえばハーフミラーであってもよい。投影部14
は光源38の光を集光する図示しないコンデンサーレン
ズを備えてもよい。
The projection unit 14 projects the pattern light onto a subject. The coded pattern 36 is illuminated by the light source 38, and the light transmitting the pattern is projected onto the subject by the projection lens 34 and the taking lens 22. Here, the optical path dividing element 23 reflects the light of the light source 38 passing through the projection lens 34 and makes the light enter the photographing lens 22. Optical path splitting element 23
May be, for example, a half mirror. Projection unit 14
May include a condenser lens (not shown) that collects light from the light source 38.

【0031】投影撮像ユニット20はさらに、図示しな
いファインダとストロボを有する。ファインダには図示
しないLCDを内装してもよく、その場合、後述のメイ
ンCPU62等からの各種情報をファインダ内に表示で
きる。ストロボは、コンデンサに蓄えられたエネルギが
放電管に供給されたときそれが発光することで機能す
る。
The projection imaging unit 20 further has a finder and a strobe (not shown). An LCD (not shown) may be provided inside the finder. In this case, various information from the main CPU 62 and the like described later can be displayed in the finder. The strobe works by emitting light when energy stored in a capacitor is supplied to a discharge tube.

【0032】本実施形態のCCD30は、固体撮像素子
の一例である。固体撮像素子は、半導体化および集積化
された撮像素子で、構造上、半導体基板上に光電変換と
電荷の蓄積機能をもった画素群を二次元的に配列したも
のである。固体撮像素子は、撮影レンズ22によって結
像された光を受光し、光電変換作用によって電荷を蓄積
する。蓄積された電荷像は一定の順序に走査され、電気
信号として読み出される。
The CCD 30 of this embodiment is an example of a solid-state image sensor. A solid-state imaging device is a semiconductorized and integrated imaging device, and is a two-dimensionally arranged pixel group having a function of photoelectric conversion and charge accumulation on a semiconductor substrate in terms of structure. The solid-state imaging device receives light formed by the imaging lens 22 and accumulates electric charges by a photoelectric conversion action. The stored charge images are scanned in a certain order and read out as electric signals.

【0033】固体撮像素子は、基本的に、外部から入射
する光を受光して光電変換を行うための受光素子部を含
む半導体素子と、半導体素子を収納するパッケージと、
受光素子部への光の入射を可能にするため、パッケージ
の半導体素子と対向する位置に配置された透明保護部材
と、透明保護部材の外側表面あるいは内側において、透
明保護部材よりも高い遮光性を有する遮光部材から構成
されていることが好ましい。これにより、撮像される画
像の品質を向上させることができる。さらに透明保護部
はマイクロレンズの機能を持つことにより、結像される
画像の解像度を向上させてもよい。受光素子部と透明保
護部の間に、または、透明保護部の上または透明保護部
中にカラーフィルタを設け、カラーの画像を撮像できる
ようにしてもよい。
The solid-state image sensor basically includes a semiconductor element including a light receiving element for receiving light incident from the outside and performing photoelectric conversion, a package accommodating the semiconductor element,
In order to enable light to enter the light receiving element, a transparent protective member disposed at a position facing the semiconductor element of the package, and a light shielding property higher than the transparent protective member on the outer surface or inside of the transparent protective member. It is preferable that the light-shielding member is formed from a light-shielding member having the light-shielding member. Thereby, the quality of the captured image can be improved. Further, the transparent protective portion may have a function of a microlens to improve the resolution of an image to be formed. A color filter may be provided between the light receiving element section and the transparent protection section, or on or in the transparent protection section, so that a color image can be captured.

【0034】本実施形態のCCD30は、パターン光に
より被写体に投影された投影パターンの像の大きさを高
い精度で検出できるように、解像度が十分に高い電荷結
合素子(CCD)1次元イメージセンサ(リニアセン
サ)又は2次元イメージセンサ(エリアセンサ)イメー
ジセンサであることが望ましい。固体撮像素子としてC
CD以外に、MOSイメージセンサ、CdS−Se密着
型イメージセンサ、a−Si(アモルファスシリコン)
密着型イメージセンサ、又はバイポーラ密着型イメージ
センサのいずれかを用いてもよい。
The CCD 30 of this embodiment is a charge-coupled device (CCD) one-dimensional image sensor (CCD) having a sufficiently high resolution so that the size of the image of the projection pattern projected on the subject by the pattern light can be detected with high accuracy. It is desirable to be a linear sensor) or a two-dimensional image sensor (area sensor) image sensor. C as a solid-state image sensor
In addition to CD, MOS image sensor, CdS-Se contact type image sensor, a-Si (amorphous silicon)
Either a contact image sensor or a bipolar contact image sensor may be used.

【0035】制御ユニット40は、ズーム駆動部42、
フォーカス駆動部44、絞り駆動部46、シャッタ駆動
部48、それらを制御する制御系CPU50、測距セン
サ52、および測光センサ54をもつ。ズーム駆動部4
2などの駆動部は、それぞれステッピングモータ等の駆
動手段を有する。後述のレリーズスイッチ114の押下
に応じ、測距センサ52は被写体までの距離を測定し、
測光センサ54は被写体輝度を測定する。測定された距
離のデータ(以下単に「測距データ」という)および被
写体輝度のデータ(以下単に「測光データ」という)は
制御系CPU50へ送られる。制御系CPU50は、ユ
ーザから指示されたズーム倍率等の撮影情報に基づき、
ズーム駆動部42とフォーカス駆動部44を制御して撮
影レンズ22のズーム倍率とピントの調整を行う。
The control unit 40 includes a zoom drive unit 42,
It has a focus drive unit 44, an aperture drive unit 46, a shutter drive unit 48, a control system CPU 50 that controls them, a distance measurement sensor 52, and a photometry sensor 54. Zoom drive unit 4
The drive units such as 2 each have a drive unit such as a stepping motor. When a release switch 114 described later is pressed, the distance measurement sensor 52 measures the distance to the subject,
The photometric sensor 54 measures the brightness of the subject. The measured distance data (hereinafter simply referred to as “distance measurement data”) and the subject luminance data (hereinafter simply referred to as “photometry data”) are sent to the control system CPU 50. The control system CPU 50 is configured to perform the following operations based on shooting information such as a zoom magnification designated by the user.
The zoom drive unit 42 and the focus drive unit 44 are controlled to adjust the zoom magnification and focus of the taking lens 22.

【0036】制御系CPU50は、1画像フレームのR
GBのデジタル信号積算値、すなわちAE情報に基づい
て絞り値とシャッタ速度を決定する。決定された値にし
たがい、絞り駆動部46とシャッタ駆動部48がそれぞ
れ絞り量の調整とシャッタ26の開閉を行う。
The control system CPU 50 controls the R of one image frame.
An aperture value and a shutter speed are determined based on an integrated value of a digital signal of GB, that is, AE information. According to the determined values, the aperture driving unit 46 and the shutter driving unit 48 adjust the aperture amount and open and close the shutter 26, respectively.

【0037】制御系CPU50はまた、測光データに基
づいてストロボの発光を制御し、同時に絞り26の絞り
量を調整する。ユーザが映像の取込を指示したとき、C
CD30が電荷蓄積を開始し、測光データから計算され
たシャッタ時間の経過後、蓄積電荷が撮像信号処理部3
2へ出力される。制御系CPU50はまた、投影撮像ユ
ニット20の投影部14を制御してパターン光を被写体
に投影させ、投影撮像ユニット20の撮影部12を制御
してパターン光が投影された被写体の像を撮像させる。
The control system CPU 50 also controls the flash emission based on the photometric data, and at the same time adjusts the aperture of the aperture 26. When the user instructs to capture video, C
The CD 30 starts charge storage, and after a lapse of a shutter time calculated from the photometric data, the stored charge is transferred to the imaging signal processing unit 3.
2 is output. The control system CPU 50 also controls the projection unit 14 of the projection imaging unit 20 to project the pattern light onto the subject, and controls the imaging unit 12 of the projection imaging unit 20 to capture the image of the subject on which the pattern light is projected. .

【0038】処理ユニット60は、デジタルカメラ10
全体、とくに処理ユニット60自身を制御するメインC
PU62と、これによって制御されるメモリ制御部6
4、YC処理部70、オプション装置制御部74、圧縮
伸張処理部78、通信I/F部80を有する。メインC
PU62は、シリアル通信などにより、制御系CPU5
0との間で必要な情報をやりとりする。メインCPU6
2の動作クロックは、クロック発生器88から与えられ
る。クロック発生器88は、制御系CPU50、表示ユ
ニット100に対してもそれぞれ異なる周波数のクロッ
クを提供する。
The processing unit 60 includes the digital camera 10
The main C that controls the whole, especially the processing unit 60 itself
PU 62 and memory control unit 6 controlled by PU 62
4, a YC processing unit 70, an optional device control unit 74, a compression / decompression processing unit 78, and a communication I / F unit 80. Main C
The PU 62 is connected to the control CPU 5 by serial communication or the like.
Necessary information is exchanged with 0. Main CPU6
The second operation clock is provided from a clock generator 88. The clock generator 88 provides clocks of different frequencies to the control system CPU 50 and the display unit 100, respectively.

【0039】メインCPU62には、キャラクタ生成部
84とタイマ86が併設されている。タイマ86は電池
でバックアップされ、つねに日時をカウントしている。
このカウント値から撮影日時に関する情報、その他の時
刻情報がメインCPU62に与えられる。キャラクタ生
成部84は、撮影日時、タイトル等の文字情報を発生
し、この文字情報が適宜撮影画像に合成される。
The main CPU 62 is provided with a character generator 84 and a timer 86. The timer 86 is backed up by a battery and always counts the date and time.
From this count value, information about the shooting date and time and other time information are given to the main CPU 62. The character generation unit 84 generates character information such as a shooting date and time and a title, and the character information is appropriately combined with the captured image.

【0040】メモリ制御部64は、不揮発性メモリ66
とメインメモリ68を制御する。不揮発性メモリ66
は、EEPROM(電気的消去およびプログラム可能な
ROM)やFLASHメモリなどで構成され、ユーザー
による設定情報や出荷時の調整値など、デジタルカメラ
10の電源がオフの間も保持すべきデータが格納されて
いる。不揮発性メモリ66には、場合によりメインCP
U62のブートプログラムやシステムプログラムなどが
格納されてもよい。一方、メインメモリ68は一般にD
RAMのように比較的安価で容量の大きなメモリで構成
される。メインメモリ68は、撮像ユニット20から出
力されたデータを格納するフレームメモリとしての機
能、各種プログラムをロードするシステムメモリとして
の機能、その他ワークエリアとしての機能をもつ。不揮
発性メモリ66とメインメモリ68は、処理ユニット6
0内外の各部とメインバス82を介してデータのやりと
りを行う。
The memory control unit 64 includes a nonvolatile memory 66
And the main memory 68. Non-volatile memory 66
Is constituted by an EEPROM (electrically erasable and programmable ROM) or a flash memory, and stores data to be retained even when the power of the digital camera 10 is off, such as setting information by a user and adjustment values at the time of shipment. ing. The non-volatile memory 66 may have a main CP
A boot program or a system program of U62 may be stored. On the other hand, the main memory 68 generally has a D
It is composed of a relatively inexpensive and large-capacity memory such as a RAM. The main memory 68 has a function as a frame memory for storing data output from the imaging unit 20, a function as a system memory for loading various programs, and a function as a work area. The non-volatile memory 66 and the main memory 68
Data is exchanged with each unit inside and outside the unit 0 via the main bus 82.

【0041】YC処理部70は、デジタル画像データに
YC変換を施し、輝度信号Yと色差(クロマ)信号B−
Y、R−Yを生成する。輝度信号と色差信号はメモリ制
御部64によってメインメモリ68に一旦格納される。
圧縮伸張処理部78はメインメモリ68から順次輝度信
号と色差信号を読み出して圧縮する。こうして圧縮され
たデータ(以下単に「圧縮データ」という)は、オプシ
ョン装置制御部74を介してオプション装置76の一種
であるメモリカードへ書き込まれる。
The YC processing section 70 performs YC conversion on the digital image data, and outputs a luminance signal Y and a color difference (chroma) signal B-
Generate Y, RY. The luminance signal and the color difference signal are temporarily stored in the main memory 68 by the memory control unit 64.
The compression / decompression processing unit 78 sequentially reads out the luminance signal and the color difference signal from the main memory 68 and compresses them. The data thus compressed (hereinafter simply referred to as “compressed data”) is written to a memory card, which is a type of the optional device 76, via the optional device control section 74.

【0042】処理ユニット60はさらにエンコーダ72
をもつ。エンコーダ72は輝度信号と色差信号を入力
し、これらをビデオ信号(NTSCやPAL信号)に変
換してビデオ出力端子90から出力する。オプション装
置76に記録されたデータからビデオ信号を生成する場
合、そのデータはまずオプション装置制御部74を介し
て圧縮伸張処理部78へ与えられる。つづいて、圧縮伸
張処理部78で必要な伸張処理が施されたデータはエン
コーダ72によってビデオ信号へ変換される。
The processing unit 60 further includes an encoder 72
With. The encoder 72 receives a luminance signal and a color difference signal, converts them into a video signal (NTSC or PAL signal), and outputs the video signal from a video output terminal 90. When a video signal is generated from data recorded in the optional device 76, the data is first supplied to the compression / decompression processing unit 78 via the optional device control unit 74. Subsequently, the data subjected to the necessary expansion processing by the compression / expansion processing unit 78 is converted into a video signal by the encoder 72.

【0043】オプション装置制御部74は、オプション
装置76に認められる信号仕様およびメインバス82の
バス仕様にしたがい、メインバス82とオプション装置
76の間で必要な信号の生成、論理変換、または電圧変
換などを行う。デジタルカメラ10は、オプション装置
76として前述のメモリカードのほかに、例えばPCM
CIA準拠の標準的なI/Oカードをサポートしてもよ
い。その場合、オプション装置制御部74は、PCMC
IA用バス制御LSIなどで構成してもよい。
The optional device control section 74 generates necessary signals between the main bus 82 and the optional device 76, performs logical conversion, or converts voltage according to the signal specifications recognized by the optional device 76 and the bus specifications of the main bus 82. And so on. The digital camera 10 may include, for example, a PCM as an optional device 76 in addition to the above-described memory card.
A standard CIA-compliant standard I / O card may be supported. In that case, the optional device control unit 74
It may be constituted by an IA bus control LSI or the like.

【0044】通信I/F部80は、デジタルカメラ10
がサポートする通信仕様、たとえばUSB、RS−23
2C、イーサネット、Bluetooth、IrDAな
どの仕様に応じたプロトコル変換等の制御を行う。通信
I/F部80は、必要に応じてドライバICを含み、ネ
ットワークを含む外部機器とコネクタ92を介して通信
する。そうした標準的な仕様のほかに、例えばプリン
タ、カラオケ機、ゲーム機等の外部機器との間で独自の
I/Fによるデータ授受を行う構成としてもよい。
The communication I / F unit 80 is provided for the digital camera 10
Communication specifications supported by, for example, USB, RS-23
It performs control such as protocol conversion according to specifications such as 2C, Ethernet, Bluetooth, and IrDA. The communication I / F unit 80 includes a driver IC as necessary, and communicates with an external device including a network via a connector 92. In addition to such standard specifications, data may be exchanged with an external device such as a printer, a karaoke machine, a game machine, or the like by a unique I / F.

【0045】表示ユニット100は、LCDモニタ10
2とLCDパネル104を有する。それらはLCDドラ
イバであるモニタドライバ106、パネルドライバ10
8によってそれぞれ制御される。LCDモニタ102
は、例えば2インチ程度の大きさでカメラ背面に設けら
れ、現在の撮影や再生のモード、撮影や再生のズーム倍
率、電池残量、日時、モード設定のための画面、被写体
画像などを表示する。LCDパネル104は例えば小さ
な白黒LCDでカメラ上面に設けられ、画質(FINE
/NORMAL/BASICなど)、ストロボ発光/発
光禁止、標準撮影可能枚数、画素数、電池容量などの情
報を簡易的に表示する。
The display unit 100 includes an LCD monitor 10
2 and an LCD panel 104. These are the LCD driver monitor driver 106, panel driver 10
8 respectively. LCD monitor 102
Is provided on the back of the camera with a size of, for example, about 2 inches, and displays a current shooting and playback mode, a zoom ratio for shooting and playback, a remaining battery level, a date and time, a screen for mode setting, a subject image, and the like. . The LCD panel 104 is, for example, a small black-and-white LCD provided on the upper surface of the camera and has an image quality (FINE).
/ NORMAL / BASIC etc.), information such as strobe light emission / non-light emission, standard number of recordable images, number of pixels, battery capacity, etc. are simply displayed.

【0046】操作ユニット110は、ユーザーがデジタ
ルカメラ10の動作やそのモードなどを設定または指示
するために必要な機構および電気部材を含む。パワース
イッチ112は、デジタルカメラ10の電源のオンオフ
を決める。レリーズスイッチ114は、半押しと全押し
の二段階押し込み構造になっている。一例として、半押
しでAFおよびAEがロックし、全押しで撮影画像の取
込が行われ、必要な信号処理、データ圧縮等の後、メイ
ンメモリ68、オプション装置76等に記録される。操
作ユニット110はこれらのスイッチの他、回転式のモ
ードダイヤルや十字キーなどによる設定を受け付けても
よく、それらは図1において機能設定部116と総称さ
れている。操作ユニット110で指定できる動作または
機能の例として、「ファイルフォーマット」、「特殊効
果」、「印画」、「決定/保存」、「表示切換」等があ
る。ズームスイッチ118は、ズーム倍率を決める。
The operation unit 110 includes mechanisms and electrical members necessary for the user to set or instruct the operation and the mode of the digital camera 10. The power switch 112 determines whether the power of the digital camera 10 is turned on or off. The release switch 114 has a two-stage pressing structure of half pressing and full pressing. As an example, AF and AE are locked by a half-press, captured images are captured by a full-press, and are recorded in the main memory 68, the optional device 76, etc. after necessary signal processing, data compression, and the like. The operation unit 110 may receive a setting using a rotary mode dial, a cross key, or the like in addition to these switches, and these are collectively referred to as a function setting unit 116 in FIG. Examples of operations or functions that can be specified by the operation unit 110 include “file format”, “special effects”, “printing”, “determine / save”, and “display switching”. The zoom switch 118 determines a zoom magnification.

【0047】以上の構成による主な動作は以下のとおり
である。まずデジタルカメラ10のパワースイッチ11
2がオンされ、カメラ各部に電力が供給される。メイン
CPU62は、機能設定部116の状態を読み込むこと
で、デジタルカメラ10が撮影モードにあるか再生モー
ドにあるかを判断する。
The main operation of the above configuration is as follows. First, the power switch 11 of the digital camera 10
2 is turned on, and power is supplied to each part of the camera. The main CPU 62 determines whether the digital camera 10 is in the shooting mode or the playback mode by reading the state of the function setting unit 116.

【0048】カメラが撮影モードにあるとき、メインC
PU62はレリーズスイッチ114の半押し状態を監視
する。半押し状態が検出されたとき、メインCPU62
は測光センサ54および測距センサ52からそれぞれ測
光データと測距データを得る。得られたデータに基づい
て制御ユニット40が動作し、撮影レンズ22のピン
ト、絞りなどの調整が行われる。調整が完了すると、L
CDモニタ102に「スタンバイ」などの文字を表示し
てユーザーにその旨を伝え、つづいてレリーズスイッチ
114の全押し状態を監視する。レリーズスイッチ11
4が全押しされると、所定のシャッタ時間をおいてシャ
ッタ26が閉じられ、CCD30の蓄積電荷が撮像信号
処理部32へ掃き出される。撮像信号処理部32による
処理の結果生成されたデジタル画像データはメインバス
82へ出力される。デジタル画像データは一旦メインメ
モリ68へ格納され、この後YC処理部70と圧縮伸張
処理部78で処理を受け、オプション装置制御部74を
経由してオプション装置76へ記録される。記録された
画像は、フリーズされた状態でしばらくLCDモニタ1
02に表示され、ユーザーは撮影画像を知ることができ
る。以上で一連の撮影動作が完了する。
When the camera is in the shooting mode, the main C
The PU 62 monitors the half-pressed state of the release switch 114. When the half-pressed state is detected, the main CPU 62
Obtains photometry data and distance measurement data from the photometry sensor 54 and the distance measurement sensor 52, respectively. The control unit 40 operates based on the obtained data, and the focus, the aperture, and the like of the photographing lens 22 are adjusted. When the adjustment is completed, L
Characters such as "standby" are displayed on the CD monitor 102 to inform the user of the fact, and then the release switch 114 is monitored for a full press. Release switch 11
When the button 4 is fully pressed, the shutter 26 is closed after a predetermined shutter time, and the accumulated charges of the CCD 30 are swept out to the image signal processing unit 32. The digital image data generated as a result of the processing by the imaging signal processing unit 32 is output to the main bus 82. The digital image data is temporarily stored in the main memory 68, thereafter processed by the YC processing unit 70 and the compression / decompression processing unit 78, and recorded in the optional device 76 via the optional device control unit 74. The recorded image is frozen for a while on the LCD monitor 1
02, the user can know the captured image. Thus, a series of photographing operations is completed.

【0049】一方、デジタルカメラ10が再生モードの
場合、メインCPU62は、メモリ制御部64を介して
メインメモリ68から最後に撮影した画像を読み出し、
これを表示ユニット100のLCDモニタ102へ表示
する。この状態でユーザーが機能設定部116にて「順
送り」、「逆送り」を指示すると、現在表示している画
像の前後に撮影された画像が読み出され、LCDモニタ
102へ表示される。
On the other hand, when the digital camera 10 is in the reproduction mode, the main CPU 62 reads out the last photographed image from the main memory 68 via the memory control unit 64,
This is displayed on the LCD monitor 102 of the display unit 100. In this state, when the user instructs “forward” or “reverse” on the function setting unit 116, images taken before and after the currently displayed image are read and displayed on the LCD monitor 102.

【0050】本実施形態において、投影撮像ユニット2
0は、被写体にパターン光を投影し、パターン光が投影
された被写体の画像を撮像する。図2は、投影撮像ユニ
ット20によるパターン光の投影と撮像を説明する図で
ある。図では投影撮像ユニット20の撮像部12及び投
影部14の主要部のみを図示する。
In this embodiment, the projection imaging unit 2
0 projects the pattern light on the subject and captures an image of the subject on which the pattern light is projected. FIG. 2 is a diagram illustrating the projection and imaging of pattern light by the projection imaging unit 20. In the drawing, only the main parts of the imaging unit 12 and the projection unit 14 of the projection imaging unit 20 are shown.

【0051】投影部14は、パターン光を被写体に投影
する。コード化パターン36は、2次元に配置された複
数の図形パターンであり、一例として、図3に示すよう
に、2次元に配置された円形の図形パターンである。光
源38がコード化パターン36を照射した光(以下単に
「投影パターン光」と呼ぶ)は、投影レンズ34を通
り、光路分割素子23で反射して撮影レンズ22を通
り、被写体に投射される。投影レンズ34として凹レン
ズを用いると、投影パターン光は、投影レンズ34及び
撮影レンズ22によって発散中心Pに収斂し、発散中
心Pから放射されて被写体に投影される。投影レンズ
34として凸レンズを用いると、投影パターン光の発散
中心Pは光路上で撮影レンズ22より手前の位置にな
るが、本発明の効果は同じであるから、以下では投影レ
ンズ34として凹レンズを用いた場合について説明す
る。
The projection unit 14 projects the pattern light onto a subject. The coded pattern 36 is a plurality of two-dimensionally arranged graphic patterns, and as an example, is a two-dimensionally arranged circular figure pattern as shown in FIG. Light emitted from the light source 38 onto the coded pattern 36 (hereinafter simply referred to as “projection pattern light”) passes through the projection lens 34, is reflected by the optical path splitting element 23, passes through the photographing lens 22, and is projected on the subject. With concave as the projection lens 34, projected pattern of light is converged to the diverging center P 0 by the projection lens 34 and the imaging lens 22, it is emitted is projected onto the object from a divergent center P 0. With a convex lens as the projection lens 34, the divergence center P 0 of the projected pattern of light is made in front of the position from the photographing lens 22 on the optical path, since the effect of the present invention is the same, a concave lens as the projection lens 34 in the following The case of using this will be described.

【0052】投影パターン光により、撮影レンズ22の
位置Oから距離Z1の位置に被写体があれば、被写体上
にパターンPが投影され、距離Zの位置に被写体が
あれば、被写体上にパターンPが投影される。
If the subject is located at a distance Z 1 from the position O of the photographing lens 22 by the projection pattern light, the pattern P 1 is projected on the subject, and if the subject is located at a distance Z 2 , the pattern P 1 is projected on the subject. pattern P 2 is projected.

【0053】次に、撮像部12は、投影パターン光によ
りパターンが投影された被写体を撮像する。撮影レンズ
22は、パターンが投影された被写体における光を撮影
レンズ22の中心Oにおいて収斂させ、光路分割素子2
3を透過して、CCD30に結像させる。撮影レンズ2
2の位置Oから距離Z1の位置にある被写体上の投影パ
ターンPのCCD30における撮影像は、Iであ
り、撮影レンズ22の位置Oから距離Zの位置にある
被写体上の投影パターンPのCCD30における撮影
像は、Iである。
Next, the image pickup section 12 picks up an image of the subject on which the pattern is projected by the projection pattern light. The taking lens 22 converges the light on the subject on which the pattern is projected at the center O of the taking lens 22,
3 to form an image on the CCD 30. Shooting lens 2
The captured image on the CCD 30 of the projection pattern P 1 on the subject located at a distance Z 1 from the position O of position 2 is I 1 , and the projection pattern on the subject located at a distance Z 2 from the position O of the imaging lens 22. capturing images in CCD30 of P 2 is I 2.

【0054】撮影レンズ22の収斂位置Oと、投影パタ
ーン光の発散中心Pとは異なる位置にあるため、同一
の発散中心Pから放射された光による投影パターンP
、Pであっても、その撮影像I、Iは異なる。
本発明は、投影パターンP、Pの撮影像I、I
に違いが生じることを利用して、被写体の奥行きZ
を測定する。被写体の投影レンズ34が平面ガラス
であり、CCD30及びコード化パターン36が光学的
に等価な位置にあれば、投影パターン光の発散中心P
が撮影レンズ22の収斂位置Oと一致するため、投影パ
ターン光による投影パターンP、Pの撮影像I
は同一になり、本発明の効果が失われる。
[0054] and converging position O of the taking lens 22, due to a position different from the divergence center P 0 of the projected pattern of light, projected by the light emitted from the same divergence center P 0 pattern P
1, even in P 2, the captured image I 1, I 2 are different.
In the present invention, the captured images I 1 and I 2 of the projection patterns P 1 and P 2 are provided.
By utilizing the fact that a difference occurs in the depth Z 1 of the object,
To measure the Z 2. If the projection lens 34 of the subject is a flat glass and the CCD 30 and the coded pattern 36 are at optically equivalent positions, the divergence center P 0 of the projection pattern light
For but to match the convergence position O of the taking lens 22, pickup image I 1 of the projection pattern P 1, P 2 by the projection pattern light,
I 2 becomes the same, the effect of the present invention are lost.

【0055】次に投影パターンが投影された被写体の撮
影像を用いて、被写体の奥行きを算出する方法を述べ
る。投影パターンP、Pの撮影像I、Iは図4
に示すように、円形の図形パターンの大きさが異なる。
撮影像Iにおける円形の図形の大きさはSであるの
に対して、撮影像Iにおける円形の図形の大きさはS
である。撮影レンズ22から投影パターンP、P
までの距離Z、Zによって図形パターンの大きさS
、Sが異なり、距離が大きくなるほど、図形パター
ンの大きさが大きくなる。
Next, an image of the subject on which the projection pattern is projected is taken.
Describes how to calculate the depth of a subject using an image.
You. Projection pattern P1, P2Image I of1, I2Figure 4
As shown in the figure, the sizes of the circular graphic patterns are different.
Image I1The size of the circular figure at is S1Is
To the photographed image I2The size of the circular figure at is S
2It is. Projection pattern P from taking lens 221, P2
Distance Z to1, Z2The size S of the graphic pattern
1, S2Is different, the larger the distance, the more
The size of the button increases.

【0056】図5は、投影パターンの距離と投影パター
ンの撮影像の大きさの関係を説明する図である。撮影レ
ンズ22の位置Oから投影パターン光の発散中心P
での距離をZ、撮影レンズ22の位置OからCCD3
0までの距離をdとおく。撮影レンズ22の半径をS
とし、投影パターン光が発散中心Pから放射する角度
をαとする。また、投影パターンP、Pの図形パタ
ーンの被写体上での大きさをT、Tとする。投影パ
ターンP、Pの図形パターンのCCD30上での撮
影像の大きさは、先の説明の通りS、Sである。投
影パターンP1の図形パターンを撮影レンズ22から見
た場合の角度をβとする。投影パターン光による投影パ
ターンP1に注目すると、
FIG. 5 is a diagram for explaining the relationship between the distance of the projection pattern and the size of the photographed image of the projection pattern. The distance from the position O of the taking lens 22 to the divergence center P 0 of the projection pattern light is Z 0 , and the distance from the position O of the taking lens 22 to the CCD 3 is
The distance to 0 is set as d. Let the radius of the taking lens 22 be S 0
And then, an angle projected pattern of light is emitted from a divergent center P 0 and alpha. Also, let T 1 and T 2 be the sizes of the projection patterns P 1 and P 2 on the subject. The sizes of the captured images of the graphic patterns of the projection patterns P 1 and P 2 on the CCD 30 are S 1 and S 2 as described above. Let β be the angle when the graphic pattern of the projection pattern P1 is viewed from the taking lens 22. Focusing on the projection pattern P1 using the projection pattern light,

【0057】 T0/Z0=T1/(Z1−Z0)=tanα (1) が成り立つ。T0 / Z0 = T1 / (Z1-Z0) = tanα (1)

【0058】また、投影パターンP1の撮影像に注目す
ると、 T1/Z1=S1/d=tanβ (2) が成り立つ。(1)、(2)より未知数T1を消去する
と、
When focusing on the photographed image of the projection pattern P1, the following holds: T1 / Z1 = S1 / d = tanβ (2) When the unknown T1 is deleted from (1) and (2),

【0059】 (Z1−Z0)・T0/Z0=S1・Z1/d (3) を得る。(3)をZ1について解いて、(Z1−Z0) · T0 / Z0 = S1 · Z1 / d (3) is obtained. Solving (3) for Z1,

【0060】 Z1=T0/(T0/Z0−S1/d) (4) を得る。したがって、投影パターンP1の像の大きさS
1を検出すると、(4)式から、撮影レンズ22から投
影パターンP1までの距離Z1を求めることができる。
Z1 = T0 / (T0 / Z0−S1 / d) (4) Therefore, the size S of the image of the projection pattern P1
When 1 is detected, the distance Z1 from the taking lens 22 to the projection pattern P1 can be obtained from Expression (4).

【0061】上記の実施形態において、投影撮像ユニッ
ト20の撮影部12及び投影部14に用いられる、撮影
レンズ22及び投影レンズ34は、光学素子の一例とし
ての光学レンズである。光学レンズは複数枚の光学レン
ズを組み合わせた光学レンズ系であってもよい。光学レ
ンズは、厚いレンズの光学的性質をもつように、表面の
形状をのこぎり刃状にして斜め成分を加えた薄いレンズ
であるフレネルレンズであってもよい。光学レンズは、
表面が一般に平坦で、内部で屈折率を場所毎にだからに
しかし一定ではなく変わるようにつくられた屈折率分布
型レンズであってもよい。また、光学素子として、光学
レンズ以外に、凹面ミラー、凸面ミラーをレンズの代わ
りに使ってもよい。また、光学素子は、ホログラム光学
素子であってもよい。
In the above embodiment, the photographing lens 22 and the projection lens 34 used in the photographing unit 12 and the projecting unit 14 of the projection imaging unit 20 are optical lenses as an example of an optical element. The optical lens may be an optical lens system combining a plurality of optical lenses. The optical lens may be a Fresnel lens which is a thin lens having a saw-toothed surface and an oblique component added to have the optical properties of a thick lens. The optical lens is
It may also be a gradient index lens whose surface is generally flat and whose index of refraction inside varies from place to place but is not constant. In addition to the optical lens, a concave mirror or a convex mirror may be used as the optical element instead of the lens. Further, the optical element may be a hologram optical element.

【0062】本実施形態の処理ユニット60は、投影撮
像ユニット20の撮像部12が撮像した被写体の画像に
基づいて、被写体の奥行き情報を獲得する。図6は、処
理ユニット60の機能ブロック図である。処理ユニット
60は、画像記憶部302と、形状パターン検出部30
4と、奥行き算出部308と、記録部310とを有す
る。
The processing unit 60 of this embodiment acquires depth information of a subject based on the image of the subject captured by the imaging unit 12 of the projection imaging unit 20. FIG. 6 is a functional block diagram of the processing unit 60. The processing unit 60 includes an image storage unit 302 and a shape pattern detection unit 30
4, a depth calculation unit 308, and a recording unit 310.

【0063】画像記憶部302は、撮像部12が撮像し
た被写体の画像を記憶する。撮像部12が撮像した被写
体の画像には、投影撮像ユニット20の投影部14が投
影した図形パターンの像が含まれる。形状パターン検出
部304は、画像記憶部302が記憶する被写体の画像
において、被写体の特定領域に投影された図形パターン
の像を抽出し、図形パターンの像の大きさを検出する。
投影される図形パターンの形状は、コード化パターン3
6によって決まっているから、画像処理技術によって、
図形パターンの像を容易に抽出できる。
The image storage unit 302 stores an image of a subject captured by the image capturing unit 12. The image of the subject captured by the imaging unit 12 includes the image of the figure pattern projected by the projection unit 14 of the projection imaging unit 20. The shape pattern detection unit 304 extracts an image of the graphic pattern projected on a specific region of the subject from the image of the subject stored in the image storage unit 302, and detects the size of the image of the graphic pattern.
The shape of the projected graphic pattern is coded pattern 3
6, the image processing technology
An image of a graphic pattern can be easily extracted.

【0064】奥行き算出部308は、形状パターン検出
部304が検出した図形パターンの大きさを用いて、式
(4)より被写体の特定領域の奥行き値を算出する。形
状パターン検出部304及び奥行き算出部308によっ
て、図形パターンが投影された被写体の一部の領域また
は全部の領域について、被写体の奥行き値が算出され
る。
The depth calculation unit 308 calculates the depth value of the specific area of the subject from the equation (4) using the size of the figure pattern detected by the shape pattern detection unit 304. The shape pattern detection unit 304 and the depth calculation unit 308 calculate the depth value of the subject for a partial region or the entire region of the subject on which the graphic pattern is projected.

【0065】奥行き算出部308は算出した被写体の奥
行き情報を制御ユニット40へ入力し、制御ユニット4
0は、被写体の奥行き情報に基づいて、フォーカス駆動
部44、絞り駆動部46及びシャッタ駆動部48を制御
して、フォーカス、絞り、シャッター速度を調整しても
よい。
The depth calculator 308 inputs the calculated depth information of the subject to the control unit 40, and
0 may control the focus drive, the aperture drive 46, and the shutter drive 48 based on the depth information of the subject to adjust the focus, aperture, and shutter speed.

【0066】記録部310は、奥行き算出部308が算
出した被写体の奥行き情報、及び画像記憶部302が記
憶する被写体の画像をオプション装置76に記録させ
る。
The recording unit 310 causes the option device 76 to record the depth information of the subject calculated by the depth calculation unit 308 and the image of the subject stored in the image storage unit 302.

【0067】形状パターン検出部304は、画像処理技
術によって投影パターンの像を抽出し、投影パターンの
像の大きさを検出するため、投影パターンはできるだけ
画像処理上、大きさを検出しやすい図形パターンである
ことが好ましい。図7は、コード化パターン36の他の
例である、スリットパターンである。スリットパターン
は図形として最も単純で、画像処理で抽出しやすい。ス
リットパターンの縦方向の高さを大きさとして検出すれ
ばよい。
The shape pattern detection unit 304 extracts the image of the projection pattern by the image processing technique and detects the size of the image of the projection pattern. It is preferred that FIG. 7 is a slit pattern which is another example of the coding pattern 36. The slit pattern is the simplest as a figure and is easy to extract by image processing. What is necessary is just to detect the height of the slit pattern in the vertical direction as the size.

【0068】図8は、コード化パターン36の他の例で
ある、多角形パターンである。多角形の場合、画像処理
によってエッジ抽出して、大きさを算出する。スリット
パターンの場合は、線の端点を検出する必要があり、誤
差が生じやすい。それに対して、多角形パターンの場合
は、形を頼りにエッジを見つけることができるため、大
きさ検出に誤差を小さくすることができる。図9は、コ
ード化パターン36の他の例である、十文字パターンで
ある。十文字パターンの場合、画像処理によって、十文
字の形状と中心を抽出して、十文字の大きさを検出す
る。
FIG. 8 shows a polygon pattern which is another example of the coding pattern 36. In the case of a polygon, the size is calculated by extracting edges by image processing. In the case of the slit pattern, it is necessary to detect the end point of the line, and an error is likely to occur. On the other hand, in the case of a polygon pattern, an edge can be found by relying on the shape, so that an error can be reduced in size detection. FIG. 9 is a cross-character pattern which is another example of the coding pattern 36. In the case of a cross pattern, the shape and center of the cross are extracted by image processing, and the size of the cross is detected.

【0069】投影パターンは、必ずしも図形である必要
はなく、点の集合であってもよい。図10は、コード化
パターン36の他の例である、点パターンである。点パ
ターンが格子状に一様に配置されており、画像処理によ
って正方形の格子の4点を抽出し、正方形の1辺の長さ
から大きさを検出すればよい。しかし、点の検出は画像
処理上、困難であることも多い。そこで点の色を特徴的
な色にすることで画像処理によって投影された点パター
ンの抽出を容易にすることができる。
The projection pattern does not necessarily have to be a figure, but may be a set of points. FIG. 10 is a dot pattern, which is another example of the coding pattern 36. The point patterns are uniformly arranged in a grid pattern, and four points of a square grid may be extracted by image processing, and the size may be detected from the length of one side of the square. However, point detection is often difficult in image processing. Therefore, by making the color of the point a characteristic color, it is possible to easily extract the point pattern projected by the image processing.

【0070】また、投影パターンの像を被写体の画像か
ら抽出しやすくするために、投影パターンの図形は、被
写体に含まれない図形を用いることが好ましい。たとえ
ば被写体が縞模様や水玉模様である場合に、スリットパ
ターンや円形パターンのような投影パターンを被写体に
投影すると、画像処理で投影パターンの像を被写体の画
像から抽出することが難しくなったり、ノイズが多くな
ったりする。したがって被写体の模様に含まれない図形
パターンを人為的に作成して投影することが好ましい。
また、投影パターンの色についても、同様のことが言え
る。被写体の色に含まれない色で投影パターンを投影す
ることが、画像処理で投影パターンの像の抽出を容易に
する上で好ましい。
In order to easily extract the image of the projection pattern from the image of the subject, it is preferable to use a figure that is not included in the subject as the figure of the projection pattern. For example, if the subject is a stripe pattern or a polka dot pattern, and a projection pattern such as a slit pattern or a circular pattern is projected on the subject, it becomes difficult to extract the image of the projection pattern from the image of the subject by image processing. Or more. Therefore, it is preferable to artificially create and project a graphic pattern that is not included in the pattern of the subject.
The same can be said for the color of the projection pattern. It is preferable to project the projection pattern in a color that is not included in the color of the subject in order to facilitate the extraction of the image of the projection pattern in the image processing.

【0071】処理ユニット60の形状パターン検出部3
04及び奥行き算出部308の機能は一例として、図1
のメインCPU62と、メインメモリ68や不揮発性メ
モリ66に格納またはロードされたプログラムとの連携
によって実現することができる。メインCPU62が内
蔵メモリをもつ場合にはそのメモリに必要なプログラム
を格納し、諸機能をファームウエアとして実現してもよ
い。処理ユニット60の画像記憶部302が記憶すべき
画像データは、メインメモリ68または不揮発性メモリ
66に記憶させることができる。また画像データは圧縮
伸張処理部78によって圧縮されてもよい。処理ユニッ
ト60の記録部310の機能は一例として、オプション
装置制御部74によって実現することができる。また、
ユーザの指示を受け付ける操作ユニット110が被写体
の画像の特定領域を処理ユニット60に指示し、奥行き
算出部308は、ユーザが指定する特定領域について奥
行き値を算出してもよい。デジタルカメラ10において
処理ユニット60の上述の機能を実現する設計には相当
の自由度がある。
The shape pattern detector 3 of the processing unit 60
1 and the functions of the depth calculation unit 308 are shown in FIG.
Of the main CPU 62 and a program stored or loaded in the main memory 68 or the nonvolatile memory 66. When the main CPU 62 has a built-in memory, necessary programs may be stored in the memory and various functions may be realized as firmware. Image data to be stored in the image storage unit 302 of the processing unit 60 can be stored in the main memory 68 or the nonvolatile memory 66. The image data may be compressed by the compression / decompression processing unit 78. The function of the recording unit 310 of the processing unit 60 can be realized by the optional device control unit 74, for example. Also,
The operation unit 110 that receives the user's instruction may instruct the processing unit 60 to specify a specific area of the subject image, and the depth calculation unit 308 may calculate the depth value for the specific area specified by the user. There is considerable flexibility in designing the digital camera 10 to implement the above functions of the processing unit 60.

【0072】図11は、本実施形態の画像撮像方法のフ
ローチャートである。投影撮像ユニット20の投影部1
4が形状パターンを伝達する光を被写体に投影し(S1
00)、投影撮像ユニット20の撮像部12が、投影部
14が投影した投影パターン光の発散中心とは光学的に
異なる位置で、形状パターンが投影された被写体におけ
る光を収斂させ、被写体の画像を撮像する(S10
2)。被写体の画像の特定領域を選択する(S10
4)。特定領域の選択は、被写体の画像の領域を適当に
分割し、自動的に分割された領域を順次選択してもよい
し、ユーザが操作ユニット110を用いて指定した被写
体の画像の領域を選択してもよい。形状パターン検出部
304は、被写体の特定領域に投影された形状パターン
の像を画像処理技術によって抽出し、抽出した形状パタ
ーンの像の大きさを検出する(S106)。奥行き算出
部308は、検出された形状パターンの像の大きさを用
いて、特定領域の奥行き値を算出する(S108)。
FIG. 11 is a flowchart of the image capturing method according to the present embodiment. Projection unit 1 of projection imaging unit 20
4 projects light transmitting the shape pattern onto the subject (S1).
00), the imaging unit 12 of the projection imaging unit 20 converges the light on the subject on which the shape pattern has been projected at a position optically different from the divergence center of the projection pattern light projected by the projection unit 14, and (S10)
2). A specific area of the image of the subject is selected (S10
4). The selection of the specific area may be performed by appropriately dividing the area of the image of the subject and sequentially selecting the automatically divided areas, or selecting the area of the image of the subject specified by the user using the operation unit 110. May be. The shape pattern detection unit 304 extracts an image of the shape pattern projected on the specific region of the subject by an image processing technique, and detects the size of the image of the extracted shape pattern (S106). The depth calculation unit 308 calculates the depth value of the specific area using the size of the image of the detected shape pattern (S108).

【0073】形状パターン検出部304による投影パタ
ーン像の抽出や投影パターン像の大きさの検出について
の精度や処理コストは、撮像部12のCCD30の解像
度や画像処理を行う処理ユニット60のメインCPU6
2、不揮発性メモリ66、メインメモリ68、メインバ
ス82等の処理性能等、ハードウエア性能に依存する面
と、図形パターン像やその大きさを検出する画像処理手
法のアルゴリズム性能等、システムの機能構成に依存す
る。したがって投影パターン像を抽出して奥行き値を算
出するまでの画像処理方法や計算方法には、デジタルカ
メラ10のハードウエア構成やソフトウエア構成によっ
て、相当の変形がありうる。いずれにしても、本実施形
態の画像撮像装置によれば、パターンを投影する投影パ
ターン光の発散中心と、投影されたパターンを撮像する
光の収斂位置とを異ならせることにより、被写体に投影
されたパターン像に、被写体の奥行き値に応じた大きさ
の違いが生じることを利用して、被写体の奥行き値を効
率良く算出することができることに本質的な特徴を有
し、画像処理方法や計算方法はいろいろな変形がありう
る。
The accuracy and processing cost of extracting the projection pattern image and detecting the size of the projection pattern image by the shape pattern detection unit 304 depend on the resolution of the CCD 30 of the imaging unit 12 and the main CPU 6 of the processing unit 60 that performs image processing.
2. System functions such as the performance dependent on hardware performance, such as the processing performance of the nonvolatile memory 66, the main memory 68, the main bus 82, and the like, and the algorithm performance of the image processing method for detecting the figure pattern image and its size. Depends on configuration. Therefore, the image processing method and the calculation method from extracting the projection pattern image to calculating the depth value may vary considerably depending on the hardware configuration and software configuration of the digital camera 10. In any case, according to the image capturing apparatus of the present embodiment, the divergence center of the projection pattern light for projecting the pattern and the convergence position of the light for imaging the projected pattern are made different from each other, so that the image is projected on the subject. It has an essential feature that it is possible to efficiently calculate the depth value of the subject by utilizing the difference in size according to the depth value of the subject in the pattern image that has been obtained. The method can have many variations.

【0074】以上述べたように、本実施形態の画像撮像
装置によれば、被写体に形状パターンを投影し、形状パ
ターンが投影された被写体の画像から、被写体の奥行き
分布を算出することができる。本実施形態によれば、被
写体の全体に形状パターンを投影し、その投影像を撮像
し、撮像された画像から簡単な画像処理技術を用いて、
被写体全体の奥行き分布を算出できる。したがって、ス
リット光などの投影光を被写体の領域に順次走査させる
従来の手法に比べて、簡便に効率よく被写体の奥行き分
布を算出することができる。
As described above, according to the image pickup apparatus of the present embodiment, a shape pattern is projected on a subject, and the depth distribution of the subject can be calculated from the image of the subject on which the shape pattern is projected. According to the present embodiment, a shape pattern is projected on the entire subject, an image of the projected image is captured, and a simple image processing technique is used from the captured image.
The depth distribution of the entire subject can be calculated. Therefore, the depth distribution of the subject can be calculated easily and efficiently as compared with the conventional method of sequentially scanning the area of the subject with projection light such as slit light.

【0075】また、本実施形態によれば、投影光学系と
撮影光学系の光軸を同軸にすることができ、光学レンズ
の一部を共有して、投影と撮影の両方ができ、装置全体
を小型化し、安価に製造することができる。また、投影
光学系と撮影光学系の光軸が同軸であるため、投影パタ
ーンが投影された被写体の全領域の奥行き情報を算出す
ることができ、奥行きを算出できない死角が生じること
はない。
According to the present embodiment, the optical axes of the projection optical system and the photographing optical system can be made coaxial, and both the projection and photographing can be performed by sharing a part of the optical lens. Can be miniaturized and manufactured at low cost. Further, since the optical axes of the projection optical system and the photographing optical system are coaxial, depth information of the entire area of the subject on which the projection pattern is projected can be calculated, and there is no occurrence of a blind spot where the depth cannot be calculated.

【0076】(実施形態2)本発明の第2の実施形態を
説明する。本実施形態の画像撮像装置は、第1の実施形
態の画像撮像装置と比較して、投影撮像ユニット20の
投影部14の構成の一部が異なるだけであるから、同一
の構成要素については説明を省略し、異なる構成要素に
ついてのみ説明する。
(Embodiment 2) A second embodiment of the present invention will be described. The image capturing apparatus according to the present embodiment differs from the image capturing apparatus according to the first embodiment only in part of the configuration of the projection unit 14 of the projection imaging unit 20. Therefore, the same components will be described. Are omitted, and only different components will be described.

【0077】図12は、投影撮像ユニット20によるパ
ターン光の投影と撮像を説明する図である。本実施形態
では、投影部14の投影レンズとして、シリンドリカル
レンズ330を用いる。シリンドリカルレンズ330
は、垂直方向にのみレンズパワーを有し、水平方向の焦
線を有する凹のシリンドリカルレンズである。光源38
がコード化パターン36を照射した光(以下単に「投影
パターン光」と呼ぶ)は、シリンドリカルレンズ330
を通り、光路分割素子23で反射して撮影レンズ22を
通り、被写体に投射される。
FIG. 12 is a diagram for explaining the projection and imaging of pattern light by the projection imaging unit 20. In the present embodiment, a cylindrical lens 330 is used as a projection lens of the projection unit 14. Cylindrical lens 330
Is a concave cylindrical lens having a lens power only in the vertical direction and having a focal line in the horizontal direction. Light source 38
Irradiates the coded pattern 36 (hereinafter simply referred to as “projected pattern light”) with a cylindrical lens 330.
, Is reflected by the optical path splitting element 23, passes through the taking lens 22, and is projected onto the subject.

【0078】シリンドリカルレンズ330によって、投
影パターン光は垂直方向では発散中心Pに収斂する。
一方、シリンドリカルレンズ330は水平方向には光を
拡散しないため、投影パターン光は水平方向では撮影レ
ンズ22の中心Oに収斂する。シリンドリカルレンズ3
30として、凸のシリンドリカルレンズを用いた場合、
垂直方向の収斂位置(発散中心)が光路上で撮影レンズ
22より手前の位置になるが、本発明の効果は同じであ
るから、以下ではシリンドリカルレンズ330として凹
のシリンドリカルレンズを用いた場合について説明す
る。
[0078] by the cylindrical lens 330, projected pattern of light is vertically converging diverging center P 0.
On the other hand, since the cylindrical lens 330 does not diffuse light in the horizontal direction, the projection pattern light converges on the center O of the photographing lens 22 in the horizontal direction. Cylindrical lens 3
When a convex cylindrical lens is used as 30,
Although the vertical convergence position (the center of divergence) is located on the optical path before the taking lens 22, the effect of the present invention is the same. Therefore, a case where a concave cylindrical lens is used as the cylindrical lens 330 will be described below. I do.

【0079】投影パターン光により、撮影レンズ22の
位置Oから距離Z1の位置に被写体があれば、被写体上
にパターンPが投影され、距離Zの位置に被写体が
あれば、被写体上にパターンPが投影される。シリン
ドリカルレンズ330の効果によって、投影パターンP
1、P2は水平方向に比べて垂直方向により大きな倍率
で拡大される。
When the subject is located at a distance Z 1 from the position O of the photographing lens 22 by the projection pattern light, the pattern P 1 is projected on the subject, and when the subject is located at a distance Z 2 , the pattern P 1 is projected on the subject. pattern P 2 is projected. Due to the effect of the cylindrical lens 330, the projection pattern P
1, P2 is enlarged at a larger magnification in the vertical direction than in the horizontal direction.

【0080】次に、撮像部12は、投影パターン光によ
りパターンが投影された被写体を撮像する。撮影レンズ
22は、パターンが投影された被写体における光を撮影
レンズ22の中心Oにおいて収斂させ、光路分割素子2
3を透過して、CCD30に結像させる。撮影レンズ2
2の位置Oから距離Z1の位置にある被写体上の投影パ
ターンPのCCD30における撮影像は、Iであ
り、撮影レンズ22の位置Oから距離Zの位置にある
被写体上の投影パターンPのCCD30における撮影
像は、Iである。
Next, the image pickup section 12 picks up an image of the subject on which the pattern is projected by the projection pattern light. The taking lens 22 converges the light on the subject on which the pattern is projected at the center O of the taking lens 22,
3 to form an image on the CCD 30. Shooting lens 2
The captured image on the CCD 30 of the projection pattern P 1 on the subject located at a distance Z 1 from the position O of position 2 is I 1 , and the projection pattern on the subject located at a distance Z 2 from the position O of the imaging lens 22. capturing images in CCD30 of P 2 is I 2.

【0081】図13は、投影パターンP、Pの撮影
像I、Iを説明する図である。撮影レンズ22の収
斂位置Oと、投影パターン光の垂直方向の発散中心P
とは異なる位置にあるため、垂直方向には、投影パター
ンP、Pの撮影像I、Iは異なる。シリンドリ
カルレンズ330の垂直方向の拡散効果により、垂直方
向に大きさの違いが生じ、撮影像Iにおける円形の図
形の大きさはSであるのに対して、撮影像Iにおけ
る円形の図形の大きさはSより大きいSである。一
方、投影パターン光の水平方向の発散中心は撮影レンズ
22の収斂位置Oと同一の位置にあるため、水平方向に
は、投影パターンP、Pの撮影像I 、Iに違い
が生じない。したがって、撮影像Iにおける円形の図
形の水平方向の大きさLと撮影像Iにおける円形の
図形の水平方向の大きさはLの値は同一である。
FIG. 13 shows the projection pattern P1, P2Shooting
Statue I1, I2FIG. Receiving lens 22
Convergence position O and vertical divergence center P of projection pattern light0
Is located at a different position from the vertical
P1, P2Image I of1, I2Is different. Cylindri
Due to the vertical diffusion effect of the Cull lens 330,
The difference in size occurs in the1Circular figure in
The size of the shape is S1, Whereas the photographed image I2Smell
The size of a circular figure is S1Greater S2It is. one
The center of the horizontal divergence of the projected pattern light is the taking lens
22 is located at the same position as the convergence position O,
Is the projection pattern P1, P2Image I of 1, I2Difference
Does not occur. Therefore, the photographed image I1Circular figure in
The horizontal dimension L of the shape1And image I2Circular in
The horizontal size of the figure is L2Are the same.

【0082】このようにシリンドリカルレンズ330の
効果によって、投影パターンの撮影像は、コード化パタ
ーン36の図形パターンが被写体の奥行きによって垂直
方向にのみ伸張したものになる。投影パターンの像の垂
直方向の大きさから、第1の実施形態と同様に、投影パ
ターンが投影された被写体の領域の奥行き値を求めるこ
とができる。
As described above, due to the effect of the cylindrical lens 330, the photographed image of the projection pattern is obtained by expanding the graphic pattern of the coded pattern 36 only in the vertical direction according to the depth of the subject. From the vertical size of the image of the projection pattern, the depth value of the area of the subject on which the projection pattern is projected can be obtained as in the first embodiment.

【0083】被写体までの距離が大きくなればなるほ
ど、垂直方向に投影パターンの像が大きく伸張するた
め、垂直方向には奥行き情報を算出できる測定点の密度
が粗になる。一方、水平方向には投影パターンの撮影像
は伸張しないため、水平方向では、被写体までの距離が
大きくなっても、奥行き情報を算出できる測定点の密度
が粗になることはない。したがって水平方向にはコード
化パターン36の図形パターンの配置密度を高くするこ
とが好ましい。また、投影パターン像は垂直方向にのみ
伸張するから、図形パターンは垂直方向にのみ大きさを
検出しやすい形状であればよく、図形パターンを単純化
できる。また、垂直方向にのみ注目して大きさ検出をす
ることができるため、画像処理が容易になる。
As the distance to the subject increases, the image of the projection pattern expands greatly in the vertical direction, so that the density of measurement points at which depth information can be calculated in the vertical direction becomes coarse. On the other hand, since the captured image of the projection pattern does not expand in the horizontal direction, the density of measurement points at which depth information can be calculated does not become coarse in the horizontal direction even if the distance to the subject increases. Therefore, it is preferable to increase the arrangement density of the graphic patterns of the coded pattern 36 in the horizontal direction. Further, since the projected pattern image is expanded only in the vertical direction, the figure pattern may have any shape whose size can be easily detected only in the vertical direction, and the figure pattern can be simplified. Further, since the size can be detected by focusing only on the vertical direction, image processing is facilitated.

【0084】シリンドリカルレンズ330の効果によ
り、垂直方向には奥行き値の算出の精度は高くなるもの
の、奥行き値の測定点の密度は粗になりため、本実施形
態では、水平方向には測定点密度が高く、垂直方向には
測定点密度が低い被写体の奥行き分布情報が得られる。
投影部14はシリンドリカルレンズ330を光軸方向に
回転させる駆動部340を有してもよい。駆動部340
は、シリンドリカルレンズ330を光軸方向に90度回
転させることにより、垂直方向には測定点密度が高く、
水平方向には測定点密度が低い被写体の奥行き分布情報
を獲得することもできる。
Although the accuracy of calculating the depth value in the vertical direction increases due to the effect of the cylindrical lens 330, the density of the measurement points of the depth value becomes coarse. Is high, and depth distribution information of the subject having a low measurement point density in the vertical direction is obtained.
The projection unit 14 may include a driving unit 340 that rotates the cylindrical lens 330 in the optical axis direction. Drive unit 340
By rotating the cylindrical lens 330 by 90 degrees in the optical axis direction, the measurement point density in the vertical direction is high,
In the horizontal direction, depth distribution information of a subject having a low measurement point density can be obtained.

【0085】このようにシリンドリカルレンズ330を
回転されることにより任意の方向で測定点密度が高く、
その方向とは垂直な方向では測定点密度が低い奥行き分
布情報を得ることができる。そこで、シリンドリカルレ
ンズ330を90度だけ回転させることにより、回転の
前後に得られる2つの奥行き分布情報を合成することに
より、水平・垂直の両方で測定点密度が高い奥行き分布
情報を獲得することができる。また、駆動部340はシ
リンドリカルレンズ330とともにコード化パターン3
6を回転させてもよい。
By rotating the cylindrical lens 330 in this manner, the measurement point density is high in any direction,
In a direction perpendicular to that direction, depth distribution information with a low measurement point density can be obtained. Therefore, by rotating the cylindrical lens 330 by 90 degrees to synthesize two pieces of depth distribution information obtained before and after the rotation, it is possible to obtain depth distribution information having a high measurement point density in both horizontal and vertical directions. it can. Further, the driving unit 340 includes the coding pattern 3 together with the cylindrical lens 330.
6 may be rotated.

【0086】図14は、本実施形態の画像撮像方法のフ
ローチャートである。シリンドリカルレンズ330が、
垂直方向にパワーを有する場合について説明する。投影
撮像ユニット20の投影部14が、水平・垂直方向の2
つの発散中心をもつ形状パターンを伝達する光を被写体
に投影し(S200)、投影撮像ユニット20の撮像部
12が、投影部14が投影した投影パターン光の水平方
向の発散中心と光学的に同一の位置において、形状パタ
ーンが投影された被写体における光を収斂させ、被写体
の画像を撮像する(S202)。被写体の画像の特定領
域を選択する(S204)。特定領域の選択は、被写体
の画像の領域を適当に分割し、自動的に分割された領域
を順次選択してもよいし、ユーザが操作ユニット110
を用いて指定した被写体の画像の領域を選択してもよ
い。形状パターン検出部304は、被写体の特定領域に
投影された形状パターンの像を画像処理技術によって抽
出し(S206)、抽出した形状パターンの像の垂直方
向の大きさを検出する(S208)。奥行き算出部30
8は、検出された形状パターンの像の大きさを用いて、
特定領域の奥行き値を算出する(S210)。
FIG. 14 is a flowchart of the image capturing method according to the present embodiment. The cylindrical lens 330 is
A case in which power is provided in the vertical direction will be described. The projection unit 14 of the projection imaging unit 20 has two horizontal and vertical directions.
The light transmitting the shape pattern having two divergence centers is projected onto the subject (S200), and the imaging unit 12 of the projection imaging unit 20 is optically identical to the horizontal divergence center of the projection pattern light projected by the projection unit 14. At the position, the light on the subject on which the shape pattern is projected is converged to capture an image of the subject (S202). A specific area of the image of the subject is selected (S204). For the selection of the specific area, the area of the image of the subject may be appropriately divided, and the automatically divided areas may be sequentially selected.
May be used to select a region of the image of the designated subject. The shape pattern detection unit 304 extracts the image of the shape pattern projected on the specific area of the subject by using the image processing technique (S206), and detects the size of the extracted image of the shape pattern in the vertical direction (S208). Depth calculator 30
8, using the size of the image of the detected shape pattern,
The depth value of the specific area is calculated (S210).

【0087】シリンドリカルレンズ330が、水平方向
にレンズパワーを有する場合、撮像部12は、投影部1
4が投影した投影パターン光の垂直方向の発散中心と光
学的に同一の位置において、形状パターンが投影された
被写体における光を収斂させ、被写体の画像を撮像す
る。形状パターン検出部304は形状パターンの水平方
向の大きさを検出する。その他の処理は同様である。
When the cylindrical lens 330 has a lens power in the horizontal direction, the imaging unit 12
At a position optically the same as the vertical divergence center of the projection pattern light projected by 4, the light on the subject on which the shape pattern is projected is converged to capture an image of the subject. The shape pattern detection unit 304 detects the horizontal size of the shape pattern. Other processes are the same.

【0088】図15は、本実施形態の他の画像撮像方法
のフローチャートである。投影部14は駆動部340を
有し、シリンドリカルレンズ330を光軸方向に90度
回転させて、パターン光を投影することができる。投影
撮像ユニット20の投影部14が、水平・垂直方向の2
つの発散中心をもつ形状パターンを伝達する光を被写体
に投影し(S300)、投影撮像ユニット20の撮像部
12が、投影部14が投影した投影パターン光の水平方
向の発散中心と光学的に同一の位置において、形状パタ
ーンが投影された被写体における光を収斂させ、被写体
の画像を撮像する(S302)。形状パターン検出部3
04は、被写体に投影された形状パターンの像を画像処
理技術によって抽出し(S304)、抽出した形状パタ
ーンの像の垂直方向の大きさを検出する(S306)。
奥行き算出部308は、検出された形状パターンの像の
大きさを用いて、形状パターンが投影された被写体全体
の第1の奥行き分布を算出する(S308)。投影部1
4が、水平・垂直方向の2つの発散中心をもつ形状パタ
ーンを伝達する光を被写体に投影し(S310)、投影
撮像ユニット20の撮像部12が、投影部14が投影し
た投影パターン光の垂直方向の発散中心と光学的に同一
の位置において、形状パターンが投影された被写体にお
ける光を収斂させ、被写体の画像を撮像する(S31
2)。形状パターン検出部304は、被写体に投影され
た形状パターンの像を画像処理技術によって抽出し(S
314)、抽出した形状パターンの像の水平方向の大き
さを検出する(S316)。奥行き算出部308は、検
出された形状パターンの像の大きさを用いて、形状パタ
ーンが投影された被写体全体の第2の奥行き分布を算出
する(S318)。第1の奥行き分布と第2の奥行き分
布を合成して、被写体の奥行き分布を得る(S32
0)。
FIG. 15 is a flowchart of another image pickup method according to the present embodiment. The projection unit 14 has a driving unit 340, and can rotate the cylindrical lens 330 by 90 degrees in the optical axis direction to project the pattern light. The projection unit 14 of the projection imaging unit 20 has two horizontal and vertical directions.
The light transmitting the shape pattern having two divergence centers is projected onto the subject (S300), and the imaging unit 12 of the projection imaging unit 20 is optically identical to the horizontal divergence center of the projection pattern light projected by the projection unit 14. At the position, the light on the subject on which the shape pattern is projected is converged to capture an image of the subject (S302). Shape pattern detector 3
In step S304, an image of the shape pattern projected on the subject is extracted by an image processing technique (S304), and the size of the extracted image of the shape pattern in the vertical direction is detected (S306).
The depth calculation unit 308 calculates a first depth distribution of the entire subject on which the shape pattern is projected, using the size of the image of the detected shape pattern (S308). Projection unit 1
4 projects light transmitting a shape pattern having two divergence centers in the horizontal and vertical directions onto the subject (S310), and the imaging unit 12 of the projection imaging unit 20 causes the projection pattern light projected by the projection unit 14 to be vertical. At the optically same position as the divergence center in the direction, the light on the subject on which the shape pattern is projected is converged to capture an image of the subject (S31).
2). The shape pattern detection unit 304 extracts an image of the shape pattern projected on the subject by an image processing technique (S
314), the horizontal size of the image of the extracted shape pattern is detected (S316). The depth calculation unit 308 calculates a second depth distribution of the entire subject on which the shape pattern is projected, using the size of the image of the detected shape pattern (S318). The depth distribution of the subject is obtained by combining the first depth distribution and the second depth distribution (S32
0).

【0089】第1の奥行き分布は、水平方向には測定点
密度が高く、垂直方向には測定点密度が低い。第2の奥
行き分布は、逆に垂直方向には測定点密度が高く、水平
方向には測定点密度が低い。したがって、第1の奥行き
分布と第2の奥行き分布とを組み合わせることにより、
水平方向にも垂直方向にも測定点密度が高い被写体の奥
行き分布が得られる。
The first depth distribution has a high measurement point density in the horizontal direction and a low measurement point density in the vertical direction. Conversely, the second depth distribution has a high density of measurement points in the vertical direction and a low density of measurement points in the horizontal direction. Therefore, by combining the first depth distribution and the second depth distribution,
A depth distribution of a subject having a high measurement point density in both the horizontal and vertical directions can be obtained.

【0090】さらに、シリンドリカルレンズ330の代
わりに、水平方向及び垂直方向に異なるレンズパワーを
有するアナモルフィック光学レンズ系を用いてもよい。
アナモルフィック光学系は、垂直方向にパワーを有する
シリンドリカルレンズと水平方向にパワーを有するシリ
ンドリカルレンズを組み合わせて構成してもよく、図1
6、図17、図18のように垂直方向及び水平方向にそ
れぞれ異なるレンズパワーを有するアナモルフィックレ
ンズを用いても良い。図16は、前面が凸、背面が凹の
アナモルフィックレンズの斜視図である。図17は、前
面が弱凸、背面が強凸のアナモルフィックレンズの斜視
図である。図18は、前面が弱凹、背面が強凹のアナモ
ルフィックレンズの斜視図である。
Further, instead of the cylindrical lens 330, an anamorphic optical lens system having different lens powers in the horizontal and vertical directions may be used.
The anamorphic optical system may be configured by combining a cylindrical lens having power in the vertical direction and a cylindrical lens having power in the horizontal direction.
6, an anamorphic lens having different lens powers in the vertical and horizontal directions as shown in FIGS. 17 and 18 may be used. FIG. 16 is a perspective view of an anamorphic lens having a convex front surface and a concave rear surface. FIG. 17 is a perspective view of an anamorphic lens whose front surface is weakly convex and whose back surface is strongly convex. FIG. 18 is a perspective view of an anamorphic lens having a slightly concave front surface and a strongly concave rear surface.

【0091】図16〜18のいずれのアナモルフィック
レンズでも垂直方向と水平方向に異なるレンズパワーを
有する。このためアナモルフィック光学系を用いた投影
部14が投射する投影パターン光は、撮影レンズ22の
中心Oとは光学的に異なる位置で、垂直方向及び水平方
向の発散中心を有する。したがって、撮影部12が撮影
する投影パターン像は、被写体の奥行きに応じて垂直方
向にも水平方向にも異なる倍率で伸張するので、投影パ
ターン像の垂直方向、水平方向のいずれの大きさを用い
ても奥行き値を算出することができる。
Each of the anamorphic lenses in FIGS. 16 to 18 has different lens power in the vertical and horizontal directions. Therefore, the projection pattern light projected by the projection unit 14 using the anamorphic optical system has a divergence center in the vertical direction and the horizontal direction at a position optically different from the center O of the photographing lens 22. Therefore, the projection pattern image captured by the imaging unit 12 is expanded at different magnifications in both the vertical and horizontal directions according to the depth of the subject, so that either the vertical or horizontal size of the projection pattern image is used. However, the depth value can be calculated.

【0092】図19は、本実施形態の他の画像撮像方法
のフローチャートである。投影撮像ユニット20の投影
部14の投影レンズとしてアナモルフィックレンズを用
いる。投影部14が、水平・垂直方向の2つの発散中心
をもつ形状パターンを伝達する光を被写体に投影し(S
400)、投影撮像ユニット20の撮像部12が、投影
部14が投影した投影パターン光の水平・垂直方向の発
散中心のいずれとも光学的に異なる位置において、形状
パターンが投影された被写体における光を収斂させ、被
写体の画像を撮像する(S402)。被写体の画像の特
定領域を選択する(S404)。形状パターン検出部3
04は、被写体の特定領域に投影された形状パターンの
像を画像処理技術によって抽出し(S406)、抽出し
た形状パターンの像の水平・垂直方向の大きさをそれぞ
れ検出する(S408)。奥行き算出部308は、検出
された形状パターンの像の水平・垂直方向の大きさに基
づいて、特定領域の奥行き値を算出する(S210)。
水平・垂直方向の大きさの平均を計算し、奥行き値の算
出に用いてもよく、水平・垂直方向の大きさの検出精度
のよい方を奥行き値の算出に用いてもよい。
FIG. 19 is a flowchart of another image pickup method according to the present embodiment. An anamorphic lens is used as a projection lens of the projection unit 14 of the projection imaging unit 20. The projection unit 14 projects light transmitting a shape pattern having two divergence centers in the horizontal and vertical directions onto the subject (S
400), the imaging unit 12 of the projection imaging unit 20 emits light from the subject on which the shape pattern is projected at a position optically different from any of the horizontal and vertical divergence centers of the projection pattern light projected by the projection unit 14. The convergence is performed, and an image of the subject is captured (S402). A specific area of the subject image is selected (S404). Shape pattern detector 3
In step S406, the image of the shape pattern projected on the specific area of the subject is extracted by an image processing technique (S406), and the horizontal and vertical sizes of the extracted image of the shape pattern are detected (S408). The depth calculation unit 308 calculates the depth value of the specific area based on the horizontal and vertical sizes of the image of the detected shape pattern (S210).
The average of the horizontal and vertical sizes may be calculated and used for calculating the depth value, or the one with better detection accuracy for the horizontal and vertical sizes may be used for calculating the depth value.

【0093】このように、水平・垂直方向にレンズパワ
ーを有するアナモルフィックレンズを用いた場合、水平
・垂直の両方向において大きさを検出して、奥行き値の
算出に用いることにより、奥行き値計算の精度を向上さ
せることができる。
As described above, when the anamorphic lens having the lens power in the horizontal and vertical directions is used, the size is detected in both the horizontal and vertical directions, and is used for calculating the depth value. Accuracy can be improved.

【0094】上記の実施形態において、シリンドリカル
レンズ、アナモルフィックレンズは、光学素子の一例と
しての光学レンズである。シリンドリカルレンズ、アナ
モルフィックレンズは、円柱形のレンズである必要はな
く、シリンドリカルレンズ、アナモルフィックレンズの
光学的性質をもつように、表面の形状をのこぎり刃状に
して斜め成分を加えた薄いレンズであるフレネルレンズ
であってもよい。
In the above embodiment, the cylindrical lens and the anamorphic lens are optical lenses as an example of the optical element. The cylindrical lens and anamorphic lens do not need to be cylindrical lenses, but have a sawtooth-shaped surface with a diagonal component to have the optical properties of a cylindrical lens and anamorphic lens. The lens may be a Fresnel lens.

【0095】以上述べたように、本実施形態の画像撮像
装置によれば、水平・垂直方向の2つの発散中心をもつ
投影光によって被写体に形状パターンを投影し、形状パ
ターンが投影された被写体の画像から、被写体の奥行き
分布を算出することができる。水平または垂直方向にの
み投影パターンを伸張させることができるため、大きさ
検出の画像処理が容易になる。また、水平・垂直の両方
向に投影パターンを異なる倍率で伸張させることもで
き、水平・垂直の両方向で大きさ検出をして、奥行き値
の算出の精度を向上させることができる。
As described above, according to the image pickup apparatus of the present embodiment, the shape pattern is projected on the subject by the projection light having two divergence centers in the horizontal and vertical directions, and the shape of the subject on which the shape pattern is projected is obtained. From the image, the depth distribution of the subject can be calculated. Since the projection pattern can be expanded only in the horizontal or vertical direction, image processing for size detection is facilitated. In addition, the projection pattern can be expanded at different magnifications in both the horizontal and vertical directions, and the size can be detected in both the horizontal and vertical directions to improve the accuracy of calculating the depth value.

【0096】(実施形態3)本発明の第3の実施形態を
説明する。図20は、画像処理装置の一例としての、写
真画像の現像や編集等を行うラボシステム200の構成
図である。本実施形態のラボシステム200は、入力部
210と、処理部220と、記録部240と、出力部2
50とを有する。
(Embodiment 3) A third embodiment of the present invention will be described. FIG. 20 is a configuration diagram of a lab system 200 that develops and edits a photographic image as an example of an image processing apparatus. The lab system 200 of the present embodiment includes an input unit 210, a processing unit 220, a recording unit 240, and an output unit 2
50.

【0097】入力部210は、被写体の画像データを入
力する。画像データとして、形状パターンが投影された
被写体の画像を入力する。デジタルカメラ等で撮影され
た被写体のデジタル画像を入力する場合、入力部210
には、半導体メモリカード等の着脱自在な記録媒体から
画像データを読み取るための読み取り装置が用いられ
る。また、フロッピーディスク、MO、CD−ROM等
から画像データを読み取る場合は、入力部210とし
て、それぞれフロッピードライブ、MOドライブ、CD
ドライブ等が用いられてもよい。
The input section 210 inputs image data of a subject. As the image data, an image of the subject on which the shape pattern is projected is input. When inputting a digital image of a subject photographed by a digital camera or the like, the input unit 210
For this, a reading device for reading image data from a removable recording medium such as a semiconductor memory card is used. When image data is read from a floppy disk, MO, CD-ROM, or the like, a floppy drive, MO drive, CD
A drive or the like may be used.

【0098】処理部220は、入力部210が入力した
被写体の画像を記憶し、被写体の奥行き情報を算出す
る。処理部220は算出した奥行き情報を被写体の画像
とともに記録部240に出力する。また処理部220は
算出した奥行き情報をもとに、被写体の画像を処理し
て、記録部240と出力部250に出力してもよい。
The processing section 220 stores the image of the subject input by the input section 210 and calculates depth information of the subject. The processing unit 220 outputs the calculated depth information to the recording unit 240 together with the image of the subject. The processing unit 220 may process the image of the subject based on the calculated depth information and output the processed image to the recording unit 240 and the output unit 250.

【0099】記録部240は、処理部220が出力した
奥行き情報または画像データを着脱自在な記録媒体に記
録する。記録媒体として、書き込み可能なCD−RO
M、DVD等の光記録媒体や、MO等の光磁気記録媒
体、フロッピーディスク等の磁気記録媒体等が用いられ
る。記録部240として、CD−Rドライブ、DVDド
ライブ、MOドライブ、フロッピードライブ等が用いら
れる。また、記録部240は、フラッシュメモリ、メモ
リカード等の半導体メモリに奥行き情報または画像デー
タを記録してもよい。
The recording section 240 records the depth information or image data output from the processing section 220 on a removable recording medium. Writable CD-RO as recording medium
Optical recording media such as M and DVD, magneto-optical recording media such as MO, and magnetic recording media such as floppy disks are used. As the recording unit 240, a CD-R drive, a DVD drive, an MO drive, a floppy drive, or the like is used. The recording unit 240 may record depth information or image data in a semiconductor memory such as a flash memory or a memory card.

【0100】出力部250は、処理部220が出力した
被写体の処理された画像データを画像として出力する。
例えば画像を画面表示する場合、出力部250には画像
を表示するモニタが用いられる。また例えば画像を印刷
する場合、出力部250にはデジタルプリンタやレーザ
プリンタ等のプリンタが用いられる。
The output section 250 outputs the processed image data of the subject output by the processing section 220 as an image.
For example, when displaying an image on a screen, a monitor that displays the image is used as the output unit 250. For example, when printing an image, a printer such as a digital printer or a laser printer is used as the output unit 250.

【0101】図21は、処理部220の機能構成図であ
る。処理部220は、画像記憶部302と、形状パター
ン検出部304と、奥行き算出部308と、画像処理部
312とを有する。
FIG. 21 is a functional block diagram of the processing section 220. The processing unit 220 includes an image storage unit 302, a shape pattern detection unit 304, a depth calculation unit 308, and an image processing unit 312.

【0102】画像記憶部302は、入力部210が入力
した被写体の画像データをRAM等の半導体メモリまた
はハードディスク等の磁気記録媒体に記憶する。形状パ
ターン検出部304は、画像記憶部302が記憶する被
写体の特定領域に投影された形状パターンの像を抽出
し、形状パターンの像の大きさを検出する。奥行き算出
部308は、形状パターン検出部304が検出した大き
さを用いて、被写体の特定領域の奥行き値を算出する。
The image storage unit 302 stores the image data of the subject input by the input unit 210 in a semiconductor memory such as a RAM or a magnetic recording medium such as a hard disk. The shape pattern detection unit 304 extracts an image of the shape pattern projected on a specific area of the subject stored in the image storage unit 302, and detects the size of the image of the shape pattern. The depth calculation unit 308 calculates the depth value of the specific region of the subject using the size detected by the shape pattern detection unit 304.

【0103】形状パターン検出部304及び奥行き算出
部308が、被写体の画像に撮像された被写体の一部の
領域または全部の領域について、被写体の奥行き情報を
算出する処理については、第1の実施形態と同じである
から、説明を省略する。
The processing in which the shape pattern detecting unit 304 and the depth calculating unit 308 calculate the depth information of the subject for a partial or entire region of the subject captured in the subject image is described in the first embodiment. Therefore, the description is omitted.

【0104】画像処理部312は、奥行き算出部308
が算出した被写体の奥行き情報に基づいて、被写体の画
像を処理する。画像処理部312は、被写体の奥行き情
報、被写体の画像、または処理された画像を記憶部24
0と出力部250に出力する。
The image processing section 312 includes a depth calculating section 308
The image of the subject is processed based on the depth information of the subject calculated by. The image processing unit 312 stores the depth information of the subject, the image of the subject, or the processed image in the storage unit 24.
0 and output to the output unit 250.

【0105】画像処理部312は、被写体の奥行き情報
に基づいて被写体の特定部分、たとえば、主要被写体や
背景の画像を抽出してもよい。
The image processing section 312 may extract a specific part of the subject, for example, an image of the main subject or the background, based on the depth information of the subject.

【0106】本実施形態の画像処理装置によれば、形状
パターンが投影された被写体の画像を入力して、被写体
の奥行き情報を算出することができる。また算出された
奥行き情報に基づいて、画像処理を行い、主要被写体や
背景の画像を抽出することができる。
According to the image processing apparatus of the present embodiment, it is possible to input the image of the subject on which the shape pattern is projected, and calculate the depth information of the subject. Further, image processing can be performed based on the calculated depth information to extract images of the main subject and the background.

【0107】(実施形態4)本発明の第4の実施形態を
説明する。図22は、画像処理装置の構成図である。本
実施形態の画像処理装置の基本的な構成及び動作は、第
2の実施形態の画像処理装置と同様である。本実施形態
では、画像処理装置の処理部220として、パーソナル
コンピュータやワークステーション等の電子計算機を用
いる点が、第2の実施形態と異なる。
(Embodiment 4) A fourth embodiment of the present invention will be described. FIG. 22 is a configuration diagram of the image processing apparatus. The basic configuration and operation of the image processing apparatus according to the present embodiment are the same as those of the image processing apparatus according to the second embodiment. The present embodiment differs from the second embodiment in that an electronic computer such as a personal computer or a workstation is used as the processing unit 220 of the image processing apparatus.

【0108】図22を参照しながら、本実施形態の処理
部220のハードウエア構成を説明する。CPU230
はROM232及びRAM234に格納されたプログラ
ムに基づいて動作する。キーボード、マウス等の入力装
置231を介して利用者によりデータが入力される。ハ
ードディスク233は、画像等のデータ、及びCPU2
30を動作させるプログラムを格納する。CD−ROM
ドライブ235はCD−ROM290からデータ又はプ
ログラムを読み取り、RAM234、ハードディスク2
33及びCPU230の少なくともいずれかに提供す
る。
The hardware configuration of the processing section 220 according to the present embodiment will be described with reference to FIG. CPU 230
Operate based on programs stored in the ROM 232 and the RAM 234. Data is input by a user via an input device 231 such as a keyboard and a mouse. The hard disk 233 stores data such as images and the CPU 2
30 is stored. CD-ROM
The drive 235 reads data or a program from the CD-ROM 290,
33 and the CPU 230.

【0109】CPU230が実行するプログラムの機能
構成は、第3の実施形態の画像処理装置の処理部220
の機能構成と同じであり、画像記憶モジュールと、形状
パターン検出モジュールと、奥行き算出モジュールと、
画像処理モジュールとを有する。
The functional configuration of the program executed by the CPU 230 is the same as that of the processing unit 220 of the image processing apparatus according to the third embodiment.
The image storage module, the shape pattern detection module, the depth calculation module,
An image processing module.

【0110】画像記憶モジュール、形状パターン検出モ
ジュール、奥行き算出モジュール、及び画像処理モジュ
ールが、CPU230に行わせる処理は、それぞれ、第
3の実施形態の画像処理装置の処理部220における、
視差画像記憶部302、形状パターン検出部304、奥
行き算出部308、及び画像処理部312の機能及び動
作と同じであるから、説明を省略する。これらのプログ
ラムは、CD−ROM290等の記録媒体に格納されて
利用者に提供される。記録媒体の一例としてのCD−R
OM290には、本出願で説明した画像処理装置の動作
の一部又は全ての機能を格納することができる。
The processing that the image storage module, the shape pattern detection module, the depth calculation module, and the image processing module cause the CPU 230 to perform are respectively performed by the processing unit 220 of the image processing apparatus of the third embodiment.
The functions and operations of the parallax image storage unit 302, the shape pattern detection unit 304, the depth calculation unit 308, and the image processing unit 312 are the same, and a description thereof will be omitted. These programs are stored in a recording medium such as the CD-ROM 290 and provided to the user. CD-R as an example of a recording medium
The OM 290 can store some or all functions of the operation of the image processing apparatus described in the present application.

【0111】上記のプログラムは記録媒体から直接RA
M234に読み出されてCPU230により実行されて
もよい。あるいは、上記のプログラムは記録媒体からハ
ードディスク233にインストールされ、RAM234
に読み出されてCPU230により実行されてもよい。
The above program is directly stored in the RA from the recording medium.
It may be read by M234 and executed by the CPU 230. Alternatively, the above program is installed on the hard disk 233 from a recording medium,
And may be executed by the CPU 230.

【0112】記録媒体としては、CD−ROM290の
他にも、ハードディスク、ROMやRAM等のメモリ、
DVDやPD等の光学記録媒体、フロッピーディスクや
ミニディスク(MD)等の磁気記録媒体、MO等の光磁
気記録媒体、テープ状記録媒体、不揮発性の半導体メモ
リカード等を用いることができる。
As a recording medium, in addition to the CD-ROM 290, a hard disk, a memory such as a ROM or a RAM,
An optical recording medium such as a DVD or PD, a magnetic recording medium such as a floppy disk or a mini disk (MD), a magneto-optical recording medium such as an MO, a tape-shaped recording medium, and a nonvolatile semiconductor memory card can be used.

【0113】上記のプログラムは、単一の記録媒体に格
納されてもよいし、複数の記録媒体に分割されて格納さ
れてもよい。また、上記プログラムは記録媒体に圧縮さ
れて格納されてもよい。圧縮されたプログラムは伸張さ
れ、RAM234等の別の記録媒体に読み出され、実行
されてもよい。さらに、圧縮されたプログラムはCPU
230によって伸張され、ハードディスク233等にイ
ンストールされた後、RAM234等の別の記録媒体に
読み出され、実行されてもよい。
The program described above may be stored on a single recording medium, or may be divided and stored on a plurality of recording media. Further, the program may be compressed and stored in a recording medium. The compressed program may be decompressed, read to another recording medium such as the RAM 234, and executed. Furthermore, the compressed program is a CPU
After being decompressed by 230 and installed on the hard disk 233 or the like, it may be read to another recording medium such as the RAM 234 and executed.

【0114】さらに、記録媒体の一例としてのCD−R
OM290は、通信ネットワークを介して、ホストコン
ピュータによって提供される上記のプログラムを格納し
てもよい。記録媒体に格納された上記のプログラムは、
ホストコンピュータのハードディスクに格納され、通信
ネットワークを介してホストコンピュータから当該コン
ピュータに送信され、RAM234等の別の記録媒体に
読み出され、実行されてもよい。
Furthermore, a CD-R as an example of a recording medium
The OM 290 may store the program provided by the host computer via the communication network. The above program stored in the recording medium is
It may be stored in the hard disk of the host computer, transmitted from the host computer to the computer via a communication network, read out to another recording medium such as the RAM 234, and executed.

【0115】上記のプログラムを格納した記録媒体は、
本出願の画像処理装置を製造するためにのみ使用される
ものであり、そのような記録媒体の業としての製造およ
び販売等が本出願に基づく特許権の侵害を構成すること
は明らかである。
The recording medium storing the above program is:
It is apparent that the invention is used only for manufacturing the image processing apparatus of the present application, and that the manufacture and sale of such a recording medium as a business constitute infringement of a patent right based on the present application.

【0116】以上述べたように、本発明の画像撮像装置
及び画像処理装置によれば、被写体の奥行き情報を簡便
に効率よく高い精度で算出することができる。
As described above, according to the image capturing apparatus and the image processing apparatus of the present invention, it is possible to easily and efficiently calculate the depth information of a subject with high accuracy.

【0117】以上、本発明を実施の形態を用いて説明し
たが、本発明の技術的範囲は上記実施の形態に記載の範
囲には限定されない。上記実施の形態に、多様な変更又
は改良を加えることができることが当業者に明らかであ
る。その様な変更又は改良を加えた形態も本発明の技術
的範囲に含まれ得ることが、特許請求の範囲の記載から
明らかである。
As described above, the present invention has been described using the embodiments. However, the technical scope of the present invention is not limited to the scope described in the above embodiments. It is apparent to those skilled in the art that various changes or improvements can be added to the above embodiment. It is apparent from the description of the appended claims that embodiments with such changes or improvements can be included in the technical scope of the present invention.

【0118】[0118]

【発明の効果】上記説明から明らかなように、本発明に
よれば被写体の奥行きに関する情報を簡便に効率良く取
得することができる。
As is apparent from the above description, according to the present invention, information on the depth of a subject can be obtained easily and efficiently.

【図面の簡単な説明】[Brief description of the drawings]

【図1】 画像撮像装置の一例としてのデジタルカメラ
10の構成図である。
FIG. 1 is a configuration diagram of a digital camera 10 as an example of an image capturing apparatus.

【図2】 投影撮像ユニット20によるパターン光の投
影と撮像を説明する図である。
FIG. 2 is a view for explaining projection and imaging of pattern light by a projection imaging unit 20;

【図3】 コード化パターン36の一例である、2次元
に配置された円形の図形パターンである。
FIG. 3 shows an example of a coding pattern 36, which is a circular figure pattern arranged two-dimensionally.

【図4】 投影パターンP、Pの撮影像I、I
を説明する図である。
[4] projection pattern P 1, pickup image I 1 of P 2, I 2
FIG.

【図5】 投影パターンの距離と投影パターンの撮影像
の大きさの関係を説明する図である。
FIG. 5 is a diagram illustrating the relationship between the distance of a projection pattern and the size of a captured image of the projection pattern.

【図6】 処理ユニット60の機能ブロック図である。FIG. 6 is a functional block diagram of the processing unit 60.

【図7】 コード化パターン36の他の例である、スリ
ットパターンである。
FIG. 7 is a slit pattern, which is another example of the coding pattern 36;

【図8】 コード化パターン36の他の例である、多角
形パターンである。
FIG. 8 is another example of a coded pattern 36, which is a polygonal pattern.

【図9】 コード化パターン36の他の例である、十文
字パターンである。
FIG. 9 shows another example of the coded pattern 36, which is a cross-shaped pattern.

【図10】 コード化パターン36の他の例である、点
パターンである。
FIG. 10 is a point pattern which is another example of the coding pattern 36.

【図11】 本実施形態の画像撮像方法のフローチャー
トである。
FIG. 11 is a flowchart of an image capturing method according to the present embodiment.

【図12】 投影撮像ユニット20によるパターン光の
投影と撮像を説明する図である。
FIG. 12 is a diagram for describing projection and imaging of pattern light by the projection imaging unit 20.

【図13】 投影パターンP、Pの撮影像I、I
を説明する図である。
FIG. 13 shows captured images I 1 , I of projection patterns P 1 , P 2
2 is a diagram illustrating a.

【図14】 本実施形態の画像撮像方法のフローチャー
トである。
FIG. 14 is a flowchart of an image capturing method according to the present embodiment.

【図15】 本実施形態の他の画像撮像方法のフローチ
ャートである。
FIG. 15 is a flowchart of another image capturing method according to the present embodiment.

【図16】 前面が凸、背面が凹のアナモルフィックレ
ンズの斜視図である。
FIG. 16 is a perspective view of an anamorphic lens having a convex front surface and a concave rear surface.

【図17】 前面が弱凸、背面が強凸のアナモルフィッ
クレンズの斜視図である。
FIG. 17 is a perspective view of an anamorphic lens whose front surface is weakly convex and whose back surface is strongly convex.

【図18】 前面が弱凹、背面が強凹のアナモルフィッ
クレンズの斜視図である。
FIG. 18 is a perspective view of an anamorphic lens having a slightly concave front surface and a strongly concave rear surface.

【図19】 本実施形態の他の画像撮像方法のフローチ
ャートである。
FIG. 19 is a flowchart of another image capturing method according to the present embodiment.

【図20】 画像処理装置の一例としての、写真画像の
現像や編集等を行うラボシステム200の構成図であ
る。
FIG. 20 is a configuration diagram of a lab system 200 that develops and edits a photographic image, as an example of an image processing apparatus.

【図21】 処理部220の機能構成図である。FIG. 21 is a functional configuration diagram of a processing unit 220.

【図22】 画像処理装置の構成図である。FIG. 22 is a configuration diagram of an image processing apparatus.

【符号の説明】[Explanation of symbols]

10 デジタルカメラ 12 撮影部 14 投影部 20 投影撮像ユ
ニット 22 撮影レンズ 23 光路分割素
子 30 CCD 34 投影レンズ 36 コード化パターン 38 光源 40 制御ユニット 60 処理ユニッ
ト 100 表示ユニット 110 操作ユニッ
ト 200 画像処理装置 210 入力部 220 処理部 240 記録部 250 出力部 290 記録媒体 302 画像記憶部 304 形状パター
ン検出部 308 奥行き算出部 310 記録部 312 画像処理部 330 シリンドリ
カルレンズ 340 駆動部
DESCRIPTION OF SYMBOLS 10 Digital camera 12 Imaging part 14 Projection part 20 Projection imaging unit 22 Imaging lens 23 Optical path splitting element 30 CCD 34 Projection lens 36 Coding pattern 38 Light source 40 Control unit 60 Processing unit 100 Display unit 110 Operation unit 200 Image processing device 210 Input part 220 processing unit 240 recording unit 250 output unit 290 recording medium 302 image storage unit 304 shape pattern detection unit 308 depth calculation unit 310 recording unit 312 image processing unit 330 cylindrical lens 340 driving unit

───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.7 識別記号 FI テーマコート゛(参考) H04N 5/225 G01B 11/24 E 5C061 13/02 G06F 15/62 415 Fターム(参考) 2F065 AA04 AA06 DD00 DD02 FF00 FF04 GG03 GG08 HH05 HH06 HH07 JJ03 JJ26 LL04 LL06 LL08 LL10 LL26 LL30 QQ03 QQ23 QQ24 QQ26 QQ31 SS06 SS13 UU01 2F112 AD10 BA05 BA09 CA12 DA05 DA06 DA32 DA40 FA07 FA35 FA45 2H059 AA09 AA18 CA00 5B057 BA02 BA15 BA19 DA20 DB02 DC02 DC09 DC36 5C022 AA13 AB12 AB21 AB66 AB68 AC01 AC03 AC32 AC42 AC52 AC69 AC74 AC78 5C061 AB03 AB06 AB08 ──────────────────────────────────────────────────続 き Continued on the front page (51) Int.Cl. 7 Identification symbol FI Theme coat ゛ (Reference) H04N 5/225 G01B 11/24 E 5C061 13/02 G06F 15/62 415 F Term (Reference) 2F065 AA04 AA06 DD00 DD02 FF00 FF04 GG03 GG08 HH05 HH06 HH07 JJ03 JJ26 LL04 LL06 LL08 LL10 LL26 LL30 QQ03 QQ23 QQ24 QQ26 QQ31 SS06 SS13 UU01 2F112 AD10 BA05 BA09 CA12 DA05 DA06 DA32 DA40 FA07 FA02 AFA0A02 0 AA13 AB12 AB21 AB66 AB68 AC01 AC03 AC32 AC42 AC52 AC69 AC74 AC78 5C061 AB03 AB06 AB08

Claims (21)

【特許請求の範囲】[Claims] 【請求項1】 被写体の奥行きに関する情報を取得する
画像撮像装置であって、 光を投射して、前記被写体に形状パターンを投影する投
影部と、 前記投影部が投射した前記形状パターンを伝達する光の
発散中心とは光学的に異なる位置において、前記形状パ
ターンが投影された前記被写体における光を収斂させ、
前記被写体を撮像する撮像部とを備えたことを特徴とす
る画像撮像装置。
1. An image capturing apparatus for acquiring information on a depth of a subject, wherein the projection section projects light to project a shape pattern on the subject, and transmits the shape pattern projected by the projection section. At a position optically different from the divergence center of light, converge light on the subject on which the shape pattern is projected,
An image pickup apparatus, comprising: an image pickup unit for picking up an image of the subject.
【請求項2】 前記撮像部が撮像する前記被写体の特定
領域に投影された前記形状パターンの像の大きさを検出
する形状パターン検出部と、 前記形状パターン検出部が検出した前記大きさに基づい
て、前記被写体の前記特定領域の奥行き値を算出する奥
行き算出部とをさらに備えたことを特徴とする請求項1
に記載の画像撮像装置。
2. A shape pattern detection unit for detecting a size of an image of the shape pattern projected on a specific area of the subject imaged by the imaging unit, based on the size detected by the shape pattern detection unit A depth calculation unit configured to calculate a depth value of the specific area of the subject.
An image pickup device according to claim 1.
【請求項3】 前記投影部が前記被写体に光を投射する
ときの光軸と、前記撮像部が前記被写体を撮像するとき
の光軸とが略同一であることを特徴とする請求項2に記
載の画像撮像装置。
3. The optical axis when the projection unit projects light onto the subject and the optical axis when the imaging unit captures the subject are substantially the same. The image pickup apparatus according to any one of the preceding claims.
【請求項4】 前記撮像部及び前記投影部は同一光軸の
光学素子を用いて、それぞれ前記被写体の撮像及び前記
被写体への光の投射を行うことを特徴とする請求項3に
記載の画像撮像装置。
4. The image according to claim 3, wherein the imaging unit and the projection unit use an optical element having the same optical axis to image the subject and project light onto the subject, respectively. Imaging device.
【請求項5】 前記形状パターンは2次元に配置された
複数の図形パターンであり、前記投影部は、前記複数の
図形パターンを前記被写体上に同時に投影し、前記撮影
部は、前記複数の図形パターンが投影された前記被写体
を撮像し、前記形状パターン検出部は、前記複数の図形
パターンの像の大きさをそれぞれ検出し、前記奥行き算
出部は、前記形状パターン検出部が検出した前記複数の
図形パターンの像のそれぞれの大きさに基づいて、前記
複数の図形パターンが投影された前記被写体の各領域の
前記奥行き値を算出することを特徴とする請求項2に記
載の画像撮像装置。
5. The shape pattern is a plurality of figure patterns arranged two-dimensionally, the projection unit simultaneously projects the plurality of figure patterns onto the subject, and the imaging unit The object on which the pattern is projected is imaged, the shape pattern detection unit detects the size of each of the plurality of figure patterns, and the depth calculation unit includes the plurality of shape patterns detected by the shape pattern detection unit. The apparatus according to claim 2, wherein the depth value of each area of the subject on which the plurality of graphic patterns are projected is calculated based on the size of each image of the graphic pattern.
【請求項6】 前記図形パターンは、点、線、円、また
は多角形のいずれかであることを特徴とする請求項5に
記載の画像撮像装置。
6. The apparatus according to claim 5, wherein the graphic pattern is one of a point, a line, a circle, and a polygon.
【請求項7】 被写体の奥行きに関する情報を取得する
画像撮像装置であって、 光軸に対して垂直な2つの方位によって2つの異なる光
学的な発散中心を有する光を投射して、前記被写体に形
状パターンを投影する投影部と、 前記2つの発散中心のいずれか1つと光学的に略同一位
置にある収斂位置において、前記形状パターンが投影さ
れた前記被写体における光を収斂させ、前記被写体を撮
像する撮像部とを備えたことを特徴とする画像撮像装
置。
7. An image capturing apparatus for acquiring information relating to the depth of a subject, wherein the apparatus projects light having two different optical divergence centers in two directions perpendicular to an optical axis to the subject. A projection unit for projecting a shape pattern; and a light source on the object on which the shape pattern is projected converges at a convergence position optically substantially at the same position as one of the two divergence centers to image the object. An image pickup apparatus, comprising:
【請求項8】 前記収斂位置とは光学的に異なる位置に
ある前記発散中心における光の発散方位について、前記
撮像部が撮像する前記被写体の特定領域に投影された前
記形状パターンの像の大きさを検出する形状パターン検
出部と、 前記形状パターン検出部が検出した前記形状パターンの
像の前記発散方位の前記大きさに基づいて、前記被写体
の前記特定領域の奥行き値を算出する奥行き算出部とを
さらに備えたことを特徴とする請求項7に記載の画像撮
像装置。
8. The size of an image of the shape pattern projected on a specific region of the subject imaged by the imaging unit, with respect to a divergence direction of light at the divergence center located at a position optically different from the convergence position. And a depth calculation unit that calculates a depth value of the specific area of the subject based on the size of the divergent azimuth of the image of the shape pattern detected by the shape pattern detection unit. The image capturing apparatus according to claim 7, further comprising:
【請求項9】 前記投影部が前記被写体に光を投影する
ときの光軸と、前記撮像部が前記被写体を撮像するとき
の光軸とが略同一であることを特徴とする請求項8に記
載の画像撮像装置。
9. The optical axis when the projection unit projects light onto the subject and the optical axis when the imaging unit captures the subject are substantially the same. The image pickup apparatus according to any one of the preceding claims.
【請求項10】 前記投影部は、一方向にのみパワーを
有する光学素子を用いて、前記2つの方位によって前記
2つの異なる光学的な発散中心を有する光を投射するこ
とを特徴とする請求項9に記載の画像撮像装置。
10. The projector according to claim 1, wherein the projection unit projects light having the two different optical divergence centers in the two directions using an optical element having power in only one direction. 10. The image pickup device according to 9.
【請求項11】 前記一方向にのみパワーを有する光学
素子を光軸周りに回転させる駆動部をさらに備えること
を特徴とする請求項10に記載の画像撮像装置。
11. The image pickup apparatus according to claim 10, further comprising a driving unit that rotates the optical element having power only in one direction around an optical axis.
【請求項12】 前記形状パターン検出部は、前記駆動
部が前記光学素子を光軸周りに90度回転させる前後
で、前記光学素子のパワーの方向において、前記形状パ
ターンの像の大きさをそれぞれ検出し、前記奥行き算出
部は、前記形状パターン検出部が、前記光学素子の回転
前後に検出した前記形状パターンの像の前記大きさを用
いて、前記被写体の前記特定領域の奥行き値を算出する
ことを特徴とする請求項11に記載の画像撮像装置。
12. The shape pattern detection unit may determine the size of an image of the shape pattern in the direction of power of the optical element before and after the driving unit rotates the optical element by 90 degrees around an optical axis. The depth calculation unit detects the depth value of the specific area of the subject using the size of the shape pattern image detected before and after the rotation of the optical element by the shape pattern detection unit. The image pickup device according to claim 11, wherein:
【請求項13】 被写体の奥行きに関する情報を取得す
る画像撮像装置であって、 光軸に対して垂直な2つの方位によって2つの異なる光
学的な発散中心を有する光を投射して、前記被写体に形
状パターンを投影する投影部と、 前記2つの発散中心のいずれとも光学的に異なる位置に
ある収斂位置において、前記形状パターンが投影された
前記被写体における光を収斂させ、前記被写体を撮像す
る撮像部とを備えたことを特徴とする画像撮像装置。
13. An image capturing apparatus for acquiring information relating to the depth of a subject, wherein the apparatus projects light having two different optical divergence centers in two directions perpendicular to an optical axis to the subject. A projection unit that projects a shape pattern; and an imaging unit that converges light on the subject on which the shape pattern is projected at a convergence position that is optically different from any of the two divergence centers to capture the subject. An image pickup apparatus comprising:
【請求項14】 前記2つの発散中心における光の前記
2つの方位において、前記撮像部が撮像する前記被写体
の特定領域に投影された前記形状パターンの像の2つの
大きさを検出する形状パターン検出部と、 前記形状パターン検出部が検出した前記形状パターンの
像の前記2つの方位における前記2つの大きさを斟酌し
て、前記被写体の前記特定領域の奥行き値を算出する奥
行き算出部とをさらに備えたことを特徴とする請求項1
3に記載の画像撮像装置。
14. A shape pattern detection for detecting two sizes of the shape pattern image projected on a specific area of the subject imaged by the imaging unit in the two directions of light at the two divergence centers. And a depth calculation unit that calculates a depth value of the specific region of the subject in consideration of the two sizes in the two directions of the image of the shape pattern detected by the shape pattern detection unit. 2. The device according to claim 1, wherein
4. The image pickup device according to 3.
【請求項15】 前記投影部が前記被写体に光を投影す
るときの光軸と、前記撮像部が前記被写体を撮像すると
きの光軸とが略同一であることを特徴とする請求項14
に記載の画像撮像装置。
15. The optical axis when the projection unit projects light onto the subject and the optical axis when the imaging unit captures an image of the subject are substantially the same.
An image pickup device according to claim 1.
【請求項16】 前記投影部は、光軸に対して垂直な2
方向に独立なパワーを有する光学素子を用いて、前記2
つの方位によって前記2つの異なる光学的な発散中心を
有する光を投射することを特徴とする請求項15に記載
の画像撮像装置。
16. The projection unit according to claim 2, wherein the projection unit is perpendicular to an optical axis.
Using an optical element having independent power in directions,
16. The image pickup apparatus according to claim 15, wherein light having the two different optical divergence centers is projected according to three directions.
【請求項17】 被写体の奥行きに関する情報を取得す
る画像処理方法であって、 光を投射して、前記被写体に形状パターンを投影し、 前記形状パターンを伝達する光の発散中心とは光学的に
異なる位置において、前記形状パターンが投影された前
記被写体における光を収斂させ、前記被写体の像を撮像
し、 前記被写体の特定領域に投影された前記形状パターンの
像の大きさを検出し、 前記大きさに基づいて、前記被写体の前記特定領域の奥
行き値を算出することを特徴とする画像処理方法。
17. An image processing method for acquiring information relating to the depth of a subject, wherein the method projects light to project a shape pattern onto the subject, and the divergence center of light transmitting the shape pattern is optically determined. At different positions, converges light on the subject on which the shape pattern is projected, captures an image of the subject, detects the size of the shape pattern image projected on a specific region of the subject, An image processing method for calculating a depth value of the specific region of the object based on the depth value.
【請求項18】 被写体の奥行きに関する情報を取得す
る画像処理方法であって、 光軸に対して垂直な2つの方位によって2つの異なる光
学的な発散中心を有する光を投射して、前記被写体に形
状パターンを投影し、 前記2つの発散中心のいずれか1つと光学的に略同一位
置にある収斂位置において、前記形状パターンが投影さ
れた前記被写体における光を収斂させ、前記被写体を撮
像し、 前記収斂位置とは光学的に異なる位置にある前記発散中
心における光の発散方位について、前記撮像部が撮像す
る前記被写体の特定領域に投影された前記形状パターン
の像の大きさを検出し、 前記形状パターン検出部が検出した前記形状パターンの
像の前記発散方位の前記大きさに基づいて、前記被写体
の前記特定領域の奥行き値を算出することを特徴とする
画像処理方法。
18. An image processing method for acquiring information relating to the depth of a subject, comprising projecting light having two different optical divergence centers in two directions perpendicular to an optical axis to the subject. Projecting a shape pattern, at a convergence position optically substantially at the same position as one of the two divergence centers, converging light on the subject on which the shape pattern is projected, imaging the subject, For the divergence direction of light at the divergence center at a position optically different from the convergence position, the size of an image of the shape pattern projected on a specific region of the subject imaged by the imaging unit is detected. Calculating a depth value of the specific region of the subject based on the size of the divergence direction of the image of the shape pattern detected by the pattern detection unit; Image processing method for the.
【請求項19】 被写体の奥行きに関する情報を取得す
る画像処理方法であって、 光軸に対して垂直な2つの方位によって2つの異なる光
学的な発散中心を有する光を投射して、前記被写体に形
状パターンを投影し、 前記2つの発散中心のいずれとも光学的に異なる位置に
ある収斂位置において、前記形状パターンが投影された
前記被写体における光を収斂させ、前記被写体を撮像
し、 前記2つの発散中心における光の前記2つの方位におい
て、前記撮像部が撮像する前記被写体の特定領域に投影
された前記形状パターンの像の2つの大きさを検出し、 前記形状パターン検出部が検出した前記形状パターンの
像の前記2つの方位における前記2つの大きさを斟酌し
て、前記被写体の前記特定領域の奥行き値を算出するこ
とを特徴とする画像処理方法。
19. An image processing method for acquiring information relating to the depth of a subject, comprising projecting light having two different optical divergence centers in two directions perpendicular to an optical axis to the subject. Projecting a shape pattern, converging light on the subject on which the shape pattern is projected at a convergence position that is optically different from any of the two divergence centers, imaging the subject, In the two directions of light at the center, the image capturing unit detects two sizes of the image of the shape pattern projected on a specific region of the subject, and the shape pattern detected by the shape pattern detecting unit Calculating a depth value of the specific area of the subject in consideration of the two sizes of the image in the two directions. Management method.
【請求項20】 被写体の奥行きに関する情報を取得す
る画像処理装置であって、 形状パターンが投影された前記被写体の画像を入力する
入力部と、 前記被写体の特定領域に投影された前記形状パターンの
像の大きさを検出する形状パターン検出部と、 前記形状パターン検出部が検出した前記大きさに基づい
て、前記被写体の前記特定領域の奥行き値を算出する奥
行き算出部とを備えたことを特徴とする画像処理装置。
20. An image processing apparatus for acquiring information on a depth of a subject, comprising: an input unit for inputting an image of the subject on which a shape pattern is projected; and an input unit for inputting an image of the shape pattern projected on a specific region of the subject. A shape pattern detection unit that detects a size of an image; and a depth calculation unit that calculates a depth value of the specific region of the subject based on the size detected by the shape pattern detection unit. Image processing apparatus.
【請求項21】 被写体の奥行きに関する情報を取得す
るコンピュータ用のプログラムを格納した記録媒体であ
って、前記プログラムが、 形状パターンが投影された前記被写体の画像を入力させ
る入力モジュールと、前記被写体の特定領域に投影され
た前記形状パターンの像の大きさを検出させる形状パタ
ーン検出モジュールと、 前記形状パターン検出モジュールが検出した前記大きさ
に基づいて、前記被写体の前記特定領域の奥行き値を算
出させる奥行き算出モジュールとを備えたことを特徴と
する記録媒体。
21. A recording medium storing a computer program for acquiring information on the depth of a subject, the program comprising: an input module for inputting an image of the subject on which a shape pattern is projected; A shape pattern detection module for detecting a size of an image of the shape pattern projected on a specific region; and calculating a depth value of the specific region of the subject based on the size detected by the shape pattern detection module. A recording medium comprising a depth calculation module.
JP32618599A 1999-11-16 1999-11-16 Image pickup device and image processing device Pending JP2001141430A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP32618599A JP2001141430A (en) 1999-11-16 1999-11-16 Image pickup device and image processing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP32618599A JP2001141430A (en) 1999-11-16 1999-11-16 Image pickup device and image processing device

Publications (1)

Publication Number Publication Date
JP2001141430A true JP2001141430A (en) 2001-05-25

Family

ID=18184993

Family Applications (1)

Application Number Title Priority Date Filing Date
JP32618599A Pending JP2001141430A (en) 1999-11-16 1999-11-16 Image pickup device and image processing device

Country Status (1)

Country Link
JP (1) JP2001141430A (en)

Cited By (31)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2413910A (en) * 2004-04-28 2005-11-09 Spiral Scratch Ltd Determining depth information from change in size of a projected pattern with varying depth
JP2006516729A (en) * 2003-01-25 2006-07-06 スパイラル スクラッチ リミテッド Method and apparatus for creating an image containing depth information
JP2007101275A (en) * 2005-09-30 2007-04-19 Topcon Corp Three-dimensional measuring projector and system
US7263217B2 (en) 2002-03-13 2007-08-28 Omron Corporation Three-dimensional monitoring apparatus
JP2008536159A (en) * 2005-03-10 2008-09-04 ミゲル・ガルシア・ガララガ Non-stereoscopic three-dimensional observation apparatus that does not require a three-dimensional imaging camera and glasses
EP1994503A2 (en) * 2006-03-14 2008-11-26 Prime Sense Ltd. Depth-varying light fields for three dimensional sensing
JP2009528514A (en) * 2006-02-27 2009-08-06 プライム センス リミティド Range mapping using uncorrelated speckle
JP2012504771A (en) * 2008-10-06 2012-02-23 マンチスビジョン リミテッド Method and system for providing three-dimensional and distance inter-surface estimation
US8150142B2 (en) 2007-04-02 2012-04-03 Prime Sense Ltd. Depth mapping using projected patterns
US20120314039A1 (en) * 2011-06-07 2012-12-13 Samsung Electronics Co., Ltd. 3d image acquisition apparatus employing interchangable lens
US8350847B2 (en) 2007-01-21 2013-01-08 Primesense Ltd Depth mapping using multi-beam illumination
US8390821B2 (en) 2005-10-11 2013-03-05 Primesense Ltd. Three-dimensional sensing using speckle patterns
US8400494B2 (en) 2005-10-11 2013-03-19 Primesense Ltd. Method and system for object reconstruction
US8456517B2 (en) 2008-07-09 2013-06-04 Primesense Ltd. Integrated processor for 3D mapping
US8462207B2 (en) 2009-02-12 2013-06-11 Primesense Ltd. Depth ranging with Moiré patterns
US8493496B2 (en) 2007-04-02 2013-07-23 Primesense Ltd. Depth mapping using projected patterns
US8494252B2 (en) 2007-06-19 2013-07-23 Primesense Ltd. Depth mapping using optical elements having non-uniform focal characteristics
WO2014016995A1 (en) * 2012-07-26 2014-01-30 日本電気株式会社 Three-dimensional object-measurement device, control program for three-dimensional object-measurement device, and control method for three-dimensional object-measurement device
WO2014016994A1 (en) * 2012-07-26 2014-01-30 日本電気株式会社 Interface device, program, and control method
JP2014089311A (en) * 2012-10-30 2014-05-15 Nikon Corp Microscope device and image formation method
US8786682B2 (en) 2009-03-05 2014-07-22 Primesense Ltd. Reference image techniques for three-dimensional sensing
US8830227B2 (en) 2009-12-06 2014-09-09 Primesense Ltd. Depth-based gain control
US8982182B2 (en) 2010-03-01 2015-03-17 Apple Inc. Non-uniform spatial resource allocation for depth mapping
US9030528B2 (en) 2011-04-04 2015-05-12 Apple Inc. Multi-zone imaging sensor and lens array
US9066087B2 (en) 2010-11-19 2015-06-23 Apple Inc. Depth mapping using time-coded illumination
US9098931B2 (en) 2010-08-11 2015-08-04 Apple Inc. Scanning projectors and image capture modules for 3D mapping
US9131136B2 (en) 2010-12-06 2015-09-08 Apple Inc. Lens arrays for pattern projection and imaging
US9157790B2 (en) 2012-02-15 2015-10-13 Apple Inc. Integrated optoelectronic modules with transmitter, receiver and beam-combining optics for aligning a beam axis with a collection axis
US9582889B2 (en) 2009-07-30 2017-02-28 Apple Inc. Depth mapping based on pattern matching and stereoscopic information
KR101854554B1 (en) 2015-09-29 2018-05-03 바이두 온라인 네트웍 테크놀러지 (베이징) 캄파니 리미티드 Method, device and storage medium for calculating building height
WO2020044835A1 (en) * 2018-08-30 2020-03-05 ソニー株式会社 Signal processing device, signal processing method, signal processing program, and imaging device

Cited By (41)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7263217B2 (en) 2002-03-13 2007-08-28 Omron Corporation Three-dimensional monitoring apparatus
JP2006516729A (en) * 2003-01-25 2006-07-06 スパイラル スクラッチ リミテッド Method and apparatus for creating an image containing depth information
GB2413910A (en) * 2004-04-28 2005-11-09 Spiral Scratch Ltd Determining depth information from change in size of a projected pattern with varying depth
JP2008536159A (en) * 2005-03-10 2008-09-04 ミゲル・ガルシア・ガララガ Non-stereoscopic three-dimensional observation apparatus that does not require a three-dimensional imaging camera and glasses
JP2007101275A (en) * 2005-09-30 2007-04-19 Topcon Corp Three-dimensional measuring projector and system
US8374397B2 (en) 2005-10-11 2013-02-12 Primesense Ltd Depth-varying light fields for three dimensional sensing
US8400494B2 (en) 2005-10-11 2013-03-19 Primesense Ltd. Method and system for object reconstruction
US8390821B2 (en) 2005-10-11 2013-03-05 Primesense Ltd. Three-dimensional sensing using speckle patterns
JP2009528514A (en) * 2006-02-27 2009-08-06 プライム センス リミティド Range mapping using uncorrelated speckle
JP2009530604A (en) * 2006-03-14 2009-08-27 プライム センス リミティド Light field that changes depth for 3D detection
EP1994503A4 (en) * 2006-03-14 2014-02-26 Prime Sense Ltd Depth-varying light fields for three dimensional sensing
EP1994503A2 (en) * 2006-03-14 2008-11-26 Prime Sense Ltd. Depth-varying light fields for three dimensional sensing
US8350847B2 (en) 2007-01-21 2013-01-08 Primesense Ltd Depth mapping using multi-beam illumination
US8150142B2 (en) 2007-04-02 2012-04-03 Prime Sense Ltd. Depth mapping using projected patterns
US8493496B2 (en) 2007-04-02 2013-07-23 Primesense Ltd. Depth mapping using projected patterns
US8494252B2 (en) 2007-06-19 2013-07-23 Primesense Ltd. Depth mapping using optical elements having non-uniform focal characteristics
US8456517B2 (en) 2008-07-09 2013-06-04 Primesense Ltd. Integrated processor for 3D mapping
JP2012504771A (en) * 2008-10-06 2012-02-23 マンチスビジョン リミテッド Method and system for providing three-dimensional and distance inter-surface estimation
US8462207B2 (en) 2009-02-12 2013-06-11 Primesense Ltd. Depth ranging with Moiré patterns
US8786682B2 (en) 2009-03-05 2014-07-22 Primesense Ltd. Reference image techniques for three-dimensional sensing
US9582889B2 (en) 2009-07-30 2017-02-28 Apple Inc. Depth mapping based on pattern matching and stereoscopic information
US8830227B2 (en) 2009-12-06 2014-09-09 Primesense Ltd. Depth-based gain control
US8982182B2 (en) 2010-03-01 2015-03-17 Apple Inc. Non-uniform spatial resource allocation for depth mapping
US9098931B2 (en) 2010-08-11 2015-08-04 Apple Inc. Scanning projectors and image capture modules for 3D mapping
US9215449B2 (en) 2010-11-19 2015-12-15 Apple Inc. Imaging and processing using dual clocks
US9066087B2 (en) 2010-11-19 2015-06-23 Apple Inc. Depth mapping using time-coded illumination
US9131136B2 (en) 2010-12-06 2015-09-08 Apple Inc. Lens arrays for pattern projection and imaging
US9167138B2 (en) 2010-12-06 2015-10-20 Apple Inc. Pattern projection and imaging using lens arrays
US9030528B2 (en) 2011-04-04 2015-05-12 Apple Inc. Multi-zone imaging sensor and lens array
US20120314039A1 (en) * 2011-06-07 2012-12-13 Samsung Electronics Co., Ltd. 3d image acquisition apparatus employing interchangable lens
KR101799522B1 (en) * 2011-06-07 2017-11-21 삼성전자 주식회사 3D image acquisition apparatus employing interchangeable lens type
US9157790B2 (en) 2012-02-15 2015-10-13 Apple Inc. Integrated optoelectronic modules with transmitter, receiver and beam-combining optics for aligning a beam axis with a collection axis
US9651417B2 (en) 2012-02-15 2017-05-16 Apple Inc. Scanning depth engine
WO2014016994A1 (en) * 2012-07-26 2014-01-30 日本電気株式会社 Interface device, program, and control method
WO2014016995A1 (en) * 2012-07-26 2014-01-30 日本電気株式会社 Three-dimensional object-measurement device, control program for three-dimensional object-measurement device, and control method for three-dimensional object-measurement device
US10060728B2 (en) 2012-07-26 2018-08-28 Nec Corporation Three-dimensional object-measurement device, medium, and control method
JP2014089311A (en) * 2012-10-30 2014-05-15 Nikon Corp Microscope device and image formation method
KR101854554B1 (en) 2015-09-29 2018-05-03 바이두 온라인 네트웍 테크놀러지 (베이징) 캄파니 리미티드 Method, device and storage medium for calculating building height
WO2020044835A1 (en) * 2018-08-30 2020-03-05 ソニー株式会社 Signal processing device, signal processing method, signal processing program, and imaging device
US11792534B2 (en) 2018-08-30 2023-10-17 Sony Corporation Signal processing device, signal processing method, and image capture device
JP7415929B2 (en) 2018-08-30 2024-01-17 ソニーグループ株式会社 Signal processing device, signal processing method, signal processing program, and imaging device

Similar Documents

Publication Publication Date Title
JP2001141430A (en) Image pickup device and image processing device
US7200261B2 (en) Parallax image capturing apparatus and parallax image processing apparatus
US20070110417A1 (en) Image processing apparatus and image processing method
US6876762B1 (en) Apparatus for imaging and image processing and method thereof
US8284294B2 (en) Compound-eye image pickup apparatus
CN102216824A (en) Image capturing apparatus
US20040165101A1 (en) Image sensing apparatus, control method therefor, storage medium, and program
JP2001141422A (en) Image pickup device and image processor
JP2000292134A (en) Three-dimensional information input camera
JP2003198952A (en) Image pickup device, image pickup method, and program
CN107295246A (en) Picture pick-up device and image capture method
US6806905B1 (en) Digital camera
JP3353737B2 (en) 3D information input camera
CN106303212B (en) Filming apparatus and image pickup method
JP2007071891A (en) Three-dimensional measuring device
JP4162842B2 (en) Image capturing apparatus and image capturing method
JP2005026794A (en) Data processing method, image processing apparatus, and program
JPH0688989A (en) Method and device for recording picture and picture reproducing device
JP3358584B2 (en) 3D information input camera
JP3275873B2 (en) 3D information input camera
JP2001211382A (en) Device and method for image processing and recording medium
JP2002159024A (en) Parallax image photographing apparatus and parallax image processor
JP2009094741A (en) Imaging device, imaging method and program
JP2001166230A (en) Optical device, image pickup device and image processor
JP3269484B2 (en) 3D information input camera