JP2000341720A - Three-dimensional image input device and recording medium - Google Patents

Three-dimensional image input device and recording medium

Info

Publication number
JP2000341720A
JP2000341720A JP11151366A JP15136699A JP2000341720A JP 2000341720 A JP2000341720 A JP 2000341720A JP 11151366 A JP11151366 A JP 11151366A JP 15136699 A JP15136699 A JP 15136699A JP 2000341720 A JP2000341720 A JP 2000341720A
Authority
JP
Japan
Prior art keywords
distance
data
file
distance data
recorded
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP11151366A
Other languages
Japanese (ja)
Inventor
Harumi Aoki
晴美 青木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Pentax Corp
Original Assignee
Asahi Kogaku Kogyo Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Asahi Kogaku Kogyo Co Ltd filed Critical Asahi Kogaku Kogyo Co Ltd
Priority to JP11151366A priority Critical patent/JP2000341720A/en
Priority to US09/573,567 priority patent/US7053937B1/en
Publication of JP2000341720A publication Critical patent/JP2000341720A/en
Pending legal-status Critical Current

Links

Landscapes

  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Optical Radar Systems And Details Thereof (AREA)
  • Image Analysis (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Solid State Image Pick-Up Elements (AREA)
  • Image Processing (AREA)

Abstract

PROBLEM TO BE SOLVED: To quickly and easily execute three-dimensional(3D) image processing and to record 3D image data in a recording medium in a format capable of reducing storage capacity. SOLUTION: Picture data Ri, j, Gi, j, Bi, j (i, j=1, 2,...) concerned with the R, G and B of a target to be measured are obtained by a CCD. The target is irradiated with pulse-like range finding light and distance data Di, j up to the target corresponding to CCD pixels are obtained by utilizing the light receiving quantity of reflected light of the range finding light. The picture data Ri, j, GLi, j, Bi, j and the distance data Di, j are recorded in respectively different files on the recording medium correspondingly to respective pixels. File relational information indicating that respective files are a pair of related files is recorded in respective file management areas (header areas).

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、被計測物体の3次
元形状および2次元画像に関する情報を検出する3次元
画像入力装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a three-dimensional image input device for detecting information relating to a three-dimensional shape and a two-dimensional image of an object to be measured.

【0002】[0002]

【従来の技術】従来3次元画像入力装置による3次元計
測は、光、電波あるいは音を被計測物体に照射する能動
方式と、光等を照射しない受動方式とに分類される。能
動方式には、光伝播時間測定法、変調した光波を用いる
位相差測定法、三角測量法、モアレ法、干渉法等が知ら
れており、受動方式には、ステレオ視法、レンズの焦点
法等が知られている。
2. Description of the Related Art Conventionally, three-dimensional measurement by a three-dimensional image input device is classified into an active method in which light, radio waves, or sound is irradiated to an object to be measured and a passive method in which light or the like is not irradiated. As the active method, a light transit time measurement method, a phase difference measurement method using a modulated light wave, a triangulation method, a moire method, an interferometry method, and the like are known. Etc. are known.

【0003】[0003]

【発明が解決しようとする課題】これらの3次元計測法
により求められた被計測物体までの距離情報と被計測物
体の2次元画像情報を同時に記録する方法として、例え
ばデジタルスチルカメラにおける画像フォーマット規格
Exif(JEIDA規格)がある。これは自動焦点装
置などを用いて被写体までの距離を検出し、得られた距
離データをファイルの管理領域に、2次元画像データ
(以下画像データと記す)をデータ領域に記録するもの
である。しかしこのフォーマットで記録される距離デー
タは、被計測物体までの一つの距離データのみであり、
これを用いて3次元画像処理を行なうことはできなかっ
た。
As a method of simultaneously recording the distance information to the object to be measured and the two-dimensional image information of the object to be measured obtained by these three-dimensional measurement methods, for example, an image format standard for a digital still camera is used. There is Exif (JEIDA standard). In this method, a distance to a subject is detected using an automatic focusing device or the like, and the obtained distance data is recorded in a file management area and two-dimensional image data (hereinafter, referred to as image data) is recorded in a data area. However, the distance data recorded in this format is only one distance data to the measured object,
No three-dimensional image processing could be performed using this.

【0004】また、特開平8−317425号公報に開
示された装置では、ステレオ視法における2枚1組の左
眼用および右眼用の画像データを単一の記録媒体に混在
させて記録し、それら一対の画像データの関連情報をフ
ァイルの管理領域に記録している。しかし、この方法で
は1つの3次元画像情報を得るために2枚分の画像デー
タを記録する必要があり、通常の画像データのほぼ2倍
の記録容量が必要であった。しかも距離情報の算出には
左眼用画像の各画素が右眼用画像のどの画素に対応する
かなどの関係を求める必要があるため全画素に対応する
距離データを得ることは困難であり、距離データを直接
利用する3次元画像処理などにおいては不便であった。
In the apparatus disclosed in Japanese Patent Application Laid-Open No. H8-317425, a pair of left and right eye image data in stereoscopic viewing is mixed and recorded on a single recording medium. The related information of the pair of image data is recorded in a file management area. However, in this method, two pieces of image data must be recorded in order to obtain one piece of three-dimensional image information, and a recording capacity almost twice that of normal image data is required. Moreover, it is difficult to obtain distance data corresponding to all pixels because it is necessary to calculate a relationship such as which pixel of the image for the left eye corresponds to which pixel of the image for the right eye in calculating the distance information. It is inconvenient in three-dimensional image processing or the like that directly uses distance data.

【0005】本発明は、少ない記憶容量で高精度の3次
元画像情報を記録でき、3次元画像処理を容易に実行で
きる形式で画像データおよび距離データを記録媒体に記
録する3次元画像入力装置を得ることを目的としてい
る。
The present invention provides a three-dimensional image input apparatus for recording high-precision three-dimensional image information with a small storage capacity and recording image data and distance data on a recording medium in a format that can easily execute three-dimensional image processing. The purpose is to get.

【0006】[0006]

【課題を解決するための手段】本発明の3次元画像入力
装置は、被写体の画像データを画素毎に得る画像入力手
段と、画素に対応する被写体までの距離を検出しその距
離データを得る距離データ検出手段と、画素に対応させ
て画像データおよび距離データをそれぞれ画像データフ
ァイルおよび距離データファイルに記録すると共に、画
像データファイルと距離データファイルが相互に関連し
合うことを示すファイル関連情報を記録する3次元画像
記録手段とを備えたことを特徴とする。
A three-dimensional image input apparatus according to the present invention comprises: an image input means for obtaining image data of a subject for each pixel; and a distance for detecting a distance to a subject corresponding to the pixel and obtaining the distance data. Data detecting means, and image data and distance data corresponding to the pixels are recorded in the image data file and the distance data file, respectively, and file-related information indicating that the image data file and the distance data file are associated with each other is recorded. And a three-dimensional image recording means.

【0007】画像データおよび距離データならびにファ
イル関連情報は好ましくは、同一の記録媒体に記録され
る。また画像データファイルは好ましくは、ファイル内
で共有される情報を記録するための第1のファイル管理
領域と画像データを記録するための第1のデータ領域と
を有し、距離データファイルも好ましくは、ファイル内
で共有される情報を記録するための第2のファイル管理
領域と距離データを記録するための第2のデータ領域と
を有する。この場合好ましくは、ファイル関連情報が第
1または第2のファイル管理領域に記録される。
[0007] The image data, the distance data and the file related information are preferably recorded on the same recording medium. Further, the image data file preferably has a first file management area for recording information shared in the file and a first data area for recording image data, and the distance data file is also preferable. , A second file management area for recording information shared in the file and a second data area for recording distance data. In this case, preferably, the file related information is recorded in the first or second file management area.

【0008】好ましくは、第1のファイル管理領域には
対応する距離データファイルを識別するための距離デー
タファイル関連情報が記録され、第2のファイル管理領
域には対応する画像データファイルを識別するための画
像データファイル関連情報が記録される。例えば、距離
データファイル関連情報および画像データファイル関連
情報に、共通するファイル識別データを記録することに
より相互の関連が示される。またこの場合、ファイル識
別データが例えば拡張子を含むファイル名の一部であ
る。
Preferably, distance data file related information for identifying the corresponding distance data file is recorded in the first file management area, and the corresponding image data file is identified in the second file management area. Is recorded. For example, the mutual relationship is indicated by recording common file identification data in the distance data file related information and the image data file related information. In this case, the file identification data is a part of the file name including the extension, for example.

【0009】距離データは例えば、所定の距離単位に基
く絶対距離データであり、その距離単位がファイル管理
領域に記録される。また距離データは例えば、所定の距
離レンジにおける相対距離データであって、距離レンジ
に関する距離レンジ情報がファイル管理領域に記録さ
れ、距離レンジ情報が距離レンジの最近距離と最遠距離
または最近距離と距離レンジ幅で表される。
The distance data is, for example, absolute distance data based on a predetermined distance unit, and the distance unit is recorded in the file management area. Further, the distance data is, for example, relative distance data in a predetermined distance range, and distance range information on the distance range is recorded in the file management area, and the distance range information is the closest distance and the farthest distance or the closest distance and the distance of the distance range. Expressed as a range width.

【0010】距離データは例えば、基準距離データとの
差分データで表される。この場合、好ましくは、基準距
離データは所定方向に隣接した距離データで、基準とす
べき隣接した距離データが存在しないとき距離データは
差分データでない。
The distance data is represented by, for example, difference data from the reference distance data. In this case, preferably, the reference distance data is distance data adjacent in a predetermined direction, and when there is no adjacent distance data to be a reference, the distance data is not difference data.

【0011】本発明の記録媒体は、被写体像の各画素に
対応する画像データおよび前記各画素に対応する被写体
までの距離を示す距離データが、それぞれ画像データフ
ァイルおよび距離データファイルとして記録されると共
に、画像データファイルと距離データファイルが相互に
関連することを示すファイル関連情報が記録されること
を特徴とする。
In the recording medium of the present invention, image data corresponding to each pixel of the subject image and distance data indicating the distance to the subject corresponding to each pixel are recorded as an image data file and a distance data file, respectively. And file related information indicating that the image data file and the distance data file are related to each other.

【0012】[0012]

【発明の実施の形態】以下、本発明の実施の形態を図面
を参照して説明する。図1は本発明の第1の実施形態で
ある3次元画像入力装置を備えたカメラの斜視図であ
る。
Embodiments of the present invention will be described below with reference to the drawings. FIG. 1 is a perspective view of a camera provided with a three-dimensional image input device according to a first embodiment of the present invention.

【0013】カメラ本体10の前面において、撮影レン
ズ11の左上にはファインダ窓12が設けられ、右上に
はストロボ13が設けられている。カメラ本体10の上
面において、撮影レンズ11の真上には、測距光である
レーザ光を照射する発光装置(光源)14が配設されて
いる。発光装置14の左側にはレリーズスイッチ15と
液晶表示パネル16が設けられ、また右側にはモード切
替ダイヤル17とV/Dモード切替スイッチ18が設け
られている。カメラ本体10の側面には、ICメモリカ
ード等の記録媒体を挿入するためのカード挿入口19が
形成され、また、ビデオ出力端子20とインターフェー
スコネクタ21が設けられている。
On the front of the camera body 10, a finder window 12 is provided at the upper left of the taking lens 11, and a flash 13 is provided at the upper right. A light emitting device (light source) 14 for irradiating a laser beam, which is a distance measuring light, is provided on the upper surface of the camera body 10 and directly above the taking lens 11. On the left side of the light emitting device 14, a release switch 15 and a liquid crystal display panel 16 are provided, and on the right side, a mode switching dial 17 and a V / D mode switching switch 18 are provided. A card insertion slot 19 for inserting a recording medium such as an IC memory card is formed on a side surface of the camera body 10, and a video output terminal 20 and an interface connector 21 are provided.

【0014】図2は図1に示すカメラの回路構成を示す
ブロック図である。撮影レンズ11の中には絞り25が
設けられている。絞り25の開度はアイリス駆動回路2
6によって調整される。撮影レンズ11の焦点調節動作
およびズーミング動作はレンズ駆動回路27によって制
御される。
FIG. 2 is a block diagram showing a circuit configuration of the camera shown in FIG. An aperture 25 is provided in the taking lens 11. The opening of the aperture 25 is determined by the iris drive circuit 2.
Adjusted by 6. The focus adjustment operation and the zooming operation of the taking lens 11 are controlled by a lens drive circuit 27.

【0015】撮影レンズ11の光軸上には撮像素子(C
CD)28が配設されている。CCD28には、撮影レ
ンズ11によって被写体像が形成され、被写体像に対応
した電荷が発生する。CCD28における電荷の蓄積動
作、電荷の読出動作等の動作はCCD駆動回路30によ
って制御される。CCD28から読み出された電荷信号
すなわち画像信号はアンプ31において増幅され、A/
D変換器32においてアナログ信号からデジタル信号に
変換される。デジタルの画像信号は撮像信号処理回路3
3においてガンマ補正等の処理を施され、画像メモリ3
4に一時的に格納される。アイリス駆動回路26、レン
ズ駆動回路27、CCD駆動回路30、撮像信号処理回
路33はシステムコントロール回路35によって制御さ
れる。
An image pickup device (C
CD) 28 is provided. A subject image is formed on the CCD 28 by the photographing lens 11, and charges corresponding to the subject image are generated. Operations such as a charge accumulation operation and a charge read operation in the CCD 28 are controlled by the CCD drive circuit 30. The charge signal, that is, the image signal, read from the CCD 28 is amplified by the amplifier 31 and the A / A
The analog signal is converted into a digital signal in the D converter 32. The digital image signal is output from the imaging signal processing circuit 3
In the image memory 3, processing such as gamma correction is performed.
4 is temporarily stored. The iris drive circuit 26, the lens drive circuit 27, the CCD drive circuit 30, and the imaging signal processing circuit 33 are controlled by a system control circuit 35.

【0016】画像信号は画像メモリ34から読み出さ
れ、LCD駆動回路36に供給される。LCD駆動回路
36は画像信号に応じて動作し、これにより画像表示L
CDパネル37には、画像信号に対応した画像が表示さ
れる。
The image signal is read from the image memory 34 and supplied to the LCD drive circuit 36. The LCD drive circuit 36 operates in accordance with the image signal, and thereby the image display L
An image corresponding to the image signal is displayed on the CD panel 37.

【0017】また画像メモリ34から読み出された画像
信号はTV信号エンコーダ38に送られ、ビデオ出力端
子20を介して、カメラ本体10の外部に設けられたモ
ニタ装置39に伝送可能である。システムコントロール
回路35はインターフェース回路40に接続され、イン
ターフェース回路40はインターフェースコネクタ21
に接続されている。したがって画像メモリ34から読み
出された画像信号は、インターフェースコネクタ21に
接続されたコンピュータ41に伝送可能である。またシ
ステムコントロール回路35は、記録媒体制御回路42
を介して画像記録装置43に接続されている。したがっ
て画像メモリ34から読み出された画像信号は、画像記
録装置43に装着されたICメモリカード等の記録媒体
Mに記録可能である。また記録媒体Mに一旦記録された
画像信号は必要に応じて記録媒体Mから読み出され、シ
ステムコントロール回路35を介してLCDパネル37
に表示することができる。
The image signal read from the image memory 34 is sent to a TV signal encoder 38, and can be transmitted via the video output terminal 20 to a monitor device 39 provided outside the camera body 10. The system control circuit 35 is connected to the interface circuit 40, and the interface circuit 40 is connected to the interface connector 21.
It is connected to the. Therefore, the image signal read from the image memory 34 can be transmitted to the computer 41 connected to the interface connector 21. The system control circuit 35 includes a recording medium control circuit 42
Is connected to the image recording device 43 via the. Therefore, the image signal read from the image memory 34 can be recorded on a recording medium M such as an IC memory card mounted on the image recording device 43. The image signal once recorded on the recording medium M is read out from the recording medium M as necessary, and is sent to the LCD panel 37 via the system control circuit 35.
Can be displayed.

【0018】システムコントロール回路35には、発光
素子制御回路44が接続されている。発光装置14には
発光素子14aと照明レンズ14bが設けられ、発光素
子14aの発光動作は発光素子制御回路44によって制
御される。発光素子14aは測距光であるレーザ光を照
射するものであり、このレーザ光は照明レンズ14bを
介して被計測物体の全体に照射される。被計測物体にお
いて反射した光は撮影レンズ11に入射する。この光を
CCD28によって検出することにより、後述するよう
に被計測物体の3次元画像が計測される。なお、この計
測において、CCD28における転送動作のタイミング
等の制御はシステムコントロール回路35とCCD駆動
回路30によって行なわれる。
A light emitting element control circuit 44 is connected to the system control circuit 35. The light emitting device 14 is provided with a light emitting element 14a and an illumination lens 14b, and the light emitting operation of the light emitting element 14a is controlled by a light emitting element control circuit 44. The light emitting element 14a irradiates a laser beam that is distance measuring light, and the laser beam is radiated to the entire measurement object via the illumination lens 14b. Light reflected from the object to be measured enters the photographing lens 11. By detecting this light by the CCD 28, a three-dimensional image of the measured object is measured as described later. In this measurement, control of the transfer operation timing and the like in the CCD 28 is performed by the system control circuit 35 and the CCD drive circuit 30.

【0019】システムコントロール回路35には、レリ
ーズスイッチ15、モード切替ダイヤル17、V/Dモ
ード切替スイッチ18から成るスイッチ群45と、液晶
表示パネル(表示素子)16とが接続されている。
The system control circuit 35 is connected to a switch group 45 including a release switch 15, a mode switching dial 17, and a V / D mode switching switch 18, and a liquid crystal display panel (display element) 16.

【0020】図3および図4を参照して、本実施形態に
おける距離測定の原理を説明する。なお図4において横
軸は時間tである。
The principle of distance measurement in the present embodiment will be described with reference to FIGS. In FIG. 4, the horizontal axis is time t.

【0021】距離測定装置Bから出力された測距光は被
計測物体Sにおいて反射し、図示しないCCDによって
受光される。測距光は所定のパルス幅Hを有するパルス
状の光であり、したがって被計測物体Sからの反射光
も、同じパルス幅Hを有するパルス状の光である。また
反射光のパルスの立ち上がりは、測距光のパルスの立ち
上がりよりも時間δ・t(δは遅延係数)だけ遅れる。
測距光と反射光は距離計測装置Bと被計測物体Sの間の
2倍の距離rを進んだことになるから、その距離rは r=δ・t・C/2 ・・・(1) により得られる。ただしCは光速である。
The distance measuring light output from the distance measuring device B is reflected by the measured object S and received by a CCD (not shown). The distance measuring light is a pulsed light having a predetermined pulse width H. Therefore, the reflected light from the measured object S is also a pulsed light having the same pulse width H. The rise of the reflected light pulse is delayed by a time δ · t (δ is a delay coefficient) from the rise of the distance measuring light pulse.
Since the ranging light and the reflected light have traveled twice the distance r between the distance measuring device B and the measured object S, the distance r is r = δ · t · C / 2 (1) ). Where C is the speed of light.

【0022】例えば測距光のパルスの立ち上がりから反
射光を検知可能な状態に定め、反射光のパルスが立ち下
がる前に検知不可能な状態に切換えるようにすると、す
なわち反射光検知期間Tを設けると、この反射光検知期
間Tにおける受光量Aは距離rの関数である。すなわち
受光量Aは、距離rが大きくなるほど(時間δ・tが大
きくなるほど)小さくなる。
For example, a state in which reflected light can be detected from the rise of the pulse of distance measuring light is determined, and the state is changed to an undetectable state before the reflected light pulse falls, that is, a reflected light detection period T is provided. And the received light amount A during the reflected light detection period T is a function of the distance r. That is, the light receiving amount A decreases as the distance r increases (the time δ · t increases).

【0023】本実施形態では上述した原理を利用して、
CCD28に設けられ、2次元的に配列された複数のフ
ォトダイオード(光電変換素子)においてそれぞれ受光
量Aを検出することにより、カメラ本体10から被計測
物体Sの表面の各点までの距離をそれぞれ検出し、被計
測物体Sの表面形状に関する3次元画像のデータを一括
して入力している。
In the present embodiment, utilizing the above-described principle,
The distance from the camera body 10 to each point on the surface of the object S to be measured is detected by detecting the amount of received light A at each of a plurality of photodiodes (photoelectric conversion elements) provided on the CCD 28 and arranged two-dimensionally. The data of the three-dimensional image relating to the surface shape of the measured object S is detected and input at a time.

【0024】図5は、CCD28に設けられるフォトダ
イオード51と垂直転送部52の配置を示す図である。
図6は、CCD28を基板53に垂直な平面で切断して
示す断面図である。このCCD28は従来公知のインタ
ーライン型CCDであり、不要電荷の掃出しにVOD
(縦型オーバーフロードレイン)方式を用いたものであ
る。
FIG. 5 is a diagram showing the arrangement of the photodiode 51 and the vertical transfer unit 52 provided on the CCD 28.
FIG. 6 is a cross-sectional view of the CCD 28 cut along a plane perpendicular to the substrate 53. This CCD 28 is a conventionally known interline type CCD, and uses a VOD for sweeping out unnecessary charges.
(Vertical overflow drain) method.

【0025】フォトダイオード51と垂直転送部(信号
電荷保持部)52はn型基板53の面に沿って形成され
ている。フォトダイオード51は2次元的に格子状に配
列され、垂直転送部52は所定の方向(図5において上
下方向)に1列に並ぶフォトダイオード51に隣接して
設けられている。垂直転送部52は、1つのフォトダイ
オード51に対して4つの垂直転送電極52a,52
b,52c,52dを有している。したがって垂直転送
部52では、4つのポテンシャルの井戸が形成可能であ
り、従来公知のように、これらの井戸の深さを制御する
ことによって、信号電荷をCCD28から出力すること
ができる。なお、垂直転送電極の数は目的に応じて自由
に変更できる。
The photodiode 51 and the vertical transfer section (signal charge holding section) 52 are formed along the surface of the n-type substrate 53. The photodiodes 51 are two-dimensionally arranged in a lattice, and the vertical transfer units 52 are provided adjacent to the photodiodes 51 arranged in a line in a predetermined direction (vertical direction in FIG. 5). The vertical transfer unit 52 includes four vertical transfer electrodes 52 a and 52 for one photodiode 51.
b, 52c and 52d. Therefore, in the vertical transfer section 52, four potential wells can be formed, and signal charges can be output from the CCD 28 by controlling the depths of these wells as conventionally known. The number of vertical transfer electrodes can be freely changed according to the purpose.

【0026】基板53の表面に形成されたp型井戸の中
にフォトダイオード51が形成され、p型井戸とn型基
板53の間に印加される逆バイアス電圧によってp型井
戸が完全空乏化される。この状態において、入射光(被
計測物体からの反射光)の光量に応じた電荷がフォトダ
イオード51において蓄積される。基板電圧Vsub を所
定値以上に大きくすると、フォトダイオード51に蓄積
した電荷は、基板53側に掃出される。これに対し、転
送ゲート部54に電荷転送信号(電圧信号)が印加され
たとき、フォトダイオード51に蓄積した電荷は垂直転
送部52に転送される。すなわち電荷掃出し信号によっ
て電荷を基板53側に掃出した後、フォトダイオード5
1に蓄積した信号電荷が、電荷転送信号によって垂直転
送部52側に転送される。このような動作を繰り返すこ
とにより、垂直転送部52において信号電荷が積分さ
れ、電子シャッタ動作が実現される。
A photodiode 51 is formed in a p-type well formed on the surface of the substrate 53, and the p-type well is completely depleted by a reverse bias voltage applied between the p-type well and the n-type substrate 53. You. In this state, a charge corresponding to the amount of incident light (reflected light from the measured object) is accumulated in the photodiode 51. When the substrate voltage Vsub is increased to a predetermined value or more, the electric charge accumulated in the photodiode 51 is discharged to the substrate 53 side. On the other hand, when a charge transfer signal (voltage signal) is applied to the transfer gate unit 54, the charges accumulated in the photodiode 51 are transferred to the vertical transfer unit 52. That is, after the charges are discharged to the substrate 53 side by the charge discharge signal, the photodiode 5
The signal charges accumulated in 1 are transferred to the vertical transfer unit 52 by a charge transfer signal. By repeating such operations, signal charges are integrated in the vertical transfer unit 52, and an electronic shutter operation is realized.

【0027】図7は、被計測物体の表面の各点までの距
離に関するデータを検出する距離情報検出動作のタイミ
ングチャートである。図1、図2、図5〜図7を参照し
て距離情報検出動作を説明する。
FIG. 7 is a timing chart of a distance information detecting operation for detecting data relating to a distance to each point on the surface of the measured object. The operation of detecting distance information will be described with reference to FIGS.

【0028】垂直同期信号S1の出力に同期して電荷掃
出し信号(パルス信号)S2が出力され、これによりフ
ォトダイオード51に蓄積していた不要電荷が基板53
の方向に掃出される。電荷掃出し信号S2の出力の終了
と略同時に発光装置14が起動され、一定のパルス幅を
有するパルス状の測距光S3が出力される。測距光S3
は被計測物体において反射し、CCD28に入射する。
すなわちCCD28によって被計測物体からの反射光S
4が受光される。測距光S3の出力から一定時間が経過
したとき、電荷転送信号(パルス信号)S5が出力さ
れ、これによりフォトダイオード51に蓄積された電荷
が垂直転送部52に転送される。なお、電荷転送信号S
5の出力は、測距光の出力の終了よりも前に行なわれ
る。
A charge sweeping signal (pulse signal) S2 is output in synchronization with the output of the vertical synchronization signal S1, whereby unnecessary charges accumulated in the photodiode 51 are removed from the substrate 53.
In the direction of The light emitting device 14 is activated almost simultaneously with the end of the output of the charge sweeping signal S2, and the pulsed ranging light S3 having a constant pulse width is output. Distance measuring light S3
Is reflected by the object to be measured and enters the CCD.
That is, the reflected light S from the object to be measured by the CCD 28
4 is received. When a certain time has elapsed from the output of the distance measuring light S3, a charge transfer signal (pulse signal) S5 is output, and the charges accumulated in the photodiode 51 are transferred to the vertical transfer unit 52. Note that the charge transfer signal S
The output of No. 5 is performed before the end of the output of the ranging light.

【0029】このように電荷掃出し信号S2の出力の終
了から電荷転送信号S5の出力開始までの期間TU1
間、フォトダイオード51には、被計測物体までの距離
に対応した信号電荷が蓄積される。すなわち測距光S3
が出力される期間TS と電荷蓄積期間TU1は略同時に開
始した場合、S4はS3に比べてδ・tだけ遅れるの
で、電荷蓄積期間TU1の方が早く終了し、反射光S4の
一部のみがCCD28によって検知され、検知された光
によって生じる信号電荷S6は被計測物体までの距離に
対応している。換言すれば、被計測物体からの反射光S
4のうち、電荷蓄積期間TU1内にフォトダイオード51
に到達した光に対応した信号電荷S6がフォトダイオー
ド51に蓄積される。この信号電荷S6は、電荷転送信
号S5によって垂直転送部52に転送される。なお測距
光S3の出力期間TS は電荷蓄積期間TU1よりも早く開
始してもよい。
As described above, during the period T U1 from the end of the output of the charge sweep signal S2 to the start of the output of the charge transfer signal S5, signal charges corresponding to the distance to the object to be measured are accumulated in the photodiode 51. You. That is, the distance measuring light S3
When the period T S during which is output and the charge accumulation period T U1 start at substantially the same time, S4 is delayed by δ · t as compared with S3, so that the charge accumulation period T U1 ends earlier and one of the reflected light S4 Only the portion is detected by the CCD 28, and the signal charge S6 generated by the detected light corresponds to the distance to the measured object. In other words, the reflected light S from the measured object
4, among the photodiodes 51 during the charge accumulation period T U1 .
Is accumulated in the photodiode 51 corresponding to the light that has arrived. This signal charge S6 is transferred to the vertical transfer unit 52 by the charge transfer signal S5. Note that the output period T S of the distance measurement light S3 may start earlier than the charge accumulation period T U1 .

【0030】電荷転送信号S5の出力から一定時間が経
過した後、再び電荷掃出し信号S2が出力され、垂直転
送部52への信号電荷の転送後にフォトダイオード51
に蓄積された不要電荷が基板53の方向へ掃出される。
すなわち、フォトダイオード51において新たに信号電
荷の蓄積が開始する。そして、上述したのと同様に、電
荷蓄積期間TU1が経過したとき、信号電荷は垂直転送部
52へ転送される。
After a predetermined time has elapsed from the output of the charge transfer signal S5, the charge sweep signal S2 is output again, and after the transfer of the signal charge to the vertical transfer section 52, the photodiode 51
Unnecessary charges accumulated in the substrate 53 are swept toward the substrate 53.
That is, accumulation of signal charges in the photodiode 51 is newly started. Then, as described above, when the charge accumulation period T U1 has elapsed, the signal charge is transferred to the vertical transfer unit 52.

【0031】このような信号電荷S6の垂直転送部52
への転送動作は、次の垂直同期信号S1が出力されるま
で、繰り返し実行される。これにより垂直転送部52に
おいて、信号電荷S6が積分され、1フィールドの期間
(2つの垂直同期信号S1によって挟まれる期間)に積
分された信号電荷S6は、その期間被計測物体が静止し
ていると見做せれば、被計測物体までの距離情報に対応
している。
The vertical transfer section 52 of such signal charges S6
Is repeatedly executed until the next vertical synchronization signal S1 is output. As a result, in the vertical transfer unit 52, the signal charge S6 is integrated, and in the signal charge S6 integrated during the period of one field (the period sandwiched between the two vertical synchronization signals S1), the measured object is stationary during that period. If it can be considered, it corresponds to the distance information to the measured object.

【0032】以上説明した信号電荷S6の検出動作は1
つのフォトダイオード51に関するものであり、全ての
フォトダイオード51においてこのような検出動作が行
なわれる。1フィールドの期間の検出動作の結果、各フ
ォトダイオード51に隣接した垂直転送部52の各部位
には、そのフォトダイオード51によって検出された距
離情報が保持される。この距離情報は垂直転送部52に
おける垂直転送動作および図示しない水平転送部におけ
る水平転送動作によってCCD28から出力される。
The operation of detecting the signal charge S6 described above is 1
One of the photodiodes 51 performs such a detection operation in all the photodiodes 51. As a result of the detection operation in one field period, the distance information detected by the photodiode 51 is held in each part of the vertical transfer unit 52 adjacent to each photodiode 51. This distance information is output from the CCD 28 by a vertical transfer operation in the vertical transfer unit 52 and a horizontal transfer operation in a horizontal transfer unit (not shown).

【0033】しかし、CCD28により検出された反射
光は、被計測物体の表面の反射率の影響を受けている。
したがって、この反射光を介して得られた距離情報には
反射率に起因する誤差が含まれている。また、CCD2
8により検出された反射光には、被計測物体からの反射
光以外に外光等の成分も含まれており、これに起因する
誤差も存在する。次にこれらの誤差の補正方法について
図8〜図10及び図11、図12、図13を参照して説
明する。
However, the reflected light detected by the CCD 28 is affected by the reflectance of the surface of the object to be measured.
Therefore, the distance information obtained via the reflected light includes an error due to the reflectance. In addition, CCD2
The reflected light detected by 8 includes components such as external light in addition to the reflected light from the object to be measured, and there is an error due to this. Next, a method for correcting these errors will be described with reference to FIGS. 8 to 10 and FIGS. 11, 12, and 13. FIG.

【0034】まずカメラに設けられた各モード切替スイ
ッチを手動で切り替えることにより各モードが設定され
る。すなわち、V/Dモード切替スイッチ18を操作す
ることによって、ビデオ(V)モードと距離測定(D)
モードの何れかが設定される。またカメラ本体10の背
面に設けられた3次元画像入力モード(3Dモード)切
替スイッチ61(図13(a)、(b)参照)を手動で
切り替えることにより3次元画像入力モードのオン/オ
フが設定される。3次元画像入力モードとは、相互に関
連した3次元的な距離情報と2次元的な画像情報とを、
関連する1対のファイルとして記録媒体に記録する動作
モードを言う。3次元画像入力モードが設定されておら
ず、V/Dモード切替スイッチ18がVモードに設定さ
れているときには、2次元的な画像情報のみが検出さ
れ、単独の画像データとして記録媒体Mに記録される。
また3次元画像入力モードが設定されておらず、V/D
モード切替スイッチ18がDモードに設定されていると
きには、3次元的な距離情報のみが検出され、単独の距
離データとして記録媒体Mに記録される。
First, each mode is set by manually switching each mode switch provided on the camera. That is, by operating the V / D mode switch 18, the video (V) mode and the distance measurement (D)
One of the modes is set. By manually switching a three-dimensional image input mode (3D mode) switch 61 (see FIGS. 13A and 13B) provided on the back of the camera body 10, the three-dimensional image input mode is turned on / off. Is set. In the three-dimensional image input mode, three-dimensional distance information and two-dimensional image information that are related to each other are
An operation mode in which a pair of files is recorded on a recording medium. When the three-dimensional image input mode is not set and the V / D mode switch 18 is set to the V mode, only two-dimensional image information is detected and recorded on the recording medium M as single image data. Is done.
Also, the three-dimensional image input mode is not set, and V / D
When the mode switch 18 is set to the D mode, only three-dimensional distance information is detected and recorded on the recording medium M as single distance data.

【0035】ステップ101においてレリーズスイッチ
15が全押しされていることが確認されるとステップ1
02が実行され、設定されたモードの判定が行なわれ
る。モードがVモード又は3次元画像入力モードのと
き、処理はステップ125に移り測距光制御がオフ状態
に設定される。続いてステップ126でCCD28のビ
デオ制御がオン状態に定められる。
When it is confirmed in step 101 that the release switch 15 is fully depressed, step 1 is executed.
02 is performed, and the set mode is determined. When the mode is the V mode or the three-dimensional image input mode, the process proceeds to step 125, and the distance measuring light control is set to the off state. Subsequently, at step 126, the video control of the CCD 28 is set to the ON state.

【0036】ステップ127では、1画像分の撮像が完
了したか否かが判定される。1画像分の撮像が完了する
と、撮像された画像データはステップ128で画像デー
タファイルとして記録媒体Mに記録される。ステップ1
29では3次元画像入力モードであるか否かが判定さ
れ、3次元画像入力モードでないときにはこの検出動作
は終了する。一方3次元画像入力モードのときには、ス
テップ103に処理が移される。
In step 127, it is determined whether or not one image has been captured. When the imaging of one image is completed, the captured image data is recorded on the recording medium M as an image data file in step 128. Step 1
At 29, it is determined whether or not the mode is the three-dimensional image input mode. When the mode is not the three-dimensional image input mode, this detection operation ends. On the other hand, in the case of the three-dimensional image input mode, the process proceeds to step 103.

【0037】ステップ103において垂直同期信号S1
が出力されるとともに測距光制御が開始される。すなわ
ち発光装置14が駆動され、パルス状の測距光S3が断
続的に出力される。次いでステップ104が実行され、
CCD28による検知制御が開始される。すなわち図7
を参照して説明した距離情報検出動作が開始され、電荷
掃出し信号S2と電荷転送信号S5が交互に出力され
て、距離情報の信号電荷S6が垂直転送部52において
積分される。
In step 103, the vertical synchronizing signal S1
Is output and the ranging light control is started. That is, the light emitting device 14 is driven, and the pulse-shaped ranging light S3 is output intermittently. Then step 104 is performed,
The detection control by the CCD 28 is started. That is, FIG.
Is started, the charge sweep signal S2 and the charge transfer signal S5 are output alternately, and the signal charge S6 of the distance information is integrated in the vertical transfer unit 52.

【0038】ステップ105では、距離情報検出動作の
開始から1フィールド期間が終了したか否か、すなわち
新たに垂直同期信号S1が出力されたか否かが判定され
る。1フィールド期間が終了するとステップ106へ進
み、距離情報の信号電荷S6がCCD28から出力され
る。この信号電荷S6はステップ107において画像メ
モリ34に一時的に記憶される。ステップ108では測
距光制御がオフ状態に切換えられ、発光装置14の発光
動作が停止する。
In step 105, it is determined whether one field period has elapsed from the start of the distance information detection operation, that is, whether a new vertical synchronizing signal S1 has been output. When one field period ends, the routine proceeds to step 106, where the signal charge S6 of the distance information is output from the CCD. This signal charge S6 is temporarily stored in the image memory 34 in step 107. In step 108, the ranging light control is switched to the off state, and the light emitting operation of the light emitting device 14 stops.

【0039】ステップ109〜112では、距離補正情
報の検出動作が行なわれる。まずステップ109では、
図8に示すように、垂直同期信号S11が出力されると
ともにCCD28による検知制御が開始される。すなわ
ち発光装置14の発光動作が行なわれることなく、光源
が消灯された状態で、電荷掃出し信号S12と電荷転送
信号S15が交互に出力される。電荷蓄積時間TU1は図
7に示す距離情報検出動作と同じであるが、被計測物体
に測距光が照射されないため(符号S13)、反射光は
存在せず(符号S14)。したがって、距離情報の信号
電荷は発生しないが、CCD28には外光等の外乱成分
が入射するため、この外乱成分に対応した信号電荷S1
6が発生する。この信号電荷S16は、外乱成分が距離
情報に及ぼす影響を補正するための、電荷蓄積時間TU1
に対する距離補正情報に対応している。
In steps 109 to 112, an operation of detecting distance correction information is performed. First, in step 109,
As shown in FIG. 8, the vertical synchronizing signal S11 is output, and the detection control by the CCD 28 is started. That is, the charge sweeping signal S12 and the charge transfer signal S15 are alternately output in a state where the light source is turned off without performing the light emitting operation of the light emitting device 14. The charge accumulation time T U1 is the same as the distance information detecting operation shown in FIG. 7, but since the object to be measured is not irradiated with the distance measurement light (reference S13), there is no reflected light (reference S14). Therefore, although no signal charge of the distance information is generated, since a disturbance component such as external light is incident on the CCD 28, the signal charge S1 corresponding to the disturbance component is generated.
6 occurs. This signal charge S16 has a charge accumulation time T U1 for correcting the influence of a disturbance component on distance information.
Corresponding to the distance correction information.

【0040】ステップ110では、距離補正情報の検出
動作の開始から1フィールド期間が終了したか否か、す
なわち新たに垂直同期信号S11が出力されたか否かが
判定される。1フィールド期間が終了するとステップ1
11において、距離補正情報の信号電荷S16がCCD
28から出力される。距離補正情報の信号電荷S16は
ステップ112において画像メモリ34に一時的に記憶
される。
In step 110, it is determined whether one field period has elapsed from the start of the operation of detecting the distance correction information, that is, whether a new vertical synchronizing signal S11 has been output. Step 1 when one field period ends
At 11, the signal charge S16 of the distance correction information is
28. The signal charge S16 of the distance correction information is temporarily stored in the image memory 34 in step 112.

【0041】ステップ113〜117では、反射率情報
の検出動作が行なわれる。ステップ113では、図9に
示すように、垂直同期信号S21が出力されるとともに
測距光制御が開始され、パルス状の測距光S23が断続
的に出力される。ステップ114では、CCD28によ
る検知制御が開始され、電荷掃出し信号S22と電荷転
送信号S25が交互に出力される。この反射率情報の検
出動作は、電荷掃出し信号S22が出力されてから電荷
転送信号S25が出力されるまでの電荷蓄積期間TU2
に、反射光S24の全てが受光されるように制御され
る。すなわち、CCD28の各フォトダイオード51に
蓄積される信号電荷S26のパルス幅TSは測距光S2
3のパルス幅TS と同じである。
In steps 113 to 117, an operation of detecting reflectance information is performed. In step 113, as shown in FIG. 9, the vertical synchronization signal S21 is output, and the distance measurement light control is started, and the pulse-shaped distance measurement light S23 is output intermittently. In step 114, the detection control by the CCD 28 is started, and the charge discharge signal S22 and the charge transfer signal S25 are output alternately. The operation of detecting the reflectance information is controlled such that all of the reflected light S24 is received within the charge accumulation period T U2 from when the charge sweep signal S22 is output to when the charge transfer signal S25 is output. . That is, the pulse width T S of the signal charge S26 accumulated in each photodiode 51 of the CCD 28 is equal to the distance measurement light S2.
3, which is the same as the pulse width T S.

【0042】したがって信号電荷S26は、被計測物体
までの距離とは関係せず、被計測物体の表面の反射率に
依存する反射率情報に対応している。
Therefore, the signal charge S26 has no relation to the distance to the object to be measured, and corresponds to reflectance information depending on the reflectance of the surface of the object to be measured.

【0043】ステップ115では、反射率情報検出動作
の開始から1フィールド期間が終了したか否か、すなわ
ち新たに垂直同期信号S21が出力されたか否かが判定
される。1フィールド期間が終了するとステップ116
へ進み、反射率情報の信号電荷S26がCCD28から
出力される。この信号電荷S26はステップ117にお
いて画像メモリ34に一時的に記憶される。ステップ1
18では測距光制御がオフ状態に切換えられ、発光装置
14の発光動作が停止する。
In step 115, it is determined whether one field period has elapsed from the start of the reflectance information detection operation, that is, whether a new vertical synchronizing signal S21 has been output. When one field period ends, step 116
Then, the signal charge S26 of the reflectance information is output from the CCD 28. This signal charge S26 is temporarily stored in the image memory 34 in step 117. Step 1
At 18, the distance measuring light control is switched to the off state, and the light emitting operation of the light emitting device 14 is stopped.

【0044】ステップ119〜122では、反射率補正
情報の検出動作が行なわれる。ステップ119では、図
10に示すように、垂直同期信号S31が出力されると
ともにCCD28による検知制御が開始される。すなわ
ち発光装置14の発光動作が行なわれることなく、光源
が消灯された状態で、電荷掃出し信号S32と電荷転送
信号S35が交互に出力される。電荷蓄積時間TU2は図
9に示す反射率情報検出動作と同じであるが、被計測物
体に測距光が照射されないため(符号S33)、反射光
は存在せず(符号S34)。したがって、反射率情報の
信号電荷は発生しないが、CCD28には外光等の外乱
成分に対応した信号電荷S36が発生する。この信号電
荷S36は、外乱成分が電荷蓄積時間TU2に対する反射
率情報に及ぼす影響を補正するための反射率補正情報に
対応している。
In steps 119 to 122, an operation of detecting reflectance correction information is performed. In step 119, as shown in FIG. 10, the vertical synchronizing signal S31 is output, and the detection control by the CCD 28 is started. That is, the charge sweeping signal S32 and the charge transfer signal S35 are alternately output in a state where the light source is turned off without performing the light emitting operation of the light emitting device 14. The charge accumulation time T U2 is the same as the reflectance information detection operation shown in FIG. 9, but since the object to be measured is not irradiated with the ranging light (reference S33), there is no reflected light (reference S34). Accordingly, no signal charge of the reflectance information is generated, but a signal charge S36 corresponding to a disturbance component such as external light is generated in the CCD 28. The signal charge S36 corresponds to reflectance correction information for correcting the influence of the disturbance component on the reflectance information with respect to the charge accumulation time T U2 .

【0045】ステップ120では、反射率補正情報の検
出動作の開始から1フィールド期間が終了したか否か、
すなわち新たに垂直同期信号S31が出力されたか否か
が判定される。1フィールド期間が終了するとステップ
121において、反射率補正情報の信号電荷S36がC
CD28から出力され、ステップ122において画像メ
モリ34に一時的に記憶される。
In step 120, it is determined whether or not one field period has elapsed since the start of the operation of detecting the reflectance correction information.
That is, it is determined whether a new vertical synchronization signal S31 has been output. When one field period is completed, in step 121, the signal charge S36 of the reflectance correction information becomes C
The data is output from the CD 28 and temporarily stored in the image memory 34 in step 122.

【0046】ステップ123では、ステップ103〜1
22において得られた距離情報、距離補正情報、反射率
情報および反射率補正情報を用いて距離データの演算処
理が行なわれ、ステップ124において距離データが距
離データファイルとして記録媒体Mに記録されてこの検
出動作は終了する。なおステップ124およびステップ
128におけるデータの記録に関しては後に詳述する。
In step 123, steps 103-1
Using the distance information, the distance correction information, the reflectance information, and the reflectance correction information obtained in step S22, the arithmetic processing of the distance data is performed. In step S124, the distance data is recorded on the recording medium M as a distance data file. The detection operation ends. The data recording in step 124 and step 128 will be described later in detail.

【0047】ステップ123において実行される演算処
理の内容を図7〜図10を参照して説明する。反射率R
の被計測物体が照明され、この被計測物体が輝度Iの2
次光源と見做されてCCDに結像された場合を想定す
る。このとき、電荷蓄積時間tの間にフォトダイオード
に発生した電荷が積分されて得られる出力Snは、 Sn=k・R・I・t ・・・(2) で表される。ここでkは比例定数で、撮影レンズのFナ
ンバーや倍率等によって変化する。
The contents of the arithmetic processing executed in step 123 will be described with reference to FIGS. Reflectivity R
Is illuminated, and the measured object has a luminance I of 2
It is assumed that the image is formed on the CCD by being regarded as the next light source. At this time, the output Sn obtained by integrating the charge generated in the photodiode during the charge accumulation time t is represented by: Sn = kR.I.t (2) Here, k is a proportionality constant, which varies depending on the F number, magnification, and the like of the taking lens.

【0048】被計測物体がレーザ等の光源からの光で照
明される場合、輝度Iはその光源による輝度IS と背景
光による輝度IB との合成されたものとなり、 I=IS +IB ・・・(3) と表せる。
[0048] If the measurement subject is illuminated with light from a light source such as a laser, the luminance I becomes were synthesized with the luminance I B by the luminance I S and the background light due to the light source, I = I S + I B ... (3) can be expressed.

【0049】図7に示されるようにパルス状の電荷蓄積
時間をTU1、測距光S3のパルス幅をTS 、距離情報の
信号電荷S6のパルス幅をTD とし、1フィールド期間
中のその電荷蓄積時間がN回繰り返されるとすると、得
られる出力S10は、 S10=Σ(k・R(IS ・TD +IB ・TU1)) =k・N・R(IS ・TD +IB ・TU1) ・・・(4) となる。なお、パルス幅TD は TD =TU1−δ・t =TU1−2r/C ・・・(5) と表せる。
[0049] The pulsed charge accumulation time as shown in FIG. 7 T U1, the pulse width T S of the distance measuring light S3, a pulse width of the signal charge S6 in the distance information and T D, in one field period When the charge storage time is to be repeated N times, the output S 10 resulting, S 10 = Σ (k · R (I S · T D + I B · T U1)) = k · N · R (I S · T D + I B · T U1 ) (4) The pulse width T D can be expressed as T D = T U1 -δ · t = T U1 -2r / C ··· (5).

【0050】図9に示されるようにパルス状の電荷蓄積
時間TU2が、測距光S23の期間(パルス幅)TS より
も十分大きく、反射光の単位受光時間を全部含むように
制御された場合に得られる出力S20は、 S20=Σ(k・R(IS ・TS +IB ・TU2)) =k・N・R(IS ・TS +IB ・TU2) ・・・(6) となる。
As shown in FIG. 9, the pulse-shaped charge accumulation time T U2 is controlled to be sufficiently longer than the period (pulse width) T S of the distance measuring light S23 and to include the entire unit light receiving time of the reflected light. the output S 20 obtained when the, S 20 = Σ (k · R (I S · T S + I B · T U2)) = k · N · R (I S · T S + I B · T U2) ·・ ・ (6)

【0051】図8に示されるように発光を止めて、図7
と同じ時間幅でのパルス状の電荷蓄積を行なった場合に
得られる出力S11は、 S11=Σ(k・R・IB ・TU1) =k・N・R・IB ・TU1 ・・・(7) となる。同様に、図10に示されるような電荷蓄積を行
なった場合に得られる出力S21は、 S21=Σ(k・R・IB ・TU2) =k・N・R・IB ・TU2 ・・・(8) となる。
When light emission is stopped as shown in FIG.
Output S 11 obtained when performing a pulsed charge accumulation at the same time width is, S 11 = Σ (k · R · I B · T U1) = k · N · R · I B · T U1 (7) Similarly, the output S 21 obtained when performing charge accumulation as shown in FIG. 10, S 21 = Σ (k · R · I B · T U2) = k · N · R · I B · T U2 (8)

【0052】(4)、(6)、(7)、(8)式から、 SD =(S10−S11)/(S20−S21) =TD /TS ・・・(9) が得られる。From the equations (4), (6), (7), and (8), S D = (S 10 −S 11 ) / (S 20 −S 21 ) = T D / T S (9) ) Is obtained.

【0053】上述したように測距光S3と反射光S4に
はそれぞれ外光等の外乱成分(背景光による輝度IB
が含まれている。(9)式のTD /TS は、測距光S3
を照射したときの被計測物体からの反射光S4の光量
を、測距光S3の光量によって正規化したものであり、
これは、測距光S3の光量(図7の信号電荷S6に相
当)から外乱成分(図8の信号電荷S16に相当)を除
去した値と、反射光S4の光量(図9の信号電荷S26
に相当)から外乱成分(図10の信号電荷S36に相
当)を除去した値との比に等しい。
As described above, the distance measuring light S3 and the reflected light S4 respectively include disturbance components such as external light (luminance I B due to background light).
It is included. T D / T S in equation (9) is the distance measuring light S3
Is obtained by normalizing the amount of reflected light S4 from the object to be measured when the object is irradiated with the amount of ranging light S3,
This value is obtained by removing the disturbance component (corresponding to the signal charge S16 in FIG. 8) from the light amount of the distance measuring light S3 (corresponding to the signal charge S6 in FIG. 7), and the light amount of the reflected light S4 (corresponding to the signal charge S26 in FIG. 9).
) From the value obtained by removing the disturbance component (corresponding to the signal charge S36 in FIG. 10) from the corresponding value.

【0054】(9)式の各出力値S10、S11、S20、S
21はステップ107、112、117、122におい
て、距離情報、距離補正情報、反射率情報、反射率補正
情報として格納されている。したがって、これらの情報
に基いて、TD /TS が得られる。パルス幅TU1は既知
であるから、(5)式とTD /TS から距離rが得られ
る。
Each output value S 10 , S 11 , S 20 , S in the equation (9)
21 is stored in steps 107, 112, 117, and 122 as distance information, distance correction information, reflectance information, and reflectance correction information. Therefore, T D / T S is obtained based on these pieces of information. Since the pulse width T U1 is known, the distance r is obtained from the equation (5) and T D / T S.

【0055】このように(5)式と(9)式に基いてカ
メラ本体から被計測物体の表面の各点までの距離情報が
補正され、この距離情報の検出精度が向上する。
As described above, the distance information from the camera body to each point on the surface of the object to be measured is corrected based on the expressions (5) and (9), and the detection accuracy of the distance information is improved.

【0056】なお本実施形態では、被計測物体の距離情
報に対して、外光等の影響が除去されていたが、外光等
の影響が無視できるときは、(9)式において外光等の
影響に関する信号電荷の積分値(すなわちS11、S21
を省略すればよい。これにより、被計測物体の表面の反
射率のみに関する補正が行なわれる。
In the present embodiment, the influence of external light or the like has been removed from the distance information of the measured object. integrated value of the impact signal charge related (i.e. S 11, S 21)
May be omitted. As a result, correction is performed only on the reflectance of the surface of the measured object.

【0057】また本実施形態において、ステップ10
5、110、115、120では、1フィールド期間の
間、信号電荷の蓄積が行なわれているが、これに代え
て、複数フィールド期間、電荷蓄積を行なうようにして
もよい。
In this embodiment, step 10
In 5, 110, 115, and 120, signal charges are accumulated for one field period. Alternatively, charge accumulation may be performed for a plurality of field periods.

【0058】次に図13、図14、図15を参照してス
テップ124およびステップ128における各データの
記録方法について説明する。
Next, with reference to FIGS. 13, 14 and 15, a method of recording each data in steps 124 and 128 will be described.

【0059】3Dモード切替スイッチ61が3次元画像
入力モードに設定されていないとき(図13(a))、
ステップ124で記録される距離データおよびステップ
128で記録される画像データはそれぞれ独立した距離
データファイル、画像データファイルとして記録媒体M
に記録される。すなわちVモードで得られた画像データ
とDモードで得られた距離データは無関係なデータとし
て扱われる。
When the 3D mode switch 61 is not set to the three-dimensional image input mode (FIG. 13A)
The distance data recorded in step 124 and the image data recorded in step 128 are recorded as independent distance data files and image data files on the recording medium M, respectively.
Will be recorded. That is, the image data obtained in the V mode and the distance data obtained in the D mode are treated as irrelevant data.

【0060】一方3Dモード切替スイッチ61が3次元
画像入力モードに設定(図13(b))されていると、
ステップ124で記録される距離データとステップ12
8で記録される画像データは一対のデータとして扱われ
る。すなわち距離データファイルには、対応する画像デ
ータファイルを他のファイルから識別するためのファイ
ル関連情報が記録され、画像データファイルにも対応す
る距離データファイルを識別するためのファイル関連情
報が記録される。これにより画像データと距離データが
別個のデータファイルに記録されていても一方のデータ
ファイルから他方のデータファイルを識別でき、3次元
画像処理に必要な画素毎に対応する画像データ、距離デ
ータを得ることができる。
On the other hand, when the 3D mode switch 61 is set to the three-dimensional image input mode (FIG. 13B),
Distance data recorded in step 124 and step 12
The image data recorded in 8 is treated as a pair of data. That is, file-related information for identifying the corresponding image data file from other files is recorded in the distance data file, and file-related information for identifying the corresponding distance data file is also recorded in the image data file. . Thus, even if image data and distance data are recorded in separate data files, the other data file can be identified from one data file, and image data and distance data corresponding to each pixel required for three-dimensional image processing are obtained. be able to.

【0061】図14は3次元画像入力モードにおいて作
成される画像データファイルと距離データファイルの一
例を示している。3次元画像入力モードに設定されてい
るときステップ128では、例えば画像データファイ
ル”IMAG0001.TIF”(TIFFファイル)
に画像データが記録される。このときステップ124で
は、例えば距離データファイル”DIST0001.D
ST”に距離データが記録される。画像データファイ
ル”IMAG0001.TIF”には、対となる距離デ
ータファイルの拡張子を除いたファイル名の末尾が画像
データファイルと共通の”0001”であり、かつその
拡張子が”DST”であることがファイル関連情報とし
て記録される。同様に距離データファイル”DIST0
001.DST”には、対となる画像データファイルの
拡張子を除いたファイル名の末尾が”0001”であ
り、その拡張子が”TIF”であることがファイル関連
情報として記録される。
FIG. 14 shows an example of an image data file and a distance data file created in the three-dimensional image input mode. When the three-dimensional image input mode is set, in step 128, for example, an image data file "IMAG0001.TIF" (TIFF file)
The image data is recorded in the. At this time, in step 124, for example, the distance data file "DIST0001.D
ST is recorded in the image data file “IMAG0001. In the TIF, the end of the file name excluding the extension of the paired distance data file is “0001”, which is common with the image data file, and the extension is “DST” as file-related information. Similarly, the distance data file “DIST0” is recorded.
001. In the “DST”, the end of the file name excluding the extension of the paired image data file is “0001” and the extension is “TIF” is recorded as file-related information.

【0062】ステップ124、ステップ128で距離デ
ータや画像データを記録する際に作成されるファイルの
名前は、記録媒体上に既に存在する距離データファイル
や画像データファイルのファイル名を調べて自動的に付
けられる。すなわち3次元画像入力モードのときには、
既存の距離データファイル及び画像データファイルの双
方のファイル名を調べ、これら2種類のファイルの中で
ファイル名の末尾の数が最大のものを選び、その数字に
1を加えた数をファイルの共通な末尾とするように距離
データファイル及び画像データファイルの名前が付けら
れる。また3次元画像入力モードが設定されていないと
きのステップ124では、既存の距離データファイルの
ファイル名のなかで末尾の数が最大のものに1を加えて
新しいファイル名とし、ステップ128でも同様に、既
存の画像データファイルのなかでファイル名の末尾の数
が最大のものに1を加えて新しいファイル名とする。
The names of the files created when recording the distance data and image data in steps 124 and 128 are automatically obtained by checking the file names of the distance data files and image data files already existing on the recording medium. Attached. That is, in the three-dimensional image input mode,
Examine the file names of both the existing distance data file and image data file, select the file with the largest number at the end of the file name from these two types of files, and add 1 to the number to indicate the common number for the file. The name of the distance data file and the name of the image data file are given so as to be the last. Also, in step 124 when the three-dimensional image input mode is not set, one is added to the file having the largest number at the end of the existing distance data files to create a new file name. A new file name is obtained by adding 1 to the largest number of file names at the end of the existing image data files.

【0063】図15は画像データファイルと距離データ
ファイルの構造を模式的に表したものである。これら2
つのファイルは大きくファイル管理領域(ヘッダ領域)
hとデータ領域Ad に別れている。画像データファイ
ルのヘッダ領域Ah には、例えば画像データがレッド
(R)、グリーン(G)、ブルー(B)に関する輝度情
報であること、それが記録されている順序、そのビット
数など画像データに関する情報や撮影日時、撮影者、撮
影条件などの撮影状況に関する情報の他、上述のファイ
ル関連情報などが記録されている。距離データファイル
のヘッダ領域Ahには距離データにおける距離単位、そ
のデータの形式、バイト数など距離データに関する情報
や上述のファイル関連情報などが記録されている。
FIG. 15 schematically shows the structure of the image data file and the distance data file. These two
One file is large and the file management area (header area)
Ah and a data area Ad . The header area A h of the image data file, for example, the image data is red (R), green (G), and that the luminance information about the blue (B), the order in which it is recorded, the image data including the number of bits In addition to the information related to the shooting conditions such as shooting date and time, the photographer, and shooting conditions, the above-described file-related information and the like are recorded. Distance data file in the header area A h distance unit in the distance data in the format of the data, information and the above-described file-related information relating to the distance data such as the number of bytes is recorded.

【0064】画像データファイルのデータ領域Ad
は、ステップ128(図12)で記録される画素毎のR
GBの画像データが記録されている。図16(a)は、
データ領域Ad に記録された各画素に対応する画像デー
タのメモリ上の配置を模式的に表したものである。図で
は画素の物理的配置に対応させてメモリ上のデータ配置
を表しているため2次元的に表現されている。すなわち
0 、M1 、M2 には1ライン目の1番左の画素におけ
るRGBに関する画像データ(画素値)R1,1
1,1 、B1,1 が記録されている。同様にM3 〜M5
は1ライン目の左から2番目の画素におけるRGBの画
像データR1,2 、G1,2 、B1,2 が記録されている。M
3n〜M3n+2には2ライン目の1番左の画素のRGBの画
像データR2,1 、G2,1 、B2,1 が記録されている。な
おここでnは水平方向の画素数である。
[0064] The data area A d of the image data file, R for each pixel to be recorded in step 128 (FIG. 12)
GB image data is recorded. FIG. 16 (a)
The arrangement of the memory of the image data corresponding to each pixel that has been written on the data area A d is a representation schematically. In the figure, since the data arrangement on the memory is shown corresponding to the physical arrangement of the pixels, it is expressed two-dimensionally. That is, M 0 , M 1 , and M 2 have RGB image data (pixel values) R 1,1 , R 1 ,
G 1,1 and B 1,1 are recorded. Similarly, RGB image data R 1,2 , G 1,2 , B 1,2 in the second pixel from the left of the first line are recorded in M 3 to M 5 . M
In 3n to M 3n + 2 , RGB image data R 2,1 , G 2,1 and B 2,1 of the first pixel on the second line are recorded. Here, n is the number of pixels in the horizontal direction.

【0065】距離データファイルのデータ領域Ad には
ステップ124で記録される画素毎の距離データが記録
されている。図16(b)は、データ領域Ad に記録さ
れた距離データのメモリ上の配置を模式的に表したもの
である。図16(a)の画像データのときと同様に画素
の物理的配置に対応させてメモリ上のデータ配置を表し
ているため2次元的に表現されている。すなわちDi,j
(i,j=1,2,…)はiライン目の左からj番目の
画素に対応する距離データである。
[0065] The data area A d of the distance data file distance data for each pixel to be recorded is recorded at step 124. FIG. 16 (b) is an arrangement of the data area A of the d distance data recorded in the memory a representation schematically. As in the case of the image data in FIG. 16A, the data arrangement on the memory is represented in a two-dimensional manner in correspondence with the physical arrangement of the pixels. That is, D i, j
(I, j = 1, 2,...) Is distance data corresponding to the j-th pixel from the left of the i-th line.

【0066】以上のように第1の実施形態によれば、大
きな記憶容量を用いなくとも高精度な3次元画像情報を
記録できる。また各画素毎に対応する距離データが直接
記録されているため被計測物体の各部位までの距離を迅
速かつ簡便に得られ、距離データを用いた3次元画像処
理も容易に行なえる。
As described above, according to the first embodiment, highly accurate three-dimensional image information can be recorded without using a large storage capacity. Further, since the distance data corresponding to each pixel is directly recorded, the distance to each part of the measured object can be obtained quickly and easily, and three-dimensional image processing using the distance data can be easily performed.

【0067】なお本実施形態においては、画像データフ
ァイルと距離データファイルとにそれぞれファイル関連
情報を記録したが、その一方(例えば画像データファイ
ル)のみにファイル関連情報を記録してもよい。また本
実施形態では、ファイルを識別するためのファイル関連
情報として、拡張子を含むファイル名の一部を用いたが
例えば、これにディレクトリ名を加えたパスネームの一
部であってもよい。
In this embodiment, the file-related information is recorded in each of the image data file and the distance data file. However, the file-related information may be recorded in only one of them (for example, the image data file). Further, in the present embodiment, a part of the file name including the extension is used as the file-related information for identifying the file, but may be a part of the path name obtained by adding the directory name to the file name.

【0068】次に図17を参照して本発明の第2の実施
形態について説明する。第2の実施形態において、機械
的、電気的構成や距離情報検出動作は第1の実施形態と
同様である。第2の実施形態と第1の実施形態で異なる
のは距離データファイルのデータ形式のみである。
Next, a second embodiment of the present invention will be described with reference to FIG. In the second embodiment, a mechanical and electrical configuration and a distance information detecting operation are the same as those in the first embodiment. The only difference between the second embodiment and the first embodiment is the data format of the distance data file.

【0069】第1の実施形態では各画素毎にRGBの画
像データと距離データが記録されていたが、第2の実施
形態では数画素(例えば4画素)を1つのグループと
し、グループ毎に1つの距離データを記録する。図は横
2画素分、縦2画素分の計4画素を1つのグループとし
た場合におけるメモリの配置を模式的に表している。図
17(a)はRGBの画像データに関するもので、第1
の実施形態と全く同様である。図17(a)は距離デー
タに関するものであるが、記録されているのは上記4画
素の右下の画素に対応する距離データのみである。ここ
でmは水平方向の画素数nを2で割った(n/2)の整
数部である。
In the first embodiment, RGB image data and distance data are recorded for each pixel. However, in the second embodiment, several pixels (for example, four pixels) are grouped into one group, and one group includes one pixel. Record two distance data. The figure schematically shows the arrangement of the memory in a case where a total of four pixels of two horizontal pixels and two vertical pixels are grouped into one group. FIG. 17A relates to RGB image data.
This is exactly the same as the embodiment. FIG. 17A relates to the distance data, but only the distance data corresponding to the lower right pixel of the above four pixels is recorded. Here, m is an integer part of (n / 2) obtained by dividing the number n of pixels in the horizontal direction by two.

【0070】以上のように第2の実施形態によれば、画
像データほど詳細な距離データが必要ではない場合、数
画素毎に距離データを記録することにより距離データフ
ァイルの容量を第1の実施形態のときよりも減ずること
ができる。
As described above, according to the second embodiment, when the distance data is not as detailed as the image data, the distance data is recorded every several pixels to reduce the capacity of the distance data file. It can be reduced compared to the form.

【0071】なお本実施形態において、グループの距離
情報として記録されたのは、4画素のうち右下の画素に
対応する距離データであった。しかし、これはグループ
の中の他の画素に対応する距離データであってもよい
し、グループにおける距離データの平均値であってもよ
い。
In this embodiment, the distance data corresponding to the lower right pixel among the four pixels is recorded as the distance information of the group. However, this may be distance data corresponding to other pixels in the group, or may be an average value of the distance data in the group.

【0072】次に図18を参照して第3の実施形態につ
いて説明する。第3の実施形態も第2の実施形態と同様
に第1の実施形態と異なるのは距離データのデータ形式
のみで、他の形態は第1の実施形態と同様である。
Next, a third embodiment will be described with reference to FIG. The third embodiment differs from the first embodiment only in the data format of the distance data, similarly to the second embodiment, and the other embodiments are the same as the first embodiment.

【0073】図18の横軸は被計測物体までの距離であ
り、縦軸は所定の距離レンジにおける相対距離に対応し
た距離データの値である。例えばある画素に対応する被
計測物体までの距離がLであるとき、距離Lは距離レン
ジ2の最近距離L1とL1からの相対距離Lrとの和で
表され、3次元画像情報ファイルのデータ領域には相対
距離Lrに対応する距離データD(Dmin ≦D≦
max )が記録される。すなわち、距離データDが例え
ば8ビットデータの場合、Dmin =0、Dmax =255
であり、LrはLr=(L2−L1)/256×Dで表
せる。
The horizontal axis in FIG. 18 is the distance to the measured object, and the vertical axis is the distance data value corresponding to the relative distance in a predetermined distance range. For example, when the distance to the measured object corresponding to a certain pixel is L, the distance L is represented by the sum of the nearest distance L1 of the distance range 2 and the relative distance Lr from L1, and the data area of the three-dimensional image information file Has distance data D (D min ≦ D ≦) corresponding to the relative distance Lr.
D max ) is recorded. That is, when the distance data D is, for example, 8-bit data, D min = 0 and D max = 255.
And Lr can be expressed by Lr = (L2−L1) / 256 × D.

【0074】距離データファイルのヘッダ領域には、第
1の実施形態で例示した情報に加えて、各距離レンジの
最近距離と最遠距離の情報と、各画素がどの距離レンジ
に対応するのかを示す情報が記録されている。このとき
隣接する画素は通常同一の距離レンジに対応するので各
画素と距離レンジとの対応関係は各画素毎に記録する必
要はない。例えば水平方向に連続した画素が、ある区間
にわたり同一距離レンジに対応するとき、この区間が開
始または終了するアドレスと、その区間における距離レ
ンジが記録されていればよい。なお距離レンジに関する
情報としては、距離レンジの最近距離と最遠距離の他、
最近距離とその幅(最遠距離と最近距離の差)であって
もよい。
In the header area of the distance data file, in addition to the information exemplified in the first embodiment, information on the nearest distance and the furthest distance in each distance range, and information on which distance range each pixel corresponds to, is displayed. The indicated information is recorded. At this time, since the adjacent pixels usually correspond to the same distance range, it is not necessary to record the correspondence between each pixel and the distance range for each pixel. For example, when pixels continuous in the horizontal direction correspond to the same distance range over a certain section, the address at which this section starts or ends and the distance range in that section may be recorded. In addition, as information on the distance range, in addition to the closest distance and the farthest distance of the distance range,
The closest distance and its width (the difference between the farthest distance and the closest distance) may be used.

【0075】以上のように第3の実施形態によれば、被
計測物体までの距離を各距離レンジにおける相対距離で
表すことにより、1つの距離データに割り当てられるビ
ット数を減らすことができるため、距離データファイル
の容量を減ぜられる。
As described above, according to the third embodiment, the number of bits assigned to one distance data can be reduced by expressing the distance to the measured object by the relative distance in each distance range. The size of the distance data file can be reduced.

【0076】次に図19を参照して第4の実施形態を説
明する。第4の実施形態は距離データを基準距離データ
からの差分として表したものであり、その他は、第1の
実施形態と同じである。
Next, a fourth embodiment will be described with reference to FIG. In the fourth embodiment, the distance data is represented as a difference from the reference distance data, and the rest is the same as the first embodiment.

【0077】図は、画素の物理的配置に対応させて距離
データを記したものである。図19(a)の数値は、各
画素の被計測物体までの距離を絶対または相対距離で表
したときの距離データを表している。一方図19(b)
の数値は、図19(a)における距離データをメモリ上
において所定方向に隣接した距離データを基準として差
分の形式で表したものである。ただし基準となるべき距
離データがない場合には絶対または相対距離に対応する
距離データをそのまま用いている。例えば図19(b)
における左上の距離データD0 (123)は、これより
先のメモリに基準とすべき距離データが記録されていな
いため絶対または相対距離に対応する距離データがその
まま記録されている。また差分距離データdi (i=
1,2,…,N)は距離データDi とDi-1 の差(Di
−Di-1 )で表される。ただしNは距離データの総数で
ある。
The figure shows the distance data corresponding to the physical arrangement of the pixels. The numerical values in FIG. 19A represent distance data when the distance of each pixel to the object to be measured is expressed as an absolute or relative distance. On the other hand, FIG.
The numerical value of represents the distance data in FIG. 19A in the form of a difference with reference to distance data adjacent in a predetermined direction on the memory. However, when there is no distance data to be a reference, the distance data corresponding to the absolute or relative distance is used as it is. For example, FIG.
In the upper left distance data D 0 (123), the distance data corresponding to the absolute or relative distance is recorded as it is because the distance data to be used as a reference is not recorded in the memory ahead of it. The difference between the distance data d i (i =
, N) is the difference (D i ) between the distance data D i and D i−1.
−D i−1 ). Here, N is the total number of distance data.

【0078】なお、上記の例では隣接するデータとの差
分が用いられたが、1つの距離データを基準距離データ
として差分距離データを求めてもよい。例えばD0 を基
準距離データとして、差分距離データdi をDi とD0
の差(Di −D0 )で求めてもよい。
In the above example, the difference between adjacent data is used. However, difference distance data may be obtained using one distance data as reference distance data. For example the D 0 as the reference distance data, the differential distance data d i D i and D 0
(D i -D 0 ).

【0079】このように第4の実施形態によれば、第3
の実施形態と同様に各距離データが必要とするビット数
を減らせるので、距離データファイルの容量を減ぜられ
る。
As described above, according to the fourth embodiment, the third
Since the number of bits required for each distance data can be reduced as in the embodiment, the capacity of the distance data file can be reduced.

【0080】なお本実施形態では、エリアセンサを1つ
しか備えていなかったため画像情報と距離情報を別々に
求めなければならなかったが、撮像レンズ11からの入
射光をハーフミラー等を用いて2分割し、分割された光
をそれぞれ2つのエリアセンサで受光することにより画
像情報と距離情報を同時に入力してもよい。
In the present embodiment, since only one area sensor was provided, the image information and the distance information had to be obtained separately. However, the incident light from the imaging lens 11 was obtained by using a half mirror or the like. The image information and the distance information may be input simultaneously by receiving the divided light and receiving the divided light by two area sensors.

【0081】また本実施形態では画像データとしてRG
Bを用いたが、YCbCrを用いてもよいし、カラーの
画像データでなく白黒の画像データであってもよい。ま
たデジタルデータをアナログ信号に変換してアナログ記
録媒体に記録してもよい。
In this embodiment, RG is used as image data.
Although B is used, YCbCr may be used, and black and white image data may be used instead of color image data. Alternatively, digital data may be converted into an analog signal and recorded on an analog recording medium.

【0082】[0082]

【発明の効果】以上のように本発明によれば、少ない記
憶容量で高精度の3次元画像情報を記録でき、3次元画
像処理を容易に実行できる形式で画像データおよび距離
データを記録媒体に記録する3次元画像入力装置を得る
ことができる。
As described above, according to the present invention, high-precision three-dimensional image information can be recorded with a small storage capacity, and image data and distance data can be easily recorded on a recording medium in a format that can easily execute three-dimensional image processing. A three-dimensional image input device for recording can be obtained.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の一実施形態である3次元画像入力装置
を備えたカメラの斜視図である。
FIG. 1 is a perspective view of a camera provided with a three-dimensional image input device according to an embodiment of the present invention.

【図2】図1に示すカメラの回路構成を示すブロック図
である。
FIG. 2 is a block diagram showing a circuit configuration of the camera shown in FIG.

【図3】測距光による距離測定の原理を説明するための
図である。
FIG. 3 is a diagram for explaining the principle of distance measurement using ranging light.

【図4】測距光、反射光、ゲートパルス、およびCCD
が受光する光量分布を示す図である。
FIG. 4 Distance measuring light, reflected light, gate pulse, and CCD
FIG. 4 is a diagram showing a distribution of the amount of light received by the light source.

【図5】CCDに設けられるフォトダイオードと垂直転
送部の配置を示す図である。
FIG. 5 is a diagram showing an arrangement of a photodiode and a vertical transfer unit provided in a CCD.

【図6】CCDを基板に垂直な平面で切断して示す断面
図である。
FIG. 6 is a cross-sectional view of the CCD cut along a plane perpendicular to the substrate.

【図7】被計測物体までの距離に関するデータを検出す
る距離情報検出動作のタイミングチャートである。
FIG. 7 is a timing chart of a distance information detecting operation for detecting data relating to a distance to an object to be measured.

【図8】距離補正情報の検出動作のタイミングチャート
である。
FIG. 8 is a timing chart of a detection operation of distance correction information.

【図9】反射率情報の検出動作のタイミングチャートで
ある。
FIG. 9 is a timing chart of an operation of detecting reflectance information.

【図10】反射率補正情報の検出動作のタイミングチャ
ートである。
FIG. 10 is a timing chart of an operation of detecting reflectance correction information.

【図11】距離情報検出動作のフローチャートの前半部
である。
FIG. 11 is a first half of a flowchart of a distance information detecting operation.

【図12】距離情報検出動作のフローチャートの後半部
である。
FIG. 12 is the latter half of the flowchart of the distance information detection operation.

【図13】カメラ背面に設けられた3次元画像入力モー
ド(3Dモード)切替スイッチの図である。
FIG. 13 is a diagram of a three-dimensional image input mode (3D mode) switch provided on the back of the camera.

【図14】画像データファイルと距離データファイルの
概念的構造を示す図である。
FIG. 14 is a diagram showing a conceptual structure of an image data file and a distance data file.

【図15】画像データファイルと距離データファイルの
ファイル関連情報を説明する図である。
FIG. 15 is a diagram illustrating file-related information of an image data file and a distance data file.

【図16】第1の実施形態においてファイルに記録され
た画像データと距離データの概念的構造を示す図であ
る。
FIG. 16 is a diagram showing a conceptual structure of image data and distance data recorded in a file in the first embodiment.

【図17】第2の実施形態における画像データファイル
と距離データファイルの概念的構造を示す図である。
FIG. 17 is a diagram illustrating a conceptual structure of an image data file and a distance data file according to the second embodiment.

【図18】第3の実施形態における被計測物体までの距
離と距離レンジにおける相対距離データとの関係を示す
図である。
FIG. 18 is a diagram illustrating a relationship between a distance to an object to be measured and relative distance data in a distance range according to the third embodiment.

【図19】第4の実施形態における差分距離データを説
明した図である。
FIG. 19 is a diagram illustrating difference distance data according to the fourth embodiment.

【符号の説明】[Explanation of symbols]

d データ領域 Ah ファイル管理領域(ヘッダ領域) M 記録媒体 Ad data area Ah file management area (header area) M Recording medium

フロントページの続き Fターム(参考) 2F065 AA06 BB05 DD02 DD07 FF12 FF32 FF41 GG04 GG12 HH04 HH18 JJ01 JJ03 JJ18 JJ26 KK02 NN12 NN17 PP22 QQ03 QQ24 UU05 4M118 AA10 AB01 AB03 BA13 CA03 DB01 FA06 FA13 GA04 GA10 5B057 BA02 BA12 CA01 CB01 CB12 CB13 CH11 DA06 DB03 DB06 DC02 5C052 AA17 AB03 AB04 CC06 DD02 DD04 DD08 EE02 EE03 EE08 5C061 AA29 AB03 AB21 Continued on the front page F-term (reference) 2F065 AA06 BB05 DD02 DD07 FF12 FF32 FF41 GG04 GG12 HH04 HH18 JJ01 JJ03 JJ18 JJ26 KK02 NN12 NN17 PP22 QQ03 QQ24 UU05 4M118 AA10 AB01 AB03 BA13 CA03 GA01 BA01CB01 CH11 DA06 DB03 DB06 DC02 5C052 AA17 AB03 AB04 CC06 DD02 DD04 DD08 EE02 EE03 EE08 5C061 AA29 AB03 AB21

Claims (14)

【特許請求の範囲】[Claims] 【請求項1】 被写体の画像データを画素毎に得る画像
入力手段と、 前記画素に対応する前記被写体までの距離を検出しその
距離データを得る距離データ検出手段と、 前記画素に対応させて前記画像データおよび前記距離デ
ータをそれぞれ画像データファイルおよび距離データフ
ァイルに記録すると共に、前記画像データファイルと前
記距離データファイルが相互に関連することを示すファ
イル関連情報を記録する3次元画像記録手段とを備えた
ことを特徴とする3次元画像入力装置。
An image input unit that obtains image data of a subject for each pixel; a distance data detecting unit that detects a distance to the subject corresponding to the pixel and obtains the distance data; Three-dimensional image recording means for recording image data and the distance data in an image data file and a distance data file, respectively, and recording file-related information indicating that the image data file and the distance data file are related to each other; A three-dimensional image input device, comprising:
【請求項2】 前記画像データおよび前記距離データな
らびに前記ファイル関連情報が同一の記録媒体に記録さ
れることを特徴とする請求項1に記載の3次元画像入力
装置。
2. The three-dimensional image input device according to claim 1, wherein the image data, the distance data, and the file-related information are recorded on a same recording medium.
【請求項3】 前記画像データファイルがファイル内で
共有される情報を記録するための第1のファイル管理領
域と画像データを記録するための第1のデータ領域とを
有し、前記距離データファイルがファイル内で共有され
る情報を記録するための第2のファイル管理領域と距離
データを記録するための第2のデータ領域とを有するこ
とを特徴とする請求項1に記載の3次元画像入力装置。
3. The distance data file, wherein the image data file has a first file management area for recording information shared in the file and a first data area for recording image data. 3. The three-dimensional image input device according to claim 1, further comprising a second file management area for recording information shared in the file and a second data area for recording distance data. apparatus.
【請求項4】 前記ファイル関連情報が前記第1または
第2のファイル管理領域に記録されることを特徴とする
請求項3に記載の3次元画像入力装置。
4. The three-dimensional image input device according to claim 3, wherein the file-related information is recorded in the first or second file management area.
【請求項5】 前記第1のファイル管理領域には対応す
る前記距離データファイルを識別するための距離データ
ファイル関連情報が記録され、前記第2のファイル管理
領域には対応する前記画像データファイルを識別するた
めの画像データファイル関連情報が記録されていること
を特徴とする請求項4に記載の3次元画像入力装置。
5. The distance data file related information for identifying the corresponding distance data file is recorded in the first file management area, and the corresponding image data file is stored in the second file management area. The three-dimensional image input device according to claim 4, wherein image data file related information for identification is recorded.
【請求項6】 前記距離データファイル関連情報および
前記画像データファイル関連情報に、共通するファイル
識別データを記録することにより相互の関連が示される
ことを特徴とする請求項5に記載の3次元画像入力装
置。
6. The three-dimensional image according to claim 5, wherein mutual relationship is indicated by recording common file identification data in the distance data file related information and the image data file related information. Input device.
【請求項7】 前記ファイル識別データが拡張子を含む
ファイル名の一部であることを特徴とする請求項6に記
載の3次元画像入力装置。
7. The three-dimensional image input device according to claim 6, wherein the file identification data is a part of a file name including an extension.
【請求項8】 前記距離データが所定の距離単位に基く
絶対距離データであることを特徴とする請求項1に記載
の3次元画像入力装置。
8. The three-dimensional image input device according to claim 1, wherein the distance data is absolute distance data based on a predetermined distance unit.
【請求項9】 前記距離単位が前記ファイル管理領域に
記録されることを特徴とする請求項3に記載の3次元画
像入力装置。
9. The three-dimensional image input device according to claim 3, wherein the distance unit is recorded in the file management area.
【請求項10】 前記距離データが所定の距離レンジに
おける相対距離データであって、前記距離レンジに関す
る距離レンジ情報が前記ファイル管理領域に記録される
ことを特徴とする請求項3に記載の3次元画像入力装
置。
10. The three-dimensional data according to claim 3, wherein the distance data is relative distance data in a predetermined distance range, and distance range information relating to the distance range is recorded in the file management area. Image input device.
【請求項11】 前記距離レンジ情報が前記距離レンジ
の最近距離と最遠距離または最近距離と距離レンジの幅
で表されることを特徴とする請求項10に記載の3次元
画像入力装置。
11. The three-dimensional image input device according to claim 10, wherein the distance range information is represented by the closest distance and the farthest distance of the distance range or the width of the closest distance and the distance range.
【請求項12】 前記距離データが基準距離データとの
差分データで表されることを特徴とする請求項1に記載
の3次元画像入力装置。
12. The three-dimensional image input device according to claim 1, wherein the distance data is represented by difference data from reference distance data.
【請求項13】 前記基準距離データが所定方向に隣接
した前記距離データであり、基準とすべき隣接した距離
データが存在しないとき前記距離データが差分データで
ないことを特徴とする請求項12に記載の3次元画像入
力装置。
13. The method according to claim 12, wherein the reference distance data is the distance data adjacent in a predetermined direction, and when there is no adjacent distance data to be used as a reference, the distance data is not difference data. 3D image input device.
【請求項14】 被写体像の各画素に対応する画像デー
タおよび前記各画素に対応する被写体までの距離を示す
距離データが、それぞれ画像データファイルおよび距離
データファイルとして記録されると共に、前記画像デー
タファイルと前記距離データファイルが相互に関連する
ことを示すファイル関連情報が記録されることを特徴と
する記録媒体。
14. Image data corresponding to each pixel of a subject image and distance data indicating a distance to the subject corresponding to each pixel are recorded as an image data file and a distance data file, respectively. And file information indicating that the distance data file is related to each other.
JP11151366A 1999-05-21 1999-05-31 Three-dimensional image input device and recording medium Pending JP2000341720A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP11151366A JP2000341720A (en) 1999-05-31 1999-05-31 Three-dimensional image input device and recording medium
US09/573,567 US7053937B1 (en) 1999-05-21 2000-05-19 Three-dimensional image capturing device and recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP11151366A JP2000341720A (en) 1999-05-31 1999-05-31 Three-dimensional image input device and recording medium

Publications (1)

Publication Number Publication Date
JP2000341720A true JP2000341720A (en) 2000-12-08

Family

ID=15516985

Family Applications (1)

Application Number Title Priority Date Filing Date
JP11151366A Pending JP2000341720A (en) 1999-05-21 1999-05-31 Three-dimensional image input device and recording medium

Country Status (1)

Country Link
JP (1) JP2000341720A (en)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006320002A (en) * 2006-06-19 2006-11-24 Nippon Telegr & Teleph Corp <Ntt> Transmission method for three-dimensional video image information
JP2008252493A (en) * 2007-03-30 2008-10-16 Fujifilm Corp File generating method and device, and stereoscopic image display control method and device
JP2009044496A (en) * 2007-08-09 2009-02-26 Fujifilm Corp Photographing field angle calculation apparatus
JP2009162747A (en) * 2007-12-10 2009-07-23 Fujifilm Corp Distance image processing device and method, distance image regenerating device and method, and program
JP2009163716A (en) * 2007-12-10 2009-07-23 Fujifilm Corp Distance image processing apparatus and method, distance image reproducing apparatus and method, and program
JP2009163717A (en) * 2007-12-10 2009-07-23 Fujifilm Corp Distance image processing apparatus and method, distance image reproducing apparatus and method, and program
JP2009176093A (en) * 2008-01-25 2009-08-06 Fujifilm Corp Apparatus and method for creating file, and apparatus, method and program for reproducing three-dimensional shape
JP2011247872A (en) * 2010-04-27 2011-12-08 Denso Corp Distance measurement device, distance measurement method, and distance measurement program
JP2015038466A (en) * 2013-07-16 2015-02-26 株式会社キーエンス Three-dimensional image processing apparatus, three-dimensional image processing method, three-dimensional image processing program, computer-readable recording medium, and device for storage

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006320002A (en) * 2006-06-19 2006-11-24 Nippon Telegr & Teleph Corp <Ntt> Transmission method for three-dimensional video image information
JP4481275B2 (en) * 2006-06-19 2010-06-16 日本電信電話株式会社 3D video information transmission method
JP2008252493A (en) * 2007-03-30 2008-10-16 Fujifilm Corp File generating method and device, and stereoscopic image display control method and device
JP2009044496A (en) * 2007-08-09 2009-02-26 Fujifilm Corp Photographing field angle calculation apparatus
JP2009162747A (en) * 2007-12-10 2009-07-23 Fujifilm Corp Distance image processing device and method, distance image regenerating device and method, and program
JP2009163716A (en) * 2007-12-10 2009-07-23 Fujifilm Corp Distance image processing apparatus and method, distance image reproducing apparatus and method, and program
JP2009163717A (en) * 2007-12-10 2009-07-23 Fujifilm Corp Distance image processing apparatus and method, distance image reproducing apparatus and method, and program
JP2009176093A (en) * 2008-01-25 2009-08-06 Fujifilm Corp Apparatus and method for creating file, and apparatus, method and program for reproducing three-dimensional shape
JP4694581B2 (en) * 2008-01-25 2011-06-08 富士フイルム株式会社 File generation apparatus and method, three-dimensional shape reproduction apparatus and method, and program
JP2011247872A (en) * 2010-04-27 2011-12-08 Denso Corp Distance measurement device, distance measurement method, and distance measurement program
JP2015038466A (en) * 2013-07-16 2015-02-26 株式会社キーエンス Three-dimensional image processing apparatus, three-dimensional image processing method, three-dimensional image processing program, computer-readable recording medium, and device for storage

Similar Documents

Publication Publication Date Title
JP4530571B2 (en) 3D image detection device
CN105659159A (en) Camera system, camera body, and communication method
JP2019092119A (en) Imaging device, lens device, and control method thereof
CN100409060C (en) Focus detection apparatus and signal processing method for focus detection
CN102065219A (en) Image sensing apparatus and control method therefor
US7053937B1 (en) Three-dimensional image capturing device and recording medium
JP4391643B2 (en) 3D image input device
JP2000341720A (en) Three-dimensional image input device and recording medium
JP4105801B2 (en) 3D image input device
US6437853B2 (en) Three-dimensional image capturing device
JP4157223B2 (en) 3D image input device
JP4369573B2 (en) 3D image detection device
JP2000299881A (en) Three-dimensional image input device
JP5183441B2 (en) Imaging device
EP1734745B1 (en) Digital camera and contol method thereof
JP2000333210A (en) Three-dimensional image input device and recording medium
JP2001148867A (en) Three-dimensional image detector
US6778219B1 (en) Three-dimensional image capturing device
JP3892632B2 (en) Still object image detection apparatus and still object image detection method
JP2000083260A (en) Three-dimensional image input device
JP4428831B2 (en) 3D image detection device
JP2002074346A (en) Three-dimensional image inputting device
US6982761B1 (en) Device for capturing three-dimensional images with independently controllable groups of photoelectric conversion elements
JP2005064749A (en) Camera
JP2002159024A (en) Parallax image photographing apparatus and parallax image processor