JP2001012909A - Range finder device and camera - Google Patents

Range finder device and camera

Info

Publication number
JP2001012909A
JP2001012909A JP11144097A JP14409799A JP2001012909A JP 2001012909 A JP2001012909 A JP 2001012909A JP 11144097 A JP11144097 A JP 11144097A JP 14409799 A JP14409799 A JP 14409799A JP 2001012909 A JP2001012909 A JP 2001012909A
Authority
JP
Japan
Prior art keywords
light
subject
camera
image
distance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP11144097A
Other languages
Japanese (ja)
Other versions
JP3415070B2 (en
Inventor
Kenya Uomori
謙也 魚森
Takeo Azuma
健夫 吾妻
Atsushi Morimura
森村  淳
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Holdings Corp
Original Assignee
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co Ltd filed Critical Matsushita Electric Industrial Co Ltd
Priority to JP14409799A priority Critical patent/JP3415070B2/en
Publication of JP2001012909A publication Critical patent/JP2001012909A/en
Application granted granted Critical
Publication of JP3415070B2 publication Critical patent/JP3415070B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/521Depth or shape recovery from laser ranging, e.g. using interferometry; from the projection of structured light

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Optics & Photonics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Viewfinders (AREA)
  • Automatic Focus Adjustment (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Measurement Of Optical Distance (AREA)
  • Focusing (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a range finder for measuring the distance of subject at a location where light from alight source cannot be directly applied to the object. SOLUTION: When a plurality of projection light with different light intensity three-dimensionally is applied to a subject from light sources 2a and 2b by time-sharing, the image of reflection light from the subject is picked up by a camera 1, and measurement is made by the light intensity of the image being picked up, the relationship between the angle and the light intensity ratio of each projection light from a light source within each surface is obtained for each of a plurality of surfaces including the center of the light source and that of a lens in advance, the light intensity of each pixel of the camera 1 is measured when measuring distance actually, an angle corresponding to the light intensity of the measured specific pixel is obtained, based on the measured light intensity and the relationship between the angle and the light intensity ratio on a given surface for the coordinates position of the measured pixel, and the distance to the subject is calculated, based on the measured light intensity, the obtained angle, and two-dimensional coordinates position information on the image of a prescribed.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、物体の3次元形状
の計測を行うレンジファインダ装置及びカメラに関す
る。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a range finder and a camera for measuring a three-dimensional shape of an object.

【0002】[0002]

【従来の技術】投影光と観察画像の三角測量に基づいて
3次元形状計測を行うレンジファインダ装置としては、
例えば、図40に示すような実時間動作可能なものが提
案されている。
2. Description of the Related Art As a range finder device for performing three-dimensional shape measurement based on triangulation of projection light and observation image,
For example, a device capable of real-time operation as shown in FIG. 40 has been proposed.

【0003】図40において、101A、101Bは波
長のわずかに異なるレーザ光源、102は前記波長の異
なるレーザ光源からのレーザ光を合成するハーフミラ
ー、103は前記レーザ光源の光強度を制御する光源制
御部、104はレーザ光を走査する回転ミラー、105
は回転ミラーを制御する回転制御部、106は被写体、
107はCCD上に像を結ぶためのレンズ、108A、
108Bはレーザ光源の波長の光を分離する光波長分離
フィルタ、109A、109Bはモノクロ画像を撮像す
るCCD、109Cはカラー画像を撮像するCCD、1
10A、110Bはモノクロカメラの信号処理部、11
1はカラーカメラの信号処理部、112はCCD109
A、109Bによって撮影したレーザ光の強度から被写
体の距離もしくは形状を計算する距離計算部、113は
装置全体の同期を調整する制御部である。以下、このよ
うに構成されたレンジファインダ装置の動作について説
明する。
In FIG. 40, 101A and 101B are laser light sources having slightly different wavelengths, 102 is a half mirror for synthesizing laser light from the laser light sources having different wavelengths, and 103 is a light source control for controlling the light intensity of the laser light sources. A rotating mirror for scanning the laser beam;
Is a rotation control unit that controls a rotating mirror, 106 is a subject,
107 is a lens for forming an image on the CCD, 108A,
108B is a light wavelength separation filter for separating light of the wavelength of the laser light source, 109A and 109B are CCDs for capturing a monochrome image, 109C is a CCD for capturing a color image, and 1C.
10A and 110B are signal processing units of a monochrome camera, 11
1 is a signal processing unit of a color camera, 112 is a CCD 109
A and 113B are distance calculation units for calculating the distance or shape of the object from the intensity of the laser light captured by A and 109B, and 113 is a control unit for adjusting the synchronization of the entire apparatus. Hereinafter, the operation of the range finder device thus configured will be described.

【0004】レーザ光源101A、101Bは、波長の
わずかに異なるレーザ光を発する。このレーザ光は、後
述の回転ミラーの走査方向と垂直な光断面を有するライ
ン光であり、回転ミラーが水平方向に走査する場合は垂
直方向のライン光となる。
[0004] The laser light sources 101A and 101B emit laser light having slightly different wavelengths. This laser light is line light having a light section perpendicular to the scanning direction of the rotating mirror described later, and becomes vertical line light when the rotating mirror scans in the horizontal direction.

【0005】これら2つの光源の波長特性を図41に示
す。波長の近い2つの光源を用いるのは、被写体の反射
率の波長依存性の影響を受けにくくするためである。レ
ーザ光源101A、101Bから発せられたレーザ光は
ハーフミラー102によって合成され、回転ミラー10
4によって被写体6に走査される。
FIG. 41 shows the wavelength characteristics of these two light sources. The two light sources having similar wavelengths are used in order to reduce the influence of the wavelength dependence of the reflectance of the subject. The laser beams emitted from the laser light sources 101A and 101B are combined by the half mirror 102,
4 scans the object 6.

【0006】このレーザ光の走査は、回転制御部105
がフィールド周期で回転ミラー104を駆動することに
より行われる。その際に、双方の光源の光強度を1フィ
ールド周期内で、図42(a)に示すように変化させ
る。レーザ光強度の変化とミラー角の駆動とを同期させ
ることにより、2つのレーザ光強度をCCD109A、
109Bによりモニタしてその光強度比を算出すること
により、一走査周期における時刻を測定することができ
る。例えば、図42(b)に示すように、光強度がIa
/Ibの場合には、走査時刻はt0と測定され、その測
定値から回転ミラー104の回転角(φ)が判明する。
The scanning of the laser beam is performed by the rotation control unit 105.
Is performed by driving the rotating mirror 104 in a field cycle. At this time, the light intensities of both light sources are changed within one field cycle as shown in FIG. By synchronizing the change of the laser beam intensity and the driving of the mirror angle, the two laser beam intensities are changed to the CCD 109A,
The time in one scanning cycle can be measured by monitoring with 109B and calculating the light intensity ratio. For example, as shown in FIG.
In the case of / Ib, the scanning time is measured as t0, and the rotation angle (φ) of the rotating mirror 104 is determined from the measured value.

【0007】このように、2つのレーザ光強度の比とミ
ラー角(すなわち、光源側から見た被写体の角度)とを
1対1に対応させることにより、後述する距離計算部に
おいて、双方の光源の光を撮影した信号レベルの比か
ら、三角測量の原理により被写体の距離もしくは形状が
計算される。
As described above, by associating the ratio between the two laser beam intensities and the mirror angle (that is, the angle of the subject viewed from the light source side) on a one-to-one basis, the distance calculation unit described later can use both light sources. The distance or the shape of the subject is calculated based on the principle of triangulation from the ratio of the signal levels obtained by photographing the light.

【0008】レンズ7はCCD109A、109B、1
09C上に被写体の像を結ぶ。光波長分離フィルタ10
8Aは、光源101Aの波長の光を透過し、他の波長の
光を反射する。光波長分離フィルタ108Bは、光源1
01Bの波長の光を透過し、他の波長の光を反射する。
その結果、光源101A、101Bの光の被写体からの
反射光はCCD109A、109Bにより撮影され、他
の波長の光はカラー画像としてCCD109Cにより撮
影される。
The lens 7 includes CCDs 109A, 109B, 1
An image of the subject is formed on the image 09C. Optical wavelength separation filter 10
8A transmits light having the wavelength of the light source 101A and reflects light having another wavelength. The light wavelength separation filter 108B is a light source 1
It transmits light of wavelength 01B and reflects light of other wavelengths.
As a result, the reflected light of the light of the light sources 101A and 101B from the subject is photographed by the CCDs 109A and 109B, and the light of other wavelengths is photographed by the CCD 109C as a color image.

【0009】光源A信号処理部110Aと光源B信号処
理部110Bは、CCD109A、109Bの出力につ
いて通常のモノクロカメラと同様の信号処理を行う。カ
ラーカメラ信号処理部111は、CCD109Cの出力
について通常のカラーカメラの信号処理を行う。
The light source A signal processing unit 110A and the light source B signal processing unit 110B perform the same signal processing on the outputs of the CCDs 109A and 109B as in a normal monochrome camera. The color camera signal processing unit 111 performs a normal color camera signal processing on the output of the CCD 109C.

【0010】距離計算部112は、各光源の波長につい
てCCD109A、109Bにより撮影された信号レベ
ルの比、基線長、画素の座標値から、各画素について距
離計算を行う。
The distance calculator 112 calculates the distance for each pixel from the ratio of the signal levels photographed by the CCDs 109A and 109B, the base line length, and the coordinate values of the pixels for the wavelength of each light source.

【0011】図43(a),(b)は、その距離計算を図形
的に説明する図である。同図において、Oはレンズ10
7の中心、Pは被写体上の点、Qは回転ミラーの回転軸
の位置である。また、説明を簡単にするため、CCD1
09の位置を被写体側に折り返して示している。また、
OQの長さ(基線長)をL、XZ平面内でQから見たP
の角度をφ、OからみたPの角度をθ、YZ平面内でO
からみたPの角度をωとすると、図計的な関係より、P
の3次元座標は以下の式(1)で計算される。
FIGS. 43 (a) and 43 (b) are diagrams for explaining the distance calculation graphically. In the figure, O is a lens 10
The center of 7, P is a point on the subject, and Q is the position of the rotation axis of the rotating mirror. For simplicity of explanation, the CCD1
The position of 09 is folded back toward the subject. Also,
The length of OQ (base line length) is L, P as viewed from Q in the XZ plane
Is φ, the angle of P viewed from O is θ, and O is O in the YZ plane.
Assuming that the angle of P from the viewpoint is ω, from the diagrammatic relationship, P
Are calculated by the following equation (1).

【0012】 Z=Dtanθtanφ/(tanθ+tanφ) X=Z/tanθ Y=Z/tanω ・・・・・ (1) 式(1)のφについては、前述のとおり、CCD109
A、109Bによりモニタしたレーザ光源101A、1
01Bの光強度比によって計算し、θ、ωについては画
素の座標値から計算する。式(1)に示した値のうち、
すべてを計算すると形状を求めることになり、Zのみで
あれば距離画像を求めることになる。
Z = Dtanθtanφ / (tanθ + tanφ) X = Z / tanθ Y = Z / tanω (1) As for φ in the expression (1), as described above, the CCD 109
A, laser light sources 101A, 1
The light intensity ratio is calculated using the light intensity ratio of 01B, and θ and ω are calculated from the coordinate values of the pixels. Of the values shown in equation (1),
When all are calculated, the shape is obtained, and when only Z is obtained, the distance image is obtained.

【0013】一方、光源からの光を、被写体に直接照射
出来ない場所の撮影には、光ファイバを利用したカメラ
が知られている。例えば、人体の内部を診察する際に用
いられる内視鏡の一つとして胃カメラ等がある。胃カメ
ラの場合、通常光ファイバからの光照射により胃の内壁
を照射して、この内壁部からの反射光を別の光ファイバ
で受光して外部のカメラ部に導き、これを2次元的に処
理して通常の画像をモニタに映し出す構成である。
On the other hand, a camera using an optical fiber is known for photographing a place where light from a light source cannot be directly irradiated on a subject. For example, there is a gastroscope or the like as one of endoscopes used for examining the inside of a human body. In the case of a gastric camera, the inner wall of the stomach is usually illuminated by light irradiation from an optical fiber, the reflected light from the inner wall is received by another optical fiber, and guided to an external camera, and this is two-dimensionally transmitted. This is a configuration for processing and displaying a normal image on a monitor.

【0014】また、従来の被写体抽出方法としては、放
送局において用いられているクロマキーと呼ばれる技術
が一般的である。これは、被写体を単色(青色)の背景
で構成されたスタジオセットの前に配置して撮像し、青
色部分は背景であると判断してそれ以外の部分が注目被
写体であるとする方法である。
As a conventional subject extraction method, a technique called chroma key used in a broadcasting station is generally used. This is a method in which a subject is arranged and photographed in front of a studio set composed of a single color (blue) background, the blue portion is determined to be the background, and the other portion is determined to be the target subject. .

【0015】[0015]

【発明が解決しようとする課題】しかしながら、上記の
ような従来の構成では、変調可能な光源と光源掃引手段
が必須であり、機械的な動作を含むため装置の信頼性が
低く、装置のコストが高いという問題があった。
However, in the above-mentioned conventional configuration, a light source capable of modulating light and a light source sweeping means are indispensable, and the reliability of the device is low because of the mechanical operation, and the cost of the device is low. There was a problem that was high.

【0016】また、実質上レーザ素子を変調して用いる
のが通常であるが、レーザー素子は温度によって出力や
波長が変化するため、安定した測定を実現しにくいとい
う問題があった。
Further, although it is usual to substantially modulate and use a laser element, there is a problem that it is difficult to realize stable measurement because the output and wavelength of the laser element change with temperature.

【0017】又、上記従来の内視鏡等の様に、光源から
の光を、被写体に直接照射出来ない場所の撮影には、光
ファイバを利用したカメラでは、画像が2次元的データ
であるため、突起部位の有無の診察等が難しいと言う課
題が有った。
[0017] Further, for photographing a place where light from a light source cannot be directly irradiated on a subject like a conventional endoscope or the like, in a camera using an optical fiber, an image is two-dimensional data. Therefore, there is a problem that it is difficult to examine the presence or absence of a protruding portion.

【0018】本発明はかかる問題点に鑑みてなされたも
のであり、機械的な動作のない、安定したレンジファイ
ンダ装置を低コストで提供することを目的とする。
The present invention has been made in view of the above problems, and has as its object to provide a stable range finder device without mechanical operation at low cost.

【0019】又、本発明は、光源からの光を、被写体に
直接照射出来ない場所の被写体の距離を計測出来るレン
ジファインダを提供することを目的とする。
It is another object of the present invention to provide a range finder capable of measuring the distance of a subject in a place where light from a light source cannot be directly irradiated on the subject.

【0020】また、本発明は、構造が簡単であり、また
サイズがコンパクトなカメラを提供することを目的とす
るものである。
It is another object of the present invention to provide a camera having a simple structure and a compact size.

【0021】[0021]

【課題を解決するための手段】本発明は、光強度が3次
元空間的に異なる輻射パターンを持つ投射光を複数個、
光源から時分割にて被写体に照射し、前記投射光の被写
体からの反射光をカメラで撮像し、撮像した画像の光強
度を用いて距離計測を行うレンジファインダ装置であっ
て、予め、光源中心とレンズ中心とを含む複数個の面の
それぞれに対して、各面内における、前記光源からの各
投射光の角度と光強度との関係を得ておき、実際の距離
測定時には、前記カメラの各画素の光強度を測定し、そ
の測定された光強度と、前記測定された画素の座標位置
に対応する所定の面における、前記角度と光強度の関係
とに基づいて、その測定した所定の画素の光強度に対応
する前記角度を得、これら測定した光強度と、得られた
角度と、さらに前記所定の画素の画像上の2次元座標位
置情報とに基づいて、前記被写体までの距離を算出する
ことを特徴とするレンジファインダ装置である。
SUMMARY OF THE INVENTION According to the present invention, a plurality of projection lights having radiation patterns whose light intensities are three-dimensionally different from each other are provided.
A range finder device that irradiates a subject with a light source in a time-division manner, captures reflected light of the projection light from the subject with a camera, and measures a distance using the light intensity of the captured image. For each of a plurality of surfaces including the lens center and the lens, the relationship between the angle and the light intensity of each projection light from the light source in each surface is obtained, and at the time of actual distance measurement, Measure the light intensity of each pixel, based on the measured light intensity and the relationship between the angle and the light intensity on a predetermined surface corresponding to the measured coordinate position of the pixel, based on the measured predetermined light intensity The angle corresponding to the light intensity of the pixel is obtained, and based on the measured light intensity, the obtained angle, and the two-dimensional coordinate position information on the image of the predetermined pixel, the distance to the subject is calculated. Characterized by calculating It is a Nji finder device.

【0022】また、本発明は、光源と、前記光源から出
射される光を導く第1光ファイバと、前記第1光ファイ
バから導かれた光を複数の経路に分岐する光分配手段
と、前記光分配手段に一端が接続され、且つ他端の開口
部から前記分岐された光を被写体に照射するための複数
の第2光ファイバと、前記照射された光の反射光を受光
して、前記被写体の画像データを取得する撮像手段と、
前記画像データに基づいて前記被写体までの距離を計算
する距離計算手段とを備え、前記複数の第2光ファイバ
ーのそれぞれの前記他端から前記被写体に照射される光
の強度が、いずれも場所的に異なる分布を有しているこ
とを特徴とするレンジファインダー装置である。
The present invention also provides a light source, a first optical fiber for guiding light emitted from the light source, light distribution means for splitting light guided from the first optical fiber into a plurality of paths, One end is connected to the light distribution means, and a plurality of second optical fibers for irradiating the object with the branched light from the opening at the other end, and receives reflected light of the irradiated light, Imaging means for acquiring image data of a subject;
Distance calculating means for calculating a distance to the subject based on the image data, wherein the intensity of light emitted from the other end of each of the plurality of second optical fibers to the subject is spatially A range finder device having different distributions.

【0023】また、本発明は、特定の輻射パターンを持
つ投射光を被写体に照射する発光手段を有し、前記発光
手段の被写体反射光を撮像し、撮像した画像の光強度を
用いて奥行き画像を得る、形状計測用または被写体抽出
用のカメラであって、前記発光手段と撮像レンズ間の距
離が可変可能な構造を有し、使用時においては前記発光
手段と撮像レンズ間隔が十分取れるようにできることを
特徴とするカメラである。
Further, the present invention has a light emitting means for irradiating a subject with projection light having a specific radiation pattern, captures reflected light from the light emitting means, and uses a light intensity of the captured image to generate a depth image. A camera for shape measurement or object extraction, having a structure in which the distance between the light emitting means and the imaging lens is variable, so that a sufficient distance between the light emitting means and the imaging lens can be obtained during use. A camera characterized by being able to do so.

【0024】[0024]

【発明の実施の形態】以下、本発明の一実施の形態に係
るレンジファインダ装置について、図面を用いて説明す
る。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS A range finder according to an embodiment of the present invention will be described below with reference to the drawings.

【0025】(第1の実施の形態)図1は、本発明の第
1の実施の形態におけるレンジファインダの構成図であ
る。図1において、1カメラ、2a,2bは光源、5は
光源制御部、6は距離計算部である。以下に上記構成の
動作について説明する。
(First Embodiment) FIG. 1 is a configuration diagram of a range finder according to a first embodiment of the present invention. In FIG. 1, 1 camera, 2a and 2b are light sources, 5 is a light source control unit, and 6 is a distance calculation unit. The operation of the above configuration will be described below.

【0026】光源制御部5は、カメラ1の垂直同期信号
に同期して、フィールド周期毎に光源2a,2bを交互
に発光させる。光源2a,2bとしては、例えば図2
(a)に示すように、キセノンフラッシュランプ等の閃
光光源7、8を縦に配置し、後方の反射板の方向を左右
にずらしたものを用いることができる。図2(b)は、
図2(a)の平面図である。光源2a、2bはそれぞれ
A、Bの範囲に光を輻射する。このキセノンランプは発
光部分が小型のもので、上から見て点光源と見なせるも
のが望ましい。さらには、光源2a、27bは縦方向に
配置されているがその距離は1cm程度であり、ほとんど
一点から光が発光されているとみなせる。
The light source control section 5 causes the light sources 2a and 2b to emit light alternately in each field cycle in synchronization with the vertical synchronization signal of the camera 1. As the light sources 2a and 2b, for example, FIG.
As shown in (a), a flash light source 7 or 8 such as a xenon flash lamp may be vertically arranged and the direction of the rear reflector may be shifted left and right. FIG. 2 (b)
FIG. 3 is a plan view of FIG. The light sources 2a and 2b radiate light to ranges A and B, respectively. The xenon lamp preferably has a small light emitting portion and can be regarded as a point light source when viewed from above. Furthermore, the light sources 2a and 27b are arranged in the vertical direction, but the distance is about 1 cm, and it can be considered that light is emitted from almost one point.

【0027】このような光源から輻射される光パタンは
図3のようになる。これは仮のスクリーンに光を投射し
た場合、そのスクリーン面の明るさの大きさを図中の→
方向で示したものである。即ち、各々の光源は中心軸上
が最も明るく、周辺になるほど暗くなる特性を持つ。こ
のような中央が明るく周辺が暗いのは半円筒状の反射板
9,10が閃光光源7,8の背後に配置されているから
である。また、その半円筒状の反射板9,10の向きが
ずれており、それぞれの投射光は一部が重なるように発
光されている。
The light pattern radiated from such a light source is as shown in FIG. This means that when light is projected on a temporary screen, the brightness of the screen surface is
It is shown in the direction. That is, each light source has the characteristic that it is brightest on the central axis and darker toward the periphery. The reason why the center is bright and the periphery is dark is that the semi-cylindrical reflectors 9 and 10 are arranged behind the flash light sources 7 and 8. Further, the directions of the semi-cylindrical reflectors 9 and 10 are shifted, and the respective projected lights are emitted so that a part thereof overlaps.

【0028】図4は、図3のH方向の面における、光源
からの投射光の角度と光強度の関係を示したものであ
る。このH方向とは、光源中心とレンズ中心とを含む複
数個の面のうち、任意の面Sと前記仮のスクリーンとの
交叉線の方向である。この光パタンのうちα部分におい
ては、2つの光源から被写体空間に照射される光は、各
光源から見て一方は右側が明るく、他方は左側が明るい
光となる。但し、このパタンは高さ方向(Y方向)に対
しても異なっている。
FIG. 4 shows the relationship between the angle of the projected light from the light source and the light intensity on the plane in the direction H in FIG. The H direction is a direction of a cross line between an arbitrary surface S and the temporary screen among a plurality of surfaces including a light source center and a lens center. In the α portion of the light pattern, the light emitted from the two light sources to the subject space is bright on one right side and bright on the left side as viewed from each light source. However, this pattern is also different in the height direction (Y direction).

【0029】図5は、図4のα部分における、上記2つ
の投射光での被写体照明での光強度比と、投射光をXZ
平面に投影したものがX軸に対してなす角度φとの関係
を示したものである。α部分においては、光強度比と角
度φの関係は1対1対応である。距離の測定のために
は、事前に2種類の光パタンを、光源から所定距離離
れ、垂直に立てられた平面に交互に投射し、この反射光
をカメラ1で撮像した結果から、各Y座標(CCD上の
Y座標に対応する)毎に図5のような光強度比と投射光
の角度との関係のデータを得ておく。Y座標毎とは、光
源中心とレンズ中心とを含む複数個の面毎にということ
である。
FIG. 5 is a graph showing the light intensity ratio of the above two projection lights in the illumination of the subject and the XZ
The relationship between the angle projected on the plane and the angle φ with respect to the X axis is shown. In the α portion, the relationship between the light intensity ratio and the angle φ has a one-to-one correspondence. In order to measure the distance, two types of light patterns are projected beforehand alternately on a vertical plane separated from the light source by a predetermined distance in advance, and the reflected light is imaged by the camera 1 to obtain each Y coordinate. Data on the relationship between the light intensity ratio and the angle of the projection light as shown in FIG. 5 is obtained for each (corresponding to the Y coordinate on the CCD). Each Y coordinate refers to each of a plurality of surfaces including the center of the light source and the center of the lens.

【0030】また、カメラ1のレンズ中心と光源を結ぶ
線分が、CCD撮像面のX軸と平行になるように光源を
配置すれば、各Y座標毎に決定された光強度比と投射光
の角度の関係のデータを用いることにより正確に距離計
算を行うことができる。以下に、光強度比を用いた距離
計算の方法について説明する。
Further, if the light source is arranged so that the line segment connecting the lens center of the camera 1 and the light source is parallel to the X axis of the CCD image pickup surface, the light intensity ratio determined for each Y coordinate and the projected light The distance calculation can be accurately performed by using the data on the angle relationship. Hereinafter, a method of calculating a distance using the light intensity ratio will be described.

【0031】図1の点Pを着目点とする時、カメラ1に
よって撮像した映像の点Pについての2種類の光パタン
照射時の撮像データから得られた輝度比と、点PのY座
標値に対応した図5の関係を用いることにより、光源か
ら見た点Pの角度φを計測する。なお、図5の関係は前
述のように、Y座標値によって異なる特性を持ち、各Y
座標毎に光強度比と、光源からの水平方向の角度φの関
係が事前の測定によって用意されているものとする。ま
た、カメラから見た点Pに対する角度θは、画像中での
位置(すなわち点Pの画素座標値)とカメラパラメータ
(焦点距離、レンズ系の光学中心位置)から決定する。
そして、上記2つの角度と、光源位置とカメラの光学中
心位置間の距離(基線長)とから、三角測量の原理によ
り距離を計算する。
When a point P in FIG. 1 is set as a point of interest, a luminance ratio obtained from image data obtained by irradiating two types of light patterns with respect to a point P of an image captured by the camera 1 and a Y coordinate value of the point P The angle φ of the point P viewed from the light source is measured by using the relationship of FIG. Note that the relationship in FIG. 5 has different characteristics depending on the Y coordinate value,
It is assumed that the relationship between the light intensity ratio and the horizontal angle φ from the light source is prepared for each coordinate by prior measurement. The angle θ with respect to the point P viewed from the camera is determined from the position in the image (that is, the pixel coordinate value of the point P) and camera parameters (focal length, optical center position of the lens system).
Then, the distance is calculated based on the principle of triangulation from the two angles and the distance (base line length) between the light source position and the optical center position of the camera.

【0032】カメラの光学中心を原点とし、カメラの光
軸方向をZ軸、水平方向にX軸、垂直方向にY軸を設定
し、光源からみた着目点の方向がX軸となす角をφ、カ
メラから見た着目点の方向とX軸がなす角をθ、光源位
置を(0,−D)すなわち基線長をDとすると、着目点
Pの奥行き値Zは前述の式(1) Z=Dtanθtanφ/(tanθ−tanφ) として計算できる。
With the optical center of the camera as the origin, the Z axis is set in the optical axis direction of the camera, the X axis is set in the horizontal direction, and the Y axis is set in the vertical direction. The angle between the direction of the point of interest and the X axis as viewed from the light source is φ. If the angle formed by the direction of the point of interest and the X axis as viewed from the camera is θ, and the light source position is (0, −D), that is, the base line length is D, the depth value Z of the point of interest P is given by the above equation (1) Z = Dtanθtanφ / (tanθ−tanφ).

【0033】以上のように本実施の形態によれば、光強
度を用いたレンジファインダによる距離測定時に、光源
や光学系により生じる光強度の変化を補正して距離計測
を行うことにより、全て電子的な動作で実現できる、安
定した精度のよいレンジファインダ装置を実現すること
ができる。
As described above, according to the present embodiment, when the distance is measured by the range finder using the light intensity, the change in the light intensity caused by the light source and the optical system is corrected to perform the distance measurement, so that all the electronic devices can be measured. A stable and accurate range finder device that can be realized by a simple operation can be realized.

【0034】なお、本実施の形態によるレンジファイン
ダの赤外カメラの前面にハーフミラーもしくはダイクロ
イックミラーとカラーカメラを配置することにより、距
離画像と同時に同一視点のカラー画像も得ることがで
き、本発明に含まれる。
By arranging a half mirror or a dichroic mirror and a color camera in front of the infrared camera of the range finder according to the present embodiment, a color image of the same viewpoint can be obtained simultaneously with the distance image. include.

【0035】なお、本実施の形態における距離計算部で
は、距離Zのみを計算し計算結果を距離画像として出力
するものとしたが、図6に示す角度ωを用いて式
(1),式(2)より三次元座標値X,Y,Zを全て計
算し三次元座標データを出力してもよく、本発明に含ま
れる。
Although the distance calculator in this embodiment calculates only the distance Z and outputs the calculation result as a distance image, the equations (1) and () are calculated using the angle ω shown in FIG. The three-dimensional coordinate values X, Y, and Z may all be calculated from 2) and three-dimensional coordinate data may be output, which is included in the present invention.

【0036】 X=Z/tanθ Y=Z/tanω ・・・・・ (2) なお、本実施の形態において、光源2a、2bを同時に
発光させ、図4の点線のように1つの中心の明るさが大
きく、周辺が暗くなる通常のフラッシュランプとして使
用すれば、通常の2次元画像を撮像することができる。
X = Z / tan θ Y = Z / tan ω (2) In the present embodiment, the light sources 2a and 2b are caused to emit light at the same time, and the brightness at one center is indicated by a dotted line in FIG. If used as a normal flash lamp which is large and dark in the periphery, a normal two-dimensional image can be taken.

【0037】また、本実施の形態において、光源2の前
面に赤外通過型フィルタを挿入し、カメラ1に赤外波長
領域に感度のあるものを用いればフラッシュ光の点灯が
使用者や他のカメラ撮影画像に妨害を与えないようにす
ることができる。また、ハーフミラーやダイクロイック
ミラー等で赤外カメラと同軸で同時に通常のカラーカメ
ラで画像を撮像すれば、奥行き画像とそれに対応したテ
クスチャ画像を同時に撮像することもできる。
In this embodiment, if an infrared-pass filter is inserted in front of the light source 2 and a camera 1 having a sensitivity in the infrared wavelength region is used, the flash light can be turned on by the user or another user. The image captured by the camera can be prevented from being disturbed. Further, if an image is captured by a normal color camera simultaneously with the infrared camera using a half mirror or a dichroic mirror, a depth image and a texture image corresponding to the depth image can be captured simultaneously.

【0038】また、本実施の形態において、フラッシュ
光は数百マイクロ秒の時間閃光するので、その期間のみ
カメラ1はシャッタ動作によって露出を行うように設定
すれば、背景光が距離測定に影響を及ぼすことを抑圧す
ることが出来、ある程度明るい場所でも距離画像を撮像
することができる。
In this embodiment, since the flash light flashes for several hundred microseconds, if the camera 1 is set to perform the exposure by the shutter operation only during that period, the background light may affect the distance measurement. The influence can be suppressed, and a distance image can be captured even in a bright place to some extent.

【0039】また、本実施の形態においては、2種類の
光パタンを被写体に照射し、それぞれの場合の撮像画像
を用いて各画素での光強度比を計算したが、光パタンを
照射しない場合の画像も撮像して合計3種類(光パタン
2種類、光パタン無し1種類)の画像を得て計算しても
良い。この場合、各画素の光強度比を計算する際に、各
々の光パタン照射時の光強度の値から光パタン無しの場
合の光強度を差し引いた差分値を計算する。そしてこれ
らの差分値の比を計算して光強度比とする。このように
すれば明るい場所での撮像の場合、背景光による距離計
算誤差を抑圧することが出来る。
In this embodiment, the subject is irradiated with two types of light patterns, and the light intensity ratio at each pixel is calculated using the captured image in each case. May be calculated by obtaining the total of three types of images (two types of optical patterns and one type without optical patterns). In this case, when calculating the light intensity ratio of each pixel, a difference value is calculated by subtracting the light intensity when there is no light pattern from the light intensity value when each light pattern is irradiated. Then, the ratio of these difference values is calculated and used as the light intensity ratio. In this way, in the case of imaging in a bright place, a distance calculation error due to background light can be suppressed.

【0040】(第2の実施の形態)図7は、本発明の第
1の実施の形態におけるレンジファインダの構成図であ
る。図7において、1aは赤外光に感度を有するカメ
ラ、2a,2bは光源、3a,3bは赤外透過フィル
タ、4a,4bは水平方向に透過率が変化するNDフィ
ルタ、5は光源制御部、6は距離計算部である。以下に
上記構成の動作について説明する。
(Second Embodiment) FIG. 7 is a configuration diagram of a range finder according to a first embodiment of the present invention. In FIG. 7, 1a is a camera having sensitivity to infrared light, 2a and 2b are light sources, 3a and 3b are infrared transmitting filters, 4a and 4b are ND filters whose transmittance changes in the horizontal direction, and 5 is a light source control unit. , 6 are distance calculators. The operation of the above configuration will be described below.

【0041】光源制御部5は、赤外カメラ1aの垂直同
期信号に同期して、フィールド周期毎に光源2a,2b
を発光させる。光源2a,2bとしては、キセノンラン
プ等の閃光を発するもので、発光部分が小型のもの(点
光源と見なせるもの)が望ましい。また、光源2a,2
bは垂直方向に配置する。
The light source control unit 5 synchronizes with the vertical synchronizing signal of the infrared camera 1a and synchronizes with the light sources 2a and 2b every field cycle.
To emit light. As the light sources 2a and 2b, those which emit a flash such as a xenon lamp and have a small light emitting portion (which can be regarded as a point light source) are desirable. Further, the light sources 2a, 2
b is arranged in the vertical direction.

【0042】各光源の前面には、赤外透過フィルタ3
a,3bとNDフィルタ4a,4bとを配置する。ND
フィルタ4a,4bは水平方向に透過率が変化する。図
2は水平方向の光源からの角度と、NDフィルタ4a,
4bの透過率の関係を示す。
In front of each light source, an infrared transmission filter 3 is provided.
a, 3b and ND filters 4a, 4b. ND
The transmittance of the filters 4a and 4b changes in the horizontal direction. FIG. 2 shows the angle from the light source in the horizontal direction and the ND filters 4a,
4B shows the relationship of the transmittance of FIG.

【0043】これらのNDフィルタにより、2つの光源
から被写体空間に照射される光は、光源から見て一方は
右側が明るく、他方は左側が明るい光となる。その結
果、被写体にはフィールド周期毎に、上記右側もしくは
左側が明るい光が交互に投射される。
With these ND filters, the light emitted from the two light sources to the subject space is brighter on the right side and brighter on the left side as viewed from the light sources. As a result, the right or left side bright light is alternately projected onto the subject every field cycle.

【0044】図5は、上記2つの投射光の光強度比と、
光源からの水平方向の角度との関係を示す。以下に、光
強度比を用いた距離計算の方法について説明する。
FIG. 5 shows the light intensity ratio of the two projection lights,
6 shows a relationship with a horizontal angle from a light source. Hereinafter, a method of calculating a distance using the light intensity ratio will be described.

【0045】図7の点Pを着目点とする時、図5の関係
を用いることにより、カメラ1aによって撮像した映像
の点Pについてのフィールド間での輝度比から、光源か
ら見た点Pの角度を計測する。また、カメラから見た点
Pに対する角度は、画像中での位置(すなわち点Pの画
素座標値)とカメラパラメータ(焦点距離、レンズ系の
光学中心位置)から決定する。そして、上記2つの角度
と、光源位置とカメラの光学中心位置間の距離(基線
長)とから、三角測量の原理により距離を計算する。
When the point P in FIG. 7 is taken as the point of interest, the relationship shown in FIG. 5 is used to determine the point P of the image viewed from the light source from the luminance ratio between the fields of the point P of the image captured by the camera 1a. Measure the angle. The angle with respect to the point P viewed from the camera is determined from the position in the image (that is, the pixel coordinate value of the point P) and camera parameters (focal length, optical center position of the lens system). Then, the distance is calculated based on the principle of triangulation from the two angles and the distance (base line length) between the light source position and the optical center position of the camera.

【0046】カメラの光学中心を原点とし、カメラの光
軸方向をZ軸、水平方向にX軸、垂直方向にY軸を設定
し、光源からみた着目点の方向がX軸となす角をφ、カ
メラから見た着目点の方向とX軸がなす角をθ、光源位
置を(0,−D)すなわち基線長をDとすると、着目点
Pの奥行き値ZはZ=Dtanθtanφ/(tanθ−tanφ)と
して計算できる。
With the optical center of the camera as the origin, the Z axis is set in the optical axis direction of the camera, the X axis is set in the horizontal direction, and the Y axis is set in the vertical direction. The angle between the direction of the point of interest and the X axis as viewed from the light source is φ. If the angle between the direction of the point of interest and the X-axis viewed from the camera is θ, and the light source position is (0, −D), that is, the base line length is D, the depth value Z of the point of interest P is Z = Dtanθtanφ / (tanθ− tanφ).

【0047】距離計算部6はカメラ1aの映像信号から
距離画像を計算する。そのやり方は実施の形態1と同じ
でよいが、次に示すような別のより正確な測定が可能な
方法がある。図8は、距離計算部6の構成図である。図
8において、711,11bはフィールドメモリ、12
a,12bは光強度補正手段、13は光強度比計算手
段、14は距離変換手段である。以下に各構成要素の動
作について説明する。
The distance calculator 6 calculates a distance image from the video signal of the camera 1a. The method may be the same as that of the first embodiment, but there is another method capable of more accurate measurement as described below. FIG. 8 is a configuration diagram of the distance calculation unit 6. 8, reference numerals 711 and 11b denote field memories;
a and 12b are light intensity correction means, 13 is a light intensity ratio calculation means, and 14 is a distance conversion means. The operation of each component will be described below.

【0048】カメラ1aにより撮像された画像はフィー
ルド毎にフィールドメモリ11a、11bに書き込まれ
る。
The image picked up by the camera 1a is written into the field memories 11a and 11b for each field.

【0049】光強度補正手段12a,12bはフィール
ドメモリに書き込まれた光強度を補正する手段である。
その補正の理由を次に説明する。図9は、距離Zが一定
のスクリーンに点光源から光を(NDフィルタが無い状
態で)照射し、面からの反射光を撮像した場合に、撮像
される光強度と画素座標値の関係を示す。図9では簡単
のために横方向についてのみ1次元的に示しているが、
垂直方向についても同様に光強度は曲線的な分布を示
す。
The light intensity correcting means 12a and 12b are means for correcting the light intensity written in the field memory.
The reason for the correction will be described below. FIG. 9 shows the relationship between the light intensity to be imaged and pixel coordinate values when a screen with a constant distance Z is irradiated with light from a point light source (without an ND filter) and the light reflected from the surface is imaged. Show. FIG. 9 shows only one dimension in the horizontal direction for simplicity.
Similarly, the light intensity shows a curved distribution in the vertical direction.

【0050】この分布の要因としては、カメラのレンズ
系による周辺減光、被写体面に対する光線の入射角の変
化による反射光強度の変化、光源からの角度による光強
度の変化等が考えられる。これらの要因により生じる光
強度の変化は、光強度比観測時の誤差すなわち距離計測
時の誤差となるため、距離計測精度を改善するためには
光強度の変換が必要となる。この誤差があると、場合に
よっては図5の特性曲線中に単調増加曲線でない部分が
生じる。そのような部分では、光強度と、上記角度とが
一対一対応しなくなる。その結果、測定結果が狂ってし
まうことになる。また、この誤差がなければ光強度
(比)はY軸方向で一定となり、図5の変換テーブルが
1つですむという利点がある(実施の形態1ではY座標
値の個数分変換テーブルが必要となる)。
Factors of this distribution include peripheral dimming due to the lens system of the camera, changes in reflected light intensity due to changes in the angle of incidence of light rays on the object surface, changes in light intensity due to angles from the light source, and the like. The change in light intensity caused by these factors becomes an error when observing the light intensity ratio, that is, an error when measuring the distance. Therefore, the light intensity needs to be converted to improve the distance measurement accuracy. If there is this error, a portion that is not a monotonically increasing curve may occur in the characteristic curve of FIG. In such a portion, the light intensity and the angle do not correspond one-to-one. As a result, the measurement result will be out of order. Further, if there is no error, the light intensity (ratio) becomes constant in the Y-axis direction, and there is an advantage that only one conversion table in FIG. 5 is required (the first embodiment requires conversion tables for the number of Y coordinate values). Becomes).

【0051】そこで、光強度変換手段12a,12b
は、上記計測誤差を低減させるために、NDフィルタが
無い場合の、基準となる距離だけ離れたスクリーン上の
画像での2次元的な光強度の曲線分布を予め測定してお
き、上記光強度と投射光の角度との関係(図5対応)を
得る際、また、実際の被写体の距離を測定する際に、そ
の予め測定した光強度の曲線分布に従って、フィールド
メモリの光強度を補正変換する。補正変換は、上記光強
度の曲線分布を一定値に補正する係数(すなわち、ピー
ク値又はある任意の値に対する各画素において撮像され
た光強度の比)を2次元LUT(ルックアップテーブ
ル)として保持し、フィールドメモリのデータに画素毎
に補正計数を乗じて行う。
Therefore, the light intensity conversion means 12a, 12b
Is to measure in advance a two-dimensional light intensity curve distribution in an image on a screen separated by a reference distance in the absence of an ND filter in order to reduce the measurement error, When obtaining the relationship between the image data and the angle of the projected light (corresponding to FIG. 5) and when actually measuring the distance to the subject, the light intensity of the field memory is corrected and converted according to the curve distribution of the light intensity measured in advance. . In the correction conversion, a coefficient for correcting the curve distribution of the light intensity to a constant value (that is, a ratio of a light intensity captured at each pixel to a peak value or an arbitrary value) is stored as a two-dimensional LUT (look-up table). Then, the data in the field memory is multiplied by a correction count for each pixel.

【0052】上記基準距離は、被写体を配置する距離が
予めわかる場合は、その距離の付近にすることで、距離
計測時の精度を改善できる。
When the distance at which the subject is arranged is known in advance, the reference distance is set to a value close to the distance, so that the accuracy of distance measurement can be improved.

【0053】以上のように本実施の形態によれば、光強
度を用いたレンジファインダによる距離測定時に、光源
や光学系により生じる光強度の誤差を補正して距離計測
を行うことにより、全て電子的な動作で実現できる、安
定した精度のよいレンジファインダ装置実現することが
できる。
As described above, according to the present embodiment, when the distance is measured by the range finder using the light intensity, the error in the light intensity caused by the light source and the optical system is corrected to perform the distance measurement, so that the electronic measurement is performed entirely. A stable and accurate range finder device that can be realized by a simple operation can be realized.

【0054】なお、本実施の形態によるレンジファイン
ダの赤外カメラの前面にハーフミラーもしくはダイクロ
イックミラーとカラーカメラを配置することにより、距
離画像と同時に同一視点のカラー画像も得ることができ
る。
By disposing a half mirror or a dichroic mirror and a color camera in front of the infrared camera of the range finder according to the present embodiment, a color image of the same viewpoint can be obtained simultaneously with the distance image.

【0055】なお、本実施の形態における距離計算部の
説明では、距離Zのみを計算し計算結果を距離画像とし
て出力するものとしたが、図6に示す角度ωを用いて、
下記の式 Z=Dtanθtanφ/(tanθ−tanφ) X=Z/tanθ Y=Z/tanω より三次元座標値X,Y,Zを全て計算し三次元座標デ
ータを出力することができる。
In the description of the distance calculator in this embodiment, only the distance Z is calculated and the calculation result is output as a distance image. However, the angle ω shown in FIG.
The following equation Z = Dtanθtanφ / (tanθ−tanφ) X = Z / tanθ Y = Z / tanω All three-dimensional coordinate values X, Y and Z can be calculated and three-dimensional coordinate data can be output.

【0056】尚、本実施の形態の距離計算部における光
強度補正では、被写体が上述した基準距離から離れた場
合、撮像される画素の位置がずれる(すなわち視差が生
じる)ため、距離計測精度が低下する。そのような場
合、予め複数の基準距離についての光強度補正量を用意
しておき、最初、ある1つの基準距離での補正を行って
距離を計算し、次にそれに近い基準距離での補正量を用
いて再度距離を計算することによって計測精度を改善で
きる。
In the light intensity correction in the distance calculation unit according to the present embodiment, when the subject moves away from the above-described reference distance, the position of a pixel to be imaged shifts (that is, parallax occurs). descend. In such a case, the light intensity correction amounts for a plurality of reference distances are prepared in advance, the distance is calculated by first performing correction at a certain reference distance, and then the correction amount at a reference distance close to that. The accuracy of measurement can be improved by calculating the distance again by using.

【0057】なお、本実施の形態において、光源2a、
2bを同時に発光させ、図4の点線のように1つの中心
の明るさが大きく、周辺が暗くなる通常のフラッシュラ
ンプとして使用すれば、通常の2次元画像を撮像するこ
とができる。
In this embodiment, the light sources 2a,
2b is emitted at the same time, and as shown in a dotted line in FIG. 4, if one is used as a normal flash lamp in which the brightness at one center is large and the periphery is dark, a normal two-dimensional image can be taken.

【0058】また、本実施の形態において、ハーフミラ
ーやダイクロイックミラー等で赤外カメラと同軸で同時
に通常のカラーカメラで画像を撮像すれば、奥行き画像
とそれに対応したテクスチャ画像を同時に撮像すること
もできる。
Further, in this embodiment, if an image is taken by a normal color camera at the same time as the infrared camera using a half mirror or a dichroic mirror, a depth image and a texture image corresponding thereto can be taken at the same time. it can.

【0059】また、本実施の形態において、フラッシュ
光は数百マイクロ秒の時間閃光するので、その期間のみ
カメラ1はシャッタ動作によって露出を行うように設定
すれば、背景光が距離測定に影響を及ぼすことを抑圧す
ることが出来、ある程度明るい場所でも距離画像を撮像
することができる。
In this embodiment, since the flash light flashes for several hundred microseconds, if the camera 1 is set to perform the exposure by the shutter operation only during that period, the background light may affect the distance measurement. The influence can be suppressed, and a distance image can be captured even in a bright place to some extent.

【0060】また、本実施の形態においては、2種類の
光パタンを被写体に照射し、それぞれの場合の撮像画像
を用いて各画素での光強度比を計算したが、光パタンを
照射しない場合の画像も撮像して、合計3種類(光パタ
ン2種類、光パタン無し1種類)の画像を得て計算して
も良い。
In the present embodiment, the subject is irradiated with two types of light patterns, and the light intensity ratio at each pixel is calculated using the captured image in each case. May be calculated by obtaining three types of images (two types of optical patterns and one type without optical patterns).

【0061】この場合、各画素の光強度比を計算する際
に、各々の光パタン照射時の光強度の値から光パタン無
しの場合の光強度を差し引いた差分値を計算する。そし
てこれらの差分値の比を計算して光強度比とする。この
ようにすれば明るい場所での撮像の場合、背景光による
距離計算誤差を抑圧することが出来る。
In this case, when calculating the light intensity ratio of each pixel, a difference value is calculated by subtracting the light intensity when there is no light pattern from the light intensity value when each light pattern is irradiated. Then, the ratio of these difference values is calculated and used as the light intensity ratio. In this way, in the case of imaging in a bright place, a distance calculation error due to background light can be suppressed.

【0062】また、本実施の形態において被写体に投光
する光パターンを、横方向に透過率が変化するNDフィ
ルタ4a,4bと光源2a,2bの代わりに、光透過型
液晶表示素子(通常の液晶映像プロジェクタに使われる
ようなもの)と光源1つを用いてもよい。光透過型液晶
表示素子の光透過パターンを切り替えて光源を2回発光
させることによって、あるいは、光源を点灯しておいて
光透過型液晶表示素子の2種類の光パターンを切り替え
ることによって、本実施の形態と同様に2種類の光パタ
ーンを被写体に時分割にて照射することができる。
In the present embodiment, the light pattern projected on the subject is replaced with a light-transmitting liquid crystal display element (normal type) instead of the ND filters 4a and 4b and the light sources 2a and 2b whose transmittance changes in the horizontal direction. Liquid crystal image projector) and one light source. The present embodiment can be implemented by switching the light transmission pattern of the light transmission type liquid crystal display element to cause the light source to emit light twice, or by turning on the light source and switching between two types of light patterns of the light transmission type liquid crystal display element. In the same manner as in the embodiment, two types of light patterns can be irradiated to the subject in a time-division manner.

【0063】(第3の実施の形態)図10(a)は、本
発明のレンジファインダの第3の実施の形態の構成を示
す概略斜視図である。同図を参照しながら、以下に本実
施の形態の構成を説明する。
(Third Embodiment) FIG. 10A is a schematic perspective view showing a configuration of a range finder according to a third embodiment of the present invention. The configuration of the present embodiment will be described below with reference to FIG.

【0064】図10(a)に示す様に、半導体レーザ2
01は、波長λの光を出射する光源手段である。第1光
ファイバ202は、半導体レーザ201から出射される
光を光分配器203に導く手段である。又、第1光ファ
イバ202と半導体レーザ201の間には、コリメータ
レンズ204が配置されている。光分配器203は、第
1光ファイバ202から導かれた光を2つの経路に分岐
する光分配手段である。又、光分配器203は、シャッ
ター機構を備えており、分岐した光を時分割で第2光フ
ァイバa,bに送り出す手段である。第2光ファイバa
(205a)及び第2光ファイバb(205b)は、そ
れぞれ光分配器203に一端が接続され、且つ他端の開
口部から分岐された光を被写体(例えば、胃の内壁な
ど)に照射するための光ファイバである。カメラ部20
6は、受光用光ファイバ束207により受光された、被
写体からの反射光により、被写体の画像データを取得す
る撮像手段である。尚、受光用光ファイバ束207の先
端には、レンズ210が近接配置されている。CCD2
09は、受光用光ファイバ束207からの光を受光出来
るように、カメラ部206に取り付けられた撮像素子で
ある。又、第2光ファイバa(205a)の開口部20
8aから照射される光は、上記実施の形態で説明した図
4に示す様な光強度分布を示す。第2光ファイバb(2
05b)の開口部208bから照射される光も同様であ
る。これらの光が、この様に水平方向の位置によって、
光強度の分布が異なるのは、光ファイバの開口部から出
る光が、開口角に基づいて拡散するからである。従っ
て、開口角を調整することにより、光強度の分布の形状
を変えることが出来る。尚、この開口角は、光ファイバ
の直径方向の屈折率を所定の値に設定することによりあ
る程度の調整が可能である。
As shown in FIG. 10A, the semiconductor laser 2
Reference numeral 01 denotes a light source unit that emits light having a wavelength λ. The first optical fiber 202 is means for guiding light emitted from the semiconductor laser 201 to the optical distributor 203. A collimator lens 204 is disposed between the first optical fiber 202 and the semiconductor laser 201. The light distributor 203 is a light distribution unit that branches light guided from the first optical fiber 202 into two paths. The light distributor 203 is provided with a shutter mechanism, and is means for sending the split light to the second optical fibers a and b in a time-division manner. Second optical fiber a
The (205a) and the second optical fiber b (205b) are connected to the light distributor 203 at one end, and irradiate light branched from the opening at the other end to a subject (for example, an inner wall of a stomach). Optical fiber. Camera unit 20
Reference numeral 6 denotes an imaging unit that acquires image data of a subject by using light reflected by the subject and received by the light-receiving optical fiber bundle 207. Note that a lens 210 is disposed close to the tip of the light receiving optical fiber bundle 207. CCD2
Reference numeral 09 denotes an image sensor attached to the camera unit 206 so as to receive light from the light receiving optical fiber bundle 207. The opening 20 of the second optical fiber a (205a)
The light emitted from 8a has a light intensity distribution as shown in FIG. 4 described in the above embodiment. The second optical fiber b (2
The same applies to the light emitted from the opening 208b in 05b). These lights, depending on the horizontal position,
The distribution of the light intensity is different because the light emitted from the opening of the optical fiber is diffused based on the opening angle. Therefore, the shape of the light intensity distribution can be changed by adjusting the aperture angle. The opening angle can be adjusted to some extent by setting the refractive index in the diameter direction of the optical fiber to a predetermined value.

【0065】尚、本実施の形態のレンジファインダは、
上記実施の形態で述べた距離計算部6と同様の機能を備
えた、カメラ部206からの画像データに基づいて被写
体までの距離を計算する距離計算手段(図示省略)を備
えている。又、上記第1光ファイバ202、及び第2光
ファイバa,b(205a,205b)の双方又は一方
に、光ファイバ束を用いても勿論良い。
The range finder according to the present embodiment is
A distance calculating unit (not shown) for calculating a distance to a subject based on image data from the camera unit 206 and having a function similar to that of the distance calculating unit 6 described in the above embodiment is provided. An optical fiber bundle may be used for both or one of the first optical fiber 202 and the second optical fibers a and b (205a and 205b).

【0066】以上の構成により、次に本実施の形態の動
作を図10(a)を用いて説明する。
Next, the operation of the present embodiment having the above configuration will be described with reference to FIG.

【0067】本実施の形態のレンジファインダは、胃カ
メラなどの内視鏡として利用することが出来るものであ
る。
The range finder of the present embodiment can be used as an endoscope such as a gastroscope.

【0068】即ち、第2光ファイバa、b(205a、
205b)の先端と、受光用光ファイバ207の先端と
を、患者の胃の中に挿入する。
That is, the second optical fibers a and b (205a,
The tip of 205b) and the tip of the light receiving optical fiber 207 are inserted into the stomach of the patient.

【0069】第2光ファイバa,bの開口部からは、図
4に示す様な光強度の分布特性を有する光が、上記実施
の形態1と同様、時分割で照射される。受光用光ファイ
バ207が、これらの光の反射光を受光する。更に、カ
メラ部206が、これら反射光から得た胃の内壁の画像
データを距離計算部に送る。距離計算部は、上記実施の
形態1と同様にして、胃の内壁の3次元距離データを計
算して出力する。出力された距離データは、モニター
(図示省略)に送られて3次元表示される。医師は、そ
のモニターを見ながら、第2光ファイバの先端を移動さ
せ、3次元的に映し出された患部の画像を見ることが出
来る。これにより、従来に比べてより一層正確な診察が
出来る。
Light having a light intensity distribution characteristic as shown in FIG. 4 is radiated from the openings of the second optical fibers a and b in a time-sharing manner as in the first embodiment. The light receiving optical fiber 207 receives the reflected light of these lights. Further, the camera unit 206 sends image data of the inner wall of the stomach obtained from the reflected light to the distance calculation unit. The distance calculator calculates and outputs three-dimensional distance data of the inner wall of the stomach in the same manner as in the first embodiment. The output distance data is sent to a monitor (not shown) and displayed three-dimensionally. The doctor can move the tip of the second optical fiber while watching the monitor, and can see the image of the affected part three-dimensionally projected. As a result, a more accurate examination can be performed as compared with the related art.

【0070】尚、上記実施の形態では、光源部としての
半導体レーザを一つ備えた構成のレンジファインダーに
ついて説明したが、これに限らず例えば、図10(b)
に示す様に、光源部を2つ備えた構成であっても良い。
即ち、この場合、光源部としての半導体レーザ201
a,201bには、それらの出射光を個別に被写体側に
導き、被写体に照射するための光ファイバ205a、2
05bが設けられている。又、これら各光ファイバ20
5a,205bと半導体レーザ201a,201bの間
には、コリメータレンズ204a,204bが配置され
ている。この様な構成により、上記と同様の効果を発揮
する。
In the above embodiment, the range finder having one semiconductor laser as the light source has been described. However, the present invention is not limited to this. For example, FIG.
As shown in (1), a configuration having two light source units may be employed.
That is, in this case, the semiconductor laser 201 as the light source unit
a and 201b are optical fibers 205a and 205b for individually guiding the emitted light to the subject side and irradiating the subject with the emitted light.
05b is provided. Each of these optical fibers 20
Collimator lenses 204a and 204b are arranged between 5a and 205b and semiconductor lasers 201a and 201b. With such a configuration, the same effect as described above is exhibited.

【0071】又、上記実施の形態では、第1光ファイバ
202と、2つの第2ファイバ205a,205bの間
に、光分配器203を備えた構成について説明したが、
これに限らず例えば、光分配器203及び第2光ファイ
バ205a,205bに代えて、第1光ファイバから導
かれた光をファイバの先端部で2つの経路に分岐し、被
写体に照射するための光分岐手段(図示省略)を備えた
構成でも良い。この場合、第2の光ファイバを省略出
来、しかも上記と同様の効果を発揮する。
In the above-described embodiment, the configuration in which the optical distributor 203 is provided between the first optical fiber 202 and the two second fibers 205a and 205b has been described.
The invention is not limited to this. For example, instead of the light distributor 203 and the second optical fibers 205a and 205b, the light guided from the first optical fiber is branched into two paths at the tip of the fiber to irradiate the object. A configuration including an optical branching unit (not shown) may be used. In this case, the second optical fiber can be omitted, and the same effect as described above is exerted.

【0072】又、上記実施の形態では、図11(a)に
示す様に、光ファイバ205a,205bの前には、何
も配置していない構成について説明したが、これに限ら
ず例えば、各光ファイバ205a,205bの開口部2
08a,208bの前面にコリメートレンズ301(図
11(b)参照)や、シリンドリカルレンズ(又は、ロ
ッドレンズ)302(図11(c)参照)を、各開口部
208a,208bの前面に配置する構成でも良い。こ
れにより、開口部から照射される光の強度を、より一層
効率よく位置的に一様に変化させることが可能となる。
なお、各開口部208a,208bの前面からは場所的
に光強度の異なること無い光を出力させ、そのかわり、
光透過率が位置的に異なる透過率変化フィルタ1(30
3a)と、透過率変化フィルタ2(303b)とを各開
口部208a,208bの前面に配置することも可能で
ある。
Further, in the above-described embodiment, as shown in FIG. 11A, a configuration in which nothing is disposed before the optical fibers 205a and 205b has been described. Opening 2 of optical fibers 205a and 205b
A configuration in which a collimating lens 301 (see FIG. 11B) and a cylindrical lens (or rod lens) 302 (see FIG. 11C) are disposed on the front surfaces of the openings 208a and 208b on the front surfaces of 08a and 208b. But it is good. This makes it possible to more efficiently and uniformly change the intensity of light emitted from the opening.
In addition, from the front surface of each of the openings 208a and 208b, light whose light intensity is not locally different is output.
Transmittance change filter 1 (30
3a) and the transmittance change filter 2 (303b) can be arranged on the front surface of each of the openings 208a and 208b.

【0073】ここで、図11(d)に示したフィルタの
特性を、図12(a)、(b)を参照しながら、更に説
明する。
Here, the characteristics of the filter shown in FIG. 11D will be further described with reference to FIGS. 12A and 12B.

【0074】例えば、図12(a)に示した透過率変化
フィルタ1(303a)を透過した光の強度分布は、図
12(b)中の符号401aを付したものとなる様に設
定されている。これに対して、透過率変化フィルタ2
(303b)を透過した光の強度分布は、同図中の符号
401bを付したものとなる様に設定されている。図1
2(b)は、図4に示したαの範囲についての光強度分
布を表した図である。このような透過率変化フィルタを
用いても本発明を実現できる。
For example, the intensity distribution of the light transmitted through the transmittance changing filter 1 (303a) shown in FIG. 12A is set so as to be given the reference numeral 401a in FIG. 12B. I have. On the other hand, the transmittance change filter 2
The intensity distribution of the light transmitted through (303b) is set to be the one denoted by reference numeral 401b in FIG. FIG.
FIG. 2B is a diagram showing a light intensity distribution in the range of α shown in FIG. The present invention can also be realized using such a transmittance change filter.

【0075】又、上記実施の形態では、光分配器にシャ
ッター機構が設けられており、時分割で光が被写体に照
射される構成の場合について述べたが、これに限らず例
えば、光源からの光に複数の周波数の光が含まれてお
り、光分配器にフィルタを設けることにより、異なる波
長の光が開口部から照射される。そして、カメラ部にこ
れらの2種類の波長を区別して受光出来るフィルタと受
光素子とを備える構成とすることにより、被写体の対し
て、2種類の波長の各光を同時に照射することが可能と
なる。これにより測定時間の短縮が可能となる。図10
(b)に示した構成についても、半導体レーザ201
a,201bの波長を異ならせて、カメラ部206を、
2種類の波長を区別して受光出来るフィルタと受光素子
とを備える構成とすれば、上記と同様に、測定時間の短
縮が可能となる。
Further, in the above embodiment, the case where the light distributor is provided with the shutter mechanism and the object is irradiated with light in a time sharing manner has been described. However, the present invention is not limited to this. Light having a plurality of frequencies is included in the light, and light having different wavelengths is emitted from the opening by providing a filter in the light distributor. Then, by providing the camera unit with a filter and a light receiving element capable of distinguishing and receiving light of these two wavelengths, it becomes possible to simultaneously irradiate the subject with each light of the two wavelengths. . As a result, the measurement time can be reduced. FIG.
In the configuration shown in FIG.
a, 201b with different wavelengths,
With a configuration including a filter and a light receiving element that can receive light while distinguishing two types of wavelengths, the measurement time can be reduced in the same manner as described above.

【0076】又、上記実施の形態では光源として半導体
レーザを用いたが、これに限らず例えば、LEDやラン
プなどを用いても良い。
In the above embodiment, a semiconductor laser is used as a light source. However, the present invention is not limited to this. For example, an LED or a lamp may be used.

【0077】次に、上述した本発明にかかるレンジファ
インダ装置をよりコンパクトに、またシンプルな構造と
する工夫を実現した本発明のカメラを説明する。
Next, a description will be given of a camera of the present invention in which the above-described range finder according to the present invention is designed to be more compact and has a simple structure.

【0078】つまり、上述したレンジファインダ装置に
おいては、光源2a,2bを図2に示すように光反射板
をずらしておいたり、発光管の前に水平場所によって光
透過率の異なった光フィルタを装着する必要があり、構
造が複雑であるといえる。
That is, in the above-described range finder device, the light sources 2a and 2b are shifted from the light reflecting plate as shown in FIG. 2 or an optical filter having a different light transmittance depending on the horizontal position in front of the arc tube. It is necessary to mount it, and it can be said that the structure is complicated.

【0079】また、カメラのレンズと光源の距離を数十
センチ以上離さないと三角測量を用いるため測定精度が
出ないと面もあり、これをカメラの筐体に収めようとし
てもカメラがかなり大きくなる。
In addition, if the distance between the lens of the camera and the light source is not more than a few tens of centimeters, there is a problem that the measurement accuracy is not obtained because triangulation is used. Become.

【0080】また、従来公知のカメラで撮像した物体の
大きさや寸法を測定することは被写体までの距離が分か
らないと簡単には計算できないという欠点があった。ま
た、一旦撮影されたカラー画像から被写体の大きさを知
ることは不可能であった。
Further, there is a disadvantage that it is not easy to calculate the size and size of an object imaged by a conventionally known camera unless the distance to the subject is known. Further, it was impossible to know the size of the subject from the color image once photographed.

【0081】また、従来公知のカメラで撮像された画像
から被写体を抽出しようとすると、背景が単一色の環境
を予め用意しなくてはならず、大がかりな準備が必要で
あった。
In order to extract a subject from an image captured by a conventionally known camera, an environment having a single color background must be prepared in advance, and extensive preparation is required.

【0082】以下にそれらの不都合などを解決できる本
発明の一実施の形態に係る形状計測用のカメラ及び被写
体抽出用のカメラについて、図面を用いて説明する。 (第4の実施の形態)図1(a)は、本発明の第4の実
施の形態における形状計測カメラ及び被写体抽出カメラ
の構成図である。また、図20はこのカメラのブロック
図である。
Hereinafter, a camera for shape measurement and a camera for extracting a subject according to an embodiment of the present invention which can solve these inconveniences will be described with reference to the drawings. (Fourth Embodiment) FIG. 1A is a configuration diagram of a shape measurement camera and a subject extraction camera according to a fourth embodiment of the present invention. FIG. 20 is a block diagram of this camera.

【0083】図13において、501,502はカメラ
筐体、503は撮影レンズ、504は記録メディア、5
05,506はそれぞれ光源部を形成する第1,第2ス
トロボ、507はファインダである。図20において、
532は表示部、533は撮像部、534は光源制御
部、535は距離計算部、536はカラー画像計算部、
538はメディア記録・再生部、550は画像メモリで
ある。
In FIG. 13, reference numerals 501 and 502 denote camera housings, 503 denotes a photographing lens, 504 denotes a recording medium,
Reference numerals 05 and 506 denote first and second strobes forming a light source unit, and reference numeral 507 denotes a finder. In FIG.
532 is a display unit, 533 is an imaging unit, 534 is a light source control unit, 535 is a distance calculation unit, 536 is a color image calculation unit,
538 is a media recording / reproducing unit, and 550 is an image memory.

【0084】この形状計測カメラの構造は、図13
(a)に示すようにカメラ部の入っている筐体501と
発光部の入っている筐体502が、互いに厚みが異なっ
て互いに重なってはめ込むことが出来る構造になってお
り、更に図13(a)の状態と(b)の状態を、使用者
が筐体501、502をスライドさせることによって選
ぶことが出来る。携帯時には(a)の状態で小型の状態
にしておき、撮影時には(b)のような状態に筐体を延
ばして使用する。これにより、使用時にレンズ503の
中心と光源部のストロボ505、506との間隔Dを大
きく設定することが出来る。図20(a)は、画像メモ
リ550を用いない簡易方式、(b)は画像メモリを持
ち高速に撮像・表示することのできるタイプである。
The structure of this shape measuring camera is shown in FIG.
As shown in FIG. 13A, a housing 501 containing a camera unit and a housing 502 containing a light emitting unit have a structure in which the thickness is different from each other and can be overlapped with each other. The user can select one of the states (a) and (b) by sliding the housings 501 and 502. When the camera is carried, it is kept in a small size in the state of (a), and when taking a picture, the housing is extended and used in the state as shown in (b). Thus, the distance D between the center of the lens 503 and the strobes 505 and 506 of the light source unit can be set to be large during use. FIG. 20A shows a simple system that does not use the image memory 550, and FIG. 20B shows a type that has an image memory and can capture and display at high speed.

【0085】光源部のストロボ505、506は、例え
ば図2のように構成されており、ストロボ発光管530
と中心位置をずらした孔を有する遮光板528により構
成されている。この時、図15の平面図に示すように発
光管530の線分から出た光は、遮光板528により、
その場所によって光の遮られ方が変化しながら出射され
る。この時、遮光板528の孔の位置がストロボ発光管
530とずれており、直線l上での点AからBの間に光
がだんだん強くなるような光が生成される。これによっ
て、図16のように、2つのストロボ発光管から互いに
反対方向に光強度が変化するような光パタンが生成され
る。次に、このような光を用いて奥行き距離を計算する
方法を説明する。なお、その内容は、既に述べた奥行き
距離の計算方法とおおむね同様である。
The strobes 505 and 506 of the light source section are configured, for example, as shown in FIG.
And a light shielding plate 528 having a hole whose center position is shifted. At this time, light emitted from the line segment of the arc tube 530 as shown in the plan view of FIG.
The light is emitted while the manner in which light is blocked varies depending on the location. At this time, the position of the hole of the light-shielding plate 528 is shifted from the strobe light emitting tube 530, and light is generated such that the light gradually increases between the points A and B on the straight line l. As a result, as shown in FIG. 16, a light pattern is generated from the two strobe light emitting tubes such that the light intensity changes in directions opposite to each other. Next, a method of calculating the depth distance using such light will be described. The contents are almost the same as the depth distance calculation method described above.

【0086】このようにして得られる光パタンは、図1
7のように、光強度が変化するパタンになっている。こ
の光強度の変化を横X方向に一次元的に示したのが図1
8である。この光パタンのうちα部分においては、2つ
の光源から被写体空間に照射される光は、光源から見て
一方は右側が明るく、他方は左側が明るい光となる。但
し、このパタンは高さ方向(Y方向)に対しても変化す
る。
The optical pattern obtained in this way is shown in FIG.
As shown in FIG. 7, the light intensity changes. FIG. 1 shows a one-dimensional change in the light intensity in the horizontal X direction.
8 In the α portion of the light pattern, one of the light emitted from the two light sources to the subject space is bright on the right side and bright on the left side as viewed from the light sources. However, this pattern also changes in the height direction (Y direction).

【0087】図19は、図18のα部分における、上記
2つの投射光での被写体照明での光強度比と、光源から
の水平方向の角度φとの関係を示したものである。α部
分においては、光強度比と光源からの水平方向の角度φ
の関係は1対1対応である。距離の測定のためには、事
前に2種類の光パタンを垂直に立てられた平面に交互に
投射し、この反射光をカメラ501で撮像した結果か
ら、各Y座標毎に図17のような光強度比と水平方向の
光源からの位置の関係のデータを得ておく必要がある。
FIG. 19 shows the relationship between the light intensity ratio of the two projection lights in illumination of the subject and the angle φ in the horizontal direction from the light source in the portion α in FIG. In the α part, the light intensity ratio and the horizontal angle φ from the light source
Is a one-to-one correspondence. In order to measure the distance, two types of light patterns are alternately projected in advance on a vertically erected plane, and the reflected light is imaged by the camera 501. It is necessary to obtain data on the relationship between the light intensity ratio and the position from the light source in the horizontal direction.

【0088】また、カメラ501のレンズ中心と光源を
結ぶ線分が、撮像面のX軸と水平になるように光源を配
置すれば、各Y座標毎に決定された光強度比と水平方向
の光源からの位置の関係のデータを用いることにより正
確に距離計算を行うことができる。これは、図20
(a)の距離計算部によって算出される。以下に、光強
度比を用いた距離計算の方法について説明する。
If the light source is arranged so that a line segment connecting the lens center of the camera 501 and the light source is horizontal to the X axis of the imaging surface, the light intensity ratio determined for each Y coordinate and the horizontal direction By using the data on the positional relationship from the light source, the distance can be accurately calculated. This is shown in FIG.
It is calculated by the distance calculation unit of (a). Hereinafter, a method of calculating a distance using the light intensity ratio will be described.

【0089】図20(a)の点Pを着目点とする時、使
用者の撮像意図に基づいて撮像部533によって撮像し
た映像の点Pについての光源のストロボ505、506
それぞれからの2種類の光パタンが時分割で光源制御部
534によって投射された時の、撮像部533の出力で
ある撮像データから得られた輝度比と、点PのY座標値
に対応した図19の関係を用いることにより、光源から
見た点Pの角度φを計測する。
When the point P in FIG. 20A is taken as the point of interest, the strobes 505 and 506 of the light source for the point P of the image picked up by the image pickup section 533 based on the user's image pickup intention.
A diagram corresponding to the luminance ratio obtained from the imaging data output from the imaging unit 533 and the Y coordinate value of the point P when two types of light patterns from each are projected by the light source control unit 534 in a time division manner. By using the relation of No. 19, the angle φ of the point P viewed from the light source is measured.

【0090】なお、図19の関係は前述のように、Y座
標値によって異なる特性を持ち、各Y座標毎に光強度比
と、光源からの水平方向の角度φの関係が事前の測定に
よって用意されているものとする。また、カメラから見
た点Pに対する角度θは、画像中での位置(すなわち点
Pの画素座標値)とカメラパラメータ(焦点距離、レン
ズ系の光学中心位置)から決定する。そして、上記2つ
の角度と、光源位置とカメラの光学中心位置間の距離
(基線長D)とから、三角測量の原理により距離を計算
する。
As described above, the relationship in FIG. 19 has different characteristics depending on the Y coordinate value, and the relationship between the light intensity ratio and the horizontal angle φ from the light source is prepared for each Y coordinate by preliminary measurement. It is assumed that The angle θ with respect to the point P viewed from the camera is determined from the position in the image (that is, the pixel coordinate value of the point P) and camera parameters (focal length, optical center position of the lens system). Then, the distance is calculated from the two angles and the distance between the light source position and the optical center position of the camera (base line length D) according to the principle of triangulation.

【0091】カメラの光学中心を原点とし、カメラの光
軸方向をZ軸、水平方向にX軸、垂直方向にY軸を設定
し、光源からみた着目点の方向がX軸となす角をφ、カ
メラから見た着目点の方向とX軸がなす角をθ、光源位
置を(0,−D)すなわち基線長をDとすると、着目点
Pの奥行き値Zは式 Z=Dtanθtanφ/(tanθ−tanφ) として計算できる。この時、Dの値(レンズと光源部の
距離)が小さいと、計測された奥行き値Zの値の精度が
悪くなる。例えば、3m程度の距離までの被写体であれ
ば、Dの値を20〜30cmにすれば、計測距離の約1
%の誤差で奥行きが計測できる。これより小さなDの値
になるに従って、計測誤差はこれよりも大きくなってい
く。また、着目点PのX、Y座標は以下の式によって与
えられる。
The origin is set at the optical center of the camera, the Z axis is set in the optical axis direction of the camera, the X axis is set in the horizontal direction, and the Y axis is set in the vertical direction. The angle between the direction of the point of interest and the X axis as viewed from the light source is φ. If the angle between the direction of the point of interest and the X axis viewed from the camera is θ, and the light source position is (0, −D), that is, the base line length is D, the depth value Z of the point of interest P is given by the following equation: Z = Dtanθtanφ / (tanθ) −tanφ). At this time, if the value of D (the distance between the lens and the light source unit) is small, the accuracy of the measured depth value Z decreases. For example, in the case of a subject up to a distance of about 3 m, if the value of D is set to 20 to 30 cm, the measurement distance becomes about 1
Depth can be measured with% error. As the value of D becomes smaller, the measurement error becomes larger. The X and Y coordinates of the point of interest P are given by the following equations.

【0092】X=Z/tanθ Y=Z/tanω また、カラー画像計算部536は、前述の2種類の光パ
タン照射時の撮像データを加算平均した画像を計算し、
これをカラー画像とする。2種類の光パタンは、図18
のように、お互いに相補的に明るさが変化する特性を持
っており、これらを加算平均することによって一様な明
るさのストロボで撮像したのと同等なカラー画像を得る
ことが出来る。
X = Z / tan θ Y = Z / tan ω Further, the color image calculation unit 536 calculates an image obtained by averaging the above-mentioned two types of image data at the time of light pattern irradiation,
This is a color image. The two types of optical patterns are shown in FIG.
As described above, the brightness changes in a complementary manner to each other, and by adding and averaging them, it is possible to obtain a color image equivalent to that captured by a strobe of uniform brightness.

【0093】以上のようにして得られたカラー画像と奥
行き画像は、表示部532に表示されるとともに、メデ
ィア記録・再生部538を通して記録メディア504に
記録される。もちろん、一旦記録されたカラー画像及び
奥行き画像をメディア記録・再生部538により読み出
して表示部532に表示することも出来る。
[0093] The color image and the depth image obtained as described above are displayed on the display unit 532 and recorded on the recording medium 504 through the media recording / reproducing unit 538. Of course, the color image and the depth image once recorded can be read out by the media recording / reproducing unit 538 and displayed on the display unit 532.

【0094】また、図20(b)のように、撮像部53
3からの画像データを一旦画像メモリ550に蓄積する
ようにすれば、連続して画像を入力することもできる。
また、一旦記録メディア504に記録した画像を画像メ
モリ550に複数読み出して、高速に再生表示すること
もできる。
Further, as shown in FIG.
If the image data from 3 is temporarily stored in the image memory 550, images can be continuously input.
Also, a plurality of images once recorded on the recording medium 504 can be read out to the image memory 550 and reproduced and displayed at high speed.

【0095】以上のように本実施の形態によれば、光強
度の変化パターンを直線状のストロボ発光管と孔の空い
た遮光板を用いるだけで、簡単な構造で複数の光パター
ンを生成でき、構造の安定した形状計測カメラを実現す
ることができる。
As described above, according to the present embodiment, a plurality of light patterns can be generated with a simple structure simply by using a linear strobe light emitting tube and a light-shielding plate having holes. In addition, a shape measurement camera having a stable structure can be realized.

【0096】また、携帯時には小型で、撮影時には本体
を引き延ばしてレンズ503と光源部のストロボ50
5,506の間隔Dを大きく取ることが出来、精度の高
い奥行き画像を計測できる形状計測カメラを実現するこ
とが出来る。
When the camera is carried, it is small, and when taking a picture, the main body is extended, and the lens 503 and the strobe 50 of the light source section are extended.
The distance D of 5,506 can be made large, and a shape measuring camera capable of measuring a depth image with high accuracy can be realized.

【0097】(第5の実施の形態)図28は、本発明の
第5の実施の形態における形状計測カメラ及び被写体抽
出カメラの構成図である。図28において、501,5
02はカメラの筐体、505,506はそれぞれ光源部
を形成する第1、第2ストロボ、518は表示パネル、
519はタッチパネル、532は表示部、533は撮像
部、535は距離計算部、536はカラー画像計算部、
538はメディア記録・再生部、537は制御部であ
る。以下に上記構成の形状計測カメラ及び被写体抽出カ
メラの動作について説明する。
(Fifth Embodiment) FIG. 28 is a configuration diagram of a shape measuring camera and a subject extracting camera according to a fifth embodiment of the present invention. In FIG. 28, 501 and 5
Reference numeral 02 denotes a camera housing, reference numerals 505 and 506 denote first and second strobes forming a light source unit, reference numeral 518 denotes a display panel,
519 is a touch panel, 532 is a display unit, 533 is an imaging unit, 535 is a distance calculation unit, 536 is a color image calculation unit,
538 is a media recording / reproducing unit, and 537 is a control unit. Hereinafter, the operations of the shape measuring camera and the subject extracting camera having the above configuration will be described.

【0098】図27は、形状測定カメラの裏面を示した
ものである。裏面には、表示パネル518と、タッチパ
ネル519が重ねて配置してあり、撮像されたカラー画
像や奥行き画像を表示し、使用者が指や棒状のもので、
その画像中の注目位置(座標)を指定できるようになっ
ている。
FIG. 27 shows the back surface of the shape measuring camera. On the back surface, a display panel 518 and a touch panel 519 are arranged so as to overlap each other, display a captured color image or a depth image, and use a finger or a stick for the user.
An attention position (coordinate) in the image can be designated.

【0099】図28は、表示・距離計測のブロック図を
示したものであり、撮像された距離画像とカラー画像は
制御部537に入力され、使用者の注目位置指定座標も
制御部537に入力される。制御部537は、撮影され
たカラー画像を表示パネル518に表示し、タッチパネ
ル519によって入力された複数の注目指定座標と、奥
行き画像から、実際の距離などを計算して表示パネル5
18に表示する。
FIG. 28 is a block diagram of the display / distance measurement. The captured distance image and color image are input to the control unit 537, and the coordinates of the user's attention position designation are also input to the control unit 537. Is done. The control unit 537 displays the captured color image on the display panel 518, calculates the actual distance and the like from the plurality of designated coordinates input from the touch panel 519 and the depth image, and calculates the actual distance and the like.
18 is displayed.

【0100】図25は、注目位置指定の様子を示したも
のである。まず、表示部518に、使用者が撮影した机
のカラー画像が表示されているとする。使用者は、指定
点A523、B524を指または棒状のもので指定す
る。
FIG. 25 shows how the position of interest is specified. First, it is assumed that a color image of a desk photographed by the user is displayed on the display unit 518. The user designates the designated points A523 and B524 with a finger or a stick.

【0101】指定すると、形状計測カメラは、得られて
いる奥行き画像のそれぞれの座標位置の実際の座標A
(Xa,Ya,Za)とB(Xb,Yb,Zb)の値を
用いて、点A、Bを結ぶ線分ABの距離Lab即ち
When specified, the shape measuring camera sets the actual coordinates A of the respective coordinate positions of the obtained depth image.
Using the values of (Xa, Ya, Za) and B (Xb, Yb, Zb), the distance Lab of the line segment AB connecting the points A and B, ie,

【0102】[0102]

【数1】 (Equation 1)

【0103】を計算し、表示パネル518の別の部分に
表示する。この例では、ABの長さが25cmであると
表示されている。このようにして、使用者は、撮影され
た被写体の測りたい点間の距離を、被写体に触れること
なく、これが奥行き方向の長さであっても測定すること
が出来る。
Is calculated and displayed on another portion of the display panel 518. In this example, it is displayed that the length of AB is 25 cm. In this way, the user can measure the distance between the points to be measured of the photographed subject without touching the subject even if the distance is the length in the depth direction.

【0104】また、同様にして直線ではなく、円状の被
写体の大きさを測定することができる。図26は、円形
のテーブルを撮像した場合の例である。例えば、使用者
は撮像され表示パネル518に表示されたカラー画像を
見ながら、測りたい円形の円周の部分の適当な位置3点
A523、B524、C526をタッチパネルに指また
は棒状のものを触れることによって指定する。
Similarly, it is possible to measure the size of a circular object instead of a straight line. FIG. 26 is an example of a case where a circular table is imaged. For example, the user touches three points A523, B524, and C526 at appropriate positions on the circular circumference to be measured with a finger or a stick while touching the color image captured and displayed on the display panel 518. Specified by

【0105】その後、形状計測カメラは、これらの3点
の空間座標値A(Xa,Ya,Za),B(Xb,Y
b,Zb),C(Xc,Yc,Zc)から、これらを通
る円の方程式を求める。求める方法は色々あるが、例え
ば、線分ABとBCの垂直二等分線を求め、それの交点
が円の中心G(Xg,Yg,Zg)であるする。次に、
線分GA、GB、GCの長さの平均値を円の半径とすれ
ばよい。
Thereafter, the shape measuring camera obtains the spatial coordinate values A (Xa, Ya, Za) and B (Xb, Y) of these three points.
From b, Zb) and C (Xc, Yc, Zc), the equation of a circle passing therethrough is determined. Although there are various methods for obtaining, for example, a perpendicular bisector of the line segments AB and BC is obtained, and the intersection thereof is the center G (Xg, Yg, Zg) of the circle. next,
The average value of the lengths of the line segments GA, GB, and GC may be used as the radius of the circle.

【0106】このようにして得られた半径を図26では
50cmとして表示して使用者に知らせている。このよ
うにすることによって、円形のような複雑な形の大きさ
も、被写体に触れることなく測定することが出来る。他
にも、正三角形や楕円など、形状を規定する数式が存在
する形であれば、複数の点を使用者が指定することによ
って奥行き画像から、その大きさを被写体に触れること
なく測定することができる。また、この場合は、タッチ
パネルを用いて使用者が注目点の座標を入力したが、上
下左右に動くカーソル(十字事模様など)を表示パネル
518に表示し、押しボタンによってその位置を動かし
て指定して注目点の座標を入力してもよい。
The radius obtained in this manner is displayed as 50 cm in FIG. 26 to notify the user. In this way, the size of a complicated shape such as a circle can be measured without touching the subject. In addition, if there is a formula that defines the shape, such as an equilateral triangle or an ellipse, the user must specify multiple points and measure the size from the depth image without touching the subject. Can be. In this case, the user inputs the coordinates of the point of interest using the touch panel, but a cursor (such as a cross-shaped pattern) that moves up, down, left, and right is displayed on the display panel 518, and the position is specified by moving the position with the push button. And input the coordinates of the point of interest.

【0107】また、被写体の大きさ計算結果を、メディ
ア記録・再生部538を通して記録メディア504に記
録すれば、使用者が測定結果を覚えておく必要はなく、
記録メディア504を取り出して、これを読み書きでき
るメディア記録・再生部538と同等の機能を有する機
器(パーソナルコンピュータなど)で使用することも出
来、便利である。もちろん、測定結果を撮影されたカラ
ー画像中にスーパーインポーズし、画像として保存して
も良い。
If the result of the subject size calculation is recorded on the recording medium 504 through the media recording / reproducing unit 538, the user does not need to remember the measurement result.
The recording medium 504 can be taken out and used with a device (such as a personal computer) having the same function as the media recording / reproducing unit 538 that can read and write the recording medium 504, which is convenient. Of course, the measurement result may be superimposed in the captured color image and stored as an image.

【0108】また、以上の例では被写体の長さを測定し
たが、長さを複数測定し、それを元にして面積や体積を
求めることもできる。
In the above example, the length of the subject is measured, but a plurality of lengths can be measured, and the area or volume can be determined based on the measured length.

【0109】更に、撮影データの他の表示・利用例を述
べる。
Further, another example of display and use of photographing data will be described.

【0110】図27に示したように、カメラ裏面には、
表示部518と、タッチパネル519が重ねて配置して
あり、撮像されたカラー画像や奥行き画像を表示し、使
用者が指や棒状のもので、その画像中の注目位置(座
標)を指定できるようになっている。これを利用して、
使用者が注目した被写体のみを切り出した画像を得るこ
とのできる被写体抽出カメラを実現することが出来る。
As shown in FIG. 27, on the back of the camera,
The display unit 518 and the touch panel 519 are arranged so as to overlap each other, display a captured color image and a depth image, and allow a user to specify a target position (coordinates) in the image with a finger or a stick. It has become. Using this,
It is possible to realize a subject extraction camera that can obtain an image obtained by cutting out only a subject that the user pays attention to.

【0111】図28は、表示・切り出し動作のブロック
図を示したものであり、基本的には前述の形状測定カメ
ラと同じ構造である。撮像された距離画像とカラー画像
は制御部537に入力され、使用者の注目位置指定座標
も制御部537に入力される。
FIG. 28 is a block diagram showing a display / cutout operation, and has basically the same structure as the above-described shape measuring camera. The captured distance image and color image are input to the control unit 537, and the user's target position designation coordinates are also input to the control unit 537.

【0112】制御部537は、撮影されたカラー画像を
表示パネル518に表示し、タッチパネル519によっ
て入力された複数の注目指定座標と、奥行き画像から、
使用者が意図する被写体のみを切り出して表示部518
に表示し、記録メディア504に記録することが出来
る。この動作を図29を用いて説明する。
The control unit 537 displays the photographed color image on the display panel 518, and obtains a plurality of designated coordinates input from the touch panel 519 and the depth image.
The display unit 518 cuts out only the subject intended by the user.
, And can be recorded on the recording medium 504. This operation will be described with reference to FIG.

【0113】まず、使用者は被写体520を切り出した
いとする。使用者は被写体520の一部をタッチパネル
519にて指定する。制御部537は、この座標の含ま
れる部分の奥行き値を奥行き画像から得て、それと連続
的に連結された奥行きを有する部分を使用者の注目する
被写体と判断し、その部分のみを表示して、それ以外の
部分をある特定の色に塗りつぶして、表示パネル518
に表示する。
First, it is assumed that the user wants to cut out the subject 520. The user specifies a part of the subject 520 on the touch panel 519. The control unit 537 obtains a depth value of a part including the coordinates from the depth image, determines a part having a depth continuously connected to the part as a subject of interest of the user, and displays only that part. , The other part is painted in a specific color, and the display panel 518 is painted.
To be displayed.

【0114】連結部分の判断は、指定された座標を始点
として、奥行き値が連続的に変化する限りその領域を上
下左右に広げていき、奥行き不連続部分があればそこで
停止するような、いわゆる画像処理を行えばよい。
The connection portion is determined by starting from the designated coordinates as a starting point, extending the area vertically and horizontally as long as the depth value continuously changes, and stopping at a discontinuity portion if there is a depth discontinuity portion. Image processing may be performed.

【0115】また、使用者が切り出したいと思う被写体
のカメラからの距離よりも少し遠い距離、または切り出
したいと思う距離の範囲をタッチパネルまたは押しボタ
ンによって指定し、制御部537はその値によって指定
された距離よりも近い値を持つカラー画像の部分、また
は指定された距離の範囲の部分のみに含まれるカラー画
像を表示し、その他の部分はある特定の色に塗りつぶ
し、表示パネル518に表示し、記録メディア504に
記録する。
Further, the user specifies a distance slightly longer than the distance from the camera of the subject that the user wants to cut out, or a range of the distance that the user wants to cut out, by using a touch panel or a push button. Display a color image that is included only in a portion of the color image having a value shorter than the specified distance or in a portion of the specified distance range, and fill the other portion with a specific color and display the same on the display panel 518; The data is recorded on the recording medium 504.

【0116】このようにすることによって、使用者が注
目する被写体のみをカメラが判断して切りだし、これを
表示・記録することが出来る。また、この場合、画像処
理によっては、図30に示したように、背景部分である
にもかかわらず、誤動作によって前景と判断されてしま
う部分が発生する可能性がある。
In this way, the camera can determine and cut out only the object of interest of the user, and display and record it. Further, in this case, depending on the image processing, there is a possibility that a part that is determined to be the foreground due to a malfunction may occur even though it is a background part, as shown in FIG.

【0117】この場合は、使用者がタッチパネル519
によって誤動作したと思われる部分(図29)を指定し
て、これは背景であるように、表示結果を修正するよう
にすれば、品質の高い被写体の切り出しカラー画像を得
ることが出来る。もちろんこの場合、誤動作によって背
景と判断された部分を使用者が指定して、この部分が前
景になるように修正動作を行っても良い。
In this case, the user touches the touch panel 519.
By specifying a portion (FIG. 29) which seems to have malfunctioned and correcting the display result so as to be a background, a cut-out color image of a high quality subject can be obtained. Of course, in this case, the user may specify a portion determined to be the background due to a malfunction, and perform the correcting operation so that this portion becomes the foreground.

【0118】以上のようにすれば、奥行き画像の情報を
用いて、距離によってカラー画像を切り出すことによっ
て、使用者が注目する被写体のみを切り出した画像を簡
単に得て、保存することが出来る。
In this way, by extracting a color image based on the distance using the information on the depth image, an image in which only the object of interest of the user has been extracted can be easily obtained and stored.

【0119】また、図28において、制御部537内に
画像メモリを配置し、再生・操作する画像を一旦画像メ
モリ上に置くことによって、画像のアクセス速度を速く
したり、複数の画像を高速に切り替えて表示・操作する
こともできる。
In FIG. 28, an image memory is arranged in the control unit 537, and an image to be reproduced / operated is temporarily stored in the image memory, so that an image access speed is increased or a plurality of images are accelerated. You can also switch and display / operate.

【0120】以上のように本実施の形態によれば、被写
体に触れることなく、それの実際の大きさを測定するこ
とも出来る。また、使用者が注目している被写体のみ
を、その奥行き情報を元に簡単に切り出して保存するこ
とも出来る形状計測カメラ及び被写体抽出カメラを実現
することが出来る。
As described above, according to the present embodiment, the actual size of a subject can be measured without touching the subject. Further, it is possible to realize a shape measurement camera and a subject extraction camera that can easily cut out and save only a subject of interest of the user based on the depth information.

【0121】また、第4の実施の形態において、形状計
測カメラの筐体が、図21のように構成されていても、
同様の効果が得られる。即ち、撮像部533が配置され
るカメラ部9と、光源を形成する第1,第2ストロボ5
05,506が配置されるストロボ部508が、蝶番の
ような構造を有する接続部510によって接続され、使
用者が自由に図21(a)のように折り畳んだり、
(b)のように延ばしたりできる構造である。携帯時に
は、(a)のようにすれば小型であり、撮影時には
(b)のように広げて使えば、レンズ503と光源の第
1,第2ストロボ505,506の間隔Dを大きくする
ことが出来る。
In the fourth embodiment, even if the housing of the shape measuring camera is configured as shown in FIG.
Similar effects can be obtained. That is, the camera unit 9 in which the imaging unit 533 is arranged, and the first and second strobes 5 forming the light source.
The flash unit 508 on which the flash units 05 and 506 are arranged is connected by a connection unit 510 having a hinge-like structure, so that the user can freely fold it as shown in FIG.
The structure can be extended as shown in FIG. At the time of carrying, the size is small as shown in (a), and when the image is taken out and used as shown in (b), the distance D between the lens 503 and the first and second strobes 505 and 506 of the light source can be increased. I can do it.

【0122】また、図21(c)のように、レンズと第
1、第2ストロボ505,506が垂直に配置されるよ
うな構造にすることもできる。この場合、奥行き画像計
算は前述では角度φ、θが水平方向の変化であったのに
対して、垂直方向に変化になるだけで、あとは同様の計
算で奥行き画像を算出できる。縦方向の光強度の変化を
生成するために、光源は図21(d)に示したように縦
置きの発光管の構成となる。
Further, as shown in FIG. 21C, a structure in which the lens and the first and second strobes 505 and 506 are arranged vertically can be employed. In this case, in the depth image calculation, the angles φ and θ are changed in the horizontal direction in the above description, but are changed only in the vertical direction. Thereafter, the depth image can be calculated by the same calculation. In order to generate a change in light intensity in the vertical direction, the light source has a vertically arranged arc tube configuration as shown in FIG.

【0123】この場合、図23に示したように、図21
のようなカメラ部の入っている筐体501と発光部の入
っている筐体502が、互いに厚みが異なって互いに垂
直方向に重なってはめ込むことが出来る構造としても、
同様な効果が得られる。この時の光源部の構成は図23
(d)のようになる。
In this case, as shown in FIG.
Such a structure that the housing 501 containing the camera unit and the housing 502 containing the light emitting unit are different in thickness from each other and can be vertically overlapped with each other.
Similar effects can be obtained. The configuration of the light source unit at this time is shown in FIG.
(D).

【0124】また、第4の実施の形態において、形状計
測用カメラの筐体が、図22のように構成されていて
も、同様の効果が得られる。即ち、光源部の第1、第2
ストロボ505、506を含む部分の筐体517を小型
とし、カメラ筐体501に蝶番構造で接続される。使用
時には筐体517を使用者が回して光源部の第1、第2
ストロボ505,506を露出させることによって、通
常は光源部の第1、第2ストロボ505,506が露出
せず不用意な接触によって破損することを防ぎつつ筐体
を小さくでき、同時に撮影時にはこれらとレンズの間隔
Dを大きく取ることが出来る。
Further, in the fourth embodiment, the same effect can be obtained even if the housing of the shape measuring camera is configured as shown in FIG. That is, the first and second light source units
The housing 517 including the strobes 505 and 506 is made small, and is connected to the camera housing 501 by a hinge structure. At the time of use, the user turns the housing 517 to rotate the first and second light source units.
By exposing the strobes 505 and 506, the housing can be made small while preventing the first and second strobes 505 and 506 of the light source unit from being exposed and being damaged due to careless contact. The distance D between the lenses can be increased.

【0125】また、第4の実施の形態において、光源は
図2のように構成されるとしたが、図24(a)のよう
に、発光管529が一つであり、その前に液晶バリア5
31を置いた構造にしても同様の光パタン生成機能を有
することが出来る。
Further, in the fourth embodiment, the light source is configured as shown in FIG. 2, but as shown in FIG. 5
The same optical pattern generation function can be provided even in a structure in which 31 is provided.

【0126】この場合、図24(b)のように発光管5
29に対して左側、(c)のように右側に光透過部が順
次設定されるようにし、それぞれの状態において一回づ
つ順番に発光管529が発光するようにして、図2のよ
うに2つの発光管を用いることなく、一つの発光管を2
回順次発光させることで、図18と同様な光パターンを
生成することができる。
In this case, as shown in FIG.
Light-transmitting portions are sequentially set on the left side of FIG. 29 and on the right side as shown in (c), and in each state, the arc tube 529 emits light one by one in order. Without using one arc tube, one arc tube can be
By sequentially emitting light, a light pattern similar to that in FIG. 18 can be generated.

【0127】これによって、発光管の本数が少なく、発
光パタンの出射位置が図2のように上下に少しずれた位
置から出るのではなく、あたかも同じ位置から光が出射
されたようにすることが出来、奥行き計測誤差を小さく
することが出来る。
Thus, the number of arc tubes is small, and the emission position of the emission pattern does not come out from a position slightly shifted up and down as shown in FIG. 2, but the light is emitted from the same position. As a result, the depth measurement error can be reduced.

【0128】これは図20において、光パタンの出射点
Qの位置が本実施の形態では垂直方向にずれていたのに
対し、この場合は同じ位置になるので、直線PQが1本
の線となり、垂直位置の異なった直線を用いて奥行き計
算するよりも誤差が発生しないからである。
In FIG. 20, the position of the emission point Q of the light pattern is shifted in the vertical direction in the present embodiment, but in this case, the position is the same, so that the straight line PQ becomes one line. This is because an error does not occur as compared with the case where the depth is calculated using straight lines having different vertical positions.

【0129】また、この場合、図24(d)のように液
晶バリア532の全面を光透過状態にすることによっ
て、通常の2次元画像を撮像するカメラのストロボとし
ても利用することができる。
In this case, by setting the entire surface of the liquid crystal barrier 532 in a light transmitting state as shown in FIG. 24D, the liquid crystal barrier 532 can be used as a strobe of a camera for capturing a normal two-dimensional image.

【0130】また、第4の実施の形態では、形状計測カ
メラ及び被写体抽出カメラ本体において、奥行き画像と
カラー画像を計算し、これを記録メディアにて記録した
が、図31に示すように、カメラ本体では、光源の第
1、第2ストロボ505・506に同期して撮像された
画像データをメディア記録・再生部538を通して記録
メディア504に記録し、これをパーソナルコンピュー
タなどで構成された解析装置39により画像データを読
み出して、距離計算部535・カラー画像計算部536
により所望の解析結果を出し、これを表示部532を用
いて被写体を切り出したり、形状を測定しても良い。
In the fourth embodiment, the depth measuring device and the color image are calculated by the shape measuring camera and the subject extracting camera main body and are recorded on the recording medium. However, as shown in FIG. In the main body, the image data captured in synchronization with the first and second strobes 505 and 506 of the light source is recorded on the recording medium 504 through the media recording / reproducing unit 538, and this is analyzed by the analyzing device 39 constituted by a personal computer or the like. , The image data is read out, and the distance calculation unit 535 and the color image calculation unit 536 are read out.
, A desired analysis result may be obtained, and the display unit 532 may be used to cut out the subject or measure the shape.

【0131】また、記録メディア504を介さずに画像
データを解析装置539に転送することもできる。例え
ば、カメラ本体と解析装置539をデータ現行の通信手
段を用いて接続する。例えば有線通信ではパラレルデー
タインタフェース、シリアルデータインタフェース、電
話回線を用いることが出きる。無線通信では、光通信・
赤外線通信・携帯電話網通信・電波通信を用いることが
出来る。さらに、解析結果を記録媒体に記録することも
できる。
Further, the image data can be transferred to the analyzing device 539 without going through the recording medium 504. For example, the camera main body and the analysis device 539 are connected using the communication means of the current data. For example, in wired communication, a parallel data interface, a serial data interface, and a telephone line can be used. In wireless communications, optical communications and
Infrared communication, mobile phone network communication, radio wave communication can be used. Further, the analysis result can be recorded on a recording medium.

【0132】また、この場合、撮像部533は動画撮影
用ビデオカメラであり、記録メディア504がテープな
どの記録媒体の場合、通常はカラー動画像を撮影するカ
メラとして利用し、使用者が必要なときだけ押しボタン
などを押すことによって、フラッシュを点灯させ、その
部分の映像(フレーム、フィールドなど)のみ識別でき
るようなインデックス信号を記録媒体に記憶しておけ
ば、解析装置539において、インデックス信号を有す
る部分の映像のみを抽出し、その部分のみカラー画像・
奥行き画像を計算して出力することができる。
In this case, the image capturing section 533 is a video camera for capturing moving images, and when the recording medium 504 is a recording medium such as a tape, it is usually used as a camera for capturing a color moving image and requires a user. By pressing the push button or the like only when the flash is turned on and storing an index signal that can identify only the video (frame, field, etc.) of that portion in the recording medium, the analysis device 539 converts the index signal into Only the video of the part that has
A depth image can be calculated and output.

【0133】また、第4の実施の形態では、カメラ筐体
501に最初から光源部が付属していたが、光源部のみ
を取り外し可能にすることによって、通常のカラー画像
撮像時には小型で携帯しやすい形状であり、奥行き画像
撮像時のみに光源部を取り付けて使用する方法も考えら
れる。
Further, in the fourth embodiment, the light source section is attached to the camera housing 501 from the beginning, but the light source section is made detachable, so that it is small and portable during normal color image capturing. Since the shape of the light source is easy, a method of attaching and using the light source unit only at the time of capturing a depth image can be considered.

【0134】図37(a)は、写真用の外部ストロボ装
置のような構造であり、図2、図24のような光源を搭
載した外部光源である。カメラとの接続部549を介し
て、図37(b)のようにカメラ筐体501と接続して
使用する。図38は、図35、図36に示したような被
写体の影をなくすための光源の例である。
FIG. 37 (a) shows an external light source equipped with a light source as shown in FIGS. 2 and 24, which has a structure like an external strobe device for photography. As shown in FIG. 37B, the camera is connected to a camera housing 501 via a connection portion 549 to the camera. FIG. 38 shows an example of a light source for eliminating the shadow of the subject as shown in FIGS.

【0135】図38(a)では、接続部549の両側に
対称に光源が配置されている。カメラに接続した様子を
図38(b)に示す。また、図37、図38では、フイ
ルムカメラのストロボシューのような構造でカメラ本体
と光源を接続したが、図39(a)のように、カメラの
三脚取り付けネジを利用して取り付ける方法も考えられ
る。
In FIG. 38A, light sources are arranged symmetrically on both sides of the connection portion 549. FIG. 38B shows a state where the camera is connected to the camera. Also, in FIGS. 37 and 38, the camera body and the light source are connected in a structure like a flash shoe of a film camera. However, as shown in FIG. 39A, a method of mounting using a tripod mounting screw of the camera is also considered. Can be

【0136】この場合、図39(b)のように、カメラ
筐体501の底部のネジを用いて取り付ける構造とな
る。このような、取り外し可能な外部光源装置として光
源を分離すれば、奥行き画像撮像時のみ、カメラが大き
くなり、通常のカメラとして使用する場合には小型軽量
という利便性を出すことが出来る。
In this case, as shown in FIG. 39 (b), the camera is mounted by using a screw at the bottom of the camera housing 501. If the light source is separated as such a detachable external light source device, the size of the camera becomes large only at the time of capturing a depth image, and when it is used as a normal camera, the convenience of small size and light weight can be obtained.

【0137】また、第5の実施の形態において、図31
の構成ではタッチパネルを用いた構成で使用者の座標指
定を行うことが出来るが、他の手段で使用者が指定を行
っても良い。例えば、パーソナルコンピュータで実現す
る場合はマウスやキーボードの入力装置を用いることが
できる。他にもトラックボール、スイッチ、ボリューム
などを応用することも出来る。
Also, in the fifth embodiment, FIG.
In the above configuration, the coordinates of the user can be specified by a configuration using a touch panel, but the user may specify the coordinates by other means. For example, when it is realized by a personal computer, an input device such as a mouse or a keyboard can be used. In addition, a trackball, a switch, a volume, and the like can be applied.

【0138】また、第4、・第5の実施の形態において
は、図13、図21、図22、図23に示したように、
撮像部533に対して2つの光源部の第1、第2ストロ
ボ505・506を片方に配置したが、この場合、図3
2に示したような配置で被写体540、背景541を撮
像すると、得られる画像は図33に示したように光源か
らの光が被写体540によって遮られ、影542が発生
する。
In the fourth and fifth embodiments, as shown in FIG. 13, FIG. 21, FIG. 22, and FIG.
The first and second strobes 505 and 506 of the two light source units are arranged on one side of the imaging unit 533. In this case, FIG.
When the subject 540 and the background 541 are imaged in the arrangement shown in FIG. 2, light from the light source is blocked by the subject 540 as shown in FIG.

【0139】この部分は光源からの光が届かない領域で
あり、距離画像としての情報を得ることが出来ない領域
である。この場合は、図34に示すように光源の第1、
第2ストロボ505・506と同じ構成の光源543・
544をレンズを中心として光源の第1、第2ストロボ
505・506の反対側に設置することにより、この影
の領域をなくすことが出来る。その方法を以下に示す。
This portion is a region where light from the light source does not reach, and is a region where information as a distance image cannot be obtained. In this case, as shown in FIG.
A light source 543 having the same configuration as the second strobes 505 and 506.
By disposing the 544 on the opposite side of the first and second strobes 505 and 506 of the light source with the lens as the center, the shadow area can be eliminated. The method is described below.

【0140】光源の第1、第2ストロボ505・506
を用いた場合は領域β、光源543・544を用いたと
きは領域γの部分が距離画像としての情報を得られない
部分である。前述の計算と同様にして、光源の第1、第
2ストロボ505・506を用いたときの距離画像A及
びカラー画像A、光源543・544を用いた時の距離
画像B及びカラー画像Bをそれぞれ独立に計算してお
く。この時、それぞれの画像において、領域β、γの部
分を得られた画像データから、輝度の小さい部分として
判断しておく。
First and second strobes 505 and 506 of the light source
Is used, and when the light sources 543 and 544 are used, the area γ is a part from which information as a distance image cannot be obtained. Similarly to the above calculation, the distance image A and the color image A when the first and second strobes 505 and 506 of the light source are used, and the distance image B and the color image B when the light sources 543 and 544 are used, respectively. Calculate independently. At this time, in each of the images, the portions of the regions β and γ are determined as the portions having low luminance from the obtained image data.

【0141】次に、距離画像A、Bを合成して影領域の
ない距離画像を新たに生成する。これは、距離画像A、
Bでどちらか一方において前述の輝度の小さい部分とし
て判断されていない領域が存在した場合は、その値を採
用し、どちらも影領域でない場合は、両方の画像データ
の平均値を用いることによって実現できる。
Next, the distance images A and B are combined to newly generate a distance image having no shadow area. This is the distance image A,
In the case of B, if there is an area that is not determined as the above-mentioned low-luminance part in either one, the value is adopted, and if neither is a shadow area, this is realized by using the average value of both image data. it can.

【0142】カラー画像についても同様であり、少なく
ともカラー画像A・Bどちらか一方が影部分でないデー
タを有していれば、影領域の無い新しいカラー画像を合
成することができる。
The same applies to a color image. If at least one of the color images A and B has data which is not a shadow portion, a new color image having no shadow region can be synthesized.

【0143】以上の構成の場合、光源がレンズの左右ま
たは上下に配置されている必要がある。その場合、図3
5に示したように、カメラ本体511の左右に、光源部
を有した筐体512・513を反対方向にスライドして
延ばすような筐体の構成にすれば、使用者が携帯時には
小さくして図35(a)の状態にして持ち運び、使用す
る場合は図35(b)のように延ばして基線長Dを大き
く取り、奥行き画像計測精度が低下するのを防ぐことが
出来る。
In the case of the above configuration, the light sources need to be arranged on the left and right or up and down of the lens. In that case, FIG.
As shown in FIG. 5, if the housings 512 and 513 each having a light source unit are slid in the opposite direction to the left and right of the camera body 511 to extend in the opposite direction, the size can be reduced when the user carries the camera. When the portable device is carried and used in the state shown in FIG. 35 (a), it is extended as shown in FIG. 35 (b) to increase the base line length D, thereby preventing the depth image measurement accuracy from being lowered.

【0144】また、図36に示すように、3段に折り畳
めるような構造にしても同様の効果を得ることが出来
る。図36(a)のように携帯時には折り畳んで小さく
して持ち運び、使用時には図36(b)のように広げれ
ばレンズと光源の間隔である基線長Dを大きく取ること
が出来る。
Further, as shown in FIG. 36, the same effect can be obtained even if the structure can be folded in three steps. As shown in FIG. 36 (a), when the camera is carried, it is folded and made small, and when it is used, when it is expanded as shown in FIG. 36 (b), the base length D which is the distance between the lens and the light source can be increased.

【0145】また、図21(c)のように、レンズと光
源の配置を垂直にするために、図35の筐体512・5
13を筐体11の上下に配置したり、図36において筐
体512・513を筐体11の上下に配置してもよい。
産業上の利用可能性
Further, as shown in FIG. 21C, in order to make the arrangement of the lens and the light source perpendicular to each other,
13 may be arranged above and below the housing 11, or the housings 512 and 513 may be arranged above and below the housing 11 in FIG.
Industrial applicability

【0146】[0146]

【発明の効果】以上述べたところから明らかな様に本発
明のレンジファインダ装置によれば、機械的な動作を含
まず、全て電子的な動作で実現出来る、低コストで、信
頼性の高い装置を提供することが出来る。
As is clear from the above description, according to the range finder device of the present invention, a low-cost and highly-reliable device which can be realized by electronic operation without mechanical operation. Can be provided.

【0147】又、本発明のレンジファインダ装置によれ
ば、光源からの光が2次元的なパターンを有する場合に
おいても、精度良く距離測定を行うことが出来る。
Further, according to the range finder of the present invention, even when the light from the light source has a two-dimensional pattern, the distance can be accurately measured.

【0148】又、本発明レンジファインダ装置によれ
ば、光源からの光を、被写体に直接照射出来ない場所の
被写体の距離を計測出来る。
Further, according to the range finder of the present invention, it is possible to measure the distance of a subject in a place where the light from the light source cannot be directly applied to the subject.

【0149】さらに、以上のように本発明のカメラによ
れば、構造が簡単で実用性の高い光源部を実現できる。
また、携帯時には小型であるが使用時にはカメラレンズ
と光源の距離を数十センチ以上確保でき、奥行き画像測
定精度を低下させない効果を有する。また、非接触で被
写体の長さや大きさを簡単に測定でき、また、一旦撮影
されたカラー画像から被写体の大きさを知ることがで
き、また、撮像された画像から注目する被写体を簡単に
抽出することができる形状計測用、被写体抽出用のカメ
ラを提供することが出来る。
Further, as described above, according to the camera of the present invention, a light source unit having a simple structure and high practicality can be realized.
In addition, it is small when carried, but can secure a distance of several tens of centimeters or more between the camera lens and the light source when used, and has the effect of not lowering the depth image measurement accuracy. In addition, the length and size of the subject can be easily measured without contact, the size of the subject can be known from the color image that has been captured once, and the subject of interest can be easily extracted from the captured image. It is possible to provide a camera for measuring a shape and extracting a subject that can perform the measurement.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の実施の形態1におけるレンジファイン
ダ装置の構成を示すブロック図である。
FIG. 1 is a block diagram illustrating a configuration of a range finder device according to Embodiment 1 of the present invention.

【図2】(a):実施の形態1におけるレンジファイン
ダ装置の光源の構成を示す斜視図、(b):実施の形態
1におけるレンジファインダ装置の光源の構成を示す平
面図である。
2A is a perspective view illustrating a configuration of a light source of the range finder device according to the first embodiment, and FIG. 2B is a plan view illustrating a configuration of a light source of the range finder device according to the first embodiment.

【図3】実施の形態1における光源の光パタンを示す図
である。
FIG. 3 is a diagram showing an optical pattern of a light source according to the first embodiment.

【図4】実施の形態1における光源の光パタン及び複数
発光の場合の光パタンを示す図である。
FIG. 4 is a diagram showing an optical pattern of a light source and an optical pattern in the case of a plurality of light emission in the first embodiment.

【図5】実施の形態1における光強度比と、光源からの
角度φの関係図である。
FIG. 5 is a relationship diagram between a light intensity ratio and an angle φ from a light source in the first embodiment.

【図6】実施の形態1における3次元位置X、Y、Zの
計算概念図である。
FIG. 6 is a conceptual diagram illustrating calculation of three-dimensional positions X, Y, and Z according to the first embodiment.

【図7】本発明の実施の形態2におけるレンジファイン
ダ装置の構成を示すブロック図である。
FIG. 7 is a block diagram showing a configuration of a range finder device according to Embodiment 2 of the present invention.

【図8】実施の形態2における距離計算および光強度変
換ブロック図である。
FIG. 8 is a block diagram of distance calculation and light intensity conversion according to the second embodiment.

【図9】実施の形態2における光強度のX座標に対する
変化を示す図である。
FIG. 9 is a diagram illustrating a change in light intensity with respect to an X coordinate according to the second embodiment.

【図10】(a):本発明の実施の形態3におけるレン
ジファインダ装置の構成を示すブロック図、(b):本
発明の実施の形態3におけるレンジファインダ装置の変
形例の構成を示すブロック図である。
10A is a block diagram illustrating a configuration of a range finder device according to Embodiment 3 of the present invention, and FIG. 10B is a block diagram illustrating a configuration of a modification of the range finder device according to Embodiment 3 of the present invention. It is.

【図11】(a)〜(c):実施の形態3におけるレン
ズ系の配置説明図、(d):同実施の形態における透過
率変化フィルタの配置説明図である。
11A to 11C are explanatory diagrams of the arrangement of a lens system according to the third embodiment, and FIG. 11D is an explanatory diagram of the arrangement of a transmittance changing filter according to the third embodiment.

【図12】(a):実施の形態3における透過率変化フ
ィルタの説明図、(b):同実施の形態における透過率
変化フィルタによる光強度の分布説明図である。
12A is an explanatory diagram of a transmittance change filter according to the third embodiment, and FIG. 12B is an explanatory diagram of light intensity distribution by the transmittance change filter according to the third embodiment.

【図13】(a),(b)本発明における第4の実施の
形態の形状計測用、被写体抽出用のカメラの図である。
FIGS. 13A and 13B are diagrams of a camera for shape measurement and for extracting a subject according to a fourth embodiment of the present invention.

【図14】本発明における第4の実施の形態のカメラの
光源部の構成図である。
FIG. 14 is a configuration diagram of a light source unit of a camera according to a fourth embodiment of the present invention.

【図15】本発明における第4の実施の形態のカメラの
光源部の原理図である。
FIG. 15 is a principle diagram of a light source unit of a camera according to a fourth embodiment of the present invention.

【図16】本発明における第4の実施の形態のカメラの
光源部の光強度図である。
FIG. 16 is a light intensity diagram of a light source unit of a camera according to a fourth embodiment of the present invention.

【図17】本発明における第4の実施の形態のカメラの
光源部の光強度パタンを示す図である。
FIG. 17 is a diagram illustrating a light intensity pattern of a light source unit of a camera according to a fourth embodiment of the present invention.

【図18】本発明における第4の実施の形態のカメラの
光源部の光強度パタンを示す図である。
FIG. 18 is a diagram illustrating a light intensity pattern of a light source unit of a camera according to a fourth embodiment of the present invention.

【図19】本発明における第4の実施の形態のカメラの
光源部の光強度比を示す図である。
FIG. 19 is a diagram illustrating a light intensity ratio of a light source unit of a camera according to a fourth embodiment of the present invention.

【図20】(a),(b)本発明における第4の実施の
形態のカメラのブロック図である。
20A and 20B are block diagrams of a camera according to a fourth embodiment of the present invention.

【図21】(a)〜(d)本発明の第4の実施の形態に
おけるカメラ(2)の構成図である。
FIGS. 21A to 21D are configuration diagrams of a camera (2) according to a fourth embodiment of the present invention.

【図22】(a),(b)本発明の第4の実施の形態に
おけるカメラ(3)の外観図である。
FIGS. 22A and 22B are external views of a camera (3) according to a fourth embodiment of the present invention.

【図23】(a)〜(c)本発明の第4の実施の形態に
おけるカメラ(4)の構成図である。
FIGS. 23A to 23C are configuration diagrams of a camera (4) according to a fourth embodiment of the present invention.

【図24】(a)〜(d)本発明の第4の実施の形態に
おけるカメラ(2)の光源部の構成図である。
FIGS. 24A to 24D are configuration diagrams of a light source unit of a camera (2) according to a fourth embodiment of the present invention.

【図25】本発明の第5の実施の形態におけるカメラの
表示方法(1)を示す図である。
FIG. 25 is a diagram illustrating a camera display method (1) according to the fifth embodiment of the present invention.

【図26】本発明の第5の実施の形態におけるカメラの
表示方法(2)を示す図である。
FIG. 26 is a diagram illustrating a camera display method (2) according to the fifth embodiment of the present invention.

【図27】本発明の第5の実施の形態におけるカメラの
背面外観図である。
FIG. 27 is a rear external view of a camera according to a fifth embodiment of the present invention.

【図28】本発明の第5の実施の形態におけるカメラの
ブロック図である。
FIG. 28 is a block diagram of a camera according to a fifth embodiment of the present invention.

【図29】本発明の第5の実施の形態におけるカメラの
画像修正動作(1)を示す図である。
FIG. 29 is a diagram illustrating an image correction operation (1) of the camera according to the fifth embodiment of the present invention.

【図30】本発明の第5の実施の形態におけるカメラの
画像修正動作(2)を示す図である。
FIG. 30 is a diagram illustrating an image correction operation (2) of the camera according to the fifth embodiment of the present invention.

【図31】本発明の第4の実施の形態におけるカメラの
他の構成図である。
FIG. 31 is another configuration diagram of the camera according to the fourth embodiment of the present invention.

【図32】本発明の第4、第5の実施の形態におけるカ
メラのオクルージョン発生を示す図である。
FIG. 32 is a diagram illustrating occurrence of occlusion of a camera according to the fourth and fifth embodiments of the present invention.

【図33】本発明の第4、第5の実施の形態におけるカ
メラのオクルージョンを示す図である。
FIG. 33 is a diagram illustrating occlusion of a camera according to fourth and fifth embodiments of the present invention.

【図34】本発明の第4、第5の実施の形態におけるカ
メラのオクルージョン回避方法を示す図である。
FIG. 34 is a diagram illustrating a method of avoiding occlusion of a camera according to the fourth and fifth embodiments of the present invention.

【図35】(a),(b)本発明の第4、第5の実施の
形態におけるカメラ(1)のオクルージョン回避のため
の外観図である。
FIGS. 35 (a) and 35 (b) are external views for avoiding occlusion of the camera (1) in the fourth and fifth embodiments of the present invention.

【図36】(a),(b)本発明の第4、第5の実施の
形態におけるカメラ(2)のオクルージョン回避のため
の外観図である。
FIGS. 36 (a) and (b) are external views for avoiding occlusion of a camera (2) according to the fourth and fifth embodiments of the present invention.

【図37】(a),(b)本発明の第4、第5の実施の
形態におけるカメラの外部光源部(1)の外観図であ
る。
FIGS. 37 (a) and (b) are external views of an external light source unit (1) of a camera according to the fourth and fifth embodiments of the present invention.

【図38】(a),(b)本発明の第4、第5の実施の
形態におけるカメラの外部光源部(2)の外観図であ
る。
FIGS. 38A and 38B are external views of an external light source unit (2) of a camera according to the fourth and fifth embodiments of the present invention.

【図39】(a),(b)本発明の第4、第5の実施の
形態におけるカメラの外部光源部(3)の外観図であ
る。
FIGS. 39 (a) and (b) are external views of an external light source unit (3) of a camera according to the fourth and fifth embodiments of the present invention.

【図40】従来のレンジファインダ装置の構成図であ
る。
FIG. 40 is a configuration diagram of a conventional range finder device.

【図41】従来のレンジファインダ装置の光源の波長特
性を示す特性図である。
FIG. 41 is a characteristic diagram showing wavelength characteristics of a light source of a conventional range finder device.

【図42】(a),(b) 従来のレンジファインダ装置の光
源の強度変調の特性図である。
42A and 42B are characteristic diagrams of intensity modulation of a light source of a conventional range finder device.

【図43】(a),(b) :レンジファインダにおける計測
原理図である。
43 (a) and (b) are measurement principle diagrams in a range finder.

【符号の説明】[Explanation of symbols]

1 カメラ 1a 赤外カメラ 2a 光源 2b 光源 3a 赤外透過フィルタ 3b 赤外透過フィルタ 4a 水平方向に透過率が変化するNDフィルタ 4b 水平方向に透過率が変化するNDフィルタ 5 光源制御部 6 距離計算部 7 閃光光源 8 閃光光源 9 反射板 10 反射板 11a フィールドメモリa 11b フィールドメモリb 12a 光強度変換部a 12b 光強度変換部b 13 光強度比計算部 14 距離変換部 101A レーザ光源 101B レーザ光源 102 ハーフミラー 103 光源制御部 104 回転ミラー 105 回転制御部 106 被写体 107 レンズ 108A 光波長分離フィルタ 108B 光波長分離フィルタ 109A 撮像素子 109B 撮像素子 109C カラー画像撮像素子 110A カメラの信号処理部 110B カメラの信号処理部 111 カラーカメラの信号処理部 112 距離計算部 113 制御部 201 半導体レーザ 202 第1光ファイバ 203 光分配器 204 コリメータレンズ 206 カメラ部 207 第2光ファイバ 501 筐体 502 筐体 503 レンズ 504 記録メディア 505 第1ストロボ 506 第2ストロボ 507 ファインダ 508 ストロボ部 509 カメラ本体筐体 510 接続部 511 カメラ本体 512 光源部筐体 513 光源部筐体 514 第3ストロボ 515 第4ストロボ 516 接続部 517 光源部 518 表示パネル 519 タッチパネル 520 被写体(前景) 521 被写体(背景) 527 誤動作により前景と判断された部分 528 遮光板 529 ストロボ発光管A 530 ストロボ発光管B 531 液晶バリア 532 表示部 533 撮像部 534 光制御部 535 距離計算部 536 カラー画像計算部 537 制御部 538 メディア記録・再生部 539 解析部 540 被写体(前景) 541 被写体(背景) 542 光源部からの光が遮られた部分 543 光源部3 544 光源部4 545 カメラ取り付けネジ 546 光源部筐体(1) 547 光源部筐体(2) 548 光源部固定台 549 光源部固定具(ストロボシュー金具) 550 画像メモリ 551 反射板(1) 552 反射板(2) 100 背景と判断された部分 Reference Signs List 1 camera 1a infrared camera 2a light source 2b light source 3a infrared transmission filter 3b infrared transmission filter 4a ND filter whose transmittance changes in the horizontal direction 4b ND filter whose transmittance changes in the horizontal direction 5 light source control unit 6 distance calculation unit Reference Signs List 7 flash light source 8 flash light source 9 reflector 10 reflector 11a field memory a 11b field memory b 12a light intensity conversion unit a 12b light intensity conversion unit b 13 light intensity ratio calculation unit 14 distance conversion unit 101A laser light source 101B laser light source 102 half Mirror 103 Light source control unit 104 Rotating mirror 105 Rotation control unit 106 Subject 107 Lens 108A Optical wavelength separation filter 108B Optical wavelength separation filter 109A Image pickup device 109B Image pickup device 109C Color image pickup device 110A Camera signal processing unit 110B Camera Signal processing unit 111 Color camera signal processing unit 112 Distance calculation unit 113 Control unit 201 Semiconductor laser 202 First optical fiber 203 Optical distributor 204 Collimator lens 206 Camera unit 207 Second optical fiber 501 Housing 502 Housing 503 Lens 504 Recording Media 505 First strobe 506 Second strobe 507 Finder 508 Strobe unit 509 Camera body housing 510 Connection unit 511 Camera body 512 Light source unit housing 513 Light source unit housing 514 Third strobe 515 Fourth strobe 516 Connection unit 517 Light source unit 518 Display panel 519 Touch panel 520 Subject (foreground) 521 Subject (background) 527 Portion determined to be foreground due to malfunction 528 Shield plate 529 Strobe luminous tube A 530 Strobe luminous tube B 531 Liquid crystal barrier 532 display unit 533 imaging unit 534 light control unit 535 distance calculation unit 536 color image calculation unit 537 control unit 538 media recording / playback unit 539 analysis unit 540 subject (foreground) 541 subject (background) 542 light from the light source unit is blocked 543 Light source unit 3 544 Light source unit 4 545 Camera mounting screw 546 Light source unit housing (1) 547 Light source unit housing (2) 548 Light source unit fixing base 549 Light source unit fixing tool (strobe shoe fitting) 550 Image memory 551 Reflection Plate (1) 552 Reflector (2) 100 Part judged as background

───────────────────────────────────────────────────── フロントページの続き (72)発明者 森村 淳 大阪府門真市大字門真1006番地 松下電器 産業株式会社内 Fターム(参考) 2F065 AA04 AA06 AA53 FF01 FF04 FF09 GG06 GG08 HH01 JJ03 JJ26 LL02 LL08 LL20 LL22 LL24 LL30 LL53 NN08 QQ13 QQ24 QQ25 QQ26 QQ31 QQ35 QQ42 SS02 SS13 2F112 AA05 CA02 DA06 DA19 DA25 DA30 FA35 2H011 BA14 2H018 BC00 BC01 2H051 BB20 CC05 CE24 DA07 DA18 DA19  ────────────────────────────────────────────────── ─── Continued on the front page (72) Inventor Atsushi Morimura 1006 Kadoma Kadoma, Osaka Prefecture F-term (reference) in Matsushita Electric Industrial Co., Ltd. 2F065 AA04 AA06 AA53 FF01 FF04 FF09 GG06 GG08 HH01 JJ03 JJ26 LL02 LL08 LL20 LL22LL24 LL30 LL53 NN08 QQ13 QQ24 QQ25 QQ26 QQ31 QQ35 QQ42 SS02 SS13 2F112 AA05 CA02 DA06 DA19 DA25 DA30 FA35 2H011 BA14 2H018 BC00 BC01 2H051 BB20 CC05 CE24 DA07 DA18 DA19

Claims (35)

【特許請求の範囲】[Claims] 【請求項1】光強度が3次元空間的に異なる輻射パター
ンを持つ投射光を複数個、光源から時分割にて被写体に
照射し、前記投射光の被写体からの反射光をカメラで撮
像し、撮像した画像の光強度を用いて距離計測を行うレ
ンジファインダ装置であって、 予め、光源中心とレンズ中心とを含む複数個の面のそれ
ぞれに対して、各面内における、前記光源からの各投射
光の角度と光強度との関係を得ておき、 実際の距離測定時には、前記カメラの各画素の光強度を
測定し、その測定された光強度と、前記測定された画素
の座標位置に対応する所定の面における、前記角度と光
強度の関係とに基づいて、その測定した所定の画素の光
強度に対応する前記角度を得、 これら測定した光強度と、得られた角度と、さらに前記
所定の画素の画像上の2次元座標位置情報とに基づい
て、前記被写体までの距離を算出することを特徴とする
レンジファインダ装置。
1. A subject is irradiated with a plurality of projection lights having radiation patterns whose light intensities are three-dimensionally different from each other in a time-division manner from a light source, and reflected light of the projection light from the subject is imaged by a camera. A range finder device that performs distance measurement using the light intensity of a captured image, in advance, for each of a plurality of surfaces including a light source center and a lens center, in each surface, each of the light sources from the light source Obtain the relationship between the angle of the projection light and the light intensity, and at the time of actual distance measurement, measure the light intensity of each pixel of the camera, and calculate the measured light intensity and the coordinate position of the measured pixel. On the corresponding predetermined surface, based on the relationship between the angle and the light intensity, the angle corresponding to the measured light intensity of the predetermined pixel is obtained, and the measured light intensity, the obtained angle, and 2 on the image of the predetermined pixel Based on the original coordinate position information, rangefinder and calculates a distance to the object.
【請求項2】前記複数個の投射光は2個であり、それら
の投射方向は互いに位置的に一部重なった状態で異なる
方向に投射され、 前記光源からの各投射光の角度と光強度の関係とは、 前記光源からの各投射光の角度と、その角度における前
記2つの投射光の各光強度の比と の関係であることを
特徴とする請求項1記載のレンジファインダ装置。
2. The plurality of projection lights are two, and their projection directions are projected in different directions while partially overlapping each other, and the angle and light intensity of each projection light from the light source are provided. 2. The range finder device according to claim 1, wherein the relationship is a relationship between an angle of each projection light from the light source and a ratio of each light intensity of the two projection lights at the angle. 3.
【請求項3】前記投射光は、反射板を背後に備えた光源
を2つ配置することにより生成されることを特徴とする
請求項2記載のレンジファインダ装置。
3. The range finder according to claim 2, wherein said projection light is generated by arranging two light sources having a reflection plate behind.
【請求項4】前記撮像した画像の光強度は、前記投射光
が存在する場合と存在しない場合の画像光強度の差分値
であることを特徴とする請求項1又は2に記載のレンジ
ファインダ装置。
4. The range finder according to claim 1, wherein the light intensity of the captured image is a difference value between the image light intensity when the projection light exists and the image light intensity when the projection light does not exist. .
【請求項5】前記複数個の投射光を同時に前記被写体に
照射し、前記投射光の被写体からの反射光を前記カメラ
で撮像し、その撮像した画像を通常の画像とすることを
特徴とする請求項1又は2記載のレンジファインダ装
置。
5. The method according to claim 1, wherein the plurality of projection lights are simultaneously applied to the subject, and the reflected light of the projection light from the subject is captured by the camera, and the captured image is used as a normal image. The range finder device according to claim 1.
【請求項6】前記カメラは、前記投射光の発光期間以下
の露出時間に設定されることにより、背景光の影響を抑
圧することを特徴とする請求項1又は2記載のレンジフ
ァインダ装置。
6. The rangefinder according to claim 1, wherein the camera is set to an exposure time shorter than a light emission period of the projection light to suppress the influence of background light.
【請求項7】前記レンズと前記光源を、それらレンズと
光源を結ぶ直線が撮像素子面の水平軸に対して平行にな
るように、配置することを特徴とする請求項1又は2記
載のレンジファインダ装置。
7. The range according to claim 1, wherein the lens and the light source are arranged such that a straight line connecting the lens and the light source is parallel to a horizontal axis of an image sensor surface. Finder device.
【請求項8】前記複数個の投射光は、透過率が2次元的
に異なる光透過板を前方に備えた光源により生成される
ことを特徴とする請求項2記載のレンジファインダ装
置。
8. The range finder according to claim 2, wherein said plurality of projection lights are generated by a light source provided with a light transmission plate in front of which two-dimensionally different transmittances are provided.
【請求項9】前記複数個の投射光は、光透過率パターン
を切り替え可能な光学素子と光源を用いて実現されるこ
とを特徴とする請求項2記載のレンジファインダ装置。
9. The range finder according to claim 2, wherein said plurality of projection lights are realized using an optical element and a light source capable of switching light transmittance patterns.
【請求項10】前記反射板あるいは光透過版が無い状態
で、前記光源からの投射光の光強度を測定して補正量を
得ておき、前記光源からの各投射光の角度と光強度との
関係を得る際に、その補正量によって光強度を修正し、
また、実際の距離測定時にも、測定した光強度を前記補
正量によって修正することを特徴とする請求項3〜9の
いずれかに記載のレンジファインダ装置。
10. In the absence of the reflector or the light transmitting plate, the light intensity of the light projected from the light source is measured to obtain a correction amount, and the angle, the light intensity, and the angle of each light projected from the light source are obtained. When obtaining the relationship, the light intensity is corrected by the correction amount,
The range finder device according to any one of claims 3 to 9, wherein, at the time of actual distance measurement, the measured light intensity is corrected by the correction amount.
【請求項11】 光源と、 前記光源から出射される光を導く第1光ファイバと、 前記第1光ファイバから導かれた光を複数の経路に分岐
する光分配手段と、 前記光分配手段に一端が接続され、且つ他端の開口部か
ら前記分岐された光を被写体に照射するための複数の第
2光ファイバと、 前記照射された光の反射光を受光して、前記被写体の画
像データを取得する撮像手段と、 前記画像データに基づいて前記被写体までの距離を計算
する距離計算手段とを備え、 前記複数の第2光ファイバーのそれぞれの前記他端から
前記被写体に照射される光の強度が、いずれも場所的に
異なる分布を有していることを特徴とするレンジファイ
ンダー装置。
11. A light source, a first optical fiber that guides light emitted from the light source, a light distribution unit that branches light guided from the first optical fiber into a plurality of paths, and a light distribution unit. A plurality of second optical fibers each having one end connected thereto and configured to irradiate the object with the branched light from the opening at the other end; and receiving reflected light of the irradiated light to obtain image data of the object. And a distance calculating unit that calculates a distance to the subject based on the image data, and an intensity of light emitted to the subject from the other end of each of the plurality of second optical fibers. However, each of them has a distribution different from place to place.
【請求項12】 光源と、 前記光源から出射される光を導く第1光ファイバと、 前記第1光ファイバから導かれた光を複数の経路に分岐
し、被写体に照射するための光分岐手段と、 前記照射された光の反射光を受光して、前記被写体の画
像データを取得する撮像手段と、 前記画像データに基づいて前記被写体までの距離を計算
する距離計算手段とを備え、 前記光分岐手段から前記被写体に照射される何れの経路
の光強度も、場所的に異なる分布を有していることを特
徴とするレンジファインダ装置。
12. A light source, a first optical fiber that guides light emitted from the light source, and a light branching unit that splits light guided from the first optical fiber into a plurality of paths and irradiates the plurality of paths with a subject. An imaging unit that receives reflected light of the emitted light and acquires image data of the subject; and a distance calculation unit that calculates a distance to the subject based on the image data. A range finder device, wherein the light intensities of any of the paths irradiated from the branching unit onto the subject have different distributions in terms of location.
【請求項13】 複数の光源と、 前記光源から出射される光を個別に被写体側に導き、前
記被写体に照射するための複数の光ファイバと、 前記照射された光の反射光を受光して、前記被写体の画
像データを取得する撮像手段と、 前記画像データに基づいて前記被写体までの距離を計算
する距離計算手段とを備え、 前記被写体に照射される何れの光ファイバからの光強度
も、場所的に異なる分布を有していることを特徴とする
レンジファインダ装置。
13. A plurality of light sources, a plurality of optical fibers for individually guiding light emitted from the light source to a subject side and irradiating the subject with the light, and receiving reflected light of the irradiated light. An imaging unit that acquires image data of the subject, and a distance calculation unit that calculates a distance to the subject based on the image data, and a light intensity from any optical fiber irradiated on the subject, A range finder device having a distribution different from place to place.
【請求項14】 前記被写体に光を照射する前記光ファ
イバの開口部の前面に配置されたレンズ系を備えたこと
を特徴とする請求項11又は13記載のレンジファイン
ダ装置。
14. The range finder device according to claim 11, further comprising a lens system disposed in front of an opening of said optical fiber for irradiating said subject with light.
【請求項15】 前記光強度の場所的分布を得るため
に、前記光を照射する前記光ファイバの開口部の前面
に、場所により光透過率の異なる光フィルタを備えたこ
とを特徴とする請求項11又は13記載のレンジファイ
ンダ装置。
15. In order to obtain a spatial distribution of the light intensity, an optical filter having a different light transmittance depending on a location is provided in front of an opening of the optical fiber for irradiating the light. Item 14. The range finder device according to item 11 or 13.
【請求項16】 前記被写体に光を照射する前記光分岐
手段の開口部の前面に配置されたレンズ系を備えたこと
を特徴とする請求項12記載のレンジファインダ装置。
16. The range finder device according to claim 12, further comprising a lens system arranged in front of an opening of said light branching means for irradiating said subject with light.
【請求項17】 前記光の強度の場所的分布を得るため
に、前記光を照射する前記光分岐手段の開口部の前面
に、場所により光透過率の異なる光フィルタを備えたこ
とを特徴とする請求項12記載のレンジファインダ装
置。
17. In order to obtain a spatial distribution of the light intensity, an optical filter having a different light transmittance depending on a location is provided on a front surface of an opening of the light branching means for irradiating the light. The range finder device according to claim 12, wherein
【請求項18】 前記レンズ系が、コリメートレンズ、
シリンドリカルレンズ、又はロッドレンズであることを
特徴とする請求項11〜17の何れか一つに記載のレン
ジファインダ装置。
18. The method according to claim 18, wherein the lens system is a collimating lens,
The range finder according to any one of claims 11 to 17, wherein the range finder is a cylindrical lens or a rod lens.
【請求項19】 特定の輻射パターンを持つ投射光を被
写体に照射する発光手段を有し、前記発光手段の被写体
反射光を撮像し、撮像した画像の光強度を用いて奥行き
画像を得る、形状計測用または被写体抽出用のカメラで
あって、 前記発光手段と撮像レンズ間の距離が可変可能な構造を
有し、使用時においては前記発光手段と撮像レンズ間隔
が十分取れるようにできることを特徴とするカメラ。
19. A shape having light emitting means for irradiating a subject with projection light having a specific radiation pattern, capturing reflected light from the light emitted by the light emitting means, and obtaining a depth image using the light intensity of the captured image. A camera for measuring or extracting a subject, wherein the camera has a structure in which a distance between the light emitting unit and the imaging lens is variable, and in use, a sufficient distance between the light emitting unit and the imaging lens can be obtained. Camera.
【請求項20】 前記発光手段と撮像レンズ間の距離が
可変可能な構造は、前記発光手段と、前記撮像レンズを
含む本体とが相対的にスライド可能な構造により実現さ
れており、使用時においては前記発光手段と前記本体と
を互いに相対的に離れるようにスライドさせることによ
って、前記発光手段とカメラレンズ間隔が十分取れるよ
うに構成されている請求項19記載のカメラ。
20. The structure in which the distance between the light emitting means and the imaging lens is variable is realized by a structure in which the light emitting means and a main body including the imaging lens are relatively slidable. 20. The camera according to claim 19, wherein the light emitting means and the main body are slid relatively to each other so that a sufficient distance between the light emitting means and the camera lens is obtained.
【請求項21】 前記発光手段と撮像レンズ間の距離が
可変可能な構造は、前記発光手段と、撮像レンズを含む
本体が互いに蝶番構造によって連結されることにより実
現されており、使用時においては前記発光手段と前記本
体との蝶番構造を開くことによって、前記発光手段とカ
メラレンズ間隔が十分取れるように構成されている請求
項19記載のカメラ。
21. The structure in which the distance between the light emitting means and the imaging lens is variable is realized by connecting the light emitting means and a main body including the imaging lens to each other by a hinge structure. 20. The camera according to claim 19, wherein a hinge structure between the light emitting means and the main body is opened so that a sufficient distance between the light emitting means and the camera lens can be secured.
【請求項22】 特定の輻射パターンを持つ投射光を被
写体に照射する発光手段を有し、前記発光手段の被写体
反射光を撮像し、撮像した画像の光強度を用いて奥行き
画像を得る、形状計測用または被写体抽出用のカメラで
あって、 前記発光手段は、配列された複数の直線状光源のそれぞ
れの前に、孔を有する遮光板が配置された構造を有し、
それらの遮光板の各孔は互いに位置的にずれており、 前記複数個の光源は時分割的に発光することを特徴とす
るカメラ。
22. A shape having light emitting means for irradiating projection light having a specific radiation pattern to a subject, capturing reflected light from the light emitting means, and obtaining a depth image using the light intensity of the captured image. A camera for measurement or object extraction, wherein the light emitting means has a structure in which a light shielding plate having a hole is arranged in front of each of a plurality of linear light sources arranged,
The camera according to claim 1, wherein the holes of the light-shielding plates are displaced from each other, and the plurality of light sources emit light in a time-division manner.
【請求項23】 特定の輻射パターンを持つ投射光を被
写体に照射する発光手段を有し、前記発光手段の被写体
反射光を撮像し、撮像した画像の光強度を用いて奥行き
画像を得る、形状計測用または被写体抽出用のカメラで
あって、 前記発光手段は、一つの光源の前に、2次元的に光透過
率が異なる光変調素子が配置され、その光透過率の2次
元的変化分布が切り替え可能となっており、 前記発光手段は、その光透過率の分布の切り替えに応じ
て、複数回発光することを特徴とするカメラ。
23. A shape having light emitting means for irradiating an object with projection light having a specific radiation pattern, capturing reflected light of the object from the light emitting means, and obtaining a depth image using the light intensity of the captured image. A camera for measuring or extracting a subject, wherein the light emitting means is arranged in front of one light source with a light modulation element having a two-dimensionally different light transmittance, and a two-dimensional change distribution of the light transmittance. The camera is characterized in that the light emitting means emits light a plurality of times in accordance with switching of the light transmittance distribution.
【請求項24】 特定の輻射パターンを持つ投射光を被
写体に照射する発光手段を有し、前記発光手段の被写体
反射光を撮像し、撮像した画像の光強度を用いて奥行き
画像を得る、形状計測用または被写体抽出用のカメラで
あって、 タッチパネル付きの平面ディスプレイを備え、 そのタッチパネル上に前記撮影画像が表示されている際
のそのタッチパネルに対する使用者によるタッチ動作に
よって、被写体中の複数個の点が指定された場合、その
指定されたこれらの点間の実際の長さを、前記奥行き画
像データから計算する距離計算部を有することを特徴と
するカメラ。
24. A shape having light-emitting means for irradiating a subject with projection light having a specific radiation pattern, capturing reflected light of the object from the light-emitting means, and obtaining a depth image using the light intensity of the captured image. A camera for measuring or extracting a subject, comprising a flat display with a touch panel, and a touch operation by a user on the touch panel when the photographed image is displayed on the touch panel, whereby a plurality of objects in the subject are displayed. A camera, comprising: a distance calculation unit that calculates an actual length between the designated points when the points are designated, from the depth image data.
【請求項25】 前記距離計算部は、使用者が指定する
前記複数の点から得られた被写体各部の長さ情報から、
その被写体の面積あるいは体積を計算することを特徴と
する請求項24記載のカメラ。
25. The distance calculation unit, based on length information of each part of the subject obtained from the plurality of points designated by a user,
The camera according to claim 24, wherein an area or volume of the subject is calculated.
【請求項26】特定の輻射パターンを持つ投射光を被写
体に照射する発光手段を有し、前記発光手段の被写体反
射光を撮像し、撮像した画像の光強度を用いて奥行き画
像を得る、形状計測用または被写体抽出用のカメラであ
って、 タッチパネル付きの平面ディスプレイを備え、 そのタッチパネル上に前記撮影画像が表示されている際
のそのタッチパネルに対する使用者によるタッチ動作に
よって、被写体中の複数個の点が指定された場合、使用
者が指定する前記複数の点を通る円の直径、半径又は円
弧の長さを、前記奥行き画像データから計算する距離計
算部を有することを特徴とするカメラ。
26. A shape having light emitting means for irradiating a subject with projection light having a specific radiation pattern, capturing reflected light from the light emitted by the light emitting means, and obtaining a depth image using the light intensity of the captured image. A camera for measuring or extracting a subject, comprising a flat display with a touch panel, and a touch operation by a user on the touch panel when the photographed image is displayed on the touch panel, whereby a plurality of objects in the subject are displayed. A camera comprising: a distance calculation unit configured to calculate a diameter, a radius, or an arc length of a circle passing through the plurality of points specified by a user from the depth image data when a point is specified.
【請求項27】 特定の輻射パターンを持つ投射光を被
写体に照射する発光手段を有し、前記発光手段の被写体
反射光を撮像し、撮像した画像の光強度を用いて奥行き
画像を得る、形状計測用または被写体抽出用のカメラで
あって、 使用者により指定された距離以下に存在する被写体の
み、または、使用者によって指定された距離の範囲に存
在する被写体のみ、前記撮像された奥行き画像を用い
て、切り出す被写体切り出し手段を有することを特徴と
するカメラ。
27. A shape having light emitting means for irradiating a subject with projection light having a specific radiation pattern, capturing reflected light from the light emitting means, and obtaining a depth image using the light intensity of the captured image. A camera for measuring or extracting a subject, wherein only the subject existing within a distance specified by the user or only the subject existing within a range of the distance specified by the user, the captured depth image is used. A camera, comprising: a subject extracting unit for extracting the subject.
【請求項28】 前記切り出し処理の誤動作により背景
又は前景を間違えた部分を使用者が前記タッチパネルに
触れることにより指定することにより、誤った背景また
は前景切り出し動作を修正できることを特徴とする請求
項279記載のカメラ。
28. An erroneous background or foreground clipping operation can be corrected by designating a portion where the background or foreground is mistaken due to a malfunction of the clipping process by touching the touch panel by a user. The described camera.
【請求項29】 前記タッチパネル付きの平面ディスプ
レイを指で操作する代わりに、ペン型のポインティング
デバイスを用いて使用者が座標を入力することを特徴と
する請求項24〜27のいずれかに記載のカメラ。
29. The user according to claim 24, wherein the user inputs coordinates using a pen-type pointing device instead of operating the flat display with the touch panel with a finger. camera.
【請求項30】 前記タッチパネル付きの平面ディスプ
レイを指で操作する代わりに、通常の平面ディスプレイ
上に画像上の位置を表すカーソルを表示し、マウスや押
しボタンを使用者が操作することによってカーソル位置
を移動し、所望の座標を使用者が入力することを特徴と
する請求項24〜27のいずれかに記載のカメラ。
30. Instead of operating the flat panel display with a touch panel with a finger, a cursor indicating a position on an image is displayed on a normal flat panel display, and the cursor position is determined by a user operating a mouse or a push button. 28. The camera according to claim 24, wherein the camera is moved, and a user inputs desired coordinates.
【請求項31】 前記撮像された画像データを利用して
奥行き画像を得るための装置は、その撮像レンズを含む
本体とは、通信手段を介して通信可能となっていること
を特徴とする請求項19〜30のいずれかに記載のカメ
ラ。
31. The apparatus for obtaining a depth image by using captured image data is capable of communicating with a main body including the imaging lens via communication means. Item 30. The camera according to any one of Items 19 to 30.
【請求項32】 前記発光手段は、前記撮像レンズを含
む本体と分離可能であり、通常の映像撮像時には前記発
光手段が取り外されて使用され、奥行き画像撮像時には
前記発光手段を取り付けて使用することを特徴とする請
求項19〜31のいずれかに記載のカメラ。
32. The light-emitting means is separable from the main body including the imaging lens, and is used by removing the light-emitting means during normal image capturing, and is used by attaching the light-emitting means during depth image capturing. The camera according to any one of claims 19 to 31, wherein:
【請求項33】 特定の輻射パターンを持つ投射光を被
写体に照射する発光手段を有し、前記発光手段の被写体
反射光を撮像し、撮像した画像の光強度を用いて奥行き
画像を得る、形状計測用または被写体抽出用のカメラで
あって、 前記発光手段の発光なしの状態にて動画像を撮像し記録
媒体に録画できるビデオカメラを兼ねており、 前記発光手段が発光した時に撮像した画像データにイン
デックス信号を付加しておき、前記インデックス信号が
付加された特定の画像のみを用いて奥行き画像を算出す
ることを特徴とするカメラ。
33. A shape having light emitting means for irradiating projection light having a specific radiation pattern to a subject, capturing reflected light from the light emitting means, and obtaining a depth image using the light intensity of the captured image. A camera for measuring or extracting a subject, which also serves as a video camera capable of capturing a moving image and recording on a recording medium in a state where the light emitting unit does not emit light, and image data captured when the light emitting unit emits light. Wherein a depth image is calculated using only a specific image to which the index signal has been added.
【請求項34】 前記奥行き画像以外にもカラー画像も
同時に生成し、奥行き画像とカラー画像を共に出力でき
ることを特徴とする請求項19〜33のいずれかに記載
のカメラ。
34. The camera according to claim 19, wherein a color image is generated in addition to the depth image, and the depth image and the color image can be output together.
【請求項35】 前記被写体切り出し部は、使用者によ
って指定された距離以下に存在する被写体のみ、また
は、使用者によって指定された距離の範囲に存在する被
写体のみのカラー画像を切り出すことを特徴とする請求
項27記載のカメラ。
35. The subject cutout unit cuts out a color image of only a subject existing at a distance less than a distance specified by a user or only a subject existing within a range of a distance specified by a user. 28. The camera according to claim 27.
JP14409799A 1998-05-25 1999-05-24 Range finder device Expired - Lifetime JP3415070B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP14409799A JP3415070B2 (en) 1998-05-25 1999-05-24 Range finder device

Applications Claiming Priority (7)

Application Number Priority Date Filing Date Title
JP14268298 1998-05-25
JP10-142682 1998-05-25
JP10-316112 1998-11-06
JP31611298 1998-11-06
JP11-119435 1999-04-27
JP11943599 1999-04-27
JP14409799A JP3415070B2 (en) 1998-05-25 1999-05-24 Range finder device

Related Child Applications (2)

Application Number Title Priority Date Filing Date
JP2002160275A Division JP3793741B2 (en) 1998-05-25 2002-05-31 Range finder device
JP2002160274A Division JP3522732B2 (en) 1998-05-25 2002-05-31 camera

Publications (2)

Publication Number Publication Date
JP2001012909A true JP2001012909A (en) 2001-01-19
JP3415070B2 JP3415070B2 (en) 2003-06-09

Family

ID=27470592

Family Applications (1)

Application Number Title Priority Date Filing Date
JP14409799A Expired - Lifetime JP3415070B2 (en) 1998-05-25 1999-05-24 Range finder device

Country Status (1)

Country Link
JP (1) JP3415070B2 (en)

Cited By (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1568955A1 (en) * 2004-02-25 2005-08-31 Lg Electronics Inc. Oil separator and cooling-cycle apparatus using the same
KR100809317B1 (en) 2006-07-28 2008-03-05 두얼메카닉스 주식회사 A position move equipment using the position detection method and its method
JP2009041929A (en) * 2007-08-06 2009-02-26 Nissan Motor Co Ltd Distance measuring method and device and vehicle equipped with the device
JP2009069157A (en) * 2008-09-22 2009-04-02 Topcon Corp Three dimensional field for calibration and method of photographing three dimensional field for calibration,
JP2010160035A (en) * 2009-01-08 2010-07-22 Nissan Motor Co Ltd Distance measuring apparatus and distance measuring method
CN101189487B (en) * 2005-03-11 2010-08-11 形创有限公司 Auto-referenced system and apparatus for three-dimensional scanning
JP2012159401A (en) * 2011-02-01 2012-08-23 Seiko Epson Corp Optical detector, electronic apparatus and projection type display device
WO2014162675A1 (en) * 2013-04-01 2014-10-09 パナソニック株式会社 Motion-sensor device having multiple light sources
WO2014208087A1 (en) 2013-06-27 2014-12-31 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ Motion sensor device having plurality of light sources
WO2015124190A1 (en) * 2014-02-20 2015-08-27 Siemens Aktiengesellschaft Method and device for determining a position of an object
JP2016161513A (en) * 2015-03-04 2016-09-05 キヤノン株式会社 Measurement device and measurement method
WO2016174701A1 (en) * 2015-04-27 2016-11-03 オリンパス株式会社 Endoscopic device and method for measuring three-dimensional shape
WO2018021047A1 (en) * 2016-07-29 2018-02-01 オリンパス株式会社 Endoscopic measurement device
US9978148B2 (en) 2013-04-26 2018-05-22 Panasonic Intellectual Property Corporation Of America Motion sensor apparatus having a plurality of light sources
US10313599B2 (en) 2013-07-01 2019-06-04 Panasonic Intellectual Property Corporation Of America Motion sensor device having plurality of light sources
WO2020091347A1 (en) * 2018-10-29 2020-05-07 삼성전자 주식회사 Three-dimensional depth measuring device and method
WO2021039146A1 (en) * 2019-08-27 2021-03-04 ソニーセミコンダクタソリューションズ株式会社 Ranging system and electronic instrument
CN114485408A (en) * 2022-04-15 2022-05-13 东莞市兆丰精密仪器有限公司 High-precision optical detection device

Cited By (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7386994B2 (en) 2004-02-25 2008-06-17 Lg Electronics Inc. Oil separator and cooling-cycle apparatus using the same
EP1568955A1 (en) * 2004-02-25 2005-08-31 Lg Electronics Inc. Oil separator and cooling-cycle apparatus using the same
CN101189487B (en) * 2005-03-11 2010-08-11 形创有限公司 Auto-referenced system and apparatus for three-dimensional scanning
KR100809317B1 (en) 2006-07-28 2008-03-05 두얼메카닉스 주식회사 A position move equipment using the position detection method and its method
JP2009041929A (en) * 2007-08-06 2009-02-26 Nissan Motor Co Ltd Distance measuring method and device and vehicle equipped with the device
JP2009069157A (en) * 2008-09-22 2009-04-02 Topcon Corp Three dimensional field for calibration and method of photographing three dimensional field for calibration,
JP4642889B2 (en) * 2008-09-22 2011-03-02 株式会社トプコン 3D field for calibration, 3D field for calibration
JP2010160035A (en) * 2009-01-08 2010-07-22 Nissan Motor Co Ltd Distance measuring apparatus and distance measuring method
JP2012159401A (en) * 2011-02-01 2012-08-23 Seiko Epson Corp Optical detector, electronic apparatus and projection type display device
WO2014162675A1 (en) * 2013-04-01 2014-10-09 パナソニック株式会社 Motion-sensor device having multiple light sources
US10473461B2 (en) 2013-04-01 2019-11-12 Panasonic Intellectual Property Management Co., Ltd. Motion-sensor device having multiple light sources
JPWO2014162675A1 (en) * 2013-04-01 2017-02-16 パナソニックIpマネジメント株式会社 Motion sensor device having a plurality of light sources
US9978148B2 (en) 2013-04-26 2018-05-22 Panasonic Intellectual Property Corporation Of America Motion sensor apparatus having a plurality of light sources
WO2014208087A1 (en) 2013-06-27 2014-12-31 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ Motion sensor device having plurality of light sources
CN104685318A (en) * 2013-06-27 2015-06-03 松下电器(美国)知识产权公司 Motion sensor device having plurality of light sources
US9863767B2 (en) 2013-06-27 2018-01-09 Panasonic Intellectual Property Corporation Of America Motion sensor device having plurality of light sources
CN104685318B (en) * 2013-06-27 2018-01-26 松下电器(美国)知识产权公司 Motion sensor device, circuit, recording medium and image processing apparatus
US10313599B2 (en) 2013-07-01 2019-06-04 Panasonic Intellectual Property Corporation Of America Motion sensor device having plurality of light sources
WO2015124190A1 (en) * 2014-02-20 2015-08-27 Siemens Aktiengesellschaft Method and device for determining a position of an object
JP2016161513A (en) * 2015-03-04 2016-09-05 キヤノン株式会社 Measurement device and measurement method
WO2016174701A1 (en) * 2015-04-27 2016-11-03 オリンパス株式会社 Endoscopic device and method for measuring three-dimensional shape
WO2018021047A1 (en) * 2016-07-29 2018-02-01 オリンパス株式会社 Endoscopic measurement device
WO2020091347A1 (en) * 2018-10-29 2020-05-07 삼성전자 주식회사 Three-dimensional depth measuring device and method
US20220011096A1 (en) * 2018-10-29 2022-01-13 Samsung Electronics Co., Ltd. Three-dimensional depth measuring device and method
US11846500B2 (en) 2018-10-29 2023-12-19 Samsung Electronics Co., Ltd. Three-dimensional depth measuring device and method
WO2021039146A1 (en) * 2019-08-27 2021-03-04 ソニーセミコンダクタソリューションズ株式会社 Ranging system and electronic instrument
CN114485408A (en) * 2022-04-15 2022-05-13 东莞市兆丰精密仪器有限公司 High-precision optical detection device

Also Published As

Publication number Publication date
JP3415070B2 (en) 2003-06-09

Similar Documents

Publication Publication Date Title
JP4332598B2 (en) Camera and depth distance calculation method
JP4387377B2 (en) camera
JP3415070B2 (en) Range finder device
CN104730827B (en) The control method of projecting apparatus, optical projection system and projecting apparatus
US8218963B2 (en) Spatially adaptive photographic flash unit
JP3794180B2 (en) Coordinate input system and coordinate input device
JP2004503188A (en) Camera with through-the-lens illuminator
EP2128693A1 (en) Spatially Adaptive Photographic Flash Unit
CN104793809A (en) Position detection apparatus and position detection method
JP2015158885A (en) Position detection device, projector, position detection system, and control method of position detection device
JP4209284B2 (en) camera
JP3736350B2 (en) Projection system and projector
JP3522732B2 (en) camera
JP3793741B2 (en) Range finder device
JP2020160807A (en) Position detection method, position detection device, and interactive projector
CN107018393A (en) The control method of projecting apparatus and projecting apparatus
JP2002277225A (en) Lighting system for optical shape measuring instrument
JPWO2016194209A1 (en) Imaging system
KR20230123245A (en) Lenseless Optical System
JPH11136703A (en) Image extracting device and image display device using it
JP2005181357A (en) Digital camera with light source for close-up

Legal Events

Date Code Title Description
FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080404

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090404

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100404

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110404

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120404

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130404

Year of fee payment: 10

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130404

Year of fee payment: 10

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140404

Year of fee payment: 11

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

EXPY Cancellation because of completion of term