JP2011039076A - Improved optical ranging camera - Google Patents

Improved optical ranging camera Download PDF

Info

Publication number
JP2011039076A
JP2011039076A JP2010260777A JP2010260777A JP2011039076A JP 2011039076 A JP2011039076 A JP 2011039076A JP 2010260777 A JP2010260777 A JP 2010260777A JP 2010260777 A JP2010260777 A JP 2010260777A JP 2011039076 A JP2011039076 A JP 2011039076A
Authority
JP
Japan
Prior art keywords
image
distance
scene
subject
modulation function
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2010260777A
Other languages
Japanese (ja)
Inventor
Giora Yahav
ヤハブ,ジオラ
Gavriel I Iddan
イダーン,ガブリエル・アイ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Microsoft International Holdings BV
Original Assignee
Microsoft International Holdings BV
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from IL114278A external-priority patent/IL114278A/en
Priority claimed from IL116223A external-priority patent/IL116223A/en
Application filed by Microsoft International Holdings BV filed Critical Microsoft International Holdings BV
Publication of JP2011039076A publication Critical patent/JP2011039076A/en
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C11/00Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
    • G01C11/02Picture taking arrangements specially adapted for photogrammetry or photographic surveying, e.g. controlling overlapping of pictures
    • G01C11/025Picture taking arrangements specially adapted for photogrammetry or photographic surveying, e.g. controlling overlapping of pictures by scanning the object
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/08Systems determining position data of a target for measuring distance only
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • G01S17/8943D imaging with simultaneous measurement of time-of-flight at a 2D array of receiver pixels, e.g. time-of-flight cameras or flash lidar
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B7/00Mountings, adjusting means, or light-tight connections, for optical elements
    • G02B7/28Systems for automatic generation of focusing signals
    • G02B7/30Systems for automatic generation of focusing signals using parallactic triangle with a base line
    • G02B7/32Systems for automatic generation of focusing signals using parallactic triangle with a base line using active means, e.g. light emitter
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S15/00Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
    • G01S15/88Sonar systems specially adapted for specific applications
    • G01S15/89Sonar systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/08Systems determining position data of a target for measuring distance only
    • G01S17/10Systems determining position data of a target for measuring distance only using transmission of interrupted, pulse-modulated waves
    • G01S17/18Systems determining position data of a target for measuring distance only using transmission of interrupted, pulse-modulated waves wherein range gates are used
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G01S17/931Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G01S17/933Lidar systems specially adapted for specific applications for anti-collision purposes of aircraft or spacecraft
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/4802Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/481Constructional features, e.g. arrangements of optical elements
    • G01S7/4811Constructional features, e.g. arrangements of optical elements common to transmitter and receiver
    • G01S7/4812Constructional features, e.g. arrangements of optical elements common to transmitter and receiver transmitted and received beams following a coaxial path
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/481Constructional features, e.g. arrangements of optical elements
    • G01S7/4817Constructional features, e.g. arrangements of optical elements relating to scanning
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/51Display arrangements

Abstract

<P>PROBLEM TO BE SOLVED: To provide an improved ranging camera which simultaneously acquires depth information from all the pixels within a scene. <P>SOLUTION: The apparatus for creating an image, indicating distances to objects in a scene, includes a modulated radiation source having a first modulation function which directs radiation toward the scene; a detector which detects the radiation reflected from the scene and modulated by a second modulation function, and generates, according to the detected modulated radiation, signals responsive to the distance to regions of the scene; a processor which receives the signals from the detector and forms an image, based on the signals, having an intensity value distribution indicative of the distance of the objects from the apparatus; and a controller which varies, at least one of the first and second modulation functions in response to the intensity value distribution of the image formed by the processor. <P>COPYRIGHT: (C)2011,JPO&INPIT

Description

本発明は一般的には三次元画像を発生させるためのシステムに関し、より特別には情景の画像を取り込んで、情景中の被写体および被写体の一部分までの距離を決定するカメラシステムに関する。   The present invention relates generally to a system for generating a three-dimensional image, and more particularly to a camera system that captures an image of a scene and determines the distance to a subject and a portion of the subject in the scene.

情景の三次元画像、即ち深度や距離情報を含む画像を発生させるための種々の技術が周知である。典型的な方法としては、いわゆる時間実測(time−of−flight)法、位相検知法および三角測距法がある。これらの技術では一般に、画像を例えばレーザビームによりスキャンし、一点毎の深度データを得ることが要求される。多くの応用のためにはしかしながら、深度情報もしくは距離情報を画像全体にわたって同時に得ることが望ましい。   Various techniques for generating a three-dimensional image of a scene, that is, an image including depth and distance information, are well known. Typical methods include the so-called time-of-flight method, phase detection method, and triangulation method. In these techniques, it is generally required to scan an image with, for example, a laser beam to obtain point-by-point depth data. For many applications, however, it is desirable to obtain depth information or distance information simultaneously throughout the image.

本発明の参照文献として挙げる米国特許第5,200,793号は、光源とCCDもしくは他の検知素子アレイを含む測距アレイカメラを開示している。光電変調器が光源による目的の情景の照明と、情景から検知素子アレイへ戻る反射光の両方を変調しており、照明光と反射光とは同じ変調パターンを有している。変調周波数が変化するにつれて、カメラから画素により表現された情景の部分までの距離を決定するために、コンピュータが上記アレイの各画素における強度変化を解析する。   US Pat. No. 5,200,793, cited as a reference for the present invention, discloses a ranging array camera including a light source and a CCD or other sensing element array. The photoelectric modulator modulates both the illumination of the target scene by the light source and the reflected light returning from the scene to the detection element array, and the illumination light and the reflected light have the same modulation pattern. As the modulation frequency changes, the computer analyzes the intensity change at each pixel of the array to determine the distance from the camera to the portion of the scene represented by the pixel.

エス.クリスティら(S.Christie,et al)は、本発明の参照文献として挙げる、「メジャーメント・サイエンス・アンド・テクノロジー(Measurment Science and Technology)の第6号(1995年9月)」の1301ページ〜1308ページにて、二次元測距センサシステムを開示している。該システムは目的の情景を照射するレーザと、情景の画像を得るゲートおよび増強されたCCDカメラを含んでいる。上記レーザは所望の長さの照射パルスを得るために変調され、上記カメラは等しい時間の長さの間に上記情景から光を受けるためにゲートされる。カメラのゲートパルスは、照射パルスと同期しているかまたは、それに対して遅延している。上記ゲートパルスの間にCCDアレイの各画素が受光する光の全体の強度は、上記カメラから画素により画かれる情景の部分までの距離の関数である。コンピュータはこのようにして受けられた光の強度を全ての上記アレイにわたって解析し、それから測距情報を出力する。   S. Christie et al. (S. Christie, et al), page 1301 of “Measurement Science and Technology No. 6 (September 1995)”, cited as a reference of the present invention. On page 1308, a two-dimensional ranging sensor system is disclosed. The system includes a laser that illuminates the scene of interest, a gate that captures an image of the scene, and an enhanced CCD camera. The laser is modulated to obtain a desired length of illumination pulse and the camera is gated to receive light from the scene for an equal length of time. The camera gate pulse is synchronized with or delayed from the illumination pulse. The total intensity of light received by each pixel of the CCD array during the gate pulse is a function of the distance from the camera to the portion of the scene imaged by the pixel. The computer analyzes the light intensity received in this way across all the arrays and then outputs ranging information.

レンジゲート式のカメラも同様に、従来より知られている。かかるカメラは一般に、情景を照明するパルス光源もしくはストロボ光源と連携して動作するゲート検知アレイを含んでいる。上記アレイは例えば、英国、エセックス州のイムコ・エレクトロ・オプティックス社(Imco Electro−opticsLtd.,)により製造されている、「インテンシィファイド・レンズ・システム(Intensified Lens System)」のような、ゲートインテンシファイヤ(gated intensifier)をそれに結合したり、従来周知の他の手段を結合することにより、ゲートされる。上記検知アレイのゲートタイミングは光源に対して遅延されていて、それによりカメラから所望の距離範囲にある物体のみが捕捉される。上記カメラでは、上記距離範囲内の種々の物体や異なる点までの距離を決定することはできない。   Similarly, a range gate type camera is also known. Such cameras typically include a gate sensing array that operates in conjunction with a pulsed or strobe light source that illuminates the scene. The array is a gate, such as an "Intensified Lens System" manufactured by Imco Electro-optics Ltd., Essex, UK. It is gated by coupling a gated intensifier to it or other means known in the art. The gate timing of the sensing array is delayed with respect to the light source so that only objects within a desired distance range from the camera are captured. The camera cannot determine the distance to various objects or different points within the distance range.

本発明の一つの目的は、一つの情景中の全ての画素から実質的に同時に深度情報を得る、改善された測距カメラを提供することにある。   One object of the present invention is to provide an improved ranging camera that obtains depth information from all pixels in a scene substantially simultaneously.

本発明のいくつかの見地によれば、本測距カメラは該情景の強度画像と距離画像の両方を発生し、これらイメージは相互に登録される。   According to some aspects of the present invention, the ranging camera generates both an intensity image and a range image of the scene, and these images are registered with each other.

本発明の一つの見地によれば、本測距カメラは情景の三次元イメージを発生する。   According to one aspect of the invention, the ranging camera generates a three-dimensional image of the scene.

本発明の他の見地によれば、本測距カメラは該カメラからの情景中の一以上の被写体の距離に関する情報を出力する。この距離情報は上記カメラにより得られた画像をフィルタしたり、およびまたはさらに処理するために使用するか、またはカメラ自身へのフィードバックとして使用し、より大きな選択性およびまたは精度に対してその距離検知機能を適合させることができる。   According to another aspect of the invention, the ranging camera outputs information about the distance of one or more subjects in the scene from the camera. This distance information can be used to filter and / or further process the image obtained by the camera, or used as feedback to the camera itself, to detect that distance for greater selectivity and / or accuracy. The function can be adapted.

本発明の好ましい実施形態では、測距カメラは目的の情景を照射するための放射波源と検知アレイを含んでおり、該検知アレイは好ましくはCCDアレイで、情景中の被写体からの反射光の強度を検知するためのものであり、本願と同じ出願人により同じ日に出願された「オプティカル・レンジング・カメラ(Optical Ranging Camera)」なる名称を有する一番目のPCT特許出願に記載されているようなものであり、該発明は本発明の譲受人に譲渡されており、その開示は本願の参照文献とする。上記放射波源は、例えば機械式シャッタもしくは液晶シャッタにより変調され、該シャッタは予め定められた既知の期間および時間の間、上記放射波源を交互に遮断および開放する。反射波は同様に変調されて、上記検知アレイに到達する反射波は、好ましくは予め定められた既知の期間、遮断および開放され、それは上記放射波源が遮断および開放される期間と同じであるか、またはより好ましくは異なっていてもよい。上記検知アレイに到達する放射波の強度およびそれにより検知される強度は次いで、情景中の被写体のカメラからの距離を決定するために処理される。   In a preferred embodiment of the present invention, the ranging camera includes a radiation source for illuminating the scene of interest and a sensing array, preferably a CCD array, the intensity of the reflected light from the subject in the scene. And is described in the first PCT patent application having the name “Optical Ranging Camera” filed on the same day by the same applicant as the present application. This invention is assigned to the assignee of the present invention, the disclosure of which is hereby incorporated by reference. The radiation source is modulated, for example, by a mechanical shutter or a liquid crystal shutter, which alternately shuts off and opens the radiation source for a predetermined known period and time. The reflected wave is similarly modulated so that the reflected wave reaching the sensing array is preferably blocked and opened for a predetermined known period, which is the same as the period during which the radiated wave source is blocked and opened. Or, more preferably, may be different. The intensity of the radiated waves reaching the detection array and the intensity detected thereby is then processed to determine the distance of the subject in the scene from the camera.

本発明のいくつかの好ましい実施形態では、放射波源および反射源は上記したように、一つ以上の機械式シャッタもしくは液晶シャッタにより変調される一方、周知の他の形式の放射波変調器を同様に用いることができる。このように、本発明のいくつかの好ましい実施形態では、KDP結晶変調器のような、一以上の光電変調器が放射波源およびまたは検知された放射波を変調する。それに加えてもしくはそれに代えて、本発明のいくつかの観点では、放射波源は適切な波形を放射波源を駆動している回路に印加することにより、電気的に変調することができる。さらにそれに加えてもしくはそれに代えて、反射波は従来周知のリセット/リードアウト技術により変調することができ、該技術では上記検知アレイはファーストリセットされる、すなわちアレイのエレメントは実質的にその中に集められた電荷がクリアされ、その後既知の予め定められた遅延期間の後、上記エレメントに集められた電荷が読み出されて測定される。   In some preferred embodiments of the present invention, the radiation source and the reflection source are modulated by one or more mechanical shutters or liquid crystal shutters as described above, as well as other known types of radiation modulators. Can be used. Thus, in some preferred embodiments of the present invention, one or more photoelectric modulators, such as KDP crystal modulators, modulate the radiation source and / or the detected radiation. In addition or in the alternative, in some aspects of the invention, the radiating wave source can be electrically modulated by applying an appropriate waveform to the circuit driving the radiating wave source. Additionally or alternatively, the reflected wave can be modulated by a well-known reset / readout technique in which the sensing array is first reset, i.e., the elements of the array are substantially contained therein. The collected charge is cleared and then after a known predetermined delay period, the collected charge on the element is read and measured.

上記放射波源は好ましくはレーザ光源を含んでいるが、それに代えて他のタイプの適当な光源を含んでいてもよい。   The radiation source preferably includes a laser light source, but may alternatively include other types of suitable light sources.

本発明のいくつかの好ましい実施形態では、測距カメラは本発明と同日に出願された「テレセントリック・オプティカル・レンジング・カメラ(Telecentric Optical Camera)」なる名称の2番目のPCT出願に記載されているような、テレセントリック(Telecentric)光学系を含んでおり、前記出願は同様に本願の譲受人に譲渡されており、その開示は本願の参照文献とする。好ましくは、反射波は適当な集光光学系により集光されて、KDP結晶変調器のような光電変調器により変調される。より好ましくは、出射波および反射波は共通の光軸に沿う平行光とされる。一つのかかる好ましい実施形態では、出射波および反射波は同じ光電変調器により変調されるが、他の好ましい実施形態では、それらは別の変調器により別々に変調される。   In some preferred embodiments of the present invention, the ranging camera is described in a second PCT application named “Telecentric Optical Camera” filed on the same day as the present invention. Such a telecentric optical system is included, and the application is similarly assigned to the assignee of the present application, the disclosure of which is hereby incorporated by reference. Preferably, the reflected wave is condensed by a suitable condensing optical system and modulated by a photoelectric modulator such as a KDP crystal modulator. More preferably, the outgoing wave and the reflected wave are parallel light along a common optical axis. In one such preferred embodiment, the outgoing and reflected waves are modulated by the same photoelectric modulator, while in other preferred embodiments they are separately modulated by another modulator.

本発明の好ましい実施形態では、放射源は第1の波形により変調され、反射波は第2の波形により変調される。これら第1の波形および第2の波形の形状およびこれら波形の間の遅延時間は、カメラから画素により撮像される被写体までの距離に上記検知アレイの各画素にて検知される強度に所望の関数依存性を与えるように調整される。   In a preferred embodiment of the invention, the radiation source is modulated by a first waveform and the reflected wave is modulated by a second waveform. The shape of the first waveform and the second waveform and the delay time between these waveforms are a function of the intensity detected at each pixel of the detection array at a distance from the camera to the subject imaged by the pixel. Adjusted to give dependencies.

好ましくは、上記第1の波形および第2の波形並びにその間の遅延時間は、距離「ウィンドウ」、すなわち被写体の距離が決定されるカメラからの被写体の距離範囲を規定するように調整される。放射波源および反射波はそれぞれ第1および第2の波形により変調される一方、カメラは上記ウインドウ内の被写体のみの画像を得る。上記ウィンドウを適当に調節することにより、カメラから上記ウィンドウ内の被写体までの距離を決定する検知された放射波の処理が単純化される、およびまたはその精度が改善される。好ましくは、上記ウィンドウはまた、目的の情景の部分に対応するカメラからの距離範囲の被写体に対するカメラのダイナミックレンジを最大にするように調整される。   Preferably, the first and second waveforms and the delay time therebetween are adjusted to define a distance “window”, ie, a distance range of the subject from the camera where the distance of the subject is determined. While the radiated wave source and the reflected wave are modulated by the first and second waveforms, respectively, the camera obtains an image of only the subject in the window. By appropriately adjusting the window, the processing of the detected radiated wave that determines the distance from the camera to the subject in the window is simplified and / or its accuracy is improved. Preferably, the window is also adjusted to maximize the dynamic range of the camera for subjects in the distance range from the camera corresponding to the portion of the scene of interest.

本発明のいくつかの好ましい実施形態では、上記第1の波形および第2の波形は放射波源からの放射波およびまたは反射波が上記検知アレイの単一フィールドまたはフレーム間に多数回遮断および開放される。好ましくは、上記第1および第2の波形は複数のパルスを含んでおり、第2の波形の各パルスは予め定められた、典型的には一定の、遅延時間により上記第1の波形の対応するパルスに追随する。標準的なビデオフィールドの持続時間は約16msであるのに対し、上記第1および第2の波形のパルス幅は典型的には1マイクロセコンドよりも短いことを考慮すると、単一のフィールドもしくはフレームの時間中に何百、何千というかかるパルスが含まれることが分かるであろう。かかる多重パルス変調機能はカメラにより形成される画像のS/N比を増加させるのに有用である。   In some preferred embodiments of the invention, the first and second waveforms are such that the radiated and / or reflected waves from the radiated wave source are blocked and opened multiple times between a single field or frame of the sensing array. The Preferably, the first and second waveforms include a plurality of pulses, and each pulse of the second waveform corresponds to the first waveform according to a predetermined, typically constant, delay time. Follow the pulse you want. Considering that the pulse width of the first and second waveforms is typically less than one microsecond while the duration of a standard video field is about 16 ms, a single field or frame It can be seen that hundreds or thousands of such pulses are included during the time. Such a multi-pulse modulation function is useful for increasing the S / N ratio of an image formed by a camera.

本発明のいくつかの好ましい実施形態では、上記ウィンドウは目的の一つ以上の被写体の画像のイメージが得られるように調整される。好ましくは、第1のウインドウは、カメラからの大きな距離範囲を包含していて、相対的に長いパルス幅の波形を使用している放射波源および反射波を変調することにより最初に規定されている。目的の被写体の画像はこのウィンドウ中に得られ、少なくとも一つの被写体までの距離が決定される。第2のウインドウがそのとき規定され、該ウインドウは上記少なくとも一つの被写体を含むとともに好ましくは上記第1のウィンドウよりも狭い距離範囲を包含している。このようにして、目的としない被写体の輻輳が削減され、上記少なくとも一つの目的の被写体までの距離をより正確に決定できるようにする第2の画像が得られる。   In some preferred embodiments of the present invention, the window is adjusted to obtain an image of one or more objects of interest. Preferably, the first window includes a large distance range from the camera and is initially defined by modulating the radiated wave source and reflected wave using a relatively long pulse width waveform. . An image of the target subject is obtained in this window and the distance to at least one subject is determined. A second window is then defined that includes the at least one subject and preferably includes a range of distances that is narrower than the first window. In this way, a second image is obtained in which congestion of an undesired subject is reduced and a distance to the at least one target subject can be determined more accurately.

好ましくは、上記ウインドウは以降、目的の上記少なくとも一つの被写体を追跡するように調整されている。カメラからの上記被写体の距離が変化するにつれて、変調波形は上記被写体が上記ウィンドウにより包含される距離範囲内に留まるように変化する。   Preferably, the window is subsequently adjusted to track the at least one subject of interest. As the distance of the subject from the camera changes, the modulation waveform changes so that the subject remains within the distance range encompassed by the window.

それに代えてもしくはそれに加えて、目的の被写体までの距離は最初、偵察ビーム、例えばレーザ測距装置もしくは従来周知の他の測距装置を使用して決定することができる。上記ウインドウはそのとき上記被写体がそれにより包含される距離範囲内にあるように調整される。   Alternatively or in addition, the distance to the object of interest can initially be determined using a reconnaissance beam, such as a laser ranging device or other ranging devices known in the art. The window is then adjusted so that the subject is within the distance range encompassed by it.

本発明の好ましい実施形態では、上記ウィンドウの外側にあるカメラからの距離に位置している情景の部分の画像は得られないか、または上記情景中の別の被写体画像から別に得られる。本発明はそのとき、例えば、目的の一以上の被写体をより遠い背景と区別するために使用することができる。いくつかの好ましい実施形態では、目的の被写体の物体の画像はそのとき、他の画像、例えばコンピュータ処理されたりまたはコンピュータで発生された画像と、従来周知の技術を使用して、所望の混合画像を形成するために結合される。
本発明のいくつかの好ましい実施形態では、上記検知アレイは二次元マトリックスアレイ、例えばCCDアレイであり、一以上の光変調器が上記アレイに到達する反射光を変調し、異なる変調光は上記アレイの異なった行もしくは近接する行のグループとそれぞれ関連する。このようにして、異なった距離ウィンドウ、すなわち選択された異なった距離範囲は、異なった行もしくは近接する行のグループと連携する。かかる行もしくは近接する行のグループの各々は、線により切断された被写体の深度情報を含む情景のライン画像を発生させる。広範囲にわたる深度情報を含む情景の全体の画像を発生させるために、上記アレイの視野は一般に上記情景の上をスキャンされて、以下に述べるように、多重ライン画像が得られるともに結合される。
In a preferred embodiment of the present invention, an image of a portion of the scene located at a distance from the camera outside the window is not obtained, or is obtained separately from another subject image in the scene. The present invention can then be used, for example, to distinguish one or more objects of interest from a distant background. In some preferred embodiments, the image of the object of interest is then combined with another image, such as a computer-processed or computer-generated image, and a desired mixed image using conventionally known techniques. Are combined to form
In some preferred embodiments of the present invention, the sensing array is a two-dimensional matrix array, such as a CCD array, where one or more light modulators modulate reflected light reaching the array, and different modulated light is the array. Associated with different rows or groups of adjacent rows. In this way, different distance windows, i.e. different distance ranges selected, are associated with different rows or groups of adjacent rows. Each such row or group of adjacent rows generates a scene line image containing depth information of the subject cut by the line. In order to generate an entire image of the scene including extensive depth information, the field of view of the array is typically scanned over the scene to obtain and combine multiple line images as described below.

いくつかのこれらの好ましい実施形態では、液晶シャッタアレイが、CCDアレイの各行もしくは近接する行の連続するグループに到達する反射光を別々に変調するように、上記CCDアレイに関して配置されている。好ましくは、上記液晶アレイは連続する行もしくは該アレイの近接する行の連続するグループが等しく、連続する期間の間に反射光が入射するように駆動される。従って、各々の連続する行もしくはグループは情景の中の連続する距離ウインドウ中の被写体からの光を受光するとともに、上記カメラからのかかる被写体の距離を決定するために使用される。   In some of these preferred embodiments, a liquid crystal shutter array is arranged with respect to the CCD array to separately modulate the reflected light reaching each row of the CCD array or a contiguous group of adjacent rows. Preferably, the liquid crystal array is driven so that the reflected light is incident during successive periods, where successive rows or successive groups of adjacent rows of the array are equal. Thus, each successive row or group receives light from the subject in successive distance windows in the scene and is used to determine the distance of such subject from the camera.

さらに好ましくは、上記液晶アレイはその第1エッジに近接する第1行のCCDアレイがカメラに相対的に近い第1距離ウインドウからの光を受光し、その第2エッジに近接する第1エッジとは反対側の上記CCDアレイの最終行がカメラから相対的に遠い最終距離ウインドウからの光を受光するように駆動される。上記第1行と最終行との間で、上記アレイの各々の連続する行が連続する距離ウインドウからの光を受光し、その全ての距離ウインドウはともに実質的に連続して、好ましくは実質的に等しいステップで、第1ウインドウと最終ウインドウとの間の距離をカバーする。   More preferably, in the liquid crystal array, the first row of CCD arrays adjacent to the first edge receives light from a first distance window relatively close to the camera, and the first edge close to the second edge includes: Is driven so that the last row of the CCD array on the opposite side receives light from a final distance window relatively far from the camera. Between the first row and the last row, each successive row of the array receives light from successive distance windows, all of which distance windows are both substantially continuous, preferably substantially. Covers the distance between the first window and the last window.

さらに、本発明の他の好ましい実施形態では、液晶シャッタアレイは上記CCDアレイに関して適切に配置されるとともに、上記CCDアレイ内の各画素もしくは隣接する画素グループに到達する反射光を別々に変調するように駆動され、その結果、各画素もしくは画素グループはそれに関連するそれ自身の距離ウインドウを有するようになる。上記シャッタアレイは好ましくは適切に駆動され、各距離ウインドウは画像が各画素もしくは画素グループにより捕捉される情景中の目的の被写体の点までの距離を追跡する。従って、各画素もしくは画素のグループに関連する距離ウインドウは、像の輻輳を少なくするとともに、上記点までの距離の正確な読みを包含並びに生成するように調整することができる。
各画素がそれ自身の距離ウインドウを有している、いくつかのこれらの好ましい実施形態では、相互に隣接する画素グループは「スーパ画素」として協動するように形成されている。各々のかかるスーパ画素は、例えば9個の画素の3×3グループを含んでいてもよく、その上には実質的に共通の軸に沿って情景から反射された光が結像される。上記シャッタアレイは上記9個のピクセルの各々が上記共通軸に沿う異なった距離ウインドウからの光を受光する。このようにして、横方向の解像度は犠牲になるが、所望の距離分解度を有する深度情報を含む上記情景の完全な像が捕捉される。例えば1×2画素、2×2画素もしくは4×4画素等、任意の所望サイズのスーパ画素が距離対横方向分解度の最適な見返りを達成するために使用することができる。
Furthermore, in another preferred embodiment of the present invention, a liquid crystal shutter array is suitably arranged with respect to the CCD array, and separately modulates the reflected light reaching each pixel or adjacent group of pixels in the CCD array. So that each pixel or group of pixels has its own distance window associated with it. The shutter array is preferably driven appropriately and each distance window tracks the distance to the point of interest in the scene where the image is captured by each pixel or group of pixels. Thus, the distance window associated with each pixel or group of pixels can be adjusted to reduce image convergence and to include and generate an accurate reading of the distance to the point.
In some of these preferred embodiments, where each pixel has its own distance window, adjacent pixel groups are formed to cooperate as “super pixels”. Each such superpixel may include, for example, a 3 × 3 group of nine pixels on which light reflected from the scene is imaged along a substantially common axis. In the shutter array, each of the nine pixels receives light from a different distance window along the common axis. In this way, a complete image of the scene is captured, including depth information with the desired distance resolution, at the expense of lateral resolution. Superpixels of any desired size, such as 1 × 2 pixels, 2 × 2 pixels, or 4 × 4 pixels, can be used to achieve an optimal return of distance versus lateral resolution.

上記実施形態は液晶シャッタアレイの場合について述べたが、本発明の他の好ましい実施形態では、ゲーテッド・アドレッサブル・マイクロチャンネル・アレイ(gated addressable microchannel arrays)や、光電もしくは音響光変調器のアレイ等の他のタイプの光変調器アレイが同様の目的に使用することができる。   Although the above embodiments have been described with respect to a liquid crystal shutter array, other preferred embodiments of the present invention include gated addressable microchannel arrays, arrays of photoelectric or acousto-optic modulators, etc. Other types of light modulator arrays can be used for similar purposes.

異なった距離ウインドウが検知アレイの異なった行と順次協動し、その各行が情景の部分のライン画像を形成するいくつかの本発明の好ましい実施形態では、上記したように、上記アレイの視野は「プッシュ・ブルーム(push broom)」画像モードの情景を横断してスキャンされる。換言すれば、上記カメラは好ましくは、上記情景に関して横方向に、各行により形成されるライン画像が行の長さ寸法に対して実質的に垂直な方向で上記情景を横断して走査するような態様および方向で移動させる。上記カメラは連続する平行なラインに沿う検知器アレイの各行からの一連のライン画像を捕捉する。   In some preferred embodiments of the present invention, where different distance windows work sequentially with different rows of the sensing array, each row forming a line image of a portion of the scene, as described above, the field of view of the array is Scanned across a scene in "push bloom" image mode. In other words, the camera preferably scans across the scene in a direction transverse to the scene, and the line image formed by each row is in a direction substantially perpendicular to the length dimension of the row. Move in aspect and direction. The camera captures a series of line images from each row of the detector array along successive parallel lines.

さらに、上記カメラの視野は走査されもよく、また情景中の被写体はカメラに関して横方向に動いても、効果は同じである。   Furthermore, the field of view of the camera may be scanned and the effect is the same if the subject in the scene moves laterally with respect to the camera.

好ましくは、上記カメラによる画像の捕捉は、上記カメラにより捕捉された一連の画像中の任意の点におけるアレイの任意の行(第1行は除く)により画像形成された上記情景の一部分が、異なる距離ウインドウを有することを除いて、順序的に先行する点におけるアレイの先行する行により画像形成された情景の部分と実質的に同じになるように、情景に関する検知アレイの移動もしくは走査と同期させている。このようにして、情景の完全な三次元画像が得られるが、それは各情景の点に対して、反射光の強度が広い距離範囲にわたってカメラからの距離の関数として測定されるからである。   Preferably, the capture of the image by the camera differs in the portion of the scene imaged by any row of the array (except the first row) at any point in the series of images captured by the camera. Synchronized with the movement or scanning of the sensing array with respect to the scene so that it is substantially the same as the portion of the scene imaged by the preceding row of the array at the sequentially preceding points, except having a distance window. ing. In this way, a complete three-dimensional image of the scene is obtained because, for each scene point, the intensity of the reflected light is measured as a function of distance from the camera over a wide distance range.

本発明の他の好ましい実施形態では、カメラは走査光学系を含んでおり、それは情景のライン画像の焦点を合わせるとともに変調して、該ライン画像が連続的に上記検知アレイの各行の上に投射されるようにする。従って、上記アレイの各行と連携する一連の距離ウインドウがあり、そのウインドウは上記ライン画像が上記行の上で休止する時間により規定される。連続する距離ウインドウの各々で、上記ライン画像により切断された情景中の被写体までの距離は上記した方法で決定される。上記走査光学系は高速光学機械式スキャナ、音響光学式もしくは光電式の変調器、もしくは従来周知の他のタイプのスキャナを含んでいてもよい。   In another preferred embodiment of the present invention, the camera includes scanning optics that focus and modulate the line image of the scene so that the line image is continuously projected onto each row of the sensing array. To be. Thus, there is a series of distance windows associated with each row of the array, the window being defined by the time that the line image pauses on the row. In each continuous distance window, the distance to the subject in the scene cut by the line image is determined by the method described above. The scanning optical system may include a high speed optomechanical scanner, an acousto-optic or photoelectric modulator, or other types of scanners known in the art.

本発明のいくつかの好ましい実施形態では、カメラは連携するカラーフィルタ、好ましくは従来周知の赤、緑、青の三つの検知アレイを含んでいる。それに代えて、カメラは従来周知の一つ以上のストリップもしくはモザイクカラーフィルタを有し、それによりカラー画像を得る一つまたは二つの検知アレイのみをを含んでいてもよい。これにより、画像強度、カラーおよび深度情報がアレイの各画素に関して同時に得られる。   In some preferred embodiments of the present invention, the camera includes associated color filters, preferably three sensing arrays known in the art, red, green and blue. Alternatively, the camera may have only one or two sensing arrays with one or more strips or mosaic color filters known in the art, thereby obtaining a color image. This provides image intensity, color and depth information simultaneously for each pixel in the array.

本発明のいくつかの好ましい実施形態では、二次元強度およびまたはカラー画像および三次元距離画像(すなわち、画素毎の距離情報)がカメラのユーザに対して深度画像を発生させ、提供するために相互に登録されるとともに重畳される。かかる深度画像は、従来周知の方法を使用して、例えば二次元画像上の等しい距離にある輪郭線を画くことにより、また、白黒画像中に表示された距離に対する疑似カラーを使用することにより、さらにはコンピュータにより発生される等大投射により、発生することができる。   In some preferred embodiments of the present invention, two-dimensional intensity and / or color images and three-dimensional distance images (ie, pixel-by-pixel distance information) are used to generate and provide depth images to the camera user. Are registered and superimposed. Such depth images can be obtained using conventionally known methods, for example by drawing contours at equal distances on the two-dimensional image, and by using pseudo colors for the distances displayed in the black and white image. Further, it can be generated by isometric projection generated by a computer.

本発明のいくつかの好ましい実施形態では、カメラは移動プラットホーム、例えば、その上を飛行している土地の地形図を得るために飛行機に搭載したり、もしくは水中または水上のいずれかに設置されたプラットホームや宇宙に設置されたプラットホームに搭載される。好ましくは、カメラは上記したように、プッシュ−ブルーム・モード(push−broom mode)で動作するとともに、カメラによる画像の取り込みは上記移動プラットホームの対地速度と同期している。カメラにより取り込まれた画像は、プラットホームの下方の地形や物体の図形を画くために使用されるとともに、かかる地形や物体の三次元的な大きさを計算するために使用することができる。本発明の好ましい他の実施形態では、カメラはロボットに搭載されかまたはロボットと連携し、該ロボットは所望の仕事中の動作をガイドするためにカメラから供給される三次元画像情報を使用する。   In some preferred embodiments of the present invention, the camera is mounted on a mobile platform, eg, an airplane to obtain a topographical map of the land flying over it, or installed either underwater or on the water. Installed on platforms and platforms installed in space. Preferably, the camera operates in a push-bloom mode, as described above, and image capture by the camera is synchronized with the ground speed of the mobile platform. The image captured by the camera is used to draw the terrain and object figure below the platform and can be used to calculate the three-dimensional size of the terrain and object. In another preferred embodiment of the present invention, the camera is mounted on or cooperates with the robot, which uses 3D image information supplied from the camera to guide the desired work-in-motion.

それに代えてまたはそれに加えて、本発明のいくつかの好ましい実施形態では、カメラは例えば製造物品の多様な寸法を決定するとともに、標準値とのずれを確認するといった、製造工程の品質保証もしくは品質管理に使用される。同様に、積み荷やコンテナに貯蔵され、そのサイズをカメラを使用して同様に知ることができるか測定することができるものの表面の輪郭を測定することにより、上記積み荷や物品の大きさを決定することができる。   Alternatively or in addition, in some preferred embodiments of the present invention, the camera determines the various dimensions of the manufactured article and confirms deviations from standard values, for example, quality assurance or quality of the manufacturing process. Used for management. Similarly, the size of the load or item is determined by measuring the surface contour of what is stored in the load or container and whose size can be similarly known or measured using a camera. be able to.

本発明の他の好ましい実施形態では、カメラは目的の被写体の三次元画像を得るために、モデル・スキャナで使用される。一つのかかる好ましい実施形態では、これらの三次元画像は、表面カラー再生を含む、目的の被写体の一以上の三次元コピーもしくはモデルを再生するために、従来周知の技術のような高速三次元画像のためのシステムとともに使用される。   In another preferred embodiment of the invention, the camera is used with a model scanner to obtain a three-dimensional image of the object of interest. In one such preferred embodiment, these three-dimensional images are high-speed three-dimensional images, such as those known in the art, for reproducing one or more three-dimensional copies or models of the subject of interest, including surface color reproduction. Used together with the system for.

本発明のさらに他の実施形態では、カメラは、例えば起こりうる障碍物を認識し、車両から障害物までの距離を決定することにより衝突を回避するためのシステムに使用するために車両に搭載される。   In yet another embodiment of the invention, the camera is mounted on a vehicle for use in a system for recognizing possible obstacles and avoiding collisions by determining the distance from the vehicle to the obstacle, for example. The

本発明の他の好ましい実施形態では、上記した測距カメラは患者の体内の目的の領域の三次元画像を得るために内視鏡とともに使用される。   In another preferred embodiment of the present invention, the ranging camera described above is used with an endoscope to obtain a three-dimensional image of a region of interest within the patient's body.

本発明のいま一つの実施形態では、カメラは目の不自由な人により使用するための感覚マトリックスに結合される。例えば、上記感覚マトリックスは多数のピンを含んでいて、これらピンは目の不自由な人の皮膚、例えば額を押圧するように駆動され、各ピンにより上記皮膚に印加される圧力は目の不自由な人からカメラが視た情景中の対応する点の物体までの距離に比例する。好ましくは、目の不自由な人は、上記ピンにより印加される圧力範囲が目の不自由な人からの所望の距離範囲に対応するように、カメラの距離ウインドウを制御する。   In another embodiment of the invention, the camera is coupled to a sensory matrix for use by a blind person. For example, the sensory matrix includes a number of pins that are driven to press the skin of a blind person, such as the forehead, and the pressure applied to the skin by each pin is blind to the eyes. It is proportional to the distance from a free person to the object at the corresponding point in the scene viewed by the camera. Preferably, the blind person controls the distance window of the camera so that the pressure range applied by the pin corresponds to a desired distance range from the blind person.

従って、本発明の好ましい実施形態により、情景中の物体までの距離を表示する画像を生成するための装置を提供するものであり、該装置は、第1変調関数を有し、情景に向かって放射波を投射する変調された放射波源と、上記情景から反射され、第2変調関数により変調された反射波を検知するとともに、検知された変調波に対応して上記情景の領域までの距離に対応する信号を発生する検知器と、上記装置からの物体の距離を示す強度分布を有する信号に基づいて、上記検知器からの信号を受信するとともに画像を形成するプロセッサと、上記プロセッサにより形成される画像の強度分布に対応する第1および第2変調関数の少なくとも一つを変化させるコントローラとを含む。   Accordingly, in accordance with a preferred embodiment of the present invention, an apparatus is provided for generating an image that displays a distance to an object in a scene, the apparatus having a first modulation function and toward the scene. A modulated radiation wave source for projecting a radiation wave, and a reflected wave reflected from the scene and modulated by the second modulation function, and a distance to the scene area corresponding to the detected modulated wave A detector for generating a corresponding signal; a processor for receiving a signal from the detector and forming an image based on a signal having an intensity distribution indicating a distance of an object from the device; and the processor. And a controller that changes at least one of the first and second modulation functions corresponding to the intensity distribution of the image.

本発明の好ましい実施形態により、さらに、情景中の物体までの距離を示す画像を発生するための装置を提供するものであり、該装置は、第1変調関数を有し、情景に向かって光を振り向ける変調された放射波源と、第2変調関数を有する検知変調器と、複数の検知エレメントを含む検知アレイとを含み、情景内の複数の平行間隔セグメントから反射された反射波を検知するとともに、検知された反射波に対応して、信号を発生する検知器と、 少なくともいくつかの複数の間隔を有するセグメントを含むとともに、上記装置から物体までの距離を示す強度分布を有する画像を形成するプロセッサと、を含んでおり、複数の間隔を有するセグメントの各々が上記装置に関して距離限界を有しており、該距離限界は上記検知変調器により決定され、かつ、複数の間隔を有するセグメントの少なくとも一つは少なくとも一つの他の間隔を有するセグメントの限界とは異なる距離限界を有している。
本発明の好ましい実施形態により、また、情景中の物体までの距離を示す拡大された画像を生成するためのシステムを提供するものであり、該システムは 上記したような画像を生成するための装置であって、該装置は情景の複数の画像を形成し、複数の画像の少なくとも一つは上記画像の少なくとも一つの他の画像に含まれていない情景の一以上の領域を含む装置と、拡大された画像を形成するために複数の画像を結合し、情景中の物体までの距離を示す画像プロセッサと、を含んでいる。
According to a preferred embodiment of the present invention, there is further provided an apparatus for generating an image showing a distance to an object in a scene, the apparatus having a first modulation function and light toward the scene. A reflected radiation source that is reflected from a plurality of parallel spaced segments in the scene, including a modulated radiation source that directs the light, a sensing modulator having a second modulation function, and a sensing array that includes a plurality of sensing elements In addition, a detector that generates a signal corresponding to the detected reflected wave, and at least some segments having a plurality of intervals, and forming an image having an intensity distribution indicating the distance from the device to the object And each of the plurality of spaced segments has a distance limit with respect to the device, the distance limit being determined by the sense modulator. And at least one of the segments having a plurality of intervals has a distance limit different from a limit of the segments having at least one other interval.
According to a preferred embodiment of the present invention, there is also provided a system for generating an enlarged image showing the distance to an object in a scene, the system comprising an apparatus for generating an image as described above The apparatus forms a plurality of images of a scene, and at least one of the plurality of images includes an apparatus including one or more regions of the scene not included in at least one other image of the image; An image processor for combining the plurality of images to indicate the distance to the object in the scene.

本発明の好ましい実施形態により、さらに、情景中の物体までの距離を示す画像を生成するための装置を提供するものであって、該装置は 情景に向かって放射波を振り向ける、変調された放射波源と、上記情景から反射された放射波を受けるとともに平行にするテレセントリック(telecentric)光学系と、上記平行にされた放射波を変調する変調器と、上記変調され平行にされた放射波から形成された画像を検知する検知器と、検知された画像の強度分布に応じて、上記装置からの物体の距離を示す強度値分布を有する画像を形成するプロセッサと、を含み、上記放射波源および検知器は照準規正(boresighted)されており、かつ、上記情景から反射された平行な反射波を変調する変調器は上記放射波源により情景に向かって振り向けられた放射波を変調しない。   According to a preferred embodiment of the present invention, there is further provided an apparatus for generating an image showing a distance to an object in a scene, the apparatus directing a radiated wave toward the scene. A radiation source, a telecentric optical system that receives and collimates the radiation reflected from the scene, a modulator that modulates the collimated radiation, and the modulated and collimated radiation A detector for detecting the formed image, and a processor for forming an image having an intensity value distribution indicating the distance of the object from the device according to the intensity distribution of the detected image, the radiation wave source and The detector is boresighted and the modulator that modulates the parallel reflected wave reflected from the scene is the scene by the radiation source. Does not modulate the radiated wave directed toward

本発明の好ましい実施形態により、さらに、情景の中の物体までの距離を示す画像を生成するための装置を提供するものであって、該装置は、第1変調機能を有しており、情景に向かって放射波を振り向ける変調された放射波源と、第2変調機能により変調された、情景からの反射波を検知するとともに、検知された変調波に応答して、上記情景の領域までの距離に応じた信号を発生する第1検知器と、上記第1検知器により照準規正(boresighted)され、上記情景から反射されたるとともに上記第2変調機能により変調されない放射波を検知し、検知された放射波に応じて、上記情景の領域から反射された放射波の強度に応じた信号を発生する第2検知器と、上記第1および第2検知器からの信号を受信して、上記装置からの物体の距離を示す強度値分布を有する、上記信号に基づいて画像を形成するプロセッサと、を含む。   According to a preferred embodiment of the present invention, there is further provided an apparatus for generating an image showing a distance to an object in a scene, the apparatus having a first modulation function, A modulated radiation source that directs the radiation toward the surface, and a reflected wave from the scene modulated by the second modulation function, and in response to the detected modulated wave, to the area of the scene A first detector that generates a signal corresponding to a distance and a sighted wave that is reflected by the first detector and reflected from the scene and not modulated by the second modulation function are detected and detected. A second detector for generating a signal corresponding to the intensity of the radiated wave reflected from the area of the scene in response to the radiated wave, and a signal from the first and second detectors to receive the signal from Having an intensity value distribution indicative of the distance of the body, including a processor for forming an image based on the signal.

本発明の好ましい実施形態により、さらに、ロボット案内システムを提供するものであって、該システムは情景の中の物体までの距離を示す画像を発生するための上記した装置を含むとともに、案内のための上記装置により示された物体までの距離を使用して、上記情景中の物体に作用するロボットを含む。   According to a preferred embodiment of the present invention, there is further provided a robot guidance system, which includes an apparatus as described above for generating an image showing the distance to an object in a scene, and for guidance. A robot acting on the object in the scene using the distance to the object indicated by the device.

本発明の好ましい実施形態により、さらに、物体の寸法を決定するためのシステムを提供するものであって、該システムは上記物体の領域までの距離を示す、物体の画像を生成するための装置を含むとともに、上記画像と示された距離を使用して、上記物体の大きさを決定するコンピュータを含む。好ましくは、該コンピュータは標準のものと寸法を比較する。それに代えてもしくはさらに、上記コンピュータは、決定された寸法を使用して、物体の体積を決定する。   According to a preferred embodiment of the present invention, there is further provided a system for determining the dimensions of an object, the system comprising an apparatus for generating an image of the object indicating the distance to the object region. And a computer for determining the size of the object using the distance indicated with the image. Preferably, the computer compares the dimensions with a standard one. Alternatively or additionally, the computer uses the determined dimensions to determine the volume of the object.

本発明のさらにいま一つの好ましい実施形態により、物体の三次元モデルを生成するためのシステムをまた提供するものであって、該システムは上記したような物体の寸法を決定するためのシステムと、寸法を決定するためのシステムにより決定された寸法を受信し、上記寸法により三次元モデルを生成する迅速原型形成装置とを含む。好ましくは、上記迅速原型形成装置は、上記物体の画像を生成するための装置からの、より好ましくはカラー情報を含む画像情報を受信するとともに、該画像情報を三次元モデルの表面に付加する。   According to yet another preferred embodiment of the present invention, there is also provided a system for generating a three-dimensional model of an object, the system for determining the dimensions of the object as described above, A rapid prototyping apparatus that receives the dimensions determined by the system for determining the dimensions and generates a three-dimensional model according to the dimensions. Preferably, the rapid prototyping apparatus receives image information from an apparatus for generating an image of the object, more preferably including color information, and adds the image information to the surface of the three-dimensional model.

本発明の好ましい実施形態により、車両の案内システムをさらに提供するものであって、該案内システムは、上記したように車両の運動の方向における該車両の前方の情景中の物体までの距離を示す画像を生成するための装置と、該画像と示された距離とを使用して、情景中の障碍物を特定するプロセッサとを含む。   According to a preferred embodiment of the present invention, a vehicle guidance system is further provided, which indicates the distance to an object in the scene in front of the vehicle in the direction of vehicle movement as described above. An apparatus for generating an image and a processor that uses the image and the indicated distance to identify obstacles in the scene.

本発明の好ましい実施形態により、内視鏡の画像形成システムを提供するものであって、該システムは被験者の体内に挿入するための末端部を有するとともに、光学装置をそれに結合するための基部側の端部を有する内視鏡と、上記したような画像形成のための装置を含んでおり、該画像形成装置は上記内視鏡を通して体の中に放射波を投射し、そこから反射される放射波を検知するように、上記内視鏡の基部側の端部に結合される。   In accordance with a preferred embodiment of the present invention, an endoscopic imaging system is provided that has a distal end for insertion into a subject's body and a proximal side for coupling an optical device thereto. And an image forming apparatus as described above, and the image forming apparatus projects a radiation wave into the body through the endoscope and is reflected therefrom. Coupled to the proximal end of the endoscope so as to detect radiated waves.

本発明の好ましい実施形態により、情景の実体的な画像を生成するためのシステムをさらに提供するものであって、該システムは、上記したように情景中の複数の点に関する距離情報を含む、情景の画像を生成するための測距カメラと、被験者の体の表面に接触する、触覚プローブのアドレス可能なマトリックスとを含んでおり、各プローブは情景中の複数の各点までの距離に応じて体の表面に圧力を印加する。   According to a preferred embodiment of the present invention, there is further provided a system for generating a substantive image of a scene, the system comprising distance information about a plurality of points in the scene as described above. A range-finding camera to generate an image of the subject and an addressable matrix of tactile probes in contact with the surface of the subject's body, each probe depending on the distance to multiple points in the scene Apply pressure to the body surface.

本発明の好ましい実施形態により、電子流を変調するためのマイクロチャンネルアレイ装置をさらに提供するものであって、該装置は 電子がそれを通して加速されるマイクロチャンネルプレートと、該マイクロチャンネルプレートに近接するスイッチ可能な複数の電極であって、その各々の電極が上記プレートの対応する領域で電子の加速を変調する電極と、を含む。   According to a preferred embodiment of the present invention, there is further provided a microchannel array device for modulating electron flow, the device being proximate to the microchannel plate through which electrons are accelerated. A plurality of switchable electrodes, each electrode modulating the acceleration of electrons in a corresponding region of the plate.

好ましくは、上記マイクロチャンネルアレイは、光電陰極を含んでいて、該光電陰極は上記マイクロチャンネルプレートを通して加速された電子を受けてそれに対応する光子を発生し、かつ、上記電極が上記光電陰極の上にコートされた導電性の透明材料を含んでいる。   Preferably, the microchannel array includes a photocathode, the photocathode receives electrons accelerated through the microchannel plate and generates a corresponding photon, and the electrode is above the photocathode. A conductive transparent material coated on the substrate.

本発明の好ましい実施形態により、情景のイメージを形成するためのカメラシステムをまた提供するものであり、該カメラシステムは、上記情景からそれに入射する放射波に応じて、電子流を発生させる光電陽極と、上記電子流に応じて電子を発生させる上記したマイクロチャンネル・アレイ装置と、上記フォトンを受けるとともにそれに応じて情景の画像を形成する検知器と、を含む。   According to a preferred embodiment of the present invention, there is also provided a camera system for forming an image of a scene, the camera system generating a current of electrons in response to radiation waves incident on it from the scene. And a microchannel array device that generates electrons in response to the electron flow, and a detector that receives the photons and forms a scene image accordingly.

本発明の好ましい実施形態により、情景中の物体への距離を示す画像を生成するための方法であって、該方法は、第1変調関数により放射波源からの放射波を変調して、該放射波を情景に向かって投射すること、第2変調機能により上記情景からの反射波を変調すること、反射波を検知し、検知された反射波に応じて、上記情景の領域間での距離に応じた信号を発生させること、上記情景中の物体までの距離の強度値分布を有する画像を形成すること、および上記画像の強度値分布に応じて、少なくとも一つの第1および第2変調機能を変化させること、を含む。   According to a preferred embodiment of the present invention, a method for generating an image showing a distance to an object in a scene, the method comprising modulating a radiation wave from a radiation source with a first modulation function to produce the radiation. Projecting waves toward the scene, modulating the reflected wave from the scene by the second modulation function, detecting the reflected wave, and depending on the detected reflected wave, the distance between the scene areas Generating a corresponding signal, forming an image having an intensity value distribution of the distance to the object in the scene, and at least one first and second modulation function according to the intensity value distribution of the image Changing.

本発明の好ましい実施形態により、情景中の物体までの距離を示す画像を発生するための方法をさらに提供するものであって、該方法は、第1変調関数により放射波源からの放射波を変調して、放射波を情景に投射すること、上記情景内に複数の平行な間隔を有し、各々が距離限界を有するセグメントを規定すること、各々の平行な間隔を有するセグメントから反射された反射波を検知するとともに、検知された反射波に応じて、情景の領域間での距離に対応する信号を発生すること、上記情景中の物体までの距離を示す強度値分布を有する画像を形成すること、を含み、上記複数の間隔を有するセグメントを規定することが複数のセグメントの各々の距離限界を規定することを含み、かつ、少なくとも一つの複数の間隔を有するセグメントの距離限界が少なくとも一つのほかの間隔を有するセグメントの距離限界と異なっている。   According to a preferred embodiment of the present invention, there is further provided a method for generating an image showing a distance to an object in a scene, the method modulating a radiation wave from a radiation source by a first modulation function. Projecting radiation waves onto the scene, defining a segment having a plurality of parallel intervals in the scene, each having a distance limit, and reflection reflected from each segment having a parallel interval A wave is detected, and a signal corresponding to a distance between scene areas is generated according to the detected reflected wave, and an image having an intensity value distribution indicating a distance to an object in the scene is formed. And defining the segment having the plurality of intervals includes defining a distance limit for each of the plurality of segments, and having at least one plurality of intervals Distance limit is different from the distance limit of segments having at least one other spacing.

本発明の好ましい実施形態により、情景中の物体までの距離を示す拡大された画像を生成するための方法をさらに提供するものであり、該方法は、上記した方法により上記第1イメージを生成すること、上記情景に関して、間隔を有するセグメントを横方向に走査すること、上記第1イメージが生成されたのと同じ方法で上記情景の第2イメージを生成すること、および 上記拡大された画像を生成するために、上記第1画像を第2画像と結合し登録すること、を含む。   According to a preferred embodiment of the present invention, there is further provided a method for generating an enlarged image showing a distance to an object in a scene, the method generating the first image by the method described above. And with respect to the scene, horizontally scanning segments with intervals, generating a second image of the scene in the same manner as the first image was generated, and generating the enlarged image To register the first image with the second image.

本発明の好ましい実施形態により、別に得られた背景の画像の上に重畳された目的の物体を含む、混合された画像を生成するための方法をまた提供するものであって、該方法は、目的の物体を含み、情景中の物体までの距離を示す第1画像を生成すること、該第1画像により示されるような、物体までの距離を決定すること、少なくとも一つの物体までの距離を含む距離範囲を規定すること、フィルタされた画像を形成するために距離領域の外の第1画像の物体を除去すること、および 上記背景画像の上にフィルタされた画像を重畳すること、を含む。   According to a preferred embodiment of the present invention, there is also provided a method for generating a mixed image comprising a target object superimposed on a separately obtained background image, the method comprising: Generating a first image including a target object and indicating a distance to the object in the scene; determining a distance to the object as indicated by the first image; determining a distance to at least one object; Defining a range of distances to include, removing objects in the first image outside the distance region to form a filtered image, and superimposing the filtered image on the background image .

本発明の好ましい実施形態により、混合された画像の中の選択されたゾーン中へ挿入された所望の挿入画像を含む、情景の混合された画像を生成するための方法であって、該方法は、上記情景中にゾーンを画成すること、上記情景中の物体までの距離を示し、画成された上記ゾーンを含む情景の第1画像を生成すること、上記第1画像のゾーンの境界の位置および上記ゾーンまでの距離を、上記第1画像により示されたように決定すること、上記ゾーンまでの距離に従って、上記ゾーンの境界内に合致するように上記挿入画像を計測すること、および混合された画像を形成するために上記第1画像のゾーンの上に上記計測された挿入画像を重畳すること、を含む。   According to a preferred embodiment of the present invention, a method for generating a mixed image of a scene, including a desired inserted image inserted into a selected zone in the mixed image, the method comprising: Defining a zone in the scene; indicating a distance to an object in the scene; generating a first image of the scene including the defined zone; Determining the position and distance to the zone as indicated by the first image, measuring the inserted image to fit within the boundaries of the zone according to the distance to the zone, and mixing Superimposing the measured insertion image on the zone of the first image to form a processed image.

好ましくは、上記方法はさらに、上記第1画像内に挿入される物体を識別することを含み、挿入物体までの距離が上記ゾーンまでの距離よりも小さく、目的の物体のフィルタされた画像を形成するように第1画像をフィルタし、上記ゾーン内の挿入画像の上に挿入される物体のフィルタされた画像を重畳する。   Preferably, the method further comprises identifying an object to be inserted in the first image, wherein the distance to the inserted object is less than the distance to the zone to form a filtered image of the object of interest. The first image is filtered so as to superimpose the filtered image of the object to be inserted on the inserted image in the zone.

本発明は、本発明の好ましい実施形態の以下の詳細な説明並びに添付の図面を参照することにより、よりよく理解されるであろう。   The invention will be better understood by reference to the following detailed description of the preferred embodiments of the invention and the accompanying drawings.

本発明の好ましい実施形態による光学測距カメラの構成の概略図である。1 is a schematic diagram of a configuration of an optical distance measuring camera according to a preferred embodiment of the present invention. 図2Aは、本発明の好ましい実施形態によるテレセントリック光学カメラの構成の概略図である。FIG. 2A is a schematic diagram of the configuration of a telecentric optical camera according to a preferred embodiment of the present invention. 図2Bは、本発明の他の好ましい実施形態によるいま一つのテレセントリック光学測距カメラの構成の概略図である。FIG. 2B is a schematic diagram of the configuration of another telecentric optical ranging camera according to another preferred embodiment of the present invention. 図2Cは、本発明の好ましい実施形態による二つの検知アレイを含むさらにいま一つの光学測距カメラの構成の概略図である。FIG. 2C is a schematic diagram of the configuration of yet another optical ranging camera that includes two sensing arrays according to a preferred embodiment of the present invention. 図3は、本発明の好ましい実施形態による図1もしくは図2Bのカメラとともに使用するための変調の概要を示す波形の概略のダイヤグラムである。FIG. 3 is a schematic waveform diagram illustrating an overview of modulation for use with the camera of FIG. 1 or 2B according to a preferred embodiment of the present invention. 図4は、本発明の好ましい実施形態による測距カメラにより形成される情景を示す概略図である。FIG. 4 is a schematic diagram showing a scene formed by a distance measuring camera according to a preferred embodiment of the present invention. 図5は、本発明の好ましい実施形態による、図3に示された波形を図1もしくは図2Bのカメラに適用することにより得られた、距離に依存する画像フィルタ関数を示す概略図である。FIG. 5 is a schematic diagram illustrating a distance-dependent image filter function obtained by applying the waveform shown in FIG. 3 to the camera of FIG. 1 or 2B, according to a preferred embodiment of the present invention. 図6Aは、本発明のいま一つの好ましい実施形態による、図1惜しくは図2Bのカメラとともに使用するための他の変調の波形図を示す概略のダイヤグラムである。図6Bは、図6Aで示された波形を図1もしくは図2Bのカメラに適用することにより得られる、距離に依存する画像フィルタ関数の概略図である。FIG. 6A is a schematic diagram illustrating another modulation waveform diagram for use with the camera of FIG. 1 or FIG. 2B, in accordance with another preferred embodiment of the present invention. 6B is a schematic diagram of a distance dependent image filter function obtained by applying the waveform shown in FIG. 6A to the camera of FIG. 1 or 2B. 図7は、本発明の好ましい実施形態による、アダプタ式光学測距カメラシステムの概略図である。FIG. 7 is a schematic diagram of an adapter-type optical ranging camera system according to a preferred embodiment of the present invention. 図8Aは、本発明の好ましい実施形態による、混合されたビデオ画面を生成するための光学測距カメラシステムの概略図である。図8Bは、図8Aのシステムにより生成されるビデオ画像の概略図である。FIG. 8A is a schematic diagram of an optical ranging camera system for generating a mixed video screen according to a preferred embodiment of the present invention. FIG. 8B is a schematic diagram of a video image generated by the system of FIG. 8A. 図9は、本発明のいま一つの好ましい実施形態による、混合されたビデオ画像を生成するための光学測距カメラシステムの概略図である。FIG. 9 is a schematic diagram of an optical ranging camera system for generating a mixed video image according to another preferred embodiment of the present invention. 図10は、本発明の好ましい実施形態による、光学測距線画像カメラの概略図である。FIG. 10 is a schematic diagram of an optical ranging line image camera according to a preferred embodiment of the present invention. 図11は、本発明の好ましい実施形態による、好ましくは図10のカメラに使用するためのシャッタアレイの概略の分解断面図である。FIG. 11 is a schematic exploded cross-sectional view of a shutter array, preferably for use with the camera of FIG. 10, in accordance with a preferred embodiment of the present invention. 図12Aは、本発明の好ましい実施形態による、図10のカメラとともに使用するための変調の概略の波形図を示すダイヤグラムである。12A is a diagram illustrating a schematic waveform diagram of a modulation for use with the camera of FIG. 10, in accordance with a preferred embodiment of the present invention. 図12Bは、本発明の好ましい実施形態による、図11Aに示された波形を図10のカメラに適用することにより得られた一連の距離依存画像フィルタ関数の概略図である。12B is a schematic diagram of a series of distance-dependent image filter functions obtained by applying the waveform shown in FIG. 11A to the camera of FIG. 10 according to a preferred embodiment of the present invention. 図13は、本発明の好ましい実施形態による、図10の線画像カメラに基づく地形画像形成システムの概略図である。13 is a schematic diagram of a terrain imaging system based on the line image camera of FIG. 10, according to a preferred embodiment of the present invention. 図14は、本発明のいま一つの好ましい実施形態による、図10の線画像形成カメラに基づくイメージ走査システムの概略図である。14 is a schematic diagram of an image scanning system based on the line imaging camera of FIG. 10, according to another preferred embodiment of the present invention. 図15は、本発明のいま一つの好ましい実施形態による、光学測距線画像カメラの概略図である。FIG. 15 is a schematic diagram of an optical ranging image camera according to another preferred embodiment of the present invention. 図16は、本発明の好ましい実施形態による図10の線画像カメラの検知アレイとともに使用するための、カラーストライプフィルタの概略図である。16 is a schematic diagram of a color stripe filter for use with the sensing array of the line image camera of FIG. 10 according to a preferred embodiment of the present invention. 図17Aは、本発明のさらに好ましいいま一つの実施形態による、光学測距カメラの概略図である。FIG. 17A is a schematic diagram of an optical ranging camera according to another more preferred embodiment of the present invention. 図17Bは、本発明の好ましい実施形態による、多重距離ウインドウを生成するために図17Aのカメラに使用される検知アレイの部分概略図である。FIG. 17B is a partial schematic diagram of a sensing array used in the camera of FIG. 17A to generate a multi-range window, according to a preferred embodiment of the present invention.

図1を参照すると、同日に出願されるとともに本発明の参照文献としてあげられた二番目に言及した上記PCT出願に記載されている、本発明の好ましい実施形態の光学測距カメラが示されている。カメラ20は検知アレイ22、好ましくはニューヨーク、ロチェスタのイーストマン・コダック(Eastman Kodak)社製のKAF 0400 CCDアレイ、カリフォルニア州サニーベイルのイー・ジー・アンド・ジー(EG&G)レチコン(Reticon)社製のHS 0512J CCDアレイのようなCCDアレイを含んでいる。CCD22により発生された信号はビデオプロセッサ24により処理され、それは好ましくは上記カメラにより撮像された情景26の三次元デジタル画像、もしくは目的の物体までの距離が以下に述べるように示されている二次元ビデオ画像を生成する。
カメラ20はさらに光学系28を有しており、それは情景26から受けた光を変調する。光学系28は入射絞り30、集光レンズ32、光変調器34、焦点レンズ36および出射絞り38を含んでいる。絞り30および集光レンズ32はテレセントリック(telecentric)光学系を形成しており、レンズ32は情景26から受けた光を変調器34に平行に入射する。光学変調器34は好ましくは、従来周知の結晶KDPもしくはほかの適当な材料からなる光電変調器を含んでいるが、それに代えて、音響光学変調器、液晶シャッタもしくは高速機械式シャッタのような、従来周知の他のタイプの光変調器を含んでいてもよい。説明の簡単化のため、光学系28はここでは図式的に示されているが、実際は、カメラ20は一般に他のレンズおよびまたは周知のほかの光学要素を含んでいることが理解されるであろう。
Referring to FIG. 1, there is shown an optical ranging camera of a preferred embodiment of the present invention as described in the second mentioned PCT application filed on the same day and cited as a reference of the present invention. Yes. Camera 20 is a sensing array 22, preferably a KAF 0400 CCD array from Eastman Kodak, Rochester, New York, manufactured by EG & G Reticon, Sunnyvale, CA. Includes a CCD array, such as the HS 0512J CCD array. The signal generated by the CCD 22 is processed by a video processor 24, which preferably is a three-dimensional digital image of the scene 26 imaged by the camera, or a two-dimensional image whose distance to the object of interest is shown below. Generate a video image.
The camera 20 further includes an optical system 28 that modulates the light received from the scene 26. The optical system 28 includes an entrance stop 30, a condenser lens 32, a light modulator 34, a focus lens 36, and an exit stop 38. The aperture 30 and the condenser lens 32 form a telecentric optical system, and the lens 32 enters the light received from the scene 26 into the modulator 34 in parallel. The optical modulator 34 preferably includes a photoelectric modulator made of a conventionally known crystal KDP or other suitable material, but instead, such as an acousto-optic modulator, a liquid crystal shutter or a high speed mechanical shutter, Other types of light modulators known in the art may be included. For ease of explanation, the optical system 28 is shown schematically here, but in practice it will be understood that the camera 20 generally includes other lenses and / or other known optical elements. Let's go.

カメラ20はまた、好ましくは、カリフォルニア州、シティ・オブ・インダストリ(City of Industry)のオプト・パワー・コーポレーション(Opto Power Corporation)製のOPC−1003−813レーザダイオードのような、高出力レーザダイオードを有する光源40を含むとともに、上記レーザダイオードによる情景26のほぼ均一な照明を得るために、周知の適当な光学系を含んでいる。それに代えて、光源40は他の適当なレーザを有していてもよく、また、例えばストロボランプ(strobe lamp)のようなインコーヒーレントな光源を有していてもよい。駆動回路42は、光源40に入力パワーを供給する。変調器34と同じタイプのものであってもよい光変調器44は、情景26の照明を変調するために光源40と連携している。さらに、駆動回路42は、さらなる変調器44の必要なしに上記情景の照明を変調するように光源に適当に変調された入力パワーを供給するようにしてもよい。   The camera 20 is also preferably a high power laser diode, such as an OPC-1003-813 laser diode from Opto Power Corporation of City of Industry, California. In order to obtain a substantially uniform illumination of the scene 26 by the laser diode, a suitable optical system known in the art is included. Alternatively, the light source 40 may include other suitable lasers and may include an incoherent light source such as a strobe lamp. The drive circuit 42 supplies input power to the light source 40. A light modulator 44, which may be of the same type as the modulator 34, is associated with the light source 40 to modulate the illumination of the scene 26. Further, the drive circuit 42 may provide appropriately modulated input power to the light source so as to modulate the illumination of the scene without the need for a further modulator 44.

コントローラ46は、上記情景から反射された光およびアレイ22に入射する光を変調するために、変調器34を制御するとともに、変調器44およびまたは回路42により、情景26の照明の変調を制御する。好ましくは、コントローラ46はビデオプロセッサ24と通信し、照明および反射光の変調が、以下に述べるように、適宜、変化するようにしてもよい。   The controller 46 controls the modulator 34 to modulate the light reflected from the scene and the light incident on the array 22 and also controls the modulation of the illumination of the scene 26 by the modulator 44 and / or circuit 42. . Preferably, the controller 46 communicates with the video processor 24 so that the illumination and reflected light modulation may vary accordingly as described below.

図2Aは、同日に出願され、本願の参照文献として挙げる上記の二番目のPCT特許出願に記載されている、テレセントリック光学測距カメラ50を含む、本発明の他の好ましい実施形態を示している。カメラ50は検知アレイ22,光学系28および光源40を含んでいる。カメラ50は一般にカメラ20と同様のものであるが、それとは、カメラ50では、共通の変調器52は光源40からの照明と情景26からアレイ22に戻る反射光との両方を変調するという点で、第1に相違している。変調器52は好ましくはKDP結晶、もしくはそれに代えて、上記したような他の適切なタイプの変調器を含んでいる。光源40からの照明光は投射レンズ54により実質的に平行光とされ、ビーム結合器58を使用して、光軸56と照準規正されている。   FIG. 2A shows another preferred embodiment of the present invention, including a telecentric optical ranging camera 50, filed on the same day and described in the second PCT patent application mentioned above, which is incorporated herein by reference. . Camera 50 includes sensing array 22, optical system 28, and light source 40. Camera 50 is generally similar to camera 20, except that in camera 50, a common modulator 52 modulates both the illumination from light source 40 and the reflected light returning from scene 26 back to array 22. The first difference is that. Modulator 52 preferably includes a KDP crystal, or alternatively, any other suitable type of modulator as described above. Illumination light from the light source 40 is substantially collimated by the projection lens 54 and is collimated with the optical axis 56 using a beam combiner 58.

変調器52は、共通の変調波形を照明光と反射光の両方に印加するために使用されてもよい。本発明の好ましい実施形態ではしかしながら、変調器52は多重光、好ましくは、照明光に印加される第1波形および反射光に印加される第2波形を、以下に述べるように印加するためにコントローラ46により駆動される。   The modulator 52 may be used to apply a common modulation waveform to both illumination light and reflected light. In a preferred embodiment of the present invention, however, the modulator 52 is a controller for applying multiple light, preferably a first waveform applied to the illumination light and a second waveform applied to the reflected light as described below. 46 is driven.

上記第1および第2波形がそれぞれ印加される一方、変調器52は照明光と反射光との両方を無差別に一般に伝送することが分かるであろう。好ましくは、従って、ビデオプロセッサ24はアレイ22を制御し、上記アレイは第2波形による変調器52により伝送された光にのみ応答して信号を発生する。従って、例えば、アレイ22が上に述べたようなCCDアレイを含む、本発明の好ましい実施形態では、ビデオプロセッサ24が上記アレイの電子シャッタを、周知のように、上記第2波形と同期して駆動する。同様に、駆動回路42は好ましくは、上記第1波形と同期して光源40を駆動する。   It will be appreciated that while the first and second waveforms are respectively applied, the modulator 52 generally transmits both illumination light and reflected light indiscriminately. Preferably, therefore, video processor 24 controls array 22, which generates a signal only in response to light transmitted by modulator 52 according to the second waveform. Thus, for example, in a preferred embodiment of the present invention where array 22 includes a CCD array as described above, video processor 24 synchronizes the electronic shutter of the array with the second waveform, as is well known. To drive. Similarly, the drive circuit 42 preferably drives the light source 40 in synchronization with the first waveform.

図2Bは、テレセントリック光学測距カメラ59を含む、本発明のさらにいま一つの好ましい実施形態を示している。カメラ59は、該カメラ59が反射光を変調する変調器52と独立して情景26の照明光を変調するための変調器44を含んでいることを除いて、図2Aに示されたカメラ50と同じである。従って、カメラ20に印加される変調波形は、以下に述べるように、テレセントリックカメラ59にまた印加されても、同様の結果を得る。   FIG. 2B shows yet another preferred embodiment of the present invention that includes a telecentric optical ranging camera 59. The camera 59 includes a modulator 44 for modulating the illumination light of the scene 26 independently of the modulator 52 that modulates the reflected light, and the camera 50 shown in FIG. 2A. Is the same. Therefore, the same result is obtained when the modulation waveform applied to the camera 20 is also applied to the telecentric camera 59 as described below.

図2Cは、2つの検知アレイ22および65を有するテレセントリック光学測距カメラ64を含む、本発明のさらにいま一つの好ましい実施形態を示している。検知アレイ22は、実質的に図2Bの検知アレイに関して記載されるとともに上記した他の好ましい実施形態で記載されているような、変調器52により変調される光を受光する。アレイ65はしかしながら、上記情景からの反射の後に変調されない情景26からの光を受光する。アレイ65は、ビームスプリッタ66により、アレイ22で照準規正される。画像レンズ67および出射絞り68は従って、アレイ65の上に情景26の変調されない画像を形成し、その画像は好ましくはアレイ22の上に形成された実質的に(変調された)画像とともに登録される。   FIG. 2C shows yet another preferred embodiment of the present invention that includes a telecentric optical ranging camera 64 having two sensing arrays 22 and 65. The sensing array 22 receives light that is modulated by the modulator 52, substantially as described with respect to the sensing array of FIG. 2B and as described in the other preferred embodiments described above. Array 65, however, receives light from scene 26 that is not modulated after reflection from the scene. The array 65 is aimed at the array 22 by a beam splitter 66. Image lens 67 and exit stop 68 thus form an unmodulated image of scene 26 on array 65, which is preferably registered with a substantially (modulated) image formed on array 22. The

カメラ59に関して上で注意したように、カメラ20に印加される変調波形が、以下に述べるように、カメラ64にまた印加されても、アレイ22により受光される画像に関して同様の結果を得る。アレイ65により受光される非変調画像の有用性はまた、以下に述べるであろう。   As noted above with respect to camera 59, the modulation waveform applied to camera 20 is also applied to camera 64, as described below, with similar results for images received by array 22. The usefulness of unmodulated images received by the array 65 will also be described below.

図1,図2A,図2Bおよび図2Cに図示された好ましい実施形態はテレセントリック画像エレメントを含んでいるが、本発明の原理は上記した一番目のPCT特許出願に示されるとともに記載されているような、ノンテレセントリック光学測距カメラに同様に印加できることが理解されるであろう。   Although the preferred embodiment illustrated in FIGS. 1, 2A, 2B and 2C includes a telecentric image element, the principles of the present invention are as shown and described in the first PCT patent application mentioned above. It will be appreciated that it can be applied to non-telecentric optical ranging cameras as well.

図3は、情景26の照明光とそれからの反射光をそれぞれ変調するように、図1に示された、変調器44および34を駆動するために使用される波形を図式的に示している。両波形は、好ましくは図示されているように、矩形パルス波形を有している。各々の波形がその高い値にあるときには、各々の変調器は光がそれを通過させる。上記波形がその低い値にあるときには、上記変調器は光を遮断する。好ましくは、両波形60および62は、期間Tの間、それらの高い値を維持して、各々の上記変調器を開き、変調器34が開くタイミングが上記変調器44のタイミングに関して時間τだけ遅れている。   FIG. 3 schematically shows the waveforms used to drive the modulators 44 and 34 shown in FIG. 1 to modulate the illumination light of the scene 26 and the reflected light therefrom, respectively. Both waveforms preferably have a rectangular pulse waveform, as shown. When each waveform is at its high value, each modulator passes light through it. When the waveform is at its low value, the modulator blocks light. Preferably, both waveforms 60 and 62 maintain their high values during period T to open each of the modulators and the timing at which modulator 34 opens is delayed by time τ with respect to the timing of modulator 44. ing.

図3の波形は矩形であるが、他の波形もまた使用することができ、そのいくつかの例を以下に述べる。図3のパルス波形は以下の説明の簡単のために理想化されているが、かかる理想化されたパルス波形は本発明の動作には不要であることはまた理解されるであろう。   Although the waveform of FIG. 3 is rectangular, other waveforms can also be used, some examples of which are described below. It will also be appreciated that although the pulse waveform of FIG. 3 is idealized for simplicity of the following description, such idealized pulse waveform is not required for operation of the present invention.

図4は、図1に示すようなカメラ20により撮影された情景70の模式図であり、上記カメラは図3に示された波形により制御される。情景70は、カメラ20からそれぞれ距離D1,D2およびD3に配置された第1被写体72,第2被写体74および第3被写体76を含む複数の物体を含んでいる。被写体72,74および76はカメラ20に設けられている光源40により照明され、それらはほぼカメラに向かって反射し、該反射光は光学系28により集光されるとともに検知アレイ22上に収束される。変調器34および44がCWモード、すなわち、一定の開きで動作する期間を考えると、上記各被写体からの反射光はそれぞれの被写体の画像が結像される上記検知アレイの一以上のエレメントにおいてそれぞれ実質的に一定な照射を生成する。上記照射のレベルは、とりわけ、カメラからのそれぞれの被写体の距離および上記被写体の特別な放射率とほぼ関数関係を有している。これらの実質的に一定の光の照射に応じて、検知アレイ22のエレメントは各々のベースライン信号レベルS1,S2およびS3を発生する。   FIG. 4 is a schematic diagram of a scene 70 photographed by the camera 20 as shown in FIG. 1, and the camera is controlled by the waveform shown in FIG. The scene 70 includes a plurality of objects including a first subject 72, a second subject 74, and a third subject 76 disposed at distances D1, D2, and D3 from the camera 20, respectively. The subjects 72, 74 and 76 are illuminated by the light source 40 provided in the camera 20, they are reflected almost toward the camera, and the reflected light is collected by the optical system 28 and converged on the detection array 22. The Considering the period in which the modulators 34 and 44 operate in the CW mode, that is, with a constant opening, the reflected light from each subject is reflected in one or more elements of the detection array on which the image of the subject is formed. Produces a substantially constant illumination. The level of illumination has approximately a functional relationship, inter alia, with the distance of each subject from the camera and the special emissivity of the subject. In response to these substantially constant illuminations, the elements of the sensing array 22 generate their respective baseline signal levels S1, S2 and S3.

変調器34および44が波形62および60により駆動されるときには、それぞれ、しかしながら、被写体72,74および76から反射された光に応じてアレイ22により発生される信号は、各被写体に到達してカメラ20に戻るのに光源40により発射された光に対して要求される伝播時間のために、上記ベースライン信号とは異なっている。この伝播時間は一般にti=2Di/cで表され、ここでcは光速であり、添え字iは情景70中のi番目の被写体を表している。   When the modulators 34 and 44 are driven by the waveforms 62 and 60, respectively, however, the signal generated by the array 22 in response to the light reflected from the subjects 72, 74 and 76 reaches each subject and reaches the camera. Due to the propagation time required for light emitted by the light source 40 to return to 20, it differs from the baseline signal. This propagation time is generally represented by ti = 2Di / c, where c is the speed of light, and the subscript i represents the i-th subject in the scene 70.

図3に示されるように、Tおよびτの値の選択は、最小距離および最大距離、DminおよびDmaxによりそれぞれ区画される距離ウインドウ78を規定しており、ここでDmin=(τ−T)c/2およびDmax=(τ+T)c/2であり、τ<Tでないときには、Dmin=0である。変調器34および44が示されているように動作しているときには、D3>Dmaxである被写体76のような、ウインドウ78の外にある被写体からの光は変調器34により拒絶され、従ってアレイ22はかかる被写体に対応する実質的な信号を発生しない。   As shown in FIG. 3, the selection of values for T and τ defines a distance window 78 partitioned by a minimum distance and a maximum distance, Dmin and Dmax, respectively, where Dmin = (τ−T) c. / 2 and Dmax = (τ + T) c / 2, and when τ <T, Dmin = 0. When the modulators 34 and 44 are operating as shown, light from subjects outside the window 78, such as the subject 76 where D3> Dmax, is rejected by the modulator 34 and thus the array 22 Does not generate a substantial signal corresponding to such a subject.

さらに、図5に示すように、被写体72もしくは74のようなウインドウ78内の物体に応答してアレイ22により発生される信号Iiの強さは、カメラからの被写体の距離に実質的にリニアに依存する。被写体72および74にそれぞれ対応する信号I1およびI2は、ほぼ次式により正規化される。
Ii=Ii/Siτf (1)
ここで、Iiはi番目の被写体による非正規化信号であり、fはアレイ22がサンプリングされる適当なフィールドレートもしくはフレームレートである。
Further, as shown in FIG. 5, the intensity of the signal Ii generated by the array 22 in response to an object in the window 78, such as the subject 72 or 74, is substantially linear with the distance of the subject from the camera. Dependent. The signals I1 and I2 corresponding to the subjects 72 and 74, respectively, are normalized by the following expression.
Ii = Ii / Siτf (1)
Here, Ii is a denormalized signal from the i-th subject, and f is an appropriate field rate or frame rate at which the array 22 is sampled.

上記ベースライン信号レベルSiは、上記したように、変調器34および44が一時的に開いている間に、検知アレイ22により得られる。さらに、図2Cに示されるように、カメラ64内の検知アレイ65はこれらのベースライン信号を得るために使用されてもよい。アレイ22に入射する光は、上記したように、距離情報を得るために変調される一方、上記アレイ65に入射する光は(光源40が変調される大きさを除いて)実質的に変調されない。従って、距離に応じた信号Iiおよびベースライン信号Siは同時に得られる。   The baseline signal level Si is obtained by the sensing array 22 while the modulators 34 and 44 are temporarily open, as described above. Further, as shown in FIG. 2C, the sensing array 65 in the camera 64 may be used to obtain these baseline signals. Light incident on the array 22 is modulated to obtain distance information, as described above, while light incident on the array 65 is substantially unmodulated (except for the magnitude at which the light source 40 is modulated). . Therefore, the signal Ii and the baseline signal Si corresponding to the distance are obtained simultaneously.

Tおよびτがフィールドもしくはフレーム期間、1/fよりも実質的に小さく選ばれた、本発明の好ましいくつかの実施形態ではしかしながら、図3に示された波形は単一のフィールドもしくはフレームの間に引き続いて多数回、繰り返されてもよい。この場合、非正規化信号Iiは回数に比例して増加し、上記波形は各フィールドもしくはフレームの間に繰り返され、その増加は上記カメラにより捕捉された画像のS/N比を典型的に改善する。周知のように、Nを回数とすると、波形は単一のフィールドの間に繰り返され、上記ノイズが光源に支配されているか回路に支配されているかに応じて、S/N比が改善される値は典型的にNの平方根とNとの間の範囲内の値になる。Tおよびτは両方とも典型的に1マイクロセコンドよりも短いので、波形は約16ミリセコンドの単一のビデオフィールドの間に1000回(もしくはそれ以上)、好ましくは繰り返されてもよく、それにより30もしくはそれ以上のファクタのS/Nの改善がなされる。   In some preferred embodiments of the present invention, where T and τ are chosen to be substantially less than 1 / f, the field or frame period, however, the waveform shown in FIG. It may be repeated many times in succession. In this case, the denormalized signal Ii increases in proportion to the number of times, and the waveform is repeated during each field or frame, which increase typically improves the signal-to-noise ratio of the image captured by the camera. To do. As is well known, if N is the number of times, the waveform is repeated during a single field, and the S / N ratio is improved depending on whether the noise is dominated by the light source or the circuit. The value will typically be in a range between the square root of N and N. Since T and τ are both typically less than 1 microsecond, the waveform may be repeated 1000 times (or more), preferably about 16 milliseconds (or more), so that An improvement in S / N of a factor of 30 or more is made.

カメラ20からの距離に対する正規化された信号のリニアな関数依存性は、波形60が各々の被写体に到達して上記カメラに戻ってくるように光源40により発射された光に対して要求される時間2Di/cだけ効果的に遅延された後の、照明光60の反射光の変調波形62との変化するオーバラップの結果である。この機能は、被写体が距離Di=τc/2にあるときに最大値を有するとともに、Tに比例する幅(Dmax−Dmin)を有している。カメラ20からウインドウ78内の被写体までの距離は従って、上記被写体に応じて発生された正規化信号から決定される。例えば上記ウィンドウの中心近くに位置する被写体72による上記正規化信号I1は、カメラからより大きな距離に位置している被写体74によるI2よりも実質的に大きい。 The linear function dependence of the normalized signal with respect to the distance from the camera 20 is required for the light emitted by the light source 40 so that the waveform 60 reaches each subject and returns to the camera. This is a result of a changing overlap with the modulation waveform 62 of the reflected light of the illumination light 60 after being effectively delayed by time 2Di / c. This function has a maximum value when the subject is at the distance Di = τc / 2, and has a width (Dmax−Dmin) proportional to T. The distance from the camera 20 to the subject in the window 78 is thus determined from the normalized signal generated according to the subject. For example, the normalized signal I1 due to the subject 72 located near the center of the window is substantially larger than I2 due to the subject 74 located at a greater distance from the camera.

波形60および62は上では等しい幅Tを有しているとして説明されているが、それに代えて、これらの波形はそれぞれT60およびT62の幅を有していてもよい。例えば、T60もしくはT62はより強力な信号I1およびI2を供給するために延長されてもよい。しかしながら、その結果、被写体距離に対する正規化信号の関数依存性はもはや図5に示される三角形状を有し、どちらかといえば台形状になり、上記ウインドウの中心部における距離の差が識別されない。従って、本発明の好ましい実施形態では、波形60および62の幅は等しい。被写体距離を決定するこの方法は、本発明の参照文献として挙げる上記したPCT特許出願にさらに説明されている。これらのPCT特許出願に記載されているように、他の変調波形が変調器34および44を駆動するために同様に使用されてもよいが、被写体距離に対する正規化信号の一般的な依存性およびここで説明されているようなカメラ20の適用が図3に示された矩形のパルス波形を参照することにより最も容易に説明される。   Although waveforms 60 and 62 are described above as having equal width T, alternatively, these waveforms may have widths of T60 and T62, respectively. For example, T60 or T62 may be extended to provide stronger signals I1 and I2. However, as a result, the function dependence of the normalized signal with respect to the subject distance no longer has the triangular shape shown in FIG. 5, which is rather trapezoidal, and the difference in distance at the center of the window is not identified. Thus, in the preferred embodiment of the present invention, the widths of the waveforms 60 and 62 are equal. This method of determining subject distance is further described in the above-mentioned PCT patent application cited as a reference for the present invention. As described in these PCT patent applications, other modulation waveforms may be used to drive modulators 34 and 44 as well, but the general dependence of the normalized signal on subject distance and Application of the camera 20 as described herein is most easily described by reference to the rectangular pulse waveform shown in FIG.

波形60および62は理想的な矩形形状を有しているとして示されているが、実際は、変調器34および44により投射光および反射光に与えられる波形はそれぞれ、例えば図6Aの下に図示されているように、有限の立ち上がり時間および立ち下がり時間を有している。その結果、応答関数のコーナは図5に示されているような鋭い形よりもむしろ、まるくなる。本発明の原理はしかしながら、ほかの理想的でない波形が使用されるときにも等しく適用することができる。   Although the waveforms 60 and 62 are shown as having an ideal rectangular shape, in practice, the waveforms provided to the projected and reflected light by the modulators 34 and 44, respectively, are illustrated, for example, below FIG. 6A. As shown, it has a finite rise time and fall time. As a result, the corners of the response function are rounded rather than sharp as shown in FIG. The principles of the present invention, however, are equally applicable when other non-ideal waveforms are used.

上記の議論から、ウィンドウ78の中心位置はτを変化させることにより制御されてもよく、上記ウインドウの幅はTを変化させることにより制御されてもよいことがまた理解されるであろう。好ましくは、目的の被写体が情景中で識別されたときに、自動的もしくはカメラのオペレータの命令により、ウインドウの中心の近くに目的の被写体が維持されるように、τがコントローラ46により適宜に制御され、そのとき上記被写体による上記正規化信号は最大である。   It will also be appreciated from the above discussion that the center position of the window 78 may be controlled by changing τ and the width of the window may be controlled by changing T. Preferably, when the target object is identified in the scene, τ is appropriately controlled by the controller 46 so that the target object is maintained near the center of the window automatically or by the command of the camera operator. At that time, the normalized signal by the subject is maximum.

さらに、Tは好ましくは、目的の被写体があるカメラからの被写体距離の範囲のみを含むようにウインドウ78の幅を制限するように、コントローラ46により制御される。Tに対するこの制限は、図5に示すように、距離に対する正規化された信号の依存性の傾斜を増加させることにより、異なった距離にある被写体間の正規化信号の相違がより大きくなり、被写体距離決定の精度を増加させるのに有用である。Tを制限することは、例えば図4の被写体76のように、興味のない物体を、アレイ22により得られた画像から消去することにより、画像の「輻輳」を削減するのにさらに有用である。   Further, T is preferably controlled by the controller 46 to limit the width of the window 78 to include only the range of subject distances from the camera where the subject is located. This limitation on T, as shown in FIG. 5, increases the difference in normalized signal between subjects at different distances by increasing the slope of the dependence of the normalized signal on distance. Useful for increasing the accuracy of distance determination. Limiting T is further useful to reduce image “congestion” by erasing uninteresting objects from the image obtained by the array 22, such as subject 76 of FIG. .

本発明のいくつかの好ましい実施形態では、τおよびTは被写体のダイナミックレンジおよびカメラ20による距離検知を最適化するために、コントローラ46により制御される。例えば、情景が上記カメラからの異なった距離にある目的のいくつかの被写体を含んでいるときに、τおよびTはほぼ上記カメラから最も遠い被写体の距離にウインドウの中心をシフトさせるように制御するようにしてもよい。周知のように、被写体から反射された光によりアレイ22に生成される放射照度は、ほぼカメラから被写体の3乗もしくは4乗減少する。従って、最も遠い被写体に応じて発生される(非正規化された)信号は一般に、最も弱い信号であって、ウインドウの中心を最も遠い被写体の距離にシフトすることはこの信号のダイナミックレンジを最小化するのを助ける。同様に、被写体の一つがいま他の被写体よりも実質的に低い反射率を有していると、上記ウインドウがそれによる信号のダイナミックレンジを広げるように、低い反射率の被写体に中心が合わされるようにしてもよい。   In some preferred embodiments of the invention, τ and T are controlled by controller 46 to optimize subject dynamic range and distance detection by camera 20. For example, when the scene contains several objects of interest at different distances from the camera, τ and T are controlled to shift the window center to the distance of the object farthest from the camera. You may do it. As is well known, the irradiance generated in the array 22 by the light reflected from the subject is substantially reduced to the third or fourth power of the subject from the camera. Thus, the signal generated (denormalized) in response to the farthest subject is generally the weakest signal, and shifting the window center to the farthest subject distance minimizes the dynamic range of this signal. To help. Similarly, if one of the subjects now has a substantially lower reflectivity than the other subject, the window will be centered on the low reflectivity subject so that the window will expand the dynamic range of the signal thereby. You may do it.

図6Aは本発明の他の好ましい実施形態のタイミングダイヤグラムであり、照明光を変調するために印加される波形60、および反射光を変調するために印加される波形62は、ほぼ台形の形状を有しており、図3の理想化された矩形パルスよりもより実際に近い変調波形を含んでいる。さらに、波形60の持続時間T60は実質的に、波形62の持続時間T62よりも長い。   FIG. 6A is a timing diagram of another preferred embodiment of the present invention, wherein the waveform 60 applied to modulate the illumination light and the waveform 62 applied to modulate the reflected light have a substantially trapezoidal shape. And includes a modulation waveform that is closer to reality than the idealized rectangular pulse of FIG. Further, the duration T60 of the waveform 60 is substantially longer than the duration T62 of the waveform 62.

図6Bは、カメラ20が図6Aの波形に従って動作しているときに、図4に示されるように、被写体72,74および76から受けた正規化された信号強度Iiを図式的に示している。Dminよりも小さい距離にある被写体に対する正規化信号は、上記したように、実質的にゼロに等しい。距離D3にある被写体76のように、Dmidよりも大きくDmaxまでの距離にある被写体に対して、正規化信号は実質的に1に等しい。DmidはT62および波形60および62の立ち上がり時間に大きく依存する。Dmaxは時間τおよびT60の和に依存する。好ましくは、Dmaxは情景中の最も遠い重要な被写体のカメラ20からの距離よりも大きくなるように選択される。さらには、DmaxはDmax>c/fとなるように選ばれてもよく、ここで前に述べたように、cは光速であり、fはカメラのフィールドレートもしくはフレームレートであり、従って、Dmicよりも大きい距離にある全ての物体は実質的に1に等しい正規化された信号を与える。   FIG. 6B schematically shows the normalized signal strength Ii received from the subjects 72, 74 and 76 as shown in FIG. 4 when the camera 20 is operating according to the waveform of FIG. 6A. . The normalized signal for a subject at a distance smaller than Dmin is substantially equal to zero, as described above. For a subject at a distance greater than Dmid and up to Dmax, such as subject 76 at distance D3, the normalized signal is substantially equal to one. Dmid is highly dependent on the rise time of T62 and waveforms 60 and 62. Dmax depends on the sum of time τ and T60. Preferably, Dmax is selected to be larger than the distance from the camera 20 of the farthest important subject in the scene. Further, Dmax may be chosen such that Dmax> c / f, where c is the speed of light and f is the camera field rate or frame rate, as previously described, and thus Dmic. All objects at greater distances will give a normalized signal substantially equal to one.

このように、DminとDmidとの間の目的の距離範囲内で、正規化された上記信号は単調増加関数であり、それに基づいて、被写体72および74の各々の距離D1およびD2は本発明の原理に基づいて決定される。この範囲の外側の距離にある被写体は好ましくは無視される。上記範囲はT62を変化させることにより増加もしくは減少させるようにしてもよい。目的の範囲内の被写体に対して、正規化された信号の各値は、図5に示された関数と異なり、唯一の距離に対応しており、その中では0と1との間にある正規化された信号の与えられた値は二つの異なった被写体の距離に対応する。図5の図式において、これらの二つの距離はそのとき、他の手段、例えば異なった距離ウインドウを使用して得られる結果を比較することにより、一方を他方から一般的に区別されなければならない。   Thus, within the desired distance range between Dmin and Dmid, the normalized signal is a monotonically increasing function, based on which the distances D1 and D2 of each of the objects 72 and 74 are It is determined based on the principle. Subjects at distances outside this range are preferably ignored. The above range may be increased or decreased by changing T62. For a subject within the target range, each value of the normalized signal corresponds to a unique distance, unlike the function shown in FIG. 5, in which it is between 0 and 1 The given value of the normalized signal corresponds to the distance between two different subjects. In the diagram of FIG. 5, these two distances must then generally be distinguished from one another by comparing the results obtained using other means, for example using different distance windows.

図7は本発明の一つの好ましい実施形態を示しており、この図7において、カメラ20は情景70内の距離ウインドウ78からの三次元画像情報を得ており、該ウインドウの中心距離および幅は適宜に制御される。好ましくは、カメラ20は最初、上記したように、変調器34および44がCWモードで動作する間に、二次元画像データを受信する。上記画像データは画像解析器80により受信され、該画像解析器80は情景70内の被写体を識別するとともに、操作卓82および連携するビデオディスプレイ84を経由してオペレータにビデオ画像を提供する。画像解析器80および操作卓82は好ましくは、周知のように、画像処理に適合する一台以上のデジタルコンピュータを含んでいる。オペレータは、操作卓82と連携する、好ましくはトラックボール、マウスもしくは他の周知のポインティング入力装置を使用して、少なくとも一つの目的の被写体、例えば被写体72を情景70内で識別し、画像解析器80およびまたは別のシステムコントローラ86に対して被写体を指定したり指示する。   FIG. 7 illustrates one preferred embodiment of the present invention, in which the camera 20 obtains 3D image information from a distance window 78 in the scene 70, the center distance and width of the window being It is controlled appropriately. Preferably, camera 20 initially receives two-dimensional image data while modulators 34 and 44 operate in CW mode, as described above. The image data is received by the image analyzer 80, which identifies the subject in the scene 70 and provides a video image to the operator via the console 82 and the associated video display 84. Image analyzer 80 and console 82 preferably include one or more digital computers adapted for image processing, as is well known. An operator identifies at least one object of interest, such as object 72, in scene 70, preferably using a trackball, mouse or other well-known pointing input device in conjunction with console 82, and an image analyzer. The subject is designated or instructed to 80 and / or another system controller 86.

いったん、目的の被写体が識別されると、システムコントローラ86は被写体72に関する初期距離の読みを要求する。図7に示されているように、この初期距離の読みは、例えばレーザ測距装置のような周知の測距装置88で被写体72を狙い、それから距離の読みを受けることにより得ることができる。該初期距離の読みは、τおよびTの適切な値を決定して好ましくは被写体72の距離に中心を有する所望の距離ウインドウを生成するためにシステムコントローラ86により使用される。   Once the target subject is identified, the system controller 86 requests an initial distance reading for the subject 72. As shown in FIG. 7, the initial distance reading can be obtained by aiming the subject 72 with a known distance measuring device 88 such as a laser distance measuring device and receiving the distance reading therefrom. The initial distance reading is used by the system controller 86 to determine appropriate values for τ and T to generate a desired distance window, preferably centered on the distance of the subject 72.

本発明のさらに好ましい実施形態では、システムコントローラ86は、測距装置88を使用することなく、初期距離の読みを得ている。好ましくは、変調器34および44は、相対的にTの大きい値を使用して、被写体72の推定された距離に中心が合わされた広いウインドウを与えるように、コントローラ46により制御される。被写体72の距離がうまく推定されないときには、上記初期距離がみつかるまで、異なった距離で複数のウインドウを発生するようにτが所定の数値範囲にわたってスキャンされるようにしてもよい。その後、Tは好ましくは狭められて、上記ウインドウは被写体72および目的の他の被写体を含む距離範囲により近く絞り込まれ、上記したように、これらの被写体までの距離が最適な精度で決定されるとともに画像の輻輳が削減されるようにしてもよい。   In a further preferred embodiment of the present invention, the system controller 86 obtains an initial distance reading without using the ranging device 88. Preferably, modulators 34 and 44 are controlled by controller 46 to provide a wide window centered at the estimated distance of subject 72 using a relatively large value of T. When the distance of the subject 72 is not estimated well, τ may be scanned over a predetermined numerical range so as to generate a plurality of windows at different distances until the initial distance is found. Thereafter, T is preferably narrowed so that the window is narrowed closer to the range of distances including subject 72 and the other subject of interest, and as described above, the distance to these subjects is determined with optimum accuracy. Image congestion may be reduced.

上記した好ましい実施形態では、目的の被写体は最初、オペレータによりインタラクティブに識別されているが、本発明の他の実施形態では、画像解析器80が予めプログラムされた画像の属性に基づいて、自立的に目的の被写体を識別するようにしてもよい。例えば、上記画像解析器は、従来周知の画像解析およびまたは自動標的認識の手法を使用して、車両、人もしくは構築物を識別するようにプログラムされてもよい。これらの識別情報がシステムコントローラ86に運ばれると、該システムコントローラ86が測距装置88およびまたはカメラ20を制御し、識別された被写体までの距離を求めて決定するようにしてもよい。   In the preferred embodiment described above, the object of interest is initially identified interactively by the operator, but in other embodiments of the invention, the image analyzer 80 is self-supporting based on pre-programmed image attributes. Alternatively, the target subject may be identified. For example, the image analyzer may be programmed to identify a vehicle, person or structure using conventionally known image analysis and / or automatic target recognition techniques. When these pieces of identification information are conveyed to the system controller 86, the system controller 86 may control the distance measuring device 88 and / or the camera 20 to obtain and determine the distance to the identified subject.

しかしながら、目的の少なくとも一つの被写体が識別されてその初期距離がみつけられると、その後は画像解析器80が好ましくは被写体およびそのカメラからの距離を追跡し続ける。システムコントローラ86は、実質的に被写体に中心を有する、所望の幅でウインドウ78を維持するようにτおよびTを適宜、変化させる。   However, once at least one subject of interest has been identified and its initial distance has been found, then image analyzer 80 preferably continues to track the subject and its distance from the camera. System controller 86 varies τ and T as appropriate to maintain window 78 at a desired width substantially centered on the subject.

図8Aおよび図8Bは本発明の一つの好ましい実施形態を図式的に示しており、該実施形態において、カメラ20は所望の画像を生成するために、周知の画像プロセッサ90とともに使用されている。   FIGS. 8A and 8B schematically illustrate one preferred embodiment of the present invention, in which the camera 20 is used with a well-known image processor 90 to generate the desired image.

混合画像は、別に撮影された背景の前に、典型的には人物であり、その画像はビデオカメラにより撮影される目的の被写体を人工的に挿入するために、エンタテイメントや、ニュースの報道で共通して使用される。目的の人物もしくは他の被写体の画像は一般に、周知の、予め定められた色、典型的には青の背景に対して得られなければならない。目的の人物もしくは他の被写体の画像が得られた後、それは色彩固定(chroma−keyed)される、すなわち、予め定められた色の画像中の全ての画素が同定され、別に得られた背景画像が上記の色が同定された画素で、画素毎に置換される。この色彩固定法は、予め定められた色の背景が人物もしくは目的の被写体の背後で固定されること、目的の人物もしくは他の被写体は実質的に予め定められた色を全く含んでいないことを要求する。   A mixed image is typically a person in front of a separately photographed background, and the image is common in entertainment and news reporting to artificially insert the desired subject photographed by a video camera. Used. Images of the intended person or other subject must generally be obtained against a well-known, predetermined color, typically a blue background. After an image of the target person or other subject is obtained, it is chroma-keyed, i.e., all pixels in the image of a predetermined color are identified and a background image obtained separately. Is a pixel in which the above color is identified, and is replaced for each pixel. In this color fixing method, a background of a predetermined color is fixed behind a person or a target subject, and the target person or other subject substantially includes no predetermined color. Request.

図8Aに示すように、しかしながら、カメラ20はウインドウ96内で人物92および94の画像を選択的に得ることができるが、より離れた建物98は得られた画像から除かれる。好ましくは、τおよびTは、人物92および94の画像に応じてアレイ22により生成される正規化された信号が、人物94が人物92よりもカメラ20から遠い位置にあるにもかかわらず、実質的に等くなるように調節される。正規化された信号のかかる正規化は人物94までのより正確な決定をなすのに有用であり、両方の人物92および94のより明瞭な再生により、また、より見栄えのする画像を生成するのに有用である。   As shown in FIG. 8A, however, camera 20 can selectively obtain images of persons 92 and 94 within window 96, but more distant buildings 98 are excluded from the obtained image. Preferably, τ and T are substantially equal, even though the normalized signal generated by the array 22 in response to images of the persons 92 and 94 is located farther from the camera 20 than the person 92. Adjusted to be equal. Such normalization of the normalized signal is useful for making a more accurate determination up to person 94, with a clearer reproduction of both persons 92 and 94, and also to produce a more pleasing image. Useful for.

図8Bに示すように、画像プロセッサ90はカメラ20からの選択的に得られた画像を受け、モニタ102上に所望の結合されたビデオ画像を生成、もしくは、かかる結合されたビデオ画像を記録およびまたは伝送するために、それを背景100と混合する。決まった固定幕(バックドロップ)も色彩固定も不要である。背景100は実物でも、別に得た画像でも、またさらにコンピュータ合成画像もしくは実際の画像と合成画像とが組み合わせられたものであってもよい。   As shown in FIG. 8B, the image processor 90 receives the selectively obtained image from the camera 20 and generates a desired combined video image on the monitor 102 or records and records such combined video image. Or mix it with the background 100 for transmission. Neither fixed fixed curtains (backdrops) nor fixed colors are required. The background 100 may be an actual image, an image obtained separately, or a computer composite image or a combination of an actual image and a composite image.

図9は本発明のいま一つの好ましい実施形態を図式的に示しており、該実施形態において、カメラ20および画像プロセッサ90は、広告掲示板104とともに使用されて、所望の絵、例えば広告のメッセージが上記広告掲示板の内側に人工的に配置された混合画像を生成する。かかる好ましい実施形態は好ましくは、国際スポーツ放送において、例えば異なる国の観客に固有の広告を出すのに使用することができる。   FIG. 9 schematically illustrates another preferred embodiment of the present invention, in which the camera 20 and image processor 90 are used with an advertising bulletin board 104 to display a desired picture, such as an advertising message. A mixed image artificially arranged inside the advertising bulletin board is generated. Such preferred embodiments can preferably be used in international sports broadcasts, for example to advertise specific to audiences in different countries.

従って、図示のように、カメラ20は被写体106および広告掲示板104とを含む画像を撮像し、被写体および広告掲示板までのそれぞれの距離を上記のようにして決定する。画像プロセッサ90は加えて、広告掲示板104の境界108を識別するとともに、周知の画像解析法を使用して、カメラ20に関する上記広告掲示板の位置および方向を決定する。境界108は好ましくは、容易に識別可能な特徴、例えば逆反射ストリップ、赤外線反射材料からなるストリップもしくは赤外線LEDの光もしくは他の光源の列を含んでいる。さらには、広告掲示板104は、画像プロセッサ90が正確に上記位置および方向を決定するのを助けるように、色彩固定されていてもよい。上記画像プロセッサはそのとき、所望の画像もしくはメッセージを、カメラ20から受けた画像の中の広告掲示板104内に、上記画像もしくはメッセージのサイズおよび仮想的な視野角を適宜に調節した後に挿入する。被写体106の画像は広告掲示板内の画像もしくはメッセージに重畳される。   Accordingly, as shown, the camera 20 captures an image including the subject 106 and the advertising bulletin board 104, and determines the distance to the subject and the advertising bulletin board as described above. The image processor 90 additionally identifies the boundary 108 of the billboard 104 and uses known image analysis methods to determine the position and orientation of the billboard relative to the camera 20. The boundary 108 preferably includes easily identifiable features such as retroreflective strips, strips of infrared reflective material, or infrared LED light or other light source strings. Further, the billboard 104 may be color fixed to help the image processor 90 accurately determine the position and orientation. The image processor then inserts the desired image or message into the advertising bulletin board 104 in the image received from the camera 20 after appropriately adjusting the size and virtual viewing angle of the image or message. The image of the subject 106 is superimposed on the image or message in the advertisement bulletin board.

図10は本発明のいま一つの好ましい実施形態にかかる測距ライン画像カメラ110を図式的に表している。カメラ110は、リニアアレイCCDカメラおよびスキャナのような周知の画像取り込み装置と同じように使用することができる。かかる装置は一般に、被写体もしくは情景の狭くてリニアな部分の画像(深度情報はない)を生成する。上記装置の視界はそのとき、被写体もしくは情景の上を光学的もしくは機械的に走査されるとともに、そのようにして生成された多数の画像が単一の、二次元画像を形成するために結合される。以下に述べるように、視野測距ライン画像形成カメラ110は、好ましくは、三次元情報を含む画像を形成するために被写体もしくは情景の上を同様に走査する。   FIG. 10 schematically illustrates a ranging line image camera 110 according to another preferred embodiment of the present invention. The camera 110 can be used in the same manner as known image capture devices such as linear array CCD cameras and scanners. Such devices generally generate an image (no depth information) of a narrow and linear portion of a subject or scene. The field of view of the device is then optically or mechanically scanned over the object or scene, and the multiple images so generated are combined to form a single, two-dimensional image. The As will be described below, the visual field line imaging camera 110 preferably scans the subject or scene as well to form an image that includes three-dimensional information.

図10に示すように、カメラ110は、カメラ20のアレイ22と同様の、好ましくはCCDアレイである、検知マトリックスアレイ112を含んでいる。アレイ112は、検知エレメントの複数の平行な行114を含んでいる。ビデオプロセッサ116は駆動信号をアレイ112に供給するとともに、それから画像応答ビデオ信号を受信する。カメラ20と同様に、情景26の画像を形成しているライン画像カメラ110が示されており、該情景は変調器44を介して、駆動回路42により駆動される光源40により照明されている。   As shown in FIG. 10, the camera 110 includes a sensing matrix array 112, similar to the array 22 of the camera 20, preferably a CCD array. The array 112 includes a plurality of parallel rows 114 of sensing elements. Video processor 116 provides drive signals to array 112 and receives image response video signals therefrom. Similar to the camera 20, a line image camera 110 is shown forming an image of a scene 26, which is illuminated by a light source 40 driven by a drive circuit 42 via a modulator 44.

カメラ110の光学系118は集光レンズ120,リニアシャッタアレイ122および画像レンズ124を含んでいる。シャッタアレイ122は、複数の狭いシャッタエレメント130,132,134,…,136を含むとともに、好ましくは、行114に実質的に平行な方向に向き付けられた要素130〜136を有する、検知アレイ112の面に実質的に平行に配置されている。コントローラ126は積分スイッチング回路網128によりリニアシャッタアレイ122を制御し、所望のシーケンスに従ってシャッタエレメント130〜136の各々を開くためにコントローラ126により好ましくは制御される。コントローラ126はさらに、カメラ20のコントローラ46を参照して上に説明したように、駆動回路42および変調器44を制御するとともに、ビデオプロセッサ116からのデータを受信および制御する。   The optical system 118 of the camera 110 includes a condenser lens 120, a linear shutter array 122, and an image lens 124. The shutter array 122 includes a plurality of narrow shutter elements 130, 132, 134,..., 136 and preferably includes a sensing array 112 having elements 130-136 oriented in a direction substantially parallel to the row 114. Is disposed substantially parallel to the surface of the. Controller 126 controls linear shutter array 122 by integral switching circuitry 128 and is preferably controlled by controller 126 to open each of shutter elements 130-136 according to a desired sequence. The controller 126 further controls the drive circuit 42 and the modulator 44 as well as receives and controls data from the video processor 116 as described above with reference to the controller 46 of the camera 20.

好ましくは、シャッタアレイ122は液晶シャッタアレイであるかまたは、ゲート付きのマイクロチャンネルエレメント、または光電エレメントもしくは音響光学変調エレメントのアレイである。   Preferably, the shutter array 122 is a liquid crystal shutter array, or a gated microchannel element, or an array of photoelectric or acousto-optic modulation elements.

図11は例えば、本発明の一つの好ましい実施形態を示すものであって、該実施形態では、シャッタアレイ122は平行な分解断面図で示す、ゲート付きアレイを含んでいる。アレイ122は、第1ガラス板138にコートされたフォトアノード137、マイクロチャンネルプレート139、およびその上に重畳された積分スイッチング回路網128を有する第2ガラス板145を含んでいる。フォトアノード137およびフォトカソード143は、周知の適切な材料、例えば隣を含んでいる。スイッチング回路網128は好ましくは、複数の透明電極141、例えばフォトカソード143の面の上にコートされたITO(indium tin oxide)のストリップを含んでいる。図面を明瞭にするために、ガラス板138および145並びにマイクロチャンネルプレート139は図面では分離して示されているが、実際の使用では、周知のように、一般に、これらの要素は真空ケース内にて近接して保持される。   FIG. 11 illustrates, for example, one preferred embodiment of the present invention, in which the shutter array 122 includes a gated array, shown in parallel exploded cross-sectional view. The array 122 includes a second glass plate 145 having a photoanode 137 coated on the first glass plate 138, a microchannel plate 139, and an integral switching network 128 superimposed thereon. Photoanode 137 and photocathode 143 include any known suitable material, such as a neighbor. The switching network 128 preferably includes a plurality of transparent electrodes 141, for example, strips of indium tin oxide (ITO) coated on the surface of the photocathode 143. For clarity of illustration, the glass plates 138 and 145 and the microchannel plate 139 are shown separately in the drawing, but in actual use, as is well known, these elements are generally contained within a vacuum case. Held close together.

マイクロチャンネルプレート139は好ましくは、周知の通常のマイクロチャンネルプレートと同様のものであるが、シャッタエレメント130,132,134,…,136を構成している、プレート内のマイクロチャンネルの異なるグループは、対応する電極141により、個々にスイッチもしくはゲートされる。   The microchannel plate 139 is preferably similar to the known normal microchannel plate, but the different groups of microchannels in the plate that make up the shutter elements 130, 132, 134,. They are individually switched or gated by corresponding electrodes 141.

上記電極は回路網128を通して、好ましくは−200VDCのレンジで、周知の負の高圧源に回路網128を通して個々にスイッチ可能に接続されている。   The electrodes are individually switchably connected through a network 128, preferably in the range of -200 VDC, to a known negative high voltage source through the network 128.

図11に示すように、シャッタアレイ122の動作は、次の例から理解されるであろう。フォトアノード137に衝突する光子は、マイクロチャンネルプレート139に近接して光電子を発生する。エレメント130に対応する電極147の一つが上記負の高電圧に接続されていると、エレメント130に近接する領域で発生された光電子は、エレメント130を構成しているプレート139のマイクロチャンネルを通して加速され、さらに周知のように、マイクロチャンネル内に二次電子がさらに発生する。これらの電子はそのとき電極147を通過し、光電陰極143に入射し、エレメント130に近接するカソードの領域に光子を発生する。残る電極141が負の高電圧に接続されていないと仮定すると、しかしながら、このプロセスは他のエレメント132,134,…,136のいずれにも実質的に起きない。このようにして、シャッタエレメント130は実効的に開いており、残るシャッタエレメントは実効的に閉じている。シャッタエレメント132,134,…,136は好ましくは、エレメント130に続いて、同じようにして、順次に開かれる。   As shown in FIG. 11, the operation of the shutter array 122 will be understood from the following example. Photons impinging on the photoanode 137 generate photoelectrons in the vicinity of the microchannel plate 139. When one of the electrodes 147 corresponding to the element 130 is connected to the negative high voltage, photoelectrons generated in a region close to the element 130 are accelerated through the microchannel of the plate 139 constituting the element 130. As is further known, secondary electrons are further generated in the microchannel. These electrons then pass through the electrode 147, enter the photocathode 143, and generate photons in the cathode region close to the element 130. Assuming that the remaining electrode 141 is not connected to a negative high voltage, however, this process does not occur in any of the other elements 132, 134,. In this way, the shutter element 130 is effectively open and the remaining shutter elements are effectively closed. The shutter elements 132, 134,..., 136 are preferably opened sequentially following the element 130 in the same manner.

集光レンズ120は、情景26から反射された光をシャッタアレイ122の上に結像させ、該シャッタアレイ122は以下に述べるように光を変調する。上記シャッタアレイからの変調された光はその後、結像レンズ124により検知アレイ112の上に結像される。好ましくは、光学系118は、行114の数およびサイズに対比されるエレメント130〜136の数とサイズに応じて、シャッタアレイ122の各エレメント130〜136が検知アレイ112の一つの行114の上、近接する行114からなるグループの上に結像する。図10には、結像レンズ124がシャッタアレイ122をほぼ1倍の倍率で検知アレイ112の上に結像させているように示されているが、シャッタアレイ122および検知アレイ112の相対的な寸法並びにそれらのエレメント130〜136および行114の相対的な寸法に応じて、適当な倍率が結像レンズ124の適正な選択と配列により選択されてもよいことが理解されるであろう。さらに、シャッタアレイ122およびシャッタエレメント130〜136の大きさが検知アレイ112および行114の寸法に適合するように十分小さくすることができるときは、シャッタアレイ122は検知アレイ112に近接して直接、配置するとともに直接接触によりそれに結合せ、結像レンズ124を介在させる必要をよりうまく回避して光学系118を単純化するようにしてもよい。   The condenser lens 120 forms an image of the light reflected from the scene 26 on the shutter array 122, and the shutter array 122 modulates the light as described below. The modulated light from the shutter array is then imaged onto the detection array 112 by the imaging lens 124. Preferably, the optical system 118 has each element 130-136 of the shutter array 122 above one row 114 of the sensing array 112, depending on the number and size of the elements 130-136 compared to the number and size of the rows 114. , Image onto a group of adjacent rows 114. In FIG. 10, the imaging lens 124 is shown as imaging the shutter array 122 onto the sensing array 112 at a magnification of approximately 1 ×, but the relative relationship between the shutter array 122 and the sensing array 112 is shown. It will be understood that depending on the dimensions and the relative dimensions of their elements 130-136 and rows 114, an appropriate magnification may be selected by proper selection and arrangement of imaging lenses 124. Further, when the size of the shutter array 122 and shutter elements 130-136 can be made small enough to fit the dimensions of the sensing array 112 and row 114, the shutter array 122 can be directly adjacent to the sensing array 112, It may be arranged and coupled to it by direct contact to better avoid the need to interpose the imaging lens 124 and simplify the optical system 118.

図12Aはタイミングダイヤグラムであって、本発明の一つの好ましい実施形態により、カメラ110の変調器44およびシャッタアレイ122に印加されるスイッチングパルスおよび変調パルス140を図式的に示している。変調器44およびシャッタエレメント130は最初は開かれていて、パルス幅がTの矩形波により、光がそれを通過するようにしている。変調器44とエレメント130とは近接しているので、実質的に同じ変調波形がエレメント132に印加される。   FIG. 12A is a timing diagram that schematically illustrates switching and modulation pulses 140 applied to the modulator 44 and shutter array 122 of the camera 110 in accordance with one preferred embodiment of the present invention. The modulator 44 and the shutter element 130 are initially open and a rectangular wave with a pulse width T allows light to pass through it. Since the modulator 44 and the element 130 are close to each other, substantially the same modulation waveform is applied to the element 132.

エレメント132が閉じるにつれて、エレメント134が開き、以下同様にして、最後のエレメント136が開かれるまで、順次、アレイ122を下っていく。   As element 132 closes, element 134 opens, and so on, down array 122 sequentially until the last element 136 is opened.

上記したように、シャッタエレメント130〜136の各々が開くにつれて、検知アレイ112の対応する行114もしくは行グループには情景26から反射された光が入射する。   As described above, as each of the shutter elements 130-136 is opened, the light reflected from the scene 26 is incident on the corresponding row 114 or row group of the sensing array 112.

図12Bに示すように、図12Aに示された変調パターン140は、シャッタエレメント130〜136により規定される一連の引き続く重なりを有する距離ウインドウ142を生じさせる。各行114もしくは検知アレイ112の行グループはその対応するシャッタエレメント130〜136により規定されるウインドウ内にある情景26の被写体からのみ光を受光する。ウインドウ142の幅およびそれらのそれぞれの中心距離は、正規化された信号強度とともに、図3,図4および図5、さらには図6Aおよび図6Bを参照して上に述べたようにして決定される。距離ウインドウ142の相互の重なりは、例えば図5の図式に従って、目的の被写体が単一の距離ウインドウの中にのみ含まれているときに出会う距離の曖昧さの問題を解消するために使用されてもよい。   As shown in FIG. 12B, the modulation pattern 140 shown in FIG. 12A results in a distance window 142 having a series of successive overlaps defined by the shutter elements 130-136. Each row 114 or row group of the sensing array 112 receives light only from the subject of the scene 26 within the window defined by its corresponding shutter element 130-136. The widths of windows 142 and their respective center distances, along with normalized signal strength, are determined as described above with reference to FIGS. 3, 4, and 5, and also with reference to FIGS. 6A and 6B. The The mutual overlap of the distance windows 142 is used to eliminate the distance ambiguity problem encountered when the object of interest is contained only within a single distance window, eg, according to the diagram of FIG. Also good.

変調パターン140および得られたウインドウ142がここでは例として示されており、他の適当な変調パターンも同様に使用できることが理解されるであろう。例えば、変調器44に印加された変調波形は図6Aに示されるとともに該図面を参照して上で説明された波形60と同様であってもよい。シャッタエレメント130〜136に印加された波形は、波形が図6Aの波形52と同じで、ほぼ図12Aに示されるように、順次印加されるようにしてもよい。この場合、一連の重なりを有する距離ウインドウは、形が図6Bに示されたものと同様に規定される。   It will be appreciated that the modulation pattern 140 and the resulting window 142 are shown here by way of example, and that other suitable modulation patterns can be used as well. For example, the modulation waveform applied to the modulator 44 may be similar to the waveform 60 shown in FIG. 6A and described above with reference to that drawing. The waveforms applied to the shutter elements 130 to 136 are the same as the waveform 52 of FIG. 6A, and may be sequentially applied as shown in FIG. 12A. In this case, a distance window having a series of overlaps is defined similar to that shown in FIG. 6B.

さらにまた、一連のシャッタエレメント130〜136に印加される変調パルスは重なりを生じるようにタイミングを取り、対応する距離ウインドウがそれらの各々の近傍とより大きな重なりを有するようにしてもよい。さらには、遅延が距離ウインドウと離れて広がるように、変調パルスの間に導入されるようにしてもよい。さらに、一連のシャッタエレメント130〜136に印加される波形は必ずしも全て等しいパルス幅を有している必要はないが、上記アレイの下方にいくにつれて、エレメントからエレメントに増加する期間を有していて、カメラ110からのより大きな距離で、距離ウインドウが広くなるようにしてもよい。   Furthermore, the modulation pulses applied to the series of shutter elements 130-136 may be timed so that they overlap, and the corresponding distance windows have a greater overlap with their respective neighborhoods. Furthermore, it may be introduced between the modulation pulses so that the delay spreads away from the distance window. Further, the waveforms applied to the series of shutter elements 130-136 need not all have equal pulse widths, but have an increasing period from element to element as they go down the array. The distance window may be wider at a greater distance from the camera 110.

ライン撮像カメラ110により捕捉された各画像フレームは、画像切片のアレイを含んでいることが理解されるであろう。各画像切片は、その近傍と横方向に実質的に切れ目なく連続しているが、異なった距離ウインドウ内の被写体を捕捉する。従って、二つの画像切片の間の境界の上にある被写体は、二つの切片で正規化された強度の異なったレベルを有しているか、それは二つの切片のうちの一つの中に部分的に現れるが、他には現れないかもしれない。従って、周知の、通常のリニアアレイ画像形成装置との類似により前に言及されたように、本発明の好ましい実施形態では、画像切片は光学的および機械的に情景を横断して走査され、情景中の目的の各被写体は目的の被写体が含まれている距離ウインドウを有している少なくとも一つの画像切片中に捕捉される。   It will be appreciated that each image frame captured by the line imaging camera 110 includes an array of image slices. Each image segment is substantially continuous in the vicinity and lateral direction, but captures subjects within different distance windows. Thus, an object that is on the boundary between two image sections has different levels of intensity normalized by the two sections, which are partly in one of the two sections. Appears but may not appear elsewhere. Thus, as previously mentioned by analogy with known and conventional linear array imaging devices, in preferred embodiments of the present invention, image slices are scanned across the scene optically and mechanically. Each target object within is captured in at least one image slice having a distance window containing the target object.

図13は、三次元画像調査のための空挺システム146のライン撮像カメラ110の使用を図式的に示している。システム146はカメラ110を含んでおり、該カメラ110は飛行機148から下方をみるように搭載され、シャッタエレメント130〜136の長さ方向が実質的に飛行機の飛行方向に垂直である。カメラ110は、建物152および154、草木156および地形158を典型的に含んでいる。 図13に示されているように、アレイ122の各シャッタエレメント130,132,134,…,136は各々の画像切片160,162,164,…,166を規定する。上記切片は好ましくは、アレイ122のシャッタエレメントの高さにより規定された実質的に等しい角度、もしくは切断厚みを有するとともに、例えば図12Bに示されているように、実質的に等しい深さを有する距離ウインドウを有している。実際はアレイ112の行114の番号に達するまで、どの切片の番号も使用することができるが、図13では少数の切片のみを含んでいる。   FIG. 13 schematically illustrates the use of the line imaging camera 110 of the airborne system 146 for 3D image inspection. The system 146 includes a camera 110 that is mounted to look down from the airplane 148, with the length of the shutter elements 130-136 being substantially perpendicular to the flight direction of the airplane. Camera 110 typically includes buildings 152 and 154, vegetation 156 and terrain 158. As shown in FIG. 13, each shutter element 130, 132, 134,..., 136 of array 122 defines a respective image segment 160, 162, 164,. The sections preferably have substantially equal angles or cut thicknesses defined by the height of the shutter elements of the array 122, and have substantially equal depths, for example as shown in FIG. 12B. Has a distance window. In practice, any section number can be used until the number of rows 114 of array 112 is reached, but FIG. 13 includes only a few sections.

飛行機148が情景150の上を飛行するにつれて、切片160〜166は「プッシュ−ブルーム(push−broom)(長い取って付きの箒)」形式で情景の上を走査し、それにより各切片は、その各々の距離ウインドウ内にある情景中の被写体の二次元画像内にある情景中の被写体の全二次元画像を、線毎に捕捉する。カメラ110から上記切片の任意の一つのウインドウ内の各被写体、例えば切片166内の建物152までの距離が、上記したように、その正規化された信号強度から正確に決定される。所望により、上記距離ウインドウは、地形158のスロープのような、情景中の高度の変化に適合するように適宜調節されてもよい。好ましくは、飛行機148の高度および対地速度は知られていて制御されるが、最も好ましくは一定であり、カメラ110からライン画像を受ける画像プロセッサ170は上記ライン画像と距離情報をともに、情景150のフルの三次元画像中組み込むことができる。  As the plane 148 flies over the scene 150, the sections 160-166 scan over the scene in a "push-bloom" format so that each section is The entire two-dimensional image of the subject in the scene in the two-dimensional image of the subject in the scene within each distance window is captured line by line. The distance from the camera 110 to each subject in any one window of the intercept, eg, the building 152 in the intercept 166, is accurately determined from its normalized signal strength, as described above. If desired, the distance window may be adjusted accordingly to accommodate changes in altitude in the scene, such as the slope of the terrain 158. Preferably, the altitude and ground speed of the airplane 148 are known and controlled, but are most preferably constant, and the image processor 170 that receives the line image from the camera 110 combines both the line image and distance information of the scene 150. It can be incorporated into a full 3D image.

さらに好ましくは、アレイ検知器112は対地速度と同期するレートでスキャンされ、カメラ110により得られた一つのフィールドもしくはフレーム中の切片160中に捕捉された情景の領域は、例えば続くフィールドもしくはフレーム内の切片162により捕捉される。よって、ビデオプロセッサ194もしくは関連する画像捕捉システムは、多数の切片および対応する深度ウィンドウを都合よくしかも正確に登録することができる。   More preferably, the array detector 112 is scanned at a rate that is synchronous with ground speed, and the area of the scene captured in the slice 160 in one field or frame obtained by the camera 110 is, for example, within the following field or frame. Is captured by a section 162 of Thus, video processor 194 or an associated image capture system can conveniently and accurately register multiple slices and corresponding depth windows.

本発明のいくつかの好ましい実施形態では、カメラ110により得られたラインイメージおよび距離情報は、建物152および154並びに地形158のような、画像化された地形の横方向寸法および地形の高度を決定するために、王次元写真測量法で使用される。これらの寸法や高度はそのとき、例えば、正確な地形の地図および土地の測量図内に組み込まれてもよい。それらは同様に、通常の写真もしくはビデオ画像から高い精度で求めることが通常、非常に困難な、例えば建物152のような、ものの体積を計算するのに使用することができる。   In some preferred embodiments of the present invention, the line image and distance information obtained by the camera 110 determines the lateral dimensions and elevation of the imaged terrain, such as the buildings 152 and 154 and the terrain 158. To be used in king dimension photogrammetry. These dimensions and altitudes may then be incorporated into, for example, accurate topographic maps and land survey maps. They can also be used to calculate the volume of things that are usually very difficult to determine with high accuracy from ordinary photographs or video images, such as the building 152.

図13は飛行機148に搭載されたカメラ110を示しているが、カメラが空挺プラットホームもしくはそれに代わる、宇宙もしくは海上輸送プラットホームの上に搭載されるような、本発明の他の同様の好ましい実施形態もある。例えば、上記カメラは水の下もしくは海底の地形の地形を作るために海上船舶もしくは潜水船舶に搭載するようにしてもよい。   Although FIG. 13 shows a camera 110 mounted on an airplane 148, other similar preferred embodiments of the present invention where the camera is mounted on an aerial platform or an alternative space or maritime transport platform are also possible. is there. For example, the camera may be mounted on a marine vessel or a submersible vessel in order to create a topography under water or under the sea floor.

図14は本発明の他の好ましい実施形態を図式的に示しており、該実施形態では、カメラ110は固定されていて、被写体174,176および178に関する距離情報を含む、多数のライン画像切片160〜166を発生する。回転シャフト182に取り付けられたミラー180が情景172を横断してライン画像を走査し、画像プロセッサ170が図13に関して上に説明したのと同様にして、情景の全体の三次元画像を得ることができる。シャフト182が好ましくはガルバノメータ、ポリゴンスキャナもしくは周知の他の手段により回転される。   FIG. 14 schematically illustrates another preferred embodiment of the present invention, in which the camera 110 is fixed and includes a number of line image slices 160 that include distance information about the subjects 174, 176, and 178. ~ 166 are generated. A mirror 180 attached to the rotating shaft 182 scans the line image across the scene 172, and the image processor 170 obtains an overall three-dimensional image of the scene in the same manner as described above with respect to FIG. it can. The shaft 182 is preferably rotated by a galvanometer, polygon scanner or other known means.

図15は本発明のさらにいま一つの好ましい実施形態を示しており、該実施形態において、ライン撮像カメラ190は情景26の三次元画像を迅速に得る。カメラ190は、カメラ110のアレイ112のような、複数の行193を含む好ましくはCCDアレイのような検知アレイ192、およびビデオプロセッサ116と同様の、アレイ192に結合されたビデオプロセッサ194を含んでいる。   FIG. 15 illustrates yet another preferred embodiment of the present invention, in which the line imaging camera 190 obtains a three-dimensional image of the scene 26 quickly. Camera 190 includes a sensing array 192 that preferably includes a plurality of rows 193, such as array 112 of cameras 110, and a video processor 194 coupled to array 192, similar to video processor 116. Yes.

上記した好ましい実施形態のように、光源40は情景26を照明するために駆動回路42により駆動される一方、変調器44は所望の変調波形に従って照明光196の通路を交互に開閉する。円筒レンズ198が情景26上に照明光の狭い光線200を発生させるようにビーム196を収束させ、照明光の光線200の長軸は図15の面に垂直であって、アレイ192の行193に実質的に平行である。走査ミラー202は、光線200を情景26の範囲に垂直に縦断して光線200を走査させるために、例えば周知のガルバノメータ装置のような走査モータ204により回転される。かかる走査は、例えばサーボモータにより適切に回転駆動される、ポリゴンミラーを使用して同様に行うことができる。   As in the preferred embodiment described above, the light source 40 is driven by the drive circuit 42 to illuminate the scene 26, while the modulator 44 alternately opens and closes the path of the illumination light 196 according to the desired modulation waveform. The cylindrical lens 198 converges the beam 196 such that a narrow beam 200 of illumination light is generated on the scene 26, the major axis of the light beam 200 of illumination light being perpendicular to the plane of FIG. Are substantially parallel. The scanning mirror 202 is rotated by a scanning motor 204 such as a well-known galvanometer device in order to scan the light beam 200 by vertically cutting the light beam 200 perpendicularly to the range of the scene 26. Such scanning can be similarly performed using, for example, a polygon mirror that is appropriately rotated by a servo motor.

情景26から反射した光は光学系210によりアレイ192上に集光され、走査され、かつ収束される。光学系210は入射側絞り212、集光レンズ214、光変調器216、収束レンズ218および出射絞り220を含んでいる。変調器216は好ましくは音響光学結晶を含んでおり、該変調器はアレイ192を縦断してビームをスキャンさせるように、情景26から受けた画像ビーム224を偏向するためにコントローラ222により駆動される。画像ビーム224は照明光線200と同様の、反射光の狭い線を含んでいることが分かるであろう。   The light reflected from the scene 26 is collected on the array 192 by the optical system 210, scanned and converged. The optical system 210 includes an incident side stop 212, a condenser lens 214, an optical modulator 216, a converging lens 218, and an exit stop 220. The modulator 216 preferably includes an acousto-optic crystal that is driven by the controller 222 to deflect the image beam 224 received from the scene 26 to traverse the array 192 and scan the beam. . It will be appreciated that the image beam 224 includes a narrow line of reflected light, similar to the illumination beam 200.

コントローラ222はさらに、図10に示されたコントローラ126を参照して説明したように、ビデオプロセッサ194からの画像データを制御するとともに受信し、ドライバ42,変調器44およびガルバノメータ204を制御する。   Controller 222 further controls and receives image data from video processor 194 and controls driver 42, modulator 44 and galvanometer 204 as described with reference to controller 126 shown in FIG.

好ましくは、照明ビーム196は情景26を縦断して走査し、変調器44が繰り返し開閉し、照明光線200が一連の水平な切片を照明する。各々のかかる切片に対して、変調器216は好ましくは、一番上の行からスタートして一番下の行で終わるように、順に、アレイ192の実質的に全ての行193にわたって、画像ビーム224をスキャンさせる。従って、画像ビーム224は、図3および図12Aに示された変調波形のパルス幅Tに関数的に等価である、実質的に等しい休止期間の間、引き続いて行193の各々にとどまる。同様に、図12Aのように、ビーム224は、上記アレイの先行する行の累積する休止期間に実質的に等しい、照明ビーム196に対する遅延時間で各行193に到達する。   Preferably, the illumination beam 196 scans across the scene 26, the modulator 44 repeatedly opens and closes, and the illumination beam 200 illuminates a series of horizontal slices. For each such segment, the modulator 216 preferably, in turn, spans substantially all rows 193 of the array 192, starting from the top row and ending at the bottom row. 224 is scanned. Thus, the image beam 224 continues to remain in each of the rows 193 for a substantially equal pause period that is functionally equivalent to the pulse width T of the modulation waveform shown in FIGS. 3 and 12A. Similarly, as in FIG. 12A, the beam 224 reaches each row 193 with a delay time for the illumination beam 196 that is substantially equal to the accumulated pause period of the preceding row of the array.

このようにして、変調器44が開いている照明光線200の位置により規定される上記26の各切片に対して、カメラ190は距離情報を含む情景のライン画像を形成することが理解されるであろう。上記切片内の距離情報が引き続く距離情報内に捕捉され、各ウインドウはアレイ192の異なった行193に対応している。モータ204およびミラー202が情景26の全体にわたってビーム196をスイープするにつれて、カメラ190は情景全体の完全な、三次元画像を形成する。   Thus, it will be appreciated that for each of the 26 slices defined by the position of the illumination beam 200 where the modulator 44 is open, the camera 190 forms a line image of the scene that includes distance information. I will. The distance information in the intercept is captured in subsequent distance information, with each window corresponding to a different row 193 of the array 192. As motor 204 and mirror 202 sweep beam 196 across scene 26, camera 190 forms a complete, three-dimensional image of the entire scene.

本発明の他の好ましい実施形態では、カメラ190は、図13に示すように、例えばカメラ110の代わりに飛行機148、もしくはいくつかの他の適当なタイプの移動プラットホームにカメラを固定することにより、プッシュブルームモードで情景の上を走査する。この場合、照明光線200が飛行機の運動による情景を走査するので、モータ204は不要である。さらに、かめら190の単一のフィールドもしくはフレームで得られた全ての距離ウインドウが(カメラ110と異なり)同じ画像切片内にあり、上記カメラにより生成された個々のライン画像の結合された、三次元画像内への表示が単純化される。ミラー202は好ましくは、図2に示されたビーム結合器58のような、ビーム結合器により置換し、照明光のビーム196および反射光のビーム224が照準規正されるようにすることができる。   In another preferred embodiment of the present invention, the camera 190 is secured to an airplane 148, for example, instead of the camera 110, or some other suitable type of mobile platform, as shown in FIG. Scan over the scene in push bloom mode. In this case, since the illumination beam 200 scans the scene due to the movement of the airplane, the motor 204 is not necessary. In addition, all distance windows obtained in a single field or frame of the turtle 190 are within the same image segment (unlike camera 110) and are combined cubics of individual line images generated by the camera. The display in the original image is simplified. The mirror 202 is preferably replaced by a beam combiner, such as the beam combiner 58 shown in FIG. 2, so that the illumination light beam 196 and the reflected light beam 224 are aimed.

以上に説明した本発明の好ましい実施形態は一般に、白黒画像もしくはカラー画像のいずれかを生成するのに適用することができる。白黒画像は、目的の情景を照明するために可視光、赤外光もしくは紫外光および適当な光学系を使用するとともに、光を制御および受光する変調器および検知器を使用することにより、生成することができる。   The preferred embodiments of the present invention described above can generally be applied to generate either black and white images or color images. Black and white images are generated by using visible light, infrared light or ultraviolet light and appropriate optics to illuminate the scene of interest, and using modulators and detectors that control and receive the light. be able to.

さらに、本発明の原理は、他のタイプの放射波を使用して三次元画像を生成するために同様に適用することができる。例えば、ソナーもしくは超音波画像のような音響画像が、マイクロフォンもしくは圧電結晶のような周知の音響センサおよびまたは放射器のアレイを使用して生成することができ、また、画像中の被写体に関する深度情報が本発明により決定することができる。海底音響画像に対しては、周知のように、図1および図1A〜Cに示された光学レンズに代えて、音響レンズが都合よく使用することができる。   Furthermore, the principles of the present invention can be similarly applied to generate three-dimensional images using other types of radiation waves. For example, an acoustic image, such as a sonar or ultrasound image, can be generated using a well-known acoustic sensor such as a microphone or piezoelectric crystal and an array of radiators, and depth information about the subject in the image. Can be determined by the present invention. For submarine acoustic images, as is well known, acoustic lenses can be conveniently used in place of the optical lenses shown in FIGS. 1 and 1A-C.

図16は、本発明の好ましい実施形態により、カラー画像を生成するために、カメラ110で使用するための、検知アレイ112の適用を図示している。アレイ112は多数のストライプ232を有するカラーストライプフィルタ230により覆われており、その各々は実質的に行114に対して垂直な、アレイ112の単一のそれぞれのコラムを実質的に覆っている。ストライプ232は、好ましくは、赤、緑、青、緑、赤、緑等の順に、周知のように、異なったそれぞれの色の光を交互に通過する。従って、アレイ112の行114内で隣接する画素には、赤、緑もしくは青の光が交互に入射する。(好ましくは、光源40により供給される光は白色光である。)近接する画素からの信号は好ましくは、局部の輝度およびクロミナンス情報を導出するために結合される。   FIG. 16 illustrates the application of sensing array 112 for use with camera 110 to generate a color image, according to a preferred embodiment of the present invention. Array 112 is covered by a color stripe filter 230 having a number of stripes 232, each of which substantially covers a single respective column of array 112 that is substantially perpendicular to row 114. The stripes 232 preferably alternately pass light of different colors, as is well known, in the order of red, green, blue, green, red, green, etc. Accordingly, red, green, or blue light is alternately incident on adjacent pixels in the row 114 of the array 112. (Preferably the light supplied by light source 40 is white light.) Signals from adjacent pixels are preferably combined to derive local luminance and chrominance information.

従って、カメラ110により生成される多数のライン画像の各々は一般に、強度および深度情報に加えて、カラー情報を含んでいる。これらのカラーライン情報はそのとき、好ましくは、三次元カラー画像を生成するために、例えば図13もしくは図14を参照して説明したように、スキャンされる。   Thus, each of a number of line images generated by the camera 110 typically includes color information in addition to intensity and depth information. These color line information is then preferably scanned as described with reference to FIG. 13 or FIG. 14, for example, to generate a three-dimensional color image.

同様に、図1に示されたカメラ20、もしくは図2Aのカメラ50または図2Bのカメラ59の検知アレイ22は、図16に示されているような、カラーストライプフィルタ、もしくは周知のカラーモザイクフィルタを含んでいてもよい。   Similarly, the sensing array 22 of the camera 20 shown in FIG. 1, or the camera 50 of FIG. 2A or the camera 59 of FIG. 2B may be a color stripe filter, or a well-known color mosaic filter, as shown in FIG. May be included.

また、例えば周知のダイクロイックプリズムのアッセンブリのような、適当なダイクロイックフィルタを有するCCD検知アレイが、RGBD(赤−緑−青−深度)画像、すなわち深度情報を含むカラー画像を発生するために、カメラ20、カメラ50、カメラ59、もしくは以下に述べるカメラ240のアレイ22に置換されてもよい。   In addition, a CCD sensing array with a suitable dichroic filter, such as a well-known dichroic prism assembly, generates a RGBD (red-green-blue-depth) image, i.e. a color image containing depth information. 20, camera 50, camera 59, or array 22 of cameras 240 described below.

さらに、本発明の好ましい実施形態では、上記したいずれの光学測距カメラによって発生される三次元画像情報も融合されて、カメラにより生成される二次元強度画像を強調するために使用される。同様に、上記二次元強度画像は、三次元画像をシャープなものとするか、または強調するために使用することもできる。   Further, in a preferred embodiment of the present invention, the 3D image information generated by any of the optical ranging cameras described above is fused and used to enhance the 2D intensity image generated by the camera. Similarly, the two-dimensional intensity image can be used to sharpen or enhance a three-dimensional image.

二次元および三次元画像は、それらが同じ検知アレイからのものであるので、本質的に相互に登録されることが理解されるであろう。このように、例えば、二次元および三次元画像の画像情報が画像のエッジによる輪郭をシャープにするおよびまたは滑らかにするために、およびまたは周知の画像フィルタ法を使用してかかるエッジに近い画像の色を修正するために使用されてもよい。   It will be appreciated that the two-dimensional and three-dimensional images are essentially registered with each other because they are from the same sensing array. Thus, for example, image information of 2D and 3D images can be used to sharpen and / or smooth the contours of the image edges, and / or using well-known image filtering techniques for images close to such edges. It may be used to correct the color.

図17Aは、本発明のさらにいま一つの好ましい実施形態にかかる、ピクセル−ワイズ(pixel−wise)測距カメラ240を図示している。カメラ240は、図10に示されるような、カメラ110に示されたアレイ112と同様の、複数の検知要素242を含む、検知マトリックスアレイ241を含んでいる。カメラ240はまた、カメラ110が有しているような、レンズ120および124に加えて、液晶シャッタアレイ244を含む、光学系243を含んでいる。   FIG. 17A illustrates a pixel-wise ranging camera 240 according to yet another preferred embodiment of the present invention. Camera 240 includes a sensing matrix array 241 that includes a plurality of sensing elements 242, similar to array 112 shown in camera 110, as shown in FIG. The camera 240 also includes an optical system 243 that includes a liquid crystal shutter array 244 in addition to the lenses 120 and 124 as the camera 110 has.

図17Aに示されたカメラ240の他の部品は、カメラ110の部品と構成および機能において実質的に同じである。   Other parts of the camera 240 shown in FIG. 17A are substantially the same in configuration and function as the parts of the camera 110.

シャッタアレイ244は複数のシャッタアレイ246を含んでいる。光学系243は検知アレイ241に関して適切に整列および配置されており、各シャッタエレメント246はアレイ241の各々の検知エレメント242もしくは近接する検知エレメントのグループに到達する情景26からの反射光を個々に変調する。シャッタアレイ244はコントローラ126により制御され、異なったシャッタエレメント246が同時もしくは異なったタイミングで開閉するように変調されてもよい。従って、各検知要素242もしくはエレメントのグループは、対応するシャッタエレメントの変調に応じて、それと連携するそれ自身の距離ウインドウを持っていてもよい。   The shutter array 244 includes a plurality of shutter arrays 246. The optical system 243 is appropriately aligned and arranged with respect to the sensing array 241 and each shutter element 246 individually modulates the reflected light from the scene 26 that reaches each sensing element 242 of the array 241 or a group of adjacent sensing elements. To do. The shutter array 244 may be controlled by the controller 126 and modulated such that different shutter elements 246 open and close simultaneously or at different times. Thus, each sensing element 242 or group of elements may have its own distance window associated with it, depending on the modulation of the corresponding shutter element.

シャッタアレイ244は、その画像がそれぞれの検知エレメント242もしくはエレメントのグループにより捕捉される情景26中の点までの距離を、各距離ウインドウが追跡するように、好ましくは適当に動作するようにしてもよい。各々のかかる距離ウインドウは、画像の輻輳を削減するとともに、上記点までの距離の正確な読みを含むとともに生成するように調整されてもよい。   The shutter array 244 is preferably operated appropriately so that each distance window tracks the distance to a point in the scene 26 where the image is captured by each sensing element 242 or group of elements. Good. Each such distance window may be adjusted to reduce and prevent image congestion and to include and generate an accurate reading of the distance to the point.

図17Bに図式的に示されているように、カメラ240を使用している本発明のいくつかの好ましい実施形態では、アレイ241の相互に近接する検知エレメント242のグループは「スーパ画素(super−pixels)」250のように連携して動作するように構成される。かかるスーパ画素250の各々は、例えば、エレメント242が9個からなる3×3のグループを含んでおり、その上に情景26から反射された光が光学系243による共通の軸に沿って実質的に画像形成される。スーパ画素250の9個のエレメント242の各々が共通の上記軸に沿って異なった距離ウインドウからの光を受けるように、シャッタアレイ244が動作する。これらのウインドウは、図17BにおいてW1〜W9の符号が付されており、図12Aに図示されている変調波形に従って、順次開閉する九個の検知エレメントと連携しているシャッタエレメント246に、例えば対応していてもよい。   In some preferred embodiments of the present invention using a camera 240, as schematically shown in FIG. 17B, the group of sensing elements 242 in the array 241 that are adjacent to each other are “super-pixels”. (pixels) "250, and is configured to operate in cooperation. Each such super pixel 250 includes, for example, a 3 × 3 group of nine elements 242 on which light reflected from the scene 26 is substantially along a common axis by the optical system 243. An image is formed. The shutter array 244 operates so that each of the nine elements 242 of the superpixel 250 receives light from different distance windows along the common axis. These windows are labeled W1-W9 in FIG. 17B and correspond, for example, to the shutter elements 246 associated with the nine sensing elements that open and close sequentially according to the modulation waveform illustrated in FIG. 12A. You may do it.

このようにして、横方向の分解度が犠牲になるが、所望の距離分解度を有する深度情報を含む、情景の完全な画像がカメラ240の単一のフィールドもしくはフレームに捕捉される。例えば1×2個の画素、2×2の画素もしくは4×4個の画素の所望のサイズのスーパ画素が情景中の被写体距離の最適な収束を達成するために使用されてもよい。   In this way, a complete image of the scene, including depth information having the desired distance resolution, is captured in a single field or frame of the camera 240, at the expense of lateral resolution. For example, superpixels of a desired size of 1 × 2 pixels, 2 × 2 pixels, or 4 × 4 pixels may be used to achieve optimal convergence of subject distance in the scene.

本発明のいくつかの好ましい実施形態では、上記したような測距カメラ、例えばカメラ20は、ロボットに搭載されるかまたは連携しており、該ロボットは所望の仕事におけるその動作を案内するためにカメラから供給される三次元画像情報を使用している。   In some preferred embodiments of the present invention, a ranging camera, such as the camera 20 described above, is mounted on or associated with the robot, and the robot guides its operation in the desired job. 3D image information supplied from the camera is used.

本発明の他の好ましい実施形態では、カメラ20,50もしくは110は製造工程における品質保証もしくは品質管理、例えば製造される種々の物品の寸法を検知して標準値とどれだけずれているかを検査するのに使用される。同様に、ばらの材料の表面の輪郭を測定することにより、その材料の体積が決定される。サイズが同様に知られているかまたは上記カメラを使用して測定される、容器に貯蔵されている物の体積は、同様の手法により決定することができる。   In another preferred embodiment of the invention, the camera 20, 50 or 110 is quality assurance or quality control in the manufacturing process, for example detecting the dimensions of the various articles being manufactured and checking how far they deviate from the standard values. Used to. Similarly, by measuring the contour of the surface of the bulk material, the volume of the material is determined. The volume of an object stored in a container, the size of which is also known or measured using the camera, can be determined by similar techniques.

本発明の他の好ましい実施形態において、カメラ20,50もしくは110は目的の物体の三次元画像を得るために、モデルスキャナで使用される。一つのかかる好ましい実施形態では、これらの三次元画像が、表面のカラー再生を含む、目的の被写体の一以上の三次元コピーもしくはモデルを再生するために、周知のように、迅速な三次元モデルの試作とともに使用される。   In another preferred embodiment of the invention, the camera 20, 50 or 110 is used in a model scanner to obtain a three-dimensional image of the object of interest. In one such preferred embodiment, these three-dimensional images are converted to a rapid three-dimensional model, as is well known, to reproduce one or more three-dimensional copies or models of the object of interest, including surface color reproduction. Used with the prototype.

本発明のさらに他の好ましい実施形態では、カメラ20は例えば、衝突回避システムに使用するために、車両に搭載される。好ましくは、カメラ20は画像解析システムの一部であり、それは起こりうる障碍を認識してカメラの出力を車両から障害物までの距離を決定するために使用する。   In yet another preferred embodiment of the invention, the camera 20 is mounted on a vehicle, for example for use in a collision avoidance system. Preferably, the camera 20 is part of an image analysis system that recognizes possible obstacles and uses the camera output to determine the distance from the vehicle to the obstacle.

本発明の他の好ましい実施形態では、カメラ20もしくは50のような、上記したような測距カメラは、患者の体の内部の目的の部位の三次元画像を得るために内視鏡とともに使用される。   In another preferred embodiment of the present invention, a ranging camera such as that described above, such as camera 20 or 50, is used with an endoscope to obtain a three-dimensional image of a target site within a patient's body. The

本発明のいま一つの好ましい実施形態では、カメラ20もしくはカメラ50は目の不自由な人が使用するためのセンサマトリックスに接続される。該センサマトリックスは多数のピンを有していて、これらピンは目の不自由な人の皮膚、例えば額を押圧し、その際、各ピンにより皮膚に印加される圧力はその人から上記カメラにより視認された情景の対応する点における物体までの距離に比例する。   In another preferred embodiment of the present invention, camera 20 or camera 50 is connected to a sensor matrix for use by a blind person. The sensor matrix has a large number of pins, which press the skin of a blind person, for example the forehead, at which time the pressure applied to the skin by each pin is from that person by the camera. It is proportional to the distance to the object at the corresponding point of the viewed scene.

好ましくは、目の不自由な人はカメラの距離ウインドウを制御し、上記ピンにより印加される圧力の範囲はその人からの所望の距離範囲に対応している。   Preferably, the blind person controls the distance window of the camera, and the range of pressure applied by the pin corresponds to the desired distance range from the person.

以上に説明した好ましい実施形態は例として説明したものであり、本発明の権利範囲は請求の範囲によってのみ規定されることが理解されるであろう。   It will be understood that the preferred embodiments described above have been described by way of example, and the scope of the present invention is defined only by the claims.

Claims (54)

情景中の被写体までの距離を示す画像を生成するための装置であって、
第1変調関数を有し、情景に変調された放射波を向かわせる、変調された放射波源であって、該放射波源からの放射波の一部分が、上記情景中の複数地点から反射されて該装置に到達するようになっている、放射波源と、
上記情景から反射され、第2変調関数により変調された放射波を検出する検知器であって、上記第2変調関数は、前記情景中の位置からの反射を受ける距離ウインドウを規定し、上記検知器は、上記検知された変調放射波に応じて、上記反射された放射波の上記部分の一部に対応する信号を発生し、上記部分の一部は、上記情景中のある地点の距離及び上記距離ウインドウ内の地点の位置に対応し、上記部分の一部は、該装置からの特定の信号に関連する、検知器と、
上記検知器からの信号を受信するとともに、上記装置から上記距離ウインドウ内の被写体の距離を示す強度値分布を有する、上記信号に基づいて画像を形成するプロセッサと、
上記第1変調関数および第2変調関数の少なくとも一つを、該プロセッサにより形成された画像の強度値分布によって示された距離に対応する変化量で変化させて、上記距離ウインドウの幅を調整するコントローラと、
を含む装置。
An apparatus for generating an image showing a distance to a subject in a scene,
A modulated radiation source having a first modulation function and directing a modulated radiation wave to a scene, wherein a portion of the radiation wave from the radiation source is reflected from a plurality of points in the scene. A radiation source adapted to reach the device;
A detector for detecting a radiation wave reflected from the scene and modulated by a second modulation function, wherein the second modulation function defines a distance window for receiving a reflection from a position in the scene, and In response to the detected modulated radiation, the device generates a signal corresponding to a portion of the portion of the reflected radiation, the portion of the portion being a distance of a point in the scene and A detector corresponding to a position of the point within the distance window, wherein a portion of the portion is associated with a particular signal from the device;
A processor for receiving an image from the detector and forming an image based on the signal having an intensity value distribution indicating a distance of a subject within the distance window from the device;
The width of the distance window is adjusted by changing at least one of the first modulation function and the second modulation function by a variation corresponding to the distance indicated by the intensity value distribution of the image formed by the processor. A controller,
Including the device.
前記コントローラによって、前記第1変調関数及び前記第2変調関数の少なくとも一方を、前記プロセッサにより形成された画像の強度値分布によって示された距離に対応する変化量で変化させて、前記距離ウインドウのタイミングを調整し、それによって前記距離ウインドウの距離を調整する、請求項1に記載の装置。   The controller changes at least one of the first modulation function and the second modulation function by an amount of change corresponding to the distance indicated by the intensity value distribution of the image formed by the processor, The apparatus of claim 1, wherein the apparatus adjusts timing and thereby adjusts a distance of the distance window. 上記第1および第2変調関数がそれぞれの特有のパルス幅を有するパルスを含むとともに、上記コントローラが少なくとも一つの上記パルスのパルス幅を変化させる、請求項1又は2に記載の装置。   The apparatus according to claim 1 or 2, wherein the first and second modulation functions include pulses having respective characteristic pulse widths, and wherein the controller changes the pulse width of at least one of the pulses. 上記第1および第2変調関数が実質的に等しい固有のパルス幅を有するパルスを含んでおり、上記コントローラが上記第1変調関数と上記第2変調関数の両方のパルス幅を変化させて、前記距離ウインドウの幅を調整する、請求項3に記載の装置。   The first and second modulation functions include pulses having inherent pulse widths that are substantially equal, and the controller varies the pulse widths of both the first modulation function and the second modulation function, and The apparatus of claim 3, wherein the apparatus adjusts the width of the distance window. 情景中の目的の被写体を識別する画像解析器を備えており、上記装置から目的の被写体の距離に応じて上記コントローラが上記少なくとも一つの変調関数を変化させる、請求項1から4のいずれか一項に記載の装置。   5. An image analyzer for identifying a target subject in a scene, wherein the controller changes the at least one modulation function according to a distance of the target subject from the device. The device according to item. 該装置からの目的の被写体の距離を決定する、レンジファインダを有しており、上記コントローラが該レンジファインダにより決定される距離に応じて少なくとも一つの変調関数を変化させる、請求項1から5のいずれか一項に記載の装置。   6. A range finder for determining a distance of a target object from the device, wherein the controller changes at least one modulation function according to the distance determined by the range finder. The device according to any one of the above. 上記コントローラが上記少なくとも一つの変調関数を変化させて、上記検知器が上記装置からの目的の距離にある情景の領域から反射された放射波のみを検知する、請求項1から6のいずれか一項に記載の装置。   7. The controller according to any one of claims 1 to 6, wherein the controller changes the at least one modulation function so that the detector detects only radiated waves reflected from an area of the scene at a target distance from the device. The device according to item. 目的の距離にある情景の領域の、プロセッサにより形成された第1画像を受けて、混合画像を形成するために該第1画像を第2画像に混合する画像プロセッサを含む、請求項7に記載の装置。   8. An image processor comprising: an image processor that receives a first image formed by a processor in an area of a scene at a target distance and blends the first image into a second image to form a mixed image. Equipment. 上記検知器が情景中の目的の二つの被写体から反射される放射波を検知し、上記コントローラが上記少なくとも一つの変調関数を変化させて、上記二つの被写体に対応する画像の部分がほぼ等しい強度値を有する、請求項1から8のいずれか一項に記載の装置。   The detector detects radiation waves reflected from the two target objects in the scene, and the controller changes the at least one modulation function so that the portions of the image corresponding to the two objects have substantially the same intensity. 9. A device according to any one of the preceding claims, having a value. 上記検知器はカラーフィルタを含んでおり、上記プロセッサにより形成される画像がカラー画像である、請求項1から9のいずれか一項に記載の装置。   The apparatus according to claim 1, wherein the detector includes a color filter, and the image formed by the processor is a color image. 上記検知器が
情景から反射された放射波を受けてそれを上記第2変調関数に従って変調する検知変器と、
複数の検知要素を含み、上記検知変調器により変調された放射波を検知するとともに、上記検知され変調された放射波に対応して、上記情景のセグメントまでの距離に対応する信号を発生させる検知アレイと、
を含む、請求項1から10のいずれか一項に記載の装置。
A detector transformer for receiving the radiation wave reflected from the scene and modulating the detector according to the second modulation function;
Sensing including a plurality of sensing elements for sensing a radiation wave modulated by the sensing modulator and generating a signal corresponding to the distance to the scene segment in response to the sensed and modulated radiation wave An array,
The apparatus according to claim 1, comprising:
上記検知変調器が、複数のシャッタ要素を備えたシャッタ要素アレイを含む、請求項11に記載の装置。   The apparatus of claim 11, wherein the sensing modulator comprises a shutter element array comprising a plurality of shutter elements. 第1検知要素に入射する上記放射波が第1シャッタ要素により変調されるとともに、第2検知要素に入射する上記放射波が第2シャッタ要素により変調され、上記第2変調関数が上記第1および第2シャッタ要素にそれぞれ印加される第1および第2変調副関数を含み、
複数の間隔を有するセグメントの各々が上記装置に関して距離限界を有しており、該距離限界が上記検知変調器により決定され、
複数の間隔を有するセグメントの少なくとも一つが少なくとも一つの他の間隔を有するセグメントの限界と異なる距離限界を有している、請求項12に記載の装置。
The radiation wave incident on the first sensing element is modulated by the first shutter element, the radiation wave incident on the second sensing element is modulated by the second shutter element, and the second modulation function is the first and First and second modulation subfunctions applied to the second shutter element, respectively,
Each of the segments having a plurality of intervals has a distance limit with respect to the device, the distance limit being determined by the sense modulator;
13. The apparatus of claim 12, wherein at least one of the plurality of spaced segments has a distance limit different from that of at least one other spaced segment.
放射波源が情景の上に照射線を生成し、上記検知器が反射された放射波の対応する照射線を受ける、請求項1から13のいずれか一項に記載の装置。   14. An apparatus according to any one of the preceding claims, wherein a radiation source generates an irradiation line on the scene and the detector receives a corresponding irradiation line of reflected radiation. 上記照射線により情景を走査する走査装置を含む、請求項14に記載の装置。   The apparatus according to claim 14, comprising a scanning device that scans a scene with the irradiation beam. 上記検知変調器が検知アレイの複数の要素の行の各々にある期間の間にわたって順次休止するように、反射された放射波の線を偏向する、請求項14または15に記載の装置。   16. An apparatus according to claim 14 or 15, wherein the sensed modulator deflects the reflected radiation wave line so as to rest sequentially over a period of time in each of a plurality of element rows of the sensing array. 上記アレイの複数の行の各々が間隔を有する複数のセグメントの一つと連携し、反射された放射波の線が連携する行にとどまる上記期間により複数の間隔を有するセグメントの上記一つの距離限界が決定される、請求項16に記載の装置。   The one distance limit of a segment having a plurality of intervals, wherein each of the plurality of rows of the array is associated with one of the plurality of spaced segments, and the reflected radiation wave line remains in the associated row. The apparatus of claim 16, wherein the apparatus is determined. 情景中の被写体までの距離を示す拡大された画像を生成するためのシステムであって、
請求項1から17のいずれか一項に記載の画像を生成するための装置であって、情景の複数の連続する画像を形成し、上記複数の画像の少なくとも一つが上記画像の少なくとも一つの他のものに含まれていない情景の一以上の領域を含んでいる装置と、
上記情景中の被写体までの距離を示す、拡大された画像を形成するために複数の画像を結合する画像プロセッサと、
を含むシステム。
A system for generating an enlarged image showing a distance to a subject in a scene,
18. An apparatus for generating an image according to any one of claims 1 to 17, wherein a plurality of consecutive images of a scene are formed, at least one of the plurality of images being at least one of the images. A device including one or more areas of the scene not included in the object,
An image processor that combines a plurality of images to form an enlarged image that indicates the distance to the subject in the scene;
Including system.
上記情景に関して横方向に上記装置を移動させるための手段を含む、請求項18に記載のシステム。   The system of claim 18 including means for moving the device laterally with respect to the scene. 上記装置が上記情景に関する上記装置の移動割合に対する知られた関係で上記情景の画像を生成する、請求項19に記載のシステム。   The system of claim 19, wherein the device generates an image of the scene with a known relationship to the movement rate of the device with respect to the scene. 上記装置を移動させるための手段は、上記装置が搭載される移動プラットホームを含んでいる、請求項19または20に記載のシステム。   21. The system according to claim 19 or 20, wherein the means for moving the device includes a mobile platform on which the device is mounted. 上記移動プラットホームが飛行機を包含している、請求項21に記載のシステム。   The system of claim 21, wherein the mobile platform includes an airplane. 請求項1から17のいずれか一項に記載の、情景中の被写体までの距離を示す画像を生成するための装置であって、
上記情景から反射され、上記第2変調関数により変調されない放射波を検知するとともに、上記検知された放射波に応じて上記情景の領域から反射された光の強度に応じた信号を発生する、第1検知器とボアサイトされた第2検知器と、
上記第1検知器および第2検知器から信号を受信するとともに、上記装置からの被写体の距離を示す強度値分布を有する、上記信号に基づいて画像を形成するプロセッサと、
を含む装置。
An apparatus for generating an image showing a distance to a subject in a scene according to any one of claims 1 to 17,
Detecting a radiation wave reflected from the scene and not modulated by the second modulation function, and generating a signal according to the intensity of the light reflected from the scene area according to the detected radiation wave; A second detector bored with one detector;
A processor for receiving an image from the first detector and the second detector and forming an image based on the signal having an intensity value distribution indicating a distance of a subject from the device;
Including the device.
上記放射波源が上記第1および第2検知器とボアサイトされている、請求項23に記載の装置。   24. The apparatus of claim 23, wherein the radiation source is boresighted with the first and second detectors. 上記第2検知器からの信号を用いて上記第1検知器からの信号を正規化する、請求項23又は24に記載の装置。   25. The apparatus of claim 23 or 24, wherein the signal from the first detector is normalized using the signal from the second detector. ロボットの案内のためのシステムであって、請求項1から17、23から25のいずれか一項に記載の情景中の被写体までの距離を示す画像を生成するための装置と、
案内装置により示された物体までの距離を使用して、情景中の物体に作用するロボットと、
を含むシステム。
A system for guiding a robot, the device for generating an image showing a distance to a subject in a scene according to any one of claims 1 to 17 and 23 to 25;
A robot acting on an object in the scene using the distance to the object indicated by the guidance device;
Including system.
物体の大きさを決定するためのシステムであって、
請求項1から17、23から25のいずれか一項に記載の、物体の領域までの距離を示す、物体の画像を生成するための装置と、
上記画像および表示された距離を使用し、上記物体の大きさを決定するコンピュータと、
を含むシステム。
A system for determining the size of an object,
An apparatus for generating an image of an object that indicates a distance to a region of the object according to any one of claims 1 to 17, 23 to 25;
A computer using the image and displayed distance to determine the size of the object;
Including system.
上記コンピュータが上記大きさを標準のものと比較する、請求項27に記載のシステム。   28. The system of claim 27, wherein the computer compares the size to a standard one. 上記コンピュータが決定された寸法を使用して、上記物体の体積を決定する、請求項27又は28に記載のシステム。   29. A system according to claim 27 or 28, wherein the computer uses the determined dimensions to determine the volume of the object. 物体の三次元モデルを生成するためのシステムであって、
請求項27に記載の、物体の寸法を決定するためのシステムと、
寸法を決定するためのシステムにより決定された寸法を受けて、該寸法により三次元モデルを生成する迅速試作用装置と、
を含むシステム。
A system for generating a three-dimensional model of an object,
A system for determining the dimensions of an object according to claim 27;
A rapid prototyping apparatus that receives dimensions determined by a system for determining dimensions and generates a three-dimensional model from the dimensions;
Including system.
上記迅速試作用装置が上記物体の画像を生成するための装置からの画像情報を受け、該画像情報を三次元モデルの表面に適用する、請求項30に記載のシステム。   31. The system of claim 30, wherein the rapid prototyping apparatus receives image information from an apparatus for generating an image of the object and applies the image information to a surface of a three-dimensional model. 車両案内システムであって、
請求項1から17、23から25のいずれか一項に記載の、その運動の方向で車両の前方の情景中の物体までの距離を示す画像を生成するための装置と、
上記画像および表示された距離を使用して、上記情景中の障碍物を識別するプロセッサと、
を含むシステム。
A vehicle guidance system,
An apparatus for generating an image showing the distance to an object in a scene ahead of the vehicle in the direction of motion according to any one of claims 1 to 17, 23 to 25;
A processor for identifying obstacles in the scene using the image and displayed distance;
Including system.
内視鏡の画像形成のためのシステムであって、
患者の体内への挿入のための末端部と光学装置をそこに結合するための基部とを有する内視鏡と、
上記内視鏡を通して放射波を体の中に導き、それから反射された放射波を検知するように、上記内視鏡の基部に結合される、請求項1から17、23から25のいずれか一項に記載の、画像を生成するための装置と、
を含むシステム。
A system for image formation of an endoscope,
An endoscope having a distal end for insertion into a patient's body and a base for coupling an optical device thereto;
26. Any one of claims 1 to 17, 23 to 25, coupled to the base of the endoscope so as to direct a radiated wave through the endoscope into the body and detect a reflected radiant wave therefrom. An apparatus for generating an image according to claim
Including system.
情景中の被写体までの距離を示す画像を生成するための方法であって、
第1変調関数による放射波源からの放射波を変調して上記放射波を情景に向かわせるステップと、
第2変調関数により上記情景から反射された放射波を変調するステップであって、前記第2変調関数は、前記情景中の位置からの反射を受ける距離ウインドウを規定する、ステップと、
上記反射された放射波を検知し、検知された変調放射波に応じて、上記反射された放射波の部分の一部に対応する信号を発生するステップであって、上記部分の一部は、情景中の地点の距離及び上記距離ウインドウ内の地点の位置に対応すると共に、上記特定の信号に関連する、ステップと、
上記情景中の被写体までの距離を示す強度値分布を有する画像を形成するステップと、
上記画像の強度値分布に応じた変化量で、前記第1変調関数および前記第2変調関数の少なくとも一つを変化させて、上記距離ウインドウの幅を調整するステップと、
を含む方法。
A method for generating an image showing a distance to a subject in a scene,
Modulating a radiation wave from a radiation source by a first modulation function to direct the radiation wave to a scene;
Modulating a radiation wave reflected from the scene by a second modulation function, wherein the second modulation function defines a distance window that receives reflections from a position in the scene;
Detecting the reflected radiation, and generating a signal corresponding to a portion of the reflected radiation portion in response to the detected modulated radiation, wherein the portion of the portion is Corresponding to the distance of the point in the scene and the position of the point in the distance window and relating to the specific signal;
Forming an image having an intensity value distribution indicating a distance to a subject in the scene;
Adjusting the width of the distance window by changing at least one of the first modulation function and the second modulation function by a change amount corresponding to the intensity value distribution of the image;
Including methods.
前記第1変調関数および前記第2変調関数の少なくとも一つを、前記プロセッサにより形成された画像の強度値分布によって示された距離に対応する変化量で変化させて、前記距離ウインドウのタイミングと距離を調整するステップを含む、請求項34に記載の方法。   At least one of the first modulation function and the second modulation function is changed by an amount of change corresponding to the distance indicated by the intensity value distribution of the image formed by the processor, and the timing and distance of the distance window 35. The method of claim 34, comprising adjusting. 上記第1および第2変調関数がパルスを含んでおり、少なくとも一つの変調関数を変化させることが少なくとも一つのパルスのパルス幅を変化させることを含む、請求項34又は35に記載の方法。   36. A method according to claim 34 or 35, wherein the first and second modulation functions comprise pulses and changing at least one modulation function comprises changing a pulse width of at least one pulse. 第1変調関数パルスのパルス幅が第2変調関数パルスのパルス幅よりも実質的に大きい、請求項36に記載の方法。   37. The method of claim 36, wherein the pulse width of the first modulation function pulse is substantially greater than the pulse width of the second modulation function pulse. 情景中の目的の少なくとも一つの被写体を識別すること、
上記画像の強度値分布を使用して、物体までの距離を決定すること、
を含む、請求項34から37のいずれか一項に記載の方法。
Identifying at least one object of interest in the scene,
Using the intensity value distribution of the image to determine the distance to the object;
38. The method of any one of claims 34 to 37, comprising:
少なくとも一つの変調関数を変化させることが少なくとも一つの被写体までの距離に応答して上記変調関数を変化させることを含む、請求項38に記載の方法。   40. The method of claim 38, wherein changing at least one modulation function includes changing the modulation function in response to a distance to at least one subject. 上記少なくとも一つの被写体までの距離に応じて上記変調関数を変化させることが
少なくとも一つの被写体までの距離を含む距離の領域を規定すること、
反射された放射波を検知することが上記距離の領域内にある情景の一以上の領域からの放射波を検知することを含むように変調関数を調節すること、
を含む、請求項39に記載の方法。
Changing the modulation function according to the distance to the at least one subject defines a region of distance including the distance to the at least one subject;
Adjusting the modulation function such that detecting reflected radiation includes detecting radiation from one or more regions of the scene within the distance region;
40. The method of claim 39, comprising:
目的の少なくとも一つの被写体を識別することが複数の点を少なくとも一つの被写体の上に位置させることを含んでおり、距離の領域を規定することが複数の局部領域を規定することを含んでおり、各局部領域が複数の点の各々の一つを含んでいる、請求項40に記載の方法。   Identifying at least one subject of interest includes positioning a plurality of points on at least one subject and defining a region of distance includes defining a plurality of local regions 41. The method of claim 40, wherein each local region includes one of each of a plurality of points. 上記変調関数を調整することが、規定された距離の領域の外側にある被写体および情景の領域からの放射波が検知されないように上記関数を調整することを含む、請求項40又は41に記載の方法。   42. The adjustment according to claim 40 or 41, wherein adjusting the modulation function comprises adjusting the function such that radiated waves from a subject and a scene area outside a defined distance area are not detected. Method. 上記変調関数を調整することが、規定された距離の領域の外側にある被写体および情景の領域からの放射波が実質的に一定の強度値分布を有するように上記関数を調整すること、を含む、請求項40又は41に記載の方法。   Adjusting the modulation function includes adjusting the function such that radiated waves from a subject and scene region outside a defined distance region have a substantially constant intensity value distribution. 42. A method according to claim 40 or 41. 第1の二次元画像を形成することを含んでおり、該画像は上記距離範囲内にある情景の一以上の領域から検知された放射波を含んでおり、かつ、混合画像を形成するために上記第1の二次元画像を別に得られた、または合成して生成された第2画像と混合することを含む、請求項34から43のいずれか一項に記載の方法。   Forming a first two-dimensional image, wherein the image includes radiation waves detected from one or more areas of the scene within the distance range, and to form a mixed image 44. A method according to any one of claims 34 to 43, comprising mixing the first two-dimensional image with a second image obtained separately or generated by synthesis. 上記第1の二次元画像中の所望の領域の位置を決定することを含み、上記第1の二次元画像を別に得られた第2画像と混合することが所望の領域に上記第2画像を挿入することを含む、請求項43に記載の方法。   Determining the position of a desired region in the first two-dimensional image, and mixing the first two-dimensional image with a second image obtained separately to place the second image in the desired region 44. The method of claim 43, comprising inserting. 放射波を検知することが実質的に異なったそれぞれの距離にて、上記情景中の目的の被写体からの放射波を検知することを含み、かつ、
少なくとも一つの変調関数を変化させることが上記二つの被写体がほぼ等しい強度値を有するように上記変調関数を変化させることを含む、請求項34から45のいずれか一項に記載の方法。
Detecting the radiated wave at each substantially different distance includes detecting the radiated wave from the target subject in the scene; and
46. A method according to any one of claims 34 to 45, wherein changing at least one modulation function comprises changing the modulation function such that the two subjects have approximately equal intensity values.
上記情景内で複数の平行な間隔を有しており、各々が距離限界を有しているセグメントを規定すること、
上記平行な間隔を有するセグメントの各々から反射された放射波を検知するとともに、
検知された放射波に応答して、上記情景の領域までの距離に応じた信号を発生すること、
および、
情景中の被写体までの距離を示す強度値分布を有する画像を形成すること、
を含み、
上記複数の間隔を有するセグメントを規定することが複数のセグメントの各々の距離限界を規定することを含み、かつ、
上記複数の間隔を有するセグメントの少なくとも一つの距離限界が少なくとも一つの他の間隔を有するセグメントの距離限界と異なっている、請求項34から46のいずれか一項に記載の方法。
Defining a segment having a plurality of parallel intervals in the scene, each having a distance limit;
Detecting radiation reflected from each of the segments having the parallel spacing;
In response to the detected radiation, generating a signal according to the distance to the scene area,
and,
Forming an image having an intensity value distribution indicating a distance to a subject in a scene;
Including
Defining the segments having the plurality of intervals includes defining a distance limit for each of the plurality of segments; and
47. A method according to any one of claims 34 to 46, wherein at least one distance limit of the plurality of spaced segments is different from a distance limit of at least one other spaced segment.
被写体までの距離を示す強度値分布を有する画像を形成することが上記強度値分布を正規化することを含む、請求項34から47のいずれか一項に記載の方法。   48. A method according to any one of claims 34 to 47, wherein forming an image having an intensity value distribution indicative of a distance to a subject includes normalizing the intensity value distribution. 強度値分布を正規化することが被写体の放射率を変化させるために分布を修正することを含む、請求項48に記載の方法。   49. The method of claim 48, wherein normalizing the intensity value distribution includes modifying the distribution to change the emissivity of the subject. 上記強度値分布を正規化することが異なった被写体距離に対する分布を修正することを含む、請求項48又は49に記載の方法。   50. A method according to claim 48 or 49, wherein normalizing the intensity value distribution comprises modifying the distribution for different subject distances. 放射を検知することが色に従って放射波をフィルタすることを含み、かつ、画像を形成することがカラー画像を形成することを含む、請求項34から50のいずれか一項に記載の方法。   51. A method according to any one of claims 34 to 50, wherein detecting radiation comprises filtering radiant waves according to color and forming an image comprises forming a color image. 別に得られた背景画像に重畳された目的の被写体を含む混合画像を生成するための方法であって、
請求項34から51のいずれか一項に記載の、目的の被写体を含む情景の、該情景中の被写体までの距離を示す第1画像を形成すること、
上記第1画像により示された、上記被写体までの距離を決定すること、
少なくとも一つの被写体までの距離を含む距離の領域を規定すること、
フィルタされた画像を形成するために上記距離の領域の外側にある被写体を第1画像から除去すること、
上記フィルタされた画像を上記背景画像の上に重畳すること、
を含む方法。
A method for generating a mixed image including a target subject superimposed on a separately obtained background image,
Forming a first image showing a distance of a scene including a target subject to a subject in the scene according to any one of claims 34 to 51;
Determining the distance to the subject indicated by the first image;
Defining an area of distance including the distance to at least one subject;
Removing from the first image a subject outside the distance region to form a filtered image;
Superimposing the filtered image on the background image;
Including methods.
混合された画像内の選択された領域内に挿入された所望のはめ込み画像を含む、情景の混合画像を生成するための方法であって、
上記情景中に領域を指定すること、
請求項34から51のいずれか一項に記載の、上記指定された領域を含む情景の、該情景中の被写体までの距離を示す第1画像を生成すること、
上記第1画像中の領域の境界の位置および上記領域までの距離を、上記第1画像により示されているように、決定すること、
上記領域までの距離により、上記領域の境界内に適合するように上記はめ込み画像を計測すること、
混合された画像を形成するために上記計測されたはめ込み画像を第1画像内の上記領域に重畳すること、
を含む方法。
A method for generating a blended image of a scene that includes a desired inset image inserted into a selected region in a blended image, comprising:
Specify an area in the above scene,
Generating a first image indicating a distance of the scene including the designated area to a subject in the scene according to any one of claims 34 to 51;
Determining the position of the boundary of the region in the first image and the distance to the region, as indicated by the first image;
Measuring the inset image to fit within the boundary of the region by the distance to the region;
Superimposing the measured inset image on the region in the first image to form a mixed image;
Including methods.
上記第1画像にはめ込まれる被写体を識別することを含んでおり、目的の被写体までの距離が上記領域までの距離よりも短く、
目的の被写体のフィルタされた画像を形成するように上記第1画像をフィルタすること、
上記領域内のはめ込み画像の上に目的の被写体のフィルタされた画像を重畳すること、を含む、請求項53に記載の方法。
Identifying a subject to be inserted into the first image, the distance to the target subject being shorter than the distance to the region,
Filtering the first image to form a filtered image of the target subject;
54. The method of claim 53, comprising superimposing a filtered image of the subject of interest on an inset image in the region.
JP2010260777A 1995-06-22 2010-11-24 Improved optical ranging camera Pending JP2011039076A (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
IL114278A IL114278A (en) 1995-06-22 1995-06-22 Camera and method
IL116223A IL116223A (en) 1995-12-01 1995-12-01 Telecentric 3d camera and method

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP9503437A Division JPH11508359A (en) 1995-06-22 1996-06-20 Improved optical ranging camera

Publications (1)

Publication Number Publication Date
JP2011039076A true JP2011039076A (en) 2011-02-24

Family

ID=26323086

Family Applications (8)

Application Number Title Priority Date Filing Date
JP50343897A Expired - Lifetime JP3869005B2 (en) 1995-06-22 1996-06-20 Telecentric stereoscopic camera and method
JP9503437A Pending JPH11508359A (en) 1995-06-22 1996-06-20 Improved optical ranging camera
JP2007213559A Expired - Lifetime JP4808684B2 (en) 1995-06-22 2007-08-20 Improved optical ranging camera
JP2007213557A Expired - Lifetime JP5688722B2 (en) 1995-06-22 2007-08-20 Improved optical ranging camera
JP2007213560A Expired - Lifetime JP5180535B2 (en) 1995-06-22 2007-08-20 Improved optical ranging camera
JP2007213558A Expired - Lifetime JP5180534B2 (en) 1995-06-22 2007-08-20 Improved optical ranging camera
JP2009012225A Pending JP2009122119A (en) 1995-06-22 2009-01-22 Improved optical ranging camera
JP2010260777A Pending JP2011039076A (en) 1995-06-22 2010-11-24 Improved optical ranging camera

Family Applications Before (7)

Application Number Title Priority Date Filing Date
JP50343897A Expired - Lifetime JP3869005B2 (en) 1995-06-22 1996-06-20 Telecentric stereoscopic camera and method
JP9503437A Pending JPH11508359A (en) 1995-06-22 1996-06-20 Improved optical ranging camera
JP2007213559A Expired - Lifetime JP4808684B2 (en) 1995-06-22 2007-08-20 Improved optical ranging camera
JP2007213557A Expired - Lifetime JP5688722B2 (en) 1995-06-22 2007-08-20 Improved optical ranging camera
JP2007213560A Expired - Lifetime JP5180535B2 (en) 1995-06-22 2007-08-20 Improved optical ranging camera
JP2007213558A Expired - Lifetime JP5180534B2 (en) 1995-06-22 2007-08-20 Improved optical ranging camera
JP2009012225A Pending JP2009122119A (en) 1995-06-22 2009-01-22 Improved optical ranging camera

Country Status (7)

Country Link
US (2) US6091905A (en)
EP (2) EP0835460B1 (en)
JP (8) JP3869005B2 (en)
CN (3) CN100524015C (en)
AU (2) AU6135996A (en)
DE (2) DE69635891T2 (en)
WO (2) WO1997001111A2 (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008003099A (en) * 1995-06-22 2008-01-10 3Dv Systems Ltd Improved optical ranging camera
JPWO2017130996A1 (en) * 2016-01-29 2018-06-28 パナソニックIpマネジメント株式会社 Distance measuring device
US10628729B2 (en) 2010-06-08 2020-04-21 Styku, LLC System and method for body scanning and avatar creation
US10628666B2 (en) 2010-06-08 2020-04-21 Styku, LLC Cloud server body scan data system
US11244223B2 (en) 2010-06-08 2022-02-08 Iva Sareen Online garment design and collaboration system and method
US20220215224A1 (en) * 2017-06-22 2022-07-07 Iva Sareen Online garment design and collaboration system and method
US11640672B2 (en) 2010-06-08 2023-05-02 Styku Llc Method and system for wireless ultra-low footprint body scanning

Families Citing this family (361)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7655895B2 (en) * 1992-05-05 2010-02-02 Automotive Technologies International, Inc. Vehicle-mounted monitoring arrangement and method using light-regulation
US9102220B2 (en) 1992-05-05 2015-08-11 American Vehicular Sciences Llc Vehicular crash notification system
US9008854B2 (en) 1995-06-07 2015-04-14 American Vehicular Sciences Llc Vehicle component control methods and systems
US10573093B2 (en) 1995-06-07 2020-02-25 Automotive Technologies International, Inc. Vehicle computer design and use techniques for receiving navigation software
US9443358B2 (en) 1995-06-07 2016-09-13 Automotive Vehicular Sciences LLC Vehicle software upgrade techniques
US6445884B1 (en) * 1995-06-22 2002-09-03 3Dv Systems, Ltd. Camera with through-the-lens lighting
US7744122B2 (en) 1995-12-12 2010-06-29 Automotive Technologies International, Inc. Driver side aspirated airbags
JPH10222663A (en) * 1997-01-31 1998-08-21 Yamaha Motor Co Ltd Picture recognition system and device therefor
EP0970502A1 (en) 1997-03-07 2000-01-12 3DV Systems Ltd. Optical shutter
JP2002508885A (en) 1997-04-08 2002-03-19 スリーディーヴィー システムズ リミテッド Solid light shutter
EP1017973A1 (en) * 1997-09-24 2000-07-12 3DV Systems Ltd. Acoustical imaging system
US8209120B2 (en) 1997-10-22 2012-06-26 American Vehicular Sciences Llc Vehicular map database management techniques
US8983771B2 (en) 1997-10-22 2015-03-17 Intelligent Technologies International, Inc. Inter-vehicle information conveyance system and method
US9177476B2 (en) 1997-10-22 2015-11-03 American Vehicular Sciences Llc Method and system for guiding a person to a location
US8060308B2 (en) 1997-10-22 2011-11-15 Intelligent Technologies International, Inc. Weather monitoring techniques
US10358057B2 (en) 1997-10-22 2019-07-23 American Vehicular Sciences Llc In-vehicle signage techniques
US8965677B2 (en) 1998-10-22 2015-02-24 Intelligent Technologies International, Inc. Intra-vehicle information conveyance system and method
US9595139B1 (en) 1997-10-22 2017-03-14 Intelligent Technologies International, Inc. Universal tolling system and method
US9691188B2 (en) 1997-10-22 2017-06-27 Intelligent Technologies International, Inc. Tolling system and method using telecommunications
US9053633B2 (en) 1997-10-22 2015-06-09 Intelligent Technologies International, Inc. Universal tolling system and method
US6765606B1 (en) 1997-11-13 2004-07-20 3Dv Systems, Ltd. Three dimension imaging by dual wavelength triangulation
EP1055146B1 (en) 1998-02-08 2003-01-22 3DV Ltd. Large aperture optical image shutter
JP3868621B2 (en) 1998-03-17 2007-01-17 株式会社東芝 Image acquisition apparatus, image acquisition method, and recording medium
US6587183B1 (en) * 1998-05-25 2003-07-01 Matsushita Electric Industrial Co., Ltd. Range finder and camera
JP4105801B2 (en) * 1998-07-02 2008-06-25 ペンタックス株式会社 3D image input device
DE69827529T2 (en) 1998-09-28 2005-11-10 3Dv Systems Ltd. DISTANCE MEASUREMENT BY CAMERA
JP3840341B2 (en) * 1998-10-15 2006-11-01 浜松ホトニクス株式会社 Three-dimensional information detection method and apparatus
US10240935B2 (en) 1998-10-22 2019-03-26 American Vehicular Sciences Llc Vehicle software upgrade techniques
US6876392B1 (en) * 1998-12-22 2005-04-05 Matsushita Electric Industrial Co., Ltd. Rangefinder for obtaining information from a three-dimensional object
JP2000221037A (en) * 1999-01-29 2000-08-11 Topcon Corp Automatic surveying machine and three-dimensional measuring method
JP4303354B2 (en) * 1999-04-13 2009-07-29 Hoya株式会社 3D image input device
JP4157223B2 (en) 1999-04-13 2008-10-01 Hoya株式会社 3D image input device
US6982761B1 (en) * 1999-06-09 2006-01-03 Pentax Corporation Device for capturing three-dimensional images with independently controllable groups of photoelectric conversion elements
US6822687B1 (en) * 1999-07-08 2004-11-23 Pentax Corporation Three-dimensional image capturing device and its laser emitting device
US6619406B1 (en) * 1999-07-14 2003-09-16 Cyra Technologies, Inc. Advanced applications for 3-D autoscanning LIDAR system
JP4070909B2 (en) * 1999-07-15 2008-04-02 ペンタックス株式会社 Electronic camera white balance control amount calculation device
US6961092B1 (en) 1999-07-30 2005-11-01 Pentax Corporation Three-dimensional image capturing device
US6166811A (en) * 1999-08-12 2000-12-26 Perceptron, Inc. Robot-based gauging system for determining three-dimensional measurement data
ATE285079T1 (en) 1999-09-08 2005-01-15 3Dv Systems Ltd 3D IMAGE PRODUCTION SYSTEM
US7196390B1 (en) 1999-09-26 2007-03-27 3Dv Systems Ltd. Solid state image wavelength converter
JP3875817B2 (en) 1999-09-27 2007-01-31 ペンタックス株式会社 Map coordinate detection system for ranging device
JP3714063B2 (en) * 1999-10-19 2005-11-09 富士ゼロックス株式会社 3D shape measuring device
JP2001153624A (en) 1999-11-24 2001-06-08 Asahi Optical Co Ltd Three-dimensional image input device
US6856355B1 (en) * 1999-11-30 2005-02-15 Eastman Kodak Company Method and apparatus for a color scannerless range image system
US6794628B2 (en) 2000-01-03 2004-09-21 3Dv Systems, Ltd. Solid state optical shutter
US6515737B2 (en) * 2000-01-04 2003-02-04 The Regents Of The University Of California High-resolution imaging and target designation through clouds or smoke
US6349174B1 (en) * 2000-05-17 2002-02-19 Eastman Kodak Company Method and apparatus for a color scannerless range imaging system
JP2001337166A (en) * 2000-05-26 2001-12-07 Minolta Co Ltd Method and device for three-dimensional input
US6834128B1 (en) * 2000-06-16 2004-12-21 Hewlett-Packard Development Company, L.P. Image mosaicing system and method adapted to mass-market hand-held digital cameras
JP2004503188A (en) 2000-07-09 2004-01-29 スリーディーヴィー システムズ リミテッド Camera with through-the-lens illuminator
US6456793B1 (en) * 2000-08-03 2002-09-24 Eastman Kodak Company Method and apparatus for a color scannerless range imaging system
US6411871B1 (en) * 2000-08-05 2002-06-25 American Gnc Corporation Autonomous navigation, guidance and control using LDRI
US6535275B2 (en) * 2000-08-09 2003-03-18 Dialog Semiconductor Gmbh High resolution 3-D imaging range finder
US6410930B1 (en) * 2000-08-24 2002-06-25 Eastman Kodak Company Method and apparatus for aligning a color scannerless range imaging system
US6639684B1 (en) * 2000-09-13 2003-10-28 Nextengine, Inc. Digitizer using intensity gradient to image features of three-dimensional objects
US7358986B1 (en) 2000-09-13 2008-04-15 Nextengine, Inc. Digital imaging system having distribution controlled over a distributed network
WO2002023887A2 (en) * 2000-09-13 2002-03-21 Nextengine, Inc. Imaging system monitored or controlled to ensure fidelity of file captured
US6856407B2 (en) * 2000-09-13 2005-02-15 Nextengine, Inc. Method for depth detection in 3D imaging providing a depth measurement for each unitary group of pixels
US6958777B1 (en) * 2000-09-29 2005-10-25 Ess Technology, Inc. Exposure control in electromechanical imaging devices
JP4533582B2 (en) * 2000-12-11 2010-09-01 カネスタ インコーポレイテッド A CMOS compatible 3D image sensing system using quantum efficiency modulation
JP2002191554A (en) * 2000-12-26 2002-07-09 Asahi Optical Co Ltd Electronic endoscope provided with three-dimensional image detector
US6999219B2 (en) 2001-01-30 2006-02-14 3Dv Systems, Ltd. Optical modulator
US7233351B1 (en) 2001-02-23 2007-06-19 Nextengine, Inc. Method for high resolution incremental imaging
US6480265B2 (en) * 2001-03-26 2002-11-12 Deep Optic Ltd. Active target distance measurement
JP4530571B2 (en) 2001-04-16 2010-08-25 Hoya株式会社 3D image detection device
JP3726699B2 (en) * 2001-04-20 2005-12-14 日本ビクター株式会社 Optical imaging device, optical distance measuring device
CA2348212A1 (en) * 2001-05-24 2002-11-24 Will Bauer Automatic pan/tilt pointing device, luminaire follow-spot, and 6dof 3d position/orientation calculation information gathering system
JP4931288B2 (en) 2001-06-08 2012-05-16 ペンタックスリコーイメージング株式会社 Image detection device and diaphragm device
US7160258B2 (en) 2001-06-26 2007-01-09 Entrack, Inc. Capsule and method for treating or diagnosing the intestinal tract
DE10133126A1 (en) * 2001-07-07 2003-01-16 Philips Corp Intellectual Pty Directionally sensitive audio pickup system for entertainment electronic appliance, has display and speaker to provide visual display and acoustical indication of pickup area of audio pickup system and interference sources
US7212278B2 (en) * 2001-08-06 2007-05-01 Siemens Aktiengesellschaft Method and device for recording a three-dimensional distance-measuring image
JP2003149717A (en) * 2001-11-19 2003-05-21 Mitsubishi Heavy Ind Ltd Method and device for image pickup
FR2832892B1 (en) * 2001-11-27 2004-04-02 Thomson Licensing Sa SPECIAL EFFECTS VIDEO CAMERA
US20030147002A1 (en) * 2002-02-06 2003-08-07 Eastman Kodak Company Method and apparatus for a color sequential scannerless range imaging system
EP1335235A3 (en) * 2002-02-12 2003-09-17 MARICO s.a.s di Dallara Riccardo &amp; C. A vision system using projection of figures of light
JP3832441B2 (en) 2002-04-08 2006-10-11 松下電工株式会社 Spatial information detection device using intensity-modulated light
AU2003225228A1 (en) 2002-05-03 2003-11-17 Donnelly Corporation Object detection system for vehicle
US9007197B2 (en) * 2002-05-20 2015-04-14 Intelligent Technologies International, Inc. Vehicular anticipatory sensor system
DE10223136C1 (en) * 2002-05-24 2003-12-24 Fraunhofer Ges Forschung Procedure for adjusting and setting the depth measurement range of a studio camera
US20030235338A1 (en) * 2002-06-19 2003-12-25 Meetrix Corporation Transmission of independently compressed video objects over internet protocol
US7429996B2 (en) * 2002-07-16 2008-09-30 Intel Corporation Apparatus and method for sensing depth in every direction
US7161579B2 (en) * 2002-07-18 2007-01-09 Sony Computer Entertainment Inc. Hand-held computer interactive device
US8947347B2 (en) * 2003-08-27 2015-02-03 Sony Computer Entertainment Inc. Controlling actions in a video game unit
US7883415B2 (en) 2003-09-15 2011-02-08 Sony Computer Entertainment Inc. Method and apparatus for adjusting a view of a scene being displayed according to tracked head motion
US7102615B2 (en) * 2002-07-27 2006-09-05 Sony Computer Entertainment Inc. Man-machine interface using a deformable device
US7646372B2 (en) * 2003-09-15 2010-01-12 Sony Computer Entertainment Inc. Methods and systems for enabling direction detection when interfacing with a computer program
US8797260B2 (en) 2002-07-27 2014-08-05 Sony Computer Entertainment Inc. Inertially trackable hand-held controller
US7623115B2 (en) * 2002-07-27 2009-11-24 Sony Computer Entertainment Inc. Method and apparatus for light input device
US7760248B2 (en) 2002-07-27 2010-07-20 Sony Computer Entertainment Inc. Selective sound source listening in conjunction with computer interactive processing
US7854655B2 (en) 2002-07-27 2010-12-21 Sony Computer Entertainment America Inc. Obtaining input for controlling execution of a game program
US8313380B2 (en) 2002-07-27 2012-11-20 Sony Computer Entertainment America Llc Scheme for translating movements of a hand-held controller into inputs for a system
US8686939B2 (en) 2002-07-27 2014-04-01 Sony Computer Entertainment Inc. System, method, and apparatus for three-dimensional input control
US7627139B2 (en) * 2002-07-27 2009-12-01 Sony Computer Entertainment Inc. Computer image and audio processing of intensity and input devices for interfacing with a computer program
US7850526B2 (en) * 2002-07-27 2010-12-14 Sony Computer Entertainment America Inc. System for tracking user manipulations within an environment
US7803050B2 (en) * 2002-07-27 2010-09-28 Sony Computer Entertainment Inc. Tracking device with sound emitter for use in obtaining information for controlling game program execution
US9393487B2 (en) 2002-07-27 2016-07-19 Sony Interactive Entertainment Inc. Method for mapping movements of a hand-held controller to game commands
US9474968B2 (en) 2002-07-27 2016-10-25 Sony Interactive Entertainment America Llc Method and system for applying gearing effects to visual tracking
US8233642B2 (en) * 2003-08-27 2012-07-31 Sony Computer Entertainment Inc. Methods and apparatuses for capturing an audio signal based on a location of the signal
US7918733B2 (en) * 2002-07-27 2011-04-05 Sony Computer Entertainment America Inc. Multi-input game control mixer
US8139793B2 (en) * 2003-08-27 2012-03-20 Sony Computer Entertainment Inc. Methods and apparatus for capturing audio signals based on a visual image
US8160269B2 (en) * 2003-08-27 2012-04-17 Sony Computer Entertainment Inc. Methods and apparatuses for adjusting a listening area for capturing sounds
US9174119B2 (en) 2002-07-27 2015-11-03 Sony Computer Entertainement America, LLC Controller for providing inputs to control execution of a program when inputs are combined
US8570378B2 (en) 2002-07-27 2013-10-29 Sony Computer Entertainment Inc. Method and apparatus for tracking three-dimensional movements of an object using a depth sensing camera
US9682319B2 (en) 2002-07-31 2017-06-20 Sony Interactive Entertainment Inc. Combiner method for altering game gearing
US9177387B2 (en) 2003-02-11 2015-11-03 Sony Computer Entertainment Inc. Method and apparatus for real time motion capture
US7186969B2 (en) * 2003-02-12 2007-03-06 Mitutoyo Corporation Optical configuration for imaging-type optical encoders
US7505862B2 (en) * 2003-03-07 2009-03-17 Salmon Technologies, Llc Apparatus and method for testing electronic systems
EP1418401A1 (en) * 2003-03-26 2004-05-12 Leica Geosystems AG Method and device for airborne or spaceborne photogrammetry
JP2004312249A (en) * 2003-04-04 2004-11-04 Olympus Corp Camera
US6791673B1 (en) * 2003-04-07 2004-09-14 Robert E. Malm Ground surveillance system
NZ525241A (en) * 2003-04-08 2006-02-24 Univ Waikato Range sensing system with shuttered receiver.
US7316930B1 (en) 2003-04-21 2008-01-08 National Semiconductor Corporation Use of vertically stacked photodiodes in a gene chip system
JP4355341B2 (en) * 2003-05-29 2009-10-28 本田技研工業株式会社 Visual tracking using depth data
US8072470B2 (en) 2003-05-29 2011-12-06 Sony Computer Entertainment Inc. System and method for providing a real-time three-dimensional interactive environment
US7620202B2 (en) * 2003-06-12 2009-11-17 Honda Motor Co., Ltd. Target orientation estimation using depth sensing
US7044908B1 (en) 2003-07-08 2006-05-16 National Semiconductor Corporation Method and system for dynamically adjusting field of view in a capsule endoscope
ITRM20030360A1 (en) * 2003-07-23 2005-01-24 Marcello Marzoli PROCEDURE OF THREE-DIMENSIONAL RECONSTRUCTION OF IMAGES
US7399274B1 (en) 2003-08-19 2008-07-15 National Semiconductor Corporation Sensor configuration for a capsule endoscope
US7191164B2 (en) * 2003-08-19 2007-03-13 Intel Corporation Searching for object images with reduced computation
US20070223732A1 (en) * 2003-08-27 2007-09-27 Mao Xiao D Methods and apparatuses for adjusting a visual image based on an audio signal
US8323106B2 (en) 2008-05-30 2012-12-04 Sony Computer Entertainment America Llc Determination of controller three-dimensional location using image analysis and ultrasonic communication
US7874917B2 (en) 2003-09-15 2011-01-25 Sony Computer Entertainment Inc. Methods and systems for enabling depth and direction detection when interfacing with a computer program
US9573056B2 (en) 2005-10-26 2017-02-21 Sony Interactive Entertainment Inc. Expandable control device via hardware attachment
US8287373B2 (en) 2008-12-05 2012-10-16 Sony Computer Entertainment Inc. Control device for communicating visual information
US10279254B2 (en) * 2005-10-26 2019-05-07 Sony Interactive Entertainment Inc. Controller having visually trackable object for interfacing with a gaming system
WO2005036372A2 (en) * 2003-10-09 2005-04-21 Honda Motor Co., Ltd. Systems and methods for determining depth using shuttered light pulses
US7110100B2 (en) * 2003-11-04 2006-09-19 Electronic Scripting Products, Inc. Apparatus and method for determining an inclination of an elongate object contacting a plane surface
US20050134608A1 (en) * 2003-12-19 2005-06-23 Texas Instruments Incorporated Method, and related system, for overlaying a graphics object on a digital picture
US7663689B2 (en) 2004-01-16 2010-02-16 Sony Computer Entertainment Inc. Method and apparatus for optimizing capture device settings through depth information
DE102004009541A1 (en) * 2004-02-23 2005-09-15 Iris-Gmbh Infrared & Intelligent Sensors User controllable acquisition system
US7023536B2 (en) * 2004-03-08 2006-04-04 Electronic Scripting Products, Inc. Apparatus and method for determining orientation parameters of an elongate object
DE102004014048B4 (en) * 2004-03-19 2008-10-30 Sirona Dental Systems Gmbh Measuring device and method according to the basic principle of confocal microscopy
US7161664B2 (en) 2004-04-13 2007-01-09 Electronic Scripting Products, Inc. Apparatus and method for optical determination of intermediate distances
US7526103B2 (en) 2004-04-15 2009-04-28 Donnelly Corporation Imaging system for vehicle
US7711179B2 (en) * 2004-04-21 2010-05-04 Nextengine, Inc. Hand held portable three dimensional scanner
DE602005004332T2 (en) 2004-06-17 2009-01-08 Cadent Ltd. Method for providing data related to the oral cavity
JP4645177B2 (en) * 2004-11-30 2011-03-09 パナソニック電工株式会社 Measuring device
EP2312336B1 (en) * 2004-07-30 2012-03-14 Panasonic Corporation Image processing device
US7843488B2 (en) * 2004-08-09 2010-11-30 Stapleton John J Vision thermalization for sightless and visually impaired
US8547401B2 (en) 2004-08-19 2013-10-01 Sony Computer Entertainment Inc. Portable augmented reality device and method
JP4525253B2 (en) * 2004-08-30 2010-08-18 オムロン株式会社 Optical sensor and distance measuring method
US20060045174A1 (en) * 2004-08-31 2006-03-02 Ittiam Systems (P) Ltd. Method and apparatus for synchronizing a transmitter clock of an analog modem to a remote clock
JP2008529709A (en) * 2005-02-17 2008-08-07 スリー ディーブイ システムズ エルティーディー Method and apparatus for imaging tissue
US9247215B1 (en) * 2005-04-22 2016-01-26 Custom Manufacturing & Engineering, Inc. Laser sensor system
RU2298223C2 (en) * 2005-04-25 2007-04-27 Самсунг Электроникс Ко., Лтд. System and method for correcting dark tones on digital photographs
US8294809B2 (en) 2005-05-10 2012-10-23 Advanced Scientific Concepts, Inc. Dimensioning system
US7991242B2 (en) 2005-05-11 2011-08-02 Optosecurity Inc. Apparatus, method and system for screening receptacles and persons, having image distortion correction functionality
EP1886257A1 (en) 2005-05-11 2008-02-13 Optosecurity Inc. Method and system for screening luggage items, cargo containers or persons
JP2006337286A (en) * 2005-06-03 2006-12-14 Ricoh Co Ltd Shape-measuring device
JP2007214527A (en) * 2006-01-13 2007-08-23 Ihi Corp Laser annealing method and laser annealer
US7995834B1 (en) 2006-01-20 2011-08-09 Nextengine, Inc. Multiple laser scanner
US20110014981A1 (en) * 2006-05-08 2011-01-20 Sony Computer Entertainment Inc. Tracking device with sound emitter for use in obtaining information for controlling game program execution
US7899232B2 (en) 2006-05-11 2011-03-01 Optosecurity Inc. Method and apparatus for providing threat image projection (TIP) in a luggage screening system, and luggage screening system implementing same
JP4395150B2 (en) * 2006-06-28 2010-01-06 富士フイルム株式会社 Distance image sensor
US7835221B2 (en) * 2006-07-06 2010-11-16 Westerngeco L.L.C. Optical methods and systems in marine seismic surveying
US8494210B2 (en) 2007-03-30 2013-07-23 Optosecurity Inc. User interface for use in security screening providing image enhancement capabilities and apparatus for implementing same
US7972045B2 (en) 2006-08-11 2011-07-05 Donnelly Corporation Automatic headlamp control system
JP4440239B2 (en) * 2006-08-18 2010-03-24 富士フイルム株式会社 Distance image creation method, distance image sensor, and photographing apparatus
CN100592127C (en) * 2006-09-06 2010-02-24 鸿富锦精密工业(深圳)有限公司 Camera module group
US8781151B2 (en) 2006-09-28 2014-07-15 Sony Computer Entertainment Inc. Object detection using video input combined with tilt angle information
USRE48417E1 (en) 2006-09-28 2021-02-02 Sony Interactive Entertainment Inc. Object direction using video input combined with tilt angle information
US8310656B2 (en) 2006-09-28 2012-11-13 Sony Computer Entertainment America Llc Mapping movements of a hand-held controller to the two-dimensional image plane of a display screen
US7891818B2 (en) 2006-12-12 2011-02-22 Evans & Sutherland Computer Corporation System and method for aligning RGB light in a single modulator projector
JP2010516153A (en) * 2007-01-14 2010-05-13 マイクロソフト インターナショナル ホールディングス ビイ.ヴイ. Method, apparatus and system for image processing
US20080231835A1 (en) * 2007-03-23 2008-09-25 Keigo Iizuka Divergence ratio distance mapping camera
US8542907B2 (en) * 2007-12-17 2013-09-24 Sony Computer Entertainment America Llc Dynamic three-dimensional object mapping for user-defined control device
CN102099703A (en) * 2007-12-19 2011-06-15 微软国际控股私有有限公司 3d camera and methods of gating thereof
US8149210B2 (en) * 2007-12-31 2012-04-03 Microsoft International Holdings B.V. Pointing device and method
US8840470B2 (en) 2008-02-27 2014-09-23 Sony Computer Entertainment America Llc Methods for capturing depth data of a scene and applying computer actions
US8121351B2 (en) * 2008-03-09 2012-02-21 Microsoft International Holdings B.V. Identification of objects in a 3D video using non/over reflective clothing
US8368753B2 (en) 2008-03-17 2013-02-05 Sony Computer Entertainment America Llc Controller with an integrated depth camera
JP2009276248A (en) * 2008-05-15 2009-11-26 Mitsubishi Electric Corp Laser radar device
US8358317B2 (en) 2008-05-23 2013-01-22 Evans & Sutherland Computer Corporation System and method for displaying a planar image on a curved surface
US8187097B1 (en) 2008-06-04 2012-05-29 Zhang Evan Y W Measurement and segment of participant's motion in game play
US8702248B1 (en) 2008-06-11 2014-04-22 Evans & Sutherland Computer Corporation Projection method for reducing interpixel gaps on a viewing surface
US8227965B2 (en) 2008-06-20 2012-07-24 Arradiance, Inc. Microchannel plate devices with tunable resistive films
US8890952B2 (en) 2008-07-29 2014-11-18 Microsoft Corporation Imaging system
US8682522B2 (en) * 2008-08-18 2014-03-25 Raytheon Company Systems and methods for triaging a plurality of targets with a robotic vehicle
US8133119B2 (en) * 2008-10-01 2012-03-13 Microsoft Corporation Adaptation for alternate gaming input devices
DE102008052064B4 (en) * 2008-10-17 2010-09-09 Diehl Bgt Defence Gmbh & Co. Kg Device for taking pictures of an object scene
US8077378B1 (en) 2008-11-12 2011-12-13 Evans & Sutherland Computer Corporation Calibration system and method for light modulation device
HUE039300T2 (en) 2008-11-25 2018-12-28 Tetravue Inc Systems and methods of high resolution three-dimensional imaging
US8961313B2 (en) 2009-05-29 2015-02-24 Sony Computer Entertainment America Llc Multi-positional three-dimensional controller
EP2200006B1 (en) * 2008-12-19 2013-03-13 Saab Ab Method and arrangement for estimating at least one parameter of an intruder
US8681321B2 (en) * 2009-01-04 2014-03-25 Microsoft International Holdings B.V. Gated 3D camera
JP5230456B2 (en) * 2009-01-09 2013-07-10 キヤノン株式会社 Image processing apparatus and image processing method
US8295546B2 (en) 2009-01-30 2012-10-23 Microsoft Corporation Pose tracking pipeline
US8294767B2 (en) 2009-01-30 2012-10-23 Microsoft Corporation Body scan
US9652030B2 (en) 2009-01-30 2017-05-16 Microsoft Technology Licensing, Llc Navigation of a virtual plane using a zone of restriction for canceling noise
US8866821B2 (en) 2009-01-30 2014-10-21 Microsoft Corporation Depth map movement tracking via optical flow and velocity prediction
US8773355B2 (en) * 2009-03-16 2014-07-08 Microsoft Corporation Adaptive cursor sizing
US8988437B2 (en) * 2009-03-20 2015-03-24 Microsoft Technology Licensing, Llc Chaining animations
US8527657B2 (en) * 2009-03-20 2013-09-03 Sony Computer Entertainment America Llc Methods and systems for dynamically adjusting update rates in multi-player network gaming
US9256282B2 (en) * 2009-03-20 2016-02-09 Microsoft Technology Licensing, Llc Virtual object manipulation
EP2236980B1 (en) * 2009-03-31 2018-05-02 Alcatel Lucent A method for determining the relative position of a first and a second imaging device and devices therefore
US8342963B2 (en) 2009-04-10 2013-01-01 Sony Computer Entertainment America Inc. Methods and systems for enabling control of artificial intelligence game characters
US9498718B2 (en) * 2009-05-01 2016-11-22 Microsoft Technology Licensing, Llc Altering a view perspective within a display environment
US9898675B2 (en) * 2009-05-01 2018-02-20 Microsoft Technology Licensing, Llc User movement tracking feedback to improve tracking
US8942428B2 (en) 2009-05-01 2015-01-27 Microsoft Corporation Isolate extraneous motions
US8253746B2 (en) * 2009-05-01 2012-08-28 Microsoft Corporation Determine intended motions
US8181123B2 (en) * 2009-05-01 2012-05-15 Microsoft Corporation Managing virtual port associations to users in a gesture-based computing environment
US9015638B2 (en) * 2009-05-01 2015-04-21 Microsoft Technology Licensing, Llc Binding users to a gesture based system and providing feedback to the users
US8503720B2 (en) * 2009-05-01 2013-08-06 Microsoft Corporation Human body pose estimation
US9377857B2 (en) * 2009-05-01 2016-06-28 Microsoft Technology Licensing, Llc Show body position
US8340432B2 (en) 2009-05-01 2012-12-25 Microsoft Corporation Systems and methods for detecting a tilt angle from a depth image
US8649554B2 (en) 2009-05-01 2014-02-11 Microsoft Corporation Method to control perspective for a camera-controlled computer
US20100277470A1 (en) * 2009-05-01 2010-11-04 Microsoft Corporation Systems And Methods For Applying Model Tracking To Motion Capture
US8638985B2 (en) 2009-05-01 2014-01-28 Microsoft Corporation Human body pose estimation
US8142288B2 (en) 2009-05-08 2012-03-27 Sony Computer Entertainment America Llc Base station movement detection and compensation
US8393964B2 (en) 2009-05-08 2013-03-12 Sony Computer Entertainment America Llc Base station for position location
US20100302376A1 (en) * 2009-05-27 2010-12-02 Pierre Benoit Boulanger System and method for high-quality real-time foreground/background separation in tele-conferencing using self-registered color/infrared input images and closed-form natural image matting techniques
ES2553111T3 (en) 2009-05-28 2015-12-04 Ben Gurion University Of The Negev Research And Development Authority Balance disturbance system and trainer
US20100302365A1 (en) * 2009-05-29 2010-12-02 Microsoft Corporation Depth Image Noise Reduction
US8145594B2 (en) * 2009-05-29 2012-03-27 Microsoft Corporation Localized gesture aggregation
US20100306716A1 (en) * 2009-05-29 2010-12-02 Microsoft Corporation Extending standard gestures
US8320619B2 (en) 2009-05-29 2012-11-27 Microsoft Corporation Systems and methods for tracking a model
US9400559B2 (en) 2009-05-29 2016-07-26 Microsoft Technology Licensing, Llc Gesture shortcuts
US8744121B2 (en) 2009-05-29 2014-06-03 Microsoft Corporation Device for identifying and tracking multiple humans over time
US20100306685A1 (en) * 2009-05-29 2010-12-02 Microsoft Corporation User movement feedback via on-screen avatars
US8509479B2 (en) 2009-05-29 2013-08-13 Microsoft Corporation Virtual object
US20100302138A1 (en) * 2009-05-29 2010-12-02 Microsoft Corporation Methods and systems for defining or modifying a visual representation
US8803889B2 (en) 2009-05-29 2014-08-12 Microsoft Corporation Systems and methods for applying animations or motions to a character
US8542252B2 (en) * 2009-05-29 2013-09-24 Microsoft Corporation Target digitization, extraction, and tracking
US9182814B2 (en) * 2009-05-29 2015-11-10 Microsoft Technology Licensing, Llc Systems and methods for estimating a non-visible or occluded body part
US8379101B2 (en) 2009-05-29 2013-02-19 Microsoft Corporation Environment and/or target segmentation
US8418085B2 (en) * 2009-05-29 2013-04-09 Microsoft Corporation Gesture coach
US8176442B2 (en) * 2009-05-29 2012-05-08 Microsoft Corporation Living cursor control mechanics
US8625837B2 (en) * 2009-05-29 2014-01-07 Microsoft Corporation Protocol and format for communicating an image from a camera to a computing environment
US9383823B2 (en) 2009-05-29 2016-07-05 Microsoft Technology Licensing, Llc Combining gestures beyond skeletal
US8856691B2 (en) * 2009-05-29 2014-10-07 Microsoft Corporation Gesture tool
US7914344B2 (en) * 2009-06-03 2011-03-29 Microsoft Corporation Dual-barrel, connector jack and plug assemblies
US8390680B2 (en) 2009-07-09 2013-03-05 Microsoft Corporation Visual representation expression based on player expression
US9159151B2 (en) * 2009-07-13 2015-10-13 Microsoft Technology Licensing, Llc Bringing a visual representation to life via learned input from the user
US20110025689A1 (en) * 2009-07-29 2011-02-03 Microsoft Corporation Auto-Generating A Visual Representation
US9141193B2 (en) * 2009-08-31 2015-09-22 Microsoft Technology Licensing, Llc Techniques for using human gestures to control gesture unaware programs
US9014546B2 (en) 2009-09-23 2015-04-21 Rovi Guides, Inc. Systems and methods for automatically detecting users within detection regions of media devices
US20110109617A1 (en) * 2009-11-12 2011-05-12 Microsoft Corporation Visualizing Depth
KR101675112B1 (en) * 2010-01-21 2016-11-22 삼성전자주식회사 Method of extractig depth information and optical apparatus employing the method
US8134719B2 (en) * 2010-03-19 2012-03-13 Carestream Health, Inc. 3-D imaging using telecentric defocus
JP5519381B2 (en) * 2010-04-09 2014-06-11 トヨタ自動車株式会社 Spectrum measuring device
DE102010028949A1 (en) * 2010-05-12 2011-11-17 Osram Gesellschaft mit beschränkter Haftung headlight module
US8384770B2 (en) * 2010-06-02 2013-02-26 Nintendo Co., Ltd. Image display system, image display apparatus, and image display method
EP2395767B1 (en) 2010-06-11 2014-11-12 Nintendo Co., Ltd. Image display program, image display system, and image display method
TWI540312B (en) * 2010-06-15 2016-07-01 原相科技股份有限公司 Time of flight system capable of increasing measurement accuracy, saving power and/or increasing motion detection rate and method thereof
CN102346020B (en) * 2010-08-04 2013-10-23 原相科技股份有限公司 Three-dimensional information generation device and method for interactive interface
KR101753312B1 (en) * 2010-09-17 2017-07-03 삼성전자주식회사 Apparatus and method for generating depth image
JP5739674B2 (en) 2010-09-27 2015-06-24 任天堂株式会社 Information processing program, information processing apparatus, information processing system, and information processing method
US8681255B2 (en) 2010-09-28 2014-03-25 Microsoft Corporation Integrated low power depth camera and projection device
US9344736B2 (en) 2010-09-30 2016-05-17 Alcatel Lucent Systems and methods for compressive sense imaging
US9319578B2 (en) * 2012-10-24 2016-04-19 Alcatel Lucent Resolution and focus enhancement
US9484065B2 (en) 2010-10-15 2016-11-01 Microsoft Technology Licensing, Llc Intelligent determination of replays based on event identification
US8667519B2 (en) 2010-11-12 2014-03-04 Microsoft Corporation Automatic passive and anonymous feedback system
JP5574927B2 (en) * 2010-11-19 2014-08-20 キヤノン株式会社 measuring device
KR101691156B1 (en) * 2010-12-14 2016-12-30 삼성전자주식회사 Optical system having integrated illumination and imaging systems and 3D image acquisition apparatus including the optical system
KR101798063B1 (en) 2010-12-14 2017-11-15 삼성전자주식회사 Illumination optical system and 3D image acquisition apparatus including the same
US20120154535A1 (en) * 2010-12-15 2012-06-21 Microsoft Corporation Capturing gated and ungated light in the same frame on the same photosurface
GB2486467A (en) 2010-12-16 2012-06-20 Thermo Electron Mfg Ltd Hybrid electrical/optical cable uses transparent insulating material as optical waveguide
KR101722641B1 (en) 2010-12-23 2017-04-04 삼성전자주식회사 3D image acquisition apparatus and method of extractig depth information in the 3D image acquisition apparatus
DE102011010334B4 (en) * 2011-02-04 2014-08-28 Eads Deutschland Gmbh Camera system and method for observing objects at a great distance, in particular for monitoring target objects at night, mist, dust or rain
US8942917B2 (en) 2011-02-14 2015-01-27 Microsoft Corporation Change invariant scene recognition by an agent
WO2012110924A1 (en) * 2011-02-15 2012-08-23 Basf Se Detector for optically detecting at least one object
US8620113B2 (en) 2011-04-25 2013-12-31 Microsoft Corporation Laser diode modes
US8921748B2 (en) * 2011-05-19 2014-12-30 Lockheed Martin Corporation Optical window and detection system employing the same
US8760395B2 (en) 2011-05-31 2014-06-24 Microsoft Corporation Gesture recognition techniques
US10007330B2 (en) 2011-06-21 2018-06-26 Microsoft Technology Licensing, Llc Region of interest segmentation
US8672838B2 (en) * 2011-08-12 2014-03-18 Intuitive Surgical Operations, Inc. Image capture unit in a surgical instrument
US8734328B2 (en) 2011-08-12 2014-05-27 Intuitive Surgical Operations, Inc. Increased resolution and dynamic range image capture unit in a surgical instrument and method
CN103917862A (en) 2011-09-07 2014-07-09 拉皮斯坎系统股份有限公司 X-ray inspection system that integrates manifest data with imaging/detection processing
CN103037173B (en) * 2011-09-28 2015-07-08 原相科技股份有限公司 Image system
TWI526706B (en) 2011-10-05 2016-03-21 原相科技股份有限公司 Image system
US9641826B1 (en) 2011-10-06 2017-05-02 Evans & Sutherland Computer Corporation System and method for displaying distant 3-D stereo on a dome surface
KR101854188B1 (en) * 2011-10-25 2018-05-08 삼성전자주식회사 3D image acquisition apparatus and method of acqiring depth information in the 3D image acquisition apparatus
JP5896702B2 (en) * 2011-11-30 2016-03-30 オリンパス株式会社 Photoacoustic microscope
US8635637B2 (en) 2011-12-02 2014-01-21 Microsoft Corporation User interface presenting an animated avatar performing a media reaction
US9100685B2 (en) 2011-12-09 2015-08-04 Microsoft Technology Licensing, Llc Determining audience state or interest using passive sensor data
JP5576851B2 (en) * 2011-12-27 2014-08-20 本田技研工業株式会社 Ranging system and ranging method
IL217361A0 (en) * 2012-01-04 2012-03-29 Rafael Advanced Defense Sys Device & method providing combined video camera and range finder functionality
KR101955334B1 (en) 2012-02-07 2019-03-07 삼성전자주식회사 3D image acquisition apparatus and method of extractig depth information in the 3D image acquisition apparatus
US8898687B2 (en) 2012-04-04 2014-11-25 Microsoft Corporation Controlling a media program based on a media reaction
US9723233B2 (en) 2012-04-18 2017-08-01 Brightway Vision Ltd. Controllable gated sensor
US9046363B2 (en) * 2012-04-27 2015-06-02 SATOP GmbH Using multispectral satellite data to determine littoral water depths despite varying water turbidity
CA2775700C (en) 2012-05-04 2013-07-23 Microsoft Corporation Determining a future portion of a currently presented media program
JP6011040B2 (en) * 2012-06-07 2016-10-19 オムロン株式会社 Photoelectric sensor
TWM446323U (en) * 2012-08-03 2013-02-01 Ind Tech Res Inst Aperture ratio measurement device, opening distance sensing device and light sensing module
US9071763B1 (en) * 2012-09-26 2015-06-30 Google Inc. Uniform illumination image capture
KR20140064478A (en) 2012-11-20 2014-05-28 삼성디스플레이 주식회사 Image sensing unit, 3d image management apparatus, 3d camera system, and 3d image management method
US9857470B2 (en) 2012-12-28 2018-01-02 Microsoft Technology Licensing, Llc Using photometric stereo for 3D environment modeling
WO2014119241A1 (en) * 2013-01-31 2014-08-07 パナソニック株式会社 Distance measurement method and distance measurement system
US9940553B2 (en) 2013-02-22 2018-04-10 Microsoft Technology Licensing, Llc Camera/object pose from predicted coordinates
KR102040152B1 (en) 2013-04-08 2019-12-05 삼성전자주식회사 An 3D image apparatus and method for generating a depth image in the 3D image apparatus
KR102056904B1 (en) * 2013-05-22 2019-12-18 삼성전자주식회사 3D image acquisition apparatus and method of driving the same
CN105452895B (en) * 2013-06-13 2018-12-18 巴斯夫欧洲公司 For being detected optically by the detector of at least one object
IL227265A0 (en) * 2013-06-30 2013-12-31 Brightway Vision Ltd Smart camera flash
US9674563B2 (en) 2013-11-04 2017-06-06 Rovi Guides, Inc. Systems and methods for recommending content
US10203399B2 (en) 2013-11-12 2019-02-12 Big Sky Financial Corporation Methods and apparatus for array based LiDAR systems with reduced interference
US9568280B1 (en) 2013-11-25 2017-02-14 Lockheed Martin Corporation Solid nose cone and related components
KR102138522B1 (en) * 2013-12-18 2020-07-28 엘지전자 주식회사 Apparatus and method for measuringing the distance
EP2894491B1 (en) * 2013-12-18 2020-05-27 LG Electronics Inc. Distance measuring device and method thereof
WO2015144973A1 (en) * 2014-03-28 2015-10-01 Nokia Technologies Oy Digital imaging with pulsed illumination to generate a depth map
US9360554B2 (en) 2014-04-11 2016-06-07 Facet Technology Corp. Methods and apparatus for object detection and identification in a multiple detector lidar array
CN106464858B (en) * 2014-04-26 2019-08-20 泰特拉维公司 The method and system of durable and extension illumination waveform for the depth sense in 3D imaging
US9256944B2 (en) 2014-05-19 2016-02-09 Rockwell Automation Technologies, Inc. Integration of optical area monitoring with industrial machine control
US9921300B2 (en) * 2014-05-19 2018-03-20 Rockwell Automation Technologies, Inc. Waveform reconstruction in a time-of-flight sensor
US11243294B2 (en) 2014-05-19 2022-02-08 Rockwell Automation Technologies, Inc. Waveform reconstruction in a time-of-flight sensor
US20150334371A1 (en) * 2014-05-19 2015-11-19 Rockwell Automation Technologies, Inc. Optical safety monitoring with selective pixel array analysis
US9696424B2 (en) 2014-05-19 2017-07-04 Rockwell Automation Technologies, Inc. Optical area monitoring with spot matrix illumination
US9534868B1 (en) 2014-06-03 2017-01-03 Lockheed Martin Corporation Aerodynamic conformal nose cone and scanning mechanism
US9291447B2 (en) 2014-07-09 2016-03-22 Mitutoyo Corporation Method for controlling motion of a coordinate measuring machine
KR102194237B1 (en) 2014-08-29 2020-12-22 삼성전자주식회사 Method and apparatus for generating depth image
US9625108B2 (en) 2014-10-08 2017-04-18 Rockwell Automation Technologies, Inc. Auxiliary light source associated with an industrial application
JP6675061B2 (en) * 2014-11-11 2020-04-01 パナソニックIpマネジメント株式会社 Distance detecting device and distance detecting method
CN111337936A (en) * 2015-01-20 2020-06-26 托里派因斯洛基股份有限责任公司 Single-hole laser range finder
EP3059608B1 (en) * 2015-02-20 2016-11-30 Sick Ag Optoelectronic sensor and method for detecting objects
US10254407B2 (en) 2015-03-02 2019-04-09 Northwestern University Electroabsorption modulator for depth imaging and other applications
US10036801B2 (en) 2015-03-05 2018-07-31 Big Sky Financial Corporation Methods and apparatus for increased precision and improved range in a multiple detector LiDAR array
US10145942B2 (en) * 2015-03-27 2018-12-04 Intel Corporation Techniques for spatio-temporal compressed time of flight imaging
US9864048B2 (en) * 2015-05-17 2018-01-09 Microsoft Technology Licensing, Llc. Gated time of flight camera
WO2017016888A1 (en) 2015-07-30 2017-02-02 Koninklijke Philips N.V. Laser sensor for particle density detection
CN105874349B (en) * 2015-07-31 2018-06-12 深圳市大疆创新科技有限公司 Detection device, detection system, detection method and movable equipment
KR102539263B1 (en) * 2015-09-14 2023-06-05 트리나미엑스 게엠베하 camera recording at least one image of at least one object
EP3159711A1 (en) 2015-10-23 2017-04-26 Xenomatix NV System and method for determining a distance to an object
KR102610830B1 (en) 2015-12-24 2023-12-06 삼성전자주식회사 Method and device for acquiring distance information
US10349038B2 (en) * 2016-01-04 2019-07-09 Facebook Technologies, Llc Dynamic control over structured illumination intensity
GB2564038B (en) 2016-02-22 2021-11-10 Rapiscan Systems Inc Systems and methods for detecting threats and contraband in cargo
US11037320B1 (en) 2016-03-01 2021-06-15 AI Incorporated Method for estimating distance using point measurement and color depth
US10311590B1 (en) * 2016-03-01 2019-06-04 Al Incorporated Method for estimating distance using point measurement and color depth
US9866816B2 (en) 2016-03-03 2018-01-09 4D Intellectual Properties, Llc Methods and apparatus for an active pulsed 4D camera for image acquisition and analysis
US10761195B2 (en) 2016-04-22 2020-09-01 OPSYS Tech Ltd. Multi-wavelength LIDAR system
KR20180016120A (en) * 2016-08-05 2018-02-14 삼성전자주식회사 3D depth sensor and Method of measuring distance using the 3D depth sensor
KR20180021509A (en) 2016-08-22 2018-03-05 삼성전자주식회사 Method and device for acquiring distance information
US10066986B2 (en) * 2016-08-31 2018-09-04 GM Global Technology Operations LLC Light emitting sensor having a plurality of secondary lenses of a moveable control structure for controlling the passage of light between a plurality of light emitters and a primary lens
JP6754706B2 (en) 2017-02-14 2020-09-16 京セラ株式会社 Electromagnetic wave detectors, programs, and information acquisition systems
WO2018151226A1 (en) * 2017-02-15 2018-08-23 パイオニア株式会社 Optical scanning device and control method
DE102017103660B4 (en) 2017-02-22 2021-11-11 OSRAM Opto Semiconductors Gesellschaft mit beschränkter Haftung METHOD OF OPERATING A LIGHT SOURCE FOR A CAMERA, LIGHT SOURCE, CAMERA
JP7037830B2 (en) 2017-03-13 2022-03-17 オプシス テック リミテッド Eye safety scanning lidar system
US10366294B2 (en) * 2017-03-23 2019-07-30 Aptiv Technologies Limited Transparency-characteristic based object classification for automated vehicle
US10739447B2 (en) * 2017-04-20 2020-08-11 Wisconsin Alumni Research Foundation Systems, methods, and media for encoding and decoding signals used in time of flight imaging
US10645367B2 (en) * 2017-04-20 2020-05-05 Wisconsin Alumni Research Foundation Systems, methods, and media for encoding and decoding signals used in time of flight imaging
US10754033B2 (en) 2017-06-30 2020-08-25 Waymo Llc Light detection and ranging (LIDAR) device range aliasing resilience by multiple hypotheses
CN115015883A (en) 2017-07-28 2022-09-06 欧普赛斯技术有限公司 VCSEL array LIDAR transmitter with small angular divergence
CN107678038A (en) * 2017-09-27 2018-02-09 上海有个机器人有限公司 Robot collision-proof method, robot and storage medium
WO2019221776A2 (en) 2017-11-15 2019-11-21 OPSYS Tech Ltd. Noise adaptive solid-state lidar system
US11340339B2 (en) 2017-12-22 2022-05-24 Waymo Llc Systems and methods for adaptive range coverage using LIDAR
JP7025940B2 (en) 2018-01-26 2022-02-25 京セラ株式会社 Electromagnetic wave detection device and information acquisition system
JP7042453B2 (en) * 2018-03-20 2022-03-28 パナソニックIpマネジメント株式会社 Distance measuring device, distance measuring system, distance measuring method, and program
US11906663B2 (en) 2018-04-01 2024-02-20 OPSYS Tech Ltd. Noise adaptive solid-state LIDAR system
JP7126123B2 (en) * 2018-05-14 2022-08-26 パナソニックIpマネジメント株式会社 LEARNING DEVICE, LEARNING METHOD AND PROGRAM
CN108563084B (en) * 2018-05-25 2020-10-23 深圳新亮智能技术有限公司 Multi-structure light pattern three-dimensional sensing system
CN109269427A (en) * 2018-10-31 2019-01-25 贵州电网有限责任公司 A kind of electric power line ice-covering thickness accurate measuring systems and its measurement method
DE102018221083A1 (en) * 2018-12-06 2020-06-10 Robert Bosch Gmbh LiDAR system and motor vehicle
CN109470143B (en) * 2018-12-07 2020-07-28 哈尔滨工业大学 External light source high-resolution stereo vision measuring system and method
JP2020125983A (en) * 2019-02-05 2020-08-20 Jnc株式会社 Distance measuring device and distance measuring method
JP2020173165A (en) * 2019-04-10 2020-10-22 パイオニア株式会社 Distance calculation device
CN113906316A (en) 2019-05-30 2022-01-07 欧普赛斯技术有限公司 Eye-safe long-range LIDAR system using actuators
KR102580722B1 (en) 2019-06-10 2023-09-22 옵시스 테크 엘티디 Eye-safe long-range solid-state LIDAR system
JP7401201B2 (en) * 2019-06-17 2023-12-19 株式会社フジタ Underwater bottom shape measuring device
CN110275098B (en) * 2019-06-28 2021-07-09 杭州赫太克科技有限公司 Ultraviolet imager
JP7314659B2 (en) * 2019-07-04 2023-07-26 株式会社リコー Range finder and camera
WO2021015208A1 (en) * 2019-07-22 2021-01-28 株式会社小糸製作所 Active sensor, gating camera, automobile, and vehicle lamp fitting
CN111856091B (en) * 2020-08-04 2021-09-24 河南大学 Method for accurately propelling probe
JP7037609B2 (en) * 2020-08-24 2022-03-16 京セラ株式会社 Electromagnetic wave detectors and programs

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS50113122A (en) * 1973-10-25 1975-09-05
JPS5443493A (en) * 1977-09-12 1979-04-06 Toshiba Corp Radar device
JPS59198378A (en) * 1983-04-27 1984-11-10 Nissan Motor Co Ltd Optical radar equipment
JPH03505123A (en) * 1988-06-20 1991-11-07 アジエイ,キーマル distance measuring device
JPH04169805A (en) * 1990-11-01 1992-06-17 Matsushita Electric Ind Co Ltd Measuring apparatus of three-dimensional image
JPH05273352A (en) * 1991-09-09 1993-10-22 Dornier Luftfahrt Gmbh Method and apparatus for generating distance image
JPH0659038A (en) * 1992-08-07 1994-03-04 Nissan Motor Co Ltd Laser radar for vehicle
JPH07142761A (en) * 1993-11-18 1995-06-02 Mitsubishi Electric Corp Photoreceptor element and its array, device and method for sensing picture
JPH0832855A (en) * 1994-07-11 1996-02-02 Fuji Photo Film Co Ltd Electronic still camera, image synthesizer and image extract device

Family Cites Families (51)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3634725A (en) * 1967-09-28 1972-01-11 Polaroid Corp Modulated electronic flash control
US3571493A (en) * 1967-10-20 1971-03-16 Texas Instruments Inc Intensity modulated laser imagery display
US3629796A (en) * 1968-12-11 1971-12-21 Atlantic Richfield Co Seismic holography
US3734625A (en) * 1969-09-12 1973-05-22 Honeywell Inc Readout system for a magneto-optic memory
US3834816A (en) * 1970-12-10 1974-09-10 Hughes Aircraft Co Colinear heterodyne frequency modulator
US3886303A (en) * 1972-12-21 1975-05-27 Gen Electric Automatic ranging in an active television system
DE2453077B2 (en) * 1974-11-08 1976-09-02 Precitronic Gesellschaft für Feinmechanik und Electronic mbH, 2000 Hamburg RECEIVING TRANSMITTER DEVICE FOR THE TRANSMISSION OF INFORMATION USING CONCENTRATED, MODULATED LIGHT BEAMS
JPS5596475A (en) * 1979-01-19 1980-07-22 Nissan Motor Co Ltd Obstacle detector for vehicle
DE3021448A1 (en) * 1980-06-06 1981-12-24 Siemens AG, 1000 Berlin und 8000 München Spatial deviation detection of surfaces from smooth planes - using optical grid and video image signal analysis
US4769700A (en) * 1981-11-20 1988-09-06 Diffracto Ltd. Robot tractors
JPS57193183A (en) * 1981-05-25 1982-11-27 Mitsubishi Electric Corp Image pickup device
US4408263A (en) * 1981-12-14 1983-10-04 Wonder Corporation Of America Disposable flashlight
DE3404396A1 (en) * 1984-02-08 1985-08-14 Dornier Gmbh, 7990 Friedrichshafen DEVICE AND METHOD FOR TAKING DISTANCE IMAGES
US4734735A (en) * 1985-08-23 1988-03-29 Konishiroku Photo Industry Co., Ltd. Image apparatus having a color separation function
US4687326A (en) * 1985-11-12 1987-08-18 General Electric Company Integrated range and luminance camera
US5255087A (en) * 1986-11-29 1993-10-19 Olympus Optical Co., Ltd. Imaging apparatus and endoscope apparatus using the same
US4971413A (en) * 1987-05-13 1990-11-20 Nikon Corporation Laser beam depicting apparatus
US5081530A (en) * 1987-06-26 1992-01-14 Antonio Medina Three dimensional camera and range finder
US4734733A (en) * 1987-09-21 1988-03-29 Polaroid Corporation Camera with two position strobe
JPH01100492A (en) * 1987-10-14 1989-04-18 Matsushita Electric Ind Co Ltd Laser vision sensor
CH674675A5 (en) * 1987-10-23 1990-06-29 Kern & Co Ag
US4959726A (en) * 1988-03-10 1990-09-25 Fuji Photo Film Co., Ltd. Automatic focusing adjusting device
US4780732A (en) * 1988-03-21 1988-10-25 Xerox Corporation Dual interaction TIR modulator
US5013917A (en) * 1988-07-07 1991-05-07 Kaman Aerospace Corporation Imaging lidar system using non-visible light
US4991953A (en) * 1989-02-09 1991-02-12 Eye Research Institute Of Retina Foundation Scanning laser vitreous camera
US5009502A (en) * 1989-04-20 1991-04-23 Hughes Aircraft Company System of holographic optical elements for testing laser range finders
JPH032582A (en) * 1989-05-30 1991-01-08 Hamamatsu Photonics Kk Body detecting device
US4935616A (en) * 1989-08-14 1990-06-19 The United States Of America As Represented By The Department Of Energy Range imaging laser radar
US5343391A (en) * 1990-04-10 1994-08-30 Mushabac David R Device for obtaining three dimensional contour data and for operating on a patient and related method
US5056914A (en) * 1990-07-12 1991-10-15 Ball Corporation Charge integration range detector
US5090803A (en) * 1990-09-21 1992-02-25 Lockheed Missiles & Space Company, Inc. Optical coordinate transfer assembly
US5198877A (en) * 1990-10-15 1993-03-30 Pixsys, Inc. Method and apparatus for three-dimensional non-contact shape sensing
US5200793A (en) * 1990-10-24 1993-04-06 Kaman Aerospace Corporation Range finding array camera
US5253033A (en) * 1990-12-03 1993-10-12 Raytheon Company Laser radar system with phased-array beam steerer
US5164823A (en) * 1990-12-21 1992-11-17 Kaman Aerospace Corporation Imaging lidar system employing multipulse single and multiple gating for single and stacked frames
US5157451A (en) * 1991-04-01 1992-10-20 John Taboada Laser imaging and ranging system using two cameras
US5225882A (en) * 1991-04-23 1993-07-06 Nec Corporation Moving body measuring apparatus
US5257085A (en) * 1991-04-24 1993-10-26 Kaman Aerospace Corporation Spectrally dispersive imaging lidar system
JP3217386B2 (en) * 1991-04-24 2001-10-09 オリンパス光学工業株式会社 Diagnostic system
US5216259A (en) * 1991-05-10 1993-06-01 Robotic Vision System, Inc. Apparatus and method for improved determination of the spatial location of object surface points
US5200931A (en) * 1991-06-18 1993-04-06 Alliant Techsystems Inc. Volumetric and terrain imaging sonar
US5243553A (en) * 1991-07-02 1993-09-07 Loral Vought Systems Corporation Gate array pulse capture device
US5110203A (en) * 1991-08-28 1992-05-05 The United States Of America As Represented By The Secretary Of The Navy Three dimensional range imaging system
US5265327A (en) * 1991-09-13 1993-11-30 Faris Sadeg M Microchannel plate technology
US5220164A (en) * 1992-02-05 1993-06-15 General Atomics Integrated imaging and ranging lidar receiver with ranging information pickoff circuit
US5408263A (en) * 1992-06-16 1995-04-18 Olympus Optical Co., Ltd. Electronic endoscope apparatus
US5434612A (en) * 1992-09-25 1995-07-18 The United States Of America As Represented By The Secretary Of The Army Duo-frame normalization technique
US5334848A (en) * 1993-04-09 1994-08-02 Trw Inc. Spacecraft docking sensor system
JPH07110381A (en) * 1993-10-07 1995-04-25 Wacom Co Ltd Distance camera device
AU6135996A (en) * 1995-06-22 1997-01-22 3Dv Systems Ltd. Improved optical ranging camera
IL114278A (en) * 1995-06-22 2010-06-16 Microsoft Internat Holdings B Camera and method

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS50113122A (en) * 1973-10-25 1975-09-05
JPS5443493A (en) * 1977-09-12 1979-04-06 Toshiba Corp Radar device
JPS59198378A (en) * 1983-04-27 1984-11-10 Nissan Motor Co Ltd Optical radar equipment
JPH03505123A (en) * 1988-06-20 1991-11-07 アジエイ,キーマル distance measuring device
JPH04169805A (en) * 1990-11-01 1992-06-17 Matsushita Electric Ind Co Ltd Measuring apparatus of three-dimensional image
JPH05273352A (en) * 1991-09-09 1993-10-22 Dornier Luftfahrt Gmbh Method and apparatus for generating distance image
JPH0659038A (en) * 1992-08-07 1994-03-04 Nissan Motor Co Ltd Laser radar for vehicle
JPH07142761A (en) * 1993-11-18 1995-06-02 Mitsubishi Electric Corp Photoreceptor element and its array, device and method for sensing picture
JPH0832855A (en) * 1994-07-11 1996-02-02 Fuji Photo Film Co Ltd Electronic still camera, image synthesizer and image extract device

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
JPN6008048315; S Christie, et al.: '"Design and development of a multi-detecting two-dimensional ranging sensor"' MEASUREMENT SCIENCE & TECHNOLOGY Vol.6, No.9, 199509, p.1301-1308 *

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008003099A (en) * 1995-06-22 2008-01-10 3Dv Systems Ltd Improved optical ranging camera
JP2008014955A (en) * 1995-06-22 2008-01-24 3Dv Systems Ltd Improved optical ranging camera
US10628729B2 (en) 2010-06-08 2020-04-21 Styku, LLC System and method for body scanning and avatar creation
US10628666B2 (en) 2010-06-08 2020-04-21 Styku, LLC Cloud server body scan data system
US11244223B2 (en) 2010-06-08 2022-02-08 Iva Sareen Online garment design and collaboration system and method
US11640672B2 (en) 2010-06-08 2023-05-02 Styku Llc Method and system for wireless ultra-low footprint body scanning
JPWO2017130996A1 (en) * 2016-01-29 2018-06-28 パナソニックIpマネジメント株式会社 Distance measuring device
US20220215224A1 (en) * 2017-06-22 2022-07-07 Iva Sareen Online garment design and collaboration system and method
US11948057B2 (en) * 2017-06-22 2024-04-02 Iva Sareen Online garment design and collaboration system and method

Also Published As

Publication number Publication date
JP4808684B2 (en) 2011-11-02
WO1997001111A2 (en) 1997-01-09
WO1997001112A2 (en) 1997-01-09
EP0886790B1 (en) 2006-03-01
DE69635858D1 (en) 2006-04-27
DE69635891T2 (en) 2006-12-14
CN1253636A (en) 2000-05-17
CN1437063A (en) 2003-08-20
JPH11508359A (en) 1999-07-21
CN1101056C (en) 2003-02-05
EP0835460B1 (en) 2006-03-08
JP5180534B2 (en) 2013-04-10
JPH11508371A (en) 1999-07-21
DE69635891D1 (en) 2006-05-04
CN1194056A (en) 1998-09-23
JP3869005B2 (en) 2007-01-17
US6057909A (en) 2000-05-02
EP0835460A4 (en) 1999-01-13
EP0886790A4 (en) 1999-01-07
JP5180535B2 (en) 2013-04-10
JP5688722B2 (en) 2015-03-25
WO1997001112B1 (en) 2001-04-05
WO1997001112A3 (en) 1997-03-13
JP2008003099A (en) 2008-01-10
WO1997001111A3 (en) 1997-02-27
JP2008014955A (en) 2008-01-24
EP0886790A2 (en) 1998-12-30
JP2009122119A (en) 2009-06-04
EP0835460A2 (en) 1998-04-15
JP2007333746A (en) 2007-12-27
AU6135996A (en) 1997-01-22
DE69635858T2 (en) 2006-11-30
CN100524015C (en) 2009-08-05
JP2008047925A (en) 2008-02-28
US6091905A (en) 2000-07-18
AU6136096A (en) 1997-01-22

Similar Documents

Publication Publication Date Title
JP4808684B2 (en) Improved optical ranging camera
CN1844852B (en) Method for generating hybrid image of scenery
CN110325879B (en) System and method for compressed three-dimensional depth sensing
JP7203217B2 (en) Time-of-flight sensor with structured light illumination
US20210311171A1 (en) Improved 3d sensing
US9435891B2 (en) Time of flight camera with stripe illumination
KR101951318B1 (en) 3D image acquisition apparatus and method of obtaining color and depth images simultaneously
WO1997001111B1 (en) Improved optical ranging camera
JP2006505784A (en) Ranging device
US3527533A (en) Method and apparatus for deriving and processing topographical information
CN110121659B (en) System for characterizing the surroundings of a vehicle
EP3543742B1 (en) A 3d imaging system and method of 3d imaging
US3546375A (en) Three-dimensional terrain mapping system
JP2566395B2 (en) Three-dimensional coordinate measuring device
JPH06174839A (en) Method for generating image of three-dimensional object
RU2811331C1 (en) Device for forming image of map of distances to surveyed objects
US4341466A (en) Method and apparatus for displaying three coordinates of an object in a two dimensional plane
Kramer et al. An inexpensive real-time 3-D camera with a smart optical sensor
JP2003090712A (en) Three-dimensional image imaging device
IL116223A (en) Telecentric 3d camera and method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20101222

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110218

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20110511

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20110516

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110805

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120802

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20121017

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130819

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20131106

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20131204