JPH06229739A - Environment recognizing system based on image processing - Google Patents

Environment recognizing system based on image processing

Info

Publication number
JPH06229739A
JPH06229739A JP5014264A JP1426493A JPH06229739A JP H06229739 A JPH06229739 A JP H06229739A JP 5014264 A JP5014264 A JP 5014264A JP 1426493 A JP1426493 A JP 1426493A JP H06229739 A JPH06229739 A JP H06229739A
Authority
JP
Japan
Prior art keywords
unit
image
data
video signal
signal data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP5014264A
Other languages
Japanese (ja)
Inventor
Akimasa Shirosaka
晃正 城坂
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mazda Motor Corp
Original Assignee
Mazda Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mazda Motor Corp filed Critical Mazda Motor Corp
Priority to JP5014264A priority Critical patent/JPH06229739A/en
Publication of JPH06229739A publication Critical patent/JPH06229739A/en
Pending legal-status Critical Current

Links

Abstract

PURPOSE:To allow the easy and correct recognition of the three-dimensional conditions of an object with respect to an imaging section by synthesizing a focal distance data, an image signal data read out from a memory section and a distance data of a specific position thereby forming an image information data. CONSTITUTION:Position in an image formed on a screen based on a corresponding image signal data is specified for each part of a sorted image signal data. A focal point control section then controls a focal point adjusting mechanism to match the focal point of an optical system 13 at an imaging section 12 with a specific position of an object corresponding to thus specified position. At that time, focal distance of the optical system 13 at the time of matching the focal point with the specific position of the object, i.e., a focal distance data representative of the distance from the imaging section 12 to the specific position of the object, is obtained. The focal distance data is synthesized with the image signal data and the distance data relevant to a specific position thus forming an image information data.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、撮像部による撮像動作
が行われて得られた撮像出力信号に基づく映像信号デー
タが形成され、その映像信号データに基づいて、撮像対
象の3次元的状況を認識できるものとされた画像処理に
よる環境認識装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention forms video signal data based on an image pickup output signal obtained by an image pickup operation of an image pickup section, and based on the video signal data, a three-dimensional situation of an image pickup target. The present invention relates to an environment recognition device based on image processing that is capable of recognizing objects.

【0002】[0002]

【従来の技術】観測者から比較的遠い位置にある2個の
特定物体間の距離を測定するにあたっては、2個の特定
物体を、所定の間隔をおいて配された2台の撮像装置の
夫々によって撮像し、各撮像装置から導出される映像信
号に基づく再生画像から得られる2個の特定物体に関す
る情報と、2台の撮像装置相互間の距離とに基づいて算
出するようになす手法が提案されている。斯かる手法
は、2台の撮像装置を用いて、それらに対する撮像対象
の三次元的状況を認識しようとするものであり、例え
ば、特開昭64-44512号公報には、車両に設置されて車両
の前方に向けられた2台の撮像装置を用いて、車両前方
の路面及びその周囲についての三次元的状況を把握しよ
うとする試みが開示されている。
2. Description of the Related Art In order to measure the distance between two specific objects located relatively far from an observer, two specific objects are separated from each other by two image pickup devices arranged at predetermined intervals. There is a method of performing imaging based on information about two specific objects obtained from a reproduced image based on a video signal derived from each imaging device and the distance between the two imaging devices. Proposed. Such a method uses two image pickup devices to recognize the three-dimensional situation of an image pickup target for them. For example, Japanese Patent Laid-Open No. 64-44512 discloses that the image pickup device is installed in a vehicle. There has been disclosed an attempt to grasp a three-dimensional condition of a road surface in front of the vehicle and its surroundings by using two image pickup devices directed to the front of the vehicle.

【0003】[0003]

【発明が解決しようとする課題】上述の如くに、2台の
撮像装置を用いて撮像対象を三次元的に認識するに際し
ては、それが適正に行われることになるためには、両撮
像装置から夫々導出される映像信号に基づく二つの再生
画像が正確な相互整合状態におかれることが要求され
る。しかしながら、2台の撮像装置から夫々導出される
映像信号に基づく二つの再生画像を正確な相互整合状態
におくことは、実際には、技術的に極めて難しく、従っ
て、2台の撮像装置が用いられたもとでの撮像対象の三
次元的認識は、従来、必ずしも適正に行われているとは
限らない。
As described above, when three-dimensionally recognizing an object to be imaged by using two image pickup devices, it is necessary to properly perform the recognition. It is required that the two reproduced images based on the video signals respectively derived from the above are placed in an accurate mutual matching state. However, it is technically extremely difficult to put two reproduced images based on video signals respectively derived from the two image pickup devices in an accurate mutual matching state, and therefore, the two image pickup devices are used. Conventionally, the three-dimensional recognition of the imaging target under such a condition is not always properly performed.

【0004】斯かる点に鑑み、本発明は、撮像部による
撮像動作が行われて得られた撮像出力信号に基づく映像
信号データを形成して、それをメモリ部に格納し、メモ
リ部に格納された映像信号データを利用することによ
り、1個の撮像部を用いたもとで、撮像部に対する撮像
対象の三次元的状況を容易かつ適正に認識でき、撮像対
象中の2個の特定位置間の距離の測定を適正に行い得る
ものとされた、画像処理による環境認識装置を提供する
ことを目的とする。
In view of the above point, the present invention forms video signal data based on an image pickup output signal obtained by performing an image pickup operation by the image pickup section, stores it in a memory section, and stores it in the memory section. The three-dimensional situation of the imaging target with respect to the imaging unit can be easily and properly recognized by using the one image capturing unit by using the captured image signal data, and the two-dimensional position between the two specific positions in the imaging target can be recognized. It is an object of the present invention to provide an environment recognition device by image processing, which is capable of appropriately measuring a distance.

【0005】[0005]

【課題を解決するための手段】上述の目的を達成すべ
く、本発明に係る画像処理による環境認識装置は、焦点
調整機構が設けられた光学系を備える撮像部と、撮像部
による固定焦点状態のもとでの撮像動作が行われて得ら
れる撮像出力信号に基づく映像信号データを得る映像信
号データ形成部と、映像信号データ形成部から得られる
映像信号データが格納されるメモリ部とに加えて、メモ
リ部から順次読み出される映像信号データがあらわす輝
度レベルを予め設定された複数の輝度レベル範囲と比較
して、映像信号データがあらわす輝度レベルが複数の輝
度レベル範囲のいずれかに属するものとなる映像信号デ
ータの部分を検出し、検出された映像信号データの部分
をそれがあらわす輝度レベルが属する輝度レベル範囲別
に分類する輝度レベル判別部と、輝度レベル判別部によ
って分類された映像信号データの部分の夫々が対応す
る、映像信号データ形成部からの映像信号データに基づ
いて得られる画面画像中の位置を特定する画像位置特定
部と、撮像部における光学系の焦点を画像位置特定部に
よって特定された画面画像中の位置に対応する撮像対象
中の特定位置に合わせるべく、光学系に設けられた焦点
調整機構を制御する焦点制御部と、光学系の焦点が撮像
対象中の特定位置に合わせられたときの光学系の焦点距
離をあらわす焦点距離データを得る焦点距離データ形成
部と、メモリ部に格納された映像信号データ及び焦点距
離データ形成部により得られる焦点距離データとに基づ
いて、撮像対象における三次元的状況の認識を可能にす
る距離データを含んだ画像情報データを得る画像情報デ
ータ形成部とを備えて構成される。
In order to achieve the above-mentioned object, an environment recognition apparatus by image processing according to the present invention is an image pickup section having an optical system provided with a focus adjustment mechanism, and a fixed focus state by the image pickup section. In addition to a video signal data forming unit that obtains video signal data based on an image pickup output signal obtained by performing an image pickup operation under the following conditions, and a memory unit that stores the video signal data obtained from the video signal data forming unit Then, the brightness level represented by the video signal data sequentially read from the memory unit is compared with a plurality of preset brightness level ranges, and the brightness level represented by the video signal data belongs to one of the plurality of brightness level ranges. The brightness level that classifies the detected video signal data part and classifies the detected video signal data part according to the brightness level range to which the brightness level An image position specifying unit that specifies a position in the screen image obtained based on the video signal data from the video signal data forming unit, to which the judging unit and the part of the video signal data classified by the brightness level judging unit correspond, respectively. And a focus control that controls a focus adjustment mechanism provided in the optical system so that the focus of the optical system in the imaging unit is adjusted to a specific position in the imaging target corresponding to the position in the screen image specified by the image position specifying unit. Section, a focal length data forming section that obtains focal length data representing the focal length of the optical system when the focus of the optical system is adjusted to a specific position in the imaging target, and video signal data and focus stored in the memory section. Based on the focal length data obtained by the distance data forming unit, image information data including distance data that enables recognition of a three-dimensional situation in the imaging target is generated. Constructed and an that the image information data forming section.

【0006】[0006]

【作用】このように構成される本発明に係る画像処理に
よる環境認識装置にあっては、映像信号データ形成部に
おいて撮像部から得られる撮像出力信号に基づいて形成
され、メモリ部に格納された映像信号データが、メモリ
部から順次読み出されるとき、輝度レベル判別部によっ
て、そのうちの予め設定された複数の輝度レベル範囲に
属する輝度レベルをあらわす部分が検出され、該当する
輝度レベル範囲別に分類される。続いて、画像位置特定
部により、分類された映像信号データの部分の夫々が対
応する、映像信号データ形成部からの映像信号データに
基づいて得られる画面画像中の位置が特定される。そし
て、特定された画面画像中の位置に対応する撮像対象中
の特定位置に、撮像部における光学系の焦点を合わせる
べく、焦点調整機構が焦点制御部によって制御され、そ
の際、焦点距離データ形成部から、光学系の焦点が撮像
対象中の特定位置に合わせられたときの光学系の焦点距
離、即ち、撮像部から撮像対象中の特定位置までの距離
をあらわす焦点距離データが得られ、斯かる焦点距離デ
ータが、画像情報データ形成部において、メモリ部から
読み出された映像信号データと、特定位置についての距
離データとして合成されて、画像情報データが形成され
る。
In the environment recognition apparatus for image processing according to the present invention configured as described above, the image signal data forming section is formed based on the image pickup output signal obtained from the image pickup section and stored in the memory section. When the video signal data is sequentially read from the memory unit, the brightness level determination unit detects a portion representing a brightness level belonging to a plurality of preset brightness level ranges, and classifies the brightness level range according to the brightness level range. . Then, the image position specifying unit specifies the position in the screen image obtained based on the video signal data from the video signal data forming unit, to which each of the classified video signal data parts corresponds. Then, the focus adjustment mechanism is controlled by the focus control unit so as to focus the optical system in the imaging unit at a specific position in the imaging target corresponding to the specified position in the screen image, and at that time, focal length data formation is performed. From the section, focal length data representing the focal length of the optical system when the focus of the optical system is adjusted to a specific position in the image capturing target, that is, the distance from the image capturing unit to the specific position in the image capturing target, In the image information data forming unit, the focal length data is combined with the video signal data read from the memory unit as distance data for a specific position to form image information data.

【0007】このようにして得られる画像情報データ
は、撮像対象中の特定位置に対応する特定の位置に関す
る距離データを含んだ画面画像をあらわすものとされ、
それによって、例えば、画像表示部によって画像情報デ
ータに基づく画像が再生されるとき、撮像対象の三次元
的状況を容易かつ適正に認識できるものとされ、さら
に、距離データに基づいて、撮像対象中の二つの特定位
置間の距離の測定を適正に行い得るものとされる。
The image information data obtained in this manner represents a screen image containing distance data relating to a specific position corresponding to a specific position in the object to be imaged.
Thereby, for example, when the image based on the image information data is reproduced by the image display unit, it is possible to easily and properly recognize the three-dimensional situation of the imaging target, and further, based on the distance data, It is assumed that the distance between the two specific positions can be properly measured.

【0008】[0008]

【実施例】図1は、本発明に係る画像処理による環境認
識装置の一例を示す。
DESCRIPTION OF THE PREFERRED EMBODIMENTS FIG. 1 shows an example of an environment recognition device by image processing according to the present invention.

【0009】図1に示される例にあっては、ビデオカメ
ラ11が備えられており、このビデオカメラ11は、受
光・光電変換面形成部を有し、チャージ・カップルド・
ディバイス(CCD)による電荷転送が行われるものと
された固体撮像部12と、その前方に配された、焦点調
整機構が設けられたレンズ・システム,絞り機構等を含
んだ光学系13とを有している。光学系13には、焦点
調整機構を駆動する焦点調整機構駆動部14が付設され
ている。
In the example shown in FIG. 1, a video camera 11 is provided, and this video camera 11 has a light-receiving / photoelectric conversion surface forming section, and is charge-coupled.
It has a solid-state imaging unit 12 which is supposed to perform charge transfer by a device (CCD), and an optical system 13 arranged in front of it, which includes a lens system provided with a focus adjustment mechanism, an aperture mechanism, and the like. is doing. The optical system 13 is provided with a focus adjustment mechanism drive unit 14 that drives the focus adjustment mechanism.

【0010】斯かるビデオカメラ11にあっては、撮像
対象からの光が光学系13を通じて固体撮像部12にお
ける受光・光電変換面形成部に入射せしめられ、受光・
光電変換面形成部上に、撮像対象の像が所定の像倍率を
もって投影される。固体撮像部12における受光・光電
変換面形成部においては、光学系13を通じた入射光に
応答した光電変換が行われて信号電荷が蓄積され、蓄積
された信号電荷が、所定の態様をもって行われるCCD
による電荷転送動作によって、固体撮像部12の出力部
へと順次転送される。それにより、固体撮像部12の出
力部に、そこに順次転送されて来る信号電荷に基づい
て、受光・光電変換面形成部上に投影された撮像対象の
像に応じた撮像出力信号Qが得られるが、実際の作動時
には、先ず、焦点調整機構により調整される光学系13
の焦点距離が所定の値に固定されたもとでの撮像動作が
行われ、その時の撮像対象に応じた撮像出力信号Qが固
体撮像部12の出力部から送出される。
In such a video camera 11, the light from the object to be imaged is made incident on the light receiving / photoelectric conversion surface forming portion of the solid-state image pickup portion 12 through the optical system 13 to receive the light.
An image of the imaging target is projected on the photoelectric conversion surface forming unit with a predetermined image magnification. In the light receiving / photoelectric conversion surface forming unit of the solid-state imaging unit 12, photoelectric conversion is performed in response to incident light through the optical system 13 to accumulate signal charges, and the accumulated signal charges are performed in a predetermined manner. CCD
Is sequentially transferred to the output unit of the solid-state imaging unit 12. As a result, an image pickup output signal Q corresponding to the image of the image pickup target projected on the light receiving / photoelectric conversion surface forming unit is obtained at the output unit of the solid-state image pickup unit 12 based on the signal charges sequentially transferred thereto. However, in actual operation, first, the optical system 13 adjusted by the focus adjustment mechanism is used.
The image pickup operation is performed while the focal length of is fixed to a predetermined value, and the image pickup output signal Q corresponding to the image pickup target at that time is sent from the output unit of the solid-state image pickup unit 12.

【0011】固体撮像部12の出力部から得られる撮像
出力信号Qは、映像信号データ形成部15に供給され
る。映像信号データ形成部15は、撮像出力信号Qが直
接に供給されるアナログ/ディジタル(A/D)変換部
16と撮像出力処理部17とから成る。A/D変換部1
6においては、撮像出力信号Qについてのアナログ−デ
ィジタル変換が行われて、ディジタル撮像出力信号DQ
が形成される。そして、このディジタル撮像出力信号D
Qは撮像出力処理部17に供給され、撮像出力処理部1
7においては、ディジタル撮像出力信号DQに基づい
て、例えば、ライン周波数を略15.75Hzとしてフ
ィールド周波数を60Hzとする映像信号に対応するデ
ィジタル映像信号データDVが形成され、それが撮像出
力処理部17の出力端、従って、映像信号データ形成部
15の出力端に導出される。
The image pickup output signal Q obtained from the output section of the solid-state image pickup section 12 is supplied to the video signal data forming section 15. The video signal data forming unit 15 includes an analog / digital (A / D) conversion unit 16 to which the image pickup output signal Q is directly supplied and an image pickup output processing unit 17. A / D converter 1
6, the image pickup output signal Q is subjected to analog-digital conversion to obtain a digital image pickup output signal DQ.
Is formed. Then, this digital imaging output signal D
Q is supplied to the imaging output processing unit 17, and the imaging output processing unit 1
7, digital video signal data DV corresponding to a video signal having a line frequency of about 15.75 Hz and a field frequency of 60 Hz is formed based on the digital imaging output signal DQ, which is the imaging output processing unit 17 Is output to the output end of the video signal data forming unit 15.

【0012】映像信号データ形成部15の出力端に得ら
れるディジタル映像信号データDVは、映像信号データ
メモリ部18に供給される。映像信号データメモリ部1
8には、メモリ制御部20からのメモリ書込制御信号W
Aも供給され、映像信号データメモリ部18に、メモリ
書込制御信号WAに従って、映像信号の1フィールド期
間分あるいは1フレーム期間(連続する2フィールド期
間)分に相当するディジタル映像信号データDVが書き
込まれて格納される。このようにして映像信号データメ
モリ部18に格納されたディジタル映像信号データDV
は、ビデオカメラ11の撮像対象に応じた、例えば、図
2に示される如くの画面画像POをあらわすものとされ
る。画面画像POにおいては、部分IA,IB及びIC
が相互に異なる輝度レベルを有するものとされており、
部分IAの輝度レベルは部分IBの輝度レベルより大で
あって、部分IBの輝度レベルは部分ICの輝度レベル
より大である。
The digital video signal data DV obtained at the output end of the video signal data forming section 15 is supplied to the video signal data memory section 18. Video signal data memory unit 1
8 is a memory write control signal W from the memory control unit 20.
A is also supplied, and the digital video signal data DV corresponding to one field period or one frame period (two consecutive field periods) of the video signal is written in the video signal data memory unit 18 according to the memory write control signal WA. Stored. The digital video signal data DV stored in the video signal data memory unit 18 in this manner
Represents a screen image PO, for example, as shown in FIG. 2, which corresponds to the imaging target of the video camera 11. In the screen image PO, the parts IA, IB and IC
Have different brightness levels from each other,
The luminance level of the portion IA is higher than that of the portion IB, and the luminance level of the portion IB is higher than that of the portion IC.

【0013】その後、映像信号データメモリ部18にメ
モリ制御部20からのメモリ読出制御信号RAが供給さ
れ、映像信号データメモリ部18からディジタル映像信
号データDVがメモリ読出制御信号RAに従って読み出
される。斯かる際、メモリ読出制御信号RAは、映像信
号データメモリ部18における読出位置を定めるべくメ
モリアドレスを順次指定していくものとされ、それに応
じて、図2に示される如くの画面画像POをあらわすデ
ィジタル映像信号データDVが、画面画像POにおける
水平方向(矢印Hの方向)の位置h1〜hm及び垂直方
向(矢印Vの方向)の位置v1〜vnによって特定され
る各点に対応する部分ずつ順次読み出される。その際に
おける読出順序は、例えば、先ず、画面画像POにおけ
る垂直方向において位置v1をとり、水平方向において
位置h1〜hmを夫々とる、水平方向に配列されたm個
の点に夫々対応するディジタル映像信号データDVの部
分が、水平方向の位置h1に対応するものから水平方向
の位置hmに対応するものまで順次読み出される。次
に、垂直方向において位置v2をとり、水平方向におい
て位置h1〜hmを夫々とる、水平方向に配列されたm
個の点に夫々対応するディジタル映像信号データDVの
部分が、水平方向の位置h1に対応するものから水平方
向の位置hmに対応するものまで順次読み出される。以
下、同様にして、垂直方向において位置vnをとり、水
平方向において位置h1〜hmを夫々とる、水平方向に
配列されたm個の点に夫々対応するディジタル映像信号
データDVの部分まで、順次行われる。
Thereafter, the video signal data memory section 18 is supplied with the memory read control signal RA from the memory control section 20, and the digital video signal data DV is read from the video signal data memory section 18 in accordance with the memory read control signal RA. At this time, the memory read control signal RA is designed to sequentially specify memory addresses so as to determine the read position in the video signal data memory unit 18, and accordingly, the screen image PO as shown in FIG. 2 is displayed. The portions of the digital video signal data DV that are represented correspond to the points specified by the positions h1 to hm in the horizontal direction (direction of arrow H) and the positions v1 to vn in the vertical direction (direction of arrow V) in the screen image PO. It is read out sequentially. The reading order in that case is, for example, first, a digital image corresponding to m points arranged in the horizontal direction in which the position v1 is taken in the vertical direction in the screen image PO and the positions h1 to hm are taken in the horizontal direction. The portion of the signal data DV is sequentially read from the portion corresponding to the horizontal position h1 to the portion corresponding to the horizontal position hm. Next, the m arranged in the horizontal direction has the position v2 in the vertical direction and the positions h1 to hm in the horizontal direction.
The portions of the digital video signal data DV corresponding to the respective points are sequentially read out from the portion corresponding to the horizontal position h1 to the portion corresponding to the horizontal position hm. In the same manner, the positions of the digital video signal data DV corresponding to the m number of points arranged in the horizontal direction, which take the position vn in the vertical direction and the positions h1 to hm in the horizontal direction, respectively, are sequentially read. Be seen.

【0014】映像信号データメモリ部18から読み出さ
れたディジタル映像信号データDVは、輝度レベル判別
部21に供給される。輝度レベル判別部21にあって
は、映像信号データメモリ部18から読み出されたディ
ジタル映像信号データDVの、画面画像POにおける水
平方向の位置h1〜hm及び垂直方向の位置v1〜vn
によって特定される各点に対応する部分があらわす輝度
レベルが、予め設定された輝度レベル範囲(1),
(2)及び(3)の夫々と比較され、その比較結果に応
じた輝度レベルデータLA,LB及びLCが送出され
る。予め設定された輝度レベル範囲(1),(2)及び
(3)は、輝度レベル範囲(1)が輝度レベル範囲
(2)より高く、かつ、輝度レベル範囲(2)が輝度レ
ベル範囲(3)より高いものとされ、画面画像POとの
関係にあっては、図3に示される如く、画面画像POに
おける部分IAの輝度レベルが輝度レベル範囲(1)に
属し、画面画像POにおける部分IBの輝度レベルが輝
度レベル範囲(2)に属し、画面画像POにおける部分
ICの輝度レベルが輝度レベル範囲(3)に属するもの
とされている。
The digital video signal data DV read from the video signal data memory section 18 is supplied to the brightness level discriminating section 21. In the brightness level determination unit 21, the horizontal position h1 to hm and the vertical position v1 to vn of the digital video signal data DV read from the video signal data memory unit 18 in the screen image PO.
The brightness level represented by the portion corresponding to each point specified by is the brightness level range (1) set in advance,
The luminance level data LA, LB, and LC corresponding to the comparison result are sent out after being compared with each of (2) and (3). In the preset brightness level ranges (1), (2) and (3), the brightness level range (1) is higher than the brightness level range (2) and the brightness level range (2) is the brightness level range (3). ), The brightness level of the part IA in the screen image PO belongs to the brightness level range (1), and the part IB in the screen image PO has a higher level, as shown in FIG. Of the partial image in the screen image PO belongs to the brightness level range (3).

【0015】そして、輝度レベル範囲(1),(2)及
び(3)の夫々との比較がなされるディジタル映像信号
データDVの部分があらわす輝度レベルが、輝度レベル
範囲(1)に属するものであるとき、輝度レベルデータ
LAが“1”をあらわすものとされるとともに輝度レベ
ルデータLB及びLCが共に“0”をあらわすものとさ
れ、輝度レベル範囲(2)に属するものであるとき、輝
度レベルデータLBが“1”をあらわすものとされると
ともに輝度レベルデータLA及びLCが共に“0”をあ
らわすものとされ、輝度レベル範囲(3)に属するもの
であるとき、輝度レベルデータLCが“1”をあらわす
ものとされるとともに輝度レベルデータLA及びLBが
共に“0”をあらわすものとされ、輝度レベル範囲
(1),(2)及び(3)のいずれにも属なさいとき、
輝度レベルデータLA,LB及びLCの夫々が“0”を
あらわすものとされる。
The brightness level represented by the portion of the digital video signal data DV which is compared with each of the brightness level ranges (1), (2) and (3) belongs to the brightness level range (1). When the luminance level data LA represents "1" and the luminance level data LB and LC both represent "0", the luminance level belongs to the luminance level range (2). When the data LB represents "1" and the brightness level data LA and LC both represent "0", and the brightness level data LC belongs to the brightness level range (3), the brightness level data LC is "1". The luminance level data LA and LB are both represented as "0", and the luminance level ranges (1), (2) and ( In any even when let genus),
Each of the brightness level data LA, LB and LC represents "0".

【0016】従って、映像信号データメモリ部18か
ら、ディジタル映像信号データDVの部分であって画面
画像POにおける部分IAに対応するものが読み出され
て、輝度レベル判別部21に供給されるとき、その画面
画像POにおける部分IAに対応するディジタル映像信
号データDVの部分が検出され、それに応じて、輝度レ
ベル判別部21から“1”をあらわす輝度レベルデータ
LAと“0”をあらわす輝度レベルデータLB及びLC
とが得られ、ディジタル映像信号データDVの部分であ
って画面画像POにおける部分IBに対応するものが読
み出されて、輝度レベル判別部21に供給されるとき、
その画面画像POにおける部分IBに対応するディジタ
ル映像信号データDVの部分が検出され、それに応じ
て、輝度レベル判別部21から、“1”をあらわす輝度
レベルデータLBと“0”をあらわす輝度レベルデータ
LA及びLCとが得られ、ディジタル映像信号データD
Vの部分であって画面画像POにおける部分ICに対応
するものが読み出されて、輝度レベル判別部21に供給
されるとき、その画面画像POにおける部分ICに対応
するディジタル映像信号データDVの部分が検出され、
それに応じて、輝度レベル判別部21から、“1”をあ
らわす輝度レベルデータLCと“0”をあらわす輝度レ
ベルデータLA及びLBとが得られ、ディジタル映像信
号データDVの部分であって画面画像POにおける部分
IA,IB及びICのいずれにも対応しないものが読み
出されて、輝度レベル判別部21に供給されるとき、輝
度レベル判別部21から、“0”をあらわす輝度レベル
データLA,LB及びLCが得られることになる。これ
よりして、輝度レベル判別部21は、映像信号データメ
モリ部18から順次読み出されるディジタル映像信号デ
ータDVがあらわす輝度レベルを予め設定された輝度レ
ベル範囲(1),(2)及び(3)の夫々と比較して、
輝度レベルが輝度レベル範囲(1),(2)及び(3)
のいずれかに属するものとなるディジタル映像信号デー
タDVの部分を検出し、検出されたディジタル映像信号
データの部分をそれがあらわす輝度レベルが属する輝度
レベル範囲(1),(2)もしくは(3)別に分類する
動作を行うものとされていることになる。
Therefore, when a portion of the digital video signal data DV corresponding to the portion IA in the screen image PO is read from the video signal data memory unit 18 and supplied to the brightness level discriminating unit 21, A portion of the digital video signal data DV corresponding to the portion IA in the screen image PO is detected, and accordingly, the luminance level discriminating unit 21 outputs the luminance level data LA representing "1" and the luminance level data LB representing "0". And LC
And a portion of the digital video signal data DV corresponding to the portion IB in the screen image PO is read out and supplied to the brightness level discriminating unit 21,
A portion of the digital video signal data DV corresponding to the portion IB in the screen image PO is detected, and accordingly, the luminance level determination unit 21 causes the luminance level data LB representing “1” and the luminance level data representing “0”. LA and LC are obtained, and digital video signal data D
When a portion of V corresponding to the partial IC in the screen image PO is read out and supplied to the brightness level discriminating unit 21, a portion of the digital video signal data DV corresponding to the partial IC in the screen image PO. Is detected,
Accordingly, the brightness level discriminator 21 obtains the brightness level data LC representing "1" and the brightness level data LA and LB representing "0", which is the portion of the digital video signal data DV and is the screen image PO. When a part which does not correspond to any of the parts IA, IB and IC in is read out and supplied to the brightness level discriminator 21, the brightness level discriminator 21 outputs brightness level data LA, LB and LC will be obtained. As a result, the brightness level determination unit 21 sets the brightness levels represented by the digital video signal data DV sequentially read from the video signal data memory unit 18 in the preset brightness level ranges (1), (2) and (3). Compared to each of the
The brightness level is in the brightness level range (1), (2) and (3)
Of the digital video signal data DV belonging to any one of the above, and a brightness level range (1), (2) or (3) to which the brightness level representing the detected digital video signal data part belongs. It is supposed that the operation of classifying separately is performed.

【0017】輝度レベル判別部21から得られる輝度レ
ベルデータLA,LB及びLCは、アンドゲート部2
2,23及び24の各々の入力端の一方に夫々供給され
る。アンドゲート部22,23及び24の各々の入力端
の他方には、メモリ制御部20からの、映像信号データ
メモリ部18における読出位置を定めるべくメモリアド
レスを順次指定していくものとされたメモリ読出制御信
号RAが、遅延部25を経て供給される。遅延部25に
よる遅延時間は、輝度レベル判別部21におけるディジ
タル映像信号データDVについての処理時間に相当する
ものとされる。アンドゲート部22の出力端には、輝度
レベルデータLAが“1”をあらわすとき、メモリ読出
制御信号RAが導出され、輝度レベルデータLAが
“0”をあらわすときには、メモリ読出制御信号RAは
導出されない。同様にして、アンドゲート部23の出力
端には、輝度レベルデータLBが“1”をあらわすと
き、メモリ読出制御信号RAが導出され、輝度レベルデ
ータLBが“0”をあらわすときには、メモリ読出制御
信号RAは導出されず、また、アンドゲート部24の出
力端には、輝度レベルデータLCが“1”をあらわすと
き、メモリ読出制御信号RAが導出され、輝度レベルデ
ータLCが“0”をあらわすときには、メモリ読出制御
信号RAは導出されない。
The brightness level data LA, LB and LC obtained from the brightness level discriminator 21 are supplied to the AND gate unit 2.
2, 23 and 24 are respectively supplied to one of the input terminals. To the other of the input ends of the AND gates 22, 23 and 24, memory addresses are sequentially designated so as to determine a read position in the video signal data memory unit 18 from the memory control unit 20. The read control signal RA is supplied via the delay unit 25. The delay time by the delay unit 25 corresponds to the processing time for the digital video signal data DV in the brightness level determination unit 21. At the output terminal of the AND gate unit 22, the memory read control signal RA is derived when the brightness level data LA represents "1", and the memory read control signal RA is derived when the brightness level data LA represents "0". Not done. Similarly, at the output terminal of the AND gate unit 23, the memory read control signal RA is derived when the brightness level data LB represents "1", and the memory read control signal RA is derived when the brightness level data LB represents "0". The signal RA is not derived, and at the output end of the AND gate unit 24, when the brightness level data LC represents "1", the memory read control signal RA is derived and the brightness level data LC represents "0". Sometimes, memory read control signal RA is not derived.

【0018】従って、映像信号データメモリ部18か
ら、ディジタル映像信号データDVの部分であって画面
画像POにおける部分IAに対応するものが読み出され
るとき、アンドゲート部22の出力端に、そのときの映
像信号データメモリ部18の読出位置に対応したメモリ
アドレスをあらわすメモリ読出制御信号RAが導出さ
れ、また、映像信号データメモリ部18から、ディジタ
ル映像信号データDVの部分であって画面画像POにお
ける部分IBに対応するものが読み出されるとき、アン
ドゲート部23の出力端に、そのときの映像信号データ
メモリ部18の読出位置に対応したメモリアドレスをあ
らわすメモリ読出制御信号RAが導出され、さらに、映
像信号データメモリ部18から、ディジタル映像信号デ
ータDVの部分であって画面画像POにおける部分IC
に対応するものが読み出されるとき、アンドゲート部2
4の出力端に、そのときの映像信号データメモリ部18
の読出位置に対応したメモリアドレスをあらわすメモリ
読出制御信号RAが導出される。
Therefore, when a portion of the digital video signal data DV corresponding to the portion IA in the screen image PO is read out from the video signal data memory portion 18, it is output to the output end of the AND gate portion 22. A memory read control signal RA representing a memory address corresponding to the read position of the video signal data memory unit 18 is derived, and a portion of the digital video signal data DV from the video signal data memory unit 18 in the screen image PO. When a signal corresponding to IB is read, a memory read control signal RA representing a memory address corresponding to the read position of the video signal data memory section 18 at that time is derived from the output end of the AND gate section 23, and further, the video is read. From the signal data memory section 18, the portion of the digital video signal data DV Part IC in the screen image PO
When the corresponding one is read, the AND gate unit 2
4 to the output end of the video signal data memory unit 18 at that time
A memory read control signal RA representing a memory address corresponding to the read position of is derived.

【0019】このようにして、アンドゲート部22,2
3及び24の各々の出力端に導出されるメモリ読出制御
信号RAは、メモリ部26,27及び28に夫々供給さ
れる。メモリ部26,27及び28の夫々には、メモリ
制御部20からのメモリ書込制御信号WBも供給され、
メモリ部26,27及び28の夫々に、メモリ書込制御
信号WBに従って、メモリ読出制御信号RAに書き込ま
れて格納される。
In this way, the AND gate sections 22, 2
The memory read control signal RA derived to the output terminals of 3 and 24 is supplied to the memory units 26, 27 and 28, respectively. A memory write control signal WB from the memory control unit 20 is also supplied to each of the memory units 26, 27 and 28,
According to the memory write control signal WB, the memory read control signal RA is written and stored in each of the memory units 26, 27 and 28.

【0020】その後、メモリ部26にメモリ制御部20
からのメモリ読出制御信号RBAが供給され、メモリ部
26からメモリ読出制御信号RAが、メモリ読出制御信
号RBAに従って読み出されて、メモリアドレス−画像
位置変換部30に供給される。メモリアドレス−画像位
置変換部30においては、メモリ部26からのメモリ読
出制御信号RAに基づき、それがあらわすメモリアドレ
スに対応する画面画像POにおける部分IAをあらわす
画像位置指定データXAが形成され、それが焦点調整機
構駆動信号形成部31に供給される。焦点調整機構駆動
信号形成部31にあっては、画像位置指定データXAに
基づき、それがあらわす画面画像POにおける部分IA
に対応するビデオカメラ11の撮像対象中の特定位置
に、ビデオカメラ11における光学系13の焦点を合わ
せるべく、光学系13に設けられた焦点調整機構を駆動
するための焦点調整機構駆動信号SXAが形成される。
そして、焦点調整機構駆動信号形成部31から得られる
焦点調整機構駆動信号SXAが、加算部32を経て、ビ
デオカメラ11における焦点調整機構駆動部14に供給
される。
After that, the memory control unit 20 is added to the memory unit 26.
From the memory unit 26, the memory read control signal RA is read from the memory unit 26 in accordance with the memory read control signal RBA, and is supplied to the memory address-image position conversion unit 30. In the memory address-image position conversion unit 30, image position designation data XA representing the portion IA in the screen image PO corresponding to the memory address represented by the memory read control signal RA from the memory unit 26 is formed, and Are supplied to the focus adjustment mechanism drive signal forming unit 31. In the focus adjustment mechanism drive signal forming section 31, based on the image position designation data XA, the partial IA in the screen image PO represented by it.
The focus adjustment mechanism drive signal SXA for driving the focus adjustment mechanism provided in the optical system 13 in order to adjust the focus of the optical system 13 in the video camera 11 to a specific position in the imaging target of the video camera 11 corresponding to It is formed.
Then, the focus adjustment mechanism drive signal SXA obtained from the focus adjustment mechanism drive signal forming unit 31 is supplied to the focus adjustment mechanism drive unit 14 in the video camera 11 via the addition unit 32.

【0021】それにより、焦点調整機構駆動部14が、
焦点調整機構駆動信号SXAに応じて光学系13に設け
られた焦点調整機構を駆動し、光学系13の焦点が、画
面画像POにおける部分IAに対応するビデオカメラ1
1の撮像対象中の特定位置に合わされる状態となす。斯
かる状態は、図4のAに示される如く、画面画像POに
おける部分IAが焦点(直交する破線の交差点)が合わ
せられたものとされる状態に相当する。そして、このと
き、焦点調整機構駆動部14から焦点調整機構の作動状
態に応じた焦点状態検出信号SFが焦点距離データ形成
部33に供給され、焦点距離データ形成部33にあって
は、焦点状態検出信号SFに基づき、光学系13の焦点
が画面画像POにおける部分IAに対応するビデオカメ
ラ11の撮像対象中の特定位置に合わされたもとでの、
光学系13の焦点距離fをあらわす焦点距離データDF
が形成され、それが画像情報データ形成部35に供給さ
れて保持される。斯かる際における光学系13の焦点距
離fは、例えば、5m(f=5m)とされる。
As a result, the focus adjustment mechanism drive unit 14
The video camera 1 that drives the focus adjusting mechanism provided in the optical system 13 according to the focus adjusting mechanism drive signal SXA so that the focus of the optical system 13 corresponds to the part IA in the screen image PO.
It is brought into a state of being aligned with a specific position in the image pickup target of No. 1. Such a state corresponds to a state where the portion IA in the screen image PO is in focus (intersection point of orthogonal broken lines), as shown in A of FIG. At this time, the focus adjustment mechanism drive unit 14 supplies the focus state detection signal SF corresponding to the operating state of the focus adjustment mechanism to the focal length data forming unit 33, and the focus state data forming unit 33 has the focus state detection signal SF. Based on the detection signal SF, the focus of the optical system 13 is adjusted to a specific position in the imaging target of the video camera 11 corresponding to the portion IA in the screen image PO,
Focal length data DF representing the focal length f of the optical system 13
Is formed and is supplied to and held in the image information data forming unit 35. The focal length f of the optical system 13 at this time is, for example, 5 m (f = 5 m).

【0022】続いて、メモリ制御部20からのメモリ部
26へのメモリ読出制御信号RBAの供給後、所定の短
時間が経過したとき、メモリ部27にメモリ制御部20
からのメモリ読出制御信号RBBが供給され、メモリ部
27からメモリ読出制御信号RAが、メモリ読出制御信
号RBBに従って読み出されて、メモリアドレス−画像
位置変換部36に供給される。メモリアドレス−画像位
置変換部36においては、メモリ部27からのメモリ読
出制御信号RAに基づき、それがあらわすメモリアドレ
スに対応する画面画像POにおける部分IBをあらわす
画像位置指定データXBが形成され、それが焦点調整機
構駆動信号形成部37に供給される。焦点調整機構駆動
信号形成部37にあっては、画像位置指定データXBに
基づき、それがあらわす画面画像POにおける部分IB
に対応するビデオカメラ11の撮像対象中の特定位置
に、ビデオカメラ11における光学系13の焦点を合わ
せるべく、光学系13に設けられた焦点調整機構を駆動
するための焦点調整機構駆動信号SXBが形成される。
そして、焦点調整機構駆動信号形成部37から得られる
焦点調整機構駆動信号SXBが、加算部32を経て、ビ
デオカメラ11における焦点調整機構駆動部14に供給
される。
Subsequently, when a predetermined short time has elapsed after the memory read control signal RBA was supplied from the memory control unit 20 to the memory unit 26, the memory control unit 20 is added to the memory unit 27.
From the memory section 27, the memory read control signal RA is read from the memory section 27 according to the memory read control signal RBB, and is supplied to the memory address-image position conversion section 36. In the memory address-image position conversion unit 36, based on the memory read control signal RA from the memory unit 27, image position designation data XB representing the portion IB in the screen image PO corresponding to the memory address represented by the memory read control signal RA is formed. Are supplied to the focus adjustment mechanism drive signal forming unit 37. In the focus adjustment mechanism drive signal forming unit 37, based on the image position designation data XB, the partial IB in the screen image PO represented by the image position designation data XB.
The focus adjustment mechanism drive signal SXB for driving the focus adjustment mechanism provided in the optical system 13 in order to adjust the focus of the optical system 13 in the video camera 11 to the specific position in the imaging target of the video camera 11 corresponding to It is formed.
Then, the focus adjustment mechanism drive signal SXB obtained from the focus adjustment mechanism drive signal forming unit 37 is supplied to the focus adjustment mechanism drive unit 14 in the video camera 11 via the addition unit 32.

【0023】それにより、焦点調整機構駆動部14が、
焦点調整機構駆動信号SXBに応じて光学系13に設け
られた焦点調整機構を駆動し、光学系13の焦点が、画
面画像POにおける部分IBに対応するビデオカメラ1
1の撮像対象中の特定位置に合わされる状態となす。斯
かる状態は、図4のBに示される如く、画面画像POに
おける部分IBが焦点(直交する破線の交差点)が合わ
せられたものとされる状態に相当する。そして、このと
き、焦点調整機構駆動部14から焦点調整機構の作動状
態に応じた焦点状態検出信号SFが焦点距離データ形成
部33に供給され、焦点距離データ形成部33にあって
は、焦点状態検出信号SFに基づき、光学系13の焦点
が画面画像POにおける部分IBに対応するビデオカメ
ラ11の撮像対象中の特定位置に合わされたもとでの、
光学系13の焦点距離fをあらわす焦点距離データDF
が形成され、それが画像情報データ形成部35に供給さ
れて保持される。斯かる際における光学系13の焦点距
離fは、例えば、100m(f=100m)とされる。
As a result, the focus adjustment mechanism drive unit 14
The video camera 1 that drives the focus adjusting mechanism provided in the optical system 13 according to the focus adjusting mechanism drive signal SXB so that the focus of the optical system 13 corresponds to the part IB in the screen image PO.
It is brought into a state of being aligned with a specific position in the image pickup target of No. 1. Such a state corresponds to a state in which the portion IB in the screen image PO is in focus (intersection point of orthogonal broken lines), as shown in FIG. 4B. At this time, the focus adjustment mechanism drive unit 14 supplies the focus state detection signal SF corresponding to the operating state of the focus adjustment mechanism to the focal length data forming unit 33, and the focus state data forming unit 33 has the focus state detection signal SF. Based on the detection signal SF, the focus of the optical system 13 is adjusted to a specific position in the imaging target of the video camera 11 corresponding to the portion IB in the screen image PO,
Focal length data DF representing the focal length f of the optical system 13
Is formed and is supplied to and held in the image information data forming unit 35. The focal length f of the optical system 13 at this time is, for example, 100 m (f = 100 m).

【0024】さらに、メモリ制御部20からのメモリ部
27へのメモリ読出制御信号RBBの供給後、所定の短
時間が経過したとき、メモリ部28にメモリ制御部20
からのメモリ読出制御信号RBCが供給され、メモリ部
28からメモリ読出制御信号RAが、メモリ読出制御信
号RBCに従って読み出されて、メモリアドレス−画像
位置変換部38に供給される。メモリアドレス−画像位
置変換部38においては、メモリ部28からのメモリ読
出制御信号RAに基づき、それがあらわすメモリアドレ
スに対応する画面画像POにおける部分ICをあらわす
画像位置指定データXCが形成され、それが焦点調整機
構駆動信号形成部39に供給される。焦点調整機構駆動
信号形成部39にあっては、画像位置指定データXCに
基づき、それがあらわす画面画像POにおける部分IC
に対応するビデオカメラ11の撮像対象中の特定位置
に、ビデオカメラ11における光学系13の焦点を合わ
せるべく、光学系13に設けられた焦点調整機構を駆動
するための焦点調整機構駆動信号SXCが形成される。
そして、焦点調整機構駆動信号形成部39から得られる
焦点調整機構駆動信号SXCが、加算部32を経て、ビ
デオカメラ11における焦点調整機構駆動部14に供給
される。
Further, when a predetermined short time elapses after the memory read control signal RBB is supplied from the memory control unit 20 to the memory unit 27, the memory control unit 20 is added to the memory unit 28.
From the memory unit 28, the memory read control signal RA is read from the memory unit 28 according to the memory read control signal RBC, and is supplied to the memory address-image position conversion unit 38. In the memory address-image position conversion unit 38, based on the memory read control signal RA from the memory unit 28, image position designation data XC representing a partial IC in the screen image PO corresponding to the memory address represented by the memory read control signal RA is formed. Are supplied to the focus adjustment mechanism drive signal forming section 39. In the focus adjustment mechanism drive signal forming unit 39, the partial IC in the screen image PO represented by the image position designation data XC is displayed.
The focus adjustment mechanism drive signal SXC for driving the focus adjustment mechanism provided in the optical system 13 for adjusting the focus of the optical system 13 in the video camera 11 to the specific position in the imaging target of the video camera 11 corresponding to It is formed.
Then, the focus adjustment mechanism drive signal SXC obtained from the focus adjustment mechanism drive signal forming unit 39 is supplied to the focus adjustment mechanism drive unit 14 in the video camera 11 via the addition unit 32.

【0025】それにより、焦点調整機構駆動部14が、
焦点調整機構駆動信号SXCに応じて光学系13に設け
られた焦点調整機構を駆動し、光学系13の焦点が、画
面画像POにおける部分ICに対応するビデオカメラ1
1の撮像対象中の特定位置に合わされる状態となす。斯
かる状態は、図4のCに示される如く、画面画像POに
おける部分ICが焦点(直交する破線の交差点)が合わ
せられたものとされる状態に相当する。そして、このと
き、焦点調整機構駆動部14から焦点調整機構の作動状
態に応じた焦点状態検出信号SFが焦点距離データ形成
部33に供給され、焦点距離データ形成部33にあって
は、焦点状態検出信号SFに基づき、光学系13の焦点
が画面画像POにおける部分ICに対応するビデオカメ
ラ11の撮像対象中の特定位置に合わされたもとでの、
光学系13の焦点距離fをあらわす焦点距離データDF
が形成され、それが画像情報データ形成部35に供給さ
れて保持される。斯かる際における光学系13の焦点距
離fは、例えば、300m(f=300m)とされる。
As a result, the focus adjustment mechanism drive unit 14
The video camera 1 that drives the focus adjustment mechanism provided in the optical system 13 according to the focus adjustment mechanism drive signal SXC so that the focus of the optical system 13 corresponds to the partial IC in the screen image PO.
It is brought into a state of being aligned with a specific position in the image pickup target of No. 1. Such a state corresponds to a state in which the partial IC in the screen image PO is in focus (intersection of orthogonal broken lines), as shown in FIG. 4C. At this time, the focus adjustment mechanism drive unit 14 supplies the focus state detection signal SF corresponding to the operating state of the focus adjustment mechanism to the focal length data forming unit 33, and the focus state data forming unit 33 has the focus state detection signal SF. Based on the detection signal SF, the focus of the optical system 13 is adjusted to a specific position in the imaging target of the video camera 11 corresponding to the partial IC in the screen image PO,
Focal length data DF representing the focal length f of the optical system 13
Is formed and is supplied to and held in the image information data forming unit 35. The focal length f of the optical system 13 at this time is, for example, 300 m (f = 300 m).

【0026】画像情報データ形成部35には、映像信号
データメモリ部18から読み出されたディジタル映像信
号データDV及びメモリアドレス−画像位置変換部3
0,36及び38から夫々得られる画像位置指定データ
XA,XB及びXCも供給され、画像情報データ形成部
35において、ディジタル映像信号データDVに、画像
位置指定データXA,XB及びXCに応じたタイミング
をもって焦点距離データDFが合成されて画像情報デー
タDZが形成される。このようにして、画像情報データ
形成部35から得られる画像情報データDZは、ディジ
タル映像信号データDVがあらわす画面画像POにおけ
る部分IA,IB及びICに対して、焦点距離データD
Fがあらわす焦点距離:f=5m,f=100m及びf
=300mを、ビデオカメラ11からの距離として、夫
々関連づける距離データを含むものとされる。従って、
画像情報データDZは、ディジタル映像信号データDV
に基づいて画面画像POが得られることになるビデオカ
メラ11の撮像対象中の、画面画像POにおける部分I
A,IB及びICに夫々対応する特定位置についての距
離データを含んだものとされ、それにより、ビデオカメ
ラ11の撮像対象における三次元的状況を認識できるも
のとなる。
The image information data forming section 35 includes digital video signal data DV read from the video signal data memory section 18 and memory address-image position converting section 3.
The image position designation data XA, XB, and XC obtained from 0, 36, and 38, respectively, are also supplied. In the image information data forming unit 35, timings corresponding to the image position designation data XA, XB, and XC are added to the digital video signal data DV. Then, the focal length data DF are combined to form the image information data DZ. In this way, the image information data DZ obtained from the image information data forming unit 35 is the focal length data D for the portions IA, IB and IC in the screen image PO represented by the digital video signal data DV.
Focal length represented by F: f = 5 m, f = 100 m and f
= 300 m is set as the distance from the video camera 11, and the distance data associated with each is included. Therefore,
The image information data DZ is digital video signal data DV.
The portion I of the screen image PO in the imaging target of the video camera 11 that will obtain the screen image PO based on
The distance data about the specific positions corresponding to A, IB, and IC are included, so that the three-dimensional situation of the imaging target of the video camera 11 can be recognized.

【0027】そして、画像情報データ形成部35から得
られる画像情報データDZは、画像表示部40に供給さ
れ、画像表示部40にあっては、図5に示される如く
の、画像情報データDZに基づく画面画像が得られる。
この画像表示部40において得られる画面画像において
は、部分IA,IB及びICについて夫々「5m」,
「100m」及び「300m」の距離表示がなされてお
り、ビデオカメラ11の撮像対象における三次元的状況
を容易かつ適正に認識できるとともに、部分IA,IB
及びICの間の相互間距離も容易に把握できることにな
る。
Then, the image information data DZ obtained from the image information data forming unit 35 is supplied to the image display unit 40, and the image display unit 40 produces the image information data DZ as shown in FIG. Based screen images are obtained.
In the screen image obtained by the image display unit 40, the portions IA, IB, and IC are "5 m",
Distances of "100 m" and "300 m" are displayed, and the three-dimensional situation of the imaging target of the video camera 11 can be easily and properly recognized, and the parts IA and IB are also displayed.
Also, the mutual distance between ICs can be easily grasped.

【0028】[0028]

【発明の効果】以上の説明から明らかな如く、本発明に
係る画像処理による環境認識装置にあっては、撮像部か
ら得られる撮像出力信号に基づいて形成され、メモリ部
に格納された映像信号データが、メモリ部から順次読み
出されるとき、そのうちの予め設定された複数の輝度レ
ベル範囲に属する輝度レベルをあらわす部分が検出され
て該当する輝度レベル範囲別に分類され、分類された映
像信号データの部分の夫々が対応する、映像信号データ
に基づいて得られる画面画像中の位置が特定され、その
後、特定された画面画像中の位置に対応する撮像対象中
の特定位置に、撮像部における光学系の焦点を合わせる
べく、焦点調整機構が焦点制御部によって制御され、そ
の際、光学系の焦点が撮像対象中の特定位置に合わせら
れたときの光学系の焦点距離、即ち、撮像部から撮像対
象中の特定位置までの距離をあらわす焦点距離データが
得られて、斯かる焦点距離データが、メモリ部から読み
出された映像信号データと、特定位置に関する距離デー
タとされるものとして合成されて、画像情報データが形
成される。
As is apparent from the above description, in the environment recognition apparatus by the image processing according to the present invention, the video signal formed based on the image pickup output signal obtained from the image pickup section and stored in the memory section. When the data is sequentially read from the memory unit, a portion representing the luminance level belonging to a plurality of preset luminance level ranges is detected and classified according to the corresponding luminance level range, and the classified video signal data portion The positions in the screen image obtained based on the video signal data corresponding to each of the above are specified, and then the optical system of the imaging unit is set to a specific position in the imaging target corresponding to the specified position in the screen image. The focus adjustment mechanism is controlled by the focus control unit to adjust the focus, and at that time, the optical system when the focus of the optical system is adjusted to a specific position in the imaging target. The focal length, that is, the focal length data representing the distance from the imaging unit to the specific position in the imaging target is obtained, and the focal length data is the video signal data read from the memory unit and the distance related to the specific position. Image information data is formed by being combined as data.

【0029】このようにして得られる画像情報データ
は、撮像対象中の特定位置に対応する特定の位置に関す
る距離データを含んだ画面画像をあらわすものとされ、
それによって、例えば、画像表示部によって画像情報デ
ータに基づく画像が再生されるとき、撮像対象の三次元
的状況を容易かつ適正に認識できるものとされ、さら
に、距離データに基づいて、撮像対象中の二つの特定位
置間の距離の測定を適正に行い得るものとされる。
The image information data thus obtained represents a screen image including distance data regarding a specific position corresponding to the specific position in the image pickup object,
Thereby, for example, when the image based on the image information data is reproduced by the image display unit, it is possible to easily and properly recognize the three-dimensional situation of the imaging target, and further, based on the distance data, It is assumed that the distance between the two specific positions can be properly measured.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明に係る画像処理による環境認識装置の一
例を示すブロック構成図である。
FIG. 1 is a block configuration diagram showing an example of an environment recognition device by image processing according to the present invention.

【図2】図1に示される例についての動作説明に供され
る概念図である。
FIG. 2 is a conceptual diagram provided for explaining the operation of the example shown in FIG.

【図3】図1に示される例についての動作説明に供され
る概念図である。
FIG. 3 is a conceptual diagram provided for explaining the operation of the example shown in FIG.

【図4】図1に示される例についての動作説明に供され
る概念図である。
FIG. 4 is a conceptual diagram for explaining the operation of the example shown in FIG.

【図5】図1に示される例についての動作説明に供され
る概念図である。
FIG. 5 is a conceptual diagram provided for explaining the operation of the example shown in FIG.

【符号の説明】[Explanation of symbols]

11 ビデオカメラ 12 固体撮像部 13 光学系 14 焦点調整機構駆動部 15 映像信号データ形成部 16 A/D変換部 17 撮像出力処理部 18 映像信号データメモリ部 20 メモリ制御部 21 輝度レベル判別部 22,23,24 アンドゲート部 26,27,28 メモリ部 30,36,38 メモリアドレス−画像位置変換部 31,37,39 焦点調整機構駆動信号形成部 33 焦点距離データ形成部 35 画像情報データ形成部 40 画像表示部 11 video camera 12 solid-state imaging unit 13 optical system 14 focus adjustment mechanism drive unit 15 video signal data forming unit 16 A / D conversion unit 17 imaging output processing unit 18 video signal data memory unit 20 memory control unit 21 brightness level determination unit 22, 23, 24 AND gate section 26, 27, 28 Memory section 30, 36, 38 Memory address-image position conversion section 31, 37, 39 Focus adjustment mechanism drive signal forming section 33 Focal length data forming section 35 Image information data forming section 40 Image display section

Claims (2)

【特許請求の範囲】[Claims] 【請求項1】焦点調整機構が設けられた光学系を備える
撮像部と、 該撮像部による固定焦点状態のもとでの撮像動作が行わ
れて得られる撮像出力信号に基づく映像信号データを得
る映像信号データ形成部と、 該映像信号データ形成部から得られる映像信号データが
格納されるメモリ部と、 該メモリ部から順次読み出される映像信号データがあら
わす輝度レベルを予め設定された複数の輝度レベル範囲
と比較して、上記輝度レベルが上記複数の輝度レベル範
囲のいずれかに属するものとなる上記映像信号データの
部分を検出し、検出された映像信号データの部分を該検
出された映像信号データの部分があらわす輝度レベルが
属する輝度レベル範囲別に分類する輝度レベル判別部
と、 該輝度レベル判別部によって分類された上記映像信号デ
ータの部分の夫々が対応する、上記映像信号データ形成
部からの映像信号データに基づいて得られる画面画像中
の位置を特定する画像位置特定部と、 上記撮像部における光学系の焦点を上記画像位置特定部
によって特定された上記画面画像中の位置に対応する撮
像対象中の特定位置に合わせるべく、上記光学系に設け
られた焦点調整機構を制御する焦点制御部と、 上記光学系の焦点が上記撮像対象中の特定位置に合わせ
られたときの上記光学系の焦点距離をあらわす焦点距離
データを得る焦点距離データ形成部と、 上記メモリ部に格納された映像信号データ及び焦点距離
データ形成部により得られる焦点距離データとに基づい
て、上記撮像対象における三次元的状況の認識を可能に
する距離データを含んだ画像情報データを得る画像情報
データ形成部と、 を備えて構成される画像処理による環境認識装置。
1. An image pickup unit having an optical system provided with a focus adjustment mechanism, and image signal data based on an image pickup output signal obtained by performing an image pickup operation under a fixed focus state by the image pickup unit. A video signal data forming unit, a memory unit in which the video signal data obtained from the video signal data forming unit is stored, and a plurality of brightness levels preset with brightness levels represented by the video signal data sequentially read from the memory unit. The portion of the video signal data in which the luminance level belongs to any one of the plurality of luminance level ranges is detected in comparison with the range, and the portion of the detected video signal data is detected. Level discriminating unit for discriminating by the luminance level range to which the luminance level represented by the above portion belongs, and the video signal data classified by the luminance level discriminating unit. The image position specifying unit that specifies the position in the screen image obtained based on the video signal data from the video signal data forming unit, and the focus of the optical system in the imaging unit is the image position. The focus of the optical system and the focus control unit that controls the focus adjustment mechanism provided in the optical system so as to match the specific position in the imaging target corresponding to the position in the screen image specified by the specifying unit Obtained by the focal length data forming unit that obtains the focal length data that represents the focal length of the optical system when it is adjusted to a specific position in the imaging target, and the video signal data and the focal length data forming unit that are stored in the memory unit. Image information data for obtaining image information data including distance data enabling recognition of a three-dimensional situation in the imaging target based on the focal length data Environment recognition device according to configured image processing comprises a forming unit.
【請求項2】画像情報データ形成部から得られる画像情
報データに基づく画像を再生する画像表示部を備えたこ
とを特徴とする請求項1記載の画像処理による環境認識
装置。
2. The environment recognition device by image processing according to claim 1, further comprising an image display unit for reproducing an image based on the image information data obtained from the image information data forming unit.
JP5014264A 1993-01-29 1993-01-29 Environment recognizing system based on image processing Pending JPH06229739A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP5014264A JPH06229739A (en) 1993-01-29 1993-01-29 Environment recognizing system based on image processing

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP5014264A JPH06229739A (en) 1993-01-29 1993-01-29 Environment recognizing system based on image processing

Publications (1)

Publication Number Publication Date
JPH06229739A true JPH06229739A (en) 1994-08-19

Family

ID=11856241

Family Applications (1)

Application Number Title Priority Date Filing Date
JP5014264A Pending JPH06229739A (en) 1993-01-29 1993-01-29 Environment recognizing system based on image processing

Country Status (1)

Country Link
JP (1) JPH06229739A (en)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2006028180A1 (en) * 2004-09-10 2006-03-16 Matsushita Electric Industrial Co., Ltd. Camera and camera device
US8818042B2 (en) 2004-04-15 2014-08-26 Magna Electronics Inc. Driver assistance system for vehicle
US8842176B2 (en) 1996-05-22 2014-09-23 Donnelly Corporation Automatic vehicle exterior light control
US8917169B2 (en) 1993-02-26 2014-12-23 Magna Electronics Inc. Vehicular vision system
US8993951B2 (en) 1996-03-25 2015-03-31 Magna Electronics Inc. Driver assistance system for a vehicle
US9171217B2 (en) 2002-05-03 2015-10-27 Magna Electronics Inc. Vision system for vehicle
US9436880B2 (en) 1999-08-12 2016-09-06 Magna Electronics Inc. Vehicle vision system
US10071676B2 (en) 2006-08-11 2018-09-11 Magna Electronics Inc. Vision system for vehicle

Cited By (34)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8917169B2 (en) 1993-02-26 2014-12-23 Magna Electronics Inc. Vehicular vision system
US8993951B2 (en) 1996-03-25 2015-03-31 Magna Electronics Inc. Driver assistance system for a vehicle
US8842176B2 (en) 1996-05-22 2014-09-23 Donnelly Corporation Automatic vehicle exterior light control
US9436880B2 (en) 1999-08-12 2016-09-06 Magna Electronics Inc. Vehicle vision system
US9643605B2 (en) 2002-05-03 2017-05-09 Magna Electronics Inc. Vision system for vehicle
US11203340B2 (en) 2002-05-03 2021-12-21 Magna Electronics Inc. Vehicular vision system using side-viewing camera
US10683008B2 (en) 2002-05-03 2020-06-16 Magna Electronics Inc. Vehicular driving assist system using forward-viewing camera
US9171217B2 (en) 2002-05-03 2015-10-27 Magna Electronics Inc. Vision system for vehicle
US10351135B2 (en) 2002-05-03 2019-07-16 Magna Electronics Inc. Vehicular control system using cameras and radar sensor
US10118618B2 (en) 2002-05-03 2018-11-06 Magna Electronics Inc. Vehicular control system using cameras and radar sensor
US9555803B2 (en) 2002-05-03 2017-01-31 Magna Electronics Inc. Driver assistance system for vehicle
US9834216B2 (en) 2002-05-03 2017-12-05 Magna Electronics Inc. Vehicular control system using cameras and radar sensor
US9428192B2 (en) 2004-04-15 2016-08-30 Magna Electronics Inc. Vision system for vehicle
US10462426B2 (en) 2004-04-15 2019-10-29 Magna Electronics Inc. Vehicular control system
US9609289B2 (en) 2004-04-15 2017-03-28 Magna Electronics Inc. Vision system for vehicle
US9948904B2 (en) 2004-04-15 2018-04-17 Magna Electronics Inc. Vision system for vehicle
US10015452B1 (en) 2004-04-15 2018-07-03 Magna Electronics Inc. Vehicular control system
US11847836B2 (en) 2004-04-15 2023-12-19 Magna Electronics Inc. Vehicular control system with road curvature determination
US10110860B1 (en) 2004-04-15 2018-10-23 Magna Electronics Inc. Vehicular control system
US11503253B2 (en) 2004-04-15 2022-11-15 Magna Electronics Inc. Vehicular control system with traffic lane detection
US10187615B1 (en) 2004-04-15 2019-01-22 Magna Electronics Inc. Vehicular control system
US10306190B1 (en) 2004-04-15 2019-05-28 Magna Electronics Inc. Vehicular control system
US9191634B2 (en) 2004-04-15 2015-11-17 Magna Electronics Inc. Vision system for vehicle
US9736435B2 (en) 2004-04-15 2017-08-15 Magna Electronics Inc. Vision system for vehicle
US9008369B2 (en) 2004-04-15 2015-04-14 Magna Electronics Inc. Vision system for vehicle
US10735695B2 (en) 2004-04-15 2020-08-04 Magna Electronics Inc. Vehicular control system with traffic lane detection
US8818042B2 (en) 2004-04-15 2014-08-26 Magna Electronics Inc. Driver assistance system for vehicle
WO2006028180A1 (en) * 2004-09-10 2006-03-16 Matsushita Electric Industrial Co., Ltd. Camera and camera device
US11148583B2 (en) 2006-08-11 2021-10-19 Magna Electronics Inc. Vehicular forward viewing image capture system
US10787116B2 (en) 2006-08-11 2020-09-29 Magna Electronics Inc. Adaptive forward lighting system for vehicle comprising a control that adjusts the headlamp beam in response to processing of image data captured by a camera
US11396257B2 (en) 2006-08-11 2022-07-26 Magna Electronics Inc. Vehicular forward viewing image capture system
US11623559B2 (en) 2006-08-11 2023-04-11 Magna Electronics Inc. Vehicular forward viewing image capture system
US10071676B2 (en) 2006-08-11 2018-09-11 Magna Electronics Inc. Vision system for vehicle
US11951900B2 (en) 2006-08-11 2024-04-09 Magna Electronics Inc. Vehicular forward viewing image capture system

Similar Documents

Publication Publication Date Title
CN102209197A (en) Imaging apparatus and imaging method
CN100460984C (en) Automatic focusing method and automatic focusing camera
WO2019146510A1 (en) Image processing device
KR940010592B1 (en) Method of and apparatus for pursueing object of camera
JP2001177752A (en) Image pickup method and device to generate combined output image having image components photographed by different focal distances
JPH06229739A (en) Environment recognizing system based on image processing
JP2008174028A (en) Target detection system and method
CN101308586A (en) Motor vehicle day and night running observing recorder
JPH11257953A (en) Tunnel wall surface observing apparatus
US4331864A (en) Apparatus for detecting an in-focused condition of optical systems
EP0606018B1 (en) Automatic focus adjusting device for a video camera
JPH10262176A (en) Video image forming method
JPH085316A (en) Method and apparatus for recognizing moving body
JP3202337B2 (en) Focus state display device
CN209803848U (en) Integrated road tunnel variable-focus visual detection system
KR101152606B1 (en) Apparatus and method for controlling caramera of blackbox of vehicle
JP3029005B2 (en) Stereo vision camera
JPS6113634B2 (en)
JP2008271458A (en) Imaging apparatus
JP3386491B2 (en) Automatic focusing method
JP3446471B2 (en) Stereo image processing device
JPH07119922B2 (en) Depth of focus correction device
SU1682970A1 (en) Device for automatic focussing of video camera objective
JPH11113027A (en) Three-dimension environment measurement camera
JPS597320A (en) Detector for amount of out of focus