JP6734994B2 - Stereo measuring device and system - Google Patents

Stereo measuring device and system Download PDF

Info

Publication number
JP6734994B2
JP6734994B2 JP2019524821A JP2019524821A JP6734994B2 JP 6734994 B2 JP6734994 B2 JP 6734994B2 JP 2019524821 A JP2019524821 A JP 2019524821A JP 2019524821 A JP2019524821 A JP 2019524821A JP 6734994 B2 JP6734994 B2 JP 6734994B2
Authority
JP
Japan
Prior art keywords
camera
unit
stereo
control amount
distance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019524821A
Other languages
Japanese (ja)
Other versions
JPWO2018235256A1 (en
Inventor
媛 李
媛 李
三好 雅則
雅則 三好
秀行 粂
秀行 粂
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Publication of JPWO2018235256A1 publication Critical patent/JPWO2018235256A1/en
Application granted granted Critical
Publication of JP6734994B2 publication Critical patent/JP6734994B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C3/00Measuring distances in line of sight; Optical rangefinders
    • G01C3/02Details
    • G01C3/06Use of electric means to obtain final indication
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B15/00Special procedures for taking photographs; Apparatus therefor
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B35/00Stereoscopic photography
    • G03B35/08Stereoscopic photography by simultaneous recording
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment

Description

本発明は、単眼カメラや複数のカメラにより構成されるステレオ計測装置及びシステムに関するものである。 The present invention relates to a stereo measurement device and system including a monocular camera and a plurality of cameras.

従来から、複数のカメラを用いて、対象物や環境を計測するステレオ計測装置及びシステムが実用化されている。例えば、自動車の車載ステレオカメラを用いて、侵入者検知や、危険行為の検知などの様々な計測を行い、この計測結果から音声報知や危険回避行動などの制御を行っている。また自動車自動運転では、ステレオカメラにより前後方位を計測し、車を制御する実例がある。また、近年では、監視分野やマーケティングでもステレオカメラの適応事例がある。 Conventionally, stereo measurement devices and systems that measure an object or environment using a plurality of cameras have been put into practical use. For example, an in-vehicle stereo camera of an automobile is used to perform various measurements such as intruder detection and dangerous behavior detection, and control of voice notification and danger avoidance behavior is performed based on the measurement results. In the automatic driving of a car, there is an example in which the front-back direction is measured by a stereo camera and the car is controlled. In recent years, stereo cameras have been applied in the surveillance field and marketing.

ステレオカメラを用いた三次元計測の手法としては、まず2台のカメラにより同時に同じ対象物を撮影し、得られた2つの画像に対して、歪み補正、平行化を行い、同じ三次元の、撮影した2つの画像上の差分、視差を算出する。次に、算出した視差を用いて、三次元対象物の形状などを計測する。 As a method of three-dimensional measurement using a stereo camera, first, the same object is simultaneously photographed by two cameras, distortion correction and parallelization are performed on the two obtained images, and the same three-dimensional measurement is performed. The difference and parallax on the two captured images are calculated. Next, the shape and the like of the three-dimensional object are measured using the calculated parallax.

係る三次元計測の場合には、2台のカメラの計測領域はほぼ同じである必要がある。また上記一連の処理の中で取り扱うカメラのパラメータ、画角、視差深度などは、2台のカメラのスペックに依存し、計測範囲は固定されている。 In the case of such three-dimensional measurement, the measurement areas of the two cameras need to be almost the same. The parameters of the camera, the angle of view, the parallax depth, etc. handled in the above series of processing depend on the specifications of the two cameras, and the measurement range is fixed.

計測範囲に関して、例えば、自動車自動運転の車載カメラの場合、前方2mから40mの範囲が計測範囲と言われている。このため、2m以内、40m以上は計測できなくなってしまうという問題がある。 Regarding the measurement range, for example, in the case of a vehicle-mounted camera for automatic vehicle driving, the range from 2 m to 40 m ahead is said to be the measurement range. Therefore, there is a problem that measurement cannot be performed within 2 m or 40 m or more.

計測範囲についての上記点の簡単な解決方法としては、2台のカメラを複数組備えて切り替え使用することが考えられる。2m以内の距離では近傍カメラを用い、40m以上の距離では遠望カメラに切り替えて計測するというやり方である。しかし、2台のカメラを複数組備える、この方法では、コストが高くなってしまうという問題がある。また、自動車自動運転の車載カメラの場合は、進行中切り替えることは不可能である。さらに、超遠望を計測する際には、例えば、200m場合以上を計測する場合は、さらに複数台のカメラの組み合わせとなり、コストが高くなるという問題がある。 As a simple solution to the above point regarding the measurement range, it is conceivable to provide a plurality of sets of two cameras and switch between them. The method is to use a nearby camera at a distance of 2 m or less and switch to a distant camera for measurement at a distance of 40 m or more. However, this method, which includes a plurality of sets of two cameras, has a problem of high cost. Further, in the case of an on-vehicle camera for automatic driving of a vehicle, it is impossible to switch the vehicle while it is in progress. Furthermore, when measuring the ultra-distant view, for example, in the case of measuring 200 m or more, there is a problem that a combination of a plurality of cameras is required and the cost becomes high.

計測範囲についての上記問題を解決する手法として、さらに以下のものが知られている。 The following methods are further known as methods for solving the above-mentioned problem regarding the measurement range.

非特許文献1は、パラメータ可変なステレオカメラを提案したものであり、カメラズームを制御することで、近傍や遠望を一台で計測することが可能となり、計測範囲を広げることができるとしている。 Non-Patent Document 1 proposes a stereo camera with variable parameters, and by controlling the camera zoom, it is possible to measure the vicinity and long-distance with one unit, and it is possible to expand the measurement range.

特許文献1は、複数セットのステレオカメラを組み合わせることで、計測幅を広げることを提案している。 Patent Document 1 proposes to widen the measurement range by combining a plurality of sets of stereo cameras.

特許文献2もまた特許文献1と同様に、複数セットのステレオカメラを組み合わせることで、計測幅を広けることを提案したものであるが、特許文献2では、カメラのフォーカス値より、計測対象の位置を推定し、推定した位置に対して、予め用意したキャリブレーションデータを選別し、三次元計測を行うものである。なお位置を推定する際には、人の顔など画像情報を利用するのが良いとしている。 Similar to Patent Document 1, Patent Document 2 also proposes to widen the measurement range by combining a plurality of sets of stereo cameras. However, in Patent Document 2, the measurement target is determined based on the focus value of the camera. The position is estimated, calibration data prepared in advance is selected for the estimated position, and three-dimensional measurement is performed. When estimating the position, it is recommended to use image information such as a person's face.

特開2006−033282号公報JP, 2006-033282, A 特開2012−058188号公報JP 2012-058188 A

“パラメータ可変ステレオカメラ向け自己較正技術の開発”, 第22回画像センシングシンポジウムSSII2016, SI-04, 2016“Development of self-calibration technology for variable parameter stereo cameras”, 22nd Image Sensing Symposium SSII2016, SI-04, 2016

しかしながら上記の公知手法によればさらに以下の解決すべき課題を有している。 However, the above-mentioned known methods have the following problems to be solved.

まず非特許文献1では、近い領域から、超遠望領域までの広い範囲に対して、計測対象に応じて、適切にカメラを制御し、計測することが困難である。 First, in Non-Patent Document 1, it is difficult to appropriately control and measure a camera in a wide range from a near region to a super-distant region according to a measurement target.

特許文献1では、計測システムのコストが高いという問題がある。また、組み合わせたカメラのスベックは予めフィックスされているため、その後の変更ができなくなる。汎用性が低いという問題もある。 Patent Document 1 has a problem that the cost of the measurement system is high. In addition, since the combined camera's sbecks are fixed in advance, it cannot be changed thereafter. There is also the problem of low versatility.

特許文献2では、実際の動く計測対象物に対して、動的にカメラを制御し、適切な計測をすることは困難である。また、特許文献1と同じく、キャリブレーションデータは予め用意されており、汎用性は低いという問題がある。また、計測範囲は、光や外乱などによって、フォーカスできないケースも発生し、そのときは推定された位置が不明確であり、計測に影響を受けるという問題がある。 In Patent Document 2, it is difficult to dynamically control the camera and perform appropriate measurement for an actual moving measurement target. Further, as in Patent Document 1, calibration data is prepared in advance, and there is a problem that versatility is low. In addition, there are cases in which the measurement range cannot be focused due to light or disturbance, and at that time, the estimated position is unclear, and the measurement is affected.

以上のことから本発明においては、1台のステレオカメラにより、近傍から遠望までの広い領域に対して、計測対象に応じて、適切にカメラを制御し、計測することを可能とするステレオ計測装置及びシステムを提供することを目的とする。 From the above, in the present invention, a stereo measurement device capable of appropriately controlling and measuring the camera with a single stereo camera in a wide area that is desired to be distant from the vicinity according to the measurement target. And to provide a system.

以上のことから本発明においては、「左右のカメラにより左右の画像情報を与えるとともに、左右のカメラのカメラ制御部を含むステレオカメラ部からの左右の画像情報を処理するステレオ計測装置であって、ステレオ計測装置は、左右の画像情報の画像シーンから特徴点を選別する特徴点選別部と、選別された特徴点を用いて、キャリブレーションを行い、キャリブレーションデータを算出するキャリブ算出部と、算出されたキャリブレーションデータと左右の画像情報を用いて、センシング対象の対象物体までの距離を算出する距離算出部と、算出された距離と画像情報とから、左右のカメラのカメラ制御部を制御するための制御量を算出する制御量算出部とを備え、制御量を前記ステレオカメラ部の左右のカメラのカメラ制御部に与えることを特徴とするステレオ計測装置」としたものである。 From the above, in the present invention, "a stereo measurement device that gives left and right image information from the left and right cameras and processes left and right image information from a stereo camera unit including a camera control unit of the left and right cameras, The stereo measurement device includes a feature point selection unit that selects feature points from image scenes of left and right image information, a calibration calculation unit that performs calibration using the selected feature points, and calculates calibration data, and a calculation unit. A distance calculation unit that calculates the distance to the target object to be sensed using the corrected calibration data and the left and right image information, and controls the camera control units of the left and right cameras from the calculated distance and the image information. And a control amount calculating unit for calculating a control amount for controlling the control amount for applying the control amount to the camera control units of the left and right cameras of the stereo camera unit.

また本発明は、「ステレオ計測装置と、左右のカメラにより左右の画像情報を与えるとともに、左右のカメラのカメラ制御部を含むステレオカメラ部とにより構成されたステレオ計測システム」としたものである。 Further, the present invention is a “stereo measurement system including a stereo measurement device and a stereo camera unit that provides left and right image information from the left and right cameras and includes a camera control unit of the left and right cameras”.

本発明によれば、一台のステレオカメラを用いて、近傍から超遠望までの広い領域を計測することが可能になる。 According to the present invention, a single stereo camera can be used to measure a wide area that is desired to be far away from the vicinity.

また本発明の実施例によれば、計測システムにおける、カメラのコストを削減することが期待できる。さらに、計測対象物を追いかけてセンシングする際には、カメラのスベックを制御しなから、適切なセンシングを行うことができる。例えば、人が遠くにいる場合は、システムはカメラをズームインして、計測することが可能である。ズーム率は、現状で計測された位置に基づいて制御することが可能である。また、人が近くなると、ズームアウトして、計測することが可能である。それによって、現場では、コスト面を考慮しなくでも、このようなステレオカメラを知能的に制御することで、幅広く、更に動的に計測することができるため、安全、安心な制御システムや計測システムに貢献することができる。 Further, according to the embodiments of the present invention, it is possible to expect to reduce the cost of the camera in the measurement system. Further, when the object to be measured is chased and is sensed, the svecks of the camera are not controlled, so that appropriate sensing can be performed. For example, if a person is far away, the system can zoom in the camera and measure. The zoom ratio can be controlled based on the currently measured position. Also, when a person approaches, it is possible to zoom out and measure. As a result, in the field, it is possible to measure widely and dynamically by intelligently controlling such a stereo camera without considering the cost aspect. Can contribute to.

本発明の実施例1に係るステレオカメラ装置100の構成例を示す図。1 is a diagram showing a configuration example of a stereo camera device 100 according to a first embodiment of the present invention. カメラ制御部12の構成例を示す図。FIG. 3 is a diagram showing a configuration example of a camera control unit 12. 特徴点抽出部13の処理の流れの一例について示す図。FIG. 6 is a diagram showing an example of a processing flow of the feature point extraction unit 13. 距離算出部16の構成例を示す図。The figure which shows the structural example of the distance calculation part 16. ズーム制御部21、ベースライン制御部22での処理の流れを示す図。The figure which shows the flow of a process in the zoom control part 21 and the baseline control part 22. パン制御部24と、チルト制御部25におけるパン制御値とチルト制御値を用いて回転制御する処理の流れを示す図。The figure which shows the flow of the process which controls rotation using the pan control value and tilt control value in the pan control part 24 and the tilt control part 25. 非同期ステレオカメラにおける制御の処理流れを示す図。The figure which shows the control processing flow in an asynchronous stereo camera. 本発明の実施例2に係るステレオカメラ装置100の構成例を示す図。The figure which shows the structural example of the stereo camera apparatus 100 which concerns on Example 2 of this invention. 本発明の実施例3に係るステレオカメラ装置100を示す図。The figure which shows the stereo camera apparatus 100 which concerns on Example 3 of this invention. 本発明の実施例4に係るステレオカメラ装置100を示す図。The figure which shows the stereo camera apparatus 100 which concerns on Example 4 of this invention. 本発明の実施例5に係るステレオカメラ装置100を示す図。The figure which shows the stereo camera apparatus 100 which concerns on Example 5 of this invention.

以下、本発明の実施例について、図面を参照して詳細に説明する。以下に示す本発明のステレオ計測装置及びシステムの実施例の説明においては、2つのカメラで構成されたステレオカメラ装置を例として説明する。なお、ステレオ計測装置とは、以下に示す処理部のみの構成を意図しており、ステレオ計測システムとは、以下に示す処理部とステレオカメラ部による構成を意図している。 Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings. In the following description of the embodiments of the stereo measurement apparatus and system of the present invention, a stereo camera apparatus composed of two cameras will be described as an example. It should be noted that the stereo measurement device is intended to have the configuration of only the processing unit shown below, and the stereo measurement system is intended to have the configuration of the processing unit and the stereo camera unit shown below.

図1は、本発明の実施例1に係るステレオカメラ装置の構成例を示す図である。ステレオカメラ装置100は、これを大別するとステレオカメラ部101と計算機で構成された処理部102により構成されている。計算機は、パソコン、組み込み用の小型ものやネットワークに接続可能な計算機器など処理機能を有する機器が考えられる。 FIG. 1 is a diagram showing a configuration example of a stereo camera device according to a first embodiment of the present invention. The stereo camera device 100 is roughly composed of a stereo camera unit 101 and a processing unit 102 composed of a computer. As the computer, a device having a processing function such as a personal computer, a small built-in computer or a computer connectable to a network can be considered.

このうちステレオカメラ部101は、レンズと撮像部を備えた左右の実映像入力部10R、10Lで構成された実映像入力部10と、左右の画像取得部11R、11Lで構成された画像取得部11と、左右のカメラ制御部12R、12Lで構成されたカメラ制御部12とで構成されている。ステレオカメラ部101は、カメラを主体とする機械機構部ということができる。 Of these, the stereo camera unit 101 includes a real video input unit 10 including left and right real video input units 10R and 10L including a lens and an imaging unit, and an image acquisition unit including left and right image acquisition units 11R and 11L. 11 and a camera control unit 12 including left and right camera control units 12R and 12L. The stereo camera unit 101 can be referred to as a mechanical mechanism unit mainly including a camera.

ステレオカメラ部101内の実映像入力部10は、それぞれ2組の撮像部とレンズを備えて構成されており、ステレオカメラの左右カメラからそれぞれ映像を入力する。 The actual image input unit 10 in the stereo camera unit 101 is configured to include two sets of image pickup units and lenses, and inputs images from the left and right cameras of the stereo camera.

実映像入力部10内の撮像部は、画像センサであるCMOS(Complementary Metal Oxide Semiconductor)やCCD(Charge Coupled Device)などの撮像素子を含む機構である。レンズは、ズーム可能なレンズを有している。ズームすることによって、遠望領域を撮像することを可能とし、近傍領域を撮像することも可能である。 The image pickup unit in the real image input unit 10 is a mechanism including an image pickup device such as a CMOS (Complementary Metal Oxide Semiconductor) or a CCD (Charge Coupled Device) which is an image sensor. The lens has a zoomable lens. By zooming, it is possible to image a distant view area, and it is also possible to image a near area.

画像取得部11は、実映像入力部10から入力した電子信号を画像へ変換する機能である。ここでは、画像フォマットは様々である。BMP、 JPEG、 PNGなど。システムによって、画像フォマットを決められる。 The image acquisition unit 11 has a function of converting an electronic signal input from the real video input unit 10 into an image. There are various image formats here. BMP, JPEG, PNG, etc. The image format can be determined by the system.

カメラ制御部12は、実映像入力部10におけるカメラの画角、向き、カメラ間の距離など、カメラのパラメータを調整することができる。 The camera control unit 12 can adjust the parameters of the camera such as the angle of view, the orientation, and the distance between the cameras in the actual image input unit 10.

実施例1では、撮影するシーンは特定しない。監視機能向けのステレオカメラであれば、移動物体や監視エリアなどを撮影シーンとする。車載ステレオカメラであれば、道路や前方車などを撮影シーンとする。撮影シーンは、複雑シーンや単純なシーンでも撮影可能とし、撮影された映像を入力する。また、実施例1のカメラは、焦点距離、回転角度、カメラ間の距離など変更することが可能なカメラとした構成でもよい。このようにステレオカメラ装置100は、様々な機器や様々な環境で操作できる。 In the first embodiment, the scene to be photographed is not specified. In the case of a stereo camera for surveillance functions, moving objects and surveillance areas are used as shooting scenes. If it is a vehicle-mounted stereo camera, the shooting scene is a road or a vehicle ahead. The shooting scene can be a complicated scene or a simple scene, and the shot video is input. Further, the camera of the first embodiment may be configured as a camera capable of changing the focal length, the rotation angle, the distance between the cameras and the like. Thus, the stereo camera device 100 can be operated in various devices and various environments.

図2はカメラ制御部12の構成例を示す図である。カメラ制御部12は、ズーム制御部21、ベースライン制御部22、回転制御部23、チルト制御部24、パン制御部25で構成されている。ズーム制御部21はズーム制御値26を用いて、レンズ機構を制御するもので、レンズの移動によって焦点距離を変更しカメラの撮像範囲である画角を変更する。ベースライン制御部23は、ベースライン制御値27を用いて、カメラ間の距離を調整する。チルト制御部24は、チルト制御値28を用いて、カメラの角度を制御する。パン制御部は、パン制御値29を用いて、カメラのパン角度を制御する。チルト制御部23、パン制御部24は、それぞれ画角と水平方向、画角と垂直方向のカメラ向きを制御する。回転制御部23は、カメラを回転しならから姿勢を変えることができる。 FIG. 2 is a diagram showing a configuration example of the camera control unit 12. The camera control unit 12 includes a zoom control unit 21, a baseline control unit 22, a rotation control unit 23, a tilt control unit 24, and a pan control unit 25. The zoom control unit 21 controls the lens mechanism by using the zoom control value 26. The zoom control unit 21 changes the focal length and the angle of view, which is the imaging range of the camera, by moving the lens. The baseline control unit 23 uses the baseline control value 27 to adjust the distance between the cameras. The tilt control unit 24 uses the tilt control value 28 to control the angle of the camera. The pan control unit uses the pan control value 29 to control the pan angle of the camera. The tilt control unit 23 and the pan control unit 24 respectively control the angle of view and the horizontal direction, and the angle of view and the vertical direction of the camera. The rotation control unit 23 can change the posture after rotating the camera.

なお、ズーム制御部21とベースライン制御部22の具体的な処理内容について図5を参照して後述し、回転制御部23の具体的な処理内容について図6を参照して後述する。 Note that specific processing contents of the zoom control unit 21 and the baseline control unit 22 will be described later with reference to FIG. 5, and specific processing contents of the rotation control unit 23 will be described later with reference to FIG. 6.

図5、図6の構成における以上の調整は、すべて独立でも、同時でも可能である。ここでは、システム仕様、撮影するシーンのニーズに合わせて調整することが可能である。 The above adjustments in the configurations of FIGS. 5 and 6 can be performed independently or simultaneously. Here, it is possible to adjust according to the system specifications and the needs of the scene to be photographed.

図1に示した実施例1のステレオカメラ装置100内のステレオカメラ部101について、実映像入力部10、画像取得部11、カメラ制御部12は夫々左右のカメラ機能が一体に形成された事例を示しているが、これらは別体とされていてもよい。別体とする時には、右実映入力部10Rと左実映入力部10L、右画像取得部11Rと左画像取得部11L、右カメラ制御部12Rと左カメラ制御部12Lを個別に有することになる。 Regarding the stereo camera unit 101 in the stereo camera device 100 according to the first embodiment shown in FIG. 1, the actual image input unit 10, the image acquisition unit 11, and the camera control unit 12 each have an example in which left and right camera functions are integrally formed. Although shown, these may be separated. When it is a separate body, it has a right video input unit 10R and a left video input unit 10L, a right image acquisition unit 11R and a left image acquisition unit 11L, a right camera control unit 12R and a left camera control unit 12L, respectively. ..

ステレオカメラ装置100内の、計算機で構成された処理部102は、特徴点選別部13、キャリブ算出部14、キャリブデータデータベースDB1、距離算出部16、制御量算出部17から構成されている。ステレオカメラ部101がカメラを主体とする機械機構部であるに対し、計算機で構成される処理部102は電子的処理機能ということができる。 The processing unit 102 configured by a computer in the stereo camera device 100 includes a feature point selection unit 13, a calibrating unit 14, a calibrating data database DB1, a distance calculating unit 16, and a control amount calculating unit 17. The stereo camera unit 101 is a mechanical mechanism unit mainly composed of a camera, whereas the processing unit 102 configured by a computer can be said to have an electronic processing function.

図1の処理部102において、特徴点選別部13は、左右の画像取得部11R、11Lから入力された画像情報を用いて、キャリブレーションをするための特徴点を選別する処理を実行している。特徴点選別は、撮影シーンから特徴点を抽出し、その中から有効点を選別するプロセスであり、既存の手法での実現が可能である。 In the processing unit 102 of FIG. 1, the feature point selection unit 13 executes a process of selecting a feature point for calibration using the image information input from the left and right image acquisition units 11R and 11L. .. The feature point selection is a process of extracting feature points from a shooting scene and selecting effective points from them, and can be realized by an existing method.

特徴点抽出の処理の流れの一例について図3に示している。特徴点抽出の従来例においては、一つの位置で撮影した一つのシーンから特徴点を抽出することが多いが、実施例1では、複数のシーンから特徴点群を抽出する例を示している。 FIG. 3 shows an example of the flow of the feature point extraction processing. In the conventional example of feature point extraction, feature points are often extracted from one scene shot at one position, but the first embodiment shows an example of extracting feature point groups from a plurality of scenes.

具体的な図3の例では、処理31に示すように例えばカメラの回転制御を行いながら撮影を行い、処理32に示すように時系列的に複数シーンでの画像I1、I2、I3を入手する。次に処理33では複数シーンでの画像I1、I2、I3についてそれぞれ特徴点を選別し、処理34では抽出された複数の特徴点の中から有効な特徴点の選別を行う。 In the specific example of FIG. 3, as illustrated in process 31, shooting is performed while controlling the rotation of the camera, and as illustrated in process 32, images I1, I2, and I3 in a plurality of scenes are obtained in time series. .. Next, in process 33, feature points are selected for each of the images I1, I2, and I3 in the plurality of scenes, and in process 34, effective feature points are selected from the plurality of extracted feature points.

特徴点抽出手法としては様々のものが知られているが、汎用性の高い手法としてはSIFT(Scale−Invariant Feature Transform)、HOG(Histograms of Oriented Gradients)などが考えられる。 Although various types of feature point extraction methods are known, examples of highly versatile methods include SIFT (Scale-Invariant Feature Transform) and HOG (Histograms of Oriented Gradients).

処理33において抽出された特徴点群Pxでは、間違ってマッチングした特徴点も存在する可能性がある。間違った特徴点を利用する場合は、キャリブレーションの算出に悪影響を与え、キャリブレーションデータが大きな誤差が含むことがある。そのため、処理34のように、間違った特徴点を除き、有効な特徴点Prを選別するプロセスが必要である。有効な特徴点の選別手法としては、RANSAC(Random sample consensus)がよく利用されている。処理34の中で、点群Pxは間違った特徴点であり、Prは所定の規則性を示す正しい特徴点を示している。RANSAC処理によって、間違った特徴点Pxを除去することができる。 In the feature point group Px extracted in the process 33, there may be a feature point that is erroneously matched. When the wrong feature point is used, the calibration calculation may be adversely affected and the calibration data may include a large error. Therefore, a process of removing valid feature points and selecting valid feature points Pr like the process 34 is required. RANSAC (Random sample consensus) is often used as an effective feature point selection method. In the process 34, the point group Px is a wrong feature point, and Pr is a correct feature point showing a predetermined regularity. By the RANSAC process, the wrong feature point Px can be removed.

キャリブ算出部14は、特徴点選別部13から出力された特徴点を用いて、カメラキャリブレーションを行う。カメラキャリブレーションは、カメラの内部パラメータと、カメラの外部パラメータを算出するプロセスである。 The calibrator 14 performs camera calibration using the feature points output from the feature point selector 13. Camera calibration is the process of calculating camera internal parameters and camera external parameters.

カメラの内部パラメータとして、fは焦点距離、αはアスペクト比、sはスキュー、(u、v)は座標の中心座標を示す。また外部パラメータとして、Rはカメラの向きを示す回転行列、Tはカメラ間の位置関係を示す並進行列である。カメラの向きを示すRは、3×3(r11、r12、…r33)マトリックスにおいては、オイラー角により定義すると、カメラの設置角度であるパンθ、チルトφ、ロールψの3個のパラメータによって表される。それぞれ内部パラメータと外部パラメータを算出するために、キャリブレーション技術が求められている。従来は、「Z.Zhang、“A flexible new technique for camera calibration”、IEEE Transactions on Pattern Analysis and Machine Intelligence、22(11):1330-1334、2000」に記載された手法を利用することが多い。また画像を用いて、自動的にカメラパラメータを推定する手法が多く提案されている。また非特許文献1に記載した自動キャリブレーション手法が提案されている。As internal parameters of the camera, f is the focal length, α is the aspect ratio, s is the skew, and (u 0 , v 0 ) is the center coordinate of the coordinates. Further, as external parameters, R is a rotation matrix indicating the orientation of the cameras, and T is a translation matrix indicating the positional relationship between the cameras. In the 3×3 (r11, r12,...r33) matrix, R, which indicates the orientation of the camera, is defined by Euler angles, and is represented by three parameters, which are the camera installation angle, pan θ, tilt φ, and roll ψ. To be done. Calibration techniques are required to calculate the internal and external parameters, respectively. Conventionally, “Z. Zhang, “A flexible new technology for camera calibration”, and IEEE Transactions on Pattern Analysis and Machine Intelligence, which are often used, are described in 13 (2000), 13 (2000), 13 (2000), 13 (13), 13 (2000), 13 (2000), 13 (2000), 13(13): Also, many methods for automatically estimating camera parameters using images have been proposed. Further, the automatic calibration method described in Non-Patent Document 1 has been proposed.

算出されたカメラパラメータは、キャリブレーションデータD1として、キャリブデータデータベースDB1に記録される。 The calculated camera parameters are recorded in the calibration data database DB1 as the calibration data D1.

本発明の実施例1では、カメラの構成を変える度に、再度キャリブレーションすることが必要である。たとえば、実施例1では、カメラのズーム、ベースライン、回転角度などいずれが変更された際には、特徴点選別部13では再度入力したシーンから特徴点を選別することになる。その後は、キャリブ算出部14も再度キャリブレーションデータD1を算出することになり、最新のキャリブレーションデータD1をキャリブレーションデータベースDB1に登録することになる。そして、カメラ制御したカメラのパラメータに合わせて、キャリブレーションデータを利用する。 In the first embodiment of the present invention, it is necessary to recalibrate every time the camera configuration is changed. For example, in the first embodiment, when any of the zoom, the baseline, the rotation angle, etc. of the camera is changed, the feature point selection unit 13 selects the feature points from the re-input scene. After that, the calibrator 14 also calculates the calibration data D1 again, and the latest calibration data D1 is registered in the calibration database DB1. Then, the calibration data is used according to the parameters of the camera controlled camera.

図4は距離算出部16の構成例を示す図である。距離算出部16では、左右画像取得部11R、11Lからの左右画像と、キャリブレーションデータD1を用いて距離データP1を算出する。距離データP1の算出は、歪み補正部44、並行処理部45、距離算出部46の処理を逐次実行することで得られる。 FIG. 4 is a diagram showing a configuration example of the distance calculation unit 16. The distance calculation unit 16 calculates the distance data P1 using the left and right images from the left and right image acquisition units 11R and 11L and the calibration data D1. The calculation of the distance data P1 is obtained by sequentially executing the processes of the distortion correction unit 44, the parallel processing unit 45, and the distance calculation unit 46.

以下に距離算出の具体的な処理手順について数式を用いて説明するが、以下における数式での説明の前提として、カメラの内部パラメータ行列Kおよび外部パラメータ行列Dは、それぞれ(1)(2)式で表すことができる。なお(1)式において、Kは内部パラメータ行列であり、fは焦点距離、aはアスペクト比、sはスキュー、(vc、uc)は画像座標の中心座標を示す。また(2)式において、Dは外部パラメータ行列であり、(r11、r12、r13、r21、r22、r23、r31、r32、r33)はカメラの向きを示し、(tx、ty、tz)はカメラ間の位置座標を示す。 A specific processing procedure for calculating the distance will be described below using mathematical expressions. As a premise of the description in the mathematical expressions below, the internal parameter matrix K and the external parameter matrix D of the camera are respectively expressed by equations (1) and (2). Can be expressed as In the equation (1), K is an internal parameter matrix, f is the focal length, a is the aspect ratio, s is the skew, and (vc, uc) is the center coordinate of the image coordinates. Further, in the equation (2), D is an external parameter matrix, (r11, r12, r13, r21, r22, r23, r31, r32, r33) indicates the orientation of the camera, and (tx, ty, tz) is the camera. The position coordinates between are shown.

Figure 0006734994
Figure 0006734994

Figure 0006734994
Figure 0006734994

これら2つのパラメータ行列K、D及び定数λを用いると、画像座標(u、v)と世界座標(X、Y、Z)は(3)式により対応付けられる。 When these two parameter matrices K and D and the constant λ are used, the image coordinates (u, v) and the world coordinates (X, Y, Z) are associated with each other by the expression (3).

Figure 0006734994
Figure 0006734994

なお、外部パラメータDのカメラの向きを示す(r11、r12、…r33)においては、オイラー角により定義すると、カメラの設置角度であるパンθ、チルトφ、ロールψの3個のパラメータによって表される。そのため、画像座標と世界座標の対応付けのために必要なカメラパラメータ数は、5個の内部パラメータと6個の外部パラメータを合計した11個となる。 In addition, in the external parameter D indicating the orientation of the camera (r11, r12,...r33), when defined by the Euler angle, it is represented by three parameters that are the installation angle of the camera: pan θ, tilt φ, and roll ψ. It Therefore, the number of camera parameters necessary for associating the image coordinates with the world coordinates is 11, which is the total of 5 internal parameters and 6 external parameters.

図4の距離算出部46における最初の処理を行う歪み補正部44では、カメラパラメータを用いて、カメラ画像の歪みを補正する。そして、平行処理部45は、左右カメラの平行化を処理する。距離を含み、計測物の三次元計測値は(4)により算出することができる。 The distortion correction unit 44 that performs the first process in the distance calculation unit 46 in FIG. 4 corrects the distortion of the camera image using the camera parameters. Then, the parallel processing unit 45 processes the parallelization of the left and right cameras. The three-dimensional measured value including the distance can be calculated by (4).

Figure 0006734994
Figure 0006734994

(4)式において、(xl、yl)、(xr、yr)は左右カメラ画像上の画素値である。平行化処理後、yl=yr=yとなる。fは焦点距離、Bはベースライン、カメラ間の距離である。dは同じ三次元上のものはそれぞれ左右カメラに投影した画像間の差分である。その差分はその三次元上の視差である。世界座標(X、Y、Z)と画像座標(u、v)の関係は、(5)式のようになる。世界座標(X、Y、Z)を求めたということは、距離データP1を取得したことを意味している。 In the equation (4), (xl, yl) and (xr, yr) are pixel values on the left and right camera images. After the parallelization processing, yl=yr=y. f is the focal length, B is the baseline, and the distance between the cameras. d is the difference between the images projected on the left and right cameras, respectively, in the same three-dimensional form. The difference is the three-dimensional parallax. The relationship between the world coordinates (X, Y, Z) and the image coordinates (u, v) is as shown in equation (5). Obtaining the world coordinates (X, Y, Z) means obtaining the distance data P1.

Figure 0006734994
Figure 0006734994

図1において、制御量算出部17は、計算された距離データP1と画像データを用いて制御値を算出する。そして、カメラ制御部12は、それぞれ制御値を用いて制御する。 In FIG. 1, the control amount calculator 17 calculates a control value using the calculated distance data P1 and image data. Then, the camera control unit 12 controls using the control values, respectively.

図5は、ズーム制御部21、ベースライン制御部22での制御量算出および、制御処理に関する流れ図を示している。 FIG. 5 shows a flowchart relating to control amount calculation and control processing in the zoom control unit 21 and the baseline control unit 22.

図5に示すズーム制御部21、ベースライン制御部22での最初の処理である処理ステップS51では、左右カメラから画像を入力する。処理ステップS52では、距離算出部16で計測した距離データP1を距離データベースDB2に格納する。処理ステップS54では、距離データP1の安定性を評価する。たとえは、距離データP1は数回(ここでは5回)を格納した場合は、安定と判断する。処理ステップS55では、安定と判断された距離データを用いて、平均距離を算出し、処理ステップS56において、ズーム制御部21、ベースライン制御部22でのズーム、ベースラインの制御量を算出する。 In process step S51 which is the first process in the zoom control unit 21 and the baseline control unit 22 shown in FIG. 5, an image is input from the left and right cameras. In processing step S52, the distance data P1 measured by the distance calculation unit 16 is stored in the distance database DB2. In processing step S54, the stability of the distance data P1 is evaluated. For example, when the distance data P1 is stored several times (here, five times), it is determined to be stable. In processing step S55, the average distance is calculated using the distance data determined to be stable, and in processing step S56, the zoom and baseline control amounts of the zoom control unit 21 and the baseline control unit 22 are calculated.

ズーム、ベースラインの制御量の簡単な計算方法は、ズーム率a=距離d/基準sとして求めることができる。基準sはカメラのズームに合わせて設定することが可能である。距離が近いのであれば、ズーム率aを減少し、距離が遠いのであれは、ズーム率aを増加する。また、ベースライン制御値b=(ベースライン全体幅f/基準s)×n(n=0、1、2….N)として求めることができ、ここでNは制御粒度である。Nは何段回を制御する指標である。処理ステップS57では、画像取得終了まで制御処理を繰り返し実行する。画像がない場合は、処理ステップS58において画像取得を終了し、制御処理も終了する。 A simple calculation method of the control amount of the zoom and the baseline can be obtained by zoom ratio a=distance d/reference s. The reference s can be set according to the zoom of the camera. If the distance is short, the zoom rate a is decreased, and if the distance is long, the zoom rate a is increased. Further, it can be obtained as a baseline control value b=(total baseline width f/reference s)×n (n=0, 1, 2,... N), where N is a control granularity. N is an index for controlling the number of rounds. In process step S57, the control process is repeatedly executed until the image acquisition is completed. If there is no image, the image acquisition is ended and the control process is ended in processing step S58.

図6は、パン制御部24と、チルト制御部25におけるパン制御値とチルト制御値を用いて回転制御する処理の流れを示す図である。 FIG. 6 is a diagram showing a flow of processing of rotation control using the pan control value and the tilt control value in the pan control unit 24 and the tilt control unit 25.

図6に示す回転制御における最初の処理ステップS61では、左右画像取得部11R、11Lからの左右画像を取得し、処理ステップS62において、フレーム間差分を算出する。差分がある場合は、画像内に人物移動などの動きがあることを示す。処理ステップS63は、その動き領域を抽出する。例えば、画像領域を複数に区分しておき、区分された小領域間で、人物などの移動があることを検知する。処理ステップS64では、領域移動がある場合は、処理ステップS65において、その移動量を算出し、そして処理ステップS66でパン、チルトの回転制御を行う。処理ステップS67では、画像取得終了まで制御処理を繰り返し行う。画像がない場合は、処理ステップS68に移り、画像取得を終了し、制御処理も終了する。 In the first processing step S61 in the rotation control shown in FIG. 6, the left and right images from the left and right image acquisition units 11R and 11L are acquired, and in the processing step S62, the inter-frame difference is calculated. If there is a difference, it indicates that there is movement such as person movement in the image. A processing step S63 extracts the motion area. For example, the image area is divided into a plurality of areas, and it is detected that a person or the like moves between the divided small areas. In the processing step S64, when there is a region movement, the movement amount is calculated in the processing step S65, and the pan/tilt rotation control is performed in the processing step S66. In process step S67, the control process is repeated until the image acquisition is completed. If there is no image, the process proceeds to processing step S68, the image acquisition is ended, and the control process is also ended.

たとえは、現在位置(x0、y0)であり、動き位置(x1、y1)であれば、パン制御値p、チルト制御値tは三角関係での移動距離を用いて、(6)式により、角度を算出することが可能である。 For example, if it is the current position (x0, y0) and is the movement position (x1, y1), the pan control value p and the tilt control value t use the moving distances in the triangular relationship, and according to the equation (6), It is possible to calculate the angle.

Figure 0006734994
Figure 0006734994

上記一連の処理により、理想的なステレオカメラは同期化されて、算出された距離は安定するはずである。しかし実際には、左右カメラには非同期という問題がある。その場合は、動き際の距離は不安定であり、距離ベースでの制御は困難である。 Through the series of processes described above, the ideal stereo cameras should be synchronized and the calculated distance should be stable. However, in reality, the left and right cameras have the problem of being asynchronous. In that case, the distance during movement is unstable, and it is difficult to control the distance based.

このことから、本発明においては、さらに図7のように実施ことを提案する。図7は、非同期ステレオカメラにおける制御の処理の流れを示す図である。 From this, the present invention further proposes to implement as shown in FIG. FIG. 7 is a diagram showing a flow of control processing in the asynchronous stereo camera.

図7における最初の処理ステップであるS71では、左右カメラ画像を取得する。処理ステップS72では、カメラの歪み補正を行う。処理ステップS73では、視差算出処理を行う。そして、処理ステップS74で、左右カメラのフレーム間差分処理を行う。そのうえで、処理ステップS75において差分がない場合(Y側)は、静止と判断して処理ステップS710の処理に移り、差分がある場合(N側)は、動きと判断して処理ステップS76の処理に移る。 In S71, which is the first processing step in FIG. 7, left and right camera images are acquired. In process step S72, distortion correction of the camera is performed. In processing step S73, parallax calculation processing is performed. Then, in processing step S74, difference processing between frames of the left and right cameras is performed. Then, if there is no difference in the processing step S75 (Y side), it is determined to be stationary and the process proceeds to the processing of step S710, and if there is a difference (N side), it is determined to be the motion and processing in the processing step S76 is performed. Move.

処理ステップS75の判断処理で、差分があるとされた場合(N側)は、人物などの動きと判断する。動きの場合は、処理ステップS76において、画像上の動き領域を算出する。そして、処理ステップS77において、カメラのパン、チルトの現状値を算出する。処理ステップS78では、算出された動き領域と現状値を比較して、差分を算出し、人物などの位置を判定する。処理ステップS79では、その差分に基づいて、パン制御値、チルト制御値を算出して、回転制御を行う。 If it is determined that there is a difference (N side) in the determination processing of processing step S75, it is determined that the movement is a person or the like. In the case of motion, a motion region on the image is calculated in processing step S76. Then, in processing step S77, the current values of the pan and tilt of the camera are calculated. In processing step S78, the calculated motion area is compared with the current value, the difference is calculated, and the position of the person or the like is determined. In processing step S79, the pan control value and the tilt control value are calculated based on the difference, and the rotation control is performed.

処理ステップS75の判断処理で、静止(Y側)の場合は、処理ステップS710において距離異常値の判定を行い、正常データについてのみ処理ステップS711において静止時の連続する5フレームの距離データを格納し、処理ステップS712においてその安定性を評価する。安定(Y側)であれば、処理ステップS713で平均距離を算出し、ズーム制御値、ベースライン制御値を算出する。その制御値を用いて、処理ステップS714においてズーム、ベースライン制御を行う。処理ステップS715では、画像取得終了まで制御処理を繰り返し行う。画像がない場合は、処理ステップS716において、画像取得を終了し、制御処理も終了する。 In the case of stationary (Y side) in the determination processing of processing step S75, the abnormal distance value is determined in processing step S710, and only normal data is stored in processing step S711 as distance data of five consecutive frames at rest. The stability is evaluated in process step S712. If it is stable (Y side), the average distance is calculated in processing step S713, and the zoom control value and the baseline control value are calculated. Using the control value, zooming and baseline control are performed in processing step S714. In process step S715, the control process is repeated until the image acquisition is completed. If there is no image, in step S716 the image acquisition is ended and the control processing is also ended.

図8を用いて、実施例2について説明する。図8は、本発明の実施例2に係るステレオカメラ装置100の構成例を示す図である。 Example 2 will be described with reference to FIG. FIG. 8 is a diagram showing a configuration example of the stereo camera device 100 according to the second embodiment of the present invention.

実施例2では、図1に示す構成において実映像入力部10から制御量算出部17までの機能は実施例1と同じであるのでその説明を省略する。 In the second embodiment, the functions from the real image input unit 10 to the control amount calculation unit 17 in the configuration shown in FIG. 1 are the same as those in the first embodiment, and therefore the description thereof will be omitted.

実施例2では、機械機構部であるステレオカメラ部101と、電子的処理機能である処理部102とは、ネットワーク81を介して相互に通信可能に接続されている。ここでは、ネットワーク81にあるカメラに対して、キャリブレーションを行う。そして、カメラで計測した対象の距離を算出する。その後、計算された距離を用いて、ネットワーク81を経由してカメラを制御するという遠隔処理できるカメラシステム構成である。それによって、設置場所や計測場所に依存しなく、遠隔で計測することが可能となる。 In the second embodiment, the stereo camera unit 101, which is a mechanical mechanism unit, and the processing unit 102, which is an electronic processing function, are communicably connected to each other via a network 81. Here, the cameras on the network 81 are calibrated. Then, the distance of the object measured by the camera is calculated. After that, the camera system configuration is such that the camera is controlled via the network 81 by using the calculated distance, which enables remote processing. As a result, it is possible to measure remotely regardless of the installation location or measurement location.

図9を用いて、実施例3について説明する。図9は、本発明の実施例3に係るステレオカメラ装置100を示す図である。 The third embodiment will be described with reference to FIG. FIG. 9 is a diagram showing a stereo camera device 100 according to the third embodiment of the present invention.

実施例3によれば、カメラを制御するときに、広い範囲をスキャンする際には、スキャンした距離の精度を高めることができる。 According to the third embodiment, the accuracy of the scanned distance can be improved when controlling a camera and scanning a wide range.

従来における1台のカメラの場合は、例えば近くの距離の精度が高く、遠くなると精度が減少するという関係にある。実施例3では、1台のカメラはまず、91のカメラスベックで近い領域94をスキャンする。そして、カメラスベックを92に変更し、遠い領域95をスキャンする。また同じように、カメラスベックを93に変更し、さらに遠い領域96をスキャンする。そして、スキャンした結果を統合することで、全領域97についての結果を得ることができる。全領域97について得られた画像の処理結果では、全ての領域に対して、距離の精度が高いものとすることができる。それによって、今後自動運転ための、地図構築や環境スキャンなど様々な適用ができる。 In the case of one camera in the related art, for example, there is a relationship that the accuracy of a near distance is high and the accuracy decreases at a far distance. In the third embodiment, one camera first scans the near area 94 with the camera svecks 91. Then, the camera svecks are changed to 92, and the far area 95 is scanned. Similarly, the camera svecks are changed to 93, and a farther area 96 is scanned. Then, the results of the entire region 97 can be obtained by integrating the scan results. In the image processing results obtained for the entire area 97, the accuracy of the distance can be high for all areas. By doing so, various applications such as map construction and environmental scanning can be applied for automatic driving in the future.

図10を用いて、実施例4について説明する。図10は、本発明の実施例4に係るステレオカメラ装置100を示す図である。実施例4は、カメラを制御しなから、センシング物体を追跡し、適切な計測を行う実施例である。ここでは、人あるいは、車などの移動する物体Mを、計測したい対象物体とする。センシングする物体Mの移動経路はgのようであり、近距離位置から次第に遠ざかっていくものとする。センシングシステムでは、カメラのパン、チルト、ズーム、ベースラインを制御しなから、対象物体Mを追跡していく。それによって、1台のステレオカメラを用いて、近い位置から超遠望までの広い領域を計測することが可能になる。また、対象の動きに応じて、適切にセンシングすることが可能になる。 Example 4 will be described with reference to FIG. FIG. 10 is a diagram showing a stereo camera device 100 according to the fourth embodiment of the present invention. The fourth embodiment is an embodiment in which the sensing object is tracked and appropriate measurement is performed without controlling the camera. Here, a moving object M such as a person or a car is a target object to be measured. The movement path of the object M to be sensed is like g, and it is assumed that the object M gradually moves away from the short distance position. The sensing system does not control the pan, tilt, zoom, and baseline of the camera, but tracks the target object M. As a result, it becomes possible to measure a wide area at a super far distance from a close position by using one stereo camera. Moreover, it becomes possible to perform appropriate sensing according to the movement of the target.

なお、図10の事例では、近い位置ではズームは1倍、ベースラインは15cm、角度10°であり、中距離位置ではズームは5倍、ベースラインは20cm、角度20°であり、遠距離位置ではズームは10倍、ベースラインは25cm、角度10°とした例を示している。 In the example of FIG. 10, the zoom is 1x at the close position, the baseline is 15 cm, and the angle is 10°, and the zoom is 5x at the intermediate position, the baseline is 20 cm, and the angle is 20°. Shows an example in which the zoom is 10 times, the baseline is 25 cm, and the angle is 10°.

図11を用いて、実施例5について説明する。図11は、本発明の実施例5に係るステレオカメラ装置100を示す図である。実施例5は、センシングシステムの一例である。 Example 5 will be described with reference to FIG. FIG. 11 is a diagram showing a stereo camera device 100 according to the fifth embodiment of the present invention. Example 5 is an example of a sensing system.

このシステムでは、ステレオカメラ101と、計算機111はネットワーク81で接続されている。画像はネットワーク81を経由して計算機111に送付される。計算機111は、受け取った画像を用いて、図1示した処理を行う。ズーム制御ユニット115はカメラの焦点距離を制御する。ベースライン制御ユニット116はベースラインステージ113を制御する。回転制御ユニット117は回転ステージ114を制御する。それらのユニットは計算機111と接続し、処理結果に応じて、それぞれ制御を行う。 In this system, the stereo camera 101 and the computer 111 are connected by a network 81. The image is sent to the computer 111 via the network 81. The computer 111 uses the received image to perform the processing shown in FIG. The zoom control unit 115 controls the focal length of the camera. The baseline control unit 116 controls the baseline stage 113. The rotation control unit 117 controls the rotation stage 114. These units are connected to the computer 111 and perform control according to the processing results.

次に図1の構成における各部処理の時間的関係について説明する。ここでは、カメラの画像取得部11は例えば30フレーム/秒で画像を入手しており、現時点では第2フレーム目の画像処理をこれから実施するタイミングを想定している。 Next, the temporal relationship of the processing of each part in the configuration of FIG. 1 will be described. Here, the image acquisition unit 11 of the camera acquires an image at, for example, 30 frames/second, and at the present time, it is assumed that the image processing of the second frame will be performed.

第2フレーム目の画像は、画像取得部11から特徴点選別部13に同時に与えられる。この時、距離算出部16は、左右画像から対象物までの距離と画像内の対象物体の動きを検知し、動きがある場合に制御量算出部17、カメラ制御部12を介して新たなカメラ位置とすべく作用する。またこのとき、距離算出部16はキャリブレーションデータデータベースDB1を参照して、距離を算出する際の補正に使用するキャリブレーションデータD2を得るが、この最新のキャリブレーションデータD2は、少なくとも第1フレーム目の画像処理において、特徴点選別部13、キャリ部レーション算出部14の処理により求めたものである。つまり、距離算出部16は、現在時刻の画像と過去時刻の処理で求めた最新のキャリブレーションデータD2とから、距離を算出する。なお第2フレーム目の処理では、キャリブレーションデータデータベースDB1には第2フレーム目で入手した画像から得たキャリブレーションデータD2が記憶されることになり、第3フレーム目における距離算出部16の処理で使用されることになる。 The image of the second frame is simultaneously given from the image acquisition unit 11 to the feature point selection unit 13. At this time, the distance calculation unit 16 detects the distance from the left and right images to the object and the movement of the target object in the image, and if there is movement, a new camera is detected via the control amount calculation unit 17 and the camera control unit 12. It works to position. At this time, the distance calculation unit 16 refers to the calibration data database DB1 to obtain the calibration data D2 used for correction when calculating the distance. The latest calibration data D2 is at least the first frame. This is obtained by the processing of the feature point selection unit 13 and the carry unit calculation unit 14 in the image processing of the eye. That is, the distance calculation unit 16 calculates the distance from the image at the current time and the latest calibration data D2 obtained by the processing at the past time. Note that in the processing of the second frame, the calibration data database DB1 stores the calibration data D2 obtained from the image acquired in the second frame, and the processing of the distance calculation unit 16 in the third frame Will be used in.

キャリブレーションデータの算出タイミングは、カメラが制御されたタイミングで行う。それによって、高精度な距離データを算出することが可能になる。そして、計測対象の現在距離に応じて、適切にカメラを制御し、さらに計測することが可能になる。 The calibration data is calculated at the timing when the camera is controlled. Thereby, it becomes possible to calculate highly accurate distance data. Then, the camera can be appropriately controlled and further measurement can be performed according to the current distance of the measurement target.

上記を通じて、ステレオカメラ装置100は最新の状況をキャリブレーションし、距離制御に反映させることが可能である。 Through the above, the stereo camera device 100 can calibrate the latest situation and reflect it in the distance control.

10:実映像入力部、11:画像取得部、12:カメラ制御部、13:特徴点選別部、14:キャリブ算出部、DB1:キャリブデータデータベース、16:距離算出部、17:制御量算出部、21:ズーム制御部、22:ベースライン制御部23:回転制御部、24:チルト制御部、25:パン制御部、26:ズーム制御値、27:ベースライン制御値、28:チルト制御値、29:パン制御値、44:歪み補正部、45:平行処理部、46:距離算出部、P1:距離データ、81:ネットワーク、91、92、93:カメラスペック、94、95、96:スキャン領域、97:統合スキャン結果、100:ステレオカメラ装置、M:計測対象、g:移動経路、111:計算機、101:ステレオカメラ、113:ベースラインステージ、114:回転ステージ、115:ズーム制御ユニット、116:ベースライン制御ユニット、117:回転制御ユニット 10: real image input unit, 11: image acquisition unit, 12: camera control unit, 13: feature point selection unit, 14: calib calculation unit, DB1: calib data database, 16: distance calculation unit, 17: control amount calculation unit. , 21: zoom control unit, 22: baseline control unit 23: rotation control unit, 24: tilt control unit, 25: pan control unit, 26: zoom control value, 27: baseline control value, 28: tilt control value, 29: Pan control value, 44: Distortion correction unit, 45: Parallel processing unit, 46: Distance calculation unit, P1: Distance data, 81: Network, 91, 92, 93: Camera spec, 94, 95, 96: Scan area , 97: integrated scan result, 100: stereo camera device, M: measurement target, g: movement path, 111: computer, 101: stereo camera, 113: baseline stage, 114: rotary stage, 115: zoom control unit, 116 : Baseline control unit, 117: Rotation control unit

Claims (12)

左右のカメラにより左右の画像情報を与えるとともに、前記左右のカメラのカメラ制御部を含むステレオカメラ部からの前記左右の画像情報を処理する処理部を備えるステレオ計測装置であって、
ステレオ計測装置の前記処理部は、左右の画像情報の画像シーンから特徴点を選別する特徴点選別部と、選別された特徴点を用いて、キャリブレーションを行い、キャリブレーションデータを算出するキャリブ算出部と、算出されたキャリブレーションデータと前記左右の画像情報を用いて、センシング対象の対象物体までの距離を算出する距離算出部と、算出された距離と画像情報とから、前記左右のカメラのカメラ制御部を制御するための制御量を算出する制御量算出部とを備えて前記制御量を前記ステレオカメラ部の前記左右のカメラのカメラ制御部に与え、
前記ステレオカメラ部の前記左右のカメラのカメラ制御部は、少なくともズーム、ベースライン、回転についての制御部を備えており、前記制御量算出部は、少なくともズーム、ベースライン、回転についての制御量を算出して、前記カメラ制御部に与え、
前記ズーム、ベースラインについての制御量を算出する前記制御量算出部は、計測した距離データの安定性を評価し、安定と判断された距離データを用いて、センシング対象の対象物体までの平均距離を算出し、ズーム、ベースラインの制御量を算出し、
前記回転についての制御量を算出する前記制御量算出部は、画像領域を予め複数に区分した小領域間で、センシング対象の対象物体の領域移動がある場合にその移動量を算出して回転制御の制御量を算出するとともに、左右カメラのフレーム間差分により、ズーム、ベースラインの制御量算出処理と回転制御の制御量算出処理を選択することを特徴とするステレオ計測装置。
A stereo measurement device provided with left and right image information by the left and right cameras, and a processing unit for processing the left and right image information from a stereo camera unit including a camera control unit of the left and right cameras,
The processing unit of the stereo measurement device uses a feature point selection unit that selects a feature point from an image scene of left and right image information, and a calibration calculation that performs calibration using the selected feature point and calculates calibration data. Section, the calculated calibration data and the left and right image information, a distance calculation section for calculating a distance to a target object of a sensing target, and the calculated distance and image information, the left and right camera and a control amount calculating section for calculating a control amount for controlling the camera controller gives the control amount to the camera control unit of the left and right camera of the stereo camera unit,
The camera control units of the left and right cameras of the stereo camera unit include at least a control unit for zooming, a baseline, and a rotation, and the control amount calculating unit determines at least a control amount for zooming, a baseline, and rotation. Calculated and given to the camera control unit,
The control amount calculation unit that calculates the control amount for the zoom and baseline evaluates the stability of the measured distance data, and uses the distance data determined to be stable, using the average distance to the target object of the sensing target. To calculate the control amount of zoom and baseline,
The control amount calculation unit that calculates the control amount for the rotation controls the rotation by calculating the amount of movement of the target object of the sensing target when the region moves of the target object between the small regions obtained by dividing the image region into a plurality of areas in advance. The stereo measurement device , which calculates the control amount of the left and right cameras and selects the control amount calculation process of the zoom and baseline and the control amount calculation process of the rotation control according to the difference between the frames of the left and right cameras .
請求項1に記載のステレオ計測装置であって、
前記回転についての制御部は、チルト制御部とパン制御部を含むことを特徴とするステレオ計測装置。
The stereo measurement device according to claim 1 , wherein
The stereo measurement apparatus, wherein the control unit for the rotation includes a tilt control unit and a pan control unit.
請求項1または請求項2に記載のステレオ計測装置であって、
左右の画像情報の画像シーンから特徴点を選別する特徴点選別部は、複数の画像シーンについて特徴点を抽出し、抽出した特徴点について有効な特徴点を選別することを特徴とするステレオ計測装置。
The stereo measurement device according to claim 1 or 2 , wherein
A feature point selection unit that selects feature points from image scenes of left and right image information, extracts feature points from a plurality of image scenes, and selects valid feature points from the extracted feature points. ..
請求項1から請求項3のいずれか1項に記載のステレオ計測装置であって、
センシング対象の対象物体までの距離を算出する前記距離算出部は、カメラ画像の歪みを補正する歪み補正部と、左右カメラの平行化を処理する平行処理部とを含み、左右カメラの平行化処理後の画像情報
から、センシング対象の対象物体までの距離を算出することを特徴とするステレオ計測装置。
The stereo measurement device according to any one of claims 1 to 3 , wherein:
The distance calculation unit that calculates the distance to the target object of the sensing target includes a distortion correction unit that corrects the distortion of the camera image and a parallel processing unit that processes the parallelization of the left and right cameras. A stereo measurement apparatus, which calculates a distance to a target object to be sensed from subsequent image information.
請求項1または請求項2に記載のステレオ計測装置であって、
前記ズーム、ベースラインについての制御量を算出する前記制御量算出部は、前記距離算出部で計測した距離データを用いて、センシング対象の対象物体までの平均距離を算出し、ズーム、ベースラインの制御量を算出することを特徴とするステレオ計測装置。
The stereo measurement device according to claim 1 or 2 , wherein
The control amount calculation unit that calculates the control amount for the zoom and the baseline, using the distance data measured by the distance calculation unit, calculates the average distance to the target object of the sensing target, and the zoom and the baseline. A stereo measurement device characterized by calculating a control amount.
請求項1または請求項2に記載のステレオ計測装置であって、
前記ズーム、ベースラインについての制御量を算出する前記制御量算出部は、算出する制御量の精度を高める場合は、前記距離算出部で計測した距離データの安定性を評価し、安定と判断された距離データを用いて、センシング対象の対象物体までの平均距離を算出し、ズーム、ベースラインの制御量を算出することを特徴とするステレオ計測装置。
The stereo measurement device according to claim 1 or 2 , wherein
The control amount calculation unit that calculates the control amount for the zoom and baseline evaluates the stability of the distance data measured by the distance calculation unit and determines that the control amount is stable if the accuracy of the calculated control amount is increased. A stereo measurement device, characterized in that an average distance to a target object to be sensed is calculated using the distance data, and a control amount of zoom and baseline is calculated.
請求項1または請求項2に記載のステレオ計測装置であって、
前記回転についての制御量を算出する前記制御量算出部は、画像領域を予め複数に区分した小領域間で、センシング対象の対象物体の領域移動がある場合にその移動量を算出し、回転制御を行うことを特徴とするステレオ計測装置。
The stereo measurement device according to claim 1 or 2 , wherein
The control amount calculation unit that calculates the control amount for the rotation calculates the amount of movement of the target object of the sensing target when there is a region movement of the target object between the small regions obtained by preliminarily dividing the image region into a plurality of regions, and controls the rotation. A stereo measuring device characterized by performing.
請求項1から請求項7のいずれか1項に記載のステレオ計測装置であって、
前記ステレオカメラ部と前記処理部は、インターネットを介して接続されていることを特徴とするステレオ計測装置。
The stereo measurement device according to any one of claims 1 to 7 ,
The stereo measurement device, wherein the stereo camera unit and the processing unit are connected via the Internet.
請求項1から請求項8のいずれか1項に記載のステレオ計測装置であって、
前記ステレオカメラ部は、複数の異なる距離での複数のカメラスペックのデータを保持し、距離に応じてカメラスペックを変更して左右の画像情報を得ることを特徴とするステレオ計測装置。
The stereo measurement device according to any one of claims 1 to 8 , wherein:
The stereo camera unit holds data of a plurality of camera specifications at a plurality of different distances and changes the camera specifications according to the distance to obtain left and right image information.
前記左右のカメラが非同期カメラである請求項1から請求項9のいずれか1項に記載のステレオ計測装置であって、
前記左右のカメラからの画像について、左右のカメラのフレーム間差分がない場合は、静止と判断してズーム、ベースラインについての制御量を算出し、左右のカメラのフレーム間差分がある場合は、動き
と判断して回転についての制御量を算出することを特徴とするステレオ計測装置。
The stereo measurement device according to any one of claims 1 to 9 , wherein the left and right cameras are asynchronous cameras.
Regarding the images from the left and right cameras, if there is no difference between the frames of the left and right cameras, it is determined to be still and the control amount for zoom and baseline is calculated, and if there is a difference between the frames of the left and right cameras, A stereo measuring device characterized by calculating a control amount for rotation by judging it as movement.
請求項1から請求項10のいずれか1項に記載のステレオ計測装置であって、
前記左右のカメラの視野内にある移動物体について、前記ズーム、ベースライン、回転についての制御量を算出して、前記カメラ制御部に与えることにより、前記移動物体を追跡することを特徴とするステレオ計測装置。
The stereo measuring device according to any one of claims 1 to 10 ,
A stereo characterized by tracking the moving object by calculating control amounts for the zoom, baseline, and rotation of the moving object within the visual fields of the left and right cameras and giving the calculated control amounts to the camera control unit. Measuring device.
請求項1から請求項11のいずれか1項に記載のステレオ計測装置と、左右のカメラにより左右の画像情報を与えるとともに、前記左右のカメラのカメラ制御部を含むステレオカメラ部とにより構成されたステレオ計測システム。 A stereo measurement device according to any one of claims 1 to 11 , and a stereo camera unit that provides left and right image information from left and right cameras and includes a camera control unit of the left and right cameras. Stereo measurement system.
JP2019524821A 2017-06-23 2017-06-23 Stereo measuring device and system Active JP6734994B2 (en)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2017/023159 WO2018235256A1 (en) 2017-06-23 2017-06-23 Stereo measurement device and system

Publications (2)

Publication Number Publication Date
JPWO2018235256A1 JPWO2018235256A1 (en) 2020-05-21
JP6734994B2 true JP6734994B2 (en) 2020-08-05

Family

ID=64737655

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019524821A Active JP6734994B2 (en) 2017-06-23 2017-06-23 Stereo measuring device and system

Country Status (2)

Country Link
JP (1) JP6734994B2 (en)
WO (1) WO2018235256A1 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7253440B2 (en) * 2019-05-09 2023-04-06 東芝テック株式会社 Tracking device and information processing program
JP7253441B2 (en) * 2019-05-09 2023-04-06 東芝テック株式会社 Tracking device and information processing program

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4009163B2 (en) * 2002-08-30 2007-11-14 富士通株式会社 Object detection apparatus, object detection method, and object detection program
JP4330914B2 (en) * 2003-04-09 2009-09-16 株式会社エヌ・ティ・ティ・データ Moving object detection apparatus and moving object detection method
JP4814669B2 (en) * 2006-03-28 2011-11-16 株式会社デンソーアイティーラボラトリ 3D coordinate acquisition device
JP5229726B2 (en) * 2008-08-20 2013-07-03 国立大学法人東京工業大学 Long-distance target search camera system
JP5742179B2 (en) * 2010-11-05 2015-07-01 ソニー株式会社 Imaging apparatus, image processing apparatus, image processing method, and program
JP5223096B2 (en) * 2011-11-14 2013-06-26 Bi2−Vision株式会社 3D video shooting control system, 3D video shooting control method, and program
JP6525453B2 (en) * 2014-11-26 2019-06-05 日本放送協会 Object position estimation system and program thereof
JP6599685B2 (en) * 2015-08-19 2019-10-30 シャープ株式会社 Image processing apparatus and error determination method

Also Published As

Publication number Publication date
JPWO2018235256A1 (en) 2020-05-21
WO2018235256A1 (en) 2018-12-27

Similar Documents

Publication Publication Date Title
US10455141B2 (en) Auto-focus method and apparatus and electronic device
CN109922251B (en) Method, device and system for quick snapshot
JP6663040B2 (en) Depth information acquisition method and apparatus, and image acquisition device
KR102149276B1 (en) Method of image registration
JP5027747B2 (en) POSITION MEASUREMENT METHOD, POSITION MEASUREMENT DEVICE, AND PROGRAM
JP4809291B2 (en) Measuring device and program
US20070189750A1 (en) Method of and apparatus for simultaneously capturing and generating multiple blurred images
JP5293131B2 (en) Compound eye distance measuring device for vehicle and compound eye distance measuring method
US10652521B2 (en) Stereo camera and image pickup system
KR20200071960A (en) Method and Apparatus for Vehicle Detection Using Lidar Sensor and Camera Convergence
JP2017142613A (en) Information processing device, information processing system, information processing method and information processing program
JP5549283B2 (en) Distance acquisition device
JP6734994B2 (en) Stereo measuring device and system
JP6694234B2 (en) Distance measuring device
JP3988574B2 (en) Image processing device
JP5267100B2 (en) Motion estimation apparatus and program
JP5454392B2 (en) Ranging device and imaging device
JP2004028811A (en) Device and method for correcting distance for monitoring system
US20130076868A1 (en) Stereoscopic imaging apparatus, face detection apparatus and methods of controlling operation of same
JP2014238558A (en) Imaging device and parallax detection method
JPH11223516A (en) Three dimensional image pickup device
WO2019130409A1 (en) Stereo measurement device and method
WO2016047220A1 (en) Imaging device and imaging method
KR20180076458A (en) Distance estimation using stereo camera based on marker in space environment
WO2021109068A1 (en) Gesture control method and movable platform

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191015

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200609

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200624

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200707

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200710

R150 Certificate of patent or registration of utility model

Ref document number: 6734994

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150