JP6734994B2 - Stereo measuring device and system - Google Patents
Stereo measuring device and system Download PDFInfo
- Publication number
- JP6734994B2 JP6734994B2 JP2019524821A JP2019524821A JP6734994B2 JP 6734994 B2 JP6734994 B2 JP 6734994B2 JP 2019524821 A JP2019524821 A JP 2019524821A JP 2019524821 A JP2019524821 A JP 2019524821A JP 6734994 B2 JP6734994 B2 JP 6734994B2
- Authority
- JP
- Japan
- Prior art keywords
- camera
- unit
- stereo
- control amount
- distance
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C3/00—Measuring distances in line of sight; Optical rangefinders
- G01C3/02—Details
- G01C3/06—Use of electric means to obtain final indication
-
- G—PHYSICS
- G03—PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
- G03B—APPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
- G03B15/00—Special procedures for taking photographs; Apparatus therefor
-
- G—PHYSICS
- G03—PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
- G03B—APPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
- G03B35/00—Stereoscopic photography
- G03B35/08—Stereoscopic photography by simultaneous recording
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/222—Studio circuitry; Studio devices; Studio equipment
Description
本発明は、単眼カメラや複数のカメラにより構成されるステレオ計測装置及びシステムに関するものである。 The present invention relates to a stereo measurement device and system including a monocular camera and a plurality of cameras.
従来から、複数のカメラを用いて、対象物や環境を計測するステレオ計測装置及びシステムが実用化されている。例えば、自動車の車載ステレオカメラを用いて、侵入者検知や、危険行為の検知などの様々な計測を行い、この計測結果から音声報知や危険回避行動などの制御を行っている。また自動車自動運転では、ステレオカメラにより前後方位を計測し、車を制御する実例がある。また、近年では、監視分野やマーケティングでもステレオカメラの適応事例がある。 Conventionally, stereo measurement devices and systems that measure an object or environment using a plurality of cameras have been put into practical use. For example, an in-vehicle stereo camera of an automobile is used to perform various measurements such as intruder detection and dangerous behavior detection, and control of voice notification and danger avoidance behavior is performed based on the measurement results. In the automatic driving of a car, there is an example in which the front-back direction is measured by a stereo camera and the car is controlled. In recent years, stereo cameras have been applied in the surveillance field and marketing.
ステレオカメラを用いた三次元計測の手法としては、まず2台のカメラにより同時に同じ対象物を撮影し、得られた2つの画像に対して、歪み補正、平行化を行い、同じ三次元の、撮影した2つの画像上の差分、視差を算出する。次に、算出した視差を用いて、三次元対象物の形状などを計測する。 As a method of three-dimensional measurement using a stereo camera, first, the same object is simultaneously photographed by two cameras, distortion correction and parallelization are performed on the two obtained images, and the same three-dimensional measurement is performed. The difference and parallax on the two captured images are calculated. Next, the shape and the like of the three-dimensional object are measured using the calculated parallax.
係る三次元計測の場合には、2台のカメラの計測領域はほぼ同じである必要がある。また上記一連の処理の中で取り扱うカメラのパラメータ、画角、視差深度などは、2台のカメラのスペックに依存し、計測範囲は固定されている。 In the case of such three-dimensional measurement, the measurement areas of the two cameras need to be almost the same. The parameters of the camera, the angle of view, the parallax depth, etc. handled in the above series of processing depend on the specifications of the two cameras, and the measurement range is fixed.
計測範囲に関して、例えば、自動車自動運転の車載カメラの場合、前方2mから40mの範囲が計測範囲と言われている。このため、2m以内、40m以上は計測できなくなってしまうという問題がある。 Regarding the measurement range, for example, in the case of a vehicle-mounted camera for automatic vehicle driving, the range from 2 m to 40 m ahead is said to be the measurement range. Therefore, there is a problem that measurement cannot be performed within 2 m or 40 m or more.
計測範囲についての上記点の簡単な解決方法としては、2台のカメラを複数組備えて切り替え使用することが考えられる。2m以内の距離では近傍カメラを用い、40m以上の距離では遠望カメラに切り替えて計測するというやり方である。しかし、2台のカメラを複数組備える、この方法では、コストが高くなってしまうという問題がある。また、自動車自動運転の車載カメラの場合は、進行中切り替えることは不可能である。さらに、超遠望を計測する際には、例えば、200m場合以上を計測する場合は、さらに複数台のカメラの組み合わせとなり、コストが高くなるという問題がある。 As a simple solution to the above point regarding the measurement range, it is conceivable to provide a plurality of sets of two cameras and switch between them. The method is to use a nearby camera at a distance of 2 m or less and switch to a distant camera for measurement at a distance of 40 m or more. However, this method, which includes a plurality of sets of two cameras, has a problem of high cost. Further, in the case of an on-vehicle camera for automatic driving of a vehicle, it is impossible to switch the vehicle while it is in progress. Furthermore, when measuring the ultra-distant view, for example, in the case of measuring 200 m or more, there is a problem that a combination of a plurality of cameras is required and the cost becomes high.
計測範囲についての上記問題を解決する手法として、さらに以下のものが知られている。 The following methods are further known as methods for solving the above-mentioned problem regarding the measurement range.
非特許文献1は、パラメータ可変なステレオカメラを提案したものであり、カメラズームを制御することで、近傍や遠望を一台で計測することが可能となり、計測範囲を広げることができるとしている。 Non-Patent Document 1 proposes a stereo camera with variable parameters, and by controlling the camera zoom, it is possible to measure the vicinity and long-distance with one unit, and it is possible to expand the measurement range.
特許文献1は、複数セットのステレオカメラを組み合わせることで、計測幅を広げることを提案している。 Patent Document 1 proposes to widen the measurement range by combining a plurality of sets of stereo cameras.
特許文献2もまた特許文献1と同様に、複数セットのステレオカメラを組み合わせることで、計測幅を広けることを提案したものであるが、特許文献2では、カメラのフォーカス値より、計測対象の位置を推定し、推定した位置に対して、予め用意したキャリブレーションデータを選別し、三次元計測を行うものである。なお位置を推定する際には、人の顔など画像情報を利用するのが良いとしている。
Similar to Patent Document 1,
しかしながら上記の公知手法によればさらに以下の解決すべき課題を有している。 However, the above-mentioned known methods have the following problems to be solved.
まず非特許文献1では、近い領域から、超遠望領域までの広い範囲に対して、計測対象に応じて、適切にカメラを制御し、計測することが困難である。 First, in Non-Patent Document 1, it is difficult to appropriately control and measure a camera in a wide range from a near region to a super-distant region according to a measurement target.
特許文献1では、計測システムのコストが高いという問題がある。また、組み合わせたカメラのスベックは予めフィックスされているため、その後の変更ができなくなる。汎用性が低いという問題もある。 Patent Document 1 has a problem that the cost of the measurement system is high. In addition, since the combined camera's sbecks are fixed in advance, it cannot be changed thereafter. There is also the problem of low versatility.
特許文献2では、実際の動く計測対象物に対して、動的にカメラを制御し、適切な計測をすることは困難である。また、特許文献1と同じく、キャリブレーションデータは予め用意されており、汎用性は低いという問題がある。また、計測範囲は、光や外乱などによって、フォーカスできないケースも発生し、そのときは推定された位置が不明確であり、計測に影響を受けるという問題がある。
In
以上のことから本発明においては、1台のステレオカメラにより、近傍から遠望までの広い領域に対して、計測対象に応じて、適切にカメラを制御し、計測することを可能とするステレオ計測装置及びシステムを提供することを目的とする。 From the above, in the present invention, a stereo measurement device capable of appropriately controlling and measuring the camera with a single stereo camera in a wide area that is desired to be distant from the vicinity according to the measurement target. And to provide a system.
以上のことから本発明においては、「左右のカメラにより左右の画像情報を与えるとともに、左右のカメラのカメラ制御部を含むステレオカメラ部からの左右の画像情報を処理するステレオ計測装置であって、ステレオ計測装置は、左右の画像情報の画像シーンから特徴点を選別する特徴点選別部と、選別された特徴点を用いて、キャリブレーションを行い、キャリブレーションデータを算出するキャリブ算出部と、算出されたキャリブレーションデータと左右の画像情報を用いて、センシング対象の対象物体までの距離を算出する距離算出部と、算出された距離と画像情報とから、左右のカメラのカメラ制御部を制御するための制御量を算出する制御量算出部とを備え、制御量を前記ステレオカメラ部の左右のカメラのカメラ制御部に与えることを特徴とするステレオ計測装置」としたものである。 From the above, in the present invention, "a stereo measurement device that gives left and right image information from the left and right cameras and processes left and right image information from a stereo camera unit including a camera control unit of the left and right cameras, The stereo measurement device includes a feature point selection unit that selects feature points from image scenes of left and right image information, a calibration calculation unit that performs calibration using the selected feature points, and calculates calibration data, and a calculation unit. A distance calculation unit that calculates the distance to the target object to be sensed using the corrected calibration data and the left and right image information, and controls the camera control units of the left and right cameras from the calculated distance and the image information. And a control amount calculating unit for calculating a control amount for controlling the control amount for applying the control amount to the camera control units of the left and right cameras of the stereo camera unit.
また本発明は、「ステレオ計測装置と、左右のカメラにより左右の画像情報を与えるとともに、左右のカメラのカメラ制御部を含むステレオカメラ部とにより構成されたステレオ計測システム」としたものである。 Further, the present invention is a “stereo measurement system including a stereo measurement device and a stereo camera unit that provides left and right image information from the left and right cameras and includes a camera control unit of the left and right cameras”.
本発明によれば、一台のステレオカメラを用いて、近傍から超遠望までの広い領域を計測することが可能になる。 According to the present invention, a single stereo camera can be used to measure a wide area that is desired to be far away from the vicinity.
また本発明の実施例によれば、計測システムにおける、カメラのコストを削減することが期待できる。さらに、計測対象物を追いかけてセンシングする際には、カメラのスベックを制御しなから、適切なセンシングを行うことができる。例えば、人が遠くにいる場合は、システムはカメラをズームインして、計測することが可能である。ズーム率は、現状で計測された位置に基づいて制御することが可能である。また、人が近くなると、ズームアウトして、計測することが可能である。それによって、現場では、コスト面を考慮しなくでも、このようなステレオカメラを知能的に制御することで、幅広く、更に動的に計測することができるため、安全、安心な制御システムや計測システムに貢献することができる。 Further, according to the embodiments of the present invention, it is possible to expect to reduce the cost of the camera in the measurement system. Further, when the object to be measured is chased and is sensed, the svecks of the camera are not controlled, so that appropriate sensing can be performed. For example, if a person is far away, the system can zoom in the camera and measure. The zoom ratio can be controlled based on the currently measured position. Also, when a person approaches, it is possible to zoom out and measure. As a result, in the field, it is possible to measure widely and dynamically by intelligently controlling such a stereo camera without considering the cost aspect. Can contribute to.
以下、本発明の実施例について、図面を参照して詳細に説明する。以下に示す本発明のステレオ計測装置及びシステムの実施例の説明においては、2つのカメラで構成されたステレオカメラ装置を例として説明する。なお、ステレオ計測装置とは、以下に示す処理部のみの構成を意図しており、ステレオ計測システムとは、以下に示す処理部とステレオカメラ部による構成を意図している。 Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings. In the following description of the embodiments of the stereo measurement apparatus and system of the present invention, a stereo camera apparatus composed of two cameras will be described as an example. It should be noted that the stereo measurement device is intended to have the configuration of only the processing unit shown below, and the stereo measurement system is intended to have the configuration of the processing unit and the stereo camera unit shown below.
図1は、本発明の実施例1に係るステレオカメラ装置の構成例を示す図である。ステレオカメラ装置100は、これを大別するとステレオカメラ部101と計算機で構成された処理部102により構成されている。計算機は、パソコン、組み込み用の小型ものやネットワークに接続可能な計算機器など処理機能を有する機器が考えられる。
FIG. 1 is a diagram showing a configuration example of a stereo camera device according to a first embodiment of the present invention. The
このうちステレオカメラ部101は、レンズと撮像部を備えた左右の実映像入力部10R、10Lで構成された実映像入力部10と、左右の画像取得部11R、11Lで構成された画像取得部11と、左右のカメラ制御部12R、12Lで構成されたカメラ制御部12とで構成されている。ステレオカメラ部101は、カメラを主体とする機械機構部ということができる。
Of these, the
ステレオカメラ部101内の実映像入力部10は、それぞれ2組の撮像部とレンズを備えて構成されており、ステレオカメラの左右カメラからそれぞれ映像を入力する。
The actual
実映像入力部10内の撮像部は、画像センサであるCMOS(Complementary Metal Oxide Semiconductor)やCCD(Charge Coupled Device)などの撮像素子を含む機構である。レンズは、ズーム可能なレンズを有している。ズームすることによって、遠望領域を撮像することを可能とし、近傍領域を撮像することも可能である。
The image pickup unit in the real
画像取得部11は、実映像入力部10から入力した電子信号を画像へ変換する機能である。ここでは、画像フォマットは様々である。BMP、 JPEG、 PNGなど。システムによって、画像フォマットを決められる。
The
カメラ制御部12は、実映像入力部10におけるカメラの画角、向き、カメラ間の距離など、カメラのパラメータを調整することができる。
The
実施例1では、撮影するシーンは特定しない。監視機能向けのステレオカメラであれば、移動物体や監視エリアなどを撮影シーンとする。車載ステレオカメラであれば、道路や前方車などを撮影シーンとする。撮影シーンは、複雑シーンや単純なシーンでも撮影可能とし、撮影された映像を入力する。また、実施例1のカメラは、焦点距離、回転角度、カメラ間の距離など変更することが可能なカメラとした構成でもよい。このようにステレオカメラ装置100は、様々な機器や様々な環境で操作できる。
In the first embodiment, the scene to be photographed is not specified. In the case of a stereo camera for surveillance functions, moving objects and surveillance areas are used as shooting scenes. If it is a vehicle-mounted stereo camera, the shooting scene is a road or a vehicle ahead. The shooting scene can be a complicated scene or a simple scene, and the shot video is input. Further, the camera of the first embodiment may be configured as a camera capable of changing the focal length, the rotation angle, the distance between the cameras and the like. Thus, the
図2はカメラ制御部12の構成例を示す図である。カメラ制御部12は、ズーム制御部21、ベースライン制御部22、回転制御部23、チルト制御部24、パン制御部25で構成されている。ズーム制御部21はズーム制御値26を用いて、レンズ機構を制御するもので、レンズの移動によって焦点距離を変更しカメラの撮像範囲である画角を変更する。ベースライン制御部23は、ベースライン制御値27を用いて、カメラ間の距離を調整する。チルト制御部24は、チルト制御値28を用いて、カメラの角度を制御する。パン制御部は、パン制御値29を用いて、カメラのパン角度を制御する。チルト制御部23、パン制御部24は、それぞれ画角と水平方向、画角と垂直方向のカメラ向きを制御する。回転制御部23は、カメラを回転しならから姿勢を変えることができる。
FIG. 2 is a diagram showing a configuration example of the
なお、ズーム制御部21とベースライン制御部22の具体的な処理内容について図5を参照して後述し、回転制御部23の具体的な処理内容について図6を参照して後述する。
Note that specific processing contents of the
図5、図6の構成における以上の調整は、すべて独立でも、同時でも可能である。ここでは、システム仕様、撮影するシーンのニーズに合わせて調整することが可能である。 The above adjustments in the configurations of FIGS. 5 and 6 can be performed independently or simultaneously. Here, it is possible to adjust according to the system specifications and the needs of the scene to be photographed.
図1に示した実施例1のステレオカメラ装置100内のステレオカメラ部101について、実映像入力部10、画像取得部11、カメラ制御部12は夫々左右のカメラ機能が一体に形成された事例を示しているが、これらは別体とされていてもよい。別体とする時には、右実映入力部10Rと左実映入力部10L、右画像取得部11Rと左画像取得部11L、右カメラ制御部12Rと左カメラ制御部12Lを個別に有することになる。
Regarding the
ステレオカメラ装置100内の、計算機で構成された処理部102は、特徴点選別部13、キャリブ算出部14、キャリブデータデータベースDB1、距離算出部16、制御量算出部17から構成されている。ステレオカメラ部101がカメラを主体とする機械機構部であるに対し、計算機で構成される処理部102は電子的処理機能ということができる。
The
図1の処理部102において、特徴点選別部13は、左右の画像取得部11R、11Lから入力された画像情報を用いて、キャリブレーションをするための特徴点を選別する処理を実行している。特徴点選別は、撮影シーンから特徴点を抽出し、その中から有効点を選別するプロセスであり、既存の手法での実現が可能である。
In the
特徴点抽出の処理の流れの一例について図3に示している。特徴点抽出の従来例においては、一つの位置で撮影した一つのシーンから特徴点を抽出することが多いが、実施例1では、複数のシーンから特徴点群を抽出する例を示している。 FIG. 3 shows an example of the flow of the feature point extraction processing. In the conventional example of feature point extraction, feature points are often extracted from one scene shot at one position, but the first embodiment shows an example of extracting feature point groups from a plurality of scenes.
具体的な図3の例では、処理31に示すように例えばカメラの回転制御を行いながら撮影を行い、処理32に示すように時系列的に複数シーンでの画像I1、I2、I3を入手する。次に処理33では複数シーンでの画像I1、I2、I3についてそれぞれ特徴点を選別し、処理34では抽出された複数の特徴点の中から有効な特徴点の選別を行う。
In the specific example of FIG. 3, as illustrated in
特徴点抽出手法としては様々のものが知られているが、汎用性の高い手法としてはSIFT(Scale−Invariant Feature Transform)、HOG(Histograms of Oriented Gradients)などが考えられる。 Although various types of feature point extraction methods are known, examples of highly versatile methods include SIFT (Scale-Invariant Feature Transform) and HOG (Histograms of Oriented Gradients).
処理33において抽出された特徴点群Pxでは、間違ってマッチングした特徴点も存在する可能性がある。間違った特徴点を利用する場合は、キャリブレーションの算出に悪影響を与え、キャリブレーションデータが大きな誤差が含むことがある。そのため、処理34のように、間違った特徴点を除き、有効な特徴点Prを選別するプロセスが必要である。有効な特徴点の選別手法としては、RANSAC(Random sample consensus)がよく利用されている。処理34の中で、点群Pxは間違った特徴点であり、Prは所定の規則性を示す正しい特徴点を示している。RANSAC処理によって、間違った特徴点Pxを除去することができる。
In the feature point group Px extracted in the
キャリブ算出部14は、特徴点選別部13から出力された特徴点を用いて、カメラキャリブレーションを行う。カメラキャリブレーションは、カメラの内部パラメータと、カメラの外部パラメータを算出するプロセスである。
The
カメラの内部パラメータとして、fは焦点距離、αはアスペクト比、sはスキュー、(u0、v0)は座標の中心座標を示す。また外部パラメータとして、Rはカメラの向きを示す回転行列、Tはカメラ間の位置関係を示す並進行列である。カメラの向きを示すRは、3×3(r11、r12、…r33)マトリックスにおいては、オイラー角により定義すると、カメラの設置角度であるパンθ、チルトφ、ロールψの3個のパラメータによって表される。それぞれ内部パラメータと外部パラメータを算出するために、キャリブレーション技術が求められている。従来は、「Z.Zhang、“A flexible new technique for camera calibration”、IEEE Transactions on Pattern Analysis and Machine Intelligence、22(11):1330-1334、2000」に記載された手法を利用することが多い。また画像を用いて、自動的にカメラパラメータを推定する手法が多く提案されている。また非特許文献1に記載した自動キャリブレーション手法が提案されている。As internal parameters of the camera, f is the focal length, α is the aspect ratio, s is the skew, and (u 0 , v 0 ) is the center coordinate of the coordinates. Further, as external parameters, R is a rotation matrix indicating the orientation of the cameras, and T is a translation matrix indicating the positional relationship between the cameras. In the 3×3 (r11, r12,...r33) matrix, R, which indicates the orientation of the camera, is defined by Euler angles, and is represented by three parameters, which are the camera installation angle, pan θ, tilt φ, and roll ψ. To be done. Calibration techniques are required to calculate the internal and external parameters, respectively. Conventionally, “Z. Zhang, “A flexible new technology for camera calibration”, and IEEE Transactions on Pattern Analysis and Machine Intelligence, which are often used, are described in 13 (2000), 13 (2000), 13 (2000), 13 (13), 13 (2000), 13 (2000), 13 (2000), 13(13): Also, many methods for automatically estimating camera parameters using images have been proposed. Further, the automatic calibration method described in Non-Patent Document 1 has been proposed.
算出されたカメラパラメータは、キャリブレーションデータD1として、キャリブデータデータベースDB1に記録される。 The calculated camera parameters are recorded in the calibration data database DB1 as the calibration data D1.
本発明の実施例1では、カメラの構成を変える度に、再度キャリブレーションすることが必要である。たとえば、実施例1では、カメラのズーム、ベースライン、回転角度などいずれが変更された際には、特徴点選別部13では再度入力したシーンから特徴点を選別することになる。その後は、キャリブ算出部14も再度キャリブレーションデータD1を算出することになり、最新のキャリブレーションデータD1をキャリブレーションデータベースDB1に登録することになる。そして、カメラ制御したカメラのパラメータに合わせて、キャリブレーションデータを利用する。
In the first embodiment of the present invention, it is necessary to recalibrate every time the camera configuration is changed. For example, in the first embodiment, when any of the zoom, the baseline, the rotation angle, etc. of the camera is changed, the feature
図4は距離算出部16の構成例を示す図である。距離算出部16では、左右画像取得部11R、11Lからの左右画像と、キャリブレーションデータD1を用いて距離データP1を算出する。距離データP1の算出は、歪み補正部44、並行処理部45、距離算出部46の処理を逐次実行することで得られる。
FIG. 4 is a diagram showing a configuration example of the
以下に距離算出の具体的な処理手順について数式を用いて説明するが、以下における数式での説明の前提として、カメラの内部パラメータ行列Kおよび外部パラメータ行列Dは、それぞれ(1)(2)式で表すことができる。なお(1)式において、Kは内部パラメータ行列であり、fは焦点距離、aはアスペクト比、sはスキュー、(vc、uc)は画像座標の中心座標を示す。また(2)式において、Dは外部パラメータ行列であり、(r11、r12、r13、r21、r22、r23、r31、r32、r33)はカメラの向きを示し、(tx、ty、tz)はカメラ間の位置座標を示す。 A specific processing procedure for calculating the distance will be described below using mathematical expressions. As a premise of the description in the mathematical expressions below, the internal parameter matrix K and the external parameter matrix D of the camera are respectively expressed by equations (1) and (2). Can be expressed as In the equation (1), K is an internal parameter matrix, f is the focal length, a is the aspect ratio, s is the skew, and (vc, uc) is the center coordinate of the image coordinates. Further, in the equation (2), D is an external parameter matrix, (r11, r12, r13, r21, r22, r23, r31, r32, r33) indicates the orientation of the camera, and (tx, ty, tz) is the camera. The position coordinates between are shown.
これら2つのパラメータ行列K、D及び定数λを用いると、画像座標(u、v)と世界座標(X、Y、Z)は(3)式により対応付けられる。 When these two parameter matrices K and D and the constant λ are used, the image coordinates (u, v) and the world coordinates (X, Y, Z) are associated with each other by the expression (3).
なお、外部パラメータDのカメラの向きを示す(r11、r12、…r33)においては、オイラー角により定義すると、カメラの設置角度であるパンθ、チルトφ、ロールψの3個のパラメータによって表される。そのため、画像座標と世界座標の対応付けのために必要なカメラパラメータ数は、5個の内部パラメータと6個の外部パラメータを合計した11個となる。 In addition, in the external parameter D indicating the orientation of the camera (r11, r12,...r33), when defined by the Euler angle, it is represented by three parameters that are the installation angle of the camera: pan θ, tilt φ, and roll ψ. It Therefore, the number of camera parameters necessary for associating the image coordinates with the world coordinates is 11, which is the total of 5 internal parameters and 6 external parameters.
図4の距離算出部46における最初の処理を行う歪み補正部44では、カメラパラメータを用いて、カメラ画像の歪みを補正する。そして、平行処理部45は、左右カメラの平行化を処理する。距離を含み、計測物の三次元計測値は(4)により算出することができる。
The
(4)式において、(xl、yl)、(xr、yr)は左右カメラ画像上の画素値である。平行化処理後、yl=yr=yとなる。fは焦点距離、Bはベースライン、カメラ間の距離である。dは同じ三次元上のものはそれぞれ左右カメラに投影した画像間の差分である。その差分はその三次元上の視差である。世界座標(X、Y、Z)と画像座標(u、v)の関係は、(5)式のようになる。世界座標(X、Y、Z)を求めたということは、距離データP1を取得したことを意味している。 In the equation (4), (xl, yl) and (xr, yr) are pixel values on the left and right camera images. After the parallelization processing, yl=yr=y. f is the focal length, B is the baseline, and the distance between the cameras. d is the difference between the images projected on the left and right cameras, respectively, in the same three-dimensional form. The difference is the three-dimensional parallax. The relationship between the world coordinates (X, Y, Z) and the image coordinates (u, v) is as shown in equation (5). Obtaining the world coordinates (X, Y, Z) means obtaining the distance data P1.
図1において、制御量算出部17は、計算された距離データP1と画像データを用いて制御値を算出する。そして、カメラ制御部12は、それぞれ制御値を用いて制御する。
In FIG. 1, the
図5は、ズーム制御部21、ベースライン制御部22での制御量算出および、制御処理に関する流れ図を示している。
FIG. 5 shows a flowchart relating to control amount calculation and control processing in the
図5に示すズーム制御部21、ベースライン制御部22での最初の処理である処理ステップS51では、左右カメラから画像を入力する。処理ステップS52では、距離算出部16で計測した距離データP1を距離データベースDB2に格納する。処理ステップS54では、距離データP1の安定性を評価する。たとえは、距離データP1は数回(ここでは5回)を格納した場合は、安定と判断する。処理ステップS55では、安定と判断された距離データを用いて、平均距離を算出し、処理ステップS56において、ズーム制御部21、ベースライン制御部22でのズーム、ベースラインの制御量を算出する。
In process step S51 which is the first process in the
ズーム、ベースラインの制御量の簡単な計算方法は、ズーム率a=距離d/基準sとして求めることができる。基準sはカメラのズームに合わせて設定することが可能である。距離が近いのであれば、ズーム率aを減少し、距離が遠いのであれは、ズーム率aを増加する。また、ベースライン制御値b=(ベースライン全体幅f/基準s)×n(n=0、1、2….N)として求めることができ、ここでNは制御粒度である。Nは何段回を制御する指標である。処理ステップS57では、画像取得終了まで制御処理を繰り返し実行する。画像がない場合は、処理ステップS58において画像取得を終了し、制御処理も終了する。 A simple calculation method of the control amount of the zoom and the baseline can be obtained by zoom ratio a=distance d/reference s. The reference s can be set according to the zoom of the camera. If the distance is short, the zoom rate a is decreased, and if the distance is long, the zoom rate a is increased. Further, it can be obtained as a baseline control value b=(total baseline width f/reference s)×n (n=0, 1, 2,... N), where N is a control granularity. N is an index for controlling the number of rounds. In process step S57, the control process is repeatedly executed until the image acquisition is completed. If there is no image, the image acquisition is ended and the control process is ended in processing step S58.
図6は、パン制御部24と、チルト制御部25におけるパン制御値とチルト制御値を用いて回転制御する処理の流れを示す図である。
FIG. 6 is a diagram showing a flow of processing of rotation control using the pan control value and the tilt control value in the
図6に示す回転制御における最初の処理ステップS61では、左右画像取得部11R、11Lからの左右画像を取得し、処理ステップS62において、フレーム間差分を算出する。差分がある場合は、画像内に人物移動などの動きがあることを示す。処理ステップS63は、その動き領域を抽出する。例えば、画像領域を複数に区分しておき、区分された小領域間で、人物などの移動があることを検知する。処理ステップS64では、領域移動がある場合は、処理ステップS65において、その移動量を算出し、そして処理ステップS66でパン、チルトの回転制御を行う。処理ステップS67では、画像取得終了まで制御処理を繰り返し行う。画像がない場合は、処理ステップS68に移り、画像取得を終了し、制御処理も終了する。
In the first processing step S61 in the rotation control shown in FIG. 6, the left and right images from the left and right
たとえは、現在位置(x0、y0)であり、動き位置(x1、y1)であれば、パン制御値p、チルト制御値tは三角関係での移動距離を用いて、(6)式により、角度を算出することが可能である。 For example, if it is the current position (x0, y0) and is the movement position (x1, y1), the pan control value p and the tilt control value t use the moving distances in the triangular relationship, and according to the equation (6), It is possible to calculate the angle.
上記一連の処理により、理想的なステレオカメラは同期化されて、算出された距離は安定するはずである。しかし実際には、左右カメラには非同期という問題がある。その場合は、動き際の距離は不安定であり、距離ベースでの制御は困難である。 Through the series of processes described above, the ideal stereo cameras should be synchronized and the calculated distance should be stable. However, in reality, the left and right cameras have the problem of being asynchronous. In that case, the distance during movement is unstable, and it is difficult to control the distance based.
このことから、本発明においては、さらに図7のように実施ことを提案する。図7は、非同期ステレオカメラにおける制御の処理の流れを示す図である。 From this, the present invention further proposes to implement as shown in FIG. FIG. 7 is a diagram showing a flow of control processing in the asynchronous stereo camera.
図7における最初の処理ステップであるS71では、左右カメラ画像を取得する。処理ステップS72では、カメラの歪み補正を行う。処理ステップS73では、視差算出処理を行う。そして、処理ステップS74で、左右カメラのフレーム間差分処理を行う。そのうえで、処理ステップS75において差分がない場合(Y側)は、静止と判断して処理ステップS710の処理に移り、差分がある場合(N側)は、動きと判断して処理ステップS76の処理に移る。 In S71, which is the first processing step in FIG. 7, left and right camera images are acquired. In process step S72, distortion correction of the camera is performed. In processing step S73, parallax calculation processing is performed. Then, in processing step S74, difference processing between frames of the left and right cameras is performed. Then, if there is no difference in the processing step S75 (Y side), it is determined to be stationary and the process proceeds to the processing of step S710, and if there is a difference (N side), it is determined to be the motion and processing in the processing step S76 is performed. Move.
処理ステップS75の判断処理で、差分があるとされた場合(N側)は、人物などの動きと判断する。動きの場合は、処理ステップS76において、画像上の動き領域を算出する。そして、処理ステップS77において、カメラのパン、チルトの現状値を算出する。処理ステップS78では、算出された動き領域と現状値を比較して、差分を算出し、人物などの位置を判定する。処理ステップS79では、その差分に基づいて、パン制御値、チルト制御値を算出して、回転制御を行う。 If it is determined that there is a difference (N side) in the determination processing of processing step S75, it is determined that the movement is a person or the like. In the case of motion, a motion region on the image is calculated in processing step S76. Then, in processing step S77, the current values of the pan and tilt of the camera are calculated. In processing step S78, the calculated motion area is compared with the current value, the difference is calculated, and the position of the person or the like is determined. In processing step S79, the pan control value and the tilt control value are calculated based on the difference, and the rotation control is performed.
処理ステップS75の判断処理で、静止(Y側)の場合は、処理ステップS710において距離異常値の判定を行い、正常データについてのみ処理ステップS711において静止時の連続する5フレームの距離データを格納し、処理ステップS712においてその安定性を評価する。安定(Y側)であれば、処理ステップS713で平均距離を算出し、ズーム制御値、ベースライン制御値を算出する。その制御値を用いて、処理ステップS714においてズーム、ベースライン制御を行う。処理ステップS715では、画像取得終了まで制御処理を繰り返し行う。画像がない場合は、処理ステップS716において、画像取得を終了し、制御処理も終了する。 In the case of stationary (Y side) in the determination processing of processing step S75, the abnormal distance value is determined in processing step S710, and only normal data is stored in processing step S711 as distance data of five consecutive frames at rest. The stability is evaluated in process step S712. If it is stable (Y side), the average distance is calculated in processing step S713, and the zoom control value and the baseline control value are calculated. Using the control value, zooming and baseline control are performed in processing step S714. In process step S715, the control process is repeated until the image acquisition is completed. If there is no image, in step S716 the image acquisition is ended and the control processing is also ended.
図8を用いて、実施例2について説明する。図8は、本発明の実施例2に係るステレオカメラ装置100の構成例を示す図である。
Example 2 will be described with reference to FIG. FIG. 8 is a diagram showing a configuration example of the
実施例2では、図1に示す構成において実映像入力部10から制御量算出部17までの機能は実施例1と同じであるのでその説明を省略する。
In the second embodiment, the functions from the real
実施例2では、機械機構部であるステレオカメラ部101と、電子的処理機能である処理部102とは、ネットワーク81を介して相互に通信可能に接続されている。ここでは、ネットワーク81にあるカメラに対して、キャリブレーションを行う。そして、カメラで計測した対象の距離を算出する。その後、計算された距離を用いて、ネットワーク81を経由してカメラを制御するという遠隔処理できるカメラシステム構成である。それによって、設置場所や計測場所に依存しなく、遠隔で計測することが可能となる。
In the second embodiment, the
図9を用いて、実施例3について説明する。図9は、本発明の実施例3に係るステレオカメラ装置100を示す図である。
The third embodiment will be described with reference to FIG. FIG. 9 is a diagram showing a
実施例3によれば、カメラを制御するときに、広い範囲をスキャンする際には、スキャンした距離の精度を高めることができる。 According to the third embodiment, the accuracy of the scanned distance can be improved when controlling a camera and scanning a wide range.
従来における1台のカメラの場合は、例えば近くの距離の精度が高く、遠くなると精度が減少するという関係にある。実施例3では、1台のカメラはまず、91のカメラスベックで近い領域94をスキャンする。そして、カメラスベックを92に変更し、遠い領域95をスキャンする。また同じように、カメラスベックを93に変更し、さらに遠い領域96をスキャンする。そして、スキャンした結果を統合することで、全領域97についての結果を得ることができる。全領域97について得られた画像の処理結果では、全ての領域に対して、距離の精度が高いものとすることができる。それによって、今後自動運転ための、地図構築や環境スキャンなど様々な適用ができる。
In the case of one camera in the related art, for example, there is a relationship that the accuracy of a near distance is high and the accuracy decreases at a far distance. In the third embodiment, one camera first scans the near area 94 with the
図10を用いて、実施例4について説明する。図10は、本発明の実施例4に係るステレオカメラ装置100を示す図である。実施例4は、カメラを制御しなから、センシング物体を追跡し、適切な計測を行う実施例である。ここでは、人あるいは、車などの移動する物体Mを、計測したい対象物体とする。センシングする物体Mの移動経路はgのようであり、近距離位置から次第に遠ざかっていくものとする。センシングシステムでは、カメラのパン、チルト、ズーム、ベースラインを制御しなから、対象物体Mを追跡していく。それによって、1台のステレオカメラを用いて、近い位置から超遠望までの広い領域を計測することが可能になる。また、対象の動きに応じて、適切にセンシングすることが可能になる。
Example 4 will be described with reference to FIG. FIG. 10 is a diagram showing a
なお、図10の事例では、近い位置ではズームは1倍、ベースラインは15cm、角度10°であり、中距離位置ではズームは5倍、ベースラインは20cm、角度20°であり、遠距離位置ではズームは10倍、ベースラインは25cm、角度10°とした例を示している。 In the example of FIG. 10, the zoom is 1x at the close position, the baseline is 15 cm, and the angle is 10°, and the zoom is 5x at the intermediate position, the baseline is 20 cm, and the angle is 20°. Shows an example in which the zoom is 10 times, the baseline is 25 cm, and the angle is 10°.
図11を用いて、実施例5について説明する。図11は、本発明の実施例5に係るステレオカメラ装置100を示す図である。実施例5は、センシングシステムの一例である。
Example 5 will be described with reference to FIG. FIG. 11 is a diagram showing a
このシステムでは、ステレオカメラ101と、計算機111はネットワーク81で接続されている。画像はネットワーク81を経由して計算機111に送付される。計算機111は、受け取った画像を用いて、図1示した処理を行う。ズーム制御ユニット115はカメラの焦点距離を制御する。ベースライン制御ユニット116はベースラインステージ113を制御する。回転制御ユニット117は回転ステージ114を制御する。それらのユニットは計算機111と接続し、処理結果に応じて、それぞれ制御を行う。
In this system, the
次に図1の構成における各部処理の時間的関係について説明する。ここでは、カメラの画像取得部11は例えば30フレーム/秒で画像を入手しており、現時点では第2フレーム目の画像処理をこれから実施するタイミングを想定している。
Next, the temporal relationship of the processing of each part in the configuration of FIG. 1 will be described. Here, the
第2フレーム目の画像は、画像取得部11から特徴点選別部13に同時に与えられる。この時、距離算出部16は、左右画像から対象物までの距離と画像内の対象物体の動きを検知し、動きがある場合に制御量算出部17、カメラ制御部12を介して新たなカメラ位置とすべく作用する。またこのとき、距離算出部16はキャリブレーションデータデータベースDB1を参照して、距離を算出する際の補正に使用するキャリブレーションデータD2を得るが、この最新のキャリブレーションデータD2は、少なくとも第1フレーム目の画像処理において、特徴点選別部13、キャリ部レーション算出部14の処理により求めたものである。つまり、距離算出部16は、現在時刻の画像と過去時刻の処理で求めた最新のキャリブレーションデータD2とから、距離を算出する。なお第2フレーム目の処理では、キャリブレーションデータデータベースDB1には第2フレーム目で入手した画像から得たキャリブレーションデータD2が記憶されることになり、第3フレーム目における距離算出部16の処理で使用されることになる。
The image of the second frame is simultaneously given from the
キャリブレーションデータの算出タイミングは、カメラが制御されたタイミングで行う。それによって、高精度な距離データを算出することが可能になる。そして、計測対象の現在距離に応じて、適切にカメラを制御し、さらに計測することが可能になる。 The calibration data is calculated at the timing when the camera is controlled. Thereby, it becomes possible to calculate highly accurate distance data. Then, the camera can be appropriately controlled and further measurement can be performed according to the current distance of the measurement target.
上記を通じて、ステレオカメラ装置100は最新の状況をキャリブレーションし、距離制御に反映させることが可能である。
Through the above, the
10:実映像入力部、11:画像取得部、12:カメラ制御部、13:特徴点選別部、14:キャリブ算出部、DB1:キャリブデータデータベース、16:距離算出部、17:制御量算出部、21:ズーム制御部、22:ベースライン制御部23:回転制御部、24:チルト制御部、25:パン制御部、26:ズーム制御値、27:ベースライン制御値、28:チルト制御値、29:パン制御値、44:歪み補正部、45:平行処理部、46:距離算出部、P1:距離データ、81:ネットワーク、91、92、93:カメラスペック、94、95、96:スキャン領域、97:統合スキャン結果、100:ステレオカメラ装置、M:計測対象、g:移動経路、111:計算機、101:ステレオカメラ、113:ベースラインステージ、114:回転ステージ、115:ズーム制御ユニット、116:ベースライン制御ユニット、117:回転制御ユニット 10: real image input unit, 11: image acquisition unit, 12: camera control unit, 13: feature point selection unit, 14: calib calculation unit, DB1: calib data database, 16: distance calculation unit, 17: control amount calculation unit. , 21: zoom control unit, 22: baseline control unit 23: rotation control unit, 24: tilt control unit, 25: pan control unit, 26: zoom control value, 27: baseline control value, 28: tilt control value, 29: Pan control value, 44: Distortion correction unit, 45: Parallel processing unit, 46: Distance calculation unit, P1: Distance data, 81: Network, 91, 92, 93: Camera spec, 94, 95, 96: Scan area , 97: integrated scan result, 100: stereo camera device, M: measurement target, g: movement path, 111: computer, 101: stereo camera, 113: baseline stage, 114: rotary stage, 115: zoom control unit, 116 : Baseline control unit, 117: Rotation control unit
Claims (12)
ステレオ計測装置の前記処理部は、左右の画像情報の画像シーンから特徴点を選別する特徴点選別部と、選別された特徴点を用いて、キャリブレーションを行い、キャリブレーションデータを算出するキャリブ算出部と、算出されたキャリブレーションデータと前記左右の画像情報を用いて、センシング対象の対象物体までの距離を算出する距離算出部と、算出された距離と画像情報とから、前記左右のカメラのカメラ制御部を制御するための制御量を算出する制御量算出部とを備えて前記制御量を前記ステレオカメラ部の前記左右のカメラのカメラ制御部に与え、
前記ステレオカメラ部の前記左右のカメラのカメラ制御部は、少なくともズーム、ベースライン、回転についての制御部を備えており、前記制御量算出部は、少なくともズーム、ベースライン、回転についての制御量を算出して、前記カメラ制御部に与え、
前記ズーム、ベースラインについての制御量を算出する前記制御量算出部は、計測した距離データの安定性を評価し、安定と判断された距離データを用いて、センシング対象の対象物体までの平均距離を算出し、ズーム、ベースラインの制御量を算出し、
前記回転についての制御量を算出する前記制御量算出部は、画像領域を予め複数に区分した小領域間で、センシング対象の対象物体の領域移動がある場合にその移動量を算出して回転制御の制御量を算出するとともに、左右カメラのフレーム間差分により、ズーム、ベースラインの制御量算出処理と回転制御の制御量算出処理を選択することを特徴とするステレオ計測装置。 A stereo measurement device provided with left and right image information by the left and right cameras, and a processing unit for processing the left and right image information from a stereo camera unit including a camera control unit of the left and right cameras,
The processing unit of the stereo measurement device uses a feature point selection unit that selects a feature point from an image scene of left and right image information, and a calibration calculation that performs calibration using the selected feature point and calculates calibration data. Section, the calculated calibration data and the left and right image information, a distance calculation section for calculating a distance to a target object of a sensing target, and the calculated distance and image information, the left and right camera and a control amount calculating section for calculating a control amount for controlling the camera controller gives the control amount to the camera control unit of the left and right camera of the stereo camera unit,
The camera control units of the left and right cameras of the stereo camera unit include at least a control unit for zooming, a baseline, and a rotation, and the control amount calculating unit determines at least a control amount for zooming, a baseline, and rotation. Calculated and given to the camera control unit,
The control amount calculation unit that calculates the control amount for the zoom and baseline evaluates the stability of the measured distance data, and uses the distance data determined to be stable, using the average distance to the target object of the sensing target. To calculate the control amount of zoom and baseline,
The control amount calculation unit that calculates the control amount for the rotation controls the rotation by calculating the amount of movement of the target object of the sensing target when the region moves of the target object between the small regions obtained by dividing the image region into a plurality of areas in advance. The stereo measurement device , which calculates the control amount of the left and right cameras and selects the control amount calculation process of the zoom and baseline and the control amount calculation process of the rotation control according to the difference between the frames of the left and right cameras .
前記回転についての制御部は、チルト制御部とパン制御部を含むことを特徴とするステレオ計測装置。 The stereo measurement device according to claim 1 , wherein
The stereo measurement apparatus, wherein the control unit for the rotation includes a tilt control unit and a pan control unit.
左右の画像情報の画像シーンから特徴点を選別する特徴点選別部は、複数の画像シーンについて特徴点を抽出し、抽出した特徴点について有効な特徴点を選別することを特徴とするステレオ計測装置。 The stereo measurement device according to claim 1 or 2 , wherein
A feature point selection unit that selects feature points from image scenes of left and right image information, extracts feature points from a plurality of image scenes, and selects valid feature points from the extracted feature points. ..
センシング対象の対象物体までの距離を算出する前記距離算出部は、カメラ画像の歪みを補正する歪み補正部と、左右カメラの平行化を処理する平行処理部とを含み、左右カメラの平行化処理後の画像情報
から、センシング対象の対象物体までの距離を算出することを特徴とするステレオ計測装置。 The stereo measurement device according to any one of claims 1 to 3 , wherein:
The distance calculation unit that calculates the distance to the target object of the sensing target includes a distortion correction unit that corrects the distortion of the camera image and a parallel processing unit that processes the parallelization of the left and right cameras. A stereo measurement apparatus, which calculates a distance to a target object to be sensed from subsequent image information.
前記ズーム、ベースラインについての制御量を算出する前記制御量算出部は、前記距離算出部で計測した距離データを用いて、センシング対象の対象物体までの平均距離を算出し、ズーム、ベースラインの制御量を算出することを特徴とするステレオ計測装置。 The stereo measurement device according to claim 1 or 2 , wherein
The control amount calculation unit that calculates the control amount for the zoom and the baseline, using the distance data measured by the distance calculation unit, calculates the average distance to the target object of the sensing target, and the zoom and the baseline. A stereo measurement device characterized by calculating a control amount.
前記ズーム、ベースラインについての制御量を算出する前記制御量算出部は、算出する制御量の精度を高める場合は、前記距離算出部で計測した距離データの安定性を評価し、安定と判断された距離データを用いて、センシング対象の対象物体までの平均距離を算出し、ズーム、ベースラインの制御量を算出することを特徴とするステレオ計測装置。 The stereo measurement device according to claim 1 or 2 , wherein
The control amount calculation unit that calculates the control amount for the zoom and baseline evaluates the stability of the distance data measured by the distance calculation unit and determines that the control amount is stable if the accuracy of the calculated control amount is increased. A stereo measurement device, characterized in that an average distance to a target object to be sensed is calculated using the distance data, and a control amount of zoom and baseline is calculated.
前記回転についての制御量を算出する前記制御量算出部は、画像領域を予め複数に区分した小領域間で、センシング対象の対象物体の領域移動がある場合にその移動量を算出し、回転制御を行うことを特徴とするステレオ計測装置。 The stereo measurement device according to claim 1 or 2 , wherein
The control amount calculation unit that calculates the control amount for the rotation calculates the amount of movement of the target object of the sensing target when there is a region movement of the target object between the small regions obtained by preliminarily dividing the image region into a plurality of regions, and controls the rotation. A stereo measuring device characterized by performing.
前記ステレオカメラ部と前記処理部は、インターネットを介して接続されていることを特徴とするステレオ計測装置。 The stereo measurement device according to any one of claims 1 to 7 ,
The stereo measurement device, wherein the stereo camera unit and the processing unit are connected via the Internet.
前記ステレオカメラ部は、複数の異なる距離での複数のカメラスペックのデータを保持し、距離に応じてカメラスペックを変更して左右の画像情報を得ることを特徴とするステレオ計測装置。 The stereo measurement device according to any one of claims 1 to 8 , wherein:
The stereo camera unit holds data of a plurality of camera specifications at a plurality of different distances and changes the camera specifications according to the distance to obtain left and right image information.
前記左右のカメラからの画像について、左右のカメラのフレーム間差分がない場合は、静止と判断してズーム、ベースラインについての制御量を算出し、左右のカメラのフレーム間差分がある場合は、動き
と判断して回転についての制御量を算出することを特徴とするステレオ計測装置。 The stereo measurement device according to any one of claims 1 to 9 , wherein the left and right cameras are asynchronous cameras.
Regarding the images from the left and right cameras, if there is no difference between the frames of the left and right cameras, it is determined to be still and the control amount for zoom and baseline is calculated, and if there is a difference between the frames of the left and right cameras, A stereo measuring device characterized by calculating a control amount for rotation by judging it as movement.
前記左右のカメラの視野内にある移動物体について、前記ズーム、ベースライン、回転についての制御量を算出して、前記カメラ制御部に与えることにより、前記移動物体を追跡することを特徴とするステレオ計測装置。 The stereo measuring device according to any one of claims 1 to 10 ,
A stereo characterized by tracking the moving object by calculating control amounts for the zoom, baseline, and rotation of the moving object within the visual fields of the left and right cameras and giving the calculated control amounts to the camera control unit. Measuring device.
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/JP2017/023159 WO2018235256A1 (en) | 2017-06-23 | 2017-06-23 | Stereo measurement device and system |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2018235256A1 JPWO2018235256A1 (en) | 2020-05-21 |
JP6734994B2 true JP6734994B2 (en) | 2020-08-05 |
Family
ID=64737655
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019524821A Active JP6734994B2 (en) | 2017-06-23 | 2017-06-23 | Stereo measuring device and system |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP6734994B2 (en) |
WO (1) | WO2018235256A1 (en) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7253440B2 (en) * | 2019-05-09 | 2023-04-06 | 東芝テック株式会社 | Tracking device and information processing program |
JP7253441B2 (en) * | 2019-05-09 | 2023-04-06 | 東芝テック株式会社 | Tracking device and information processing program |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4009163B2 (en) * | 2002-08-30 | 2007-11-14 | 富士通株式会社 | Object detection apparatus, object detection method, and object detection program |
JP4330914B2 (en) * | 2003-04-09 | 2009-09-16 | 株式会社エヌ・ティ・ティ・データ | Moving object detection apparatus and moving object detection method |
JP4814669B2 (en) * | 2006-03-28 | 2011-11-16 | 株式会社デンソーアイティーラボラトリ | 3D coordinate acquisition device |
JP5229726B2 (en) * | 2008-08-20 | 2013-07-03 | 国立大学法人東京工業大学 | Long-distance target search camera system |
JP5742179B2 (en) * | 2010-11-05 | 2015-07-01 | ソニー株式会社 | Imaging apparatus, image processing apparatus, image processing method, and program |
JP5223096B2 (en) * | 2011-11-14 | 2013-06-26 | Bi2−Vision株式会社 | 3D video shooting control system, 3D video shooting control method, and program |
JP6525453B2 (en) * | 2014-11-26 | 2019-06-05 | 日本放送協会 | Object position estimation system and program thereof |
JP6599685B2 (en) * | 2015-08-19 | 2019-10-30 | シャープ株式会社 | Image processing apparatus and error determination method |
-
2017
- 2017-06-23 WO PCT/JP2017/023159 patent/WO2018235256A1/en active Application Filing
- 2017-06-23 JP JP2019524821A patent/JP6734994B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JPWO2018235256A1 (en) | 2020-05-21 |
WO2018235256A1 (en) | 2018-12-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10455141B2 (en) | Auto-focus method and apparatus and electronic device | |
CN109922251B (en) | Method, device and system for quick snapshot | |
JP6663040B2 (en) | Depth information acquisition method and apparatus, and image acquisition device | |
KR102149276B1 (en) | Method of image registration | |
JP5027747B2 (en) | POSITION MEASUREMENT METHOD, POSITION MEASUREMENT DEVICE, AND PROGRAM | |
JP4809291B2 (en) | Measuring device and program | |
US20070189750A1 (en) | Method of and apparatus for simultaneously capturing and generating multiple blurred images | |
JP5293131B2 (en) | Compound eye distance measuring device for vehicle and compound eye distance measuring method | |
US10652521B2 (en) | Stereo camera and image pickup system | |
KR20200071960A (en) | Method and Apparatus for Vehicle Detection Using Lidar Sensor and Camera Convergence | |
JP2017142613A (en) | Information processing device, information processing system, information processing method and information processing program | |
JP5549283B2 (en) | Distance acquisition device | |
JP6734994B2 (en) | Stereo measuring device and system | |
JP6694234B2 (en) | Distance measuring device | |
JP3988574B2 (en) | Image processing device | |
JP5267100B2 (en) | Motion estimation apparatus and program | |
JP5454392B2 (en) | Ranging device and imaging device | |
JP2004028811A (en) | Device and method for correcting distance for monitoring system | |
US20130076868A1 (en) | Stereoscopic imaging apparatus, face detection apparatus and methods of controlling operation of same | |
JP2014238558A (en) | Imaging device and parallax detection method | |
JPH11223516A (en) | Three dimensional image pickup device | |
WO2019130409A1 (en) | Stereo measurement device and method | |
WO2016047220A1 (en) | Imaging device and imaging method | |
KR20180076458A (en) | Distance estimation using stereo camera based on marker in space environment | |
WO2021109068A1 (en) | Gesture control method and movable platform |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20191015 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200609 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200624 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20200707 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20200710 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6734994 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |