JP2009077092A - Multi-camera system - Google Patents

Multi-camera system Download PDF

Info

Publication number
JP2009077092A
JP2009077092A JP2007243212A JP2007243212A JP2009077092A JP 2009077092 A JP2009077092 A JP 2009077092A JP 2007243212 A JP2007243212 A JP 2007243212A JP 2007243212 A JP2007243212 A JP 2007243212A JP 2009077092 A JP2009077092 A JP 2009077092A
Authority
JP
Japan
Prior art keywords
image
camera
camera system
overlap
imaging devices
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2007243212A
Other languages
Japanese (ja)
Other versions
JP4979525B2 (en
Inventor
Masato Kazui
誠人 数井
Hiroshi Shojima
博 正嶋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2007243212A priority Critical patent/JP4979525B2/en
Publication of JP2009077092A publication Critical patent/JP2009077092A/en
Application granted granted Critical
Publication of JP4979525B2 publication Critical patent/JP4979525B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide a multi-camera system which can change camera direction and focal distance corresponding to a position of a detection target object, switches image processing corresponding to the camera direction, and solves conventional technical problems that a camera structure and control processing content are determined according to particular purposes. <P>SOLUTION: Comparing to conventional multi-camera systems, the embodied multi-camera system obtains functions that applications are adaptively switched if arrangement of the respective cameras and camera optical axis directions are changed in the multi-camera system. <P>COPYRIGHT: (C)2009,JPO&INPIT

Description

本発明は、少なくとも2台以上の撮像機器によって対象物を検出,追跡,行動解析するマルチカメラシステムに関するものである。   The present invention relates to a multi-camera system that detects, tracks, and analyzes an object using at least two imaging devices.

従来、監視・モニタリングシステムにおいては監視対象やモニタリング対象の人物、あるいは物体を単一のカメラで撮像し、その映像を蓄積、配信してきた。また必要に応じて画像処理や画像認識を行い、その結果に応じて監視員やモニタリングしている人に警報や注意を発し、監視・モニタリングによって生じる人的負担を軽減する手法が採用されてきた。しかし、単一カメラでの監視・モニタリングでは検出対象物の隠蔽によって画像認識性能が低下する場合もある。また、単一のカメラでは画像認識を行う際に影や光の影響による誤報が多発し、実環境下で監視・モニタリング用の画像認識アルゴリズムが適切に動作しないことがある。   Conventionally, in a monitoring / monitoring system, an object to be monitored, a person to be monitored, or an object is imaged with a single camera, and the image is accumulated and distributed. In addition, a method has been adopted that performs image processing and image recognition as necessary, issues warnings and cautions to monitoring personnel and those who are monitoring, and reduces the human burden caused by monitoring and monitoring. . However, in the case of monitoring / monitoring with a single camera, the image recognition performance may deteriorate due to concealment of the detection target. In addition, when a single camera performs image recognition, false alarms due to the influence of shadows and light frequently occur, and the image recognition algorithm for monitoring / monitoring may not operate properly in an actual environment.

近年、これらの問題を解決するために、ステレオカメラを含むマルチカメラ撮像機器、あるいはシステムを用いる事例が増えている。例えば、〔特許文献1〕においては、ステレオカメラを用いることによって影や光などの照明変動による誤報を低減したり、撮影対象物のサイズ,ボリュームを計測することで撮影した対象が人であるか、車両であるかを判定したりする。また、複数カメラの画像によって隠蔽のない対象物体撮影を可能にして、例えば顔認証システムの精度を向上させる技術が示されている。   In recent years, in order to solve these problems, there are increasing cases of using a multi-camera imaging device or system including a stereo camera. For example, in [Patent Document 1], whether a subject photographed by reducing the false alarm due to illumination fluctuations such as shadows and light by using a stereo camera or measuring the size and volume of the subject to be photographed is a person. To determine whether it is a vehicle. In addition, a technique for enabling target object shooting without concealment using images from a plurality of cameras and improving the accuracy of a face authentication system, for example, is shown.

特開平10−134187号公報Japanese Patent Laid-Open No. 10-134187 US Patent 6,711,293US Patent 6,711,293 佐藤 淳著、“コンピュータビジョン―視覚の幾何学”、コロナ社、1994年Sato, Satoshi, “Computer Vision-Geometry of Vision”, Corona, 1994

上記従来のマルチカメラ撮像技術は、特定の目的に応じてカメラ構成が一意に決まる。例えば、距離計測を行う場合には、特性が同じである2台のカメラを並行に固定する。あるいは、移動物体の検出・追跡を行う場合には、広角カメラで移動物体を検出・追跡し、望遠カメラでその移動物体の詳細映像を撮影する。   In the conventional multi-camera imaging technique, the camera configuration is uniquely determined according to a specific purpose. For example, when distance measurement is performed, two cameras having the same characteristics are fixed in parallel. Alternatively, when detecting and tracking a moving object, the moving object is detected and tracked with a wide-angle camera, and a detailed image of the moving object is captured with a telephoto camera.

すなわち、特定の目的に応じてカメラ構成とアプリケーションが決まってしまい、マルチカメラシステムにおけるカメラ配置やカメラ光軸の向きが動的に変化した場合にアプリケーションを適応的に切り替えることをしていない。   That is, the camera configuration and application are determined according to a specific purpose, and the application is not adaptively switched when the camera arrangement or the camera optical axis direction in the multi-camera system changes dynamically.

このような課題に対して、本発明はカメラ配置やカメラ光軸の向きが動的に変化した場合においてもより適応したマルチカメラシステムを提供することにある。   In order to solve such a problem, the present invention provides a multi-camera system that is more adaptive even when the camera arrangement and the direction of the camera optical axis are dynamically changed.

上記課題を達成するために、本発明のマルチカメラシステムは、少なくとも2台の撮像機器と、該2台の撮像機器から得られる画像の重なり程度に応じて画像認識処理を切り替える手段と、前記それぞれの撮像機器の光軸の向きを可動する電動雲台とを備え、該電動雲台は前記画像認識処理の結果に応じて動的に制御することを特徴とするものである。   In order to achieve the above object, the multi-camera system of the present invention includes at least two imaging devices, means for switching image recognition processing according to the degree of overlap of images obtained from the two imaging devices, The image pickup apparatus includes an electric head that can move the direction of the optical axis, and the electric head is dynamically controlled according to the result of the image recognition process.

更に、本発明のマルチカメラシステムは、撮像機器の視野の重なり具合に応じて画像認識処理を切り替える際、2台の撮像機器の視野が重なっている場合にはステレオ距離計測機能,立体物形状計測機能,パノラマ画像生成機能,死角撮影機能,人物行動解析機能のうち、すくなくとも一つの機能を実行し、2台の撮像機器の視野が重なっていない場合には、2台のカメラで検出対象の検出を行う機能を実行し、検出対象となる移動物体の位置と2台の撮像機器の光軸間の角度に応じて前記機能を切り替えることを特徴とするものである。   Furthermore, the multi-camera system of the present invention switches the image recognition processing according to the overlapping state of the field of view of the imaging device. If the field of view of the two imaging devices overlaps, the stereo distance measurement function and the three-dimensional object shape measurement are performed. If at least one of the functions, panorama image generation function, blind spot shooting function, and human behavior analysis function is executed and the field of view of the two imaging devices does not overlap, detection of the detection target by the two cameras The function is performed, and the function is switched according to the position of the moving object to be detected and the angle between the optical axes of the two imaging devices.

更に、本発明のマルチカメラシステムは、前記画像認識処理の出力に応じて、少なくとも前記2つ以上の機能の組み合わせを行うことを特徴とするものである。   Furthermore, the multi-camera system of the present invention is characterized in that a combination of at least the two or more functions is performed in accordance with the output of the image recognition process.

更に、本発明のマルチカメラシステムは、前記画像の重なり程度を判定する処理方法として、2枚の画像に同時に見える特徴点を画像処理により検出してマッチングをとり、そのマッチング結果からエピポーラ幾何を計算して画像の重なり程度を判定する機能と、一方の画像を基準にしてもう一方の画像をずらしながら画像の重ね合わせを行い、重ね合わせの誤差が最小となるときの画像のずらし量を画像の重なり程度として出力する機能と、画像処理によって検出する検出対象、具体的には人物や車両、あるいは撮影シーンに存在する幾何学的な構造物、あるいはマルチカメラシステム向けに定義された特定マーカーを検出し、2枚の画像間における位置関係から画像の重なり程度を計算する機能のうち、少なくともいずれか一つの機能を備えることを特徴とするものである。   Furthermore, the multi-camera system according to the present invention is a processing method for determining the degree of overlap of the images, detecting feature points that appear simultaneously in two images by image processing, performing matching, and calculating epipolar geometry from the matching results. A function for determining the degree of image overlap, and by superimposing images while shifting the other image with respect to one image, the amount of image shift when the overlay error is minimized A function to output as the degree of overlap and a detection target to be detected by image processing, specifically, a geometric structure existing in a person or vehicle, a shooting scene, or a specific marker defined for a multi-camera system And at least one of the functions for calculating the degree of image overlap from the positional relationship between the two images. It is characterized in that to obtain.

更に、本発明のマルチカメラシステムは、特性が異なる2台の撮像機器、具体的には解像度,フレームレート,シャッタースピード,絞り,レンズの明るさ,レンズの直径,レンズに取り付けるフィルタ,撮像可能波長領域のうち、少なくともいずれか一つが異なる撮像機器の組み合わせでも2枚の画像間で画像の重なり程度を計算することを特徴とするものである。   Furthermore, the multi-camera system of the present invention has two image pickup devices with different characteristics, specifically, resolution, frame rate, shutter speed, aperture, lens brightness, lens diameter, filter attached to the lens, and image pickup wavelength. Even in a combination of imaging devices in which at least one of the regions is different, the degree of image overlap is calculated between two images.

更に、本発明のマルチカメラシステムは、前記撮像機器の光軸の向きは電動雲台を使用せずに固定されており、2台の撮像機器間の光軸が成す角度が異なる少なくとも2つ以上の撮像機器のペアを備えたことを特徴とするものである。   Furthermore, in the multi-camera system of the present invention, the orientation of the optical axis of the imaging device is fixed without using an electric camera platform, and at least two or more angles formed by the optical axes between the two imaging devices are different. A pair of imaging devices is provided.

また、上記課題を達成するために、本発明のマルチカメラシステムは、少なくとも2台の撮像機器と、該2台の撮像機器から得られる画像の重なりを判定する手段と、該画像重なり判定手段の出力に応じて画像認識処理を切り替える手段とを備えて、前記撮像機器の撮像状態を制御することを特徴とするものである。   In order to achieve the above object, a multi-camera system according to the present invention includes at least two imaging devices, means for determining an overlap of images obtained from the two imaging devices, and an image overlapping determination unit. Means for switching an image recognition process in accordance with an output, and controls an imaging state of the imaging device.

更に、本発明のマルチカメラシステムは、該画像重なり判定手段の出力として、2台の撮像機器の視野が重なっている場合には、視野内の対象物に関する処理を行い、2台の撮像機器の視野が重なっていない場合には、2台の撮像機器で対象物の検出を行うことを特徴とするものである。   Furthermore, the multi-camera system of the present invention performs processing related to the object in the field of view when the field of view of the two imaging devices overlaps as the output of the image overlap determination means. When the field of view does not overlap, the object is detected by two imaging devices.

更に、本発明のマルチカメラシステムは、前記像機器の光軸の向きを可動する電動雲台を備えて、該電動雲台は前記画像重なり判定手段の出力に応じて制御することを特徴とするものである。   Furthermore, the multi-camera system of the present invention includes an electric camera platform that can move the direction of the optical axis of the image device, and the electric camera platform is controlled according to the output of the image overlap determination means. Is.

本発明のマルチカメラシステムによれば、撮像機器の配置や光軸の向きの変化に応じて画像認識アプリケーションを切り替えることができるため、撮像機器を任意に設置してもマルチカメラシステム自体がその撮像機器設置に最適な画像認識アプリケーションを選択できるため、使い勝手のよいシステムを提供することができる。また、既存の撮像機器に、例えばその撮像機器に対して、より安価な撮像機器を追加することによって、容易に、および安価に画像認識アプリケーションのバリエーションを増やすことができる。   According to the multi-camera system of the present invention, the image recognition application can be switched in accordance with the arrangement of the imaging device and the change in the direction of the optical axis. Therefore, even if the imaging device is arbitrarily installed, the multi-camera system itself captures the image. Since an image recognition application most suitable for device installation can be selected, an easy-to-use system can be provided. Further, for example, by adding a cheaper imaging device to the existing imaging device, for example, the variation of the image recognition application can be increased easily and inexpensively.

以下、本発明の実施形態について図面を用いて説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings.

図1に本発明を実施するマルチカメラシステムの機能ブロック図の例を示す。メインカメラ101,サブカメラ102はそれぞれ、電動雲台103,104上に設置されている。メインカメラ101,サブカメラ102はカメラ特性、具体的には画像解像度,レンズサイズ,焦点距離,フレームレート,撮像可能波長領域が同じであっても、異なっていてもよい。また、電動雲台103,104のいずれも手動、または自動で制御される。   FIG. 1 shows an example of a functional block diagram of a multi-camera system implementing the present invention. The main camera 101 and the sub camera 102 are installed on the electric camera platform 103 and 104, respectively. The main camera 101 and the sub camera 102 may have the same or different camera characteristics, specifically, image resolution, lens size, focal length, frame rate, and imageable wavelength region. In addition, both of the electric pan heads 103 and 104 are controlled manually or automatically.

視野重なり判定部105では、カメラ101,102で撮像された映像の視野が重なっているかいないかを判定し、判定結果を画像処理機能選択部106へ渡す。画像処理機能選択部106ではその結果に基づいて物体追跡、距離計測、行動判定、あるいはパノラマ生成の何れか、あるいはこれらの組み合わせの機能を選択する。   The visual field overlap determination unit 105 determines whether or not the visual fields of the images captured by the cameras 101 and 102 overlap, and passes the determination result to the image processing function selection unit 106. Based on the result, the image processing function selection unit 106 selects a function of object tracking, distance measurement, action determination, panorama generation, or a combination thereof.

映像解析部107では画像処理機能選択部106で選択された画像処理を行い、その解析結果を外部に出力したり、雲台制御部108へ渡し、電動雲台103,104の動作を制御したりする。電動雲台は2台とも可動する場合、1台が固定されてもう一台が可動する場合、そして2台とも固定されている場合がある。また、2台の雲台は同期して動く場合、例えば2台のカメラ光軸が並行である初期状態から、2台のカメラは常に同じ角度で動作する場合とそれぞれのカメラが任意の角度で動く場合、例えば移動物体を追跡するような場合がある。カメラの焦点距離が可変である場合は、その焦点距離の値にも連動して2台の雲台が制御される場合と、連動して制御されないようにすることが可能である。   The video analysis unit 107 performs the image processing selected by the image processing function selection unit 106 and outputs the analysis result to the outside, or passes it to the pan head control unit 108 to control the operation of the electric pan heads 103 and 104. To do. There are cases where two electric pan heads are movable, one is fixed while the other is movable, and both are fixed. In addition, when the two pan heads move synchronously, for example, from the initial state in which the two camera optical axes are parallel, the two cameras always operate at the same angle and the respective cameras are at an arbitrary angle. When moving, for example, a moving object may be tracked. When the focal length of the camera is variable, it is possible to prevent the two pan / tilt heads from being controlled in conjunction with the value of the focal length.

次に図2の実施例を用いて、移動物体の追跡を例に電動雲台103,104の動作の具体例について説明する。左カメラ201,右カメラ202を備えており、検出、および追跡対象物体203との関係を示している。図2(a)でθは左カメラ201の光軸方向を基準にしたときの右カメラ202の光軸方向であり、反時計周り方向が正である。破線は2台のカメラの視野(画角)を示している。図2(a)の場合にはθは負の値をとる。ただし2台のカメラの光軸は同一平面内に存在するように校正されているものとする。   Next, a specific example of the operation of the electric pan heads 103 and 104 will be described using the embodiment of FIG. A left camera 201 and a right camera 202 are provided, and the relationship between the detection and tracking target object 203 is shown. In FIG. 2A, θ is the optical axis direction of the right camera 202 when the optical axis direction of the left camera 201 is used as a reference, and the counterclockwise direction is positive. The broken line indicates the field of view (view angle) of the two cameras. In the case of FIG. 2A, θ takes a negative value. However, it is assumed that the optical axes of the two cameras are calibrated so as to be in the same plane.

最初、図2(a)のように移動物体が遠方にある場合には2台のカメラの視野が重なっていない。図2(b)(c)(d)のように、移動物体がカメラ側に近づくにつれて2台のカメラ間角度θの値が大きくなり、視野の重なり程度が大きくなる。最終的には図2(e)のように2台のカメラは正対し、移動物体を正反対の方向から撮影する。視野重なり判定部105では上記図2(a)〜(e)の状態を判定し、その判定結果を画像処理機能選択部106へ送る。映像解析部107では画像処理機能選択部106の出力結果に応じた映像解析を行い、その解析結果を雲台制御部108へ送る。   First, when the moving object is far away as shown in FIG. 2A, the fields of view of the two cameras do not overlap. As shown in FIGS. 2B, 2C, and 2D, as the moving object approaches the camera side, the value of the angle θ between the two cameras increases, and the overlapping degree of the visual field increases. Finally, as shown in FIG. 2 (e), the two cameras face each other and photograph the moving object from the opposite direction. The visual field overlap determination unit 105 determines the states shown in FIGS. 2A to 2E and sends the determination results to the image processing function selection unit 106. The video analysis unit 107 performs video analysis according to the output result of the image processing function selection unit 106 and sends the analysis result to the pan head control unit 108.

以下に図3を使って上記の処理の詳細について説明する。追跡対象物体が遠方から2台のカメラ301(例えば左カメラ201)、およびカメラ302(例えば右カメラ202)に向かって移動する場合の電動雲台の動作について説明する。物体検出部303は移動物体を検出する機能を備えるが、もしカメラ301、あるいはカメラ302の視野内に移動物体が存在しなければ、物体検出部303は移動物体が見つかるまで処理を続ける。もしカメラ301、あるいはカメラ302の視野内に移動物体が存在すれば、次のステップ305で2枚の画像の視野重なり度を計算し、ステップ306でその計算結果から次に行う処理の選択をする。このステップ305とステップ306の処理が図1における視野重なり判定部105の処理に該当する。   Details of the above processing will be described below with reference to FIG. The operation of the electric camera platform when the tracking target object moves from a distance toward two cameras 301 (for example, the left camera 201) and the camera 302 (for example, the right camera 202) will be described. The object detection unit 303 has a function of detecting a moving object. If there is no moving object in the field of view of the camera 301 or the camera 302, the object detection unit 303 continues processing until a moving object is found. If there is a moving object in the field of view of the camera 301 or the camera 302, the next step 305 calculates the overlapping degree of the two images, and the step 306 selects the next process to be performed. . The processing of step 305 and step 306 corresponds to the processing of the visual field overlap determination unit 105 in FIG.

ここで、その検出された物体が図2(a)のように遠方にあり、2台のカメラの視野が重なっていない場合、図3のステップ306では追跡対象物体は右カメラにしか写っておらず、左カメラには写っていないと判定する。この判定結果を受けて、2台のカメラは移動物体が左カメラに写るまでは右カメラで対象物体を追跡する。同時に、左カメラは電動雲台を回転させて右カメラの方を向くようにする。この左カメラの一連の動作は視野重なり判定部105,画像処理機能選択部106,映像解析部107を経て、左カメラをどのくらい右方向に向かせるかを雲台制御部に伝え、左カメラを回転させる。左カメラ201,右カメラ202ともに常に追跡対象が画像中心付近に見えるように電動雲台103、および104を回転させる。移動物体の見かけの大きさが変化せず、移動物体とカメラとの距離が変わらないと判定できる場合は、図3のステップ308のカメラ間移動物体追跡処理を行う。   If the detected object is far away as shown in FIG. 2A and the fields of view of the two cameras do not overlap, in step 306 in FIG. 3, the object to be tracked is reflected only in the right camera. First, it is determined that the image is not captured by the left camera. In response to the determination result, the two cameras track the target object with the right camera until the moving object appears in the left camera. At the same time, the left camera rotates the electric pan head so that it faces the right camera. A series of operations of the left camera is passed through the visual field overlap determination unit 105, the image processing function selection unit 106, and the video analysis unit 107, and tells the pan head control unit how much the left camera is directed to the right and rotates the left camera. Let Both the left camera 201 and the right camera 202 rotate the motorized heads 103 and 104 so that the tracking target can always be seen near the center of the image. If the apparent size of the moving object does not change and it can be determined that the distance between the moving object and the camera does not change, the inter-camera moving object tracking process in step 308 of FIG. 3 is performed.

図2(a)の状態では2台のカメラの視野が重なっておらず、カメラ間で同一物体の同定を行うためには、異なる時刻における移動物体の検出結果を保存しておき、2台のカメラ間で異なる時刻に検出された物体の同定を行う。2台のカメラ移動物体の検出結果は図1の映像解析部107に保存されている。   In the state of FIG. 2A, the fields of view of the two cameras do not overlap, and in order to identify the same object between the cameras, the detection results of the moving object at different times are stored, Identify objects detected at different times between cameras. The detection results of the two camera moving objects are stored in the video analysis unit 107 in FIG.

ここで、もしカメラ301,302の焦点距離が可変であるズームカメラであれば、検出した物体が常に同じ大きさに見えるように焦点距離を手動、あるいは自動で調節する。   Here, if the cameras 301 and 302 are zoom cameras with variable focal lengths, the focal lengths are adjusted manually or automatically so that the detected object always looks the same size.

次に、移動物体が図2(b)のようにさらにカメラ側に近づいてくるものとする。この状態では移動物体はまだ右カメラ202でしか捉えられていないが、2台のカメラの視野は重なり始めている。図3のステップ306では映像が重なっていると判定して、ステップ307で2台のカメラ光軸間の角度θがθ>−Thであるか否かを判定する。ここで、±Thは2台のカメラ光軸間の角度が0に近くなる、すなわち平行とみなせるか否かを判定するθのしきい値である。ここでカメラ画角を2θ0とし、もしθ<2θ0であり、かつθ>Thでないならば、2台のカメラの視野はカメラ光軸が並行から外れた状態で重なっている。この状態で2枚の画像間で歪やスケール変動などの影響を取り除いて重なり部分の張り合わせを行うとパノラマ画像を生成できる。   Next, it is assumed that the moving object further approaches the camera side as shown in FIG. In this state, the moving object is still captured only by the right camera 202, but the fields of view of the two cameras are beginning to overlap. In step 306 in FIG. 3, it is determined that the images overlap, and in step 307, it is determined whether or not the angle θ between the two camera optical axes is θ> −Th. Here, ± Th is a threshold value of θ for determining whether or not the angle between the two camera optical axes is close to 0, that is, whether it can be regarded as parallel. Here, if the camera angle of view is 2θ0, and θ <2θ0 and θ> Th is not satisfied, the fields of view of the two cameras are overlapped with the camera optical axis being out of parallel. In this state, a panoramic image can be generated by removing the influence of distortion and scale variation between the two images and pasting the overlapping portions.

次に追跡対象物体がカメラに近づいて2台のカメラ301と302の光軸がほぼ水平に近き、図3のステップ310において−Th≦θ≦Thとなった場合に2台のカメラ光軸がほぼ並行になったと判定し、追跡対象物体までの距離を計算するモードに切り替わる。この判定は視野重なり判定部105の出力を受けて画像処理機能選択部106において行われる。次の映像解析部では追跡対象物体までの距離を遂次計算し、例えば追跡対象物体がある一定距離に設定した仮想平面を通過した場合にアラームを発報するなどのアプリケーションや、仮想平面を通過した人数をカウントするアプリケーションを実行する。同時に、映像解析部は遂次移動物体を追跡し、移動物体の画面上での位置情報から、移動物体が常に画像中心付近に見えるように雲台制御部107を制御する。   Next, when the tracking target object approaches the camera and the optical axes of the two cameras 301 and 302 are nearly horizontal, and -Th ≦ θ ≦ Th in step 310 of FIG. The mode is determined to be almost parallel, and the mode is switched to the mode for calculating the distance to the tracking target object. This determination is performed by the image processing function selection unit 106 in response to the output of the visual field overlap determination unit 105. In the next video analysis unit, the distance to the tracking target object is calculated sequentially, and for example, an alarm is issued when the tracking target object passes through a virtual plane set at a certain distance, or it passes through the virtual plane. Run an application that counts the number of people At the same time, the video analysis unit sequentially tracks the moving object, and controls the pan head control unit 107 from the position information on the screen of the moving object so that the moving object always appears near the center of the image.

この場合も、追跡対象物体が常に視野内で同じ大きさになるようにカメラ301,302の焦点距離を調節できる。このとき、焦点距離を変えた状態でも容易に距離計測できるようにするため、2台のカメラの焦点距離は同期して、常に同じ焦点距離値を持つようにする。   Also in this case, the focal lengths of the cameras 301 and 302 can be adjusted so that the tracking target object always has the same size in the field of view. At this time, the focal lengths of the two cameras are synchronized and always have the same focal length value so that the distance can be easily measured even when the focal length is changed.

次に図2(d)のように移動物体がカメラに近づいた場合には、2台のカメラから移動物体の同じ特徴点が見えなくなる場合がある。視野重なり判定部105ではこの状態を検知し、その情報を画像処理機能選択部106へ送る。画像処理機能選択部106は、例えば、同一物体を異なる視点から見た死角撮影が選択できる。図3のフローで説明すると、判定部309,310の判定結果を経て死角撮影311が行われる。カメラ間移動物体追跡308,パノラマ画像生成309,距離計測310,死角撮影311の何れかが行われた後、ステップ312では移動物体を追跡する。ステップ313で判定するように検出された移動物体が画像の中心付近で見えていれば、継続して物体の追跡を行い、移動物体が画像の中心付近から外れているか、もしくは視野から消えていたら、ステップ314で現フレームまでの追跡結果から移動量と移動方向を予測し、ステップ314で2台のカメラ301,302を制御し、再度物体検出部303で物体検出を行い、以上の処理を繰り返す。   Next, when the moving object approaches the camera as shown in FIG. 2D, the same feature point of the moving object may not be visible from the two cameras. The visual field overlap determination unit 105 detects this state and sends the information to the image processing function selection unit 106. The image processing function selection unit 106 can select, for example, blind spot imaging in which the same object is viewed from different viewpoints. If it demonstrates with the flow of FIG. 3, the blind spot imaging | photography 311 will be performed through the determination result of the determination parts 309 and 310. FIG. After any of the inter-camera moving object tracking 308, panoramic image generation 309, distance measurement 310, and blind spot photographing 311 is performed, in step 312, the moving object is tracked. If the detected moving object is visible near the center of the image as determined in step 313, the object is continuously tracked, and if the moving object is off from the vicinity of the center of the image or disappears from the field of view. In step 314, the amount and direction of movement are predicted from the tracking result up to the current frame. In step 314, the two cameras 301 and 302 are controlled, and the object detection unit 303 performs object detection again, and the above processing is repeated. .

物体の移動に応じてカメラが正対し、さらに移動物体が通り過ぎると今度は視野が重ならなくなるまで、上記と逆の順番で処理をしていく。この結果、最後には移動物体の全週画像が得られる。   The camera faces the camera according to the movement of the object, and when the moving object passes further, the process is performed in the reverse order until the fields of view no longer overlap each other. As a result, an all-week image of the moving object is finally obtained.

ここで、図3の視野の重なり程度を計算する部分の詳細について図4を使って示す。カメラ401,カメラ402でそれぞれ画像1(403),画像2(404)が撮像される。ステップ405で以降の処理を反復する回数を制御する変数TをT=0に初期化する。   Here, the details of the portion for calculating the overlapping degree of the visual field in FIG. 3 will be described with reference to FIG. An image 1 (403) and an image 2 (404) are captured by the camera 401 and the camera 402, respectively. In step 405, a variable T that controls the number of times the subsequent processing is repeated is initialized to T = 0.

次にステップ406において2枚の画像の特徴点対応計算を開始する。画像から抽出する特徴点としては、例えば画像のパターンからコーナーポイントを検出する。コーナーポイントを検出して画像間でマッチングする手段としては、例えば〔特許文献2〕に示されているSIFT(Scale Invariant Feature Tracking)が用いられる。ステップ407では2枚の画像間でのマッチング個数の判定を行う。ここでマッチング個数NがN≧7であれば、ステップ408で特徴点対応計算を終了し、ステップ409においてF行列の計算を行う。F行列は基礎行列とも呼ばれ、2台のカメラでシーンを撮影したときに、カメラ間のエピポーラ幾何拘束を定義する行列である。すなわち、一方の画像上の特徴点がもう一方の画像上のどの直線上に存在するかを決める行列であり、その直線をエピポーラ直線と呼ぶ(例えば、〔非特許文献1〕参照)。   Next, in step 406, the feature point correspondence calculation of the two images is started. As a feature point extracted from an image, for example, a corner point is detected from an image pattern. As means for detecting corner points and matching between images, for example, SIFT (Scale Invariant Feature Tracking) shown in [Patent Document 2] is used. In step 407, the number of matching between two images is determined. If the number of matching N is N ≧ 7, the feature point correspondence calculation is terminated in step 408, and the F matrix is calculated in step 409. The F matrix is also called a basic matrix, and is a matrix that defines epipolar geometric constraints between cameras when a scene is shot with two cameras. That is, it is a matrix that determines on which line on the other image the feature points on one image are located, and the straight line is called an epipolar line (see, for example, [Non-Patent Document 1]).

もし、2枚の画像のエピポーラ直線が並行であり、かつ高さ座標が同一であれば、例えば右画像の特徴点は左画像の同一高さの直線上をスキャンすることで左画像上の対応点を見つけることができる。これは2台のカメラの光軸が並行になっている並行ステレオをと呼ばれているカメラ状態であり、特徴点の左右画像でのずれは視差であり、視差から実空間におけるカメラから特徴点までの距離が計算される。F行列は特徴点の対応の組み合わせが最低7個あれば計算できるので、マッチング個数の下限しきい値をN=7としている。   If the epipolar lines of the two images are parallel and the height coordinates are the same, for example, the feature points of the right image correspond to the left image by scanning on the straight line of the same height of the left image. You can find a spot. This is a camera state called parallel stereo in which the optical axes of two cameras are parallel, and the deviation of the feature point between the left and right images is parallax, and the feature point from the camera in real space to parallax. The distance to is calculated. Since the F matrix can be calculated if there are at least seven corresponding combinations of feature points, the lower limit threshold value of the number of matching is N = 7.

ステップ410ではF行列が計算されたか、又は、されなかったかを判定する。F行列が計算されるということは2枚の画像間で特徴点の対応が取れていて、かつその個数が7個以上であることを意味しているので、この場合は2枚の画像が重なっていると判断する。その判定結果をステップ411として視野が重なっていると出力して処理を終了する。もしステップ410でF行列が何らかの理由、例えば2枚の画像の特徴点対応が間違って計算され、F行列の計算が正確に行われなかった場合には、2枚の画像は重なっていないと判断してステップ415で視野が重なっていない判定結果を出力する。   In step 410, it is determined whether the F matrix has been calculated or not. The fact that the F matrix is calculated means that there is correspondence between the feature points between the two images, and that the number is 7 or more. In this case, the two images overlap. Judge that The result of the determination is output in step 411 if the fields of view overlap, and the process is terminated. If the F matrix is calculated in step 410 for some reason, for example, if the correspondence between the feature points of the two images is erroneously calculated and the F matrix is not calculated correctly, it is determined that the two images do not overlap. In step 415, the determination result that the visual fields do not overlap is output.

ステップ407の判定部において、もし特徴点のマッチング個数Nが6個以下であればF行列を計算することができないため、ステップ406の2枚の画像の特徴点対応計算を反復する。ここで特徴点の対応個数が7以上になればステップ408以降の処理に進み、F行列が計算できるか否かを判定する。もし特徴点の対応が7個以上求められずに反復回数が上限しきい値であるMを越えた場合はステップ414で反復演算を終了し、2枚の画像は重なっていないと判断してステップ415で視野が重なっていない判定結果を出力する。   In the determination unit in step 407, if the number N of feature points matching is 6 or less, the F matrix cannot be calculated. Therefore, the feature point correspondence calculation of two images in step 406 is repeated. If the corresponding number of feature points is 7 or more, the process proceeds to step 408 and subsequent steps to determine whether the F matrix can be calculated. If seven or more feature point correspondences are not obtained and the number of iterations exceeds the upper limit threshold value M, the iteration operation is terminated in step 414, and it is determined that the two images do not overlap. In 415, a determination result that the visual fields do not overlap is output.

以上がマルチカメラシステムにおいて、2台のカメラが検出対象を追跡しながらカメラの向きを動的に変え、かつ各カメラの光軸向きの状態に応じて画像処理・画像認識アプリケーションを動的に切り替える手段を示したものである。カメラが2台以上存在する場合は、それらのうち、任意の2台の組み合わせで上記手段を実行できる。   In the multi-camera system, the two cameras dynamically change the camera direction while tracking the detection target, and dynamically switch the image processing / image recognition application according to the state of the optical axis direction of each camera. Means are shown. When there are two or more cameras, the above means can be executed by combining any two of them.

また図1において電動雲台103,104の制御情報、すなわち回転角度や回転スピードが雲台からパラメータ情報として抽出できる場合は、そのパラメータ情報に応じたアプリケーション機能をルックアップテーブルに保存しておき、自動、または手動によって雲台の回転角度が制御された場合に回転角度をルックアップテーブルに入力し、その出力として画像処理・画像認識アプリケーションを選べる機能を図1の画像処理機能選択部105に持たせることができる。この場合は視野の重なり程度を判定せずに、雲台の回転角度から直接画像処理アプリケーションを選択できる。この場合は画像処理機能選択部105が移動物体の検出結果に依存しないので、任意のカメラ方向を指定することで、例えばある特定距離と画各に入ってきた移動物体だけを待ち伏せて撮像し、特定の画像処理だけを行わせることができる。   In addition, in FIG. 1, when the control information of the electric camera platform 103, 104, that is, the rotation angle and the rotation speed can be extracted as parameter information from the camera platform, the application function corresponding to the parameter information is stored in the lookup table, The image processing function selection unit 105 in FIG. 1 has a function for inputting the rotation angle to the lookup table when the rotation angle of the camera platform is controlled automatically or manually and selecting an image processing / image recognition application as the output. Can be made. In this case, the image processing application can be selected directly from the rotation angle of the camera platform without determining the overlapping degree of the visual field. In this case, since the image processing function selection unit 105 does not depend on the detection result of the moving object, by designating an arbitrary camera direction, for example, only a certain distance and a moving object that has entered each image are ambushed and imaged. Only specific image processing can be performed.

このように、従来のマルチカメラシステムでは、例えばステレオカメラの場合、距離計測を行うために特性が等しい2台の撮像機器を頑健な筐体に固定する必要があったため、新たな筐体作成の費用が生じるとともに、距離計測以外のアプリケーション、具体的にはパノラマ画像生成や、複数の撮像機器間の人物追跡に使いまわすことが出来なかったが、これに対して、実施例で示した本発明のマルチカメラシステムによれば特定のアプリケーションに応じて撮像機器構成を限定する必要が無く、複数の画像認識アプリケーションを提供することを実現するものである。   Thus, in the case of a conventional multi-camera system, for example, in the case of a stereo camera, it is necessary to fix two imaging devices having the same characteristics to a robust housing in order to perform distance measurement. In addition to the cost, it could not be used for applications other than distance measurement, specifically for panoramic image generation and person tracking between multiple imaging devices. On the other hand, the present invention shown in the embodiment According to the multi-camera system, it is not necessary to limit the configuration of the imaging device according to a specific application, and it is possible to provide a plurality of image recognition applications.

本発明のマルチカメラシステムによれば、撮像機器を任意に設置してもマルチカメラシステム自体がその撮像機器設置に最適な画像認識アプリケーションを選択できるため、使い勝手のよい映像検知システムを提供することが実現できる。   According to the multi-camera system of the present invention, it is possible to provide an easy-to-use video detection system because the multi-camera system itself can select an optimal image recognition application for installing the imaging device even if the imaging device is installed arbitrarily. realizable.

マルチカメラシステムの構成を示した説明図である。It is explanatory drawing which showed the structure of the multi camera system. 移動物体を追跡するときのマルチカメラの動作形態を示した説明図である。It is explanatory drawing which showed the operation | movement form of the multi camera when tracking a moving object. 物体の検出結果に応じて、マルチカメラの画像処理機能を切り替えるための実施方法を示したフローチャートである。It is the flowchart which showed the implementation method for switching the image processing function of a multicamera according to the detection result of an object. 2台のカメラ視野の重なり程度を判定するための実施方法を示したフローチャートである。It is the flowchart which showed the implementation method for determining the overlapping degree of two camera visual fields.

符号の説明Explanation of symbols

101 メインカメラ
102 サブカメラ
103,104 電動雲台
105 視野重なり判定部
106 画像処理機能選択部
107 映像解析部
108 雲台制御部
201 左カメラ
202 右カメラ
203 検出対象物体
301,401 カメラ1
302,402 カメラ2
303 物体検出部
304 物体存在判定部
305 2毎の画像の重なり程度計算部
306 2毎の画像の重なり程度判定部
307 2台のカメラ光軸間角度の計算部
308 カメラ間オブジェクト追跡部
309 パノラマモードと距離計測モードの判定部
310 距離計測モードと死角撮影モードの判定部
311 死角撮影部
312 対象物体の追跡部
313 対象物体の位置判定部
314 カメラの雲台制御部、
403 画像データ1
404 画像データ2
405 反復回数の初期設定
406 2枚の画像の特徴点対応計算開始
407 マッチング個数の判定
408 特徴点対応計算終了
409 F行列計算部
410 F行列計算終了判定部
411 2つの画像の視野が重なっているフラグ
412 反復処理回数の更新
413 反復処理回数の更新回数の上限
414 特徴点対応計算終了
415 2つの画像の視野が重なっていないフラグ
DESCRIPTION OF SYMBOLS 101 Main camera 102 Sub camera 103,104 Electric pan head 105 View overlap judgment part 106 Image processing function selection part 107 Image | video analysis part 108 Pan head control part 201 Left camera 202 Right camera 203 Detection target object 301, 401 Camera 1
302, 402 Camera 2
303 Object Detection Unit 304 Object Presence Determining Unit 305 Image Overlap Degree Calculation Unit 306 2 Image Overlap Degree Determining Unit 307 Two Camera Optical Axis Angle Calculation Unit 308 Inter-Camera Object Tracking Unit 309 Panorama Mode Distance measurement mode determination unit 310 Distance measurement mode and blind spot imaging mode determination unit 311 Blind spot imaging unit 312 Target object tracking unit 313 Target object position determination unit 314 Camera platform control unit,
403 image data 1
404 Image data 2
405 Initial setting of number of repetitions 406 Feature point correspondence calculation start of two images 407 Matching number determination 408 Feature point correspondence calculation end 409 F matrix calculation unit 410 F matrix calculation end determination unit 411 Fields of view of two images overlap Flag 412 Update of the number of iterations 413 Upper limit of the number of iterations to update 414 Feature point correspondence calculation end 415 Flag that the fields of view of two images do not overlap

Claims (9)

少なくとも2台の撮像機器と、
該2台の撮像機器から得られる画像の重なり程度に応じて画像認識処理を切り替える手段と、
前記それぞれの撮像機器の光軸の向きを可動する電動雲台とを備え、
該電動雲台は前記画像認識処理の結果に応じて動的に制御することを特徴とするマルチカメラシステム。
At least two imaging devices;
Means for switching image recognition processing in accordance with the degree of overlap of images obtained from the two imaging devices;
An electric head that can move the direction of the optical axis of each imaging device;
The electric camera platform is dynamically controlled according to the result of the image recognition process.
請求項1のマルチカメラシステムにおいて、
撮像機器の視野の重なり具合に応じて画像認識処理を切り替える際、2台の撮像機器の視野が重なっている場合にはステレオ距離計測機能,立体物形状計測機能,パノラマ画像生成機能,死角撮影機能,人物行動解析機能のうち、すくなくとも一つの機能を実行し、2台の撮像機器の視野が重なっていない場合には、2台のカメラで検出対象の検出を行う機能を実行し、検出対象となる移動物体の位置と2台の撮像機器の光軸間の角度に応じて前記機能を切り替えることを特徴とするマルチカメラシステム。
The multi-camera system according to claim 1, wherein
When switching the image recognition process according to the overlap of the field of view of the imaging device, if the field of view of the two imaging devices overlaps, stereo distance measurement function, three-dimensional object shape measurement function, panoramic image generation function, blind spot shooting function , Execute at least one of the human behavior analysis functions, and execute a function of detecting a detection target with two cameras when the fields of view of the two imaging devices do not overlap. The multi-camera system is characterized in that the function is switched according to the position of the moving object and the angle between the optical axes of the two imaging devices.
請求項2のマルチカメラシステムにおいて、
前記画像認識処理の出力に応じて、少なくとも前記2つ以上の機能の組み合わせを行うことを特徴とするマルチカメラシステム。
The multi-camera system according to claim 2,
A multi-camera system comprising a combination of at least the two or more functions according to an output of the image recognition process.
請求項1から3のうちの1つのマルチカメラシステムにおいて、
前記画像の重なり程度を判定する処理方法として、2枚の画像に同時に見える特徴点を画像処理により検出してマッチングをとり、そのマッチング結果からエピポーラ幾何を計算して画像の重なり程度を判定する機能と、一方の画像を基準にしてもう一方の画像をずらしながら画像の重ね合わせを行い、重ね合わせの誤差が最小となるときの画像のずらし量を画像の重なり程度として出力する機能と、画像処理によって検出する検出対象、具体的には人物や車両、あるいは撮影シーンに存在する幾何学的な構造物、あるいはマルチカメラシステム向けに定義された特定マーカーを検出し、2枚の画像間における位置関係から画像の重なり程度を計算する機能のうち、少なくともいずれか一つの機能を備えることを特徴とするマルチカメラシステム。
The multi-camera system according to one of claims 1 to 3,
As a processing method for determining the degree of image overlap, a function for detecting feature points that appear simultaneously in two images by image processing, performing matching, and calculating epipolar geometry from the matching result to determine the degree of image overlap A function that superimposes images while shifting the other image with respect to one image, and outputs the amount of image displacement as the degree of image overlap when the overlay error is minimized, and image processing Detects a detection target, specifically a person or a vehicle, a geometric structure existing in a shooting scene, or a specific marker defined for a multi-camera system, and a positional relationship between two images A multi-camera system comprising at least one of the functions for calculating the degree of image overlap from Beam.
請求項1から4のうちの1つのマルチカメラシステムにおいて、
特性が異なる2台の撮像機器、具体的には解像度,フレームレート,シャッタースピード,絞り,レンズの明るさ,レンズの直径,レンズに取り付けるフィルタ,撮像可能波長領域のうち、少なくともいずれか一つが異なる撮像機器の組み合わせでも2枚の画像間で画像の重なり程度を計算することを特徴とするマルチカメラシステム。
The multi-camera system according to one of claims 1 to 4,
Two imaging devices with different characteristics, specifically, at least one of resolution, frame rate, shutter speed, aperture, lens brightness, lens diameter, filter attached to the lens, and imageable wavelength range are different A multi-camera system that calculates the degree of image overlap between two images even in a combination of imaging devices.
請求項1のマルチカメラシステムにおいて、
前記撮像機器の光軸の向きは電動雲台を使用せずに固定されており、2台の撮像機器間の光軸が成す角度が異なる少なくとも2つ以上の撮像機器のペアを備えたことを特徴とするマルチカメラシステム。
The multi-camera system according to claim 1, wherein
The direction of the optical axis of the imaging device is fixed without using an electric pan head, and at least two pairs of imaging devices having different angles formed by the optical axes between the two imaging devices are provided. A featured multi-camera system.
少なくとも2台の撮像機器と、
該2台の撮像機器から得られる画像の重なりを判定する手段と、
該画像重なり判定手段の出力に応じて画像認識処理を切り替える手段とを備えて、
前記撮像機器の撮像状態を制御することを特徴とするマルチカメラシステム。
At least two imaging devices;
Means for determining an overlap of images obtained from the two imaging devices;
Means for switching image recognition processing in accordance with the output of the image overlap determination means,
A multi-camera system that controls an imaging state of the imaging device.
請求項7のマルチカメラシステムにおいて、
該画像重なり判定手段の出力として、2台の撮像機器の視野が重なっている場合には、視野内の対象物に関する処理を行い、2台の撮像機器の視野が重なっていない場合には、2台の撮像機器で対象物の検出を行うことを特徴とするマルチカメラシステム。
The multi-camera system according to claim 7.
When the field of view of the two imaging devices overlaps as an output of the image overlap determination means, processing related to the object in the field of view is performed, and when the field of view of the two imaging devices does not overlap, 2 A multi-camera system characterized in that an object is detected by one imaging device.
請求項7のマルチカメラシステムにおいて、
前記像機器の光軸の向きを可動する電動雲台を備えて、
該電動雲台は前記画像重なり判定手段の出力に応じて制御することを特徴とするマルチカメラシステム。
The multi-camera system according to claim 7.
An electric pan head that moves the direction of the optical axis of the image equipment is provided,
The multi-camera system characterized in that the electric head is controlled in accordance with the output of the image overlap judging means.
JP2007243212A 2007-09-20 2007-09-20 Multi camera system Expired - Fee Related JP4979525B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007243212A JP4979525B2 (en) 2007-09-20 2007-09-20 Multi camera system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007243212A JP4979525B2 (en) 2007-09-20 2007-09-20 Multi camera system

Publications (2)

Publication Number Publication Date
JP2009077092A true JP2009077092A (en) 2009-04-09
JP4979525B2 JP4979525B2 (en) 2012-07-18

Family

ID=40611661

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007243212A Expired - Fee Related JP4979525B2 (en) 2007-09-20 2007-09-20 Multi camera system

Country Status (1)

Country Link
JP (1) JP4979525B2 (en)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5002066B1 (en) * 2011-04-06 2012-08-15 シャープ株式会社 Image processing apparatus, image processing method, computer program, and recording medium
CN104618650A (en) * 2015-01-30 2015-05-13 苏州阔地网络科技有限公司 Movement detection method and device through combination between front image acquisition device and side image acquisition device
JP2017130798A (en) * 2016-01-20 2017-07-27 キヤノン株式会社 Photographing system, information processor and control method therefor, and computer program
US9842259B2 (en) 2011-01-17 2017-12-12 Panasonic Intellectual Property Management Co., Ltd. Captured image recognition device, captured image recognition system, and captured image recognition method
KR101813617B1 (en) * 2016-05-18 2017-12-29 광운대학교 산학협력단 Camera rig method for acquiring 3d data, camera rig system performing the same, and storage medium storing the same
JP2019050047A (en) * 2018-12-04 2019-03-28 パイオニア株式会社 Information processing apparatus
JP2019165501A (en) * 2019-06-05 2019-09-26 日本電気株式会社 Tracking system, tracking method and tracking program
WO2019230813A1 (en) * 2018-05-30 2019-12-05 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ Three-dimensional reconstruction method and three-dimensional reconstruction device
JP2020031421A (en) * 2018-07-30 2020-02-27 アクシス アーベー Method and camera system combining views from plurality of cameras
JP2021036440A (en) * 2020-10-26 2021-03-04 パイオニア株式会社 Information processing apparatus
CN113163167A (en) * 2021-03-31 2021-07-23 杭州海康机器人技术有限公司 Image acquisition method and device

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10134187A (en) * 1996-10-31 1998-05-22 Nec Corp Three-dimensional structure estimating device
JP2004279111A (en) * 2003-03-13 2004-10-07 Minolta Co Ltd Measuring system
JP2006033570A (en) * 2004-07-20 2006-02-02 Olympus Corp Image generating device

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10134187A (en) * 1996-10-31 1998-05-22 Nec Corp Three-dimensional structure estimating device
JP2004279111A (en) * 2003-03-13 2004-10-07 Minolta Co Ltd Measuring system
JP2006033570A (en) * 2004-07-20 2006-02-02 Olympus Corp Image generating device

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9842259B2 (en) 2011-01-17 2017-12-12 Panasonic Intellectual Property Management Co., Ltd. Captured image recognition device, captured image recognition system, and captured image recognition method
JP5002066B1 (en) * 2011-04-06 2012-08-15 シャープ株式会社 Image processing apparatus, image processing method, computer program, and recording medium
WO2012137520A1 (en) * 2011-04-06 2012-10-11 シャープ株式会社 Image processing device, image processing method, computer program, and recording medium
CN104618650A (en) * 2015-01-30 2015-05-13 苏州阔地网络科技有限公司 Movement detection method and device through combination between front image acquisition device and side image acquisition device
JP2017130798A (en) * 2016-01-20 2017-07-27 キヤノン株式会社 Photographing system, information processor and control method therefor, and computer program
KR101813617B1 (en) * 2016-05-18 2017-12-29 광운대학교 산학협력단 Camera rig method for acquiring 3d data, camera rig system performing the same, and storage medium storing the same
JP7227969B2 (en) 2018-05-30 2023-02-22 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ Three-dimensional reconstruction method and three-dimensional reconstruction apparatus
JPWO2019230813A1 (en) * 2018-05-30 2021-07-08 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 3D reconstruction method and 3D reconstruction device
WO2019230813A1 (en) * 2018-05-30 2019-12-05 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ Three-dimensional reconstruction method and three-dimensional reconstruction device
JP2020031421A (en) * 2018-07-30 2020-02-27 アクシス アーベー Method and camera system combining views from plurality of cameras
JP2019050047A (en) * 2018-12-04 2019-03-28 パイオニア株式会社 Information processing apparatus
JP2019165501A (en) * 2019-06-05 2019-09-26 日本電気株式会社 Tracking system, tracking method and tracking program
JP2021036440A (en) * 2020-10-26 2021-03-04 パイオニア株式会社 Information processing apparatus
CN113163167A (en) * 2021-03-31 2021-07-23 杭州海康机器人技术有限公司 Image acquisition method and device
CN113163167B (en) * 2021-03-31 2023-04-28 杭州海康机器人股份有限公司 Image acquisition method and device

Also Published As

Publication number Publication date
JP4979525B2 (en) 2012-07-18

Similar Documents

Publication Publication Date Title
JP4979525B2 (en) Multi camera system
CN109922251B (en) Method, device and system for quick snapshot
JP5613041B2 (en) Camera device, image processing system, and image processing method
TWI764024B (en) Method and camera system combining views from plurality of cameras
JP5625976B2 (en) IMAGING DEVICE, IMAGING DEVICE CONTROL METHOD, AND PROGRAM
CN105574847B (en) Camera system and image registration method thereof
KR20150050172A (en) Apparatus and Method for Selecting Multi-Camera Dynamically to Track Interested Object
JP6065629B2 (en) Object detection device
KR101452342B1 (en) Surveillance Camera Unit And Method of Operating The Same
JP2005142683A (en) Apparatus and method for camera control
US8218961B2 (en) Autofocus system
JP3988574B2 (en) Image processing device
JP6602081B2 (en) Imaging apparatus and control method thereof
JP2009047498A (en) Stereoscopic imaging device, control method of stereoscopic imaging device, and program
JP2017037103A (en) Imaging apparatus
JP5454392B2 (en) Ranging device and imaging device
JP2018201146A (en) Image correction apparatus, image correction method, attention point recognition apparatus, attention point recognition method, and abnormality detection system
KR100958352B1 (en) Monitoring method
JP6734994B2 (en) Stereo measuring device and system
KR20130104068A (en) Wide area survillance system and method of photographing a moving object
US20130076868A1 (en) Stereoscopic imaging apparatus, face detection apparatus and methods of controlling operation of same
JP2020057967A (en) Image processing device, imaging device, control method of image processing device, and program
JP2006033188A (en) Supervisory apparatus and supervisory method
Neves et al. A master-slave calibration algorithm with fish-eye correction
JP3564383B2 (en) 3D video input device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090327

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110531

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110628

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110829

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120321

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120417

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150427

Year of fee payment: 3

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees