JP4812099B2 - Camera position detection method - Google Patents

Camera position detection method Download PDF

Info

Publication number
JP4812099B2
JP4812099B2 JP2006156780A JP2006156780A JP4812099B2 JP 4812099 B2 JP4812099 B2 JP 4812099B2 JP 2006156780 A JP2006156780 A JP 2006156780A JP 2006156780 A JP2006156780 A JP 2006156780A JP 4812099 B2 JP4812099 B2 JP 4812099B2
Authority
JP
Japan
Prior art keywords
camera
cameras
data processing
photographing
panoramic
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2006156780A
Other languages
Japanese (ja)
Other versions
JP2007327750A (en
Inventor
健司 岩田
雄隆 佐藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
National Institute of Advanced Industrial Science and Technology AIST
Original Assignee
National Institute of Advanced Industrial Science and Technology AIST
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by National Institute of Advanced Industrial Science and Technology AIST filed Critical National Institute of Advanced Industrial Science and Technology AIST
Priority to JP2006156780A priority Critical patent/JP4812099B2/en
Publication of JP2007327750A publication Critical patent/JP2007327750A/en
Application granted granted Critical
Publication of JP4812099B2 publication Critical patent/JP4812099B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Image Processing (AREA)
  • Studio Devices (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Measurement Of Optical Distance (AREA)

Description

本発明は、複数のカメラの位置を人手を介することなく自動で検出することができるカメラ位置検出方法に関するものである。   The present invention relates to a camera position detection method capable of automatically detecting the positions of a plurality of cameras without involving human hands.

複数のカメラを協調させてモニタリングを行う監視装置においては、カメラの設置位置や方向などを正確に調整する必要がある(カメラ位置のキャリブレーション)。例えば、カメラAが追跡していた人物がカメラAの守備範囲外に出る場合、隣接する領域に守備範囲を持つカメラBに追跡を引き継ぐことを考える。このときカメラAとカメラBの位置関係(およびそれぞれの設置方向)が既知であれば、それぞれが共通の座標系を持つことになり、容易にカメラ間での情報交換を行うことができる。   In a monitoring apparatus that performs monitoring by coordinating a plurality of cameras, it is necessary to accurately adjust the installation position and direction of the camera (camera position calibration). For example, when the person tracked by the camera A goes out of the defense range of the camera A, it is considered that the tracking is taken over by the camera B having the defense range in an adjacent area. At this time, if the positional relationship between the cameras A and B (and their installation directions) is known, each has a common coordinate system, and information can be easily exchanged between the cameras.

一方、両者間の位置関係が未知である場合、互いに共通の座標系を持たないため、情報交換を行うことができない。このため、複数のカメラを協調させて動作させる場合には、共通の座標系を設けるためにカメラ位置のキャリブレーションを行う必要がある。   On the other hand, when the positional relationship between the two is unknown, information cannot be exchanged because they do not have a common coordinate system. For this reason, when operating a plurality of cameras in cooperation, it is necessary to calibrate the camera position in order to provide a common coordinate system.

しかしながら、カメラ位置のキャリブレーションには専門的な知識と、多くの時間を要する。特に、例えば、イベント会場でのセキュリティ向上のために運用する場合などにおいては、設置/撤去が頻繁に行われることになり、設置のたびに大きなコストをかけてカメラ位置のキャリブレーションを行うことになる。   However, calibration of the camera position requires specialized knowledge and a lot of time. In particular, for example, when operating to improve security at event venues, installation / removal is frequently performed, and the camera position is calibrated at a high cost for each installation. Become.

このカメラ位置のキャリブレーションの手間を軽減することは、複数のカメラを協調させてモニタリングを行う監視装置における最重要課題の1つとなっている。   Reducing the labor of camera position calibration is one of the most important issues in a monitoring apparatus that performs monitoring by coordinating a plurality of cameras.

カメラ位置のキャリブレーションに関する公知文献として、つぎのような特許文献1および特許文献2が参照できる。例えば、特許文献1においては、ステレオカメラシステムのストレオカメラ同士のキャリブレーション方法が提案されている。このキャリブレーション方法では、第1および第2のステレオカメラがそれぞれ捉えた人物の数が同数の場合に、一方のステレオカメラが捉えた(各)人物に相関する投影人物領域の位置と他方のステレオカメラが捉えた(各)人物に相関する投影人物領域の位置とを比較し、位置がずれていた場合に、例えば投影人物領域の重心位置を一致させるようキャリブレーション補正を行う。   The following patent document 1 and patent document 2 can be referred to as publicly known documents relating to camera position calibration. For example, Patent Document 1 proposes a calibration method between stereo cameras of a stereo camera system. In this calibration method, when the number of persons captured by the first and second stereo cameras is the same, the position of the projected person area correlated with the (each) person captured by one stereo camera and the other stereo The position of the projected person area correlated with the (each) person captured by the camera is compared, and if the position is shifted, calibration correction is performed so that, for example, the position of the center of gravity of the projected person area coincides.

また、特許文献2においては、ユーザの顔を撮影するカメラの画像出力から顔の動きを計測すると同時に、背景マーカを計測することによりカメラキャリブレーションを行う顔情報計測システムが提案されている。この顔情報計測システムによれば、顔の動きの計測中にも、同時にカメラキャリブレーションを行うことで、ステレオカメラの位置の変化、ズームの変化などに対応できる。
特開2005−233639号公報 特開2005−267258号公報
Further, Patent Document 2 proposes a face information measurement system that performs camera calibration by measuring a face marker from an image output of a camera that captures a user's face and simultaneously measuring a background marker. According to this face information measurement system, it is possible to cope with a change in the position of the stereo camera, a change in zoom, and the like by performing camera calibration at the same time while measuring the movement of the face.
Japanese Patent Laying-Open No. 2005-233639 JP 2005-267258 A

ところで、カメラ位置キャリブレーションにはいくつかの方法があるが、例えば、カメラAとカメラBのカメラ位置キャリブレーションを行う場合、カメラAで撮影した画像中にカメラBが(あるいはカメラBで撮影した画像中にカメラAが)写っている場合、互いの位置関係を求める上での大きな手がかりとなる。このとき、カメラAで撮影した画像中でのカメラBの位置を知る、すなわちカメラAで撮影した画像の中からカメラBの姿を見つけ出す必要があるが、一般には、その自動検出は難しい。   By the way, there are several methods for camera position calibration. For example, when camera position calibration of camera A and camera B is performed, camera B (or camera B) captures images captured by camera A. When the camera A is captured in the image, this is a big clue for obtaining the mutual positional relationship. At this time, it is necessary to know the position of the camera B in the image photographed by the camera A, that is, to find the appearance of the camera B from the image photographed by the camera A, but in general, automatic detection is difficult.

本発明は、上記のような問題を解決するためになされたものであり、本発明の目的は、複数のカメラの位置を人手を介することなく、自動で検出することができるカメラ位置検出方法を提供することにある。   The present invention has been made to solve the above-described problems, and an object of the present invention is to provide a camera position detection method capable of automatically detecting the positions of a plurality of cameras without manual intervention. It is to provide.

上記のような目的を達成するため、本発明によるカメラ位置検出方法は、カメラの動作を制御する駆動機構をそれぞれに有する複数のカメラと、前記複数のカメラを撮影するパノラマカメラと、前記複数のカメラおよび前記パノラマカメラを制御すると共に各カメラの撮像画像を入力してデータ処理を行うデータ処理装置を有し、前記複数のカメラおよび前記パノラマカメラからの撮像画像によりカメラの位置関係を求めるカメラ位置検出方法であって、前記パノラマカメラにより前記複数のカメラを撮影する第1ステップと、前記駆動機構を制御して前記複数のカメラを動作させる第2ステップと、前記パノラマカメラにより前記複数のカメラを動作させた後の複数のカメラを撮影する第3ステップと、前記複数のカメラの動作の前後のカメラを撮像した差分画像のデータにより撮影画像中の複数のカメラを特定するデータ処理を行う第4ステップと、前記特定された複数のカメラが撮像されている画像により前記複数のカメラの位置を算出するデータ処理を行う第5ステップとを有することを特徴とするものである。   In order to achieve the above object, a camera position detection method according to the present invention includes a plurality of cameras each having a drive mechanism for controlling the operation of a camera, a panoramic camera for photographing the plurality of cameras, and the plurality of the plurality of cameras. A camera position for controlling the camera and the panoramic camera and having a data processing device for inputting data captured by each camera and performing data processing, and obtaining a positional relationship of the cameras based on the images captured from the plurality of cameras and the panoramic camera A detection method comprising: a first step of photographing the plurality of cameras with the panoramic camera; a second step of operating the plurality of cameras by controlling the drive mechanism; and the panoramic camera to detect the plurality of cameras. A third step of photographing a plurality of cameras after the operation, and a camera before and after the operations of the plurality of cameras. The fourth step of performing data processing for specifying a plurality of cameras in the captured image based on the difference image data obtained by imaging the camera, and calculating the positions of the plurality of cameras from the images captured by the specified plurality of cameras And a fifth step for performing data processing to be performed.

この場合に、カメラの動作を制御する駆動機構は、カメラのパン・チルト・ズーム機能の駆動機構であり、また、カメラにはマークを付け、第4ステップにおいては、カメラに付加されたマークを検出して複数のカメラを特定するように構成されてもよい。また、ここでのパノラマカメラとして、カメラの動作を制御する駆動機構をそれぞれに有する複数のカメラのうちの1つを用いるようにしてもよい。   In this case, the drive mechanism for controlling the operation of the camera is a drive mechanism for the pan / tilt / zoom function of the camera, and a mark is attached to the camera. In the fourth step, the mark added to the camera is attached. It may be configured to detect and identify a plurality of cameras. Further, as the panoramic camera here, one of a plurality of cameras each having a drive mechanism for controlling the operation of the camera may be used.

本発明によるカメラ位置検出方法によれば、例えば、カメラのパン・チルト・ズーム機能の駆動機構などによるカメラの物理的な運動を行わせ、動きの前後で画像の差分をとることにより、動きのあるカメラを画像中から特定し、その特定されたカメラを検出することができる。これにより、人手を介することなく、自動的に画像中に写るカメラの位置を検出することができる。   According to the camera position detection method of the present invention, for example, a physical movement of the camera is performed by a driving mechanism of the camera pan / tilt / zoom function, and the difference between the images before and after the movement is obtained. A certain camera can be identified from the image and the identified camera can be detected. Accordingly, it is possible to automatically detect the position of the camera that appears in the image without any manual intervention.

具体的には、パン・チルト・ズームカメラ(PTZカメラ)のように、カメラの動作を制御するための駆動機構を制御し、その動きの前後におけてカメラを撮影することにより、動きのあるカメラを画像中において特定し、特定されたカメラの位置を、撮影方向が異なるカメラで撮影した複数枚の画像からカメラの位置を算出する。これにより、画像中におけるカメラ位置を自動的に検出する。従来、手動で手間をかけて行っていたカメラ位置の指定が自動化され、カメラ位置キャリブレーションの手間の軽減に大きく貢献する。   Specifically, a panning / tilting / zooming camera (PTZ camera), such as a pan / tilt / zoom camera (PTZ camera), controls a driving mechanism for controlling the operation of the camera, and the camera is photographed before and after the movement, thereby moving The camera is identified in the image, and the position of the identified camera is calculated from a plurality of images photographed by cameras having different photographing directions. Thereby, the camera position in the image is automatically detected. Conventionally, the specification of the camera position, which has been done manually, is automated, which greatly contributes to the reduction of the trouble of camera position calibration.

以下、図面を参照して、本発明の実施例について説明する。図1は、本発明によるカメラ位置検出方法を一態様で実施するためのシステムの構成を説明する図である。図1において、11はカメラ位置の検出対象となる第1のカメラ、12は同じくカメラ位置の検出対象となる第2のカメラである。第1のカメラ11および第2のカメラ12は、それぞれにパン・チルト・ズーム機能のための駆動機構を有しており、図示しない制御装置によりその動作が制御される。また、13は広い視野角を有するパノラマカメラであり、パノラマカメラ13についても、図示しない制御装置によりその動作が制御される。   Embodiments of the present invention will be described below with reference to the drawings. FIG. 1 is a diagram illustrating the configuration of a system for carrying out the camera position detection method according to the present invention in one aspect. In FIG. 1, reference numeral 11 denotes a first camera that is a camera position detection target, and reference numeral 12 denotes a second camera that is also a camera position detection target. Each of the first camera 11 and the second camera 12 has a drive mechanism for pan / tilt / zoom functions, and its operation is controlled by a control device (not shown). Reference numeral 13 denotes a panoramic camera having a wide viewing angle. The operation of the panoramic camera 13 is also controlled by a control device (not shown).

また、図1において、100はキーボードおよびマウスからの入力操作を受け付けるとともに外部から測定データを入力するための入力ポートを備えた入力部、101は例えば数値データ等の入力操作のためのキーボード、102はシステムを操作する入力操作のためのポインティングデバイスのマウスである。103はマイクロプロセッサ(CPU)およびメモリなどのシステム装置から構成される演算部、104は例えばディスプレイ装置から構成される出力部、105はハードディスク装置などから構成されるデータ格納装置である。   In FIG. 1, reference numeral 100 denotes an input unit that receives an input operation from a keyboard and mouse and has an input port for inputting measurement data from the outside. Reference numeral 101 denotes a keyboard for input operation such as numerical data. Is a pointing device mouse for input operation to operate the system. Reference numeral 103 denotes an arithmetic unit composed of a system device such as a microprocessor (CPU) and a memory, 104 denotes an output unit composed of, for example, a display device, and 105 denotes a data storage device composed of a hard disk device or the like.

データ格納装置105には、入力部100および演算部103を介して、第1のカメラ11,第2のカメラ12、パノラマカメラ13により撮像された画像データが一時的に格納されると共に、演算部103により、データ格納部105に格納された画像データが読み出されて、演算部103において、この画像データに対するデータ処理が行われて、カメラ位置を検出する計算が行われる。   The data storage device 105 temporarily stores the image data captured by the first camera 11, the second camera 12, and the panoramic camera 13 via the input unit 100 and the calculation unit 103, and the calculation unit. 103 reads out the image data stored in the data storage unit 105, and the calculation unit 103 performs data processing on the image data to perform calculation for detecting the camera position.

システム構成において、パノラマカメラ13としては、例えば、Point Gray Research社製の「Ladybug2」を用いており、第1のカメラ11および第2のカメラ12としては、例えば、SONY株式会社製の「EVI−D100」を用いている。ここでの入力部100、キーボード101、マウス102、演算部103、出力部104およびデータ格納部105としては、これらの機能を有するパーソナルコンピュータシステムを用いることができる。また、そのパーソナルコンピュータシステムを、第1のカメラ11,第2のカメラ12、パノラマカメラ13を制御するための制御装置として機能させるようにしてもよい。   In the system configuration, the panoramic camera 13 uses, for example, “Ladybug 2” manufactured by Point Gray Research, and the first camera 11 and the second camera 12 include, for example, “EVI-” manufactured by SONY Corporation. D100 "is used. As the input unit 100, the keyboard 101, the mouse 102, the arithmetic unit 103, the output unit 104, and the data storage unit 105, a personal computer system having these functions can be used. In addition, the personal computer system may function as a control device for controlling the first camera 11, the second camera 12, and the panoramic camera 13.

第1のカメラ11および第2のカメラ12であるPTZカメラの位置を検出するために、基本的な動作として、(1)PTZカメラの物理的な運動を背景差分法、フレーム間差分法、オプティカルフロー、パターンマッチングなどの差分検出技術全般のいずれかを用いて検出する。   In order to detect the positions of the PTZ cameras which are the first camera 11 and the second camera 12, the basic operations are as follows: (1) The physical motion of the PTZ camera is determined by the background subtraction method, the interframe difference method, the optical Detection is performed using any of the difference detection techniques such as flow and pattern matching.

また、ここではカメラ位置を検出する精度を向上させるために、次のように工夫されてもよい。
(1)PTZカメラ運動前の差分画像のNOTにはカメラと、静止領域が含まれる。
(2)PTZカメラ運動後の差分画像にはカメラと、動領域・ノイズなどが含まれる。
(3)(1)(2)のANDをとることで動物体・ノイズなどを含むカメラ領域を得る。
(4)(3)を複数回繰り返し、全てのANDをとることでカメラのみを検出する。
Here, in order to improve the accuracy of detecting the camera position, the following may be devised.
(1) The NOT of the difference image before the PTZ camera motion includes a camera and a still area.
(2) The difference image after the PTZ camera motion includes a camera and a moving area / noise.
(3) By taking the AND of (1) and (2), a camera area including a moving object and noise is obtained.
(4) Repeating (3) a plurality of times and taking all ANDs to detect only the camera.

(5)カメラに検出しやすいマークを付ける。
(6)様々なカメラ姿勢において得た処理結果を統合し、より正確な位置検出を行う。
ようにされてもよい。
(5) Mark the camera for easy detection.
(6) The processing results obtained in various camera postures are integrated to perform more accurate position detection.
It may be made like.

また、上記のシステム構成では、1台のパノラマカメラと複数のPTZカメラを使用して、パノラマカメラ(13)とPTZカメラ(11,12)の位置関係を自動的に求めるようにしており、検出対象を広範囲とするためにパノラマカメラを用いたが、このパノラマカメラは、例えば、目的に応じて通常の固定カメラ、PTZカメラなどに置き換えることができる。   In the above system configuration, one panoramic camera and a plurality of PTZ cameras are used to automatically obtain the positional relationship between the panoramic camera (13) and the PTZ cameras (11, 12). Although a panoramic camera is used to make the object wide, this panoramic camera can be replaced with, for example, a normal fixed camera or a PTZ camera depending on the purpose.

システムの設置を容易にするため、本発明にかかるカメラ位置検出方法による簡易キャリブレーションを自動的に行う。この場合のカメラを設置する場合の制約条件は以下の2点である。
(1) 互いのカメラが見える位置に設置する。
(2) PTZカメラからパノラマカメラの方向を検出するためにカメラを地面と水平となるように設置する。
In order to facilitate the installation of the system, simple calibration is automatically performed by the camera position detection method according to the present invention. In this case, there are the following two restrictions when installing the camera.
(1) Install the camera where each other's cameras can be seen.
(2) In order to detect the direction of the panoramic camera from the PTZ camera, the camera is installed so as to be horizontal with the ground.

図2は、本発明にかかるカメラ位置検出方法による簡易キャリブレーション処理の処理フローを示すフローチャートである。ここでの簡易キャリプレーションのデータ処理は、図2に示すような処理フローにより行われるが、これについて概要を説明する。   FIG. 2 is a flowchart showing a process flow of the simple calibration process by the camera position detection method according to the present invention. The data processing of simple calibration here is performed according to the processing flow as shown in FIG. 2, and an outline of this will be described.

簡易キャリプレーションでは、まず、パノラマカメラから見たPTZカメラの位置を発見する。基本的には、PTZカメラを首振り動作させ、その動きをパノラマ画像中から検出することでPTZカメラを発見する。ただしパノラマ画像は、広範囲を撮影しているため、PTZカメラ以外の動物体や、ノイズなども含まれている。そこで、差分検出技術とPTZカメラの首振り動作を同期させることで、ロバストにPTZカメラの位置を検出する。   In simple calibration, first, the position of the PTZ camera viewed from the panoramic camera is found. Basically, the PTZ camera is detected by detecting the movement of the PTZ camera in a panoramic image. However, since the panoramic image captures a wide range, it includes a moving object other than the PTZ camera, noise, and the like. Therefore, the position of the PTZ camera is detected robustly by synchronizing the difference detection technique and the swinging motion of the PTZ camera.

画像中の任意の位置pにおける、背景撮影時と異なるパン・チルト角での差分検出結果をI(p)、同じパン・チルト角での差分検出結果をJ(p)とする。tは画像の取得回数で、t=1,2,3…とする。I(p)、J(p)は2値画像で、差分のない場合は0、ある場合を1とする。 A difference detection result at a pan / tilt angle different from that at the time of background photographing at an arbitrary position p in the image is I t (p), and a difference detection result at the same pan / tilt angle is J t (p). t is the number of image acquisitions, and t = 1, 2, 3,. I t (p) and J t (p) are binary images, and are 0 when there is no difference and 1 when there is a difference.

当然I(p)中にはPTZカメラの領域は1になり、J(p)では0になる。このことを利用し、PTZカメラ候補領域K(p)は、
で求められる。ここで・は論理積(and)、 ̄はビット反転(not)を表す。ただしこのK(p)には、PTZカメラ以外に、J(p)における動物体領域と、I(p)における静止領域や、照明のちらつき等によるノイズが含まれている。そこで、PTZカメラを繰り返し駆動させ、複数のK(p)を取得し、その論理積を取ることで、PTZカメラ以外の領域を除去する。具体的にはL(p)=1として、
を算出しラベリングを行い、L(p)に一定範囲の大きさの連結領域が1つだけになるまで繰り返す。これによりPTZカメラのみを検出する。
Naturally region of PTZ cameras in I t (p) becomes 1, becomes 0 in J t (p). Using this fact, the PTZ camera candidate region K t (p)
Is required. Here, · represents a logical product (and), and  ̄ represents bit inversion (not). However, in addition to the PTZ camera, this K t (p) includes a moving body region in J t (p), a stationary region in I t (p), noise due to flickering of illumination, and the like. Therefore, the PTZ camera is repeatedly driven, a plurality of K t (p) is acquired, and the logical product is taken to remove the area other than the PTZ camera. Specifically, assuming L 0 (p) = 1,
And labeling is repeated until L t (p) has only one connected region having a certain size range. As a result, only the PTZ camera is detected.

図3は、カメラ位置検出方法により実際にカメラ位置の検出を行ったデータ処理を画像を例示して説明する図である。背景撮影時と異なるパン・チルト角での画像が図3(a)であり、このときの差分画像が図3(b)である。PTZカメラは画像中央付近の三脚上に設置してある。このように、PTZカメラが差分領域として得られているが、それ以外に動いている人物や、ノイズが多く見られる。背景撮影時と同じパン・チルト角での画像が図3(c)であり、このときの差分画像が(d)である。このとき、PTZカメラは差分領域に現れないので、ビットを反転して、図3(b)の画像との論理積を取ることにより、PTZカメラ領域を残したまま、図3(e)のようにノイズや人物などを消すことができる。   FIG. 3 is a diagram for explaining the data processing in which the camera position is actually detected by the camera position detecting method with the image illustrated. FIG. 3A shows an image at a pan / tilt angle different from that at the time of background photographing, and FIG. 3B shows a difference image at this time. The PTZ camera is installed on a tripod near the center of the image. As described above, the PTZ camera is obtained as the difference area, but a lot of moving people and noise are seen. FIG. 3C shows an image at the same pan / tilt angle as in the background photographing, and FIG. 3D shows the difference image at this time. At this time, since the PTZ camera does not appear in the difference area, the bit is inverted and the logical product with the image of FIG. 3B is taken to leave the PTZ camera area as shown in FIG. Noise and people can be erased.

ただし、この場合でも、図3(a)の時点で動いていて、図3(c)の時点で静止していると判断された領域が残っている。もう一度画像を取得し、PTZカメラ候補領域の論理積をとることで、図3(f)のように大部分のノイズを消すことができる。これを連結領域が一つになるまで繰り返すことで、図3(g)のようにPTZカメラ領域のみを得ることができる。   However, even in this case, there remains a region that is moving at the time of FIG. 3A and determined to be stationary at the time of FIG. 3C. By acquiring the image once again and taking the logical product of the PTZ camera candidate areas, most of the noise can be eliminated as shown in FIG. By repeating this until there is one connected area, only the PTZ camera area can be obtained as shown in FIG.

次に、PTZカメラより、パノラマカメラの位置を探し出し、パン・チルトの姿勢と、カメラ間の距離を求める。パノラマカメラはPTZカメラのように機械的に運動させることができないため、画像内のパノラマカメラの形状および色などの画像の特徴から探し出す。ただし、パノラマカメラからPTZカメラの方向は既に分かっているため、チルト角を固定にして、パン角のラインサーチで済む。ここで、利用したパノラマカメラのLadybug2は、赤色の円筒形状をしており、この特徴的な色と形状を検出することによって、パノラマカメラを検出する。形状や色の特徴を持たないパノラマカメラを用いる場合は、発見が容易なマーカをカメラ本体に付加する。カメラ間の距離は、PTZカメラのズーム値と撮影されたパノラマカメラの大きさの関係、およびオートフォーカス値を使用して求める。   Next, the position of the panoramic camera is searched from the PTZ camera, and the pan / tilt posture and the distance between the cameras are obtained. Since a panoramic camera cannot be moved mechanically like a PTZ camera, it is searched from image features such as the shape and color of the panoramic camera in the image. However, since the direction from the panoramic camera to the PTZ camera is already known, the tilt angle is fixed and the line search for the pan angle is sufficient. Here, Ladybug 2 of the used panoramic camera has a red cylindrical shape, and the panoramic camera is detected by detecting this characteristic color and shape. When using a panoramic camera having no shape or color feature, a marker that is easy to find is added to the camera body. The distance between the cameras is obtained using the relationship between the zoom value of the PTZ camera and the size of the panoramic camera that has been shot, and the autofocus value.

社会的なセキュリティ意識の高まりにより監視カメラシステムの需要は急速に高まっている。従来は、単一のカメラが単独で画像を記録するレベルの製品が主流であったが、今後は複数のカメラを協調させて広範囲を同時且つ協調的に監視するためのシステムのニーズが高まることが予想されている。   Due to the heightened social security awareness, the demand for surveillance camera systems is rapidly increasing. In the past, products with a level where an image was recorded by a single camera were the mainstream, but in the future, there will be an increasing need for systems for coordinating multiple cameras to monitor a wide area simultaneously and cooperatively. Is expected.

このようなシステムにおける最大の難点はその設置にかかるコストである。設置のたびに専門家が時間をかけて精密にカメラ設置の調整を行うことは大きなコスト増大をもたらす。本発明はこの作業を自動化するために必要な要素技術であり、産業上の利用価値は極めて高い。   The biggest difficulty in such a system is the cost of its installation. It takes a lot of time for the specialists to adjust the camera installation precisely over time for each installation. The present invention is an elemental technology necessary for automating this work, and its industrial utility value is extremely high.

本発明にかかるカメラ位置検出方法を一態様で実施するシステム構成を説明する図である。It is a figure explaining the system configuration which implements the camera position detection method concerning the present invention by one mode. 本発明にかかるカメラ位置検出方法による簡易キャリブレーション処理の処理フローを示すフローチャートである。It is a flowchart which shows the process flow of the simple calibration process by the camera position detection method concerning this invention. カメラ位置検出方法により実際にカメラ位置の検出を行ったデータ処理を画像を例示して説明する図である。It is a figure explaining the data processing which actually detected the camera position by the camera position detection method, exemplifying an image.

符号の説明Explanation of symbols

11 PTZカメラ
12 PTZカメラ
13 パノラマカメラ
100 入力部
101 キーボード
102 マウス
103 演算部
104 出力部
105 データ格納部

11 PTZ camera 12 PTZ camera 13 Panorama camera 100 Input unit 101 Keyboard 102 Mouse 103 Arithmetic unit 104 Output unit 105 Data storage unit

Claims (4)

カメラの動作を制御する駆動機構をそれぞれに有する複数のカメラと、前記複数のカメラを撮影するパノラマカメラと、前記複数のカメラおよび前記パノラマカメラを制御すると共に各カメラの撮像画像を入力してデータ処理を行うデータ処理装置を有し、
前記複数のカメラおよび前記パノラマカメラからの撮像画像によりカメラの位置関係を求めるカメラ位置検出システムにおいて
前記データ処理装置の制御手順として、
前記パノラマカメラにより前記複数のカメラを撮影する第1ステップと、
前記駆動機構を制御して前記複数のカメラを動作させる第2ステップと、
前記パノラマカメラにより前記複数のカメラを動作させた後の複数のカメラを撮影する第3ステップを実行し
前記データ処理装置のデータ処理手順として、
前記複数のカメラの動作の前後のカメラを撮像した差分画像のデータにより撮影画像中の複数のカメラを特定するデータ処理を行う第4ステップと、
前記特定された複数のカメラが撮像されている画像により前記複数のカメラの位置を算出するデータ処理を行う第5ステップとを実行し
前記第4ステップを、前記データ処理装置により、
背景撮影時と異なるパン・チルト角での差分検出結果をIt(p)、同じパン・チルト角での差分検出結果をJt(p)とするとき、
前記カメラのパン・チルト角を繰り返し駆動させ、複数の前記カメラ候補領域Kt(p)を、下記数3の式で求め、
(p)=0として、下記数4の式でラベリングを行い、
Lt(p)に一定範囲の大きさの連結領域が1つだけになるまで繰り返しその論理積を取ることで、前記カメラ以外の領域を除去し、前記カメラのみを検出するステップとしたことを特徴とするカメラ位置検出方法。
但し、・は論理積(and)、 はビット反転(not)を表す。
A plurality of cameras each having a drive mechanism for controlling the operation of the camera, a panorama camera for photographing the plurality of cameras, the plurality of cameras and the panorama camera, and input images taken by the cameras and data Having a data processing device for processing,
In the camera position detection system for obtaining the positional relationship of the cameras based on the captured images from the plurality of cameras and the panoramic camera,
As a control procedure of the data processing device,
A first step of photographing the plurality of cameras with the panoramic camera;
A second step of operating the plurality of cameras by controlling the drive mechanism;
Performing a third step of photographing the plurality of cameras after operating the plurality of cameras by the panoramic camera;
As a data processing procedure of the data processing device,
A fourth step of performing data processing for identifying a plurality of cameras in a captured image based on difference image data obtained by imaging the cameras before and after the operations of the plurality of cameras;
Run a fifth step of performing data processing for calculating the position of said plurality of cameras by image the identified plurality of cameras is captured,
The fourth step is performed by the data processing device.
When the difference detection result at a pan / tilt angle different from that at the time of background photographing is It (p) and the difference detection result at the same pan / tilt angle is Jt (p),
The pan / tilt angle of the camera is repeatedly driven, and a plurality of the camera candidate regions Kt (p) are obtained by the following equation (3):
As L 0 (p) = 0, labeling is performed using the following equation (4),
It is a step of detecting only the camera by removing a region other than the camera by repeatedly calculating the logical product of Lt (p) until there is only one connected region having a certain range of sizes. A camera position detection method.
However, - the logical product (and), - represents bit inversion of (not).
請求項1に記載のカメラ位置検出方法において、
前記パノラマカメラとして、カメラの動作を制御する駆動機構をそれぞれに有する複数のカメラのうちの1つを用いることを特徴とするカメラ位置検出方法。
The camera position detection method according to claim 1,
One of a plurality of cameras each having a drive mechanism for controlling the operation of the camera is used as the panoramic camera.
カメラの動作を制御する駆動機構をそれぞれに有する複数のカメラと、前記複数のカメラを撮影するパノラマカメラと、前記複数のカメラおよび前記パノラマカメラを制御すると共に各カメラの撮像画像を入力してデータ処理を行うデータ処理装置を有し、A plurality of cameras each having a drive mechanism for controlling the operation of the camera, a panorama camera for photographing the plurality of cameras, the plurality of cameras and the panorama camera, and input images taken by the cameras and data Having a data processing device for processing,
前記データ処理装置が、The data processing device is
前記複数のカメラおよび前記パノラマカメラからの撮像画像によりカメラの位置関係を求めるカメラ位置検出システムであって、A camera position detection system for obtaining a positional relationship of cameras from captured images from the plurality of cameras and the panoramic camera,
前記データ処理装置は、制御手順として、The data processing apparatus, as a control procedure,
前記パノラマカメラにより前記複数のカメラを撮影する第1ステップと、A first step of photographing the plurality of cameras with the panoramic camera;
前記駆動機構を制御して前記複数のカメラを動作させる第2ステップと、A second step of operating the plurality of cameras by controlling the drive mechanism;
前記パノラマカメラにより前記複数のカメラを動作させた後の複数のカメラを撮影する第3ステップを実行し、Performing a third step of photographing the plurality of cameras after operating the plurality of cameras by the panoramic camera;
前記データ処理装置は、データ処理手順として、As the data processing procedure, the data processing device
前記複数のカメラの動作の前後のカメラを撮像した差分画像のデータにより撮影画像中の複数のカメラを特定するデータ処理を行う第4ステップと、A fourth step of performing data processing for identifying a plurality of cameras in a captured image based on difference image data obtained by imaging the cameras before and after the operations of the plurality of cameras;
前記特定された複数のカメラが撮像されている画像により前記複数のカメラの位置を算出するデータ処理を行う第5ステップとを実行し、And a fifth step of performing data processing for calculating the positions of the plurality of cameras based on images obtained by capturing the plurality of identified cameras.
前記第4ステップを、前記データ処理装置により、The fourth step is performed by the data processing device.
背景撮影時と異なるパン・チルト角での差分検出結果をIt(p)、同じパン・チルト角での差分検出結果をJt(p)とするとき、When the difference detection result at a pan / tilt angle different from that at the time of background photographing is It (p) and the difference detection result at the same pan / tilt angle is Jt (p),
前記カメラのパン・チルト角を繰り返し駆動させ、複数の前記カメラ候補領域Kt(p)を、下記数5の式で求め、The pan / tilt angle of the camera is repeatedly driven, and a plurality of the camera candidate regions Kt (p) are obtained by the following equation (5):
L 0 (p)=0として、下記数6の式でラベリングを行い、(P) = 0, and labeling is performed using the following equation (6).
Lt(p)に一定範囲の大きさの連結領域が1つだけになるまで繰り返しその論理積を取ることで、前記カメラ以外の領域を除去し、前記カメラのみを検出するステップとしたことを特徴とするカメラ位置検出システム。It is a step of detecting only the camera by removing a region other than the camera by repeatedly calculating the logical product of Lt (p) until there is only one connected region having a certain range of sizes. Camera position detection system.
但し、・は論理積(and)、Where • is the logical product (and), はビット反転(not)を表す。Represents bit inversion (not).
請求項3 に記載のカメラ位置検出システムにおいて、In the camera position detection system according to claim 3,
前記パノラマカメラとして、前記カメラの動作を制御する駆動機構をそれぞれに有する複数のカメラのうちの1つを用いることを特徴とするカメラ位置検出システム。One of a plurality of cameras each having a driving mechanism for controlling the operation of the camera is used as the panoramic camera.
JP2006156780A 2006-06-06 2006-06-06 Camera position detection method Expired - Fee Related JP4812099B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006156780A JP4812099B2 (en) 2006-06-06 2006-06-06 Camera position detection method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006156780A JP4812099B2 (en) 2006-06-06 2006-06-06 Camera position detection method

Publications (2)

Publication Number Publication Date
JP2007327750A JP2007327750A (en) 2007-12-20
JP4812099B2 true JP4812099B2 (en) 2011-11-09

Family

ID=38928324

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006156780A Expired - Fee Related JP4812099B2 (en) 2006-06-06 2006-06-06 Camera position detection method

Country Status (1)

Country Link
JP (1) JP4812099B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016048172A (en) * 2014-08-27 2016-04-07 株式会社トプコン Image processor, image processing method, and program
JP7508350B2 (en) 2020-12-04 2024-07-01 株式会社日立製作所 CALIBRATION APPARATUS AND CALIBRATION METHOD

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003255219A (en) * 2002-03-04 2003-09-10 Nisca Corp Automatic framing camera
JP2004193947A (en) * 2002-12-11 2004-07-08 Fuji Xerox Co Ltd Three-dimensional imaging apparatus and method
JP3830890B2 (en) * 2002-12-24 2006-10-11 リンナイ株式会社 Bathroom monitoring device
JP4136859B2 (en) * 2003-01-10 2008-08-20 キヤノン株式会社 Position and orientation measurement method
JP2004286699A (en) * 2003-03-25 2004-10-14 Victor Co Of Japan Ltd Method and detector for detecting image position
JP4469148B2 (en) * 2003-08-06 2010-05-26 パナソニック株式会社 Surveillance system, fixed camera, moving camera, and photographing method
JP4587166B2 (en) * 2004-09-14 2010-11-24 キヤノン株式会社 Moving body tracking system, photographing apparatus, and photographing method
JP2006121290A (en) * 2004-10-20 2006-05-11 Fuji Xerox Co Ltd Camera control system

Also Published As

Publication number Publication date
JP2007327750A (en) 2007-12-20

Similar Documents

Publication Publication Date Title
US10445887B2 (en) Tracking processing device and tracking processing system provided with same, and tracking processing method
US8368752B2 (en) Document camera with size-estimating function and size estimation method
KR101533686B1 (en) Apparatus and method for tracking gaze, recording medium for performing the method
JP6159179B2 (en) Image processing apparatus and image processing method
KR20170133269A (en) Video processing apparatus, video processing method, and program
JP2008506953A5 (en)
JP2006146323A (en) Face feature collating device, face feature collating method, and program
JP2020053774A (en) Imaging apparatus and image recording method
JP2016123044A (en) Subject tracking device, and control method and program therefor
JP5183152B2 (en) Image processing device
KR101469099B1 (en) Auto-Camera Calibration Method Based on Human Object Tracking
JP4464902B2 (en) Camera control apparatus and camera control program
JP4198536B2 (en) Object photographing apparatus, object photographing method and object photographing program
JP2008015815A (en) Image processor and image processing program
JP6799325B2 (en) Image correction device, image correction method, attention point recognition device, attention point recognition method and abnormality detection system
JP4812099B2 (en) Camera position detection method
KR101290517B1 (en) Photographing apparatus for tracking object and method thereof
JP3491029B2 (en) Automatic monitoring device
JP2021027584A (en) Image processing device, image processing method, and program
JP2011087214A (en) Photographing system, method and program
JP4605502B2 (en) Tracking device, tracking method, and biological microscope equipped with the tracking device
JP7040627B2 (en) Calculator, information processing method and program
JP2005157635A (en) Congestion level measuring device, facility control system and congestion level measuring method
JP2011205517A (en) Image processing apparatus
JP4027294B2 (en) Moving object detection apparatus, moving object detection method, and moving object detection program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20081215

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110215

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20110220

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20110221

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110408

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110809

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110822

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140902

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140902

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees