JP6022330B2 - Camera system - Google Patents

Camera system Download PDF

Info

Publication number
JP6022330B2
JP6022330B2 JP2012266574A JP2012266574A JP6022330B2 JP 6022330 B2 JP6022330 B2 JP 6022330B2 JP 2012266574 A JP2012266574 A JP 2012266574A JP 2012266574 A JP2012266574 A JP 2012266574A JP 6022330 B2 JP6022330 B2 JP 6022330B2
Authority
JP
Japan
Prior art keywords
camera
reference point
image
unit
calibration
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2012266574A
Other languages
Japanese (ja)
Other versions
JP2014112798A (en
Inventor
功 ▲高▼橋
功 ▲高▼橋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Secom Co Ltd
Original Assignee
Secom Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Secom Co Ltd filed Critical Secom Co Ltd
Priority to JP2012266574A priority Critical patent/JP6022330B2/en
Publication of JP2014112798A publication Critical patent/JP2014112798A/en
Application granted granted Critical
Publication of JP6022330B2 publication Critical patent/JP6022330B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)
  • Image Input (AREA)
  • Image Processing (AREA)
  • Studio Devices (AREA)

Description

本発明は、複数のカメラ間での各種カメラパラメータの校正や撮影された物体の形状認識などに用いる基準点をカメラが撮影した画像から自動認識するカメラシステムに関し、特に現実空間に設置された基準点を作業者が容易に設置できるようにしたカメラシステムに関する。   The present invention relates to a camera system for automatically recognizing a reference point used for calibration of various camera parameters between a plurality of cameras, shape recognition of a photographed object, and the like from an image photographed by a camera, and particularly, a reference installed in a real space. The present invention relates to a camera system that allows an operator to easily set points.

監視カメラを用いて人の追跡を行うカメラシステムが研究されている。そのようなカメラシステムを構築する際、カメラの位置や姿勢等のカメラパラメータを求めて、カメラシステムが認識する仮想空間と現実空間である監視空間との対応をとるための調整が必要となる。この調整作業をキャリブレーション(校正)という。   A camera system for tracking a person using a surveillance camera has been studied. When constructing such a camera system, it is necessary to obtain camera parameters such as the position and orientation of the camera and to adjust the correspondence between the virtual space recognized by the camera system and the monitoring space that is the real space. This adjustment work is called calibration.

例えば、キャリブレーションを行うには、カメラ視野内の監視空間に位置計測の基準とする基準点を複数設置し、当該基準点をカメラにて撮影する。そして、撮影した画像から各基準点を検出し、基準点の画像上の検出位置と監視空間における基準点位置との幾何学的関係からカメラパラメータを計測する。   For example, in order to perform calibration, a plurality of reference points serving as reference points for position measurement are set in a monitoring space within the camera field of view, and the reference points are photographed by the camera. Then, each reference point is detected from the photographed image, and camera parameters are measured from the geometric relationship between the detection position of the reference point on the image and the reference point position in the monitoring space.

カメラの位置・姿勢などのカメラパラメータは、基準点の3次元座標を与えれば1台のカメラで計測できるが、複数のカメラの共通視野を利用すれば基準点の3次元座標を与えずに計測できる。すなわち、共通視野に複数の基準点を設置して当該視野を共有する複数のカメラで撮影した各画像から同一基準点を検出し、これらの基準点の検出位置が同一位置であるとの幾何学的関係を利用して各カメラのカメラパラメータを計測できる。   Camera parameters such as camera position and orientation can be measured with a single camera if the 3D coordinates of the reference point are given, but can be measured without giving the 3D coordinates of the reference point if a common field of view of multiple cameras is used. it can. That is, a geometrical feature in which a plurality of reference points are set in a common field of view and the same reference point is detected from each image captured by a plurality of cameras sharing the field of view, and the detection positions of these reference points are the same position. It is possible to measure the camera parameters of each camera by using the relationship.

また、基準点は、このようなキャリブレーション以外に、監視空間に設置されている什器等の3次元位置・形状の計測にも使用される。例えば、什器等の表面に複数の基準点を設置して、カメラで撮影した画像から各基準点を検出し、各基準点とカメラの位置・姿勢との幾何学的関係から什器等の表面に設置した各基準点の3次元位置を求めることによって、什器等の位置や形状を計測することがある。   In addition to such calibration, the reference point is also used for measuring a three-dimensional position / shape of a fixture or the like installed in the monitoring space. For example, a plurality of reference points are set on the surface of a fixture, etc., each reference point is detected from an image captured by a camera, and the geometric relationship between each reference point and the camera position / posture is applied to the surface of the fixture, etc. By obtaining the three-dimensional position of each installed reference point, the position or shape of a fixture or the like may be measured.

従来、かかる基準点を設置するのに、発光装置からスポット光を監視空間に照射し、その照射点を基準点としてカメラのキャリブレーションを実現する画像処理装置が提案されている(特許文献1)。   Conventionally, in order to install such a reference point, there has been proposed an image processing apparatus that irradiates spot light from a light emitting device onto a monitoring space and realizes camera calibration using the irradiated point as a reference point (Patent Document 1). .

特開2004−46772号公報JP 2004-46772 A

ところで、昨今のカメラ価格の下落を受けて、多数の監視カメラを設置して広範囲な監視空間を監視するカメラシステムが提案されている。かかる場合、従来技術のように監視空間の外から発光装置を用いてスポット光を照射して、基準点を設置するのが困難になってくる。このため、携帯型のレーザーポインタ等を作業者が手に持ち、カメラの視野内を移動しながらスポット光を照射して基準点を設置することが考えられる。   By the way, in response to the recent drop in camera prices, a camera system has been proposed in which a large number of surveillance cameras are installed to monitor a wide surveillance space. In such a case, it becomes difficult to set the reference point by irradiating the spot light from the outside of the monitoring space using the light emitting device as in the prior art. For this reason, it is conceivable that the operator holds a portable laser pointer or the like, and irradiates the spot light while moving in the field of view of the camera to set the reference point.

しかしながら、その場合、作業者と基準点とがカメラの視野内に同時存在して基準点を設置することとなり、カメラ及び作業者の位置によっては、設置したはずの基準点が作業者により生じる死角に隠れてしまい、当該基準点を検出し損ねることがある。基準点を検出し損ねると基準点の再設置作業が生じる。   However, in that case, the operator and the reference point are simultaneously present in the field of view of the camera and the reference point is set. Depending on the position of the camera and the operator, the blind spot generated by the operator may be the reference point that should have been set. And the reference point may be missed. If the reference point is missed, the reference point needs to be re-installed.

すなわち、基準点に死角を形成しない立ち位置を作業者が正しく認識して作業を効率的に進めることが困難であるという課題があった。   That is, there is a problem that it is difficult for an operator to correctly recognize a standing position that does not form a blind spot at a reference point and to proceed with work efficiently.

本発明に係るカメラシステムは、所定の空間内を撮影する一又は複数のカメラと、前記カメラが撮影した画像を処理する制御装置と、前記カメラで撮影可能であり作業者によって設置される基準点とを備えて構成されるカメラシステムであって、前記制御装置は、前記空間内における前記カメラの位置・姿勢を含むカメラパラメータと前記基準点の設置が必要な前記空間内の要求位置とを少なくとも記憶する記憶部と、前記カメラが撮影した画像から前記基準点を検出する基準点検出部と、前記カメラの前記カメラパラメータ及び前記要求位置を用いて、当該カメラから当該要求位置への視線方向の位置を、前記作業者が存在すると当該カメラから当該要求位置を撮影できなくなる死角形成作業者位置として算出する作業者位置算出部と、前記死角形成作業者位置を出力する出力部と、を備える。   The camera system according to the present invention includes one or a plurality of cameras that capture an image of a predetermined space, a control device that processes an image captured by the camera, and a reference point that can be captured by the camera and is set by an operator. The control device includes at least a camera parameter including a position / posture of the camera in the space and a required position in the space where the reference point needs to be installed. A storage unit for storing, a reference point detection unit for detecting the reference point from an image captured by the camera, and using the camera parameters and the requested position of the camera, the line-of-sight direction from the camera to the requested position An operator position calculating unit that calculates a position as a blind spot forming worker position at which the requested position cannot be captured from the camera when the worker exists; And an output unit for outputting blind spot formation operator position.

上記本発明に係るカメラシステムにおいては、前記出力部は前記要求位置を出力する構成とすることもできる。   In the camera system according to the present invention, the output unit may output the requested position.

他の本発明に係るカメラシステムにおいては、前記カメラは前記空間内にて共通視野を有するように複数配置され、前記制御装置は、前記基準点を用いて前記カメラパラメータを校正する校正部を更に有し、前記校正部は、前記複数のカメラが同時に撮影した画像それぞれにて前記基準点検出部が前記基準点として基準点像を検出した場合に、当該複数の基準点像が前記空間における同一位置であるとの拘束条件を適用して前記カメラパラメータを校正する。   In another camera system according to the present invention, a plurality of the cameras are arranged so as to have a common field of view in the space, and the control device further includes a calibration unit that calibrates the camera parameters using the reference points. The calibration unit has the same reference point image in the space when the reference point detection unit detects a reference point image as the reference point in each of the images simultaneously captured by the plurality of cameras. The camera parameter is calibrated by applying a constraint condition that it is a position.

この本発明に係るカメラシステムにおいては、前記制御装置は、前記基準点検出部が前記共通視野内の前記要求位置に存在する前記基準点を検出した場合にのみ、当該基準点が撮影された当該要求位置を前記記憶部から削除する要求位置設定部を更に有する構成とすることができる。   In the camera system according to the present invention, the control device captures the reference point only when the reference point detection unit detects the reference point existing at the required position in the common visual field. A configuration may further include a requested position setting unit that deletes the requested position from the storage unit.

また上記本発明に係るカメラシステムにおいて、前記制御装置は、前記カメラが撮影した画像を当該カメラの光軸と撮影平面との交点から放射状に所定角度ごとに区分した区分領域を単位として前記要求位置を設定する要求位置設定部を更に有する構成とすることができる。   Further, in the camera system according to the present invention, the control device may be configured such that the required position is based on a segmented area in which an image captured by the camera is radially divided at predetermined angles from an intersection of an optical axis of the camera and an imaging plane. It is possible to adopt a configuration further including a required position setting unit for setting.

本発明によれば、作業者は基準点を設置する位置に死角を形成しない立ち位置が分かるので、やり直しや試行錯誤を減らして効率的に基準点を検出させることができ、校正作業や計測作業が容易・迅速となる。   According to the present invention, since the operator knows the standing position where no blind spot is formed at the position where the reference point is installed, the reference point can be efficiently detected with less redo and trial and error, and calibration work and measurement work can be performed. Is easy and quick.

本発明の実施形態に係るカメラシステムの概略の構成を示した模式図である。1 is a schematic diagram illustrating a schematic configuration of a camera system according to an embodiment of the present invention. 監視空間の模式的な平面図である。It is a typical top view of monitoring space. 制御装置の概略の構成を示したブロック図である。It is the block diagram which showed the structure of the outline of a control apparatus. カメラパラメータのデータ構成をテーブル形式で示す模式図である。It is a schematic diagram which shows the data structure of a camera parameter in a table format. カメラ2Bとカメラ2Cからなるカメラ対に設定する要求位置の例を示す模式図である。It is a schematic diagram which shows the example of the request | requirement position set to the camera pair which consists of the camera 2B and the camera 2C. 本発明の実施形態に係るカメラシステムの校正処理における動作の概略を示すフロー図である。It is a flowchart which shows the outline of the operation | movement in the calibration process of the camera system which concerns on embodiment of this invention. 本発明の実施形態に係るカメラシステムが校正処理にて行う推奨立ち位置の提示処理の概略を示すフロー図である。It is a flowchart which shows the outline of the presentation process of the recommended standing position which the camera system which concerns on embodiment of this invention performs by a calibration process. 基準点情報のデータ構成をテーブル形式で示す模式図である。It is a schematic diagram which shows the data structure of reference | standard point information in a table format. 要求情報のデータ構成をテーブル形式で示す模式図である。It is a schematic diagram which shows the data structure of request information in a table format. 連鎖判定テーブルのデータ構成をテーブル形式で示す模式図である。It is a schematic diagram which shows the data structure of a chain determination table in a table format. カメラ2B,2Cの画像領域にて直接的に求まる死角形成位置の算出例を示す画像領域の模式図である。It is a schematic diagram of the image area | region which shows the example of calculation of the blind spot formation position calculated | required directly in the image area | region of the cameras 2B and 2C. 図11に対応する作業者立ち位置の算出例を示す画像領域の模式図である。It is a schematic diagram of the image area | region which shows the calculation example of the worker standing position corresponding to FIG. 図12に対応する推奨立ち位置の絞り込みの例を示す画像領域の模式図である。It is a schematic diagram of the image area | region which shows the example of narrowing down of the recommended standing position corresponding to FIG. 表示部における推奨立ち位置を提示する表示画面の一例である。It is an example of the display screen which presents the recommended standing position in a display part. 表示部における推奨立ち位置を提示する表示画面の他の例である。It is another example of the display screen which shows the recommended standing position in a display part. 図15(a)の表示画面に対応して画像処理部が校正処理にて行う推奨立ち位置の提示処理の概略を示すフロー図である。It is a flowchart which shows the outline of the presentation process of the recommended standing position which an image process part performs by a calibration process corresponding to the display screen of Fig.15 (a). 本発明の実施形態に係るカメラシステムの計測処理における動作の概略を示すフロー図である。It is a flowchart which shows the outline of the operation | movement in the measurement process of the camera system which concerns on embodiment of this invention. 計測処理における設置要求情報の設定例を示す画像領域の模式図である。It is a schematic diagram of the image area | region which shows the example of a setting of the installation request information in a measurement process. 照射器以外の装置により基準点を設置する例を示す模式図である。It is a schematic diagram which shows the example which installs a reference point with apparatuses other than an irradiator.

以下、本発明の実施の形態(以下実施形態という)であるカメラシステムについて、図面に基づいて説明する。   Hereinafter, a camera system according to an embodiment of the present invention (hereinafter referred to as an embodiment) will be described with reference to the drawings.

[カメラシステム1の構成]
図1は実施形態に係るカメラシステム1の概略の構成を示した模式図である。カメラシステム1は複数のカメラ2(2A,2B,2C,2D,2E,2F,2G,2H)、照射器3、制御装置4、表示部5からなる。図1には照射器3及び表示部5を携帯した作業者10が監視空間内の床面(基準面11)を照射して床面上に光像を形成している様子が示され、また、床面には物体12が設置されている。
[Configuration of Camera System 1]
FIG. 1 is a schematic diagram illustrating a schematic configuration of a camera system 1 according to the embodiment. The camera system 1 includes a plurality of cameras 2 (2A, 2B, 2C, 2D, 2E, 2F, 2G, 2H), an irradiator 3, a control device 4, and a display unit 5. FIG. 1 shows a situation where an operator 10 carrying the irradiator 3 and the display unit 5 irradiates the floor surface (reference surface 11) in the monitoring space to form a light image on the floor surface. The object 12 is installed on the floor.

本実施形態においては光像の重心が基準点13である。作業者10は監視空間内を移動して各所に基準点13を設置する。カメラ2は基準点13を撮影して、制御装置4は撮影された画像から基準点13を検出して、カメラ2の校正や物体12の3次元計測を行う。また制御装置4は、基準点13の設置が要求される場所(要求位置)に作業者10による死角が生じない作業者立ち位置を算出して表示部5に出力する。作業者10は表示された立ち位置から照射を行うことにより失敗を減じて効率良く作業を行うことが可能である。   In the present embodiment, the center of gravity of the optical image is the reference point 13. The worker 10 moves in the monitoring space and installs reference points 13 at various places. The camera 2 captures the reference point 13, and the control device 4 detects the reference point 13 from the captured image, and performs calibration of the camera 2 and three-dimensional measurement of the object 12. Further, the control device 4 calculates a worker standing position where a blind spot by the worker 10 does not occur at a place (requested position) where the installation of the reference point 13 is required and outputs the calculated position to the display unit 5. The operator 10 can perform the work efficiently by reducing the failure by performing irradiation from the displayed standing position.

カメラ2は監視カメラであり、各カメラ2は制御装置4に接続される。各カメラ2は少なくとも他の1台のカメラとの間に共通視野を設けて連鎖配置され、複数のカメラ2の視野の和が監視空間となる。カメラ2は作業者10と共に移動する基準点13を所定時間おきに撮影し、撮影した画像を順次、制御装置4に出力する。   The camera 2 is a surveillance camera, and each camera 2 is connected to the control device 4. Each camera 2 is arranged in a chain with at least one other camera providing a common field of view, and the sum of the fields of view of the plurality of cameras 2 becomes a monitoring space. The camera 2 captures a reference point 13 that moves together with the worker 10 at predetermined time intervals, and sequentially outputs the captured images to the control device 4.

図1に示す例ではカメラシステム1には8台のカメラ2A,2B,2C,2D,2E,2F,2G,2Hが配置され、制御装置4はそれらカメラにそれぞれA,B,C,…,HというカメラIDを付与して管理する。複数のカメラ2はそれぞれ光軸を鉛直下方へ向けた姿勢で天井に格子状に配置される。図2は監視空間20の模式的な平面図であり、基準面11内での物体12の位置、及び8台のカメラ2(2A〜2H)の配置を「☆」で示している。カメラ2の間隔は、当該カメラの画角を考慮して、隣り合うカメラ同士が共通視野を有するよう設定されている。この例では、カメラ2Aが少なくともカメラ2Bと共通視野を有し、カメラ2Bが少なくともカメラ2A,2Cと共通視野を有し、カメラ2Cが少なくともカメラ2B,2D,2G,2Hと共通視野を有し、カメラ2Dが少なくともカメラ2C,2G,2Hと共通視野を有し、カメラ2Eが少なくともカメラ2Fと共通視野を有し、カメラ2Fが少なくともカメラ2E,2Gと共通視野を有し、カメラ2Gが少なくともカメラ2C,2D,2F,2Hと共通視野を有し、カメラ2Hが少なくともカメラ2C,2D,2Gと共通視野を有する。同図では、カメラ2Bの視野を100bで示し、カメラ2Cの視野を100cで示している。その他のカメラ2の視野は図示を省略している。また、領域200はカメラ2Bの視野100bとカメラ2Cの視野100cとの共通視野を示している。なお、カメラ2の台数は2台以上であれば任意であり、またカメラ2の位置・姿勢は少なくとも共通視野が連鎖する範囲で任意である。   In the example shown in FIG. 1, the camera system 1 includes eight cameras 2A, 2B, 2C, 2D, 2E, 2F, 2G, and 2H, and the control device 4 includes A, B, C,. A camera ID of H is assigned and managed. The plurality of cameras 2 are arranged in a grid pattern on the ceiling with their optical axes oriented vertically downward. FIG. 2 is a schematic plan view of the monitoring space 20, and the position of the object 12 within the reference plane 11 and the arrangement of the eight cameras 2 (2A to 2H) are indicated by “☆”. The distance between the cameras 2 is set so that adjacent cameras have a common field of view in consideration of the angle of view of the cameras. In this example, camera 2A has at least a common field of view with camera 2B, camera 2B has at least a common field of view with cameras 2A and 2C, and camera 2C has at least a common field of view with cameras 2B, 2D, 2G, and 2H. , Camera 2D has a common field of view with at least cameras 2C, 2G, 2H, camera 2E has a common field of view with at least camera 2F, camera 2F has a common field of view with at least cameras 2E, 2G, and camera 2G has at least The cameras 2C, 2D, 2F, and 2H have a common visual field, and the camera 2H has at least a common visual field with the cameras 2C, 2D, and 2G. In the figure, the field of view of the camera 2B is indicated by 100b, and the field of view of the camera 2C is indicated by 100c. The other visual fields of the camera 2 are not shown. A region 200 indicates a common field of view of the field of view 100b of the camera 2B and the field of view 100c of the camera 2C. Note that the number of cameras 2 is arbitrary as long as it is two or more, and the position and orientation of the camera 2 are arbitrary within a range where at least common fields of view are chained.

照射器3はスポット光を出力する光源であり、例えば、レーザーポインタやコリメートLEDライトなどを用いることができる。照射器3は作業者10により携帯され、作業者10の操作により基準面11あるいは什器等の物体12に光を照射する。この照射により、基準面11あるいは物体12の表面に基準点13が設置される。基準点13は作業者10の操作・移動に伴い監視空間内を移動する。ちなみに、作業者10は、カメラ2の位置・姿勢の校正作業においては共通視野における基準面11を照射し、物体12の3次元計測作業では共通視野内に存在する物体12を照射する。照射器3は免許不要で簡単に入手・利用可能なものが好適である。   The irradiator 3 is a light source that outputs spot light. For example, a laser pointer or a collimated LED light can be used. The irradiator 3 is carried by the operator 10 and irradiates light to the object 12 such as the reference plane 11 or the fixture by the operation of the operator 10. By this irradiation, the reference point 13 is set on the reference surface 11 or the surface of the object 12. The reference point 13 moves in the monitoring space as the operator 10 operates and moves. Incidentally, the operator 10 irradiates the reference plane 11 in the common visual field in the calibration work of the position and orientation of the camera 2, and irradiates the object 12 existing in the common visual field in the three-dimensional measurement work of the object 12. The irradiator 3 is preferably one that can be easily obtained and used without requiring a license.

制御装置4は各カメラ2とイーサネット(登録商標)等のLANあるいは同軸ケーブル等の配線で接続される。また、表示部5とはブルートゥース等の無線回線で接続される。制御装置4はカメラ2が撮影した画像を取得して当該画像から基準点13を検出する。制御装置4は要求位置における基準点13の検出を妨げない作業者立ち位置を算出し、要求位置と作業者立ち位置とを含めた情報を表示部5に出力する。また検出した基準点13を利用してカメラ2の校正または物体12の計測を行う。   The control device 4 is connected to each camera 2 via a LAN such as Ethernet (registered trademark) or a wiring such as a coaxial cable. The display unit 5 is connected by a wireless line such as Bluetooth. The control device 4 acquires an image taken by the camera 2 and detects the reference point 13 from the image. The control device 4 calculates a worker standing position that does not hinder the detection of the reference point 13 at the requested position, and outputs information including the requested position and the worker standing position to the display unit 5. The detected reference point 13 is used to calibrate the camera 2 or measure the object 12.

表示部5は無線通信インターフェースを備え制御装置4と無線回線で接続される。表示部5は液晶タッチパネルディスプレイ等の画像表示装置と演算装置とからなる表示手段を備え、制御装置4から入力された情報を視認可能に表示する。   The display unit 5 includes a wireless communication interface and is connected to the control device 4 through a wireless line. The display unit 5 includes display means including an image display device such as a liquid crystal touch panel display and an arithmetic device, and displays information input from the control device 4 so as to be visible.

図3は制御装置4の概略の構成を示したブロック図である。制御装置4は、画像取得部40、記憶部41、画像処理部42及び表示通信部(出力部)43からなる。   FIG. 3 is a block diagram showing a schematic configuration of the control device 4. The control device 4 includes an image acquisition unit 40, a storage unit 41, an image processing unit 42, and a display communication unit (output unit) 43.

画像取得部40はカメラ通信部400と同期制御部401とからなり、各カメラ2からの画像を同期させて画像処理部42に出力する。   The image acquisition unit 40 includes a camera communication unit 400 and a synchronization control unit 401, and synchronizes images from the cameras 2 and outputs the images to the image processing unit 42.

カメラ通信部400はカメラ2と通信して各カメラ2が撮影した画像を順次受信する通信インターフェースであり、受信した画像に当該画像を撮影したカメラ2のカメラIDを付与して同期制御部401に出力する。ここで、カメラ2がアナログカメラであれば予め設定した接続端子との対応関係からカメラIDを特定でき、IPカメラであれば予め設定した送信元アドレスとの対応関係からカメラIDを特定できる。   The camera communication unit 400 is a communication interface that communicates with the camera 2 and sequentially receives images captured by each camera 2. The camera ID of the camera 2 that captured the image is assigned to the received image and the synchronization control unit 401 receives the image. Output. Here, if the camera 2 is an analog camera, the camera ID can be specified from the correspondence with a preset connection terminal, and if it is an IP camera, the camera ID can be specified from the correspondence with a preset transmission source address.

同期制御部401はカメラ通信部400が受信した各カメラ2からの画像の撮影時刻を同期させる。具体的には各カメラ2が基準周期よりも十分に短い撮影周期にて画像を撮影及び送信し、同期制御部401は、同時とみなせる程度に設定された許容時間差未満で受信した画像を同期がとれている同時撮影画像とする。同期制御部401は、基準周期ごとに同時撮影画像を抽出し、同時撮影画像どうしに共通のフレーム番号を付与して画像処理部42に出力する。同期制御部401は基準周期ごとに同時撮影画像を抽出するために、少なくとも基準周期の時間だけ各カメラ2からの画像を蓄積するバッファ(不図示)と、同時を判定するために時刻情報を生成する計時手段(不図示)とを備える。基準周期は例えば3fps(frame per second)、撮影周期は例えば15fps、許容時間差は例えば66ms(mili second)とすることができる。なお、同期制御部401から各カメラ2に基準周期ごとに同期パルスを出力して撮影タイミングを直接コントロールしてもよい。   The synchronization control unit 401 synchronizes the image capturing times received by the camera communication unit 400 from the respective cameras 2. Specifically, each camera 2 captures and transmits an image with a capturing period sufficiently shorter than the reference period, and the synchronization control unit 401 synchronizes the received image with less than an allowable time difference set to be considered as simultaneous. It is assumed that the taken simultaneous image is taken. The synchronization control unit 401 extracts a simultaneously shot image for each reference period, assigns a common frame number to the simultaneously shot images, and outputs the same to the image processing unit 42. The synchronization control unit 401 generates a buffer (not shown) that accumulates images from each camera 2 for at least the time of the reference period, and generates time information to determine the coincidence, in order to extract simultaneously shot images for each reference period. Timing means (not shown). For example, the reference period may be 3 fps (frame per second), the imaging period may be 15 fps, and the allowable time difference may be 66 ms (mili second), for example. Note that the synchronization timing may be directly controlled by outputting a synchronization pulse from the synchronization control unit 401 to each camera 2 for each reference period.

記憶部41はROM(Read Only Memory)、RAM(Random Access Memory)等のメモリ装置である。記憶部41は各種パラメータ、画像処理部42のプログラム等を記憶し、画像処理部42との間でこれらの情報を入出力する。各種パラメータには、カメラパラメータ410、要求情報411、照射限界値412、基準点情報413、物体計測情報414及び連鎖判定テーブル415が含まれる。   The storage unit 41 is a memory device such as a ROM (Read Only Memory) or a RAM (Random Access Memory). The storage unit 41 stores various parameters, a program of the image processing unit 42, and the like, and inputs / outputs such information to / from the image processing unit 42. The various parameters include a camera parameter 410, request information 411, an irradiation limit value 412, reference point information 413, object measurement information 414, and a chain determination table 415.

カメラパラメータ410は各カメラ2の内部パラメータ及び外部パラメータであり、カメラ2のカメラIDと対応付けられている。図4はカメラパラメータ410のデータ構成をテーブル形式で示す模式図である。   The camera parameters 410 are internal parameters and external parameters of each camera 2 and are associated with the camera ID of the camera 2. FIG. 4 is a schematic diagram showing the data structure of the camera parameter 410 in a table format.

内部パラメータは焦点距離、レンズの光学中心位置を含む。図4において例えば、カメラ2Aの焦点距離はf、レンズの光学中心位置はcと表記している。焦点距離及びレンズの光学中心位置は予め正確な値が設定され、カメラ2の校正作業にて変化しない。 Internal parameters include focal length and optical center position of the lens. In FIG. 4, for example, the focal length of the camera 2A is represented as f A , and the optical center position of the lens is represented as c A. Accurate values are set in advance for the focal length and the optical center position of the lens, and do not change during calibration of the camera 2.

外部パラメータは監視空間におけるカメラ2の位置・姿勢の情報を少なくとも含んでおり、具体的には複数のカメラ2に共通する共通座標系(ワールド座標系)で表したカメラ2の設置高、回転行列、並進ベクトル、撮影平面の法線ベクトル、カメラ間距離を含む。   The external parameters include at least information on the position and orientation of the camera 2 in the monitoring space. Specifically, the installation height and rotation matrix of the camera 2 expressed in a common coordinate system (world coordinate system) common to the plurality of cameras 2. , Translation vector, photographing plane normal vector, and inter-camera distance.

ここで、ワールド座標系は監視空間を模した右手直交座標系XYZであり、本実施形態では、Z軸を鉛直上向きに設定し、基準面である床面を高さZ=0とし、基準面におけるカメラAの鉛直下の点を座標原点とする。また、カメラAの画像の水平方向、垂直方向を撮影平面のx軸、y軸とし、当該x軸、y軸を基準面に投影した軸をそれぞれX軸、Y軸とする。   Here, the world coordinate system is a right-handed orthogonal coordinate system XYZ that imitates a monitoring space. In this embodiment, the Z axis is set vertically upward, the floor surface that is the reference surface is set to height Z = 0, and the reference surface The point below the camera A at the vertical is the coordinate origin. In addition, the horizontal direction and the vertical direction of the image of the camera A are the x-axis and y-axis of the photographing plane, and the x-axis and y-axis projected onto the reference plane are the X-axis and Y-axis, respectively.

例えば、カメラ2Bの回転行列Rはカメラ2Bの光軸を中心とした回転を定義する。撮影平面の法線ベクトルnはカメラ2Bの光軸の向きを定義する。また、並進ベクトルはXY面内での2つのカメラ2の相対的な位置関係を定義する2次元ベクトルである。本実施形態では並進ベクトルはカメラ2Aの位置を起点として定義され、例えば、カメラ2Bの並進ベクトルtはカメラ2A,2BそれぞれのXY面内での位置を起点、終点とする。カメラ間距離は基準とするカメラ2からの或るカメラ2の距離であり、両カメラ2のXY面内での距離である。本実施形態ではカメラ間距離はカメラ2Aを基準として定義される。例えば、図4においてカメラ間距離dABはカメラ2A,2B間の距離を示している。なお、カメラ間距離はカメラ2の3次元座標間の距離としてもよい。 For example, the rotation matrix R B of the camera 2B defines the rotation around the optical axis of the camera 2B. The normal vector n B on the imaging plane defines the direction of the optical axis of the camera 2B. The translation vector is a two-dimensional vector that defines the relative positional relationship between the two cameras 2 in the XY plane. Translation vector in the present embodiment is defined the position of the camera 2A starting, for example, the translation vector t B of the camera 2B is starting from a position of the camera 2A, 2B in each XY plane, and the end point. The inter-camera distance is the distance of a certain camera 2 from the reference camera 2 and is the distance in the XY plane of both cameras 2. In the present embodiment, the inter-camera distance is defined with reference to the camera 2A. For example, in FIG. 4, the inter-camera distance d AB indicates the distance between the cameras 2A and 2B. The inter-camera distance may be a distance between the three-dimensional coordinates of the camera 2.

これら外部パラメータのうち、設置高は予め正確な値が設定され、カメラ2の校正作業にて変化しない。回転行列及び撮影平面の法線ベクトルは、設置計画における値である鉛直下向きであることを示す値が初期値として予め設定され、カメラ2の校正作業の対象とされる。並進ベクトル及びカメラ間距離については初期値は設定せず、カメラ2の校正作業にて設定される。   Among these external parameters, the installation height is set to an accurate value in advance and does not change during the calibration work of the camera 2. The rotation matrix and the normal vector of the imaging plane are set in advance as initial values that indicate a vertically downward value, which is a value in the installation plan, and are used as a calibration work target of the camera 2. Initial values are not set for the translation vector and the inter-camera distance, but are set by the calibration operation of the camera 2.

要求情報411は、校正や3次元計測のために作業者10に対して基準点13の設置を要求する必要がある監視空間における位置である要求位置と、当該要求位置を同時撮影することが可能なカメラ対とを対応させた情報を含む。要求情報411には後述する要求設定部422により、要求位置を表す座標データがカメラ対のカメラIDと対応付けて設定される。要求位置は点または線とすることもできるが領域とするのがよい。要求位置を領域とすることで、カメラシステム1から作業者10への要求は当該領域内の任意位置に基準点13を設置する要求となる。これにより作業者10は照射する的が大きくなるため負担が軽減される。そこで本実施形態では要求位置を領域とし、以降、各要求位置の領域をエリアとも呼ぶ。後の処理の説明で用いる図9は要求情報411のデータ構成を模式的に示しており、同図において要求位置を示す「A5」等の記号は後述するように領域を示すものである。また、要求情報411は要求位置への基準点13の設置要件を規定する要求条件を含む。   The request information 411 can simultaneously photograph a request position that is a position in a monitoring space where it is necessary to request the worker 10 to set the reference point 13 for calibration and three-dimensional measurement, and the request position. Information associated with a pair of cameras. In the request information 411, coordinate data representing a requested position is set in association with the camera ID of the camera pair by a request setting unit 422 described later. The requested position can be a point or a line, but is preferably an area. By setting the required position as an area, a request from the camera system 1 to the worker 10 becomes a request to set the reference point 13 at an arbitrary position in the area. Accordingly, the burden on the operator 10 is reduced because the target of irradiation increases. Therefore, in this embodiment, the requested position is an area, and the area of each requested position is also referred to as an area hereinafter. FIG. 9 used in the description of the subsequent processing schematically shows the data structure of the request information 411. In FIG. 9, symbols such as “A5” indicating the request position indicate areas as described later. Further, the request information 411 includes a request condition that defines the installation requirement of the reference point 13 at the required position.

照射限界値412は照射器3の特性を考慮して事前に設定された照射限界距離値である。光源から遠すぎる場所は光像の径が広がることによって単位面積あたりの輝度が低下してしまい、基準点13を検出できない可能性が高い。照射限界距離値は、要求位置が基準点13を検出できないほど遠いか否かを判定するためのしきい値である。   The irradiation limit value 412 is an irradiation limit distance value set in advance in consideration of the characteristics of the irradiator 3. In a place that is too far from the light source, the luminance per unit area decreases due to the increase in the diameter of the optical image, and there is a high possibility that the reference point 13 cannot be detected. The irradiation limit distance value is a threshold value for determining whether or not the requested position is so far that the reference point 13 cannot be detected.

基準点情報413は後述する基準点検出部420により生成され、概略校正部421、精密校正部424及び物体計測部425が利用する。基準点情報413は基準周期で同期して撮影された複数のカメラ2の撮影画像から検出された基準点13の情報であり、撮影画像にて検出された基準点13の像(基準点像)の検出位置と、当該基準点像を検出した画像に付与されていたカメラID及びフレーム番号とが対応付けられている。後の処理の説明で用いる図8は基準点情報413のデータ構成を模式的に示しており、同図において検出位置を示す(57,90)等は撮影画像における基準点像のx座標とy座標との組を表している。   The reference point information 413 is generated by a reference point detection unit 420 described later, and is used by the general calibration unit 421, the precision calibration unit 424, and the object measurement unit 425. The reference point information 413 is information of the reference point 13 detected from the captured images of the plurality of cameras 2 captured in synchronization with the reference period, and an image of the reference point 13 (reference point image) detected in the captured image. Are associated with the camera ID and frame number assigned to the image from which the reference point image is detected. FIG. 8 used in the description of the subsequent processing schematically shows the data structure of the reference point information 413. In FIG. 8, (57, 90) indicating the detection position indicates the x coordinate and y of the reference point image in the captured image. It represents a pair with coordinates.

物体計測情報414は監視空間に存在する物体12の3次元形状を計測して得られた情報であり、物体計測部425が基準点情報413を基に生成する。物体計測情報414はカメラシステム1が監視空間内の人物を検出したり追跡したりするときに背景情報として利用される。   The object measurement information 414 is information obtained by measuring the three-dimensional shape of the object 12 existing in the monitoring space, and is generated by the object measurement unit 425 based on the reference point information 413. The object measurement information 414 is used as background information when the camera system 1 detects or tracks a person in the monitoring space.

連鎖判定テーブル415は、後述する精密校正処理の進捗状況の管理に用いられる情報であり、後の処理の説明で用いる図10に示すように、精密校正の対象となるカメラ対と精密校正の完了/未了とが対応付けられたデータ構成を有する。   The linkage determination table 415 is information used for managing the progress status of the precision calibration process, which will be described later. As shown in FIG. 10 used in the description of the subsequent process, the camera pair to be subjected to the precision calibration and the completion of the precision calibration are completed. The data structure is associated with / incomplete.

画像処理部42はCPU(Central Processing Unit)、DSP(Digital Signal Processor)、MCU(Micro Control Unit)等の演算装置を用いて構成され、記憶部41からプログラムを読み出して実行することにより基準点検出部420、概略校正部421、要求設定部422、推奨立ち位置算出部423、精密校正部424、物体計測部425等として機能する。   The image processing unit 42 is configured using an arithmetic device such as a CPU (Central Processing Unit), a DSP (Digital Signal Processor), or an MCU (Micro Control Unit), and detects a reference point by reading a program from the storage unit 41 and executing it. Functions as a unit 420, a rough calibration unit 421, a request setting unit 422, a recommended standing position calculation unit 423, a precision calibration unit 424, an object measurement unit 425, and the like.

基準点検出部420はカメラ2が撮影した画像から基準点13を検出する。具体的には、各カメラ2が基準周期で撮影した画像にて基準点像の検出処理が行われ、各基準点像の検出位置を、当該基準点像を検出した画像に付与されていたカメラID及びフレーム番号と対応付けて記憶部41の基準点情報413に記憶させる。検出処理は、背景差分やフレーム間差分にて差分領域を抽出し、抽出した差分領域にラベリング処理を施し、照射器3の光像の大きさに基づき予め設定された大きさ範囲の領域を光像として選別し、選別した光像の重心を基準点13として検出する。上記大きさ範囲について制限を設けることで作業者に起因する差分領域が除外される。   The reference point detection unit 420 detects the reference point 13 from the image captured by the camera 2. Specifically, a reference point image detection process is performed on images captured by each camera 2 at a reference period, and the detection position of each reference point image is assigned to the image from which the reference point image is detected. The reference point information 413 of the storage unit 41 is stored in association with the ID and the frame number. In the detection process, a difference area is extracted based on a background difference or an inter-frame difference, a labeling process is performed on the extracted difference area, and an area in a size range set in advance based on the size of the light image of the irradiator 3 is emitted. The image is selected as an image, and the center of gravity of the selected light image is detected as the reference point 13. By providing a restriction on the size range, the difference area caused by the operator is excluded.

ここで、複数のカメラ2の共通視野に設置された基準点13は基本的には当該複数のカメラ2それぞれにより同時に撮影され、また、作業者10が一時点に設置する基準点13は1つである。よって、基準点情報413にて同一のフレーム番号に対応付けられた基準点13を検索すれば共通視野を有したカメラ対を検出できる。基準点検出部420は基準点情報413から、フレーム番号が同一である基準点ペアを抽出し、抽出した基準点13のカメラIDを共通視野を有するカメラ対として要求情報411に記憶させる。   Here, the reference point 13 set in the common visual field of the plurality of cameras 2 is basically photographed simultaneously by each of the plurality of cameras 2, and one reference point 13 is set at a temporary point by the operator 10. It is. Therefore, a camera pair having a common field of view can be detected by searching for the reference point 13 associated with the same frame number in the reference point information 413. The reference point detection unit 420 extracts a reference point pair having the same frame number from the reference point information 413 and stores the extracted camera ID of the reference point 13 in the request information 411 as a camera pair having a common field of view.

本実施形態においてカメラ2の校正作業はおおまかな校正(概略校正)とより精度の高い校正(精密校正)との2段階で行われる。概略校正処理は概略校正部421によって行われ、精密校正処理は精密校正部424によって行われる。概略校正部421及び精密校正部424は、基準点検出部420により生成された基準点情報413に基づいてそれぞれの校正処理を行う。ここで、精密校正部424は概略校正部421よりも多い要求位置での基準点13を用いることで、概略校正より精度の高い校正を行う。   In this embodiment, the calibration operation of the camera 2 is performed in two stages: rough calibration (rough calibration) and higher-precision calibration (precision calibration). The general calibration process is performed by the general calibration unit 421, and the precise calibration process is performed by the precise calibration unit 424. The rough calibration unit 421 and the precision calibration unit 424 perform respective calibration processes based on the reference point information 413 generated by the reference point detection unit 420. Here, the precision calibration unit 424 uses the reference points 13 at more required positions than the general calibration unit 421 to perform calibration with higher accuracy than the general calibration.

概略校正部421及び精密校正部424は、基準点情報413から、同時撮影画像にて共通に検出された基準点像を抽出して、それら基準点像が監視空間における同一位置に対応するとの拘束条件を適用してカメラ2の位置・姿勢を算出し、当該位置・姿勢で各カメラ2のカメラパラメータ410を更新する。具体的には、校正対象とするカメラ対にて検出された基準点像の位置をカメラ2の内部パラメータで歪み補正し、その基準点像の検出位置とカメラ2の設置高とを利用してホモグラフィ行列を導出する。そして、カメラ対ごとのホモグラフィ行列から当該カメラ対をなす各カメラの回転行列、並進ベクトル、撮影平面の法線ベクトル、カメラ間距離を算出し、これらを共通座標系に変換して各カメラ2の位置・姿勢を求める。ホモグラフィ行列を使う位置・姿勢の求め方は「平面シーンの最適三角測量」情報処理学会研究報告.CVIM、2010-CVIM-171(4),1-8,2010-08-11)などにより公知である。また、ホモグラフィ行列を使う方法の他にもエピポーラ幾何を基礎とする各種校正方法を適用可能である。   The rough calibrating unit 421 and the precision calibrating unit 424 extract, from the reference point information 413, reference point images that are commonly detected in the simultaneously captured images, and the constraint that these reference point images correspond to the same position in the monitoring space. The position / orientation of the camera 2 is calculated by applying the conditions, and the camera parameter 410 of each camera 2 is updated with the position / orientation. Specifically, the position of the reference point image detected by the camera pair to be calibrated is corrected for distortion with the internal parameters of the camera 2, and the detected position of the reference point image and the installation height of the camera 2 are used. A homography matrix is derived. Then, a rotation matrix, a translation vector, a normal vector of the imaging plane, and an inter-camera distance of each camera constituting the camera pair are calculated from the homography matrix for each camera pair, and these are converted into a common coordinate system to be used for each camera 2. Find the position / posture. How to find the position and orientation using the homography matrix is known from “Study on Optimal Triangulation of Planar Scene” Information Processing Society of Japan, CVIM, 2010-CVIM-171 (4), 1-8, 2010-08-11) It is. In addition to the method using a homography matrix, various calibration methods based on epipolar geometry can be applied.

物体計測部425は基準点検出部420により同時撮影画像から共通に検出された基準点像が監視空間における同一位置に対応するとの拘束条件を適用して、共通視野に存在する物体12の3次元位置を計測する。物体計測部425による3次元計測機能は、精密校正部424が精密校正処理を終えた後に利用される。すなわちカメラの精密位置・姿勢が記憶部41のカメラパラメータ410に記憶されている状態で3次元計測処理(物体計測処理)は実行される。   The object measurement unit 425 applies a constraint condition that the reference point images commonly detected from the simultaneously captured images by the reference point detection unit 420 correspond to the same position in the monitoring space, and the three-dimensional object 12 existing in the common visual field. Measure the position. The three-dimensional measurement function by the object measurement unit 425 is used after the precision calibration unit 424 has finished the precision calibration process. That is, the three-dimensional measurement process (object measurement process) is executed in a state where the precise position / orientation of the camera is stored in the camera parameter 410 of the storage unit 41.

具体的には、物体計測部425は、カメラパラメータ410により定まるカメラ対の位置・姿勢、及び基準点情報413に記憶されている当該カメラ対が撮影した基準点13の検出位置に三角測量の原理を適用して各基準点13の3次元位置を導出する。また物体計測部425は、基準点13のうち対応する要求位置が共通する複数の基準点13を同一平面上の点とみなして要求位置ごとに当該平面を導出する。さらに物体計測部425は、導出した平面同士の接線を導出し、当該接線を各平面の辺として設定する。なお、監視空間は基準面(床面)、カメラ設置高と同じ高さを有する仮想天井、有限範囲のXY座標で規定した仮想壁からなる立体とし、接線は基準面、仮想天井、仮想壁との間でも導出する。   Specifically, the object measurement unit 425 determines the triangulation principle at the position / posture of the camera pair determined by the camera parameter 410 and the detection position of the reference point 13 captured by the camera pair stored in the reference point information 413. Is applied to derive the three-dimensional position of each reference point 13. Further, the object measuring unit 425 derives a plane for each requested position by regarding a plurality of reference points 13 having the same corresponding requested position among the reference points 13 as points on the same plane. Further, the object measuring unit 425 derives a tangent line between the derived planes, and sets the tangent line as a side of each plane. The monitoring space is a solid surface composed of a reference surface (floor surface), a virtual ceiling having the same height as the camera installation height, and a virtual wall defined by a finite range of XY coordinates, and a tangent line is defined as a reference surface, a virtual ceiling, and a virtual wall. Derived even between.

物体計測部425は、辺が導出されて輪郭が定義された各平面のデータを物体12の表面を表す3次元形状データとして記憶部41の物体計測情報414に記憶させる。   The object measurement unit 425 stores the data of each plane in which the edge is derived and the contour is defined in the object measurement information 414 of the storage unit 41 as the three-dimensional shape data representing the surface of the object 12.

上述のように概略校正処理、精密校正処理及び物体計測処理は基準点検出部420により検出された基準点13を用いる。要求設定部(要求位置設定部)422は基準点13の設置が要求される複数の要求位置をカメラ2ごとに共通視野内に設定する。具体的には要求設定部422は上述した要求情報411を生成し記憶部41に記憶させる。また、要求設定部422は要求情報411を記憶させた後に基準点情報413と要求情報411とを逐次参照して、基準点検出部420が共通視野内の各要求位置に存在する基準点13を検出したか否かを確認し、基準点13を検出した場合にのみ当該基準点13が撮影された要求位置を記憶部41から削除する。なお、各処理における要求位置の設定基準は異なり、以下、それぞれについて説明する。   As described above, the reference point 13 detected by the reference point detection unit 420 is used in the rough calibration process, the precision calibration process, and the object measurement process. A request setting unit (requested position setting unit) 422 sets a plurality of required positions where the installation of the reference point 13 is required within the common visual field for each camera 2. Specifically, the request setting unit 422 generates the above-described request information 411 and stores it in the storage unit 41. Further, after storing the request information 411, the request setting unit 422 sequentially refers to the reference point information 413 and the request information 411, and the reference point detection unit 420 determines the reference point 13 existing at each request position in the common visual field. Whether or not it has been detected is confirmed, and only when the reference point 13 is detected, the requested position where the reference point 13 is photographed is deleted from the storage unit 41. In addition, the setting criteria of the request | requirement position in each process differ, and each is demonstrated below.

(1)概略校正処理における要求位置
共通視野を有するカメラ対の校正処理(概略校正処理及び精密校正処理)において当該共通視野の基準面から複数の基準点13の検出が必要である。本実施形態では上述したように、各カメラ対にホモグラフィ行列を用いた校正を適用する。この場合、カメラ対ごとに同一直線上にない4個以上の基準点13が同時撮影画像から検出されること、すなわち対をなす2つのカメラ2で合計8個以上の基準点13の検出が要求される。この観点から、要求設定部422は各カメラ2の画像を区分した区分領域を単位として複数の要求位置を設定する。好適には要求設定部422は、各カメラ2が撮影した画像を当該カメラの光軸と撮影平面との交点から放射状に所定角度ごとに区分する。作業者10が存在することによって生じる死角領域は基本的には、カメラ2の光軸と撮影平面との交点から作業者10の位置に向かう方向に延ばした線に沿って位置するので、当該区分の仕方によれば死角領域が形成される要求位置が少なくなる。つまり、死角の影響を受けにくくなる効果がある。例えば、放射状に45度刻みで8エリアに区分けすることができる。
(1) Required position in rough calibration process In the calibration process (rough calibration process and precision calibration process) of a camera pair having a common field of view, it is necessary to detect a plurality of reference points 13 from the reference plane of the common field of view. In this embodiment, as described above, calibration using a homography matrix is applied to each camera pair. In this case, it is required that four or more reference points 13 that are not on the same straight line for each camera pair are detected from the simultaneously photographed image, that is, a total of eight or more reference points 13 are detected by the two cameras 2 that form a pair. Is done. From this point of view, the request setting unit 422 sets a plurality of request positions in units of divided areas obtained by dividing the images of the cameras 2. Preferably, the request setting unit 422 divides the image captured by each camera 2 radially at predetermined angles from the intersection of the optical axis of the camera and the imaging plane. The blind spot area generated by the presence of the worker 10 is basically located along a line extending from the intersection of the optical axis of the camera 2 and the imaging plane toward the position of the worker 10, According to this method, the required position where the blind spot area is formed is reduced. In other words, there is an effect that it is difficult to be affected by blind spots. For example, it can be divided into 8 areas in 45 degree increments radially.

また、校正の精度を確保する上でこれらの基準点13は分散していることが望ましい。この観点からは、上記放射状の複数エリアとは別に、カメラ2の画像領域のうち当該カメラ2の光軸と撮影平面との交点が内部に位置した部分を1エリアとして追加設定する区分の仕方が好適である。これにより、放射状の区分の中心部において複数の放射状エリアの密集を回避でき、中心部の狭い領域にて集中して基準点13が検出される事態を排除できる。つまり、検出される基準点13の分散の度合が低くなることを防止でき、校正の精度を確保できる。そこで、本実施形態では、要求設定部422は、各カメラ2の鉛直下近傍に相当する円形の1エリアと、その外側に残るエリアを45度刻みで放射状に区分した8エリアとからなる9エリアを要求位置として設定する。   In order to ensure the accuracy of calibration, it is desirable that these reference points 13 are dispersed. From this point of view, apart from the above-mentioned plurality of radial areas, there is a method of classification in which an area where the intersection between the optical axis of the camera 2 and the imaging plane is located in the image area of the camera 2 is additionally set as one area. Is preferred. Thereby, it is possible to avoid the crowding of a plurality of radial areas in the central portion of the radial section, and it is possible to eliminate the situation where the reference point 13 is detected in a concentrated manner in a narrow region of the central portion. That is, it is possible to prevent the degree of dispersion of the detected reference point 13 from being lowered, and to ensure calibration accuracy. Therefore, in the present embodiment, the request setting unit 422 includes 9 areas including a circular area corresponding to the vicinity of the bottom of each camera 2 and 8 areas obtained by radially dividing the area remaining outside the camera 2 in 45 degree increments. Is set as the requested position.

図5はこのように設定された要求位置を示す模式図であり、同図はカメラ2Bとカメラ2Cからなるカメラ対に設定する要求位置の例を示している。図5(a),(b)はそれぞれ図2に平面図で示す監視空間20に配置されたカメラ2B,2Cで撮影される画像領域21b,21cを示している。ちなみに、監視空間20のうち画像領域21b,21cに映る範囲は図2に示す監視空間20の平面図ではそれぞれカメラ2B,2Cの視野100b,100cで表される。図5(a)に示すカメラ2Bの画像領域21bには要求位置B1〜B9が示されており、図5(b)に示すカメラ2Cの画像領域21cには要求位置C1〜C9が示されている。具体的には、カメラ2Bの鉛直下近傍に相当する円形の1エリアとして基準面11にて半径RとなるエリアB1を画像領域21bに設定し、カメラ2B及び2Cそれぞれの鉛直下を結ぶ線を0度として45度刻みでエリアB1の周囲の画像領域を放射状に8区分して順にエリアB2〜エリアB9を設定する。同様にカメラ2Cに関して円形の1エリアであるエリアC1とその周囲を放射状に区分したエリアC2〜C9を設定する。   FIG. 5 is a schematic diagram showing the required positions set as described above, and FIG. 5 shows an example of the required positions set for the camera pair composed of the camera 2B and the camera 2C. FIGS. 5A and 5B show image areas 21b and 21c photographed by the cameras 2B and 2C arranged in the monitoring space 20 shown in a plan view in FIG. Incidentally, the range shown in the image areas 21b and 21c in the monitoring space 20 is represented by the fields of view 100b and 100c of the cameras 2B and 2C, respectively, in the plan view of the monitoring space 20 shown in FIG. Requested positions B1 to B9 are shown in the image area 21b of the camera 2B shown in FIG. 5A, and required positions C1 to C9 are shown in the image area 21c of the camera 2C shown in FIG. 5B. Yes. Specifically, an area B1 having a radius R on the reference plane 11 is set as an image area 21b as a circular area corresponding to the vicinity of the camera 2B vertically below, and lines connecting the cameras 2B and 2C vertically below each other are set. The image area around the area B1 is divided into 8 areas in increments of 45 degrees as 0 degrees, and areas B2 to B9 are set in order. Similarly, an area C1 which is one circular area with respect to the camera 2C and areas C2 to C9 obtained by radially dividing the periphery are set.

なお、中心部の円形エリアは放射状エリアを分散させる目的で設定するものであり、その大きさは当該目的を達成できるように定められる。また当該目的から、中心部のエリアは円形に限らず、例えば四角形などの多角形とすることもできる。   The circular area in the center is set for the purpose of dispersing the radial area, and the size thereof is determined so that the object can be achieved. For this purpose, the central area is not limited to a circle but may be a polygon such as a quadrangle.

要求設定部422は各カメラ2について、記憶部41からカメラパラメータ410の初期値を読み出してこれを基に上述のカメラ2の画像領域の区分を行い、概略校正処理における要求位置として9エリアを設定する。そして、カメラ対のカメラ2ごとに上記9エリアのうちいずれか4エリアで基準点13(基準点像)が検出され、カメラ対では合計8エリアにて基準点13(基準点像)が検出されることを要求条件として設定する。なお、1エリアに2個以上の検出は許容する。   For each camera 2, the request setting unit 422 reads the initial value of the camera parameter 410 from the storage unit 41, classifies the image area of the camera 2 based on this, and sets nine areas as the required position in the rough calibration process. To do. Then, for each camera 2 of the camera pair, the reference point 13 (reference point image) is detected in any four of the nine areas, and the reference point 13 (reference point image) is detected in a total of eight areas for the camera pair. Is set as a requirement. Two or more detections are allowed in one area.

画像領域における要求位置は放射状の区分に限らず、ブロック状(格子状)の区分によっても要求位置を画像領域内にて分散させることができる。   The requested position in the image area is not limited to the radial section, and the requested position can be dispersed in the image area by a block (lattice) section.

(2)精密校正処理における要求位置
上記(1)にて校正処理として一般的に述べた説明は概略校正処理及び精密校正処理に共通であり、本実施形態での要求設定部422は精密校正処理においても上記9エリアを要求位置として設定する。要求設定部422は各カメラ2について、記憶部41から概略校正されたカメラパラメータ410を読み出してこれを基に上述のカメラ2の画像領域の区分を行い、精密校正処理における要求位置として9エリアを設定する。そして、カメラ対のカメラ2ごとに上記9エリアの全てで基準点13(基準点像)が検出され、カメラ対では合計18エリアにて基準点13(基準点像)が検出されることを要求条件として設定する。なお、1エリアに2個以上の検出は許容する。
(2) Required Position in Precision Calibration Process The description generally given as the calibration process in (1) above is common to the rough calibration process and the precision calibration process, and the request setting unit 422 in this embodiment is a precision calibration process. The above nine areas are also set as required positions. For each camera 2, the request setting unit 422 reads the camera parameters 410 roughly calibrated from the storage unit 41, classifies the above-described image area of the camera 2 based on the camera parameters 410, and sets nine areas as required positions in the precision calibration process. Set. Then, for each camera 2 of the camera pair, the reference point 13 (reference point image) is detected in all the nine areas, and the camera pair requires that the reference point 13 (reference point image) is detected in a total of 18 areas. Set as a condition. Two or more detections are allowed in one area.

すなわち、精密校正処理における要求位置が概略校正処理における要求位置と相違する点は、精密校正処理における要求位置が要求する基準点13の数が概略校正処理におけるより多い点、及びエリアの設定に用いるカメラパラメータ410が概略校正では初期値であるのに対し、精密校正では概略校正された値である点である。   That is, the difference between the required position in the precision calibration process and the required position in the rough calibration process is that the number of reference points 13 required by the required position in the precision calibration process is larger than that in the rough calibration process, and is used for setting the area. The camera parameter 410 is an initial value in rough calibration, whereas it is a value that is roughly calibrated in precision calibration.

(3)計測処理における要求位置
計測処理における要求位置は、物体12の3次元計測のために必要な基準点13の検出が要求される位置であり、カメラ2のそれぞれが撮影した画像を基に生成される。
(3) Required position in measurement processing The required position in measurement processing is a position where detection of the reference point 13 required for three-dimensional measurement of the object 12 is required, and is based on images taken by each camera 2. Generated.

本実施形態では、物体表面が平面の集まりであると仮定し、要求設定部422は物体表面を構成する平面と推定される領域を要求位置に設定する。また平面を特定するために、要求設定部422は当該領域ごとに同一直線上にない3個以上の基準点13の検出を要求条件として設定する。   In the present embodiment, it is assumed that the object surface is a collection of planes, and the request setting unit 422 sets an area estimated as a plane constituting the object surface as a required position. Further, in order to specify a plane, the request setting unit 422 sets detection of three or more reference points 13 that are not on the same straight line as the required condition for each region.

具体的には、要求設定部422は各カメラ2の画像を互いに色が類似する隣接画素のまとまりに分割して分割領域それぞれを要求位置に設定する。例えば、画素の色と画素の位置とをパラメータとしてクラスタリングを行うことにより画像を分割することができる。   Specifically, the request setting unit 422 divides the image of each camera 2 into a group of adjacent pixels that are similar in color to each other, and sets each of the divided areas as a required position. For example, an image can be divided by performing clustering using the pixel color and the pixel position as parameters.

別の実施形態では、要求設定部422は各カメラ2の画像にSobelフィルタなどによるフィルタリングを施してエッジ画像を生成し、エッジ画像をそれぞれがエッジに囲まれた閉領域に分割して、分割領域それぞれを要求位置に設定することができる。   In another embodiment, the request setting unit 422 generates an edge image by filtering the image of each camera 2 using a Sobel filter or the like, and divides the edge image into closed regions each surrounded by an edge. Each can be set to a required position.

推奨立ち位置算出部423は、注目するカメラ2の要求位置及び当該カメラ2のカメラパラメータ410を用いて、当該カメラ2から当該要求位置への視線方向の位置を、監視空間内にて作業者10が存在すると当該要求位置に死角を形成する死角形成位置(死角形成作業者位置)として算出する作業者位置算出部である。推奨立ち位置算出部423は、要求位置の情報と共に、当該要求位置に対して算出した死角形成位置の情報を表示通信部43に出力する。   The recommended standing position calculation unit 423 uses the requested position of the camera 2 to be noticed and the camera parameters 410 of the camera 2 to determine the position in the line-of-sight direction from the camera 2 to the requested position in the monitoring space. Is a worker position calculation unit that calculates a blind spot forming position (dead spot forming worker position) that forms a blind spot at the requested position. The recommended standing position calculation unit 423 outputs the information on the blind spot formation position calculated with respect to the requested position to the display communication unit 43 together with the information on the requested position.

上記視線方向は、カメラ位置と要求位置とを結ぶ直線から求めることができ、基準面上でカメラの鉛直下位置と要求位置とを結ぶ直線群がなす領域を死角形成位置として求めることができる。本実施形態では死角形成位置を画像上で近似的に算出する。すなわち推奨立ち位置算出部423は画像中心と要求位置とを結ぶ直線群がなす領域を死角形成位置として算出する。   The line-of-sight direction can be obtained from a straight line connecting the camera position and the required position, and an area formed by a group of straight lines connecting the vertical bottom position of the camera and the required position on the reference plane can be obtained as the blind spot forming position. In this embodiment, the blind spot formation position is approximately calculated on the image. That is, the recommended standing position calculation unit 423 calculates a region formed by a group of straight lines connecting the image center and the required position as a blind spot forming position.

また、精密校正処理では推奨立ち位置算出部423はエリアを単位として死角形成位置を算出する。具体的には推奨立ち位置算出部423は画像中心と要求位置とを結ぶ直線に交差するエリアを死角形成位置として算出する。これにより、カメラの概略位置・姿勢を用いて計算を行うことによる誤差の影響を吸収することができる。   In the precision calibration process, the recommended standing position calculation unit 423 calculates the blind spot forming position in units of areas. Specifically, the recommended standing position calculation unit 423 calculates an area intersecting a straight line connecting the image center and the requested position as a blind spot forming position. Thereby, it is possible to absorb the influence of the error caused by performing the calculation using the approximate position / orientation of the camera.

本実施形態では、精密校正処理または計測処理を行うカメラ対ごとに死角形成位置を算出する。この場合、基準点13はカメラ対から同時撮影される必要がある。そのため、推奨立ち位置算出部423はカメラ対をなすカメラの両方について死角形成位置を算出して、算出した複数の死角形成位置の和領域を死角形成位置として算出する。   In this embodiment, a blind spot forming position is calculated for each camera pair that performs precision calibration processing or measurement processing. In this case, the reference point 13 needs to be photographed simultaneously from the camera pair. Therefore, the recommended standing position calculation unit 423 calculates a blind spot forming position for both cameras forming a camera pair, and calculates a sum area of the calculated multiple blind spot forming positions as a blind spot forming position.

推奨立ち位置算出部423は死角形成位置の情報として、死角の形成を回避可能な作業者10の立ち位置(作業者立ち位置)を出力する。そのために推奨立ち位置算出部423は、要求位置からの距離が照射限界距離値未満であって死角形成位置を除く位置を作業者立ち位置として算出する。さらに作業者立ち位置のうち要求位置に最も近い位置を最終的な作業者立ち位置として出力することもできる。また複数の要求位置が設定されている場合、各要求位置について算出された作業者立ち位置の積領域をこれらの要求位置の組に対する共通の作業者立ち位置として出力してもよい。こうすることで1箇所から複数の要求位置に基準点13を設置できる作業者立ち位置を提示でき、作業者の効率がさらに向上する。なおこのとき積領域が無い要求位置は組にせず別々に作業者立ち位置を出力すればよい。   The recommended standing position calculation unit 423 outputs the standing position of the worker 10 (worker standing position) that can avoid the formation of the blind spot as information on the blind spot forming position. Therefore, the recommended standing position calculation unit 423 calculates a position where the distance from the requested position is less than the irradiation limit distance value and excludes the blind spot forming position as the worker standing position. Further, the position closest to the required position among the worker standing positions can be output as the final worker standing position. When a plurality of requested positions are set, the product area of the worker standing positions calculated for each requested position may be output as a common worker standing position for the set of these requested positions. By doing so, it is possible to present the worker standing position where the reference point 13 can be installed at a plurality of required positions from one place, and the efficiency of the worker is further improved. At this time, it is only necessary to output the worker standing position separately without requesting the required position without the product area.

表示通信部43は制御装置4と表示部5との通信を行う通信インターフェースである。表示通信部43は、推奨立ち位置算出部423から入力された要求位置の情報及び当該要求位置に対する死角形成位置の情報を表示部5へ出力する出力部などとして機能する。   The display communication unit 43 is a communication interface that performs communication between the control device 4 and the display unit 5. The display communication unit 43 functions as an output unit that outputs information on the requested position input from the recommended standing position calculation unit 423 and information on the blind spot forming position with respect to the requested position to the display unit 5.

[カメラシステム1の校正処理における動作]
図6はカメラシステム1の校正処理における動作の概略を示すフロー図である。また、図7はカメラシステム1が校正処理にて行う推奨立ち位置の提示処理の概略を示すフロー図である。図6及び図7を参照してカメラシステム1の校正処理における動作を説明する。
[Operation in Calibration Processing of Camera System 1]
FIG. 6 is a flowchart showing an outline of the operation in the calibration process of the camera system 1. FIG. 7 is a flowchart showing an outline of a recommended standing position presentation process performed by the camera system 1 in the calibration process. The operation in the calibration process of the camera system 1 will be described with reference to FIGS.

カメラ2が設置され制御装置4と表示部5とに電源が投入されると校正動作が始まる。起動直後のカメラパラメータ410は初期値であり概略校正以前の状態である。各カメラ2は自身の視野を順次撮影し、制御装置4に撮影画像を送信する。   When the camera 2 is installed and the control device 4 and the display unit 5 are turned on, the calibration operation starts. Immediately after startup, the camera parameter 410 is an initial value and is in a state before rough calibration. Each camera 2 sequentially captures its field of view and transmits the captured image to the control device 4.

制御装置4の画像取得部40は同時撮影画像を順次、制御装置4の画像処理部42に入力する。この状態にて作業者は監視空間内を移動しながら照射器3により床面を照射する。   The image acquisition unit 40 of the control device 4 sequentially inputs the simultaneously captured images to the image processing unit 42 of the control device 4. In this state, the operator irradiates the floor with the irradiator 3 while moving in the monitoring space.

画像取得部40から画像処理部42に同時撮影画像が入力されるたびにステップS1からステップS14までの処理が繰り返される。以降、繰り返しの時間単位をフレームと呼ぶ。   Every time a simultaneously captured image is input from the image acquisition unit 40 to the image processing unit 42, the processing from step S1 to step S14 is repeated. Hereinafter, the repeating time unit is referred to as a frame.

画像処理部42は同時撮影画像を取得すると(S1)、基準点検出部420として動作し、各同時撮影画像に差分処理を施して当該同時撮影画像から基準点13(基準点像)を検出する(S2)。基準点検出部420は、検出した基準点13の画像上での座標に当該画像のカメラID及び当該画像のフレーム番号を対応付けて記憶部41の基準点情報413に記憶させる。   When the image processing unit 42 acquires the simultaneously shot image (S1), the image processing unit 42 operates as a reference point detection unit 420, performs difference processing on each simultaneously shot image, and detects the reference point 13 (reference point image) from the simultaneously shot image. (S2). The reference point detection unit 420 associates the detected coordinates of the reference point 13 on the image with the camera ID of the image and the frame number of the image and stores them in the reference point information 413 of the storage unit 41.

次に画像処理部42は、概略校正部421として動作し、新規カメラ対の検出を行う(S3)。すなわち概略校正部421は基準点情報413を検索して、フレーム番号が同一である基準点13に対応付けられたカメラIDの対をカメラ対として抽出し、カメラパラメータ410を参照して、抽出したカメラ対が精密校正対象に設定されていない新規カメラ対であるか否かを確認する。ここで検出されるカメラ対は視野の少なくとも一部を共有しているカメラである。なおフレーム番号が同一である基準点像の対が4つ以上であることを抽出の条件に加えても良い。   Next, the image processing unit 42 operates as the general calibration unit 421 to detect a new camera pair (S3). That is, the rough calibration unit 421 searches the reference point information 413, extracts a camera ID pair associated with the reference point 13 having the same frame number as a camera pair, and extracts it with reference to the camera parameter 410. It is confirmed whether or not the camera pair is a new camera pair that is not set as a precision calibration target. The detected camera pair is a camera sharing at least a part of the field of view. It may be added to the extraction condition that there are four or more pairs of reference point images having the same frame number.

1以上の新規カメラ対を検出した場合(S3にて「YES」の場合)、画像処理部42は要求設定部422として動作し、当該各カメラ対に対する概略校正用の要求情報411を生成して記憶部41に記憶させる(S4)。具体的には、要求設定部422は新規カメラ対を構成する各カメラ2のカメラパラメータ410を読み出して当該カメラごとに9エリアを設定すると共に、当該カメラ対において基準点13が検出される要求位置の数を各カメラでいずれか4エリア、カメラ対で合計8エリアとする要求条件を設定する。   When one or more new camera pairs are detected (in the case of “YES” in S3), the image processing unit 42 operates as a request setting unit 422 to generate request information 411 for rough calibration for each camera pair. The data is stored in the storage unit 41 (S4). Specifically, the request setting unit 422 reads out the camera parameters 410 of each camera 2 constituting the new camera pair, sets nine areas for each camera, and requests position where the reference point 13 is detected in the camera pair. The required condition is set so that the number of cameras is any 4 areas for each camera and 8 areas in total for the camera pairs.

続いて要求設定部422は、新規カメラ対それぞれが概略校正用の要求条件を満たすか否かを確認する(S5)。具体的には、要求設定部422は新規カメラ対の基準点情報413と要求情報411とを参照して、当該カメラ対のカメラIDと対応付けられている基準点像の座標が属するエリア(要求位置)を削除し、残っている要求位置の数から既検出のエリアがカメラごとに4エリア以上、合計8エリア以上であるかを確認する。   Subsequently, the request setting unit 422 confirms whether or not each new camera pair satisfies a rough calibration requirement condition (S5). Specifically, the request setting unit 422 refers to the reference point information 413 and request information 411 of the new camera pair, and the area (request request) to which the coordinates of the reference point image associated with the camera ID of the camera pair belong. (Position) is deleted, and it is confirmed from the number of remaining requested positions whether the detected area is 4 areas or more for each camera, and a total of 8 areas or more.

新規カメラ対に要求条件を満たすカメラ対が含まれていた場合(S5にて「YES」の場合)、画像処理部42は概略校正部421として動作し当該カメラ対の基準点情報413を用いて概略校正を行い(S6)、校正結果である概略位置・姿勢の値をカメラパラメータ410に書き込んで当該カメラ対を精密校正対象に設定する(S7)。   If the new camera pair includes a camera pair that satisfies the required conditions (in the case of “YES” in S5), the image processing unit 42 operates as the general calibration unit 421 and uses the reference point information 413 of the camera pair. Approximate calibration is performed (S6), the approximate position / orientation values as calibration results are written in the camera parameter 410, and the camera pair is set as a precision calibration target (S7).

新規カメラ対を精密校正対象に設定した場合、画像処理部42は要求設定部422として動作し、当該カメラ対に対する精密校正用の要求情報411を生成して記憶部41に記憶させる(S8)。すなわち要求設定部422は新規カメラ対を構成する各カメラ2のカメラパラメータ410を読み出して当該カメラごとに9エリアを設定すると共に、当該カメラ対において基準点13が検出される要求位置の数を各カメラで9エリア、カメラ対で合計18エリアとする要求条件を設定する。   When a new camera pair is set as a precision calibration target, the image processing unit 42 operates as the request setting unit 422, generates precision calibration request information 411 for the camera pair and stores it in the storage unit 41 (S8). That is, the request setting unit 422 reads the camera parameters 410 of each camera 2 constituting the new camera pair, sets nine areas for each camera, and sets the number of requested positions at which the reference point 13 is detected in the camera pair. The required conditions are set to 9 areas for the camera and 18 areas in total for the camera pair.

ステップS8で設定されるエリアは概略校正されたカメラパラメータ410を用いて算出されるため、ステップS4で設定されるエリアよりも実際のカメラ2の位置・姿勢に適合したエリアとなっている。   Since the area set in step S8 is calculated using the camera parameter 410 roughly calibrated, the area is more suitable for the actual position and orientation of the camera 2 than the area set in step S4.

新規カメラ対が検出されなかった場合(S3にて「NO」の場合)、画像処理部42は現フレームに対するステップS4〜S8の処理をスキップし、ステップS9へ進む。また新規カメラ対は検出されたが概略校正用の要求条件を満たさなかった場合(S5にて「NO」の場合)、画像処理部42は現フレームに対するステップS6〜S8の処理をスキップしステップS9に進む。   When a new camera pair is not detected (in the case of “NO” in S3), the image processing unit 42 skips steps S4 to S8 for the current frame, and proceeds to step S9. If a new camera pair is detected but does not satisfy the rough calibration requirement (in the case of “NO” in S5), the image processing unit 42 skips steps S6 to S8 for the current frame and skips step S9. Proceed to

ここまでの処理により、作業者が共通視野を4エリア以上照射したカメラ対が順次、画像処理部42によって精密校正対象にリストアップされ、精密校正対象の各カメラ対に対する要求情報411が設定される(S8)。   Through the processing so far, the camera pairs irradiated by the operator with four or more common fields of view are sequentially listed as precision calibration targets by the image processing unit 42, and request information 411 for each camera pair to be precisely calibrated is set. (S8).

次に画像処理部42は要求設定部422として動作し、精密校正対象のカメラ対のうち精密校正が未了のカメラ対があるか確認し(S9)、未了のカメラ対がある場合には、ステップS2での基準点13の検出結果に基づいて要求位置を更新した上で(S10)、当該カメラ対が精密校正用の要求条件を満たしているか否かを確認する(S11)。具体的には要求設定部422は、カメラパラメータ410を参照して精密校正が未了のカメラ対の有無を確認し(S9)、精密校正未了カメラ対の基準点情報413と要求情報411とを参照して、当該カメラ対のカメラIDと対応付けられている基準点13の座標が属するエリア(要求位置)を削除した上で(S10)、残っている要求位置が0個になったか、すなわち基準点13が18エリアで検出されているかを確認する(S11)。   Next, the image processing unit 42 operates as the request setting unit 422 to check whether there is a camera pair that has not been subjected to precision calibration among the camera pairs that are subject to precision calibration (S9). After updating the required position based on the detection result of the reference point 13 in step S2 (S10), it is confirmed whether or not the camera pair satisfies the required conditions for precision calibration (S11). Specifically, the request setting unit 422 refers to the camera parameter 410 to check whether there is a camera pair that has not been subjected to precision calibration (S9), and the reference point information 413 and request information 411 of the camera pair that has not yet undergone precision calibration. , After deleting the area (required position) to which the coordinates of the reference point 13 associated with the camera ID of the camera pair belong (S10), whether the remaining required positions have become zero, That is, it is confirmed whether the reference point 13 is detected in 18 areas (S11).

精密校正が未了のカメラ対に要求条件を満たすカメラ対が含まれていた場合(S11にて「YES」の場合)、画像処理部42は精密校正部424として動作し当該カメラ対の基準点情報413を用いて精密校正を行い(S13)、校正結果である精密位置・姿勢の値をカメラパラメータ410に書きこむと共に、当該カメラが精密校正済みであることを示す情報を連鎖判定テーブル415に書き込んで、全カメラの精密校正が完了したか否かを確認する(S14)。   When a camera pair that satisfies the required conditions is included in the camera pair that has not been subjected to the precision calibration (in the case of “YES” in S11), the image processing unit 42 operates as the precision calibration unit 424 and operates as a reference point of the camera pair. Precision calibration is performed using the information 413 (S13), the value of the precise position / orientation as the calibration result is written in the camera parameter 410, and information indicating that the camera has been precision calibrated is stored in the chain determination table 415. It is written and it is confirmed whether or not the precision calibration of all cameras is completed (S14).

ステップS14にて精密校正部424は、カメラパラメータ410を検索して精密校正済みであるカメラの数をカウントすると共に、連鎖判定テーブル415にて精密校正済みであるカメラ対の接続関係を確認し、カウントが全カメラの台数と一致し且つ孤立しているカメラ対が無ければ全カメラの精密校正が完了したと判定する。全カメラの精密校正が完了した場合(S14にて「YES」の場合)校正処理を終了する(S15)。ちなみに冗長な精密校正対象が設定されていれば精密校正未了カメラ対が残っていても校正完了となることがある。   In step S14, the precision calibration unit 424 searches the camera parameter 410 to count the number of cameras that have been precision calibrated, and confirms the connection relationship of the camera pair that has been precision calibrated in the chain determination table 415. If the count matches the number of all cameras and there are no isolated camera pairs, it is determined that the precision calibration of all the cameras has been completed. When the precision calibration of all the cameras is completed (in the case of “YES” in S14), the calibration process is terminated (S15). By the way, if redundant precision calibration targets are set, calibration may be completed even if there are still uncalibrated camera pairs.

一方、カウントが全カメラの台数より少ない場合または孤立しているカメラ対がある場合は、未完了であるとして処理をステップS1に戻して次フレームの次フレームの同時撮影画像に対する処理を行う(S14にて「NO」→S1)。   On the other hand, if the count is smaller than the total number of cameras or if there is an isolated camera pair, the process is returned to step S1 as incomplete, and the process for the simultaneously shot image of the next frame of the next frame is performed (S14). "NO" → S1).

図8〜図10を参照して、要求条件が満たされた場合(S11にて「YES」の場合)の処理例を説明する。既に述べたように図8,図9,図10はそれぞれ基準点情報413、要求情報411及び連鎖判定テーブル415のデータ構成を模式的に表しており、連続する2フレーム間でのそれらの変化を示している。図8(a),図9(a),図10(a)はそれぞれ第41フレームでの状態を示しており、図8(b),図9(b),図10(b)はそれぞれ第42フレームでの状態を示している。   With reference to FIG. 8 to FIG. 10, a processing example when the required condition is satisfied (in the case of “YES” in S11) will be described. As described above, FIGS. 8, 9, and 10 schematically show the data structure of the reference point information 413, the request information 411, and the chain determination table 415, respectively, and show the changes between two consecutive frames. Show. FIGS. 8 (a), 9 (a), and 10 (a) show states in the 41st frame, respectively, and FIGS. 8 (b), 9 (b), and 10 (b) show the states in the 41st frame, respectively. The state in 42 frames is shown.

第41フレームでの基準点情報413には、基準点検出部420が第1〜41フレームでの撮影にて検出した基準点13の情報が記憶されている(図8(a))。第37フレームから第41フレームまではカメラBとCとの共通視野で基準点13が検出されている。   The reference point information 413 in the 41st frame stores information on the reference point 13 detected by the reference point detection unit 420 in the shooting in the 1st to 41st frames (FIG. 8A). From the 37th frame to the 41st frame, the reference point 13 is detected in the common visual field of the cameras B and C.

また、第41フレームまでの間に概略校正部421がカメラ対「A,B」、「A,C」、「B,C」及び「C,D」を概略校正し、その結果、連鎖判定テーブル415にはこれらカメラ対が精密校正対象に設定されたことが記録されている(図10(a))。さらに連鎖判定テーブル415には、カメラ対「A,B」については精密校正部424による精密校正が完了しており、他のカメラ対は精密校正が未了であることが記録されている(図10(a))。   In addition, the rough calibration unit 421 roughly calibrates the camera pairs “A, B”, “A, C”, “B, C”, and “C, D” until the 41st frame, and as a result, the chain determination table. It is recorded in 415 that these camera pairs are set as precision calibration targets (FIG. 10A). Further, the chain determination table 415 records that the precision calibration by the precision calibration unit 424 has been completed for the camera pair “A, B” and the precision calibration has not been completed for the other camera pairs (FIG. 10 (a)).

第41フレームの時点で、要求設定部422がカメラ対「B,C」に対して当初要求位置として要求情報411に設定したエリアB1〜B9及びエリアC1〜C9の18エリアのうち、エリアB3及びC4の2エリアが要求位置として残っている(図9(a))。つまり、以降のフレームでエリアB3及びC4にて基準点13が検出されるとカメラ対「B,C」の精密校正が可能となる。なお、精密校正を完了したカメラ対「A,B」に関する要求位置は既に要求情報411から削除されている。   Of the 18 areas of areas B1 to B9 and areas C1 to C9 set in the request information 411 as the initial request position by the request setting unit 422 for the camera pair “B, C” at the time of the 41st frame, the area B3 and Two areas of C4 remain as request positions (FIG. 9A). That is, when the reference point 13 is detected in the areas B3 and C4 in the subsequent frames, the camera pair “B, C” can be precisely calibrated. It should be noted that the requested position relating to the camera pair “A, B” that has completed precision calibration has already been deleted from the request information 411.

次いで第42フレームでは基準点検出部420がカメラB及びCの画像それぞれから新たに基準点像を検出し、基準点情報413にその検出結果が追記される(図8(b))。要求設定部422は、カメラB側で新たに検出された基準点像がエリアB3内であること、及びカメラC側で新たに検出された基準点像がエリアC4内であることを確認したので、カメラ対「B,C」の要求位置であったエリアB3及びエリアC4を要求情報411から削除した(ステップS10、図9(b))。この要求位置更新の結果、カメラ対「B,C」の精密校正に必要な要求位置全てにて基準点が検出されたことが判定され(ステップS11にて「YES」判定)、精密校正部424はカメラ対「B,C」の基準点情報413を用いて精密校正を行い、精密校正が完了したことを連鎖判定テーブル415に記録した(ステップS13、図10(b))。   Next, in the 42nd frame, the reference point detection unit 420 newly detects a reference point image from each of the images of the cameras B and C, and the detection result is added to the reference point information 413 (FIG. 8B). The request setting unit 422 confirms that the reference point image newly detected on the camera B side is in the area B3 and that the reference point image newly detected on the camera C side is in the area C4. Then, the area B3 and the area C4 that were the requested positions of the camera pair “B, C” were deleted from the request information 411 (step S10, FIG. 9B). As a result of the update of the required position, it is determined that the reference points have been detected at all the required positions necessary for the precision calibration of the camera pair “B, C” (“YES” determination in step S11), and the precision calibration unit 424 is determined. Performed precision calibration using the reference point information 413 of the camera pair “B, C”, and recorded that the precision calibration was completed in the chain determination table 415 (step S13, FIG. 10B).

このカメラ対「B,C」の精密校正が完了した時点で、精密校正が完了しているカメラ対は「A,B」及び「B,C」の2組である(図10(b))。つまり、カメラID「A」,「B」,「C」の3つのカメラ2について精密校正が終わっている。ここで、カメラ「A」と「C」とはカメラ「B」を介して接続しており、これら3つのカメラ2は接続関係があることが連鎖判定テーブル415に基づいて判定される。   When the precise calibration of the camera pair “B, C” is completed, there are two camera pairs, “A, B” and “B, C”, for which the precision calibration has been completed (FIG. 10B). . That is, the precision calibration is completed for the three cameras 2 with the camera IDs “A”, “B”, and “C”. Here, the cameras “A” and “C” are connected via the camera “B”, and it is determined based on the chain determination table 415 that these three cameras 2 are connected.

この時点でカメラID「D」〜「H」の5つのカメラ2が精密校正未了として残っているので、ステップS14ではまだ全校正完了とは判定されない。なお、連鎖判定テーブル415からカメラ「A」,「B」,「C」は接続関係にあることが判定できるため、連鎖判定テーブル415においてカメラ対「A,C」の精密校正が未了であるとの記録がされていても全校正完了が判定される。つまり、この例では全校正完了の判定に際して、カメラ対「A,C」の精密校正は全校正完了の必須条件とはならない。   At this time, since the five cameras 2 having the camera IDs “D” to “H” remain as incomplete precision calibration, it is not yet determined in step S14 that all calibrations have been completed. Since it can be determined from the chain determination table 415 that the cameras “A”, “B”, and “C” are in a connection relationship, precise calibration of the camera pair “A, C” has not been completed in the chain determination table 415. Even if it is recorded, it is determined that all calibrations have been completed. In other words, in this example, the precise calibration of the camera pair “A, C” is not an indispensable condition for the completion of the entire calibration when determining the completion of the entire calibration.

ステップS9にて精密校正が未了のカメラ対がない場合には(S9にて「NO」の場合)、精密校正部424はステップS10〜S13をスキップしてステップS14の完了確認を行う。   If there is no camera pair that has not been subjected to precision calibration in step S9 (in the case of “NO” in S9), the precision calibration unit 424 skips steps S10 to S13 and confirms completion of step S14.

また、ステップS11にて要求情報411を満たすカメラ対が無い場合には(S11にて「NO」の場合)、画像処理部42は推奨立ち位置算出部423として動作し、要求位置への基準点設置のために適した作業者の立ち位置を算出して作業者に提示する(S12)。   When there is no camera pair that satisfies the request information 411 in step S11 (in the case of “NO” in S11), the image processing unit 42 operates as the recommended standing position calculation unit 423, and the reference point to the request position A worker's standing position suitable for installation is calculated and presented to the worker (S12).

図7を参照して推奨立ち位置の提示処理(S12)を説明する。   The recommended standing position presentation process (S12) will be described with reference to FIG.

まず、推奨立ち位置算出部423は、精密校正が未了であるカメラ対の中から表示部5に推奨立ち位置を提示する提示カメラ対を1つ選定する(S20)。具体的には推奨立ち位置算出部423は、1フレーム前に選定した提示カメラ対を選定することで提示のばたつきを抑制する。これにより作業者が現在共通視野を照射しているカメラ対が選定されるので作業者の無駄な移動を減じることができる。推奨立ち位置算出部423は、次フレームでの選定に備えて、現フレームにて選定した提示カメラ対を記憶部41に記憶させておく。   First, the recommended standing position calculation unit 423 selects one presentation camera pair that presents the recommended standing position on the display unit 5 from the camera pairs for which precision calibration has not been completed (S20). Specifically, the recommended standing position calculation unit 423 suppresses the flapping of the presentation by selecting the presentation camera pair selected one frame before. As a result, the camera pair that the worker is currently irradiating the common field of view is selected, so that unnecessary movement of the worker can be reduced. The recommended standing position calculation unit 423 stores the presentation camera pair selected in the current frame in the storage unit 41 in preparation for selection in the next frame.

一方、1フレーム前に選定した提示カメラ対から一定期間新たな基準点13が検出されないときは提示カメラ対を変更する。すなわち、この場合には推奨立ち位置算出部423は基準点情報413を参照してフレーム番号が最新である基準点像に対応付けられたカメラIDの精密校正未了カメラ対を選定する。   On the other hand, when a new reference point 13 is not detected for a certain period from the pair of presentation cameras selected one frame before, the pair of presentation cameras is changed. In other words, in this case, the recommended standing position calculation unit 423 refers to the reference point information 413 and selects a camera pair that has not been precisely calibrated for the camera ID associated with the reference point image with the latest frame number.

次に推奨立ち位置算出部423は、提示カメラ対の要求情報411を参照して、当該カメラ対を構成するカメラのうち要求位置の残存数が多い方のカメラを、推奨立ち位置を提示する提示カメラに選定する(S21)。また、次フレームでの選定に備えて推奨立ち位置算出部423は現フレームにて選定した提示カメラを記憶部41に記憶させておく。なお、要求位置が同数の場合は1フレーム前に選定した提示カメラを選定することで提示のばたつきを抑制する。要求位置の数と前回提示カメラの条件とを課しても提示カメラ対の1つを提示カメラとして選定できないときはカメラIDが若い方のカメラを選定する。   Next, the recommended standing position calculation unit 423 refers to the request information 411 of the presented camera pair, and presents the recommended standing position for the camera having the larger remaining number of requested positions among the cameras constituting the camera pair. A camera is selected (S21). In preparation for selection in the next frame, the recommended standing position calculation unit 423 stores the presentation camera selected in the current frame in the storage unit 41. When the number of requested positions is the same, fluttering of presentation is suppressed by selecting the presentation camera selected one frame before. If one of the pair of presentation cameras cannot be selected as the presentation camera even if the number of requested positions and the conditions of the previous presentation camera are imposed, the camera with the younger camera ID is selected.

続く推奨立ち位置算出部423の処理S22〜S25は図11〜図13に示す具体例を参照しつつ説明する。これら図に示す例では提示カメラ対が「B,C」であり、提示カメラを「B」とする。図11はカメラ2B,2Cの画像領域22b,22cにて直接的に求まる死角形成位置の例を示しており、図12は図11に対応する作業者立ち位置の算出例を示している。また、図13は推奨立ち位置の絞り込みの例を示している。なお、図11(a)及び図12(a)はカメラ2Bの画像領域22b,23bを、また図11(b)及び図12(b)はカメラ2Cの画像領域22c,23cをそれぞれ示している。   The subsequent processing S22 to S25 of the recommended standing position calculation unit 423 will be described with reference to specific examples illustrated in FIGS. In the examples shown in these drawings, the presentation camera pair is “B, C”, and the presentation camera is “B”. FIG. 11 shows an example of the blind spot formation position obtained directly in the image areas 22b and 22c of the cameras 2B and 2C, and FIG. 12 shows an example of calculation of the worker standing position corresponding to FIG. FIG. 13 shows an example of narrowing the recommended standing position. 11A and 12A show the image areas 22b and 23b of the camera 2B, and FIGS. 11B and 12B show the image areas 22c and 23c of the camera 2C, respectively. .

推奨立ち位置算出部423は、提示カメラ側の処理対象とする要求位置を提示カメラ対の他方側に投影し(S22)、推奨立ち位置算出部423は、要求位置とその投影像とを基に死角形成位置を算出する(S23)。   The recommended standing position calculation unit 423 projects the requested position to be processed on the presentation camera side onto the other side of the presentation camera pair (S22), and the recommended standing position calculation unit 423 is based on the requested position and its projection image. A blind spot formation position is calculated (S23).

具体的には、推奨立ち位置算出部423は提示カメラの位置(提示カメラの画像中心)と要求位置を結ぶ視線に交差するエリアを提示カメラ側の死角形成位置と判定する。図11では、カメラ2B側のエリアB3(画像領域22bの太線内)が処理対象とする要求位置である。カメラ2B側ではカメラ2Bの位置と要求位置B3とを結ぶ直線が交差する領域220(画像領域22bの斜め格子部分)が直接的な死角形成位置として算出され、領域220を包含するエリアB1がエリア単位での死角形成位置として算出される。   Specifically, the recommended standing position calculation unit 423 determines an area intersecting a line of sight connecting the position of the presentation camera (image center of the presentation camera) and the requested position as a blind spot formation position on the presentation camera side. In FIG. 11, the area B3 on the camera 2B side (within the thick line in the image area 22b) is the requested position to be processed. On the camera 2B side, an area 220 where the straight line connecting the position of the camera 2B and the required position B3 intersects (an oblique lattice portion of the image area 22b) is calculated as a direct blind spot forming position, and an area B1 including the area 220 is an area. It is calculated as a blind spot formation position in units.

次に、推奨立ち位置算出部423は提示カメラ対のカメラパラメータ410を用いた座標変換により投影を行い、他方カメラの位置(他方カメラの画像中心)と要求位置の投影像とを結ぶ視線に交差するエリアを他方カメラ側の死角形成位置と判定する。図11に示す例では、カメラ2C側にて要求位置B3に対応する領域221(画像領域22cの斜線部分)に対する死角形成位置が算出される。具体的には、要求位置B3をカメラ2C側に投影して投影像(領域221)を算出し、その投影像とカメラ2Cの位置とを結ぶ直線が交差する領域222(画像領域22cの斜め格子部分)がカメラ2C側の直接的な死角形成位置として算出される。そして図12に示すように、領域222を包含するエリアC1,C3〜C5(画像領域23cの太線内)がエリア単位での死角形成位置として算出される。   Next, the recommended standing position calculation unit 423 performs projection by coordinate conversion using the camera parameter 410 of the presenting camera pair, and intersects the line of sight connecting the position of the other camera (image center of the other camera) and the projected image of the requested position. The area to be performed is determined as the blind spot forming position on the other camera side. In the example shown in FIG. 11, the blind spot formation position for the area 221 corresponding to the requested position B3 (the hatched portion of the image area 22c) is calculated on the camera 2C side. Specifically, the projected position (area 221) is calculated by projecting the required position B3 on the camera 2C side, and an area 222 (an oblique lattice of the image area 22c) where a straight line connecting the projected image and the position of the camera 2C intersects. (Part) is calculated as a direct blind spot forming position on the camera 2C side. Then, as shown in FIG. 12, areas C1, C3 to C5 including the region 222 (within the thick line of the image region 23c) are calculated as blind spot formation positions in area units.

続いて推奨立ち位置算出部423は、ステップS23で算出した死角形成位置を除外した領域を推奨立ち位置として算出する(S24)。具体的には、推奨立ち位置算出部423は提示カメラ対のカメラパラメータ410を用いた座標変換により他方カメラ側の死角形成位置を提示カメラ側に逆投影し、提示カメラ側の画像全体から提示カメラ側の死角形成位置と他方カメラ側の死角形成位置の逆投影像とを除いた領域を推奨立ち位置として算出する。図12に示す例では、カメラ2C側での死角形成位置であるエリアC1,C3〜C5をカメラ2B側に投影して投影像を算出する。要求位置の基準点13はカメラ対から同時撮影される必要があり、この条件から、カメラ2B側では、カメラ2B側でのエリア単位の死角形成位置であるエリアB1と、カメラ2C側でのエリア単位の死角形成位置の投影像との和領域230(画像領域23bの斜め格子部分)が、要求位置B3に対する基準点設置に際して作業者の存在を禁止する禁止領域となり、当該禁止領域を除いた領域231(画像領域23bの横線部分)がカメラ2B側での作業者の推奨立ち位置となる。   Subsequently, the recommended standing position calculation unit 423 calculates an area excluding the blind spot formation position calculated in step S23 as a recommended standing position (S24). Specifically, the recommended standing position calculation unit 423 backprojects the blind spot formation position on the other camera side to the presentation camera side by coordinate conversion using the camera parameter 410 of the presentation camera pair, and displays the presentation camera from the entire image on the presentation camera side. A region excluding the blind spot forming position on the side and the back projection image of the blind spot forming position on the other camera side is calculated as a recommended standing position. In the example shown in FIG. 12, areas C1, C3 to C5, which are blind spot formation positions on the camera 2C side, are projected on the camera 2B side to calculate a projected image. The reference point 13 of the required position needs to be photographed simultaneously from the camera pair. From this condition, on the camera 2B side, the area B1 that is the blind spot forming position in area units on the camera 2B side and the area on the camera 2C side The sum area 230 (projected lattice portion of the image area 23b) with the projected image of the unit blind spot forming position becomes a prohibited area that prohibits the presence of the worker when setting the reference point with respect to the required position B3. 231 (the horizontal line portion of the image area 23b) is the recommended standing position of the operator on the camera 2B side.

さらに推奨立ち位置算出部423は推奨立ち位置の絞り込みを行う(S25)。例えば、推奨立ち位置算出部423は、提示カメラ側の要求位置の重心を求め、当該重心を中心とする円をその半径を順次大きくしながら設定し、当該円とステップS24で算出した推奨立ち位置との重複領域を算出する処理を、重複領域の数が4つになるまで、又は重複領域の面積が推奨立ち位置の面積の50%になるまで繰り返す。そして推奨立ち位置算出部423は、重複領域が4つとなったとき、又は重複領域の面積が推奨立ち位置の50%となったときの当該重複領域を最終的な推奨立ち位置とする。また、図13に示す例では、さらに禁止領域230から一定の距離内(点線内)であるという条件で推奨立ち位置を絞り込んでおり、4か所の領域232(図13の横線部分の領域)が推奨立ち位置として得られている。   Further, the recommended standing position calculation unit 423 narrows down the recommended standing position (S25). For example, the recommended standing position calculation unit 423 obtains the center of gravity of the requested position on the presentation camera side, sets a circle centered on the center of gravity while sequentially increasing its radius, and the recommended standing position calculated in step S24. The process of calculating the overlapping area is repeated until the number of overlapping areas reaches four or until the area of the overlapping area reaches 50% of the area of the recommended standing position. Then, the recommended standing position calculation unit 423 sets the overlapping area when the overlapping area becomes four or when the area of the overlapping area reaches 50% of the recommended standing position as the final recommended standing position. In the example shown in FIG. 13, the recommended standing positions are further narrowed down within a certain distance (in the dotted line) from the prohibited region 230, and four regions 232 (regions in the horizontal line portion in FIG. 13). Is obtained as the recommended standing position.

推奨立ち位置算出部423は、要求位置、ステップS25にて絞り込んだ推奨立ち位置、及びメッセージを提示カメラの画像に重畳して合成画像を生成し(S26)、合成画像を表示通信部43に出力する(S27)。   The recommended standing position calculation unit 423 generates a composite image by superimposing the requested position, the recommended standing position narrowed down in step S25, and the message on the image of the presentation camera (S26), and outputs the composite image to the display communication unit 43. (S27).

合成画像を入力された表示通信部43は当該合成画像を表示部5に送信し、当該合成画像を受信した表示部5は当該合成画像をディスプレイに表示する。図14は図13の例に対応した、表示部5における推奨立ち位置を提示する表示画面の一例であり、推奨立ち位置(領域240)、要求位置B3(領域241)及びメッセージ242をカメラ2Bによる撮影画像に合成した合成画像が表示される。ちなみに、推奨立ち位置と要求位置B3とは色分けなどにより識別容易なように表示することが好適であり、例えば、図14では推奨立ち位置は赤色、要求位置B3は緑色で表示される。   The display communication unit 43 to which the composite image is input transmits the composite image to the display unit 5, and the display unit 5 that has received the composite image displays the composite image on the display. FIG. 14 is an example of a display screen presenting a recommended standing position on the display unit 5 corresponding to the example of FIG. 13. The recommended standing position (area 240), requested position B 3 (area 241), and message 242 are displayed by the camera 2 B. A composite image synthesized with the captured image is displayed. Incidentally, the recommended standing position and the required position B3 are preferably displayed so as to be easily identified by color coding or the like. For example, in FIG. 14, the recommended standing position is displayed in red and the required position B3 is displayed in green.

また、図15は図13の例に対応した、表示部5における推奨立ち位置を提示する表示画面の他の例である。図15(a)は特定した要求位置(領域241)と共に禁止領域243、つまり死角形成位置を表示する例である。死角形成位置を表示することで、作業者10にはその外側が推奨立ち位置であることが示される。図15(b)は死角形成位置を囲む帯状領域244を推奨立ち位置として表示、提示している。   FIG. 15 is another example of a display screen presenting a recommended standing position on the display unit 5 corresponding to the example of FIG. FIG. 15A shows an example of displaying the prohibited area 243, that is, the blind spot forming position, together with the specified requested position (area 241). By displaying the blind spot forming position, it is indicated to the worker 10 that the outside is the recommended standing position. FIG. 15B displays and presents a belt-like region 244 surrounding the blind spot forming position as a recommended standing position.

こうして要求位置及び推奨立ち位置が作業者に提示され、作業者は推奨立ち位置に立って要求位置を照射する。こうすることで作業者は要求位置に死角を形成する失敗を回避して効率的に基準点13を設置できるので、少ない作業負担で校正作業を完了することが可能となる。   Thus, the required position and the recommended standing position are presented to the worker, and the worker stands at the recommended standing position and irradiates the requested position. By doing so, the operator can efficiently set the reference point 13 while avoiding the failure to form a blind spot at the required position, so that the calibration work can be completed with a small work load.

またステップS25の処理により推奨立ち位置は要求位置に近い位置に絞り込まれる。要求位置に近い位置から照射するほど要求位置に形成される光像の輝度が高くなるので、要求位置に死角を形成しない立ち位置であることに加えて基準点13が検出されやすい立ち位置を作業者に提示することができる。これにより基準点13が撮影ができても検出できない失敗をさらに回避することができるので、少ない作業負担で校正作業を完了することが可能となる。   Further, the recommended standing position is narrowed down to a position close to the required position by the process of step S25. Since the brightness of the light image formed at the requested position increases as irradiation is performed from a position closer to the requested position, the standing position where the reference point 13 is easily detected in addition to the standing position that does not form a blind spot at the requested position is operated. Can be presented to the person. As a result, a failure that cannot be detected even if the reference point 13 can be photographed can be further avoided, so that the calibration work can be completed with a small work load.

またステップS25の絞り込みにて推奨立ち位置を複数の重複領域、またはある程度の面積を有する重複領域としたことで物体12のごとき床面でない領域のみを推奨立ち位置とすることを防ぐことができる。さらに、ステップS26の合成にて撮影画像に重畳したことで実際に立つ位置を作業者が判断できる。   Further, by setting the recommended standing position as a plurality of overlapping areas or overlapping areas having a certain area in the narrowing down in step S25, it is possible to prevent only the area that is not the floor surface such as the object 12 from being the recommended standing position. Furthermore, the operator can determine the position where the operator actually stands by being superimposed on the photographed image in the composition of step S26.

なお、カメラ2の配置によっては要求位置が多いときに推奨立ち位置が全く無くなる場合がある。このときは要求位置のみを撮影画像に合成して出力してもよい。   Depending on the arrangement of the camera 2, there may be no recommended standing position when there are many required positions. At this time, only the required position may be combined with the captured image and output.

推奨立ち位置の提示(S12)を行うと、画像処理部42は処理を図6のステップS1へ戻して次フレームの同時撮影画像に対する処理を行う。   When the recommended standing position is presented (S12), the image processing unit 42 returns the process to step S1 in FIG. 6 and performs the process on the simultaneously captured image of the next frame.

なお、ステップS25の絞り込みにて、推奨立ち位置を死角形成位置の周りの帯状領域に絞り込んでもよい。この場合、前述のカメラ2B,2Cの例では、推奨立ち位置は図15(b)にて横線で示す領域となる。当該帯の幅は人の幅程度とするのがよい。   Note that the recommended standing position may be narrowed down to a band-like region around the blind spot forming position by narrowing down in step S25. In this case, in the example of the cameras 2B and 2C described above, the recommended standing position is an area indicated by a horizontal line in FIG. The width of the band should be about the width of a person.

上述の実施形態では、表示部5に要求位置及び推奨立ち位置を表示している。これに対して、表示部5に要求位置及び死角形成位置を表示することで、死角形成位置の外側を推奨立ち位置として提示してもよい。これは図15(a)の表示例に相当する。図16はこの場合の推奨立ち位置の提示処理の概略を示すフロー図である。ステップS20〜S23は図7と同様である。ステップS23に続いて、提示カメラの画像に要求位置及び死角形成位置を合成し(S28)、当該合成画像を表示通信部43経由で表示部5に出力する(S29)。   In the above-described embodiment, the required position and the recommended standing position are displayed on the display unit 5. On the other hand, by displaying the required position and the blind spot forming position on the display unit 5, the outside of the blind spot forming position may be presented as the recommended standing position. This corresponds to the display example of FIG. FIG. 16 is a flowchart showing an outline of the recommended standing position presentation process in this case. Steps S20 to S23 are the same as those in FIG. Subsequent to step S23, the requested position and the blind spot forming position are combined with the image of the presentation camera (S28), and the combined image is output to the display unit 5 via the display communication unit 43 (S29).

[カメラシステム1の3次元計測処理における動作]
校正処理を終えたカメラシステム1は監視空間を3次元計測する計測処理へと移行する。
[Operation in 3D Measurement Processing of Camera System 1]
After completing the calibration process, the camera system 1 shifts to a measurement process for three-dimensional measurement of the monitoring space.

図17はカメラシステム1の計測処理における動作の概略を示すフロー図である。図17を参照してカメラシステム1の計測処理における動作を説明する。   FIG. 17 is a flowchart showing an outline of the operation in the measurement process of the camera system 1. With reference to FIG. 17, the operation | movement in the measurement process of the camera system 1 is demonstrated.

3次元計測処理の実行時において、上述の校正処理と同様、各カメラ2は自身の視野を順次撮影し、制御装置4に撮影画像を送信する。制御装置4の画像取得部40は同時撮影画像を順次、制御装置4の画像処理部42に入力する。この状態にて作業者は監視空間内を移動しながら照射器3により監視空間に存在する什器等の物体12を照射する。   When the three-dimensional measurement process is executed, each camera 2 sequentially captures its own field of view and transmits the captured image to the control device 4 as in the calibration process described above. The image acquisition unit 40 of the control device 4 sequentially inputs the simultaneously captured images to the image processing unit 42 of the control device 4. In this state, the worker irradiates the object 12 such as a fixture existing in the monitoring space by the irradiator 3 while moving in the monitoring space.

画像処理部42は同時撮影画像を取得すると(S50)、要求設定部422として動作し、各画像を互いに色が類似する隣接画素のまとまりに分割して分割領域を生成し(S51)、各分割領域をそれぞれ3個以上の基準点13の検出を要求する要求位置とする要求情報411を生成して記憶部41に記憶させる(S52)。図18は計測処理における要求情報411の設定例を示す画像領域の模式図である。図18はカメラ2B,2Cに対する要求情報411の例を示しており、画像領域24bに示すようにカメラ2Bに対しては、什器の面に要求位置b3,b4、壁の面に要求位置b1,b5、及び床面に要求位置b2がそれぞれ設定される。また、画像領域24cに示すようにカメラ2Cに対しては、什器の面に要求位置c2,c3,c4、壁の面に要求位置c5,c6、及び床面に要求位置c1がそれぞれ設定される。   When the image processing unit 42 acquires the simultaneously shot image (S50), the image processing unit 42 operates as the request setting unit 422, divides each image into a group of adjacent pixels having similar colors, and generates divided regions (S51). Request information 411 is generated and stored in the storage unit 41 for each region as a request position for requesting detection of three or more reference points 13 (S52). FIG. 18 is a schematic diagram of an image area showing an example of setting the request information 411 in the measurement process. FIG. 18 shows an example of the request information 411 for the cameras 2B and 2C. As shown in the image area 24b, for the camera 2B, the request positions b3 and b4 on the surface of the fixture and the request positions b1 and b1 on the wall surface. b5 and the required position b2 are set on the floor. Further, as shown in the image area 24c, for the camera 2C, the required positions c2, c3, and c4 are set on the surface of the fixture, the required positions c5 and c6 are set on the wall surface, and the required position c1 is set on the floor surface. .

要求情報411の生成後、画像処理部42は同時撮影画像が入力されるたびにステップS53〜S62の処理を繰り返す。   After the generation of the request information 411, the image processing unit 42 repeats the processing of steps S53 to S62 every time a simultaneously shot image is input.

まず、画像処理部42は同時撮影画像を取得すると(S53)、基準点検出部420として動作し、各同時撮影画像に差分処理を施して当該同時撮影画像から基準点13を検出し、当該基準点13の画像上での座標に当該画像のカメラID及び当該画像のフレーム番号を対応付けて記憶部41の基準点情報413に記憶させる(S54)。   First, when the image processing unit 42 obtains the simultaneous captured image (S53), the image processing unit 42 operates as a reference point detection unit 420, performs difference processing on each simultaneous captured image, detects the reference point 13 from the simultaneous captured image, and performs the reference processing. The camera ID of the image and the frame number of the image are associated with the coordinates on the image of the point 13 and stored in the reference point information 413 of the storage unit 41 (S54).

次に画像処理部42は要求設定部422として動作し、基準点情報413と要求情報411とを参照して3個以上の基準点13が検出された要求位置があるか否かを確認する(S55)。   Next, the image processing unit 42 operates as the request setting unit 422 and refers to the reference point information 413 and the request information 411 to check whether or not there is a request position where three or more reference points 13 are detected ( S55).

該当する要求位置があれば(S55にて「YES」の場合)、画像処理部42は物体計測部425として動作し、当該要求位置にて検出された基準点13に三角測量の原理を適用して3次元計測を行い(S57)、当該要求位置である分割領域の平面を導出する(S58)。そして、導出した平面の情報を記憶部41の物体計測情報414に記憶させる(S59)。またこのとき要求設定部422は、3次元計測を行った要求位置を要求情報411から削除する。   If there is a corresponding request position (in the case of “YES” in S55), the image processing unit 42 operates as the object measurement unit 425, and applies the principle of triangulation to the reference point 13 detected at the request position. Then, three-dimensional measurement is performed (S57), and the plane of the divided area that is the required position is derived (S58). Then, the derived plane information is stored in the object measurement information 414 of the storage unit 41 (S59). At this time, the request setting unit 422 deletes the request position where the three-dimensional measurement is performed from the request information 411.

一方、3個以上の基準点13が検出された要求位置がない場合(S55にて「NO」の場合)、画像処理部42は推奨立ち位置算出部423として動作し、基準点13が3個未満である要求位置に対する推奨立ち位置を提示する(S56)。ステップS56における処理は図7または図16を用いて説明した処理と同じである。これにより、校正処理の場合と同様、要求位置及び推奨立ち位置が作業者に提示され、要求位置から基準点13を検出する作業の効率が向上する。なお、各要求位置に複数個の基準点13の検出を要求する計測処理では、表示部5の画面表示は、要求位置ごとに既検出の基準点13の個数が作業者に分かるように行うこともできる。例えば、画面に要求位置のエリアの区画と当該エリアでの検出個数の数字を表示したり、エリアごとに検出個数に応じて色の濃さを変えるなどとしたりできる。これにより、作業者には、要求位置として表示されていたエリアが要求位置ではなくなり表示部5に表示されなくなったことだけでなく、より詳細な作業進捗状況を提示でき、作業効率の向上を図れる。   On the other hand, when there is no request position where three or more reference points 13 are detected (“NO” in S55), the image processing unit 42 operates as the recommended standing position calculation unit 423, and three reference points 13 are present. The recommended standing position with respect to the requested position that is less than the recommended position is presented (S56). The process in step S56 is the same as the process described with reference to FIG. As a result, as in the case of the calibration process, the required position and the recommended standing position are presented to the worker, and the efficiency of the operation of detecting the reference point 13 from the required position is improved. In the measurement process that requires detection of a plurality of reference points 13 at each required position, the screen display of the display unit 5 should be performed so that the operator can know the number of reference points 13 that have already been detected for each required position. You can also. For example, the area of the requested position and the number of detections in the area can be displayed on the screen, or the color intensity can be changed for each area according to the number of detections. As a result, not only the area displayed as the requested position is no longer the requested position but is no longer displayed on the display unit 5, and more detailed work progress can be presented to the worker, thereby improving work efficiency. .

ここで、計測処理においては基準点13の設置が困難な要求位置が含まれている場合がある。例えば、物体12の高さが高いときに、床面に立つ作業者10が物体12の上面である要求位置b3やc2に照射を行うことは困難である。このようなとき、作業者が表示部5の提示画像内で設置困難な要求位置を指定して要求解除の入力を行う。ステップS60にて要求設定部422は要求解除入力を確認し、入力があれば該当する要求位置を要求情報411から削除する(S60にて「YES」→S61)。一方、要求解除入力がない場合はステップS61はスキップする(S60にて「NO」の場合)。   Here, the measurement process may include a required position where it is difficult to install the reference point 13. For example, when the height of the object 12 is high, it is difficult for the worker 10 standing on the floor to irradiate the required positions b3 and c2 that are the upper surface of the object 12. In such a case, the operator inputs a request release by designating a requested position that is difficult to install in the display image of the display unit 5. In step S60, the request setting unit 422 confirms the request cancel input, and if there is an input, deletes the corresponding request position from the request information 411 (“YES” in S60 → S61). On the other hand, if there is no request release input, step S61 is skipped (in the case of “NO” in S60).

続いて物体計測部425は、要求情報411を確認し(S62)、要求位置の情報が無くなっていれば計測処理を終了する(S62にて「YES」→S63)。一方、要求位置が残っていれば(S62にて「NO」)、画像処理部42は処理をステップS53に戻して次フレームの同時撮影画像に対する処理を行う。   Subsequently, the object measuring unit 425 confirms the request information 411 (S62), and ends the measurement process if there is no request position information (“YES” in S62 → S63). On the other hand, if the requested position remains (“NO” in S62), the image processing unit 42 returns the process to step S53 and performs the process on the simultaneously captured image of the next frame.

[変形例]
(1)上述の実施形態では、基準点13を用いてカメラのXY座標及び光軸方向の概略校正値を設定する例を示したが、概略校正値としてカメラ配置に関する工事計画時の値を事前設定し、概略校正を省略してもよい。
[Modification]
(1) In the above-described embodiment, an example in which the XY coordinates of the camera and the approximate calibration value in the optical axis direction are set using the reference point 13 has been shown. It may be set and rough calibration may be omitted.

(2)照射器3は上述したスポット光を出力するものに代えて、予め定めた十字パターンなどのパターン光を出力する光源でもよい。この場合、基準点検出部420は光像の重心に代えて十字パターン中の交点など、パターン中の所定形状点を基準点13として検出してもよい。   (2) The irradiator 3 may be a light source that outputs pattern light such as a predetermined cross pattern instead of the above-described output of spot light. In this case, the reference point detection unit 420 may detect a predetermined shape point in the pattern, such as an intersection in the cross pattern, as the reference point 13 instead of the center of gravity of the optical image.

(3)上記実施形態では、作業者10が携帯するレーザーポインタにより照射して基準点13を設置する例を示したが、これに限らず、要求位置に作業者が死角を形成し得る他の構成にも本発明を適用することができる。図19は画像にて基準点13を形成する他の装置の例を示す模式図である。例えば、基準点13である発光装置31などを付設したローラー32(図19(a))や台車33(図19(b))等を作業者10が移動させることにより基準点13を設置するときにも本発明は好適である。   (3) In the above-described embodiment, the reference point 13 is set by irradiating with the laser pointer carried by the worker 10. However, the present invention is not limited thereto, and the worker can form a blind spot at the required position. The present invention can also be applied to the configuration. FIG. 19 is a schematic diagram showing an example of another apparatus for forming the reference point 13 by an image. For example, when the operator 10 moves the roller 32 (FIG. 19A), the carriage 33 (FIG. 19B), etc., to which the light emitting device 31, which is the reference point 13, is attached, the reference point 13 is installed. In addition, the present invention is suitable.

(4)上記実施形態では、推奨立ち位置算出部423はカメラ対の両方のカメラから死角にならないように作業者10に推奨立ち位置を算出し出力した。別の簡易な実施形態において推奨立ち位置算出部423は他方カメラ側の死角形成位置算出を省略し、提示カメラ側の死角形成位置のみから推奨立ち位置を算出し出力する。この構成は、計算量が削減できることと、推奨立ち位置が無くなる可能性が減ることがメリットであり、要求位置が多い段階で有効となる。この構成では、推奨立ち位置が他方カメラに対して要求位置の一部に死角を形成し得るのでその分、基準点再設定の可能性を残すが、新たに設置される基準点13の位置によっては、他方カメラの撮影画像から当該基準点13が検出されて再設定は不要となる。よって、上記実施形態ほどではないものの、作業効率の向上の効果が得られる。さらに、注目カメラと共通視野を有するカメラ(他方カメラ)が複数存在する場合には、いずれかの他方カメラが注目カメラと同時に基準点13を検出することが期待でき、再設定が必要になる可能性が低くなり、作業効率が向上する。   (4) In the embodiment described above, the recommended standing position calculation unit 423 calculates and outputs the recommended standing position to the worker 10 so as not to be a blind spot from both cameras of the camera pair. In another simple embodiment, the recommended standing position calculation unit 423 omits the blind spot formation position calculation on the other camera side, and calculates and outputs the recommended standing position only from the blind spot formation position on the presentation camera side. This configuration is advantageous in that the amount of calculation can be reduced and the possibility that the recommended standing position is lost is reduced, and it is effective when there are many required positions. In this configuration, since the recommended standing position can form a blind spot at a part of the required position with respect to the other camera, the possibility of resetting the reference point remains correspondingly, but depending on the position of the newly set reference point 13 The reference point 13 is detected from the photographed image of the other camera, and resetting is unnecessary. Therefore, although not as much as in the above embodiment, an effect of improving work efficiency can be obtained. Furthermore, when there are a plurality of cameras (other cameras) having a common field of view with the camera of interest, it can be expected that one of the other cameras will detect the reference point 13 simultaneously with the camera of interest, and resetting may be necessary. Workability is improved.

(5)照射器3が自身の測位、並びに光線の照射方位及びチルト角の検出を行うと共に、レーザー距離計測などにより照射点までの距離計測を行う機能を備え、それらの情報に基づいて照射器3又は制御装置4が照射点の位置を算出する構成では、単体のカメラでの基準点検出で当該カメラの校正処理を行うことができる。この構成では要求設定部422は、カメラ対ごとに要求を設定するのではなく、カメラ2ごとに要求位置(例えば上述の9エリア)を設定し、注目カメラに対する死角形成のみを回避する推奨立ち位置を算出し出力すれば十分である。   (5) The irradiator 3 has a function of measuring its own position, detecting the irradiation direction and tilt angle of the light beam, and measuring the distance to the irradiation point by laser distance measurement, etc., and the irradiator based on the information In the configuration in which 3 or the control device 4 calculates the position of the irradiation point, the camera can be calibrated by detecting the reference point with a single camera. In this configuration, the request setting unit 422 does not set a request for each camera pair, but sets a required position (for example, the above-described nine areas) for each camera 2 to avoid a blind spot formation with respect to the camera of interest. It is sufficient to calculate and output

なお、単体カメラでの死角回避で足りるとする上記(4)、(5)の構成において作業者10への死角形成位置の提示の仕方は上記実施形態と同様に行うことができる。例えば、表示通信部43は、死角形成位置の情報として死角形成位置自体を出力してもよいし、同情報として死角形成位置以外の位置、つまり死角の形成を回避可能な作業者立ち位置を表示してもよい。   In addition, in the configurations (4) and (5), which are sufficient to avoid the blind spot with a single camera, the method of presenting the blind spot forming position to the worker 10 can be performed in the same manner as in the above embodiment. For example, the display communication unit 43 may output the blind spot formation position itself as information on the blind spot formation position, or display a position other than the blind spot formation position, that is, the worker standing position that can avoid the formation of the blind spot as the same information. May be.

(6)上記実施形態で述べたようにカメラ2の校正処理には一般的には、同一直線上にない4個以上の基準点13が同時撮影画像から検出されることを要する。しかし、カメラ2の位置・姿勢の自由度のうち一部が既知であり校正不要であるような場合には、校正処理に最低限必要とされる基準点13の検出個数は4個未満とすることもできる。   (6) As described in the above embodiment, the calibration process of the camera 2 generally requires that four or more reference points 13 that are not on the same straight line are detected from the simultaneously captured image. However, if some of the degrees of freedom of the position and orientation of the camera 2 are known and calibration is not necessary, the minimum number of reference points 13 required for calibration processing is less than 4. You can also.

(7)上記実施形態では死角形成作業者位置の出力は表示通信部43から表示部5のディスプレイへの画像出力としているが、当該出力の形態はこれに限定されない。例えば、音声出力や、紙などの媒体への印刷とすることができる。   (7) In the above embodiment, the output of the blind spot forming worker position is an image output from the display communication unit 43 to the display of the display unit 5, but the output form is not limited to this. For example, it can be voice output or printing on a medium such as paper.

1 カメラシステム、2,2A,2B,2C,2D,2E,2F,2G,2H カメラ、3 照射器、4 制御装置、5 表示部、10 作業者、11 基準面、12 物体、40 画像取得部、41 記憶部、42 画像処理部、43 表示通信部、400 カメラ通信部、401 同期制御部、410 カメラパラメータ、411 要求情報、412 照射限界値、413 基準点情報、414 物体計測情報、420 基準点検出部、421 概略校正部、422 要求設定部、423 推奨立ち位置算出部、424 精密校正部、425 物体計測部。   1 camera system, 2A, 2B, 2C, 2D, 2E, 2F, 2G, 2H camera, 3 irradiator, 4 control device, 5 display unit, 10 operator, 11 reference plane, 12 object, 40 image acquisition unit , 41 storage unit, 42 image processing unit, 43 display communication unit, 400 camera communication unit, 401 synchronization control unit, 410 camera parameter, 411 request information, 412 irradiation limit value, 413 reference point information, 414 object measurement information, 420 reference Point detection unit, 421 rough calibration unit, 422 requirement setting unit, 423 recommended standing position calculation unit, 424 precision calibration unit, 425 object measurement unit.

Claims (5)

所定の空間内を撮影する一又は複数のカメラと、前記カメラが撮影した画像を処理する制御装置と、前記カメラで撮影可能であり作業者によって設置される基準点とを備えて構成されるカメラシステムであって、
前記制御装置は、
前記空間内における前記カメラの位置・姿勢を含むカメラパラメータと前記基準点の設置が必要な前記空間内の要求位置とを少なくとも記憶する記憶部と、
前記カメラが撮影した画像から前記基準点を検出する基準点検出部と、
前記カメラの前記カメラパラメータ及び前記要求位置を用いて、当該カメラから当該要求位置への視線方向の位置を、前記作業者が存在すると当該カメラから当該要求位置を撮影できなくなる死角形成作業者位置として算出する作業者位置算出部と、
前記死角形成作業者位置を出力する出力部と、
を備えたことを特徴とするカメラシステム。
A camera configured to include one or a plurality of cameras that capture an image of a predetermined space, a control device that processes an image captured by the camera, and a reference point that can be captured by the camera and is set by an operator A system,
The control device includes:
A storage unit that stores at least camera parameters including the position and orientation of the camera in the space and a required position in the space where the reference point needs to be installed;
A reference point detection unit for detecting the reference point from an image captured by the camera;
Using the camera parameters and the required position of the camera, the position in the line-of-sight direction from the camera to the required position is defined as the blind spot forming worker position that cannot capture the required position from the camera when the operator exists. An operator position calculation unit to calculate,
An output unit for outputting the blind spot forming worker position;
A camera system comprising:
前記出力部は前記要求位置を出力すること、を特徴とした請求項1に記載のカメラシステム。   The camera system according to claim 1, wherein the output unit outputs the requested position. 前記カメラは前記空間内にて共通視野を有するように複数配置され、
前記制御装置は、前記基準点を用いて前記カメラパラメータを校正する校正部を更に有し、
前記校正部は、前記複数のカメラが同時に撮影した画像それぞれにて前記基準点検出部が前記基準点として基準点像を検出した場合に、当該複数の基準点像が前記空間における同一位置であるとの拘束条件を適用して前記カメラパラメータを校正すること、
を特徴とした請求項1又は請求項2に記載のカメラシステム。
A plurality of the cameras are arranged to have a common field of view in the space,
The control device further includes a calibration unit that calibrates the camera parameter using the reference point,
In the calibration unit, when the reference point detection unit detects a reference point image as the reference point in each of the images simultaneously captured by the plurality of cameras, the plurality of reference point images are at the same position in the space. Calibrating the camera parameters by applying a constraint condition with
The camera system according to claim 1 or 2, characterized by the above.
前記制御装置は、前記基準点検出部が前記共通視野内の前記要求位置に存在する前記基準点を検出した場合にのみ、当該基準点が撮影された当該要求位置を前記記憶部から削除する要求位置設定部を更に有すること、を特徴とした請求項3に記載のカメラシステム。   The control device requests to delete the requested position where the reference point is photographed from the storage unit only when the reference point detection unit detects the reference point existing at the requested position in the common visual field. The camera system according to claim 3, further comprising a position setting unit. 前記制御装置は、前記カメラが撮影した画像を当該カメラの光軸と撮影平面との交点から放射状に所定角度ごとに区分した区分領域を単位として前記要求位置を設定する要求位置設定部を更に有すること、を特徴とした請求項1から請求項4のいずれか1つに記載のカメラシステム。   The control device further includes a required position setting unit that sets the required position in units of segmented areas obtained by radially dividing an image captured by the camera from an intersection between the optical axis of the camera and the imaging plane for each predetermined angle. The camera system according to any one of claims 1 to 4, characterized in that:
JP2012266574A 2012-12-05 2012-12-05 Camera system Active JP6022330B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012266574A JP6022330B2 (en) 2012-12-05 2012-12-05 Camera system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012266574A JP6022330B2 (en) 2012-12-05 2012-12-05 Camera system

Publications (2)

Publication Number Publication Date
JP2014112798A JP2014112798A (en) 2014-06-19
JP6022330B2 true JP6022330B2 (en) 2016-11-09

Family

ID=51169655

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012266574A Active JP6022330B2 (en) 2012-12-05 2012-12-05 Camera system

Country Status (1)

Country Link
JP (1) JP6022330B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7414430B2 (en) * 2018-10-04 2024-01-16 キヤノン株式会社 Image processing method, image processing device, imaging device, image processing system, program, and storage medium
CN113688552A (en) * 2021-09-09 2021-11-23 昆山丘钛微电子科技股份有限公司 Camera module falling simulation method and device, electronic equipment and medium

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
NO302055B1 (en) * 1993-05-24 1998-01-12 Metronor As Geometry measurement method and system
JP2004046772A (en) * 2002-05-13 2004-02-12 3D Media Co Ltd Method, system and apparatus for processing image
US9442607B2 (en) * 2006-12-04 2016-09-13 Smart Technologies Inc. Interactive input system and method
JP4975673B2 (en) * 2008-03-28 2012-07-11 ティーオーエー株式会社 Camera installation simulator program
JP5667846B2 (en) * 2010-11-15 2015-02-12 セコム株式会社 Object image determination device
JP5696482B2 (en) * 2011-01-11 2015-04-08 富士通株式会社 Information processing apparatus and program

Also Published As

Publication number Publication date
JP2014112798A (en) 2014-06-19

Similar Documents

Publication Publication Date Title
JP6965050B2 (en) Guide information display device and crane equipped with it and guide information display method
JP5111447B2 (en) Camera calibration apparatus, camera calibration method, camera calibration program, and recording medium recording the program
CN104067111A (en) Automated system and method for tracking and detecting discrepancies on a target object
US11620732B2 (en) Multi-projection system, image projection method and projector
JP5079547B2 (en) Camera calibration apparatus and camera calibration method
JP2011039968A (en) Vehicle movable space detection device
JP2003050107A (en) Camera calibration device
JP5183152B2 (en) Image processing device
JP5222430B1 (en) Dimension measuring apparatus, dimension measuring method and program for dimension measuring apparatus
WO2022078440A1 (en) Device and method for acquiring and determining space occupancy comprising moving object
JP2017511038A (en) Improved alignment method of two projection means
JP2015088819A (en) Imaging simulation device
JP5322050B2 (en) Marker three-dimensional position measuring method and system
CN109191533A (en) Tower crane high-altitude construction method based on assembled architecture
JP2009276233A (en) Parameter calculating apparatus, parameter calculating system and program
WO2022078439A1 (en) Apparatus and method for acquisition and matching of 3d information of space and object
JP2016009432A (en) Image forming apparatus, image forming system, and image forming program
JP2011254128A (en) Plane view generating device and plane view generating method
JP6022330B2 (en) Camera system
KR20140114594A (en) Auto-Camera Calibration Method Based on Human Object Tracking
JP2011228857A (en) Calibration device for on-vehicle camera
EP3660452B1 (en) Positioning system and positioning method
JP6022331B2 (en) Camera system
JP2010193170A (en) Camera calibration device and monitoring area setting device
JP4024124B2 (en) POSITIONING DEVICE, METHOD, AND PROGRAM

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20151112

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160829

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160927

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20161005

R150 Certificate of patent or registration of utility model

Ref document number: 6022330

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250