JP2019041261A - Image processing system and setting method of image processing system - Google Patents

Image processing system and setting method of image processing system Download PDF

Info

Publication number
JP2019041261A
JP2019041261A JP2017162336A JP2017162336A JP2019041261A JP 2019041261 A JP2019041261 A JP 2019041261A JP 2017162336 A JP2017162336 A JP 2017162336A JP 2017162336 A JP2017162336 A JP 2017162336A JP 2019041261 A JP2019041261 A JP 2019041261A
Authority
JP
Japan
Prior art keywords
coordinates
camera
moving body
processing system
image processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2017162336A
Other languages
Japanese (ja)
Inventor
田村 雅人
Masahito Tamura
雅人 田村
恭平 海野
Kyohei UNNO
恭平 海野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Industry and Control Solutions Co Ltd
Original Assignee
Hitachi Industry and Control Solutions Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Industry and Control Solutions Co Ltd filed Critical Hitachi Industry and Control Solutions Co Ltd
Priority to JP2017162336A priority Critical patent/JP2019041261A/en
Publication of JP2019041261A publication Critical patent/JP2019041261A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Closed-Circuit Television Systems (AREA)
  • Studio Devices (AREA)
  • Image Analysis (AREA)

Abstract

To provide an image processing system capable of setting parameters efficiently, and to provide a setting method of the image processing system.SOLUTION: In an image processing system 1, multiple cameras 10 include an internal parameter acquisition part 12 installed so that a field of view duplicate region 101 duplicating the fields of view of adjoining cameras is formed, and acquiring the internal parameters of each camera, a pursuit part 111 for pursuing a mobile and outputting the time and the coordinates thereof, a locus acquisition part 114 for acquiring the loci of the mobile, a locus connection part 113 for connecting the loci of the mobile on the basis of the image feature amount thereof, a setting section 115 for calculating the external parameters, related to the attachment state of the camera, as the set value from the coordinates acquired by the locus acquisition part, and a setting storage section 116 for storing the internal parameters and the external parameters in association.SELECTED DRAWING: Figure 1

Description

本発明は、画像処理システムおよび画像処理システムの設定方法に関する。   The present invention relates to an image processing system and an image processing system setting method.

画像処理システムの背景技術として、特許第5804892号(特許文献1)が知られている。この特許文献1は、「複数台の監視カメラの監視空間が什器等が設置された建物内、或いは建物内の廊下などの場合、各カメラの姿勢を校正する基準物体を設置するスペースを確保できない」という課題を解決すべく、「自己及び相互の鉛直下を撮像可能に設置された2台のカメラ2a,2bのそれぞれの鉛直下にマーカー7a,7bを配置する。視線方向算出部30は、例えば、カメラ2aについて当該カメラで撮像した画像における自己マーカー7a及び他方カメラ鉛直下の相手マーカー7bの位置座標を用いて当該カメラから各マーカーへの視線方向を算出する。姿勢算出部31は、自己マーカーへの視線方向から得られる鉛直方向と、相手マーカーへの視線方向から得られるカメラ2a,2b間の方位とを用いて世界座標系における各カメラの姿勢を算出する。」ものである。   Japanese Patent No. 5804892 (Patent Document 1) is known as a background art of an image processing system. This Patent Document 1 states that “when a monitoring space of a plurality of monitoring cameras is in a building where furniture or the like is installed, or a corridor in a building, a space for installing a reference object for calibrating the posture of each camera cannot be secured. In order to solve the problem, “the markers 7a and 7b are arranged below each of the two cameras 2a and 2b installed so as to be able to image the self and each other vertically below. For example, the camera 2a calculates the line-of-sight direction from the camera to each marker using the position coordinates of the self-marker 7a and the other marker 7b below the other camera in the image captured by the camera. In the world coordinate system using the vertical direction obtained from the line-of-sight direction to the marker and the direction between the cameras 2a and 2b obtained from the line-of-sight direction to the partner marker To calculate the orientation of the camera. "Is intended.

なお、カメラの内部パラメータの調整については、非特許文献1に記載されている。静止マーカを用いてカメラの外部パラメータを計算する方法については、非特許文献2に記載されている。   The adjustment of the internal parameters of the camera is described in Non-Patent Document 1. Non-patent document 2 describes a method for calculating an external parameter of a camera using a stationary marker.

特許第5804892号公報Japanese Patent No. 5804892

奥津 良太、寺林 賢司、梅田 和昇:「球体を用いた魚眼カメラの内部パラメータ校正」、電子情報通信学会論文誌. D, 情報・システム Vol.93 (2010) No.12 p.2645-2653Ryota Okutsu, Kenji Terabayashi, Kazunobu Umeda: “Internal parameter calibration of a fisheye camera using a sphere”, IEICE Transactions. D, Information and Systems Vol.93 (2010) No.12 p.2645-2653 岡本寛也、田中祐輝、キアットアブデラジズ、下村倫子、増山岳人、梅田和昇:「校正マーカーを用いた複数全方位カメラの外部パラメータ推定」、精密工学会誌 Vol.81 (2015) No.2 p.164-169)Hiroya Okamoto, Yuki Tanaka, Kiat Abdelazis, Ryoko Shimomura, Takehito Masuyama, Kazunobu Umeda: "External Parameter Estimation of Multi-directional Cameras Using Calibration Markers", Journal of Precision Engineering Vol.81 (2015) No. 2 p.164-169)

画像処理システムで人物を追跡する場合、人物の世界座標を取得するには、カメラのキャリブレーションを行い、画像上の座標と世界座標との変換を行うのに必要な内部パラメータおよび外部パラメータを予め計算しておく必要がある。   When tracking a person with an image processing system, to obtain the world coordinates of the person, calibrate the camera and set the internal and external parameters necessary to convert between the coordinates on the image and the world coordinates in advance. It is necessary to calculate.

ここで、内部パラメータはカメラ特有のパラメータであり、一度計算すればよいが、外部パラメータは設置環境に依存するパラメータであり、カメラを設置する度に計算する必要がある。また、外部パラメータは、設置されたカメラ毎に設定する必要があり、簡潔な方法で行えることが望ましい。   Here, the internal parameter is a parameter specific to the camera and may be calculated once. However, the external parameter is a parameter depending on the installation environment, and needs to be calculated every time the camera is installed. In addition, the external parameter needs to be set for each installed camera, and it is desirable that the external parameter can be set in a simple manner.

特許文献1では、各カメラに静止マーカをそれぞれ取り付け、それらの静止マーカを用いて隣接した二台のカメラごとに外部パラメータの計算を行う。したがって特許文献1では、静止マーカは各カメラに設置する必要があり、静止マーカの取付作業はカメラ台数に比例して増大する。また、特許文献1では、隣接するカメラの組み合わせを事前に入力する必要がある上に、設定パラメータの計算時間は隣接カメラの組み合わせの数に比例して増大する。したがって、カメラ台数が多い場合、特許文献1の方法では設置時の効率が悪く、使い勝手が低い。   In Patent Document 1, a stationary marker is attached to each camera, and external parameters are calculated for each of two adjacent cameras using these stationary markers. Therefore, in patent document 1, it is necessary to install a stationary marker in each camera, and the mounting work of a stationary marker increases in proportion to the number of cameras. In Patent Document 1, it is necessary to input a combination of adjacent cameras in advance, and the calculation time of the setting parameter increases in proportion to the number of combinations of adjacent cameras. Therefore, when the number of cameras is large, the method of Patent Document 1 is not efficient at the time of installation and is not easy to use.

本発明は、上述の課題に鑑みてなされたもので、その目的は、パラメータの設定を効率的に行うことができるようにした画像処理システムおよび画像処理システムの設定方法を提供することにある。   The present invention has been made in view of the above-described problems, and an object thereof is to provide an image processing system and an image processing system setting method capable of efficiently setting parameters.

上記課題を解決すべく、本発明に従う画像処理システムは、複数のカメラで撮影した画像を処理する画像処理システムであって、複数のカメラは、隣接するカメラ同士の視野の重複する視野重複領域が形成されるようにして設置されており、各カメラに固有の内部パラメータを取得する内部パラメータ取得部と、移動体を追跡して、移動体の時刻および座標を出力する追跡部と、移動体が視野重複領域に存在するときの、移動体の座標を取得することにより、移動体の軌跡を取得する軌跡取得部と、移動体の画像特徴量に基づいて、隣接するカメラのうち一方のカメラで撮影された移動体の画像と他方のカメラで撮影された移動体の画像とを比較することにより、移動体の軌跡を連結する軌跡連結部と、軌跡取得部により取得された座標から、座標に対応するカメラの取付状態に関する外部パラメータを設定値として算出する設定部と、内部パラメータ取得部により取得された内部パラメータと設定部により算出される外部パラメータとを対応づけて保存する設定保存部と、を備える。   In order to solve the above problems, an image processing system according to the present invention is an image processing system for processing images taken by a plurality of cameras, and the plurality of cameras have a field overlap region where the fields of view of adjacent cameras overlap. An internal parameter acquisition unit that acquires internal parameters unique to each camera, a tracking unit that tracks the moving object and outputs the time and coordinates of the moving object, and a moving object By acquiring the coordinates of the moving object by acquiring the coordinates of the moving object when existing in the field-of-view overlap region, and using one of the adjacent cameras based on the image feature amount of the moving object. By comparing the captured image of the moving body with the image of the moving body captured by the other camera, the trajectory connecting unit that connects the trajectory of the moving object and the coordinates acquired by the trajectory acquiring unit. A setting unit that calculates an external parameter related to the mounting state of the camera corresponding to the coordinates as a setting value, and a setting storage unit that stores the internal parameter acquired by the internal parameter acquisition unit and the external parameter calculated by the setting unit in association with each other And comprising.

本発明によれば、隣接するカメラの視野重複領域に存在する移動体の座標を用いることで、カメラの外部パラメータを算出することができ、内部パラメータと対応づけて保存することができる。   According to the present invention, the external parameters of the camera can be calculated by using the coordinates of the moving object existing in the field overlap region of the adjacent camera, and can be stored in association with the internal parameters.

画像処理システムの全体構成図。1 is an overall configuration diagram of an image processing system. 外部パラメータを計算する処理を示すフローチャート。The flowchart which shows the process which calculates an external parameter. 外部パラメータの算出方法を模式的に示す説明図。Explanatory drawing which shows the calculation method of an external parameter typically. 外部パラメータの算出時の画面例。Screen example when calculating external parameters. 移動体の座標を手動で入力する様子を示す画面例。The example of a screen which shows a mode that the coordinate of a moving body is input manually. 唯一の移動体を特定して座標を取得する様子を示す画面例。The example of a screen which shows a mode that the only moving body is specified and a coordinate is acquired. 画像特徴量から同一人物であるか否か判定する様子を示す画面例。The example of a screen which shows a mode that it is determined whether it is the same person from an image feature-value. 第2実施例に係り、画像処理システムの全体構成図。The whole image processing system concerning 2nd Example. 移動体の移動領域を検出する様子を示す説明図。Explanatory drawing which shows a mode that the movement area | region of a moving body is detected. 移動体の軌跡が作る閉領域から移動領域を算出する様子を示す説明図。Explanatory drawing which shows a mode that a movement area | region is calculated from the closed area | region which the locus | trajectory of a mobile body makes. 第3実施例に係り、画像処理システムの全体構成図。FIG. 10 is an overall configuration diagram of an image processing system according to a third embodiment.

以下、図面に基づいて本発明の実施の形態を説明する。本実施形態は、隣接するカメラ同士の視野100(1)〜100(4)が重複するようにして複数のカメラ10(1)〜10(4)を配置し、視野重複領域101(1)〜101(3)を移動する移動体3を追跡して座標を特定することにより、カメラの取付状態に関する外部パラメータの計算を軽減することができ、カメラの設定作業の効率を改善することができる。   Hereinafter, embodiments of the present invention will be described with reference to the drawings. In this embodiment, a plurality of cameras 10 (1) to 10 (4) are arranged so that the fields of view 100 (1) to 100 (4) of adjacent cameras overlap each other, and the fields of view overlap region 101 (1) to 101 (1) to By tracking the moving body 3 that moves 101 (3) and specifying the coordinates, it is possible to reduce the calculation of external parameters related to the camera mounting state, and it is possible to improve the efficiency of camera setting work.

本実施形態の一例では、まず最初に、静止マーカ2を用いて基準カメラ10(1)の外部パラメータの計算を行い、その後にカメラ間に移動体3を通過させることで、その他のカメラ10(2)〜10(4)の外部パラメータを計算する方法を提供する。その他のカメラ10(2)〜10(4)の外部パラメータの計算には、静止マーカ2を用いる必要がない。   In an example of the present embodiment, first, the external parameters of the reference camera 10 (1) are calculated using the stationary marker 2, and then the moving body 3 is passed between the cameras, so that the other cameras 10 ( A method for calculating external parameters 2) to 10 (4) is provided. It is not necessary to use the stationary marker 2 for calculating the external parameters of the other cameras 10 (2) to 10 (4).

本実施形態によれば、外部パラメータの計算に必要な静止マーカ2の設置作業などを軽減することができ、自動的に各カメラ10(2)〜10(4)の設定作業(キャリブレーション作業)を効率的に行うことができる。また、本実施形態によれば、外部パラメータの計算と同時に移動体3の世界座標を取得することができ、移動領域(移動可能領域とも呼ぶ)を特定することもできる。これにより、後述の実施例で述べるように、外部パラメータを用いて変換する世界座標系から、店舗などの施設内における移動可能領域を生成することができる。   According to the present embodiment, it is possible to reduce the installation work of the stationary marker 2 necessary for calculating the external parameters, and the setting work (calibration work) of each camera 10 (2) to 10 (4) automatically. Can be performed efficiently. Further, according to the present embodiment, the world coordinates of the moving body 3 can be acquired simultaneously with the calculation of the external parameters, and the moving area (also referred to as a movable area) can be specified. As a result, as described later in the embodiment, a movable region in a facility such as a store can be generated from a world coordinate system that is converted using external parameters.

本実施形態では、カメラの内部パラメータは、例えば非特許文献1に記載の手法を用いて事前に計算しておくものとする。また、本実施形態における基準カメラとは、「所定のカメラ」の例であり、複数のカメラの中から最初に静止マーカ2を用いて外部パラメータを計算するカメラである。複数のカメラのうちどのカメラを基準カメラとして選択してもよい。   In this embodiment, the internal parameters of the camera are calculated in advance using, for example, the method described in Non-Patent Document 1. The reference camera in the present embodiment is an example of a “predetermined camera”, and is a camera that first calculates an external parameter using a stationary marker 2 from a plurality of cameras. Any camera among the plurality of cameras may be selected as the reference camera.

本実施形態では、画像処理システムを例えば人物追跡システムに用いる場合と、店舗解析システムとして用いる場合を例に挙げて説明する。これら以外の分野にも本発明に係る画像処理システムを適用することができる。   In the present embodiment, a case where the image processing system is used for a person tracking system and a case where the image processing system is used as a store analysis system will be described as examples. The image processing system according to the present invention can be applied to fields other than these.

本実施形態の画像処理システムでは、カメラ10(1)〜10(4)として全方位カメラを用い、さらに、外部パラメータ計算における移動体3として人物を用いる場合を例に挙げてを説明する。なお、カメラ10(1)〜10(4)は、全方位カメラである必要はなく、単眼カメラ等でもよい。また、移動体2は人物である必要はなく、自動的に動き回るロボット等を用いてもよい。   In the image processing system of the present embodiment, an example will be described in which omnidirectional cameras are used as the cameras 10 (1) to 10 (4) and a person is used as the moving body 3 in the external parameter calculation. The cameras 10 (1) to 10 (4) need not be omnidirectional cameras, and may be monocular cameras or the like. Further, the moving body 2 does not have to be a person, and a robot that automatically moves around may be used.

図1は、画像処理システム1を追跡システムに適用した場合の全体構成を示す。例えば、空港、港、商業施設、遊園地、病院、役所等の施設では、複数のカメラを用いて監視対象領域を監視する。   FIG. 1 shows an overall configuration when the image processing system 1 is applied to a tracking system. For example, in facilities such as airports, harbors, commercial facilities, amusement parks, hospitals, and government offices, a monitoring target area is monitored using a plurality of cameras.

人物追跡システムとしての画像処理システム1は、例えば、複数の全方位カメラ10、演算部11、入力部12、表示部13、ハブ14、記録部15を備える。   The image processing system 1 as a person tracking system includes, for example, a plurality of omnidirectional cameras 10, a calculation unit 11, an input unit 12, a display unit 13, a hub 14, and a recording unit 15.

演算部11は、メモリ、マイクロプロセッサ、入出力回路、通信回路(いずれも不図示)等を含むコンピュータシステムとして構成される。演算部11は、例えば、追跡部111、軌跡保存部112、軌跡連結部113、軌跡取得部114、設定部115、設定保存部116を備える。   The arithmetic unit 11 is configured as a computer system including a memory, a microprocessor, an input / output circuit, a communication circuit (all not shown), and the like. The calculation unit 11 includes, for example, a tracking unit 111, a trajectory storage unit 112, a trajectory connection unit 113, a trajectory acquisition unit 114, a setting unit 115, and a setting storage unit 116.

全方位カメラ10(1)〜10(4)は、監視対象領域を撮影するための映像撮影手段である。図中では、4つのカメラを示すが、4個に限らない。画像処理システム1は、2個以上のカメラを使用可能であればよい。   The omnidirectional cameras 10 (1) to 10 (4) are video photographing means for photographing the monitoring target area. Although four cameras are shown in the figure, the number is not limited to four. The image processing system 1 only needs to be able to use two or more cameras.

以下では、特に区別しない場合、かっこ付きの数字を除いて説明する場合がある。例えば、カメラ10(1)〜10(4)をカメラ10と、視野100(1)〜100(4)を視野100と、視野重複領域101(1)〜101(3)を視野重複領域101と、それぞれ呼ぶ場合がある。   In the following description, unless otherwise distinguished, the description may be made excluding the numbers with parentheses. For example, the cameras 10 (1) to 10 (4) are the camera 10, the visual fields 100 (1) to 100 (4) are the visual field 100, and the visual field overlapping regions 101 (1) to 101 (3) are the visual field overlapping regions 101. , Each may be called.

各カメラ10の視野(撮影領域とも呼ぶ)100は、全ての監視領域を網羅する必要はないが、隣接するカメラ同士は、移動体3が認識可能な大きさで同時に両方のカメラに映るように、視野100が重複している必要がある。視野100の重複した領域を視野重複領域101と呼ぶ。   The field of view (also referred to as an imaging area) 100 of each camera 10 does not have to cover all the monitoring areas, but adjacent cameras are so large that the moving body 3 can recognize them and appear on both cameras simultaneously. , The fields of view 100 need to overlap. A region where the field of view 100 overlaps is called a field of view overlap region 101.

「内部パラメータ取得部」の例である入力部12は、カメラの設定に必要な情報を、画像処理システム1の設置作業を行うユーザから受け付ける装置である。ユーザは、例えば、カメラ10の内部パラメータを入力部12を介して演算部11へ入力する。さらに、座標を自動的に検知しない場合、ユーザは、静止マーカ2の座標や、視野重複領域101にいる人物3の座標を手動で入力してもよい。入力部12の例は後述するが、タッチパネル、キーボード、ポインティングデバイス、音声入力装置等を用いることができる。   The input unit 12, which is an example of an “internal parameter acquisition unit”, is a device that receives information necessary for camera setting from a user who performs installation work of the image processing system 1. For example, the user inputs internal parameters of the camera 10 to the calculation unit 11 via the input unit 12. Further, when the coordinates are not automatically detected, the user may manually input the coordinates of the stationary marker 2 or the coordinates of the person 3 in the visual field overlap region 101. Although an example of the input unit 12 will be described later, a touch panel, a keyboard, a pointing device, a voice input device, or the like can be used.

表示部13は、演算部11で計算された静止マーカ2の座標や人物3の座標、人物3の移動軌跡等を表示する装置である。表示部13としては、例えば、ディスプレイやプリンタ等を用いることができる。   The display unit 13 is a device that displays the coordinates of the stationary marker 2, the coordinates of the person 3, the movement trajectory of the person 3, and the like calculated by the calculation unit 11. For example, a display or a printer can be used as the display unit 13.

入力部12と表示部13とは、演算部11と何らかの通信規格を用いてデータを送受信できる装置であればよく、種類を問わない。   The input unit 12 and the display unit 13 may be any device that can transmit and receive data using the communication unit 11 and some communication standard, and may be any type.

演算部11は、カメラ10から入力された画像や、入力部12から入力された座標あるいは自動検知された座標を使って、人物3の追跡や外部パラメータの計算を行う。演算部11は、メモリに格納された所定のコンピュータプログラムをマイクロプロセッサが実行することにより、各機能111〜116を実現する。以下、演算部11の実現する機能ブロックについて説明する。   The calculation unit 11 uses the image input from the camera 10, the coordinates input from the input unit 12, or the automatically detected coordinates to track the person 3 and calculate external parameters. The calculation unit 11 implements the functions 111 to 116 by the microprocessor executing a predetermined computer program stored in the memory. Hereinafter, functional blocks realized by the calculation unit 11 will be described.

追跡部111は、カメラ10で取得した画像を入力として、人物を追跡する。追跡部111は、所定の時間間隔で入力される画像から人物部分を検出し、検出した人物部分の画像上の座標を取得することにより、人物3を追跡する。人物3の追跡に使用する座標は、足下の座標または頭部の座標のいずれでもよい。   The tracking unit 111 tracks a person using the image acquired by the camera 10 as an input. The tracking unit 111 tracks the person 3 by detecting a person part from images input at predetermined time intervals and acquiring coordinates on the image of the detected person part. The coordinates used for tracking the person 3 may be either foot coordinates or head coordinates.

軌跡保存部112は、追跡部111で取得した座標と取得時刻および軌跡IDとを入力として、それらをデータベース等の保存手段(不図示)に保存する。座標データは、画像上の座標と世界座標とに分けて保存する。軌跡保存部112は、画像上の座標と世界座標とを対応づけられて保存する。また、軌跡を連結する際に、人物3の外見等の画像特徴量を用いる場合、軌跡保存部112は人物画像も保存する。   The trajectory storage unit 112 receives the coordinates acquired by the tracking unit 111, the acquisition time, and the trajectory ID, and stores them in storage means (not shown) such as a database. The coordinate data is stored separately in the coordinates on the image and the world coordinates. The trajectory storage unit 112 stores the coordinates on the image and the world coordinates in association with each other. Further, when image features such as the appearance of the person 3 are used when connecting the trajectories, the trajectory storage unit 112 also stores the human images.

軌跡連結部113は、軌跡保存部112に保存された世界座標、画像特徴量あるいはそれら両方を用いて、それぞれのカメラ10の視野100に存在する同一人物の軌跡を連結する。軌跡連結部113は、連結した軌跡に対して、カメラ間で共通のグローバルIDを割り当て、世界座標と共に軌跡保存部112へ出力する。   The trajectory linking unit 113 connects the trajectories of the same person existing in the field of view 100 of each camera 10 using the world coordinates stored in the trajectory storage unit 112, the image feature amount, or both. The trajectory connecting unit 113 assigns a global ID common to the cameras to the connected trajectories, and outputs them to the trajectory storage unit 112 together with the world coordinates.

軌跡取得部114は、設定部115が外部パラメータを計算する際に、人物3の座標を設定部115へ出力する。軌跡取得部114は、カメラ間の視野重複領域101にいる人物3の座標を取得するか、あるいは、入力部12から視野重複領域101にいる人物3の座標の入力を受け付けることができる。   The trajectory acquisition unit 114 outputs the coordinates of the person 3 to the setting unit 115 when the setting unit 115 calculates external parameters. The trajectory acquisition unit 114 can acquire the coordinates of the person 3 in the visual field overlap region 101 between the cameras, or can accept the input of the coordinates of the person 3 in the visual field overlap region 101 from the input unit 12.

設定部115は、軌跡取得部114から入力された座標情報と予め設定保存部116に保存された内部パラメータとを使って、カメラ10の外部パラメータを計算する。   The setting unit 115 calculates the external parameters of the camera 10 using the coordinate information input from the trajectory acquisition unit 114 and the internal parameters stored in advance in the setting storage unit 116.

設定保存部116は、ユーザから入力された内部パラメータや設定部115で計算された外部パラメータを、データベース等の保存手段に保存する。   The setting storage unit 116 stores the internal parameters input by the user and the external parameters calculated by the setting unit 115 in a storage unit such as a database.

ハブ14は、各カメラ10に電源を供給したり、各カメラ10から画像データを受信したりする装置である。ハブ14と各カメラ10とは、有線または無線のいずれでも接続することができる。ハブ14と各カメラ10とが無線で接続される場合、ハブ14は各カメラ10へ電源を供給する必要はない。   The hub 14 is a device that supplies power to each camera 10 and receives image data from each camera 10. The hub 14 and each camera 10 can be connected either by wire or wirelessly. When the hub 14 and each camera 10 are wirelessly connected, the hub 14 does not need to supply power to each camera 10.

記録部15は、各カメラ10で撮影した画像データを記憶する装置である。記録部15は、所定期間の画像データを保存するように構成することができる。   The recording unit 15 is a device that stores image data captured by each camera 10. The recording unit 15 can be configured to store image data for a predetermined period.

図2のフローチャートは、演算部11の実施する外部パラメータ計算処理を示す。本処理は、ユーザの指示により開始される。ここでは、各カメラ10(1)〜10(4)のうち、カメラ10(1)を基準カメラとして選択する例を述べる。これに限らず、他のカメラ10(2)〜10(4)のいずれも基準カメラとして選択可能である。   The flowchart of FIG. 2 shows an external parameter calculation process performed by the calculation unit 11. This process is started by a user instruction. Here, an example will be described in which the camera 10 (1) is selected as the reference camera among the cameras 10 (1) to 10 (4). Not limited to this, any of the other cameras 10 (2) to 10 (4) can be selected as the reference camera.

演算部11は、各カメラ10(1)〜10(4)のうち基準カメラ10(1)の内部パラメータを入力部12から取得する(S10)。ユーザが入力部12から入力した基準カメラ10(1)の内部パラメータは、設定保存部116に保存され、外部パラメータ計算の際に用いられる。   The computing unit 11 acquires the internal parameters of the reference camera 10 (1) from the input unit 12 among the cameras 10 (1) to 10 (4) (S10). The internal parameters of the reference camera 10 (1) input by the user from the input unit 12 are stored in the setting storage unit 116, and are used when calculating external parameters.

次に演算部11は、静止マーカ2を用いて、基準カメラ10(1)の外部パラメータを計算する(S11)。この計算には例えば、非特許文献2を適用可能である。   Next, the computing unit 11 calculates an external parameter of the reference camera 10 (1) using the stationary marker 2 (S11). For this calculation, for example, Non-Patent Document 2 can be applied.

ステップS11の処理により、世界座標系の原点および軸が決定され、基準カメラ10(1)の外部パラメータが計算される。   Through the processing in step S11, the origin and axis of the world coordinate system are determined, and the external parameters of the reference camera 10 (1) are calculated.

演算部11は、視野重複領域101へ移動した移動体3を検出する(S12)。移動体3は、基準カメラ10(1)以外の他の各カメラ10(2)〜10(4)の視野を順次通過する移動マーカである。移動マーカには、作業者等の人物やロボット等を用いることができる。   The calculating part 11 detects the moving body 3 which moved to the visual field overlap area | region 101 (S12). The moving body 3 is a moving marker that sequentially passes through the fields of view of the cameras 10 (2) to 10 (4) other than the reference camera 10 (1). A person such as an operator, a robot, or the like can be used as the movement marker.

演算部11は、視野重複領域101に入った移動体3の座標を用いて、他のカメラについての外部パラメータを計算する(S13)。全てのカメラ10について外部パラメータの計算が完了するまで、ステップS12,S13を繰り返す。演算部11は、全てのカメラ10の外部パラメータを計算して保存が完了すると、本処理を正常終了する。   The calculating part 11 calculates the external parameter about another camera using the coordinate of the moving body 3 which entered the visual field overlap area | region 101 (S13). Steps S12 and S13 are repeated until the calculation of external parameters for all the cameras 10 is completed. When the calculation unit 11 calculates the external parameters of all the cameras 10 and completes the storage, the calculation unit 11 ends the processing normally.

以後、画像処理システム1は、施設内を移動する人物の座標を正確に特定しながら追跡することができる。   Thereafter, the image processing system 1 can track while accurately identifying the coordinates of the person moving in the facility.

基準カメラ10(1)以外の他のカメラ10(2)〜10(4)の外部パラメータの計算方法を説明する。   A method for calculating external parameters of the cameras 10 (2) to 10 (4) other than the reference camera 10 (1) will be described.

まず、世界座標系と画像上の座標の相互変換について説明する。世界座標系におけるカメラの位置を(Xcam,Ycam,Zcam)とし、この系におけるピッチ角、ロール角、ヨー角をそれぞれα、β、γとすると、カメラの外部パラメータEは以下のようになる。 First, mutual conversion between the world coordinate system and the coordinates on the image will be described. If the camera position in the world coordinate system is (X cam , Y cam , Z cam ), and the pitch angle, roll angle, and yaw angle in this system are α, β, and γ, respectively, the external parameter E of the camera is as follows: become.

Figure 2019041261
Figure 2019041261

外部パラメータEにおけるロール角β、ピッチ角α、ヨー角γの順番で回転させた場合の3×3の回転行列をR、座標系の基準を世界座標からカメラ座標に移動するための3次元の並進ベクトルをtとし、行列Mを以下のように定義する。   A 3 × 3 rotation matrix when rotating in the order of the roll angle β, pitch angle α, and yaw angle γ in the external parameter E, and a three-dimensional for moving the coordinate system reference from the world coordinates to the camera coordinates. Let the translation vector be t, and define the matrix M as follows.

Figure 2019041261
Figure 2019041261

回転行列Rおよび並進ベクトルtは、外部パラメータEから求まる。人物の世界座標系における座標をPw=[Xw,Yw,Zw]T、カメラ座標系における座標をPc=[Xc,Yc,Zc]とすると、世界座標からPwからカメラ座標Pcへの変換は以下のようになる。 The rotation matrix R and the translation vector t are obtained from the external parameter E. If the coordinates of the person in the world coordinate system are Pw = [Xw, Yw, Zw] T, and the coordinates in the camera coordinate system are Pc = [Xc, Yc, Zc] T , the conversion from the world coordinates to Pw to the camera coordinates Pc is It becomes as follows.

Figure 2019041261
Figure 2019041261

画像上の座標系における画像中心をp=[u,v、人物の座標p=[u,v]とする。ここで、ρおよびrを以下のように定義する。 Assume that the image center in the coordinate system on the image is p 0 = [u 0 , v 0 ] T , and the human coordinates p = [u, v] T. Here, ρ and r are defined as follows.

Figure 2019041261
Figure 2019041261

Figure 2019041261
Figure 2019041261

カメラ座標Pcから人物座標pには、数6に示すように変換できる。   Conversion from the camera coordinates Pc to the person coordinates p can be performed as shown in Equation 6.

Figure 2019041261

ただし、f(ρ)は、数7に示すように表される。
Figure 2019041261

However, f (ρ) is expressed as shown in Equation 7.

Figure 2019041261
Figure 2019041261

f(ρ)を第何項までで表現するかは、必要精度により決定する。なお、数8は内部パラメータを示す。内部パラメータは予め計算されている。
The number of terms to express f (ρ) is determined by the required accuracy. Equation 8 represents an internal parameter. Internal parameters are calculated in advance.

Figure 2019041261
Figure 2019041261

以上の変換により、世界座標系の座標から画像上の座標へ変換できる。また上記の変換を逆に行うことで、画像上の座標から世界座標系の座標へ変換できる。ただし、画像上の座標から世界座標系の座標へ変換する場合、世界座標系における人物のZ軸方向の値であるZwは既知である必要がある。以下では上記の変換を用いてカメラの外部パラメータを求める方法を説明する。   With the above conversion, the coordinates in the world coordinate system can be converted into the coordinates on the image. Further, by performing the above conversion in reverse, the coordinates on the image can be converted into the coordinates of the world coordinate system. However, when converting from coordinates on the image to coordinates in the world coordinate system, Zw, which is a value in the Z-axis direction of the person in the world coordinate system, needs to be known. Hereinafter, a method of obtaining the external parameters of the camera using the above conversion will be described.

図3は、二つのカメラ間で外部パラメータを計算する際の模式図である。カメラ10(1)は、基準カメラである。カメラ10(2)は、移動体3を用いて外部パラメータを計算するカメラである。   FIG. 3 is a schematic diagram when calculating external parameters between two cameras. The camera 10 (1) is a reference camera. The camera 10 (2) is a camera that calculates external parameters using the moving body 3.

基準カメラ10(1)の外部パラメータは、事前に、静止マーカ2(1)および静止マーカ2(2)を用いて計算されている。基準カメラ10(1)の外部パラメータを計算する際に、世界座標系20が決定される。本実施例では、静止マーカ2(1)の位置に世界座標系20の原点を置いたが、世界座標系20の中で静止マーカの位置を一意に決定できればよく、どこに原点を置いてもよい。   External parameters of the reference camera 10 (1) are calculated in advance using the stationary marker 2 (1) and the stationary marker 2 (2). When calculating the external parameters of the reference camera 10 (1), the world coordinate system 20 is determined. In this embodiment, the origin of the world coordinate system 20 is placed at the position of the stationary marker 2 (1). However, it is only necessary that the position of the stationary marker can be uniquely determined in the world coordinate system 20, and the origin may be placed anywhere. .

この世界座標系20をもとに、カメラ10(2)の外部パラメータを計算する。カメラ10(2)の外部パラメータは、世界座標系20におけるカメラの位置(Xcam1,Ycam1,Zcam1)およびこの系におけるピッチ角α1、ロール角β1、ヨー角γ1の六つとし、以下のように定義する。 Based on the world coordinate system 20, the external parameters of the camera 10 (2) are calculated. The external parameters of the camera 10 (2) are the camera position (X cam1 , Y cam1 , Z cam1 ) in the world coordinate system 20 and the six pitch angles α1, roll angle β1, and yaw angle γ1 in this system. Define as follows.

Figure 2019041261
Figure 2019041261

この外部パラメータE1を計算するために、視野重複領域101に移動マーカとしての人物3を通過させる。本実施例では、通過する人物3の身長Hがわかっている場合について説明する。移動マーカとしての人物3の身長がわかっていない場合は、足下の座標のみを使って外部パラメータを計算することも可能である。身長Hの値は、実際の長さと座標系におけるスケールとの対応により変化する。身長が既知の場合、より多くの座標が観測できるため、外部パラメータ計算の精度を高めることができる。   In order to calculate the external parameter E1, the person 3 as the movement marker is passed through the visual field overlap region 101. In this embodiment, a case where the height H of the passing person 3 is known will be described. When the height of the person 3 as the movement marker is not known, it is possible to calculate an external parameter using only the coordinates of the feet. The value of the height H changes depending on the correspondence between the actual length and the scale in the coordinate system. When the height is known, more coordinates can be observed, so that the accuracy of external parameter calculation can be improved.

ある時刻τにおいて、人物3が基準カメラ10(1)と外部パラメータの計算対象であるカメラ10(2)との視野重複領域101(1)の位置にいる。図3では、この人物に符号3(1)を与える。   At a certain time τ, the person 3 is in the position of the visual field overlap region 101 (1) between the reference camera 10 (1) and the camera 10 (2) that is the target of the external parameter calculation. In FIG. 3, reference numeral 3 (1) is given to this person.

人物3(1)の足下の座標は、座標30(1)(Pf1=[Xwp1,Ywp1,0])である。人物3(1)の頭部の座標は、座標31(1)(Ph1=[Xwp1,Ywp1,H])である。 Feet of coordinates of the person 3 (1) are the coordinates 30 (1) (P f1 = [X wp1, Y wp1, 0] T). The coordinates of the head of the person 3 (1) are coordinates 31 (1) ( Ph1 = [ Xwp1 , Ywp1 , H] T ).

時刻τ+1に、人物3(1)が視野重複領域101(1)内で移動したとする。図3では、この人物に符号3(2)を与える。   It is assumed that the person 3 (1) moves within the field-of-view overlap region 101 (1) at time τ + 1. In FIG. 3, reference numeral 3 (2) is given to this person.

人物3(2)の足下の座標は、座標30(2)(Pf2=[Xwp2,Ywp2,0])である。人物3(2)の頭部の座標は、座標31(2)(Ph2=[Xwp2,Ywp2,H])となる。 The feet of the coordinates of the person 3 (2), the coordinates 30 (2) (P f2 = [X wp2, Y wp2, 0] T). Head of the coordinates of the person 3 (2) becomes the coordinates 31 (2) (P h2 = [X wp2, Y wp2, H] T).

ここでは、人物3は直立しているか、もしくは移動中においても身長が一定であるとしている。これに代えて、歩行モデルから身長の減衰量を算出し、正確な頭部の位置を求める方法もある。   Here, it is assumed that the person 3 stands upright or has a constant height even during movement. Instead of this, there is a method of calculating the amount of attenuation of the height from the walking model and obtaining the accurate head position.

これらの座標を基準カメラ10(1)の画像上の座標から求め、更に求めた世界座標をカメラ10(2)の画像上の座標に変換し、カメラ10(2)に映った実際の座標との誤差が最小になるようにして、カメラ10(2)の外部パラメータE1を計算する。   These coordinates are obtained from the coordinates on the image of the reference camera 10 (1), and the obtained world coordinates are converted into the coordinates on the image of the camera 10 (2), and the actual coordinates reflected in the camera 10 (2) The external parameter E1 of the camera 10 (2) is calculated in such a manner that the error of is minimized.

図4は、基準カメラ10(1)およびカメラ10(2)のカメラ画像を示す。画像40(1)は、カメラ10(1)の撮影した画像である。画像40(2)は、カメラ10(2)の撮影した画像である。   FIG. 4 shows camera images of the reference camera 10 (1) and the camera 10 (2). The image 40 (1) is an image taken by the camera 10 (1). The image 40 (2) is an image taken by the camera 10 (2).

時刻τにおいて、基準カメラ10(1)およびカメラ10(2)とに映る人物3は、それぞれカメラ画像40(1)の3(11)およびカメラ画像40(2)の3(21)に対応する。   At time τ, the person 3 shown in the reference camera 10 (1) and the camera 10 (2) corresponds to 3 (11) of the camera image 40 (1) and 3 (21) of the camera image 40 (2), respectively. .

時刻τ+1において、基準カメラ10(1)とカメラ10(2)とに映る人物3は、それぞれカメラ画像40(1)の3(12)およびカメラ画像40(2)の3(22)に対応する。   At time τ + 1, the person 3 shown in the reference camera 10 (1) and the camera 10 (2) corresponds to 3 (12) of the camera image 40 (1) and 3 (22) of the camera image 40 (2), respectively. .

ここで、座標30(11)(pi1f1)は、時刻τにおける人物3(11)の足下の座標である。座標30(12)(pi1f2)は、時刻τ+1における人物3(12)の足下の座標である。座標30(21)(pi2f1)は、時刻τにおける人物3(21)の足下の座標である。座標31(21)(pi2h1)は、時刻τにおける人物3(21)の頭部の座標である。座標30(22)(pi2h2)は、時刻τ+1における人物3(22)の足下の座標である。座標31(22)(pi2h2)は、時刻τ+1における人物3(22)の頭部の座標である。これらの座標は、人物検出手法を用いて自動的に検出してもよいし、ユーザが入力部12から手動で入力してもよい。 Here, the coordinates 30 (11) (p i1f1 ) are the coordinates of the feet of the person 3 (11) at the time τ. The coordinates 30 (12) (p i1f2 ) are the coordinates of the feet of the person 3 (12) at time τ + 1. The coordinates 30 (21) (p i2f1 ) are the coordinates of the feet of the person 3 (21) at the time τ. The coordinates 31 (21) (p i2h1 ) are the coordinates of the head of the person 3 (21) at the time τ. The coordinates 30 (22) (p i2h2 ) are the coordinates of the feet of the person 3 (22) at the time τ + 1. The coordinates 31 (22) (p i2h2 ) are the coordinates of the head of the person 3 (22) at time τ + 1. These coordinates may be detected automatically using a person detection method, or may be manually input from the input unit 12 by the user.

基準カメラ10(1)の画像上の座標を、世界座標に変換する。以下では、座標pi1f1から世界座標Pf1に変換する例を用いて説明する。数6より、pi1f1は、カメラ座標系の座標Pcf1=[Xcf1,Ycf1,Zcf1に、数10に示すように変換される。
The coordinates on the image of the reference camera 10 (1) are converted into world coordinates. Below, it demonstrates using the example converted from coordinate p i1f1 to world coordinate P f1 . From Equation 6, p i1f1 is converted into coordinates P cf1 = [X cf1 , Y cf1 , Z cf1 ] T in the camera coordinate system as shown in Equation 10.

Figure 2019041261
Figure 2019041261

ここで数11のように定義すると、Xcf1、Ycf1、Zcf1は、rcf1の一次式となる。数3により、Pcf1は、数12に示すようにして世界座標Pf1に変換される。
Here, when defined as in Equation 11, X cf1 , Y cf1 , and Z cf1 are linear expressions of r cf1 . From Equation 3, P cf1 is converted to world coordinates P f1 as shown in Equation 12.

Figure 2019041261
Figure 2019041261

Figure 2019041261
Figure 2019041261

cf1の座標の値は、rcf1の一次式で表されているので、Pf1もrcf1の一次式で表される。Pf1のZ座標は0であるので、rcf1について解ける。従ってPf1のX座標およびY座標が求まる。 Coordinate values of P cf1 is because it is represented by a linear equation of r cf1, P f1 is also represented by a linear equation of r cf1. Since the Z coordinate of P f1 is 0, it can be solved for r cf1 . Therefore, the X coordinate and Y coordinate of P f1 are obtained.

h1は、Pf1のZ座標を人物の身長Hとした座標となる。上記の操作により、画像40(1)で検出した人物の足下の座標を全て世界座標に変換し、人の身長を用いて足下の座標に対する頭部の座標を全て計算する。 P h1 is a coordinate with the Z coordinate of P f1 as the person's height H. By the above operation, all the coordinates of the feet of the person detected in the image 40 (1) are converted into world coordinates, and all the coordinates of the head with respect to the coordinates of the feet are calculated using the height of the person.

変換された世界座標は、数3と数6とカメラ10(2)の外部パラメータE1とを用いて、画像40(2)における画像上の座標に変換する。この座標は、パラメータE1の関数として表現できる。pi1f1およびpi1h1を、画像40(2)の画像上の座標に変換したときの座標を数13のように表現する。
The converted world coordinates are converted into the coordinates on the image in the image 40 (2) using the equations 3 and 6 and the external parameter E1 of the camera 10 (2). This coordinate can be expressed as a function of the parameter E1. The coordinates when p i1f1 and p i1h1 are converted into the coordinates on the image of the image 40 (2) are expressed as in Expression 13.

Figure 2019041261
Figure 2019041261

実際に観測される座標は、pi2f1およびpi2h1であり、誤差が生じる。パラメータE1は、この誤差を全ての点について計算し、誤差を最小にするような値を求める。すなわち、以下の数14を最小にするE1を求める。
The actually observed coordinates are p i2f1 and p i2h1 , and an error occurs. The parameter E1 calculates this error for all points and obtains a value that minimizes the error. That is, E1 that minimizes the following Equation 14 is obtained.

Figure 2019041261
Figure 2019041261

最小化するE1を求めるアルゴリズムには、例えば、Gauss−Newton法等を用いることができる。   As an algorithm for obtaining E1 to be minimized, for example, Gauss-Newton method or the like can be used.

以上の操作により、基準カメラ10(1)に隣接するカメラ10(2)の外部パラメータを計算できる。また、外部パラメータの計算が終了したカメラ10(2)においては、画像上の座標から世界座標に変換できる。したがって、カメラ10(2)に隣接するカメラ10(3)の外部パラメータも、上記の操作により計算することできる。   With the above operation, the external parameters of the camera 10 (2) adjacent to the reference camera 10 (1) can be calculated. In addition, in the camera 10 (2) for which the calculation of the external parameters has been completed, the coordinates on the image can be converted into world coordinates. Therefore, the external parameters of the camera 10 (3) adjacent to the camera 10 (2) can also be calculated by the above operation.

従って、本実施例では、基準カメラ10(1)以外の他の各カメラ10(2)〜10(4)では、静止マーカ2を置くことなく、外部パラメータを計算することができ、設定作業時のユーザの作業負担を軽減することができる。   Therefore, in this embodiment, the external parameters can be calculated without placing the stationary marker 2 in each of the cameras 10 (2) to 10 (4) other than the reference camera 10 (1), and during the setting operation The user's workload can be reduced.

なお、上記の方法では、移動体3が視野重複領域101を通過する際に、同一人物であるかを特定する必要がある。そこで以下に、人物の特定法の例を説明する。   In the above method, it is necessary to specify whether the moving body 3 is the same person when passing through the field-of-view overlap region 101. Therefore, an example of a person identification method will be described below.

図5は、設定画面41の例を示す。設定部115は、設定モードを備えている。例えば、ユーザは、表示部13に表示されるメニューから設定モードを指定することで、画像処理システム1を設定モードへ移行させることができる。   FIG. 5 shows an example of the setting screen 41. The setting unit 115 has a setting mode. For example, the user can shift the image processing system 1 to the setting mode by designating the setting mode from a menu displayed on the display unit 13.

図5では、設定モード中に同一人物の特定を手動で行う例を示す。設定画面41は、例えば、一つめのカメラの画像40(1)と、二つめのカメラの画像40(2)とを並べて表示する。さらに、設定画面41は、画像のフレームを一つ前に戻すボタン411と、フレームを一つ先に進めるボタン412と、設定モードを開始させるボタン413と、設定モードを終了させるボタン414を備える。画面には、座標を指定するポインタ415が表示される。なお、図5では、一つ目のカメラ画像40(1)に人物3(1)が映っており、二つ目のカメラ画像40(2)に人物3(2)が映っている。符号30は、指定された人物3(1)の足下の座標を示す。   FIG. 5 shows an example in which the same person is manually specified during the setting mode. The setting screen 41 displays, for example, a first camera image 40 (1) and a second camera image 40 (2) side by side. Further, the setting screen 41 includes a button 411 for returning the image frame to the previous one, a button 412 for moving the frame forward, a button 413 for starting the setting mode, and a button 414 for ending the setting mode. A pointer 415 for designating coordinates is displayed on the screen. In FIG. 5, the person 3 (1) is shown in the first camera image 40 (1), and the person 3 (2) is shown in the second camera image 40 (2). Reference numeral 30 indicates the coordinates of the feet of the designated person 3 (1).

カメラ画像40(1)とカメラ画像40(2)には、それぞれ同一時刻の画像が表示されている。   In the camera image 40 (1) and the camera image 40 (2), images at the same time are displayed.

ユーザが設定モード開始ボタン413を操作すると、設定モードに移行する。ユーザは、ボタン411またはボタン412を操作しながら、ある間隔で各カメラ画像40(1),40(2)に映る同一人物の座標を、ポインタ415により座標30のように指定していく。ユーザが最後に終了ボタン414を操作すると、指定した座標30により外部パラメータの計算が始まる。   When the user operates the setting mode start button 413, the setting mode is entered. While operating the button 411 or the button 412, the user designates the coordinates of the same person appearing in the camera images 40 (1) and 40 (2) at certain intervals using the pointer 415 as coordinates 30. When the user finally operates the end button 414, the calculation of the external parameter starts with the designated coordinates 30.

この方法では、ユーザが手動で座標30を入力するため、移動体3の特定時の座標誤差を低減することができる。また図5の方法によれば、移動体3としての人物を検知できないという事態が生じないため、高い信頼性で外部パラメータを計算できる。なお、図5では、二つのカメラ画像40(1),40(2)のみを表示する例を示したが、これに限らず、三台以上のカメラ画像を同時に表示してもよい。   In this method, since the user manually inputs the coordinates 30, coordinate errors when the moving body 3 is specified can be reduced. Further, according to the method of FIG. 5, since a situation in which a person as the moving body 3 cannot be detected does not occur, the external parameter can be calculated with high reliability. In addition, although the example which displays only the two camera images 40 (1) and 40 (2) was shown in FIG. 5, you may display not only this but three or more camera images simultaneously.

図6は、設定モード中に、唯一の人物3をカメラ間に通過させ、各カメラの映像から人物3を自動検出することにより、同一人物を特定する例を示す。   FIG. 6 shows an example in which the same person is specified by passing only one person 3 between the cameras and automatically detecting the person 3 from the video of each camera during the setting mode.

設定画面42は、複数のカメラ画像40(1),40(2)を並べて表示する。設定画面42は、設定モード開始ボタン421と、設定モード終了ボタン422と、人物が検出されたことを通知するためのアラート423,424とを含む。   The setting screen 42 displays a plurality of camera images 40 (1) and 40 (2) side by side. The setting screen 42 includes a setting mode start button 421, a setting mode end button 422, and alerts 423 and 424 for notifying that a person has been detected.

一つめのカメラ画像40(1)には、移動体としての唯一の人物3(1)が映されている。その人物3(1)は、足下の座標30(1)と頭部の座標31(1)を持つ。二つめのカメラ画像40(2)にも、人物3(2)が映されている。人物3(2)は、足下の座標30(2)と頭部の座標31(2)を持つ。   In the first camera image 40 (1), the only person 3 (1) as a moving object is shown. The person 3 (1) has foot coordinates 30 (1) and head coordinates 31 (1). The person 3 (2) is also reflected in the second camera image 40 (2). The person 3 (2) has foot coordinates 30 (2) and head coordinates 31 (2).

まず、ユーザが開始ボタン421を操作すると、画像処理システム1は設定モードに移行する。   First, when the user operates the start button 421, the image processing system 1 shifts to the setting mode.

設定モードへ移行した後で、視野重複領域101に唯一の人物3を通過させ、その人物3の座標を自動検出する。同一時刻に取得した座標は、同一人物の座標であると判断し、保存しておく。   After shifting to the setting mode, the only person 3 is passed through the field-of-view overlap region 101, and the coordinates of the person 3 are automatically detected. The coordinates acquired at the same time are determined to be the coordinates of the same person, and stored.

最後に、ユーザが終了ボタン422を押すと、外部パラメータの計算が始まる。図6で述べた方法を用いると、移動体としての人物の座標を自動で検知できる。したがって、図6の例は、図5に示した例と比較して、設定作業時の負担をさらに軽減できる。なお、図6の場合も、設定モードの開始から設定モードの終了まで、唯一の人物を三台以上のカメラ間で通過させて、外部パラメータを計算してもよい。   Finally, when the user presses the end button 422, the calculation of the external parameters starts. If the method described in FIG. 6 is used, the coordinates of a person as a moving object can be automatically detected. Therefore, the example of FIG. 6 can further reduce the burden during the setting operation as compared with the example shown in FIG. In the case of FIG. 6 also, the external parameter may be calculated by passing a single person between three or more cameras from the start of the setting mode to the end of the setting mode.

図7は、人物の外見等の画像特徴量を用いて、人物を自動的に特定する例を示す。図7の例では、設定モードは設けられていない。図7の例では、人物を追跡しながら画像特徴量を用いて、同一人物であるか特定する。   FIG. 7 shows an example in which a person is automatically specified using an image feature amount such as the appearance of the person. In the example of FIG. 7, the setting mode is not provided. In the example of FIG. 7, it is specified whether or not they are the same person using the image feature amount while tracking the person.

設定画面43には、人物3(1)の映ったカメラ画像40(1)と、人物3(2)の映ったカメラ画像40(2)とが並んで表示されている。点線の矩形431(1)は、一つ目のカメラ画像40(1)において、同一人物であることを特定したことを示す表示要素である。同様に、点線の矩形431(2)は、二つ目のカメラ画像40(2)において、同一人物を特定したことを示す表示要素である。人物3(1)の足下の座標30(1)および頭部の座標31(1)は、カメラ画像40(1)から自動検出される。人物3(2)の足下の座標30(2)および頭部の座標31(2)は、カメラ画像40(2)から自動検出される。   On the setting screen 43, a camera image 40 (1) in which the person 3 (1) is shown and a camera image 40 (2) in which the person 3 (2) is shown are displayed side by side. A dotted-line rectangle 431 (1) is a display element indicating that the same person is specified in the first camera image 40 (1). Similarly, a dotted rectangle 431 (2) is a display element indicating that the same person has been specified in the second camera image 40 (2). The foot coordinates 30 (1) and head coordinates 31 (1) of the person 3 (1) are automatically detected from the camera image 40 (1). The foot coordinates 30 (2) and head coordinates 31 (2) of the person 3 (2) are automatically detected from the camera image 40 (2).

図7に示す例では、カメラ画像内で人物を自動検出し、検出した人物の画像特徴量を計算する。そして、外部パラメータが計算されたカメラと計算されていないカメラとについて、同一時刻に映っている人物の画像特徴量を比較することにより、同一人物であるか否か判定する。   In the example shown in FIG. 7, a person is automatically detected in the camera image, and the image feature amount of the detected person is calculated. And it is determined whether it is the same person by comparing the image feature-value of the person who is reflected in the same time about the camera with which the external parameter was calculated, and the camera with which it is not calculated.

同一人物と判定された場合は、座標を保存する。同一と判定された人物が検出されなくなった際に、外部パラメータの計算を開始する。この方法では、設定モードを設ける必要がなく、図5および図6で述べた方法と比較して、簡潔に外部パラメータを計算することができる。なお、図7の例においても、三台以上のカメラ画像を同時に表示して処理してもよい。   If it is determined that the person is the same person, the coordinates are stored. When the person determined to be the same is no longer detected, the calculation of the external parameter is started. In this method, it is not necessary to provide a setting mode, and the external parameters can be calculated in a simple manner as compared with the methods described in FIGS. In the example of FIG. 7, three or more camera images may be simultaneously displayed and processed.

このように構成される本実施例によれば、複数のカメラのそれぞれに静止マーカ2を設置して外部パラメータを計算する必要がなく、カメラの設置時の設定作業の効率を向上することができる。   According to the present embodiment configured as described above, it is not necessary to calculate the external parameter by installing the stationary marker 2 in each of the plurality of cameras, and it is possible to improve the efficiency of the setting work when the cameras are installed. .

本実施例によれば、最初に基準となるカメラについてのみ静止マーカ2を用いて外部パラメータを演算すれば、他の各カメラについては、人物やロボット等の移動体3を視野重複領域101を通過するように移動させるだけで、外部パラメータを計算することができ、カメラを設定するユーザの使い勝手と作業効率を向上することができる。   According to the present embodiment, if the external parameters are calculated using the stationary marker 2 only for the reference camera for the first time, the moving body 3 such as a person or a robot passes through the visual field overlap region 101 for the other cameras. Thus, the external parameters can be calculated simply by moving the camera so that the usability and work efficiency of the user who sets the camera can be improved.

図8〜図10を用いて、第2実施例を説明する。本実施例を含む以下の各実施例では、第1実施例との相違を中心に説明する。   A second embodiment will be described with reference to FIGS. In the following embodiments including the present embodiment, differences from the first embodiment will be mainly described.

本実施例では、第1実施例の外部パラメータ計算と同時に、外部パラメータを用いて変換する世界座標系から監視対象の施設内の平面図を作成する例を説明する。   In the present embodiment, an example will be described in which a plan view in a monitored facility is created from a world coordinate system that is converted using external parameters simultaneously with the external parameter calculation of the first embodiment.

第1実施例の方法を用いると、外部パラメータの計算と同時に、移動体3の世界座標を得ることができる。本実施例では、移動体3の世界座標を用いて、移動体3の移動領域を検出し、平面図の移動可能領域を示す図の作成を支援する。なお、外部パラメータの計算手順については、第1実施例と同様である。   When the method of the first embodiment is used, the world coordinates of the moving body 3 can be obtained simultaneously with the calculation of the external parameters. In the present embodiment, the moving area of the moving body 3 is detected using the world coordinates of the moving body 3, and the creation of a diagram showing the movable area of the plan view is supported. The external parameter calculation procedure is the same as in the first embodiment.

図8は、本実施例に係る画像処理システム1aの全体構成を示す。画像処理システム1aは、第1実施例で述べた構成に対して、移動領域検出部117が追加されている。移動領域検出部117は、軌跡保存部112から軌跡を受け取り、その軌跡から移動領域を計算して、設定部115へ出力する。本実施例では、移動体として、自動走行するロボット3aを用いる。ロボット3aは、障害がないときは直進し、壁等の障害物に衝突するとランダムに方向転換して走行を継続する。以下、移動領域の検出法を説明する。   FIG. 8 shows the overall configuration of the image processing system 1a according to the present embodiment. In the image processing system 1a, a moving area detection unit 117 is added to the configuration described in the first embodiment. The movement region detection unit 117 receives the locus from the locus storage unit 112, calculates the movement region from the locus, and outputs the movement region to the setting unit 115. In this embodiment, a robot 3a that automatically travels is used as the moving body. The robot 3a goes straight when there is no obstacle, and when it collides with an obstacle such as a wall, the robot 3a changes direction at random and continues running. Hereinafter, a method for detecting the moving area will be described.

図9に示すように、移動体3aは、障害物に接触しないかぎり直進し、障害物に接触するとランダムに方向転換して直進する。したがって、ロボット3aの軌跡から、ロボット3aの移動可能な領域を検出することができる。なお、ロボット3aに代えて、人がロボット3aのような動作で歩行してもよい。   As shown in FIG. 9, the moving body 3a goes straight unless it touches an obstacle, and when it touches the obstacle, it changes direction at random and goes straight. Therefore, the movable area of the robot 3a can be detected from the locus of the robot 3a. In place of the robot 3a, a person may walk by an action like the robot 3a.

図9の検出画面44は、世界座標系におけるXY平面を示す。検出画面44には、ロボット3aの移動軌跡441と、軌跡の折り返し地点について最近傍点同士を結んだ線442とが表示されている。   The detection screen 44 in FIG. 9 shows the XY plane in the world coordinate system. On the detection screen 44, a movement locus 441 of the robot 3a and a line 442 connecting the nearest points with respect to the turning point of the locus are displayed.

図9に示すように、ロボット3aを床面上でランダムに走行させ、世界座標系における軌跡を取得することで、移動領域を検出する。軌跡441に示すように、ロボット3aを長距離走らせることで、移動可能領域を埋め尽くすようにして軌跡が発生する。   As shown in FIG. 9, the robot 3a travels randomly on the floor surface and acquires a trajectory in the world coordinate system to detect a moving region. As shown by the locus 441, the locus is generated by filling the movable area by running the robot 3a for a long distance.

また、ロボット3aは、障害物に衝突すると方向転換するため、軌跡における折り返し点の最近傍点同士を接続することで、移動領域を囲む線442を描くことができる。ロボット3aに十分な距離を走らせた後で、線442を軌跡全体で作成することにより、施設の平面図の移動可能領域を生成することができる。   Further, since the robot 3a changes its direction when it collides with an obstacle, the line 442 surrounding the moving region can be drawn by connecting the nearest points of the turning points in the trajectory. After the robot 3a has traveled a sufficient distance, the movable area of the plan view of the facility can be generated by creating the line 442 with the entire trajectory.

図10は、移動体として人物を用い、世界座標系の軌跡において閉領域を形成することにより、移動領域を検出する例を示す。なお、同様の動作をロボットが行うことで、同様の効果が得られる。   FIG. 10 shows an example in which a moving area is detected by using a person as a moving body and forming a closed area in the locus of the world coordinate system. A similar effect can be obtained when the robot performs the same operation.

図10の検出画面45は、世界座標系におけるXY平面を示す。検出画面45には、人物の移動軌跡451と、移動軌跡451によって決定された移動領域452とが表示されている。   The detection screen 45 in FIG. 10 shows the XY plane in the world coordinate system. On the detection screen 45, a person's movement locus 451 and a movement area 452 determined by the movement locus 451 are displayed.

人物は、軌跡451に示すように、閉領域を形成するように歩く。閉領域が完成するとその領域は移動可能領域452として決定される。一個あるいは複数個の閉領域を用いて、監視対象の施設内の全領域を埋め尽くすように移動軌跡を発生させる。これにより、施設内の平面図の移動可能領域を生成することができる。   A person walks so as to form a closed region as indicated by a locus 451. When the closed region is completed, the region is determined as the movable region 452. Using one or a plurality of closed areas, a movement trajectory is generated so as to fill the entire area in the facility to be monitored. Thereby, the movable area | region of the top view in a plant | facility can be produced | generated.

図11を用いて、第3実施例を説明する。本実施例の各カメラ10aは、撮像部110と演算部11aとを備える。演算部11aは、上述した各機能11〜116のほかに、他のカメラ等と通信する通信部118を備える。通信部118は、無線または有線の通信ネットワークCNを介して、他のカメラ10aまたは端末5と通信する。   A third embodiment will be described with reference to FIG. Each camera 10a of the present embodiment includes an imaging unit 110 and a calculation unit 11a. The arithmetic unit 11a includes a communication unit 118 that communicates with other cameras in addition to the functions 11 to 116 described above. The communication unit 118 communicates with another camera 10a or the terminal 5 via a wireless or wired communication network CN.

端末5は、ユーザが情報を入力したり、カメラ10aの画像を確認したりするためのコンピュータ端末である。   The terminal 5 is a computer terminal for a user to input information and confirm an image of the camera 10a.

各カメラ10aは、軌跡保存部112の保持する軌跡データを、通信部118および通信ネットワークCNを介して、隣接するカメラ10aの設定部115へ引き渡す。これにより、本実施例では、各カメラ10aを統括する演算部11を用いずに、各カメラ10a間で情報をやり取りすることにより、視野内の移動体を特定して追跡し、座標を算出することができる。   Each camera 10a passes the trajectory data held by the trajectory storage unit 112 to the setting unit 115 of the adjacent camera 10a via the communication unit 118 and the communication network CN. Thus, in this embodiment, the information is exchanged between the cameras 10a without using the arithmetic unit 11 that controls each camera 10a, thereby identifying and tracking the moving body in the field of view and calculating the coordinates. be able to.

本実施例では、高機能化されたカメラ10aを用いるため、設定を一元管理する演算部11を設ける必要がない。したがって、画像処理システム1の構成を簡素化でき、取付作業の作業性を改善することができる。   In the present embodiment, since the highly functional camera 10a is used, it is not necessary to provide the arithmetic unit 11 for managing settings centrally. Therefore, the configuration of the image processing system 1 can be simplified, and the workability of the mounting work can be improved.

なお、本発明は上記各実施例に限定されるものではなく、様々な変形例が含まれる。例えば、上記した実施例は本発明を分かりやすく説明するために詳細に説明したものであり、必ずしも説明した全ての構成を備えるものに限定されるものではない。また、ある実施例の構成の一部を他の実施例の構成に置き換えることが可能であり、また、ある実施例の構成に他の実施例の構成を加えることも可能である。また、各実施例の構成の一部について、他の構成の追加・削除・置換をすることが可能である。   In addition, this invention is not limited to said each Example, Various modifications are included. For example, the above-described embodiments have been described in detail for easy understanding of the present invention, and are not necessarily limited to those having all the configurations described. Further, a part of the configuration of one embodiment can be replaced with the configuration of another embodiment, and the configuration of another embodiment can be added to the configuration of one embodiment. Further, it is possible to add, delete, and replace other configurations for a part of the configuration of each embodiment.

また、上記の各構成は、それらの一部又は全部が、ハードウェアで構成されても、プロセッサでプログラムが実行されることにより実現されるように構成されてもよい。また、制御線や情報線は説明上必要と考えられるものを示しており、製品上必ずしも全ての制御線や情報線を示しているとは限らない。実際には殆ど全ての構成が相互に接続されていると考えてもよい。   In addition, each of the above-described configurations may be configured such that some or all of them are configured by hardware, or are implemented by executing a program by a processor. Further, the control lines and information lines indicate what is considered necessary for the explanation, and not all the control lines and information lines on the product are necessarily shown. Actually, it may be considered that almost all the components are connected to each other.

1,1a:画像処理システム、2:静止マーカ、3,3a:移動体、10,10a:カメラ、11,11a:演算部、12:入力部、13:表示部、111:追跡部、112:軌跡保存部、113:軌跡連結部、114:軌跡取得部、115:設定部、116:設定保存部、117:移動領域検出部、118:通信部   DESCRIPTION OF SYMBOLS 1, 1a: Image processing system, 2: Static marker, 3, 3a: Moving body, 10, 10a: Camera, 11, 11a: Calculation part, 12: Input part, 13: Display part, 111: Tracking part, 112: Trajectory storage unit 113: Trajectory connection unit 114: Trajectory acquisition unit 115: Setting unit 116: Setting storage unit 117: Movement region detection unit 118: Communication unit

Claims (12)

複数のカメラで撮影した画像を処理する画像処理システムであって、
前記複数のカメラは、隣接するカメラ同士の視野の重複する視野重複領域が形成されるようにして設置されており、
前記各カメラに固有の内部パラメータを取得する内部パラメータ取得部と、
移動体を追跡して、移動体の時刻および座標を出力する追跡部と、
前記移動体が前記視野重複領域に存在するときの、前記移動体の座標を取得することにより、前記移動体の軌跡を取得する軌跡取得部と、
前記移動体の画像特徴量に基づいて、隣接するカメラのうち一方のカメラで撮影された移動体の画像と他方のカメラで撮影された移動体の画像とを比較することにより、前記移動体の軌跡を連結する軌跡連結部と、
前記軌跡取得部により取得された座標と前記内部パラメータとを用いて、前記座標に対応するカメラの取付状態に関する外部パラメータを設定値として算出する設定部と、
前記取得された内部パラメータと前記設定部により算出された外部パラメータとを対応づけて保存する設定保存部と、
を備える、
画像処理システム。
An image processing system for processing images taken by a plurality of cameras,
The plurality of cameras are installed in such a manner that a field-of-view overlap region is formed in which the fields of view of adjacent cameras overlap.
An internal parameter acquisition unit for acquiring internal parameters specific to each camera;
A tracking unit that tracks the moving object and outputs the time and coordinates of the moving object;
A trajectory acquisition unit for acquiring a trajectory of the moving object by acquiring the coordinates of the moving object when the moving object exists in the visual field overlap region;
Based on the image feature amount of the moving body, by comparing an image of the moving body captured by one of the adjacent cameras and an image of the moving body captured by the other camera, A trajectory link for connecting the trajectories;
Using the coordinates acquired by the trajectory acquisition unit and the internal parameters, a setting unit that calculates external parameters related to the camera mounting state corresponding to the coordinates as set values;
A setting storage unit that stores the acquired internal parameter and the external parameter calculated by the setting unit in association with each other;
Comprising
Image processing system.
前記設定部は、
前記各カメラのうち所定のカメラの外部パラメータを、前記所定のカメラの視野に設けられるマーカに基づいて算出し、
前記各カメラのうち前記所定のカメラ以外の他のカメラの外部パラメータについては、前記軌跡取得部により取得される前記視野重複領域での前記移動体の座標を用いて算出する、
請求項1に記載の画像処理システム。
The setting unit
An external parameter of a predetermined camera among the cameras is calculated based on a marker provided in the visual field of the predetermined camera,
The external parameters of the cameras other than the predetermined camera among the cameras are calculated using the coordinates of the moving body in the visual field overlap region acquired by the trajectory acquisition unit.
The image processing system according to claim 1.
前記設定部は、設定モードが起動されると、前記視野重複領域に存在する前記移動体の座標を取得する、
請求項2に記載の画像処理システム。
When the setting mode is activated, the setting unit acquires the coordinates of the moving object existing in the visual field overlap region.
The image processing system according to claim 2.
ユーザからの情報が入力される入力部をさらに備え、
前記設定部は、前記設定モード中に、前記視野重複領域に存在する前記移動体の座標を前記入力部から取得する、
請求項3に記載の画像処理システム。
It further includes an input unit for inputting information from the user,
The setting unit acquires the coordinates of the moving object existing in the visual field overlap region from the input unit during the setting mode.
The image processing system according to claim 3.
前記軌跡取得部は、前記設定モード中に前記視野重複領域に存在する前記移動体の座標を取得し、
前記設定部は、前記軌跡取得部から前記移動体の座標を取得する、
請求項3に記載の画像処理システム。
The trajectory acquisition unit acquires the coordinates of the moving object existing in the visual field overlap region during the setting mode,
The setting unit acquires the coordinates of the moving body from the trajectory acquisition unit.
The image processing system according to claim 3.
前記移動体は、前記設定モード中に、前記隣接するカメラ間の各視野重複領域をそれぞれ通過する唯一の移動体として構成される、
請求項5に記載の画像処理システム。
The moving body is configured as the only moving body that passes through each field-of-view overlap region between the adjacent cameras during the setting mode,
The image processing system according to claim 5.
前記移動体は人物であり、
前記軌跡取得部は、前記軌跡連結部が特定した同一人物の視野重複領域における座標を取得する、
請求項2に記載の画像処理システム。
The moving body is a person,
The trajectory acquisition unit acquires coordinates in a field overlap region of the same person specified by the trajectory connection unit;
The image processing system according to claim 2.
前記移動体は、障害物を自動的に避けて走行するロボットである、
請求項2に記載の画像処理システム。
The moving body is a robot that automatically avoids obstacles and travels.
The image processing system according to claim 2.
前記移動体の移動領域を検出する移動領域検出部をさらに備え、
前記設定部は、前記移動領域検出部により検出される前記移動領域を用いて、前記各カメラの撮影範囲の平面図の作成を支援する情報を出力する、
請求項2に記載の画像処理システム。
A moving area detecting unit for detecting a moving area of the moving body;
The setting unit outputs information that supports creation of a plan view of the shooting range of each camera using the moving region detected by the moving region detection unit.
The image processing system according to claim 2.
前記移動領域検出部は、前記移動体の軌跡から前記移動体の折り返し地点を検出することにより、前記移動領域を検出する、
請求項9に記載の画像処理システム。
The moving area detecting unit detects the moving area by detecting a turning point of the moving body from a trajectory of the moving body;
The image processing system according to claim 9.
前記移動領域検出部は、前記移動体の軌跡から形成される閉領域を検出することにより、前記移動領域を検出する、
請求項9に記載の画像処理システム。
The moving area detecting unit detects the moving area by detecting a closed area formed from a trajectory of the moving body;
The image processing system according to claim 9.
複数のカメラで撮影した画像を処理する画像処理システムの設定方法であって、
前記複数のカメラは、隣接するカメラ同士の視野の重複する視野重複領域が形成されるようにして設置されており、
前記各カメラに固有の内部パラメータを取得し、
前記各カメラのうち所定のカメラの外部パラメータを、前記所定のカメラの視野に設けられるマーカに基づいて算出し、
前記所定のカメラの視野から隣接するカメラの視野へ移動する移動体を追跡して、移動体の時刻および座標を取得し、
前記移動体が前記視野重複領域に存在するときの、前記移動体の座標を取得することにより、前記移動体の軌跡を取得し、
前記移動体の画像特徴量に基づいて、隣接するカメラのうち一方のカメラで撮影された移動体の画像と他方のカメラで撮影された移動体の画像とを比較することにより、前記移動体の軌跡を連結し、
前記取得された座標と前記内部パラメータとから、前記座標に対応するカメラの取付状態に関する外部パラメータを設定値として算出し、
前記内部パラメータと前記外部パラメータとを対応づけて保存し、
前記所定のカメラ以外の他のカメラの外部パラメータを、前記視野重複領域における前記移動体の座標を用いて算出する、
画像処理システムの設定方法。
An image processing system setting method for processing images taken by a plurality of cameras,
The plurality of cameras are installed in such a manner that a field-of-view overlap region is formed in which the fields of view of adjacent cameras overlap.
Get internal parameters specific to each camera,
An external parameter of a predetermined camera among the cameras is calculated based on a marker provided in the visual field of the predetermined camera,
Tracking a moving body that moves from the field of view of the predetermined camera to the field of view of an adjacent camera to obtain the time and coordinates of the moving body;
By obtaining the coordinates of the moving body when the moving body is present in the visual field overlap region, the trajectory of the moving body is obtained,
Based on the image feature amount of the moving body, by comparing an image of the moving body captured by one of the adjacent cameras and an image of the moving body captured by the other camera, Connect the trajectories,
From the acquired coordinates and the internal parameters, an external parameter relating to the camera mounting state corresponding to the coordinates is calculated as a set value,
The internal parameters and the external parameters are stored in association with each other,
An external parameter of a camera other than the predetermined camera is calculated using the coordinates of the moving body in the visual field overlap region.
How to set up an image processing system.
JP2017162336A 2017-08-25 2017-08-25 Image processing system and setting method of image processing system Pending JP2019041261A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017162336A JP2019041261A (en) 2017-08-25 2017-08-25 Image processing system and setting method of image processing system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017162336A JP2019041261A (en) 2017-08-25 2017-08-25 Image processing system and setting method of image processing system

Publications (1)

Publication Number Publication Date
JP2019041261A true JP2019041261A (en) 2019-03-14

Family

ID=65727248

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017162336A Pending JP2019041261A (en) 2017-08-25 2017-08-25 Image processing system and setting method of image processing system

Country Status (1)

Country Link
JP (1) JP2019041261A (en)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020194486A1 (en) * 2019-03-26 2020-10-01 日本電気株式会社 Calibration device, calibration method, and non-transitory computer readable medium having program stored thereupon
CN112102308A (en) * 2020-09-25 2020-12-18 研祥智能科技股份有限公司 Image splicing method and system and product defect detection method and system
JP2021033785A (en) * 2019-08-27 2021-03-01 富士通クライアントコンピューティング株式会社 Information processing apparatus and program
CN112598706A (en) * 2020-12-21 2021-04-02 西北工业大学 Multi-camera moving target three-dimensional trajectory reconstruction method without accurate time-space synchronization
JP2021069079A (en) * 2019-10-28 2021-04-30 富士通クライアントコンピューティング株式会社 Information processing system, information processing device, and program
JPWO2021090467A1 (en) * 2019-11-08 2021-05-14
CN113628243A (en) * 2020-05-08 2021-11-09 广州海格通信集团股份有限公司 Motion trajectory acquisition method and device, computer equipment and storage medium
JP2022032114A (en) * 2020-08-11 2022-02-25 トヨタ自動車株式会社 Calibration system, calibration method, and calibration program
JP2022051683A (en) * 2020-09-22 2022-04-01 グラスパー テクノロジーズ エーピーエス Concept of generating training data and training machine learning model for use in re-identification
CN114630024A (en) * 2022-01-21 2022-06-14 北京航空航天大学 Retina-imitating non-uniform imaging method based on array camera system
JP7414587B2 (en) 2020-02-28 2024-01-16 株式会社東芝 Monitoring method and device

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002005625A (en) * 2000-06-27 2002-01-09 Atr Media Integration & Communications Res Lab Automatic calibrating method of camera
JP2004334393A (en) * 2003-05-02 2004-11-25 Canon Inc Image processing method and apparatus thereof
JP2005233639A (en) * 2004-02-17 2005-09-02 Mitsubishi Electric Corp Stereoscopic camera system and method for camera-to-camera calibration of the system
JP2010244326A (en) * 2009-04-07 2010-10-28 Alpine Electronics Inc In-vehicle circumference image display device
JP2016080550A (en) * 2014-10-17 2016-05-16 オムロン株式会社 Area information estimation device, area information estimation method and air conditioner
JP2016085602A (en) * 2014-10-27 2016-05-19 株式会社日立製作所 Sensor information integrating method, and apparatus for implementing the same

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002005625A (en) * 2000-06-27 2002-01-09 Atr Media Integration & Communications Res Lab Automatic calibrating method of camera
JP2004334393A (en) * 2003-05-02 2004-11-25 Canon Inc Image processing method and apparatus thereof
JP2005233639A (en) * 2004-02-17 2005-09-02 Mitsubishi Electric Corp Stereoscopic camera system and method for camera-to-camera calibration of the system
JP2010244326A (en) * 2009-04-07 2010-10-28 Alpine Electronics Inc In-vehicle circumference image display device
JP2016080550A (en) * 2014-10-17 2016-05-16 オムロン株式会社 Area information estimation device, area information estimation method and air conditioner
JP2016085602A (en) * 2014-10-27 2016-05-19 株式会社日立製作所 Sensor information integrating method, and apparatus for implementing the same

Cited By (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2020194486A1 (en) * 2019-03-26 2021-12-23 日本電気株式会社 Calibration equipment, calibration method, and program
JP7283535B2 (en) 2019-03-26 2023-05-30 日本電気株式会社 CALIBRATION DEVICE, CALIBRATION METHOD, AND PROGRAM
US20220156977A1 (en) * 2019-03-26 2022-05-19 Nec Corporation Calibration apparatus, calibration method, and non-transitory computer readable medium storing program
WO2020194486A1 (en) * 2019-03-26 2020-10-01 日本電気株式会社 Calibration device, calibration method, and non-transitory computer readable medium having program stored thereupon
JP2021033785A (en) * 2019-08-27 2021-03-01 富士通クライアントコンピューティング株式会社 Information processing apparatus and program
JP2021069079A (en) * 2019-10-28 2021-04-30 富士通クライアントコンピューティング株式会社 Information processing system, information processing device, and program
JPWO2021090467A1 (en) * 2019-11-08 2021-05-14
JP7277829B2 (en) 2019-11-08 2023-05-19 日本電信電話株式会社 Camera parameter estimation device, camera parameter estimation method and camera parameter estimation program
WO2021090467A1 (en) * 2019-11-08 2021-05-14 日本電信電話株式会社 Camera parameter estimation device, camera parameter estimation method, and camera parameter estimation program
JP7414587B2 (en) 2020-02-28 2024-01-16 株式会社東芝 Monitoring method and device
CN113628243A (en) * 2020-05-08 2021-11-09 广州海格通信集团股份有限公司 Motion trajectory acquisition method and device, computer equipment and storage medium
JP2022032114A (en) * 2020-08-11 2022-02-25 トヨタ自動車株式会社 Calibration system, calibration method, and calibration program
JP7314878B2 (en) 2020-08-11 2023-07-26 トヨタ自動車株式会社 CALIBRATION SYSTEM, CALIBRATION METHOD AND CALIBRATION PROGRAM
JP2022051683A (en) * 2020-09-22 2022-04-01 グラスパー テクノロジーズ エーピーエス Concept of generating training data and training machine learning model for use in re-identification
JP7186269B2 (en) 2020-09-22 2022-12-08 グラスパー テクノロジーズ エーピーエス Concepts for generating training data and training machine learning models for use in identity detection
CN112102308A (en) * 2020-09-25 2020-12-18 研祥智能科技股份有限公司 Image splicing method and system and product defect detection method and system
CN112102308B (en) * 2020-09-25 2024-01-12 研祥智能科技股份有限公司 Image stitching method and system, and product defect detection method and system
CN112598706A (en) * 2020-12-21 2021-04-02 西北工业大学 Multi-camera moving target three-dimensional trajectory reconstruction method without accurate time-space synchronization
CN112598706B (en) * 2020-12-21 2024-02-02 西北工业大学 Multi-camera moving target three-dimensional track reconstruction method without accurate time-space synchronization
CN114630024A (en) * 2022-01-21 2022-06-14 北京航空航天大学 Retina-imitating non-uniform imaging method based on array camera system

Similar Documents

Publication Publication Date Title
JP2019041261A (en) Image processing system and setting method of image processing system
CN109643127B (en) Map construction, positioning, navigation and control method and system, and mobile robot
JP4278979B2 (en) Single camera system for gesture-based input and target indication
US9665936B2 (en) Systems and methods for see-through views of patients
JP5122887B2 (en) Control method, apparatus, and medium for live-action base mobile device
JP6587489B2 (en) Image processing apparatus, image processing method, and image processing system
JP6062039B2 (en) Image processing system and image processing program
JP4537557B2 (en) Information presentation system
JP5566281B2 (en) Apparatus and method for specifying installation condition of swivel camera, and camera control system provided with the apparatus for specifying installation condition
US20070100498A1 (en) Mobile robot
US10600253B2 (en) Information processing apparatus, information processing method, and program
US9008442B2 (en) Information processing apparatus, information processing method, and computer program
US20060268108A1 (en) Video surveillance system, and method for controlling the same
JP2017084335A (en) System and method for real-time interactive operation of user interface
JP6239164B2 (en) Air conditioning system
US10891769B2 (en) System and method of scanning two dimensional floorplans using multiple scanners concurrently
US20180204387A1 (en) Image generation device, image generation system, and image generation method
JP2009210331A (en) Camera calibration apparatus and camera calibration method
US20160113592A1 (en) System and method for acquisition setup and anatomy landmarking of magnetic resonance imaging systems
JP4227037B2 (en) Imaging system and calibration method
US10819883B2 (en) Wearable scanning device for generating floorplan
Schacter et al. A multi-camera active-vision system for deformable-object-motion capture
JP2020088840A (en) Monitoring device, monitoring system, monitoring method, and monitoring program
JP2015162886A (en) obstacle monitoring system and program
JP2015132443A (en) Apparatus control system, control device, apparatus control method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200114

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200925

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201006

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20210330