JP2019175283A - Recognition apparatus, recognition system, program, and position coordinate detecting method - Google Patents
Recognition apparatus, recognition system, program, and position coordinate detecting method Download PDFInfo
- Publication number
- JP2019175283A JP2019175283A JP2018064873A JP2018064873A JP2019175283A JP 2019175283 A JP2019175283 A JP 2019175283A JP 2018064873 A JP2018064873 A JP 2018064873A JP 2018064873 A JP2018064873 A JP 2018064873A JP 2019175283 A JP2019175283 A JP 2019175283A
- Authority
- JP
- Japan
- Prior art keywords
- distortion correction
- correction element
- recognition
- image
- element image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Closed-Circuit Television Systems (AREA)
- Image Analysis (AREA)
Abstract
Description
本発明は、認識装置、認識システム、プログラムおよび位置座標検出方法に関する。 The present invention relates to a recognition device, a recognition system, a program, and a position coordinate detection method.
従来、対象物がいつどこにいるかを可視化するため、所定領域を撮影した動画を分析することで、対象物の位置を測定し、対象物の位置情報を分析することが行われている。 2. Description of the Related Art Conventionally, in order to visualize where and where an object is, it has been performed to measure the position of the object and analyze the position information of the object by analyzing a moving image of a predetermined area.
特許文献1には、360度全方位の画像を撮像可能なカメラを用いた対象物の検出において、低解像度の画像と高解像度の画像とを用いて対象物の認識処理を行う技術が開示されている。 Patent Document 1 discloses a technique for performing object recognition processing using a low-resolution image and a high-resolution image in detection of an object using a camera capable of capturing 360-degree omnidirectional images. ing.
しかしながら、従来の技術によれば、360度全方位の画像を撮像可能なカメラで撮影した動画像においては歪みが発生しており、歪んだ画像から所定領域における対象物の位置情報を測定するのは難しい、という問題があった。 However, according to the conventional technology, distortion occurs in a moving image captured by a camera capable of capturing 360-degree omnidirectional images, and position information of an object in a predetermined region is measured from the distorted image. There was a problem that was difficult.
本発明は、上記に鑑みてなされたものであって、魚眼レンズを備えるカメラで撮影した動画像から所定領域における対象物の位置情報を測定することを目的とする。 The present invention has been made in view of the above, and an object thereof is to measure position information of an object in a predetermined region from a moving image captured by a camera having a fisheye lens.
上述した課題を解決し、目的を達成するために、本発明は、魚眼レンズを備えるカメラにより所定領域を撮影した魚眼動画を複数の歪み補正要素画像に変換する変換手段と、前記歪み補正要素画像に対して対象物の認識処理を行う認識手段と、認識した前記対象物の前記歪み補正要素画像における位置座標を求める第1位置座標検出手段と、前記歪み補正要素画像における位置座標から、認識した前記対象物の前記所定領域での位置座標を求める第2位置座標検出手段と、を備えることを特徴とする。 In order to solve the above-described problems and achieve the object, the present invention provides a conversion means for converting a fish-eye moving image obtained by photographing a predetermined area by a camera equipped with a fish-eye lens into a plurality of distortion correction element images, and the distortion correction element image. A recognition means for performing recognition processing of the object, first position coordinate detection means for obtaining a position coordinate of the recognized object in the distortion correction element image, and position coordinates in the distortion correction element image. And second position coordinate detection means for obtaining position coordinates of the object in the predetermined area.
本発明によれば、魚眼レンズを備えるカメラで撮影した動画像から所定領域における対象物の位置情報を測定することができる、という効果を奏する。 According to the present invention, there is an effect that position information of an object in a predetermined region can be measured from a moving image captured by a camera having a fisheye lens.
以下に添付図面を参照して、認識装置、認識システム、プログラムおよび位置座標検出方法の実施の形態を詳細に説明する。 Hereinafter, embodiments of a recognition device, a recognition system, a program, and a position coordinate detection method will be described in detail with reference to the accompanying drawings.
ここで、図1は実施の形態にかかる認識システム100のハードウェア構成を示す図である。図1に示すように、認識システム100は、魚眼カメラ200と、認識装置300とを備えている。認識装置300は、認識処理部321と、認識処理部321と魚眼カメラ200とを接続するインタフェース部322と、を備えている。
Here, FIG. 1 is a diagram illustrating a hardware configuration of the
まず、魚眼カメラ200のハードウェア構成について説明する。
First, the hardware configuration of the
ここで、図2は魚眼カメラ200のハードウェア構成を示すブロック図である。図2に示すように、魚眼カメラ200は、対角線画角が180度以上の画角を有する魚眼レンズ201およびCCD(Charge Coupled Device)203を備えている。魚眼カメラ200は、被写体光を、魚眼レンズ201を通してCCD203に入射する。また、魚眼カメラ200は、魚眼レンズ201とCCD203との間に、メカシャッタ202を備えている。メカシャッタ202は、CCD203への入射光を遮断する。魚眼レンズ201及びメカシャッタ202は、モータドライバ206より駆動される。
Here, FIG. 2 is a block diagram showing a hardware configuration of the
CCD203は、撮像面に結像された光学像を電気信号に変換して、アナログの画像データとして出力する。CCD203から出力された画像情報は、CDS(Correlated Double Sampling:相関2重サンプリング)回路204によりノイズ成分を除去され、A/D変換器205によりデジタル値に変換された後、画像処理回路208に対して出力される。
The
画像処理回路208は、画像データを一時格納するSDRAM(SynchronousDRAM)212を用いて、YCrCb変換処理や、ホワイトバランス制御処理、コントラスト補正処理、エッジ強調処理、色変換処理などの各種画像処理を行う。なお、ホワイトバランス処理は、画像情報の色濃さを調整し、コントラスト補正処理は、画像情報のコントラストを調整する画像処理である。エッジ強調処理は、画像情報のシャープネスを調整し、色変換処理は、画像情報の色合いを調整する画像処理である。また、画像処理回路208は、信号処理や画像処理が施された画像情報を液晶ディスプレイ216(以下、LCD16とする)に表示する。
The
また、画像処理回路208は、魚眼レンズ201から入力した魚眼画像を正距円筒図法で変更した正距円筒画像を生成する。
Further, the
画像処理回路208において信号処理、画像処理が施された画像情報は、圧縮伸張回路213を介して、メモリカード214に記録される。圧縮伸張回路213は、操作部215から取得した指示によって、画像処理回路208から出力される画像情報を圧縮してメモリカード214に出力すると共に、メモリカード214から読み出した画像情報を伸張して画像処理回路208に出力する。
Image information subjected to signal processing and image processing in the
魚眼カメラ200は、プログラムに従って各種演算処理を行うCPU(Central Processing Unit)209を備えている。CPU209は、プログラムなどを格納した読み出し専用メモリであるROM(Read Only Memory)211、および各種の処理過程で利用するワークエリア、各種データ格納エリアなどを有する読み出し書き込み自在のメモリであるRAM(Random Access Memory)10とバスラインによって相互接続されている。
The
CCD203、CDS回路204及びA/D変換器205は、タイミング信号を発生するタイミング信号発生器207を介してCPU209によって、タイミングを制御される。さらに、画像処理回路208、圧縮伸張回路213、メモリカード214も、CPU209によって制御される。
The timing of the
魚眼カメラ200の出力は、図1に示す認識装置300の信号処理ボードであるインタフェース部322に入力する。
The output of the
次に、認識装置300のハードウェア構成について説明する。
Next, the hardware configuration of the
ここで、図3は認識装置300のハードウェア構成を示すブロック図である。図3に示すように、認識装置300は、認識装置300全体の動作を制御するCPU(Central Processing Unit)301、CPU801の駆動に用いられるプログラムを記憶したROM(Read Only Memory)302、CPU301のワークエリアとして使用されるRAM(Random Access Memory)303を有する。また、プログラム等の各種データを記憶するHD(Hard Disk)304、CPU301の制御にしたがってHD304に対する各種データの読み出し又は書き込みを制御するHDD(Hard Disk Drive)305を有する。
Here, FIG. 3 is a block diagram showing a hardware configuration of the
また、認識装置300は、メディアI/F307、ディスプレイ308、ネットワークI/F309を有する。メディアI/F307は、フラッシュメモリ等のメディア306に対するデータの読み出し又は書き込み(記憶)を制御する。ディスプレイ308は、カーソル、メニュー、ウィンドウ、文字、又は画像などの各種情報を表示する。ネットワークI/F309は、通信ネットワークを利用してデータ通信する。
The
また、認識装置300は、キーボード311、マウス312、CD−ROM(Compact Disk Read Only Memory)ドライブ314、バスライン310を有する。キーボード311は、文字、数値、各種指示などの入力のための複数のキーを備える。マウス312は、各種指示の選択や実行、処理対象の選択、カーソルの移動などを行う。CD−ROMドライブ314は、着脱可能な記録媒体の一例としてのCD−ROM313に対する各種データの読み出し又は書き込みを制御する。バスライン310は、上記各構成要素を電気的に接続するためのアドレスバスやデータバス等である。
The
図示した認識装置300のハードウェア構成は、1つの筐体に収納されていたりひとまとまりの装置として備えられていたりする必要はなく、認識装置300が備えていることが好ましいハード的な要素を示す。また、クラウドコンピューティングに対応するため、本実施形態の認識装置300の物理的な構成は固定的でなくてもよく、負荷に応じてハード的なリソースが動的に接続・切断されることで構成されてよい。
The hardware configuration of the illustrated
なお、プログラムは実行可能形式や圧縮形式などでメディア306やCD−ROM313などの記憶媒体に記憶された状態で配布されるか、又は、プログラムを配信するサーバから配信される。
The program is distributed in an executable format, a compressed format, or the like stored in a storage medium such as the medium 306 or the CD-
本実施の形態の認識装置300で実行されるプログラムは、下記に示す各機能を含むモジュール構成となっている。認識装置300のCPU301は、ROM302やHD304などの記憶媒体からプログラムを読み出して実行することにより各モジュールがRAM303上にロードされ、各機能を発揮する。
The program executed by the
図4は、認識装置300の機能構成を示すブロック図である。図4に示すように、本実施の形態にかかる認識装置300の認識処理部321は、魚眼カメラ動画入力部101、変換手段として機能する歪み補正要素画像生成部102、歪み補正要素画像生成パラメータ入力部103、人認識辞書入力部104、認識手段として機能する人認識処理部105、第1位置座標検出手段および第2位置座標検出手段として機能する作業領域人位置計算部106、作業領域人位置測定結果出力部107を備えている。
FIG. 4 is a block diagram illustrating a functional configuration of the
魚眼カメラ動画入力部101は、魚眼カメラ200によりオフィスや工場などの作業領域(所定領域)を撮影した魚眼動画を入力する。
The fisheye camera moving image input unit 101 inputs a fisheye moving image obtained by photographing a work area (predetermined area) such as an office or a factory with the
ここで、図5は魚眼カメラ200により入力した画像の例を示す図である。図5に示すように、魚眼カメラ200により入力される画像は、魚眼画像を正距円筒図法で変更した正距円筒画像である。
Here, FIG. 5 is a diagram illustrating an example of an image input by the
図6は、単位球について説明する図である。図6においては、半径が1の単位球を示す。この単位球を用いて、魚眼カメラ200の結像について説明する。図6に示すように、魚眼カメラ200へ入力する光線は単位球の赤道面に対する入射角、つまり仰角を示す緯度はlatitudeである。入射光線の方位角を示す経度はlongitudeである。
FIG. 6 is a diagram for explaining the unit sphere. In FIG. 6, a unit sphere having a radius of 1 is shown. The imaging of the
図7は、正距円筒図法の座標系について説明する図である。図7に示すように、横軸は経度longitudeであり、縦軸は緯度latitudeである。横軸の経度の角度範囲は(−180度〜180度)であり、縦方向緯度の角度範囲は(−90度〜90度)である。縦方向と横方向は等間隔に交差する。つまり、縦方向と横方向は等間隔角度である。 FIG. 7 is a diagram for explaining the coordinate system of the equirectangular projection. As shown in FIG. 7, the horizontal axis is longitude longitude, and the vertical axis is latitude latitude. The angle range of longitude on the horizontal axis is (−180 degrees to 180 degrees), and the angle range of longitudinal latitude is (−90 degrees to 90 degrees). The vertical direction and the horizontal direction intersect at equal intervals. That is, the vertical direction and the horizontal direction are equally spaced angles.
歪み補正要素画像生成部102は、透視投影図法により、複数の方向で要素画像を作成し、歪み補正要素画像を作成する。歪み補正要素画像生成部102は、複数の方向の要素画像により、作業領域をカバーする。歪み補正要素画像生成パラメータ入力部103は、複数の方向で要素画像を作成するため、歪み補正要素画像作成のためのパラメータを入力する。入力パラメータは、要素画像の数、それぞれ要素画像の画像サイズ、画角、方位角、仰角、回転角を入力する。
The distortion correction element
図8は、透視投影図法の座標系について説明する図である。図8に示すように、魚眼歪みを補正し、歪み補正要素画像を作成するには、透視投影図法により、歪み補正要素画像を作る。図8に示すように、透視投影図法は3次元の物体を見たとおりに2次元平面に描画するための投影図法である。 FIG. 8 is a diagram for explaining a coordinate system for perspective projection. As shown in FIG. 8, in order to correct fisheye distortion and create a distortion correction element image, a distortion correction element image is created by perspective projection. As shown in FIG. 8, the perspective projection method is a projection method for drawing on a two-dimensional plane as if a three-dimensional object was seen.
歪み補正要素画像生成部102は、歪み補正要素画像を作成するため、図8に示す透視投影図法で歪み補正要素画像を作成する。そのため、歪み補正要素画像の1画素座標(xp,yp)は、図5に示す入力魚眼画像での対応する座標(longitude,latitude)を求めれば良い。
The distortion correction element
歪み補正要素画像生成部102は、図8に示すように、要素画像の画素(xp,yp)から下記に示す式(1)と式(2)により、(longitude,latitude)経度と緯度を計算する。
As shown in FIG. 8, the distortion correction element
式(1)、式(2)は、歪み補正要素画像の方位角、仰角と回転角はすべて0のときの計算式である。歪み補正要素画像生成部102は、複数の歪み補正要素画像を作成するとき、それぞれの方位角、仰角と回転角で魚眼画像での座標、経度緯度(longitude,latitude)を計算する。歪み補正要素画像生成部102は、図6に示す単位球の回転変換により、式(1)と式(2)の結果からそれぞれの方位角、仰角と回転角で魚眼画像での座標、経度緯度(longitude,latitude)を計算する。
Expressions (1) and (2) are calculation expressions when the azimuth angle, elevation angle, and rotation angle of the distortion correction element image are all zero. When generating a plurality of distortion correction element images, the distortion correction element
式(3)は単位球の回転変換式である。ここで、αは方位角、βは仰角、γは回転角である。これらのパラメータは、歪み補正要素画像生成パラメータ入力部103から入力する。歪み補正要素画像生成部102は、前記求めた経度緯度(longitude,latitude)から単位球上での(x,y,z)座標を計算する。
Equation (3) is a unit ball rotation conversion equation. Here, α is an azimuth angle, β is an elevation angle, and γ is a rotation angle. These parameters are input from the distortion correction element image generation parameter input unit 103. The distortion correction element
歪み補正要素画像生成部102は、方位角、仰角、回転角により、式(3)の単位球回転行列計算によって(x’,y’,x’)の単位球面上の座標を求める。この座標から、経度と緯度座標(longitude’,latitude’)を求める。つまり、魚眼画像上での座標値である。
The distortion correction element
歪み補正要素画像生成部102は、魚眼画像上の座標(longitude’,latitude’)での画素値を作り、歪み補正要素画像の座標の(xp,yp)画素値に与える。このようにして、歪み補正要素画像生成部102は、歪み補正要素画像を作成する。
The distortion correction element
ここで、複数方向の歪み補正要素画像を生成する方法を説明する。複数の歪み補正要素画像のそれぞれの方位角と画角を設定する必要である。そこで、それぞれの方位角と画角の設定方法を説明する。分割する画像数を設定する際に、数を多く設定すると、それぞれの補正画像の画角が小さくなる。すなわち、分割数をパラメータとして設定できる。 Here, a method for generating distortion correction element images in a plurality of directions will be described. It is necessary to set the azimuth and angle of view of each of the plurality of distortion correction element images. Therefore, a method for setting each azimuth and angle of view will be described. When the number of images to be divided is set, if the number is set large, the angle of view of each corrected image becomes small. That is, the number of divisions can be set as a parameter.
ここで、図9は複数方位角および複数画角の設定例を示す図である。図9に示す例は、分割数3の例を示すものである。図9に示すように、歪み補正要素画像生成部102は、180度の範囲内で、3分割し、それぞれの方位角と画角を設定する。歪み補正要素画像生成部102は、それぞれの画像間では境目が発生するため、一部お互いに重なる領域を設け、それぞれの画角を少し広く設定する。歪み補正要素画像生成部102は、設定したそれぞれの方位角と画角で、歪み補正を行う。
Here, FIG. 9 is a diagram illustrating an example of setting a plurality of azimuth angles and a plurality of field angles. The example shown in FIG. 9 shows an example of the division number 3. As illustrated in FIG. 9, the distortion correction element
歪み補正要素画像生成部102は、複数の方位角、仰角、回転角により、複数の歪み補正要素画像を作成する。3方向の歪み補正要素画像の作成例を図10に示す。
The distortion correction element
歪み補正要素画像により人を認識し、認識結果の位置座標から作業領域での位置座標を計算する必要である。そのため、事前キャリブレーションを行い、変換式を求める。 It is necessary to recognize a person from the distortion correction element image and calculate the position coordinates in the work area from the position coordinates of the recognition result. Therefore, pre-calibration is performed to obtain a conversion formula.
ここで、図11は作業領域での座標系と位置座標を例示的に示す図である。本実施形態においては、作業領域の地面にマーカーを設けることによりキャリブレーションを行う。図11に示すように、例えば、作業領域で黒い点のマーカーMを設置する。マーカーMの座標(X,Y)を事前に測定し、既知の値とする。なお、図5においては、白いマーカーを設けている。 Here, FIG. 11 is a diagram exemplarily showing a coordinate system and position coordinates in the work area. In the present embodiment, calibration is performed by providing a marker on the ground of the work area. As shown in FIG. 11, for example, a black dot marker M is set in the work area. The coordinates (X, Y) of the marker M are measured in advance and set to known values. In FIG. 5, a white marker is provided.
ここで、図12は歪み補正要素画像での座標系と位置座標を例示的に示す図である。図12に示すように、対応する歪み補正要素画像は、作業領域の地面で設けたマーカーMを結像する。歪み補正要素画像からマーカーMの位置を検出し、マーカーの座標は(x,y)とする。作業領域の地面と透視投影図法で作成した歪み補正要素画像の地面は平面なので、射影変換の関係を持つ。下記に示す式(4)で変換する。 Here, FIG. 12 is a diagram exemplarily showing a coordinate system and position coordinates in the distortion correction element image. As shown in FIG. 12, the corresponding distortion correction element image forms an image of the marker M provided on the ground of the work area. The position of the marker M is detected from the distortion correction element image, and the coordinates of the marker are (x, y). Since the ground of the work area and the ground of the distortion correction element image created by the perspective projection method are flat, they have a projective transformation relationship. Conversion is performed by the following equation (4).
式(4)の未知数としては、8個のmijがあるので、対応点(X,Y)と(x,y)が4点以上あれば、係数mijを求めることができる。 Since there are eight m ij as unknowns in equation (4), if there are four or more corresponding points (X, Y) and (x, y), the coefficient m ij can be obtained.
人認識処理部105は、歪み補正要素画像を用いて人認識処理を行う。より詳細には、人認識処理部105は、歪み補正要素画像生成部102で作成した歪み補正要素画像に対して、人認識処理を行う。
The human
人認識辞書入力部104は、人認識処理部105における人認識処理に用いる人認識用辞書を入力する。より詳細には、人認識辞書入力部104は、機械学習方法によって、事前に人の学習データを用いた人認識用辞書を作成する。
The human recognition
ここで、図13は人認識処理のブロック走査を示す図である。図13に示すように、人認識処理部105は、人を認識するため、まず画像から歪み補正要素画像の範囲内で、矩形形状のブロック1を切り出す。矩形形状のブロック1における左上の座標(Xs,Ys)と右下の座標(Xe,Ye)は、ブロック1の画像内での位置とブロック1の大きさにより決まる。
Here, FIG. 13 is a diagram showing block scanning of the human recognition processing. As shown in FIG. 13, in order to recognize a person, the person
矩形形状のブロックの選択は、大きいサイズから小さいサイズまで順に選択する。その理由として、本手法では、ブロックの正規化を行うので、大きいブロックと小さいブロックの処理時間は同じである。画像に大きいブロックとなる候補の数が少なく、小さいサイズのブロック数は多いので、大きいサイズのブロックから選択するとより早くオブジェクトを検知される。大きい画像が検知されると、出力すると体感速度は速くなる。 The rectangular blocks are selected in order from the largest size to the smallest size. The reason is that in this method, normalization of the block is performed, so that the processing time of the large block and the small block is the same. Since the number of candidates for a large block in the image is small and the number of small blocks is large, an object can be detected earlier when selected from large blocks. When a large image is detected, the sensory speed increases when it is output.
人認識処理部105は、人認識の特徴量を計算する。ここで、図14は人認識の特徴量を示す図である。図14に示すように、人認識処理部105は、ブロック内にある白黒の矩形特徴量を計算する。つまり、人認識処理部105は、ブロック内にある白黒の矩形領域に白い領域内の画素値を加算し、黒い画素領域内の画素合計値との差はブロック領域内の特徴量h(x)とする。図14においては、A、B、C、Dの4つの特徴の例を挙げた。
The human
計算した矩形特徴量は、式(5)示すように特徴量重み付け評価値f(x)の計算に用いる。式(5)に示すように、人認識処理部105は、ブロック内に特徴量ht(x)を計算して、重み係数αtを付けて、評価値f(x)を計算する。
The calculated rectangular feature value is used to calculate a feature value weighted evaluation value f (x) as shown in Equation (5). As shown in Expression (5), the human
式(5)に示すように、評価関数に特徴量ht(x)と重み係数αtを有している。人認識辞書入力部104は、特徴量と重み係数を、機械学習方法により予め計算しておく。人認識辞書入力部104は、人認識対象に対して、学習データを集め、学習させ、特徴量と重み係数を求める。
As shown in Expression (5), the evaluation function has a feature quantity h t (x) and a weight coefficient α t . The human recognition
ここで、図15は人認識処理の階層構造を示す図である。図15に示すように、人認識処理は、階層構造を有している。各階層では、式(5)に示す評価関数を持つ。人認識処理部105は、評価関数の値が、予め設定した閾値より小さい場合、人でないと判断し、そのブロック(非人ブロック)の評価を中止する。人認識処理部105は、各階層で評価値を計算する。人認識処理部105は、最後の階層において人でないと判断しなかったブロックについて、人と判断する。
Here, FIG. 15 is a diagram showing a hierarchical structure of human recognition processing. As shown in FIG. 15, the human recognition process has a hierarchical structure. Each hierarchy has an evaluation function shown in Expression (5). If the value of the evaluation function is smaller than a preset threshold value, the person
人認識辞書入力部104は、人認識処理部105の各階層での評価値を計算する特徴量と重み係数および、各階層での評価値閾値を予め、人と人でない学習画像を用いて学習させ、人認識用辞書を作成する。
The human recognition
ここで、図16は人認識の結果の例を示す図である。図16に示す枠500A,500Bは、人認識した結果を矩形で囲んで人領域としたものである。矩形の底辺中心点座標は、歪み補正要素画像での人認識の位置座標とする。
Here, FIG. 16 is a diagram illustrating an example of a result of person recognition.
作業領域人位置計算部106は、歪み補正要素画像と作業領域の座標変換式(4)を用いて人認識処理部105における人認識処理により得られた歪み補正要素画像上の人位置座標(x,y)を変換し、作業領域での人位置(X,Y)を求める。
The work area human position calculation unit 106 uses the distortion correction element image and the coordinate conversion formula (4) of the work area to calculate the human position coordinates (x on the distortion correction element image obtained by the human recognition processing in the human
作業領域人位置測定結果出力部107は、作業領域人位置計算部106で求められた作業領域での人位置(X,Y)を出力する。
The work area person position measurement
ここで、図17は認識装置300における処理の流れを概略的に示すフローチャートである。図17に示すように、まず、魚眼カメラ動画入力部101は、魚眼カメラ200によりオフィスや工場などの作業領域を撮影した魚眼動画を入力する(ステップS1)。
Here, FIG. 17 is a flowchart schematically showing the flow of processing in the
次いで、歪み補正要素画像生成部102は、透視投影図法により、複数の方向で要素画像を作成し、歪み補正要素画像を作成する(ステップS2)。
Next, the distortion correction element
次いで、人認識処理部105は、ステップS2で作成した歪み補正要素画像に対して、人認識処理を行う(ステップS3)。
Next, the human
次いで、作業領域人位置計算部106は、ステップS3により得られた歪み補正要素画像上の人位置座標(x,y)を変換し、作業領域での人位置(X,Y)を求める(ステップS4)。 Next, the work area human position calculation unit 106 converts the human position coordinates (x, y) on the distortion correction element image obtained in step S3, and obtains the human position (X, Y) in the work area (step). S4).
最後に、作業領域人位置測定結果出力部107は、ステップS4で求められた作業領域での人位置(X,Y)を出力する(ステップS5)。
Finally, the work area person position measurement
このように本実施の形態によれば、魚眼カメラで撮影した動画像から所定領域における対象物の位置情報を測定することができる。 As described above, according to the present embodiment, it is possible to measure position information of an object in a predetermined region from a moving image captured by a fisheye camera.
なお、本実施の形態においては、オフィスや工場などの作業領域を撮影した魚眼動画から人の位置情報を測定する形態を例示的に説明したが、これに限るものではなく、各種の測定に適用可能であることは言うまでもない。 In the present embodiment, the form in which the position information of a person is measured from a fish-eye video obtained by shooting a work area such as an office or a factory has been exemplarily described. However, the present invention is not limited to this. Needless to say, it is applicable.
100 認識システム
102 変換手段
105 認識手段
106 第1位置座標検出手段、第2位置座標検出手段
200 カメラ
300 認識装置
DESCRIPTION OF
Claims (9)
前記歪み補正要素画像に対して対象物の認識処理を行う認識手段と、
認識した前記対象物の前記歪み補正要素画像における位置座標を求める第1位置座標検出手段と、
前記歪み補正要素画像における位置座標から、認識した前記対象物の前記所定領域での位置座標を求める第2位置座標検出手段と、
を備えることを特徴とする認識装置。 Conversion means for converting a fisheye moving image obtained by photographing a predetermined area by a camera having a fisheye lens into a plurality of distortion correction element images;
Recognizing means for performing object recognition processing on the distortion correction element image;
First position coordinate detection means for obtaining position coordinates of the recognized object in the distortion correction element image;
Second position coordinate detection means for obtaining position coordinates in the predetermined area of the recognized object from position coordinates in the distortion correction element image;
A recognition apparatus comprising:
ことを特徴とする請求項1に記載の認識装置。 The conversion means generates a plurality of element images having different azimuth angles according to perspective projection by inputting a plurality of azimuth angles, elevation angles, and rotation angle parameters.
The recognition apparatus according to claim 1.
ことを特徴とする請求項1に記載の認識装置。 The recognizing means calculates longitude and latitude in a unit sphere from the coordinates of the distortion correction element image, and converts the unit sphere into an equirectangular fisheye by rotation matrix calculation based on the azimuth angle, elevation angle, and rotation angle of the element image. Find the longitude and latitude coordinates of the image,
The recognition apparatus according to claim 1.
ことを特徴とする請求項1に記載の認識装置。 The second position coordinate detecting means is provided with four or more markers on the plane of the predetermined area, and the position coordinates of the marker in the predetermined area measured in advance, and the position coordinates of the marker in the distortion correction element image And obtaining a position coordinate conversion formula from the distortion correction element image to the predetermined region,
The recognition apparatus according to claim 1.
ことを特徴とする請求項1に記載の認識装置。 The recognition means surrounds the result of recognizing the object in a rectangle, and the base center coordinate of the rectangle is the position coordinate of the object in the distortion correction element image.
The recognition apparatus according to claim 1.
ことを特徴とする請求項1に記載の認識装置。 The converting means provides a region where the plurality of distortion correction element images partially overlap each other when generating the plurality of distortion correction element images.
The recognition apparatus according to claim 1.
請求項1ないし6の何れか一項に記載の認識装置と、
を備えることを特徴とする認識システム。 A camera with a fisheye lens;
A recognition device according to any one of claims 1 to 6;
A recognition system comprising:
魚眼レンズを備えるカメラにより所定領域を撮影した魚眼動画を複数の歪み補正要素画像に変換する変換手段と、
前記歪み補正要素画像に対して対象物の認識処理を行う認識手段と、
認識した前記対象物の前記歪み補正要素画像における位置座標を求める第1位置座標検出手段と、
前記歪み補正要素画像における位置座標から、認識した前記対象物の前記所定領域での位置座標を求める第2位置座標検出手段と、
として機能させるためのプログラム。 A computer that controls the recognition device,
Conversion means for converting a fisheye moving image obtained by photographing a predetermined area by a camera having a fisheye lens into a plurality of distortion correction element images;
Recognizing means for performing object recognition processing on the distortion correction element image;
First position coordinate detection means for obtaining position coordinates of the recognized object in the distortion correction element image;
Second position coordinate detection means for obtaining position coordinates in the predetermined area of the recognized object from position coordinates in the distortion correction element image;
Program to function as.
魚眼レンズを備えるカメラにより所定領域を撮影した魚眼動画を複数の歪み補正要素画像に変換する変換ステップと、
前記歪み補正要素画像に対して前記対象物の認識処理を行う認識ステップと、
認識した前記対象物の前記歪み補正要素画像における位置座標を求める第1位置座標検出ステップと、
前記歪み補正要素画像における位置座標から、認識した前記対象物の前記所定領域での位置座標を求める第2位置座標検出ステップと、
を含むことを特徴とする位置座標検出方法。 A method for detecting position coordinates of an object recognized by a recognition device,
A conversion step of converting a fish-eye moving image obtained by photographing a predetermined area with a camera equipped with a fish-eye lens into a plurality of distortion correction element images;
A recognition step of performing recognition processing of the object on the distortion correction element image;
A first position coordinate detection step of obtaining a position coordinate of the recognized object in the distortion correction element image;
A second position coordinate detection step for obtaining a position coordinate of the recognized object in the predetermined area from a position coordinate in the distortion correction element image;
The position coordinate detection method characterized by including.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018064873A JP7020240B2 (en) | 2018-03-29 | 2018-03-29 | Recognition device, recognition system, program and position coordinate detection method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018064873A JP7020240B2 (en) | 2018-03-29 | 2018-03-29 | Recognition device, recognition system, program and position coordinate detection method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019175283A true JP2019175283A (en) | 2019-10-10 |
JP7020240B2 JP7020240B2 (en) | 2022-02-16 |
Family
ID=68169569
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018064873A Active JP7020240B2 (en) | 2018-03-29 | 2018-03-29 | Recognition device, recognition system, program and position coordinate detection method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7020240B2 (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111866389A (en) * | 2020-07-29 | 2020-10-30 | 努比亚技术有限公司 | Video tracking shooting method and device and computer readable storage medium |
CN113408534A (en) * | 2020-03-17 | 2021-09-17 | 株式会社理光 | Method, apparatus and storage medium for recognizing landmark in panoramic image |
CN117315034A (en) * | 2023-11-29 | 2023-12-29 | 苏州魔视智能科技有限公司 | Method and device for determining transverse slope parking space coordinates, computer equipment and storage medium |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH11261868A (en) * | 1998-03-13 | 1999-09-24 | Fujitsu Ltd | Fisheye lens camera device and image distortion correction method and image extraction method thereof |
JP2008048443A (en) * | 2007-09-21 | 2008-02-28 | Fujitsu Ltd | Fisheye lens camera apparatus and image extraction method thereof |
JP2010183265A (en) * | 2009-02-04 | 2010-08-19 | Alpine Electronics Inc | Image display device and method for calculating camera-mounting angle of the same |
JP2010217984A (en) * | 2009-03-13 | 2010-09-30 | Tottori Univ | Image detector and image detection method |
JP2012089954A (en) * | 2010-10-15 | 2012-05-10 | Dainippon Printing Co Ltd | Conference system, monitoring system, image processing system, image processing method, and image processing program or the like |
JP2013009050A (en) * | 2011-06-22 | 2013-01-10 | Canon Inc | Image processing apparatus and image processing method |
JP2015032883A (en) * | 2013-07-31 | 2015-02-16 | パナソニック株式会社 | Imaging apparatus and image display method |
JP2017058801A (en) * | 2015-09-15 | 2017-03-23 | カシオ計算機株式会社 | Image display apparatus, image display method and program |
-
2018
- 2018-03-29 JP JP2018064873A patent/JP7020240B2/en active Active
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH11261868A (en) * | 1998-03-13 | 1999-09-24 | Fujitsu Ltd | Fisheye lens camera device and image distortion correction method and image extraction method thereof |
JP2008048443A (en) * | 2007-09-21 | 2008-02-28 | Fujitsu Ltd | Fisheye lens camera apparatus and image extraction method thereof |
JP2010183265A (en) * | 2009-02-04 | 2010-08-19 | Alpine Electronics Inc | Image display device and method for calculating camera-mounting angle of the same |
JP2010217984A (en) * | 2009-03-13 | 2010-09-30 | Tottori Univ | Image detector and image detection method |
JP2012089954A (en) * | 2010-10-15 | 2012-05-10 | Dainippon Printing Co Ltd | Conference system, monitoring system, image processing system, image processing method, and image processing program or the like |
JP2013009050A (en) * | 2011-06-22 | 2013-01-10 | Canon Inc | Image processing apparatus and image processing method |
JP2015032883A (en) * | 2013-07-31 | 2015-02-16 | パナソニック株式会社 | Imaging apparatus and image display method |
JP2017058801A (en) * | 2015-09-15 | 2017-03-23 | カシオ計算機株式会社 | Image display apparatus, image display method and program |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113408534A (en) * | 2020-03-17 | 2021-09-17 | 株式会社理光 | Method, apparatus and storage medium for recognizing landmark in panoramic image |
JP2021149972A (en) * | 2020-03-17 | 2021-09-27 | 株式会社リコー | Method for identifying landmark in panoramic image, device, and storage medium |
JP7095766B2 (en) | 2020-03-17 | 2022-07-05 | 株式会社リコー | Methods, devices and storage media for identifying landmarks in panoramic images |
CN111866389A (en) * | 2020-07-29 | 2020-10-30 | 努比亚技术有限公司 | Video tracking shooting method and device and computer readable storage medium |
CN117315034A (en) * | 2023-11-29 | 2023-12-29 | 苏州魔视智能科技有限公司 | Method and device for determining transverse slope parking space coordinates, computer equipment and storage medium |
CN117315034B (en) * | 2023-11-29 | 2024-03-29 | 苏州魔视智能科技有限公司 | Method and device for determining transverse slope parking space coordinates, computer equipment and storage medium |
Also Published As
Publication number | Publication date |
---|---|
JP7020240B2 (en) | 2022-02-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10205896B2 (en) | Automatic lens flare detection and correction for light-field images | |
CN111815707B (en) | Point cloud determining method, point cloud screening method, point cloud determining device, point cloud screening device and computer equipment | |
US7583858B2 (en) | Image processing based on direction of gravity | |
CN103168462B (en) | Image synthesizer and image combining method | |
JP5075757B2 (en) | Image processing apparatus, image processing program, image processing method, and electronic apparatus | |
EP3093822B1 (en) | Displaying a target object imaged in a moving picture | |
US20060078215A1 (en) | Image processing based on direction of gravity | |
CN109711246B (en) | Dynamic object recognition method, computer device and readable storage medium | |
US8903195B2 (en) | Specification of an area where a relationship of pixels between images becomes inappropriate | |
CN108074237B (en) | Image definition detection method and device, storage medium and electronic equipment | |
CN111091590A (en) | Image processing method, image processing device, storage medium and electronic equipment | |
JP7020240B2 (en) | Recognition device, recognition system, program and position coordinate detection method | |
CN109743505B (en) | Video shooting method and device based on laser ranging and electronic equipment | |
EP4071713B1 (en) | Parameter calibration method and apapratus | |
WO2012029658A1 (en) | Imaging device, image-processing device, image-processing method, and image-processing program | |
JP7504688B2 (en) | Image processing device, image processing method and program | |
KR102076635B1 (en) | Apparatus and method for generating panorama image for scattered fixed cameras | |
JP2017103756A (en) | Image data processing apparatus and method | |
JP2013231607A (en) | Calibration tool display device, calibration tool display method, calibration device, calibration method, calibration system and program | |
JP2020071854A (en) | Image processing apparatus, image processing method, and program | |
CN102843479A (en) | File scanning method, file scanning device and portable electronic device | |
JP2020041950A (en) | Surveying device, surveying method, and program | |
CN112237002A (en) | Image processing method and apparatus | |
CN114549613A (en) | Structural displacement measuring method and device based on deep super-resolution network | |
JP5206499B2 (en) | Measuring method, measuring device, measurement control program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210118 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20211109 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20211216 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220104 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220117 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 7020240 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |