JP2019175283A - Recognition apparatus, recognition system, program, and position coordinate detecting method - Google Patents

Recognition apparatus, recognition system, program, and position coordinate detecting method Download PDF

Info

Publication number
JP2019175283A
JP2019175283A JP2018064873A JP2018064873A JP2019175283A JP 2019175283 A JP2019175283 A JP 2019175283A JP 2018064873 A JP2018064873 A JP 2018064873A JP 2018064873 A JP2018064873 A JP 2018064873A JP 2019175283 A JP2019175283 A JP 2019175283A
Authority
JP
Japan
Prior art keywords
distortion correction
correction element
recognition
image
element image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018064873A
Other languages
Japanese (ja)
Other versions
JP7020240B2 (en
Inventor
関 海克
Haike Guan
海克 関
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2018064873A priority Critical patent/JP7020240B2/en
Publication of JP2019175283A publication Critical patent/JP2019175283A/en
Application granted granted Critical
Publication of JP7020240B2 publication Critical patent/JP7020240B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

To measure positional information of an object in a predetermined area from a motion picture shot by a camera having a fisheye lens.SOLUTION: A recognition apparatus has conversion means for converting a fisheye motion picture obtained by shooting a predetermined area by a camera with a fisheye lens into a plurality of distortion correction element images, recognition means for carrying out of recognition processing for an object in the distortion correction element images, first position coordinate detecting means for calculating positional coordinates of the recognized object in the distortion correction element images, and second position coordinate detecting means for calculating position coordinates of the recognized object in the predetermined area from the position coordinates in the distortion correction element images.SELECTED DRAWING: Figure 4

Description

本発明は、認識装置、認識システム、プログラムおよび位置座標検出方法に関する。   The present invention relates to a recognition device, a recognition system, a program, and a position coordinate detection method.

従来、対象物がいつどこにいるかを可視化するため、所定領域を撮影した動画を分析することで、対象物の位置を測定し、対象物の位置情報を分析することが行われている。   2. Description of the Related Art Conventionally, in order to visualize where and where an object is, it has been performed to measure the position of the object and analyze the position information of the object by analyzing a moving image of a predetermined area.

特許文献1には、360度全方位の画像を撮像可能なカメラを用いた対象物の検出において、低解像度の画像と高解像度の画像とを用いて対象物の認識処理を行う技術が開示されている。   Patent Document 1 discloses a technique for performing object recognition processing using a low-resolution image and a high-resolution image in detection of an object using a camera capable of capturing 360-degree omnidirectional images. ing.

しかしながら、従来の技術によれば、360度全方位の画像を撮像可能なカメラで撮影した動画像においては歪みが発生しており、歪んだ画像から所定領域における対象物の位置情報を測定するのは難しい、という問題があった。   However, according to the conventional technology, distortion occurs in a moving image captured by a camera capable of capturing 360-degree omnidirectional images, and position information of an object in a predetermined region is measured from the distorted image. There was a problem that was difficult.

本発明は、上記に鑑みてなされたものであって、魚眼レンズを備えるカメラで撮影した動画像から所定領域における対象物の位置情報を測定することを目的とする。   The present invention has been made in view of the above, and an object thereof is to measure position information of an object in a predetermined region from a moving image captured by a camera having a fisheye lens.

上述した課題を解決し、目的を達成するために、本発明は、魚眼レンズを備えるカメラにより所定領域を撮影した魚眼動画を複数の歪み補正要素画像に変換する変換手段と、前記歪み補正要素画像に対して対象物の認識処理を行う認識手段と、認識した前記対象物の前記歪み補正要素画像における位置座標を求める第1位置座標検出手段と、前記歪み補正要素画像における位置座標から、認識した前記対象物の前記所定領域での位置座標を求める第2位置座標検出手段と、を備えることを特徴とする。   In order to solve the above-described problems and achieve the object, the present invention provides a conversion means for converting a fish-eye moving image obtained by photographing a predetermined area by a camera equipped with a fish-eye lens into a plurality of distortion correction element images, and the distortion correction element image. A recognition means for performing recognition processing of the object, first position coordinate detection means for obtaining a position coordinate of the recognized object in the distortion correction element image, and position coordinates in the distortion correction element image. And second position coordinate detection means for obtaining position coordinates of the object in the predetermined area.

本発明によれば、魚眼レンズを備えるカメラで撮影した動画像から所定領域における対象物の位置情報を測定することができる、という効果を奏する。   According to the present invention, there is an effect that position information of an object in a predetermined region can be measured from a moving image captured by a camera having a fisheye lens.

図1は、実施の形態にかかる認識システムのハードウェア構成を示す図である。FIG. 1 is a diagram illustrating a hardware configuration of the recognition system according to the embodiment. 図2は、魚眼カメラのハードウェア構成を示すブロック図である。FIG. 2 is a block diagram illustrating a hardware configuration of the fisheye camera. 図3は、認識装置のハードウェア構成を示すブロック図である。FIG. 3 is a block diagram illustrating a hardware configuration of the recognition apparatus. 図4は、認識装置の機能構成を示すブロック図である。FIG. 4 is a block diagram illustrating a functional configuration of the recognition device. 図5は、魚眼カメラにより入力した画像の例を示す図である。FIG. 5 is a diagram illustrating an example of an image input by a fisheye camera. 図6は、単位球について説明する図である。FIG. 6 is a diagram for explaining the unit sphere. 図7は、正距円筒図法の座標系について説明する図である。FIG. 7 is a diagram for explaining the coordinate system of the equirectangular projection. 図8は、透視投影図法の座標系について説明する図である。FIG. 8 is a diagram for explaining a coordinate system for perspective projection. 図9は、複数方位角および複数画角の設定例を示す図である。FIG. 9 is a diagram illustrating a setting example of a plurality of azimuth angles and a plurality of field angles. 図10は、3方向の歪み補正要素画像の作成例を示す図である。FIG. 10 is a diagram illustrating an example of creating a distortion correction element image in three directions. 図11は、作業領域での座標系と位置座標を例示的に示す図である。FIG. 11 is a diagram exemplarily showing a coordinate system and position coordinates in the work area. 図12は、歪み補正要素画像での座標系と位置座標を例示的に示す図である。FIG. 12 is a diagram exemplarily showing a coordinate system and position coordinates in a distortion correction element image. 図13は、人認識処理のブロック走査を示す図である。FIG. 13 is a diagram illustrating block scanning of the human recognition process. 図14は、人認識の特徴量を示す図である。FIG. 14 is a diagram illustrating a feature amount for human recognition. 図15は、人認識処理の階層構造を示す図である。FIG. 15 is a diagram illustrating a hierarchical structure of human recognition processing. 図16は、人認識の結果の例を示す図である。FIG. 16 is a diagram illustrating an example of the result of person recognition. 図17は、認識装置における処理の流れを概略的に示すフローチャートである。FIG. 17 is a flowchart schematically showing the flow of processing in the recognition apparatus.

以下に添付図面を参照して、認識装置、認識システム、プログラムおよび位置座標検出方法の実施の形態を詳細に説明する。   Hereinafter, embodiments of a recognition device, a recognition system, a program, and a position coordinate detection method will be described in detail with reference to the accompanying drawings.

ここで、図1は実施の形態にかかる認識システム100のハードウェア構成を示す図である。図1に示すように、認識システム100は、魚眼カメラ200と、認識装置300とを備えている。認識装置300は、認識処理部321と、認識処理部321と魚眼カメラ200とを接続するインタフェース部322と、を備えている。   Here, FIG. 1 is a diagram illustrating a hardware configuration of the recognition system 100 according to the embodiment. As shown in FIG. 1, the recognition system 100 includes a fisheye camera 200 and a recognition device 300. The recognition apparatus 300 includes a recognition processing unit 321 and an interface unit 322 that connects the recognition processing unit 321 and the fisheye camera 200.

まず、魚眼カメラ200のハードウェア構成について説明する。   First, the hardware configuration of the fisheye camera 200 will be described.

ここで、図2は魚眼カメラ200のハードウェア構成を示すブロック図である。図2に示すように、魚眼カメラ200は、対角線画角が180度以上の画角を有する魚眼レンズ201およびCCD(Charge Coupled Device)203を備えている。魚眼カメラ200は、被写体光を、魚眼レンズ201を通してCCD203に入射する。また、魚眼カメラ200は、魚眼レンズ201とCCD203との間に、メカシャッタ202を備えている。メカシャッタ202は、CCD203への入射光を遮断する。魚眼レンズ201及びメカシャッタ202は、モータドライバ206より駆動される。   Here, FIG. 2 is a block diagram showing a hardware configuration of the fisheye camera 200. As shown in FIG. 2, the fish-eye camera 200 includes a fish-eye lens 201 and a CCD (Charge Coupled Device) 203 having a field angle with a diagonal field angle of 180 degrees or more. The fisheye camera 200 causes subject light to enter the CCD 203 through the fisheye lens 201. Further, the fisheye camera 200 includes a mechanical shutter 202 between the fisheye lens 201 and the CCD 203. The mechanical shutter 202 blocks incident light to the CCD 203. The fisheye lens 201 and the mechanical shutter 202 are driven by a motor driver 206.

CCD203は、撮像面に結像された光学像を電気信号に変換して、アナログの画像データとして出力する。CCD203から出力された画像情報は、CDS(Correlated Double Sampling:相関2重サンプリング)回路204によりノイズ成分を除去され、A/D変換器205によりデジタル値に変換された後、画像処理回路208に対して出力される。   The CCD 203 converts an optical image formed on the imaging surface into an electrical signal and outputs it as analog image data. The image information output from the CCD 203 has its noise component removed by a CDS (Correlated Double Sampling) circuit 204, converted into a digital value by an A / D converter 205, and then sent to an image processing circuit 208. Is output.

画像処理回路208は、画像データを一時格納するSDRAM(SynchronousDRAM)212を用いて、YCrCb変換処理や、ホワイトバランス制御処理、コントラスト補正処理、エッジ強調処理、色変換処理などの各種画像処理を行う。なお、ホワイトバランス処理は、画像情報の色濃さを調整し、コントラスト補正処理は、画像情報のコントラストを調整する画像処理である。エッジ強調処理は、画像情報のシャープネスを調整し、色変換処理は、画像情報の色合いを調整する画像処理である。また、画像処理回路208は、信号処理や画像処理が施された画像情報を液晶ディスプレイ216(以下、LCD16とする)に表示する。   The image processing circuit 208 performs various image processing such as YCrCb conversion processing, white balance control processing, contrast correction processing, edge enhancement processing, and color conversion processing using an SDRAM (Synchronous DRAM) 212 that temporarily stores image data. The white balance process is an image process that adjusts the color density of image information, and the contrast correction process is an image process that adjusts the contrast of image information. The edge enhancement process adjusts the sharpness of image information, and the color conversion process is an image process that adjusts the hue of image information. The image processing circuit 208 displays image information subjected to signal processing and image processing on a liquid crystal display 216 (hereinafter referred to as LCD 16).

また、画像処理回路208は、魚眼レンズ201から入力した魚眼画像を正距円筒図法で変更した正距円筒画像を生成する。   Further, the image processing circuit 208 generates an equirectangular image obtained by changing the fisheye image input from the fisheye lens 201 using equirectangular projection.

画像処理回路208において信号処理、画像処理が施された画像情報は、圧縮伸張回路213を介して、メモリカード214に記録される。圧縮伸張回路213は、操作部215から取得した指示によって、画像処理回路208から出力される画像情報を圧縮してメモリカード214に出力すると共に、メモリカード214から読み出した画像情報を伸張して画像処理回路208に出力する。   Image information subjected to signal processing and image processing in the image processing circuit 208 is recorded in the memory card 214 via the compression / decompression circuit 213. The compression / decompression circuit 213 compresses the image information output from the image processing circuit 208 and outputs the compressed image information to the memory card 214 according to the instruction acquired from the operation unit 215, and decompresses the image information read from the memory card 214 to generate an image. The data is output to the processing circuit 208.

魚眼カメラ200は、プログラムに従って各種演算処理を行うCPU(Central Processing Unit)209を備えている。CPU209は、プログラムなどを格納した読み出し専用メモリであるROM(Read Only Memory)211、および各種の処理過程で利用するワークエリア、各種データ格納エリアなどを有する読み出し書き込み自在のメモリであるRAM(Random Access Memory)10とバスラインによって相互接続されている。   The fisheye camera 200 includes a CPU (Central Processing Unit) 209 that performs various arithmetic processes according to a program. The CPU 209 includes a ROM (Read Only Memory) 211 which is a read only memory storing programs and the like, and a RAM (Random Access) which has a work area used in various processing processes, various data storage areas, and the like. Memory) 10 and a bus line.

CCD203、CDS回路204及びA/D変換器205は、タイミング信号を発生するタイミング信号発生器207を介してCPU209によって、タイミングを制御される。さらに、画像処理回路208、圧縮伸張回路213、メモリカード214も、CPU209によって制御される。   The timing of the CCD 203, the CDS circuit 204, and the A / D converter 205 is controlled by the CPU 209 via a timing signal generator 207 that generates a timing signal. Further, the image processing circuit 208, the compression / decompression circuit 213, and the memory card 214 are also controlled by the CPU 209.

魚眼カメラ200の出力は、図1に示す認識装置300の信号処理ボードであるインタフェース部322に入力する。   The output of the fisheye camera 200 is input to an interface unit 322 that is a signal processing board of the recognition apparatus 300 shown in FIG.

次に、認識装置300のハードウェア構成について説明する。   Next, the hardware configuration of the recognition apparatus 300 will be described.

ここで、図3は認識装置300のハードウェア構成を示すブロック図である。図3に示すように、認識装置300は、認識装置300全体の動作を制御するCPU(Central Processing Unit)301、CPU801の駆動に用いられるプログラムを記憶したROM(Read Only Memory)302、CPU301のワークエリアとして使用されるRAM(Random Access Memory)303を有する。また、プログラム等の各種データを記憶するHD(Hard Disk)304、CPU301の制御にしたがってHD304に対する各種データの読み出し又は書き込みを制御するHDD(Hard Disk Drive)305を有する。   Here, FIG. 3 is a block diagram showing a hardware configuration of the recognition apparatus 300. As illustrated in FIG. 3, the recognition apparatus 300 includes a CPU (Central Processing Unit) 301 that controls the operation of the entire recognition apparatus 300, a ROM (Read Only Memory) 302 that stores a program used to drive the CPU 801, and a work of the CPU 301. A RAM (Random Access Memory) 303 used as an area is included. Also, an HD (Hard Disk) 304 for storing various data such as programs and the like, and an HDD (Hard Disk Drive) 305 for controlling reading or writing of various data with respect to the HD 304 according to the control of the CPU 301 are provided.

また、認識装置300は、メディアI/F307、ディスプレイ308、ネットワークI/F309を有する。メディアI/F307は、フラッシュメモリ等のメディア306に対するデータの読み出し又は書き込み(記憶)を制御する。ディスプレイ308は、カーソル、メニュー、ウィンドウ、文字、又は画像などの各種情報を表示する。ネットワークI/F309は、通信ネットワークを利用してデータ通信する。   The recognition apparatus 300 includes a media I / F 307, a display 308, and a network I / F 309. The media I / F 307 controls reading or writing (storage) of data with respect to the medium 306 such as a flash memory. The display 308 displays various information such as a cursor, menu, window, character, or image. A network I / F 309 performs data communication using a communication network.

また、認識装置300は、キーボード311、マウス312、CD−ROM(Compact Disk Read Only Memory)ドライブ314、バスライン310を有する。キーボード311は、文字、数値、各種指示などの入力のための複数のキーを備える。マウス312は、各種指示の選択や実行、処理対象の選択、カーソルの移動などを行う。CD−ROMドライブ314は、着脱可能な記録媒体の一例としてのCD−ROM313に対する各種データの読み出し又は書き込みを制御する。バスライン310は、上記各構成要素を電気的に接続するためのアドレスバスやデータバス等である。   The recognition apparatus 300 includes a keyboard 311, a mouse 312, a CD-ROM (Compact Disk Read Only Memory) drive 314, and a bus line 310. The keyboard 311 includes a plurality of keys for inputting characters, numerical values, various instructions, and the like. The mouse 312 performs selection and execution of various instructions, selection of a processing target, movement of a cursor, and the like. The CD-ROM drive 314 controls reading or writing of various data with respect to a CD-ROM 313 as an example of a removable recording medium. The bus line 310 is an address bus, a data bus, or the like for electrically connecting the above components.

図示した認識装置300のハードウェア構成は、1つの筐体に収納されていたりひとまとまりの装置として備えられていたりする必要はなく、認識装置300が備えていることが好ましいハード的な要素を示す。また、クラウドコンピューティングに対応するため、本実施形態の認識装置300の物理的な構成は固定的でなくてもよく、負荷に応じてハード的なリソースが動的に接続・切断されることで構成されてよい。   The hardware configuration of the illustrated recognition device 300 does not need to be housed in a single casing or provided as a single device, and represents a hardware element that the recognition device 300 preferably includes. . Further, in order to support cloud computing, the physical configuration of the recognition apparatus 300 according to the present embodiment may not be fixed, and hardware resources may be dynamically connected / disconnected according to the load. May be configured.

なお、プログラムは実行可能形式や圧縮形式などでメディア306やCD−ROM313などの記憶媒体に記憶された状態で配布されるか、又は、プログラムを配信するサーバから配信される。   The program is distributed in an executable format, a compressed format, or the like stored in a storage medium such as the medium 306 or the CD-ROM 313, or distributed from a server that distributes the program.

本実施の形態の認識装置300で実行されるプログラムは、下記に示す各機能を含むモジュール構成となっている。認識装置300のCPU301は、ROM302やHD304などの記憶媒体からプログラムを読み出して実行することにより各モジュールがRAM303上にロードされ、各機能を発揮する。   The program executed by the recognition apparatus 300 according to the present embodiment has a module configuration including the following functions. The CPU 301 of the recognition device 300 reads out a program from a storage medium such as the ROM 302 and the HD 304 and executes the program, whereby each module is loaded onto the RAM 303 and performs each function.

図4は、認識装置300の機能構成を示すブロック図である。図4に示すように、本実施の形態にかかる認識装置300の認識処理部321は、魚眼カメラ動画入力部101、変換手段として機能する歪み補正要素画像生成部102、歪み補正要素画像生成パラメータ入力部103、人認識辞書入力部104、認識手段として機能する人認識処理部105、第1位置座標検出手段および第2位置座標検出手段として機能する作業領域人位置計算部106、作業領域人位置測定結果出力部107を備えている。   FIG. 4 is a block diagram illustrating a functional configuration of the recognition apparatus 300. As shown in FIG. 4, the recognition processing unit 321 of the recognition apparatus 300 according to the present embodiment includes a fisheye camera moving image input unit 101, a distortion correction element image generation unit 102 that functions as a conversion unit, and a distortion correction element image generation parameter. Input unit 103, human recognition dictionary input unit 104, human recognition processing unit 105 functioning as a recognition unit, work area human position calculation unit 106 functioning as a first position coordinate detection unit and a second position coordinate detection unit, work region human position A measurement result output unit 107 is provided.

魚眼カメラ動画入力部101は、魚眼カメラ200によりオフィスや工場などの作業領域(所定領域)を撮影した魚眼動画を入力する。   The fisheye camera moving image input unit 101 inputs a fisheye moving image obtained by photographing a work area (predetermined area) such as an office or a factory with the fisheye camera 200.

ここで、図5は魚眼カメラ200により入力した画像の例を示す図である。図5に示すように、魚眼カメラ200により入力される画像は、魚眼画像を正距円筒図法で変更した正距円筒画像である。   Here, FIG. 5 is a diagram illustrating an example of an image input by the fisheye camera 200. As shown in FIG. 5, the image input by the fisheye camera 200 is an equirectangular image obtained by changing the fisheye image using equirectangular projection.

図6は、単位球について説明する図である。図6においては、半径が1の単位球を示す。この単位球を用いて、魚眼カメラ200の結像について説明する。図6に示すように、魚眼カメラ200へ入力する光線は単位球の赤道面に対する入射角、つまり仰角を示す緯度はlatitudeである。入射光線の方位角を示す経度はlongitudeである。   FIG. 6 is a diagram for explaining the unit sphere. In FIG. 6, a unit sphere having a radius of 1 is shown. The imaging of the fisheye camera 200 will be described using this unit sphere. As shown in FIG. 6, the light that enters the fisheye camera 200 has an incident angle with respect to the equatorial plane of the unit sphere, that is, the latitude indicating the elevation angle is latitude. The longitude indicating the azimuth angle of the incident light is longitude.

図7は、正距円筒図法の座標系について説明する図である。図7に示すように、横軸は経度longitudeであり、縦軸は緯度latitudeである。横軸の経度の角度範囲は(−180度〜180度)であり、縦方向緯度の角度範囲は(−90度〜90度)である。縦方向と横方向は等間隔に交差する。つまり、縦方向と横方向は等間隔角度である。   FIG. 7 is a diagram for explaining the coordinate system of the equirectangular projection. As shown in FIG. 7, the horizontal axis is longitude longitude, and the vertical axis is latitude latitude. The angle range of longitude on the horizontal axis is (−180 degrees to 180 degrees), and the angle range of longitudinal latitude is (−90 degrees to 90 degrees). The vertical direction and the horizontal direction intersect at equal intervals. That is, the vertical direction and the horizontal direction are equally spaced angles.

歪み補正要素画像生成部102は、透視投影図法により、複数の方向で要素画像を作成し、歪み補正要素画像を作成する。歪み補正要素画像生成部102は、複数の方向の要素画像により、作業領域をカバーする。歪み補正要素画像生成パラメータ入力部103は、複数の方向で要素画像を作成するため、歪み補正要素画像作成のためのパラメータを入力する。入力パラメータは、要素画像の数、それぞれ要素画像の画像サイズ、画角、方位角、仰角、回転角を入力する。   The distortion correction element image generation unit 102 generates an element image in a plurality of directions by a perspective projection method, and generates a distortion correction element image. The distortion correction element image generation unit 102 covers the work area with element images in a plurality of directions. The distortion correction element image generation parameter input unit 103 inputs parameters for creating a distortion correction element image in order to create element images in a plurality of directions. As input parameters, the number of element images, the image size of each element image, the field angle, the azimuth angle, the elevation angle, and the rotation angle are input.

図8は、透視投影図法の座標系について説明する図である。図8に示すように、魚眼歪みを補正し、歪み補正要素画像を作成するには、透視投影図法により、歪み補正要素画像を作る。図8に示すように、透視投影図法は3次元の物体を見たとおりに2次元平面に描画するための投影図法である。   FIG. 8 is a diagram for explaining a coordinate system for perspective projection. As shown in FIG. 8, in order to correct fisheye distortion and create a distortion correction element image, a distortion correction element image is created by perspective projection. As shown in FIG. 8, the perspective projection method is a projection method for drawing on a two-dimensional plane as if a three-dimensional object was seen.

歪み補正要素画像生成部102は、歪み補正要素画像を作成するため、図8に示す透視投影図法で歪み補正要素画像を作成する。そのため、歪み補正要素画像の1画素座標(xp,yp)は、図5に示す入力魚眼画像での対応する座標(longitude,latitude)を求めれば良い。   The distortion correction element image generation unit 102 generates a distortion correction element image by the perspective projection method shown in FIG. 8 in order to generate a distortion correction element image. For this reason, as the one-pixel coordinates (xp, yp) of the distortion correction element image, the corresponding coordinates (longitude, latitude) in the input fisheye image shown in FIG. 5 may be obtained.

歪み補正要素画像生成部102は、図8に示すように、要素画像の画素(xp,yp)から下記に示す式(1)と式(2)により、(longitude,latitude)経度と緯度を計算する。   As shown in FIG. 8, the distortion correction element image generation unit 102 calculates (longitude, latitude) longitude and latitude from the element image pixel (xp, yp) according to the following expressions (1) and (2). To do.

Figure 2019175283
Figure 2019175283

式(1)、式(2)は、歪み補正要素画像の方位角、仰角と回転角はすべて0のときの計算式である。歪み補正要素画像生成部102は、複数の歪み補正要素画像を作成するとき、それぞれの方位角、仰角と回転角で魚眼画像での座標、経度緯度(longitude,latitude)を計算する。歪み補正要素画像生成部102は、図6に示す単位球の回転変換により、式(1)と式(2)の結果からそれぞれの方位角、仰角と回転角で魚眼画像での座標、経度緯度(longitude,latitude)を計算する。   Expressions (1) and (2) are calculation expressions when the azimuth angle, elevation angle, and rotation angle of the distortion correction element image are all zero. When generating a plurality of distortion correction element images, the distortion correction element image generation unit 102 calculates coordinates and longitude / latitude (longitude, latitude) in the fisheye image at each azimuth angle, elevation angle, and rotation angle. The distortion correction element image generation unit 102 performs coordinate conversion in the fisheye image at each azimuth, elevation, and rotation angle based on the results of Expression (1) and Expression (2) by the rotation conversion of the unit sphere illustrated in FIG. Calculate latitude (longitude, latitude).

Figure 2019175283
Figure 2019175283

式(3)は単位球の回転変換式である。ここで、αは方位角、βは仰角、γは回転角である。これらのパラメータは、歪み補正要素画像生成パラメータ入力部103から入力する。歪み補正要素画像生成部102は、前記求めた経度緯度(longitude,latitude)から単位球上での(x,y,z)座標を計算する。   Equation (3) is a unit ball rotation conversion equation. Here, α is an azimuth angle, β is an elevation angle, and γ is a rotation angle. These parameters are input from the distortion correction element image generation parameter input unit 103. The distortion correction element image generation unit 102 calculates (x, y, z) coordinates on the unit sphere from the obtained longitude, latitude (longitude, latitude).

歪み補正要素画像生成部102は、方位角、仰角、回転角により、式(3)の単位球回転行列計算によって(x’,y’,x’)の単位球面上の座標を求める。この座標から、経度と緯度座標(longitude’,latitude’)を求める。つまり、魚眼画像上での座標値である。   The distortion correction element image generation unit 102 obtains coordinates on the unit sphere of (x ′, y ′, x ′) by the unit sphere rotation matrix calculation of Expression (3) based on the azimuth angle, the elevation angle, and the rotation angle. From these coordinates, longitude and latitude coordinates (longitude ', latitude') are obtained. That is, the coordinate value on the fisheye image.

歪み補正要素画像生成部102は、魚眼画像上の座標(longitude’,latitude’)での画素値を作り、歪み補正要素画像の座標の(xp,yp)画素値に与える。このようにして、歪み補正要素画像生成部102は、歪み補正要素画像を作成する。   The distortion correction element image generation unit 102 creates a pixel value at coordinates (longitude ′, latitude ′) on the fisheye image, and gives the pixel value to the (xp, yp) pixel value of the distortion correction element image. In this way, the distortion correction element image generation unit 102 creates a distortion correction element image.

ここで、複数方向の歪み補正要素画像を生成する方法を説明する。複数の歪み補正要素画像のそれぞれの方位角と画角を設定する必要である。そこで、それぞれの方位角と画角の設定方法を説明する。分割する画像数を設定する際に、数を多く設定すると、それぞれの補正画像の画角が小さくなる。すなわち、分割数をパラメータとして設定できる。   Here, a method for generating distortion correction element images in a plurality of directions will be described. It is necessary to set the azimuth and angle of view of each of the plurality of distortion correction element images. Therefore, a method for setting each azimuth and angle of view will be described. When the number of images to be divided is set, if the number is set large, the angle of view of each corrected image becomes small. That is, the number of divisions can be set as a parameter.

ここで、図9は複数方位角および複数画角の設定例を示す図である。図9に示す例は、分割数3の例を示すものである。図9に示すように、歪み補正要素画像生成部102は、180度の範囲内で、3分割し、それぞれの方位角と画角を設定する。歪み補正要素画像生成部102は、それぞれの画像間では境目が発生するため、一部お互いに重なる領域を設け、それぞれの画角を少し広く設定する。歪み補正要素画像生成部102は、設定したそれぞれの方位角と画角で、歪み補正を行う。   Here, FIG. 9 is a diagram illustrating an example of setting a plurality of azimuth angles and a plurality of field angles. The example shown in FIG. 9 shows an example of the division number 3. As illustrated in FIG. 9, the distortion correction element image generation unit 102 divides the image into three parts within a range of 180 degrees, and sets the respective azimuth angles and field angles. The distortion correction element image generation unit 102 has a boundary between the images, and therefore provides a region that partially overlaps each other and sets each angle of view a little wider. The distortion correction element image generation unit 102 performs distortion correction at each set azimuth angle and field angle.

歪み補正要素画像生成部102は、複数の方位角、仰角、回転角により、複数の歪み補正要素画像を作成する。3方向の歪み補正要素画像の作成例を図10に示す。   The distortion correction element image generation unit 102 creates a plurality of distortion correction element images using a plurality of azimuth angles, elevation angles, and rotation angles. An example of creating a distortion correction element image in three directions is shown in FIG.

歪み補正要素画像により人を認識し、認識結果の位置座標から作業領域での位置座標を計算する必要である。そのため、事前キャリブレーションを行い、変換式を求める。   It is necessary to recognize a person from the distortion correction element image and calculate the position coordinates in the work area from the position coordinates of the recognition result. Therefore, pre-calibration is performed to obtain a conversion formula.

ここで、図11は作業領域での座標系と位置座標を例示的に示す図である。本実施形態においては、作業領域の地面にマーカーを設けることによりキャリブレーションを行う。図11に示すように、例えば、作業領域で黒い点のマーカーMを設置する。マーカーMの座標(X,Y)を事前に測定し、既知の値とする。なお、図5においては、白いマーカーを設けている。   Here, FIG. 11 is a diagram exemplarily showing a coordinate system and position coordinates in the work area. In the present embodiment, calibration is performed by providing a marker on the ground of the work area. As shown in FIG. 11, for example, a black dot marker M is set in the work area. The coordinates (X, Y) of the marker M are measured in advance and set to known values. In FIG. 5, a white marker is provided.

ここで、図12は歪み補正要素画像での座標系と位置座標を例示的に示す図である。図12に示すように、対応する歪み補正要素画像は、作業領域の地面で設けたマーカーMを結像する。歪み補正要素画像からマーカーMの位置を検出し、マーカーの座標は(x,y)とする。作業領域の地面と透視投影図法で作成した歪み補正要素画像の地面は平面なので、射影変換の関係を持つ。下記に示す式(4)で変換する。   Here, FIG. 12 is a diagram exemplarily showing a coordinate system and position coordinates in the distortion correction element image. As shown in FIG. 12, the corresponding distortion correction element image forms an image of the marker M provided on the ground of the work area. The position of the marker M is detected from the distortion correction element image, and the coordinates of the marker are (x, y). Since the ground of the work area and the ground of the distortion correction element image created by the perspective projection method are flat, they have a projective transformation relationship. Conversion is performed by the following equation (4).

Figure 2019175283
Figure 2019175283

式(4)の未知数としては、8個のmijがあるので、対応点(X,Y)と(x,y)が4点以上あれば、係数mijを求めることができる。 Since there are eight m ij as unknowns in equation (4), if there are four or more corresponding points (X, Y) and (x, y), the coefficient m ij can be obtained.

人認識処理部105は、歪み補正要素画像を用いて人認識処理を行う。より詳細には、人認識処理部105は、歪み補正要素画像生成部102で作成した歪み補正要素画像に対して、人認識処理を行う。   The human recognition processing unit 105 performs human recognition processing using the distortion correction element image. More specifically, the human recognition processing unit 105 performs human recognition processing on the distortion correction element image created by the distortion correction element image generation unit 102.

人認識辞書入力部104は、人認識処理部105における人認識処理に用いる人認識用辞書を入力する。より詳細には、人認識辞書入力部104は、機械学習方法によって、事前に人の学習データを用いた人認識用辞書を作成する。   The human recognition dictionary input unit 104 inputs a human recognition dictionary used for the human recognition processing in the human recognition processing unit 105. More specifically, the human recognition dictionary input unit 104 creates a human recognition dictionary using human learning data in advance by a machine learning method.

ここで、図13は人認識処理のブロック走査を示す図である。図13に示すように、人認識処理部105は、人を認識するため、まず画像から歪み補正要素画像の範囲内で、矩形形状のブロック1を切り出す。矩形形状のブロック1における左上の座標(Xs,Ys)と右下の座標(Xe,Ye)は、ブロック1の画像内での位置とブロック1の大きさにより決まる。   Here, FIG. 13 is a diagram showing block scanning of the human recognition processing. As shown in FIG. 13, in order to recognize a person, the person recognition processing unit 105 first cuts out a rectangular block 1 from the image within the range of the distortion correction element image. The upper left coordinates (Xs, Ys) and the lower right coordinates (Xe, Ye) in the rectangular block 1 are determined by the position of the block 1 in the image and the size of the block 1.

矩形形状のブロックの選択は、大きいサイズから小さいサイズまで順に選択する。その理由として、本手法では、ブロックの正規化を行うので、大きいブロックと小さいブロックの処理時間は同じである。画像に大きいブロックとなる候補の数が少なく、小さいサイズのブロック数は多いので、大きいサイズのブロックから選択するとより早くオブジェクトを検知される。大きい画像が検知されると、出力すると体感速度は速くなる。   The rectangular blocks are selected in order from the largest size to the smallest size. The reason is that in this method, normalization of the block is performed, so that the processing time of the large block and the small block is the same. Since the number of candidates for a large block in the image is small and the number of small blocks is large, an object can be detected earlier when selected from large blocks. When a large image is detected, the sensory speed increases when it is output.

人認識処理部105は、人認識の特徴量を計算する。ここで、図14は人認識の特徴量を示す図である。図14に示すように、人認識処理部105は、ブロック内にある白黒の矩形特徴量を計算する。つまり、人認識処理部105は、ブロック内にある白黒の矩形領域に白い領域内の画素値を加算し、黒い画素領域内の画素合計値との差はブロック領域内の特徴量h(x)とする。図14においては、A、B、C、Dの4つの特徴の例を挙げた。   The human recognition processing unit 105 calculates a feature amount for human recognition. Here, FIG. 14 is a diagram showing a feature amount of human recognition. As shown in FIG. 14, the human recognition processing unit 105 calculates a black and white rectangular feature amount in the block. That is, the human recognition processing unit 105 adds the pixel value in the white area to the black and white rectangular area in the block, and the difference from the total pixel value in the black pixel area is the feature amount h (x) in the block area. And In FIG. 14, examples of four characteristics A, B, C, and D are given.

Figure 2019175283
Figure 2019175283

計算した矩形特徴量は、式(5)示すように特徴量重み付け評価値f(x)の計算に用いる。式(5)に示すように、人認識処理部105は、ブロック内に特徴量h(x)を計算して、重み係数αを付けて、評価値f(x)を計算する。 The calculated rectangular feature value is used to calculate a feature value weighted evaluation value f (x) as shown in Equation (5). As shown in Expression (5), the human recognition processing unit 105 calculates the feature value h t (x) in the block, adds the weight coefficient α t , and calculates the evaluation value f (x).

式(5)に示すように、評価関数に特徴量h(x)と重み係数αを有している。人認識辞書入力部104は、特徴量と重み係数を、機械学習方法により予め計算しておく。人認識辞書入力部104は、人認識対象に対して、学習データを集め、学習させ、特徴量と重み係数を求める。 As shown in Expression (5), the evaluation function has a feature quantity h t (x) and a weight coefficient α t . The human recognition dictionary input unit 104 calculates feature amounts and weighting factors in advance by a machine learning method. The human recognition dictionary input unit 104 collects and learns learning data for a human recognition target, and obtains a feature amount and a weight coefficient.

ここで、図15は人認識処理の階層構造を示す図である。図15に示すように、人認識処理は、階層構造を有している。各階層では、式(5)に示す評価関数を持つ。人認識処理部105は、評価関数の値が、予め設定した閾値より小さい場合、人でないと判断し、そのブロック(非人ブロック)の評価を中止する。人認識処理部105は、各階層で評価値を計算する。人認識処理部105は、最後の階層において人でないと判断しなかったブロックについて、人と判断する。   Here, FIG. 15 is a diagram showing a hierarchical structure of human recognition processing. As shown in FIG. 15, the human recognition process has a hierarchical structure. Each hierarchy has an evaluation function shown in Expression (5). If the value of the evaluation function is smaller than a preset threshold value, the person recognition processing unit 105 determines that the person is not a person and stops evaluating the block (non-human block). The person recognition processing unit 105 calculates an evaluation value at each layer. The person recognition processing unit 105 determines that the block that is not determined to be a person in the last hierarchy is a person.

人認識辞書入力部104は、人認識処理部105の各階層での評価値を計算する特徴量と重み係数および、各階層での評価値閾値を予め、人と人でない学習画像を用いて学習させ、人認識用辞書を作成する。   The human recognition dictionary input unit 104 learns the feature value and weighting coefficient for calculating the evaluation value at each level of the human recognition processing unit 105 and the evaluation value threshold value at each level by using learning images that are not human and human. To create a dictionary for human recognition.

ここで、図16は人認識の結果の例を示す図である。図16に示す枠500A,500Bは、人認識した結果を矩形で囲んで人領域としたものである。矩形の底辺中心点座標は、歪み補正要素画像での人認識の位置座標とする。   Here, FIG. 16 is a diagram illustrating an example of a result of person recognition. Frames 500A and 500B shown in FIG. 16 are obtained by surrounding a result of human recognition with a rectangle to form a human area. The coordinate of the center point of the bottom of the rectangle is the position coordinate for human recognition in the distortion correction element image.

作業領域人位置計算部106は、歪み補正要素画像と作業領域の座標変換式(4)を用いて人認識処理部105における人認識処理により得られた歪み補正要素画像上の人位置座標(x,y)を変換し、作業領域での人位置(X,Y)を求める。   The work area human position calculation unit 106 uses the distortion correction element image and the coordinate conversion formula (4) of the work area to calculate the human position coordinates (x on the distortion correction element image obtained by the human recognition processing in the human recognition processing unit 105. , Y) is converted to obtain the position (X, Y) of the person in the work area.

作業領域人位置測定結果出力部107は、作業領域人位置計算部106で求められた作業領域での人位置(X,Y)を出力する。   The work area person position measurement result output unit 107 outputs the person position (X, Y) in the work area obtained by the work area person position calculation unit 106.

ここで、図17は認識装置300における処理の流れを概略的に示すフローチャートである。図17に示すように、まず、魚眼カメラ動画入力部101は、魚眼カメラ200によりオフィスや工場などの作業領域を撮影した魚眼動画を入力する(ステップS1)。   Here, FIG. 17 is a flowchart schematically showing the flow of processing in the recognition apparatus 300. As shown in FIG. 17, first, the fisheye camera moving image input unit 101 inputs a fisheye moving image obtained by photographing a work area such as an office or a factory with the fisheye camera 200 (step S1).

次いで、歪み補正要素画像生成部102は、透視投影図法により、複数の方向で要素画像を作成し、歪み補正要素画像を作成する(ステップS2)。   Next, the distortion correction element image generation unit 102 generates element images in a plurality of directions by a perspective projection method, and generates a distortion correction element image (step S2).

次いで、人認識処理部105は、ステップS2で作成した歪み補正要素画像に対して、人認識処理を行う(ステップS3)。   Next, the human recognition processing unit 105 performs human recognition processing on the distortion correction element image created in step S2 (step S3).

次いで、作業領域人位置計算部106は、ステップS3により得られた歪み補正要素画像上の人位置座標(x,y)を変換し、作業領域での人位置(X,Y)を求める(ステップS4)。   Next, the work area human position calculation unit 106 converts the human position coordinates (x, y) on the distortion correction element image obtained in step S3, and obtains the human position (X, Y) in the work area (step). S4).

最後に、作業領域人位置測定結果出力部107は、ステップS4で求められた作業領域での人位置(X,Y)を出力する(ステップS5)。   Finally, the work area person position measurement result output unit 107 outputs the person position (X, Y) in the work area obtained in step S4 (step S5).

このように本実施の形態によれば、魚眼カメラで撮影した動画像から所定領域における対象物の位置情報を測定することができる。   As described above, according to the present embodiment, it is possible to measure position information of an object in a predetermined region from a moving image captured by a fisheye camera.

なお、本実施の形態においては、オフィスや工場などの作業領域を撮影した魚眼動画から人の位置情報を測定する形態を例示的に説明したが、これに限るものではなく、各種の測定に適用可能であることは言うまでもない。   In the present embodiment, the form in which the position information of a person is measured from a fish-eye video obtained by shooting a work area such as an office or a factory has been exemplarily described. However, the present invention is not limited to this. Needless to say, it is applicable.

100 認識システム
102 変換手段
105 認識手段
106 第1位置座標検出手段、第2位置座標検出手段
200 カメラ
300 認識装置
DESCRIPTION OF SYMBOLS 100 Recognition system 102 Conversion means 105 Recognition means 106 1st position coordinate detection means, 2nd position coordinate detection means 200 Camera 300 Recognition apparatus

特開2013−009050号公報JP 2013-009050 A

Claims (9)

魚眼レンズを備えるカメラにより所定領域を撮影した魚眼動画を複数の歪み補正要素画像に変換する変換手段と、
前記歪み補正要素画像に対して対象物の認識処理を行う認識手段と、
認識した前記対象物の前記歪み補正要素画像における位置座標を求める第1位置座標検出手段と、
前記歪み補正要素画像における位置座標から、認識した前記対象物の前記所定領域での位置座標を求める第2位置座標検出手段と、
を備えることを特徴とする認識装置。
Conversion means for converting a fisheye moving image obtained by photographing a predetermined area by a camera having a fisheye lens into a plurality of distortion correction element images;
Recognizing means for performing object recognition processing on the distortion correction element image;
First position coordinate detection means for obtaining position coordinates of the recognized object in the distortion correction element image;
Second position coordinate detection means for obtaining position coordinates in the predetermined area of the recognized object from position coordinates in the distortion correction element image;
A recognition apparatus comprising:
前記変換手段は、複数の方位角、仰角、回転角のパラメータ入力により、透視投影図法によって異なる方位角の複数要素画像を生成する、
ことを特徴とする請求項1に記載の認識装置。
The conversion means generates a plurality of element images having different azimuth angles according to perspective projection by inputting a plurality of azimuth angles, elevation angles, and rotation angle parameters.
The recognition apparatus according to claim 1.
前記認識手段は、前記歪み補正要素画像の座標から単位球での経度と緯度を計算し、前記単位球を要素画像の方位角、仰角、回転角により、回転行列計算によって、正距円筒魚眼画像の経度と緯度座標値を求める、
ことを特徴とする請求項1に記載の認識装置。
The recognizing means calculates longitude and latitude in a unit sphere from the coordinates of the distortion correction element image, and converts the unit sphere into an equirectangular fisheye by rotation matrix calculation based on the azimuth angle, elevation angle, and rotation angle of the element image. Find the longitude and latitude coordinates of the image,
The recognition apparatus according to claim 1.
前記第2位置座標検出手段は、前記所定領域の平面上に4点以上のマーカーを設けて事前に測定した前記所定領域における前記マーカーの位置座標と、前記歪み補正要素画像における前記マーカーの位置座標とから、前記歪み補正要素画像から前記所定領域への位置座標変換式を求める、
ことを特徴とする請求項1に記載の認識装置。
The second position coordinate detecting means is provided with four or more markers on the plane of the predetermined area, and the position coordinates of the marker in the predetermined area measured in advance, and the position coordinates of the marker in the distortion correction element image And obtaining a position coordinate conversion formula from the distortion correction element image to the predetermined region,
The recognition apparatus according to claim 1.
前記認識手段は、前記対象物を認識した結果を矩形で囲み、前記矩形の底辺中心点座標は、前記歪み補正要素画像での前記対象物の位置座標とする、
ことを特徴とする請求項1に記載の認識装置。
The recognition means surrounds the result of recognizing the object in a rectangle, and the base center coordinate of the rectangle is the position coordinate of the object in the distortion correction element image.
The recognition apparatus according to claim 1.
前記変換手段は、複数の前記歪み補正要素画像を生成する際に、複数の前記歪み補正要素画像が一部互いに重なる領域を設ける、
ことを特徴とする請求項1に記載の認識装置。
The converting means provides a region where the plurality of distortion correction element images partially overlap each other when generating the plurality of distortion correction element images.
The recognition apparatus according to claim 1.
魚眼レンズを備えるカメラと、
請求項1ないし6の何れか一項に記載の認識装置と、
を備えることを特徴とする認識システム。
A camera with a fisheye lens;
A recognition device according to any one of claims 1 to 6;
A recognition system comprising:
認識装置を制御するコンピュータを、
魚眼レンズを備えるカメラにより所定領域を撮影した魚眼動画を複数の歪み補正要素画像に変換する変換手段と、
前記歪み補正要素画像に対して対象物の認識処理を行う認識手段と、
認識した前記対象物の前記歪み補正要素画像における位置座標を求める第1位置座標検出手段と、
前記歪み補正要素画像における位置座標から、認識した前記対象物の前記所定領域での位置座標を求める第2位置座標検出手段と、
として機能させるためのプログラム。
A computer that controls the recognition device,
Conversion means for converting a fisheye moving image obtained by photographing a predetermined area by a camera having a fisheye lens into a plurality of distortion correction element images;
Recognizing means for performing object recognition processing on the distortion correction element image;
First position coordinate detection means for obtaining position coordinates of the recognized object in the distortion correction element image;
Second position coordinate detection means for obtaining position coordinates in the predetermined area of the recognized object from position coordinates in the distortion correction element image;
Program to function as.
認識装置で認識した対象物の位置座標検出方法であって、
魚眼レンズを備えるカメラにより所定領域を撮影した魚眼動画を複数の歪み補正要素画像に変換する変換ステップと、
前記歪み補正要素画像に対して前記対象物の認識処理を行う認識ステップと、
認識した前記対象物の前記歪み補正要素画像における位置座標を求める第1位置座標検出ステップと、
前記歪み補正要素画像における位置座標から、認識した前記対象物の前記所定領域での位置座標を求める第2位置座標検出ステップと、
を含むことを特徴とする位置座標検出方法。
A method for detecting position coordinates of an object recognized by a recognition device,
A conversion step of converting a fish-eye moving image obtained by photographing a predetermined area with a camera equipped with a fish-eye lens into a plurality of distortion correction element images;
A recognition step of performing recognition processing of the object on the distortion correction element image;
A first position coordinate detection step of obtaining a position coordinate of the recognized object in the distortion correction element image;
A second position coordinate detection step for obtaining a position coordinate of the recognized object in the predetermined area from a position coordinate in the distortion correction element image;
The position coordinate detection method characterized by including.
JP2018064873A 2018-03-29 2018-03-29 Recognition device, recognition system, program and position coordinate detection method Active JP7020240B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018064873A JP7020240B2 (en) 2018-03-29 2018-03-29 Recognition device, recognition system, program and position coordinate detection method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018064873A JP7020240B2 (en) 2018-03-29 2018-03-29 Recognition device, recognition system, program and position coordinate detection method

Publications (2)

Publication Number Publication Date
JP2019175283A true JP2019175283A (en) 2019-10-10
JP7020240B2 JP7020240B2 (en) 2022-02-16

Family

ID=68169569

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018064873A Active JP7020240B2 (en) 2018-03-29 2018-03-29 Recognition device, recognition system, program and position coordinate detection method

Country Status (1)

Country Link
JP (1) JP7020240B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111866389A (en) * 2020-07-29 2020-10-30 努比亚技术有限公司 Video tracking shooting method and device and computer readable storage medium
CN113408534A (en) * 2020-03-17 2021-09-17 株式会社理光 Method, apparatus and storage medium for recognizing landmark in panoramic image
CN117315034A (en) * 2023-11-29 2023-12-29 苏州魔视智能科技有限公司 Method and device for determining transverse slope parking space coordinates, computer equipment and storage medium

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11261868A (en) * 1998-03-13 1999-09-24 Fujitsu Ltd Fisheye lens camera device and image distortion correction method and image extraction method thereof
JP2008048443A (en) * 2007-09-21 2008-02-28 Fujitsu Ltd Fisheye lens camera apparatus and image extraction method thereof
JP2010183265A (en) * 2009-02-04 2010-08-19 Alpine Electronics Inc Image display device and method for calculating camera-mounting angle of the same
JP2010217984A (en) * 2009-03-13 2010-09-30 Tottori Univ Image detector and image detection method
JP2012089954A (en) * 2010-10-15 2012-05-10 Dainippon Printing Co Ltd Conference system, monitoring system, image processing system, image processing method, and image processing program or the like
JP2013009050A (en) * 2011-06-22 2013-01-10 Canon Inc Image processing apparatus and image processing method
JP2015032883A (en) * 2013-07-31 2015-02-16 パナソニック株式会社 Imaging apparatus and image display method
JP2017058801A (en) * 2015-09-15 2017-03-23 カシオ計算機株式会社 Image display apparatus, image display method and program

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11261868A (en) * 1998-03-13 1999-09-24 Fujitsu Ltd Fisheye lens camera device and image distortion correction method and image extraction method thereof
JP2008048443A (en) * 2007-09-21 2008-02-28 Fujitsu Ltd Fisheye lens camera apparatus and image extraction method thereof
JP2010183265A (en) * 2009-02-04 2010-08-19 Alpine Electronics Inc Image display device and method for calculating camera-mounting angle of the same
JP2010217984A (en) * 2009-03-13 2010-09-30 Tottori Univ Image detector and image detection method
JP2012089954A (en) * 2010-10-15 2012-05-10 Dainippon Printing Co Ltd Conference system, monitoring system, image processing system, image processing method, and image processing program or the like
JP2013009050A (en) * 2011-06-22 2013-01-10 Canon Inc Image processing apparatus and image processing method
JP2015032883A (en) * 2013-07-31 2015-02-16 パナソニック株式会社 Imaging apparatus and image display method
JP2017058801A (en) * 2015-09-15 2017-03-23 カシオ計算機株式会社 Image display apparatus, image display method and program

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113408534A (en) * 2020-03-17 2021-09-17 株式会社理光 Method, apparatus and storage medium for recognizing landmark in panoramic image
JP2021149972A (en) * 2020-03-17 2021-09-27 株式会社リコー Method for identifying landmark in panoramic image, device, and storage medium
JP7095766B2 (en) 2020-03-17 2022-07-05 株式会社リコー Methods, devices and storage media for identifying landmarks in panoramic images
CN111866389A (en) * 2020-07-29 2020-10-30 努比亚技术有限公司 Video tracking shooting method and device and computer readable storage medium
CN117315034A (en) * 2023-11-29 2023-12-29 苏州魔视智能科技有限公司 Method and device for determining transverse slope parking space coordinates, computer equipment and storage medium
CN117315034B (en) * 2023-11-29 2024-03-29 苏州魔视智能科技有限公司 Method and device for determining transverse slope parking space coordinates, computer equipment and storage medium

Also Published As

Publication number Publication date
JP7020240B2 (en) 2022-02-16

Similar Documents

Publication Publication Date Title
US10205896B2 (en) Automatic lens flare detection and correction for light-field images
US7583858B2 (en) Image processing based on direction of gravity
CN103168462B (en) Image synthesizer and image combining method
JP5075757B2 (en) Image processing apparatus, image processing program, image processing method, and electronic apparatus
US20060078215A1 (en) Image processing based on direction of gravity
EP3093822B1 (en) Displaying a target object imaged in a moving picture
CN111815707A (en) Point cloud determining method, point cloud screening device and computer equipment
JP2017130929A (en) Correction method and correction device for document image acquired by imaging apparatus
US8903195B2 (en) Specification of an area where a relationship of pixels between images becomes inappropriate
CN109711246B (en) Dynamic object recognition method, computer device and readable storage medium
CN108074237B (en) Image definition detection method and device, storage medium and electronic equipment
JP7020240B2 (en) Recognition device, recognition system, program and position coordinate detection method
CN109743505B (en) Video shooting method and device based on laser ranging and electronic equipment
WO2012029658A1 (en) Imaging device, image-processing device, image-processing method, and image-processing program
JP2013231607A (en) Calibration tool display device, calibration tool display method, calibration device, calibration method, calibration system and program
JP2020071854A (en) Image processing apparatus, image processing method, and program
CN102843479A (en) File scanning method, file scanning device and portable electronic device
JP6153318B2 (en) Image processing apparatus, image processing method, image processing program, and storage medium
CN114549613A (en) Structural displacement measuring method and device based on deep super-resolution network
KR102076635B1 (en) Apparatus and method for generating panorama image for scattered fixed cameras
JP5206499B2 (en) Measuring method, measuring device, measurement control program
JP7025237B2 (en) Image processing equipment and its control method and program
CN111091513A (en) Image processing method, image processing device, computer-readable storage medium and electronic equipment
JP7407963B2 (en) Distance information generation device and distance information generation method
CN112237002A (en) Image processing method and apparatus

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210118

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211109

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211216

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220104

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220117

R151 Written notification of patent or utility model registration

Ref document number: 7020240

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151