JP2017158067A - Monitoring system, monitoring method, and monitoring program - Google Patents

Monitoring system, monitoring method, and monitoring program Download PDF

Info

Publication number
JP2017158067A
JP2017158067A JP2016040526A JP2016040526A JP2017158067A JP 2017158067 A JP2017158067 A JP 2017158067A JP 2016040526 A JP2016040526 A JP 2016040526A JP 2016040526 A JP2016040526 A JP 2016040526A JP 2017158067 A JP2017158067 A JP 2017158067A
Authority
JP
Japan
Prior art keywords
unit
image
super
dictionary data
resolution processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016040526A
Other languages
Japanese (ja)
Other versions
JP6636828B2 (en
Inventor
剛 仲野
Takeshi Nakano
剛 仲野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2016040526A priority Critical patent/JP6636828B2/en
Publication of JP2017158067A publication Critical patent/JP2017158067A/en
Application granted granted Critical
Publication of JP6636828B2 publication Critical patent/JP6636828B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a monitoring system capable of monitoring more accurately than before.SOLUTION: The monitoring system includes an imaging unit, a storage unit, an image analysis unit and a display unit. The storage unit stores dictionary data including coefficients for realizing a plurality of mutually different super-resolution processing. The image analysis unit performs super-resolution processing on the image captured by the imaging unit, using one of a plurality of pieces of dictionary data stored in the storage unit. The display unit displays the image on which the super-resolution processing has been performed by the image analysis unit.SELECTED DRAWING: Figure 1

Description

本発明の実施形態は、監視システム、監視方法、および監視プログラムに関する。   Embodiments described herein relate generally to a monitoring system, a monitoring method, and a monitoring program.

超解像処理によって画像を鮮明化する技術が知られている。従来の技術は、周辺物体を監視するシステムに適用する場合において、目標の種類や環境条件を限定せずに画像を鮮明化するものであった。   A technique for sharpening an image by super-resolution processing is known. The conventional technique, when applied to a system for monitoring a peripheral object, sharpens an image without limiting the type of target or environmental conditions.

”Image Super-Resolution Using Deep Convolutional Networks”, IEEE Transactions on Pattern Analysis and Machine Intelligence, Volume38, Issue2, Pages 295-307, Jun.7, 2015“Image Super-Resolution Using Deep Convolutional Networks”, IEEE Transactions on Pattern Analysis and Machine Intelligence, Volume38, Issue2, Pages 295-307, Jun.7, 2015

本発明が解決しようとする課題は、複数種類の対象物が出現する可能性のある場面において、より正確に監視を行うことができる監視システムを提供することである。   The problem to be solved by the present invention is to provide a monitoring system capable of performing more accurate monitoring in a scene where a plurality of types of objects may appear.

実施形態の監視システムは、撮像部と、記憶部と、画像解析部と、表示部とを持つ。記憶部は、互いに異なる複数の超解像処理を実現するための係数を含む辞書データを記憶する。画像解析部は、前記撮像部により撮像された画像に対して、前記記憶部に記憶された複数の辞書データのいずれかを用いて超解像処理を行う。表示部は、前記画像解析部により超解像処理が行われた画像を表示する。   The monitoring system according to the embodiment includes an imaging unit, a storage unit, an image analysis unit, and a display unit. The storage unit stores dictionary data including coefficients for realizing a plurality of different super-resolution processes. The image analysis unit performs super-resolution processing on the image captured by the imaging unit using any of a plurality of dictionary data stored in the storage unit. The display unit displays the image on which the super-resolution processing has been performed by the image analysis unit.

監視システム1の構成の一例を示す図である。It is a figure which shows an example of a structure of the monitoring system. 監視システム1の機能構成の一例を示す図である。It is a figure which shows an example of a function structure of the monitoring system. 監視システム1により実行される処理の流れを示すフローチャートである。4 is a flowchart showing a flow of processing executed by the monitoring system 1. ウインドウWの決定について説明するための図である。It is a figure for demonstrating determination of the window W. FIG. 辞書データ64の一例を示す図である。It is a figure which shows an example of the dictionary data. 表示部40によって各辞書データ64に基づく画像IM(1)から(4)が表示される様子の一例を示す図である。It is a figure which shows an example of a mode that the image IM (1) to (4) based on each dictionary data 64 is displayed by the display part. 画像が表示部40に表示される別の一例を示す図である。6 is a diagram illustrating another example in which an image is displayed on the display unit 40. FIG. 第1の実施形態の変形例の画像処理装置50により実行される処理の流れの一部を示すフローチャートである。10 is a flowchart illustrating a part of a flow of processing executed by the image processing apparatus 50 according to a modification of the first embodiment.

以下、実施形態の監視システム、監視方法、および監視プログラムを、図面を参照して説明する。また、必要に応じてXYZ座標を用いて説明する。   Hereinafter, a monitoring system, a monitoring method, and a monitoring program according to embodiments will be described with reference to the drawings. Moreover, it demonstrates using a XYZ coordinate as needed.

図1は、監視システム1の構成の一例を示す図である。また、図2は、監視システム1の機能構成の一例を示す図である。図1に示すように、監視システム1は、例えば、車両や、船舶、航空機などの移動体に搭載される。また、監視システム1は、地上や海上に固定されてもよい。監視システム1は、周辺の対象物を監視する。図示する例では、監視システム1が、移動体である車両Sに搭載された例である。監視システム1の監視結果は表示部40に表示され、監視員SBによって視認される。   FIG. 1 is a diagram illustrating an example of the configuration of the monitoring system 1. FIG. 2 is a diagram illustrating an example of a functional configuration of the monitoring system 1. As shown in FIG. 1, the monitoring system 1 is mounted on a moving body such as a vehicle, a ship, or an aircraft. Moreover, the monitoring system 1 may be fixed on the ground or the sea. The monitoring system 1 monitors surrounding objects. In the illustrated example, the monitoring system 1 is mounted on a vehicle S that is a moving body. The monitoring result of the monitoring system 1 is displayed on the display unit 40 and is visually recognized by the supervisor SB.

監視システム1は、例えば、撮像部10と、レーダ装置20と、センサ30と、表示部40と、画像処理装置50とを備える。撮像部10は、例えば、CCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)等の固体撮像素子を備える。撮像部10は、監視システム1の周辺を所定周期で繰り返し撮像し、撮像した画像のデータを画像処理装置50に出力する。   The monitoring system 1 includes, for example, an imaging unit 10, a radar device 20, a sensor 30, a display unit 40, and an image processing device 50. The imaging unit 10 includes a solid-state imaging device such as a CCD (Charge Coupled Device) or a CMOS (Complementary Metal Oxide Semiconductor). The imaging unit 10 repeatedly captures the periphery of the monitoring system 1 at a predetermined cycle, and outputs captured image data to the image processing device 50.

レーダ装置20は、電波を対象物などの物体に向けて放射し、対象物により反射された反射波を受信する。レーダ装置20は、電波を放射してから、反射波を受信するまでの時間や反射波の位相などに基づいて、レーダ装置20から対象物までの距離を特定する。レーダ装置20は、例えば、マイクロ波を放射するレーダである。また、レーダ装置20は、ミリ波レーダや、レーザレーダ等の他の種類のレーダ装置であってもよい。また、レーダ装置20は、フェーズドアレイレーダのように電子的に指向角を変更可能なものであってもよいし、機械的に水平方向に回転駆動されるものであってもよい。   The radar apparatus 20 radiates radio waves toward an object such as an object and receives a reflected wave reflected by the object. The radar apparatus 20 specifies the distance from the radar apparatus 20 to the target object based on the time from radiating the radio wave to receiving the reflected wave, the phase of the reflected wave, and the like. The radar apparatus 20 is a radar that radiates microwaves, for example. The radar apparatus 20 may be another type of radar apparatus such as a millimeter wave radar or a laser radar. Further, the radar apparatus 20 may be one that can change the directivity angle electronically like a phased array radar, or may be one that is mechanically rotationally driven in the horizontal direction.

センサ30は、監視システム1が搭載された移動体の運動量を計測する。センサ30は、例えば加速度センサや、ジャイロセンサ、方位センサなどである。   The sensor 30 measures the momentum of the moving body on which the monitoring system 1 is mounted. The sensor 30 is, for example, an acceleration sensor, a gyro sensor, a direction sensor, or the like.

表示部40は、例えばLCD(Liquid Crystal Display)や有機EL(Electroluminescence)等の表示装置である。表示部40は、監視システム1の処理結果などを表示する。また、表示部40の他に、利用者の操作を受け付けるキーボードやマウス、マイク等の画像、音声及びその他の入力デバイス42を備える。表示部40が、タブレット端末である場合、入力デバイス42は、タブレット端末が有するタッチパネルであってもよい。   The display unit 40 is a display device such as an LCD (Liquid Crystal Display) or an organic EL (Electroluminescence). The display unit 40 displays the processing result of the monitoring system 1 and the like. In addition to the display unit 40, an image such as a keyboard, a mouse, a microphone, and other input devices 42 that accept user operations, and other input devices 42 are provided. When the display unit 40 is a tablet terminal, the input device 42 may be a touch panel included in the tablet terminal.

画像処理装置50は、前段画像処理部52、後段画像処理部54、および記憶部60を含んでもよいが、これに限定されない。前段画像処理部52、および後段画像処理部54は、CPU(Central Processing Unit)等のプロセッサがプログラムを実行することにより実現されてよい。また、前段画像処理部52、および後段画像処理部54は、LSI(Large Scale Integration)、ASIC(Application Specific Integrated Circuit)、FPGA(Field-Programmable Gate Array)等のハードウェアによって実現されてもよい。記憶部60は、例えば、RAM(Random Access Memory)やROM(Read Only Memory)、HDD(Hard Disk Drive)、フラッシュメモリ等の記憶装置により実現される。記憶部60には、画像データ62と、後述する辞書データ64とが記憶されている。画像データ62は、撮像部10により撮像された画像データと、画像処理装置50により処理された画像データとを含んでよい。   The image processing apparatus 50 may include a front image processing unit 52, a rear image processing unit 54, and a storage unit 60, but is not limited thereto. The pre-stage image processing unit 52 and the post-stage image processing unit 54 may be realized by a processor such as a CPU (Central Processing Unit) executing a program. Further, the pre-stage image processing unit 52 and the post-stage image processing unit 54 may be realized by hardware such as an LSI (Large Scale Integration), an ASIC (Application Specific Integrated Circuit), or an FPGA (Field-Programmable Gate Array). The storage unit 60 is realized by a storage device such as a random access memory (RAM), a read only memory (ROM), a hard disk drive (HDD), or a flash memory. The storage unit 60 stores image data 62 and dictionary data 64 to be described later. The image data 62 may include image data captured by the imaging unit 10 and image data processed by the image processing device 50.

前段画像処理部52は、撮像部10により撮像された時系列の画像に対して、再構成による超解像処理を行う。再構成による超解像処理とは、複数の撮像フレーム間における移動量を高精度に推定した情報を用いて解像度を向上させる処理である。前段画像処理部52は、センサ30により検出された撮像部10の位置変化に基づいて、再構成による超解像処理を行う。   The pre-stage image processing unit 52 performs super-resolution processing by reconstruction on the time-series images captured by the imaging unit 10. The super-resolution processing by reconstruction is processing for improving resolution using information obtained by accurately estimating the movement amount between a plurality of imaging frames. The pre-stage image processing unit 52 performs super-resolution processing by reconstruction based on the position change of the imaging unit 10 detected by the sensor 30.

後段画像処理部54は、前段画像処理部52によって再構成による超解像処理が行われた画像に対して、複数の辞書データ64のいずれかを用いて超解像処理を行う。後段画像処理部54は、入力デバイス42により受け付けられた操作に応じた対象物の種類に対応する辞書データ64を用いて超解像処理を行う。   The post-stage image processing unit 54 performs super-resolution processing on the image that has been subjected to super-resolution processing by reconstruction by the pre-stage image processing unit 52 using any of a plurality of dictionary data 64. The post-stage image processing unit 54 performs super-resolution processing using the dictionary data 64 corresponding to the type of object according to the operation received by the input device 42.

図3は、監視システム1により実行される処理の流れを示すフローチャートである。本実施形態では、監視システム1は、1つの対象物に対して、各処理を実行する例について説明する。監視システム1は、複数の物体を対象物とする場合、後述する処理を各対象物に対して並行して実行する。   FIG. 3 is a flowchart showing a flow of processing executed by the monitoring system 1. In this embodiment, the monitoring system 1 demonstrates the example which performs each process with respect to one target object. When the monitoring system 1 uses a plurality of objects as objects, the monitoring system 1 performs the processing described later on each object in parallel.

まず、画像処理装置50が、撮像部10により撮像された画像を取得する(ステップS100)。次に、前段画像処理部52が、再構成による超解像処理を実行する(ステップS102)。再構成による超解像処理において、前段画像処理部52は、複数フレーム画像における同一の対象物を含むと推定されるウインドウの位置を決定する。ウインドウは、撮像部10により撮像された画像における対象物を含むと考えられる一部の領域である。   First, the image processing apparatus 50 acquires an image captured by the imaging unit 10 (step S100). Next, the pre-stage image processing unit 52 executes super-resolution processing by reconstruction (step S102). In the super-resolution processing by reconstruction, the pre-stage image processing unit 52 determines the position of the window that is estimated to include the same object in the plurality of frame images. The window is a partial area that is considered to include an object in the image captured by the imaging unit 10.

例えば前段画像処理部52は、画像における特徴点、レーダ装置20から取得した情報、およびセンサ30から取得した情報の一部又は全部に基づいて、ウインドウの位置を決定する。   For example, the pre-stage image processing unit 52 determines the position of the window based on feature points in the image, information acquired from the radar device 20, and part or all of the information acquired from the sensor 30.

図4は、ウインドウWの決定について説明するための図である。図4(A)および図4(B)の(1)、(2)、および(3)は、各撮像フレームに対応しており、各撮像フレームは、図4(C)に示す画像IM(1)、IM(2)およびIM(3)に対応している。   FIG. 4 is a diagram for explaining the determination of the window W. (1), (2), and (3) in FIG. 4 (A) and FIG. 4 (B) correspond to each imaging frame, and each imaging frame corresponds to an image IM (shown in FIG. 4C). 1), IM (2) and IM (3).

前段画像処理部52は、レーダ装置20に取得された情報に基づいて、ウインドウWを決定する。前段画像処理部52は、対象物OBの移動量を取得すると、その移動量を加味して、ウインドウW内の同じ位置に対象物OBが位置するようにウインドウWの位置を決定する。この際に、前段画像処理部52は、実平面上の座標から画像平面上の座標への変換を行う。   The pre-stage image processing unit 52 determines the window W based on the information acquired by the radar device 20. When acquiring the amount of movement of the object OB, the pre-stage image processing unit 52 determines the position of the window W so that the object OB is located at the same position in the window W in consideration of the amount of movement. At this time, the pre-stage image processing unit 52 performs conversion from coordinates on the real plane to coordinates on the image plane.

また、前段画像処理部52は、センサ30から撮像部10(または車両S)の方位(向き)や移動量、移動方向などを導出する。前段画像処理部52は、撮像部10の撮像方向、移動量、および移動方向を、画像におけるウインドウWの移動量および移動方向に変換して、撮像部10の方位や移動によるウインドウWの変化が打ち消されるようにウインドウWの位置を決定する。   Further, the pre-stage image processing unit 52 derives the azimuth (direction), movement amount, movement direction, and the like of the imaging unit 10 (or the vehicle S) from the sensor 30. The pre-stage image processing unit 52 converts the imaging direction, movement amount, and movement direction of the imaging unit 10 into the movement amount and movement direction of the window W in the image, and changes in the window W due to the azimuth and movement of the imaging unit 10. The position of the window W is determined so as to be canceled out.

また、前段画像処理部52は、撮像部10から取得した基準目標を決定し、決定した基準目標の画像における位置または大きさの変化に基づいて、ウインドウWを決定してもよい。基準目標は、地平線などの消失線であってもよいし、既知の静止物であってもよい。例えば、前段画像処理部52は、取得した画像中から消失線をハフ変換などの手法で検出し、画像中における消失線の動きを推定することにより、対象物OBの移動とは無関係な撮像方向の変化を検知する。そして、前段画像処理部52は、その変化を打ち消すようにウインドウWの位置を決定する。   Further, the pre-stage image processing unit 52 may determine the reference target acquired from the imaging unit 10 and determine the window W based on a change in position or size of the determined reference target image. The reference target may be a vanishing line such as a horizon, or may be a known stationary object. For example, the pre-stage image processing unit 52 detects an annihilation line from the acquired image by a technique such as Hough transform, and estimates the movement of the erasure line in the image, thereby taking an imaging direction unrelated to the movement of the object OB. Detect changes in Then, the pre-stage image processing unit 52 determines the position of the window W so as to cancel the change.

前段画像処理部52は、上記の手法を組み合わせてウインドウWの位置を決定する。例えば、前段画像処理部52は、対象物OBの位置変化に基づくウインドウWの位置変化、撮像部10の方位などの変化に基づくウインドウWの位置変化、および基準目標の画像内の位置に基づくウインドウWの位置変化に対してそれぞれ重みを付け、加重和を求めることで、ウインドウWの位置を決定する。   The pre-stage image processing unit 52 determines the position of the window W by combining the above methods. For example, the pre-stage image processing unit 52 changes the position of the window W based on the change in the position of the object OB, changes in the position of the window W based on changes in the orientation of the imaging unit 10, and the window based on the position in the reference target image. The position of the window W is determined by assigning a weight to each change in the position of W and obtaining a weighted sum.

ウインドウWの位置を決定した後、前段画像処理部52は、複数フレーム画像のそれぞれのウインドウW内の画像に基づいて、再構成による超解像処理を行う。前段画像処理部52は、ウインドウW内の画像における対象物OBの動き(または向き)を検出し、検出した動きを考慮した高精細な画像を生成する。前段画像処理部52は、予め定められた数のウインドウW内の画像のうちから、基準とする基準フレーム画像を決定する。前段画像処理部52は、基準フレーム画像として選択しなかったフレーム画像である非基準フレーム画像毎に非剛体変形処理を行う。例えば、前段画像処理部52は、非基準フレーム画像における対象物OBの向きを、基準フレーム画像における対象物OBの向きに合わせるように処理を行う。前段画像処理部52は、例えば公知のFFD(Free form Deformation)や、他の公知の手法を用いて非剛体変形処理を行う。   After determining the position of the window W, the pre-stage image processing unit 52 performs super-resolution processing by reconstruction based on the images in the windows W of the plurality of frame images. The pre-stage image processing unit 52 detects the movement (or orientation) of the object OB in the image in the window W, and generates a high-definition image in consideration of the detected movement. The pre-stage image processing unit 52 determines a reference frame image as a reference from images in a predetermined number of windows W. The pre-stage image processing unit 52 performs non-rigid deformation processing for each non-reference frame image that is a frame image that is not selected as the reference frame image. For example, the pre-stage image processing unit 52 performs processing so that the orientation of the object OB in the non-reference frame image matches the orientation of the object OB in the reference frame image. The pre-stage image processing unit 52 performs non-rigid deformation processing using, for example, a known FFD (Free Form Deformation) or other known methods.

例えば、前段画像処理部52は、基準フレーム画像および非基準フレーム画像に対して、対象物OBが予め定めた画素数になるように画像における領域を縦方向および横方向に格子状に分割する。縦方向に分割しているラインと、横方向に分割しているラインとが交差する格子点を中心とした所望の領域が、1つの画素に相当する。前段画像処理部52は、処理対象の画像の対象物OBに対して、複数の特徴点を設定する。前段画像処理部52は、基準フレーム画像上に設定した各格子点に、水平方向、および垂直方向の係数を持たせる。前段画像処理部52は、非基準フレーム画像における複数の特徴点の位置を、基準フレーム画像上の位置に一致させる格子点の位置(係数)を算出する。   For example, the pre-stage image processing unit 52 divides the region in the image in a grid pattern in the vertical direction and the horizontal direction so that the object OB has a predetermined number of pixels with respect to the reference frame image and the non-reference frame image. A desired area centering on a lattice point where a line divided in the vertical direction intersects with a line divided in the horizontal direction corresponds to one pixel. The pre-stage image processing unit 52 sets a plurality of feature points for the object OB of the image to be processed. The pre-stage image processing unit 52 gives each grid point set on the reference frame image a coefficient in the horizontal direction and the vertical direction. The pre-stage image processing unit 52 calculates the positions (coefficients) of lattice points that match the positions of the plurality of feature points in the non-reference frame image with the positions on the reference frame image.

前段画像処理部52は、非基準フレーム画像の各格子点を、その格子点について算出した係数に基づいて移動させる。このとき、隣接する4つの格子点で囲まれる領域の画像は、これらの格子点の移動に応じて変形することにより、各非基準フレーム画像における対象物OBの向きが、基準フレーム画像における対象物OBの向きに合わせられる。そして、前段画像処理部52は、基準フレーム画像、および上述した処理を行った非基準フレーム画像において対応する画素の平均値や、加重平均値等を算出し、その平均値等を画素値として決定する。これにより、前段画像処理部52は、再構成による超解像処理行った画像を取得する。なお、前段画像処理部52は、自己合同性を用いたフレーム内再構成型超解像処理などを用いて拡大画像を取得してもよい。   The pre-stage image processing unit 52 moves each grid point of the non-reference frame image based on the coefficient calculated for the grid point. At this time, the image of the region surrounded by the four adjacent grid points is deformed in accordance with the movement of these grid points, so that the orientation of the target object OB in each non-reference frame image is the target object in the reference frame image. It is matched to the direction of OB. Then, the pre-stage image processing unit 52 calculates an average value, a weighted average value, and the like of the corresponding pixels in the reference frame image and the non-reference frame image subjected to the above-described processing, and determines the average value or the like as the pixel value. To do. Thereby, the pre-stage image processing unit 52 acquires an image that has been subjected to super-resolution processing by reconstruction. Note that the pre-stage image processing unit 52 may acquire an enlarged image using an intra-frame reconstruction type super-resolution process using self-congruity.

次に、後段画像処理部54が、辞書データ(1)による超解像処理を実行する(ステップS104)。例えば、後段画像処理部54は、対象物OBが含まれるウインドウWに対して超解像処理を実行する。記憶部60に記憶される辞書データ64は、辞書データ(1)から(n)を含むものとする。   Next, the post-stage image processing unit 54 executes super-resolution processing using the dictionary data (1) (step S104). For example, the post-stage image processing unit 54 performs super-resolution processing on the window W including the object OB. The dictionary data 64 stored in the storage unit 60 includes dictionary data (1) to (n).

辞書データ64には、例えば撮像部10により撮像され得る対象物の種類ごとの辞書データが格納される。また、辞書データ64には、晴れや雨等の撮像条件ごとの辞書データが格納されてもよい。図5は、辞書データ64の一例を示す図である。図示する例では、対象物OBの種類と、撮像条件とに対して、辞書データの実体部分である係数が対応付けられている。   The dictionary data 64 stores, for example, dictionary data for each type of object that can be imaged by the imaging unit 10. The dictionary data 64 may store dictionary data for each imaging condition such as sunny or rainy. FIG. 5 is a diagram illustrating an example of the dictionary data 64. In the example shown in the figure, a coefficient that is a substantial part of the dictionary data is associated with the type of the object OB and the imaging condition.

また、辞書データ64は、後段画像処理部54が、超解像処理した画像を取得するために、畳み込み演算を実行するときに必要な係数を含む。この辞書データ64は、例えば多数の正解データである高解像度データと低解像度データの組み合わせをディープラーニング(Deep Learning)等の手法で学習することで生成される。後段画像処理部54は、この学習により生成された辞書データ64を用いて、実際に取得した画像に対して畳み込み演算を実行し、高解像度画像(拡大画像)を取得する。このような学習型超解像処理は、様々あり、監視装置50は、他の公知の手法を用いて実現してもよい。   Further, the dictionary data 64 includes coefficients necessary for the subsequent image processing unit 54 to execute a convolution operation in order to acquire an image subjected to super-resolution processing. The dictionary data 64 is generated, for example, by learning a combination of high resolution data and low resolution data, which are a large number of correct answer data, using a technique such as deep learning. The post-stage image processing unit 54 performs a convolution operation on the actually acquired image using the dictionary data 64 generated by this learning, and acquires a high-resolution image (enlarged image). There are various learning type super-resolution processes, and the monitoring device 50 may be realized by using other known methods.

次に、後段画像処理部54は、ステップS104で取得した超解像画像を表示部40に表示させる(ステップS106)。   Next, the post-stage image processing unit 54 causes the display unit 40 to display the super-resolution image acquired in step S104 (step S106).

次に、後段画像処理部54が、辞書データ(2)による超解像処理を実行する(ステップS108)。後段画像処理部54は、上述したステップS102の処理と同様に、辞書データ(2)を用いて、超解像処理を実行する。次に、後段画像処理部54は、ステップS108で取得した超解像画像を表示部40に表示させる(ステップS110)。   Next, the post-stage image processing unit 54 performs super-resolution processing using the dictionary data (2) (step S108). The post-stage image processing unit 54 performs super-resolution processing using the dictionary data (2), similarly to the processing in step S102 described above. Next, the post-stage image processing unit 54 causes the display unit 40 to display the super-resolution image acquired in step S108 (step S110).

このように、辞書データを順次変更しながら、超解像画像を表示させていく。後段画像処理部54は、辞書データ(n)による超解像処理を実行し(ステップS112)、ステップS112で取得した超解像画像を表示部40に表示させる(ステップS114)。図6は、辞書データ64を順次変更しながら超解像処理が行われ、表示部40によって各辞書データ64に基づく画像IM(1)から(4)が表示される様子の一例を示す図である。   In this way, super-resolution images are displayed while sequentially changing the dictionary data. The post-stage image processing unit 54 executes super-resolution processing using the dictionary data (n) (step S112), and displays the super-resolution image acquired in step S112 on the display unit 40 (step S114). FIG. 6 is a diagram illustrating an example of a state in which super-resolution processing is performed while sequentially changing the dictionary data 64, and images IM (1) to (4) based on each dictionary data 64 are displayed on the display unit 40. is there.

次に、後段画像処理部54は、利用者によって画像の選択操作がされたか否かを判定する(ステップS116)。利用者は、例えば表示部40に順次表示される画像を視認して、対象物OBが鮮明に認識することができる画像(例えば図6のIM(3))を選択する。一方、対象物OBが鮮明に認識することができる画像が存在せず、利用者によって画像の選択操作がされなかった場合、本フローチャートの1ルーチンは終了し、再度ステップS100からの処理が実行される。   Next, the post-stage image processing unit 54 determines whether or not an image selection operation has been performed by the user (step S116). The user visually recognizes images sequentially displayed on the display unit 40, for example, and selects an image (for example, IM (3) in FIG. 6) that the object OB can clearly recognize. On the other hand, when there is no image that can be clearly recognized by the object OB, and the user has not performed an image selection operation, one routine of this flowchart ends, and the processing from step S100 is executed again. The

利用者によって画像の選択操作がされた場合、後段画像処理部54は、撮像部10により撮像された画像を取得する(ステップS118)。次に、後段画像処理部54は、ステップS118で取得した画像に対して、上述した処理と同様に再構成による超解像処理を実行し(ステップS120)、ステップS116で選択された画像に対応する辞書データ(k)による超解像処理を実行する(ステップS122)。   When an image selection operation is performed by the user, the post-stage image processing unit 54 acquires an image captured by the imaging unit 10 (step S118). Next, the post-stage image processing unit 54 performs super-resolution processing by reconstruction on the image acquired in step S118 in the same manner as described above (step S120), and corresponds to the image selected in step S116. Super-resolution processing is performed using the dictionary data (k) to be performed (step S122).

次に、後段画像処理部54は、ステップS122で取得した画像を表示部40に表示させる(ステップS124)。次に、後段画像処理部54は、利用者によりリセット操作がされたか否かを判定する(ステップS126)。利用者によりリセット操作がされていない場合、本フローチャートのステップS118の処理に戻り、超解像処理した画像を表示部40に表示する処理を繰り返す。利用者によりリセット操作がされた場合、本フローチャートの1ルーチンの処理は終了する。   Next, the post-stage image processing unit 54 causes the display unit 40 to display the image acquired in step S122 (step S124). Next, the post-stage image processing unit 54 determines whether or not a reset operation has been performed by the user (step S126). If the reset operation has not been performed by the user, the process returns to the process of step S118 of this flowchart, and the process of displaying the super-resolution processed image on the display unit 40 is repeated. When the reset operation is performed by the user, the process of one routine of this flowchart is completed.

上述した処理によって、監視システム1は、鮮明に視認することができる対象物OBの画像を取得することができ、複数の対象物OBを並行して監視することができる。また、監視システム1は、撮像部10により撮像された画像におけるウインドウWの決定にレーダ装置20、またはセンサ30から取得した情報を加味することによって、より精度よく対象物を追跡し、追跡した対象物を含むウインドウWを決定することができる。   Through the above-described processing, the monitoring system 1 can acquire an image of the object OB that can be clearly seen, and can monitor a plurality of objects OB in parallel. In addition, the monitoring system 1 tracks the target object with higher accuracy by adding the information acquired from the radar device 20 or the sensor 30 to the determination of the window W in the image captured by the imaging unit 10, and the tracked target A window W containing the object can be determined.

図7は、画像が表示部40に表示される別の一例を示す図である。後段画像処理部54は、超解像処理により取得した画像を表示部40に一括して表示させてもよい。なお、後段画像処理部54は、鮮明度の高い画像の優先度を高く設定し、設定した優先度に基づいて、超解像度処理を行った画像を配置したり、順次表示部40に表示させたりしてもよい。   FIG. 7 is a diagram illustrating another example in which an image is displayed on the display unit 40. The post-stage image processing unit 54 may collectively display images acquired by the super-resolution processing on the display unit 40. The post-stage image processing unit 54 sets the priority of a high-definition image to a high level, arranges the images subjected to the super-resolution processing based on the set priority, or sequentially displays the images on the display unit 40. May be.

なお、本実施形態では、監視システム1は、対象物OBに対して、各辞書データ64による超解像処理を実行するものとしたが、ステップS100で取得した画像またはステップS102で再構成による超解像処理した画像を表示部40に表示させ、超解像処理に用いる辞書データ64を利用者に選択させてもよい。   In the present embodiment, the monitoring system 1 performs super-resolution processing on each object OB using the dictionary data 64. However, the monitoring system 1 performs super-resolution processing using the dictionary data 64 or the super-structure obtained by reconstruction in step S102. The resolved image may be displayed on the display unit 40 and the user may select the dictionary data 64 used for the super-resolution process.

また、本実施形態では、監視システム1は、ステップS116で利用者の選択によって、選択した画像に対応する辞書データ64による超解像処理を実行するものとしたが、画像の鮮明度等の指標に基づいて、超解像処理に用いる辞書データ64を自動的に選択してもよい。   In the present embodiment, the monitoring system 1 executes super-resolution processing using the dictionary data 64 corresponding to the selected image according to the user's selection in step S116. However, the index such as the sharpness of the image is used. Based on the above, the dictionary data 64 used for the super-resolution processing may be automatically selected.

また、監視システム1は、鮮明度が最も高い画像を取得したときに用いた辞書データ64に対応付けられた対象物の種類を、その画像における対象物の種類と判定し、判定結果を表示部40に表示させてもよい。   The monitoring system 1 determines the type of the object associated with the dictionary data 64 used when the image with the highest definition is acquired as the type of the object in the image, and displays the determination result on the display unit. 40 may be displayed.

以上説明した第1の実施形態によれば、後段画像処理部54が、撮像部10により撮像された画像に対して、複数の辞書データ64のいずれかを用いて超解像処理を行った画像を表示部40に表示することによって、複数種類の対象物OBが出現する可能性のある場面において、より正確に監視を行うことができる。   According to the first embodiment described above, the post-stage image processing unit 54 performs super-resolution processing on the image captured by the imaging unit 10 using any of the plurality of dictionary data 64. Is displayed on the display unit 40, it is possible to monitor more accurately in a scene where a plurality of types of objects OB may appear.

(第1の実施形態の変形例)
以下、第1の実施形態の変形例について説明する。第1の実施形態の変形例の監視システム1では、辞書データ64による超解像処理によって取得した画像に対してパターンマッチングを行う。以下、第1の実施形態との相違点を中心に説明する。
(Modification of the first embodiment)
Hereinafter, modifications of the first embodiment will be described. In the monitoring system 1 according to the modified example of the first embodiment, pattern matching is performed on an image acquired by super-resolution processing using the dictionary data 64. Hereinafter, a description will be given focusing on differences from the first embodiment.

第1の実施形態の変形例の記憶部60は、画像データ62、および辞書データ64の他に、更に予め複数種類の対象物OBに対応した(撮像条件にも対応していてよい)パターン識別器辞書が記憶されている。識別器として機能する後段画像処理部54は、超解像処理が行われた画像に対してSobelフィルタ処理などで取得したエッジ強度や方向等の特徴量と、超解像処理において使用された辞書データ64の種類に対応するパターン識別器辞書との類似度を計算し、辞書データ64の種類の確からしさを判別する。   In addition to the image data 62 and the dictionary data 64, the storage unit 60 according to the modification of the first embodiment further corresponds to a plurality of types of objects OB in advance (which may also correspond to imaging conditions). A device dictionary is stored. The latter-stage image processing unit 54 functioning as a discriminator includes feature quantities such as edge strength and direction acquired by the Sobel filter processing on the image subjected to the super-resolution processing, and a dictionary used in the super-resolution processing. The similarity with the pattern discriminator dictionary corresponding to the type of the data 64 is calculated, and the probability of the type of the dictionary data 64 is determined.

図8は、第1の実施形態の変形例の画像処理装置50により実行される処理の流れの一部を示すフローチャートである。本フローチャートのステップS200からステップS206の処理は、画像処理装置50により一つの辞書データ64が選択され、超解像処理が実行された後に実行される処理である。従って、図8のフローチャートの処理は、辞書データ64が順次選択されるのに応じて、辞書データ64の種類ごとに実行される。   FIG. 8 is a flowchart illustrating a part of the flow of processing executed by the image processing apparatus 50 according to the modification of the first embodiment. The processing from step S200 to step S206 in this flowchart is processing executed after one dictionary data 64 is selected by the image processing apparatus 50 and super-resolution processing is executed. Therefore, the process of the flowchart of FIG. 8 is executed for each type of dictionary data 64 in accordance with the sequential selection of the dictionary data 64.

後段画像処理部54は、選択された辞書データ64を用いて超解像処理された画像を取得し、取得した画像を表示部40に表示させる(ステップS200)。   The post-stage image processing unit 54 acquires an image that has been super-resolved using the selected dictionary data 64, and displays the acquired image on the display unit 40 (step S200).

次に、後段画像処理部54は、表示部40に表示させた画像のうちウインドウ内の画像から得られる特徴量(前述)と、選択された辞書データ64の種類に対応するパターン識別器辞書との類似度を計算し(ステップS202)、ウインドウに含まれる対象物OBの種類が、選択された辞書データ64に対応する対象物OBの種類と合致しているか否かを判定する(ステップS204)。具体的には、後段画像処理部54は、ステップS202で計算された類似度が高い場合に、これらが合致していると判定する。これらが合致していない場合、ステップS206の処理がスキップされる。   Next, the latter-stage image processing unit 54 includes a feature amount (described above) obtained from the image in the window among the images displayed on the display unit 40, and a pattern classifier dictionary corresponding to the type of the selected dictionary data 64. (Step S202), and it is determined whether or not the type of the object OB included in the window matches the type of the object OB corresponding to the selected dictionary data 64 (step S204). . Specifically, the latter-stage image processing unit 54 determines that these match when the similarity calculated in step S202 is high. If they do not match, step S206 is skipped.

ウインドウに含まれる対象物OBの種類が、選択された辞書データ64に対応する対象物OBの種類と合致している場合、後段画像処理部54は、辞書データ64を固定する(ステップS206)。これにより、画像処理装置50は、自動的に、対象物OBの超解像処理に適した辞書データ64を選択することができる。   If the type of the object OB included in the window matches the type of the object OB corresponding to the selected dictionary data 64, the subsequent image processing unit 54 fixes the dictionary data 64 (step S206). Thereby, the image processing apparatus 50 can automatically select the dictionary data 64 suitable for the super-resolution processing of the object OB.

以上説明した第1の実施形態の変形例の監視システム1は、超解像処理が行われた画像と、超解像処理において選択された辞書データ64の種類に対応するパターン識別器辞書とのマッチングを自動的に行い、マッチングの結果に基づいて、自動的に対象物OBに適した辞書データ64を選択する。この結果、第1の実施形態の効果と同様の効果を奏すると共に、利用者にとって利便性の高い画像処理装置50を提供することができる。   The monitoring system 1 according to the modified example of the first embodiment described above includes an image on which super-resolution processing has been performed and a pattern classifier dictionary corresponding to the type of dictionary data 64 selected in the super-resolution processing. Matching is automatically performed, and dictionary data 64 suitable for the object OB is automatically selected based on the result of matching. As a result, it is possible to provide the image processing apparatus 50 that has the same effects as those of the first embodiment and is highly convenient for the user.

以上説明した少なくともひとつの実施形態によれば、撮像部10と、互いに異なる複数の辞書データ64を記憶する記憶部60と、撮像部10により撮像された画像に対して、記憶部60に記憶された複数の超解像処理を実現するための係数を含む辞書データ64のいずれかを用いて超解像処理を行う後段画像処理部54と、後段画像処理部54により超解像処理が行われた画像を表示する表示部40とを持つことにより、複数種類の対象物OBが出現する可能性のある場面において、より正確に監視を行うことができる。   According to at least one embodiment described above, the imaging unit 10, the storage unit 60 that stores a plurality of different dictionary data 64, and the image captured by the imaging unit 10 are stored in the storage unit 60. The post-stage image processing unit 54 that performs super-resolution processing using any one of the dictionary data 64 including coefficients for realizing a plurality of super-resolution processes, and the post-stage image processing unit 54 performs the super-resolution processing. By having the display unit 40 that displays the displayed image, it is possible to monitor more accurately in a scene where a plurality of types of objects OB may appear.

本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれると同様に、特許請求の範囲に記載された発明とその均等の範囲に含まれるものである。   Although several embodiments of the present invention have been described, these embodiments are presented by way of example and are not intended to limit the scope of the invention. These embodiments can be implemented in various other forms, and various omissions, replacements, and changes can be made without departing from the spirit of the invention. These embodiments and their modifications are included in the scope and gist of the invention, and are also included in the invention described in the claims and the equivalents thereof.

1…監視システム、10…撮像部、20…レーダ装置、30…センサ、40…表示部、42…入力デバイス、50…画像処理装置、52…前段画像処理部、54…後段画像処理部、60…記憶部、62…画像データ、64…辞書データ   DESCRIPTION OF SYMBOLS 1 ... Monitoring system, 10 ... Imaging part, 20 ... Radar apparatus, 30 ... Sensor, 40 ... Display part, 42 ... Input device, 50 ... Image processing apparatus, 52 ... Pre-stage image processing part, 54 ... Post-stage image processing part, 60 ... Storage unit, 62 ... Image data, 64 ... Dictionary data

Claims (10)

撮像部と、
互いに異なる複数の超解像処理を実現するための係数を含む辞書データを記憶する記憶部と、
前記撮像部により撮像された画像に対して、前記記憶部に記憶された複数の辞書データのいずれかを用いて超解像処理を行う画像解析部と、
前記画像解析部により超解像処理が行われた画像を表示する表示部と、
を備える監視システム。
An imaging unit;
A storage unit for storing dictionary data including coefficients for realizing a plurality of different super-resolution processes;
An image analysis unit that performs super-resolution processing on the image captured by the imaging unit using any of a plurality of dictionary data stored in the storage unit;
A display unit for displaying an image subjected to super-resolution processing by the image analysis unit;
A monitoring system comprising:
前記複数の辞書データは、前記撮像部により撮像され得る対象物の種類ごとの辞書データである、
請求項1記載の監視システム。
The plurality of dictionary data are dictionary data for each type of object that can be imaged by the imaging unit.
The monitoring system according to claim 1.
利用者による前記対象物の種類を選択する操作を受け付ける受付部を備え、
前記画像解析部は、前記受付部により受け付けられた操作に応じた対象物の種類に対応する辞書データを用いて超解像処理を行う、
請求項2記載の監視システム。
A reception unit that receives an operation of selecting a type of the object by a user;
The image analysis unit performs super-resolution processing using dictionary data corresponding to the type of object according to the operation received by the reception unit.
The monitoring system according to claim 2.
前記複数の辞書データは、撮像条件ごとの辞書データである、
請求項1から3のうちいずれか1項記載の監視システム。
The plurality of dictionary data is dictionary data for each imaging condition.
The monitoring system according to any one of claims 1 to 3.
前記画像解析部は、前記複数の辞書データを順次選択し、前記選択した辞書データを用いて超解像処理を行った画像を順次、前記表示部に表示させる、
請求項1から4のうちいずれか1項記載の監視システム。
The image analysis unit sequentially selects the plurality of dictionary data, and sequentially displays the images subjected to super-resolution processing using the selected dictionary data on the display unit.
The monitoring system according to any one of claims 1 to 4.
前記撮像部により撮像された時系列の画像に対して、再構成による超解像処理を行う前段画像処理部を更に備え、
前記画像解析部は、前記前段画像処理部によって再構成による超解像処理が行われた画像に対して、前記複数の辞書データを用いた超解像処理を行う、
請求項1から5のうちいずれか1項記載の監視システム。
A pre-stage image processing unit that performs super-resolution processing by reconstruction on the time-series images captured by the imaging unit;
The image analysis unit performs super-resolution processing using the plurality of dictionary data on the image that has been subjected to super-resolution processing by reconstruction by the pre-stage image processing unit.
The monitoring system according to any one of claims 1 to 5.
前記撮像部の位置変化を検出する位置変化検出部を備え、
前記前段画像処理部は、前記位置変化検出部により検出された前記撮像部の位置変化に基づいて、再構成による超解像処理を行う、
請求項6記載の監視システム。
A position change detection unit for detecting a position change of the imaging unit;
The pre-stage image processing unit performs super-resolution processing by reconstruction based on the position change of the imaging unit detected by the position change detection unit.
The monitoring system according to claim 6.
対象物の位置を検出するレーダ部を備え、
前記前段画像処理部は、前記レーダ部により検出された前記対象物の位置変化に基づいて、再構成による超解像処理を行う、
請求項6または7記載の監視システム。
A radar unit that detects the position of an object is provided.
The pre-stage image processing unit performs super-resolution processing by reconstruction based on the position change of the object detected by the radar unit.
The monitoring system according to claim 6 or 7.
コンピュータが、
撮像部により取得された画像を取得し、
前記取得した画像に対して、互いに異なる複数の超解像処理を実現するための係数を含む辞書データを記憶する記憶部に記憶された複数の辞書データのいずれかを用いて超解像処理を行い、
前記超解像処理を行った画像を表示部に表示させる、
監視方法。
Computer
Acquire the image acquired by the imaging unit,
Super-resolution processing is performed on the acquired image using any of a plurality of dictionary data stored in a storage unit that stores dictionary data including coefficients for realizing a plurality of different super-resolution processing. Done
Displaying the image subjected to the super-resolution processing on a display unit;
Monitoring method.
コンピュータに、
撮像部により取得された画像を取得させ、
前記取得した画像に対して、互いに異なる複数の超解像処理を実現するための係数を含む辞書データを記憶する記憶部に記憶された複数の辞書データのいずれかを用いて超解像処理を行わせ、
前記超解像処理を行った画像を表示部に表示させる処理を行わせる、
監視プログラム。
On the computer,
The image acquired by the imaging unit is acquired,
Super-resolution processing is performed on the acquired image using any of a plurality of dictionary data stored in a storage unit that stores dictionary data including coefficients for realizing a plurality of different super-resolution processing. Let
Causing the display unit to display the image subjected to the super-resolution processing;
Monitoring program.
JP2016040526A 2016-03-02 2016-03-02 Monitoring system, monitoring method, and monitoring program Active JP6636828B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016040526A JP6636828B2 (en) 2016-03-02 2016-03-02 Monitoring system, monitoring method, and monitoring program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016040526A JP6636828B2 (en) 2016-03-02 2016-03-02 Monitoring system, monitoring method, and monitoring program

Publications (2)

Publication Number Publication Date
JP2017158067A true JP2017158067A (en) 2017-09-07
JP6636828B2 JP6636828B2 (en) 2020-01-29

Family

ID=59810436

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016040526A Active JP6636828B2 (en) 2016-03-02 2016-03-02 Monitoring system, monitoring method, and monitoring program

Country Status (1)

Country Link
JP (1) JP6636828B2 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020021279A (en) * 2018-07-31 2020-02-06 グローリー株式会社 Image processing device, image processing system, image processing method, and image processing program
CN110857065A (en) * 2018-08-23 2020-03-03 现代自动车株式会社 Apparatus for controlling display of vehicle, system having the same, and method thereof
JP2020060824A (en) * 2018-10-05 2020-04-16 グローリー株式会社 Image processing apparatus, image processing system, image processing method and image processing program
KR20210015951A (en) * 2019-05-09 2021-02-10 선전 센스타임 테크놀로지 컴퍼니 리미티드 Image processing method and apparatus, electronic device, and storage medium
US11800185B2 (en) 2018-12-28 2023-10-24 Dwango Co., Ltd. Image transmission and reception system, data transmission and reception system, transmission and reception method, computer program, image transmission system, image reception device, transmission system, reception device

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009048620A (en) * 2007-07-20 2009-03-05 Fujifilm Corp Image processor, image processing method, and program
JP2010272109A (en) * 2009-04-20 2010-12-02 Fujifilm Corp Image processing system, image processing method, and program
JP2011180798A (en) * 2010-03-01 2011-09-15 Sony Corp Image processing apparatus, image processing method, and program
JP2013031163A (en) * 2011-06-24 2013-02-07 Panasonic Corp Super-resolution processing apparatus and super-resolution processing method
WO2015198368A1 (en) * 2014-06-24 2015-12-30 三菱電機株式会社 Image processing device and image processing method

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009048620A (en) * 2007-07-20 2009-03-05 Fujifilm Corp Image processor, image processing method, and program
JP2010272109A (en) * 2009-04-20 2010-12-02 Fujifilm Corp Image processing system, image processing method, and program
JP2011180798A (en) * 2010-03-01 2011-09-15 Sony Corp Image processing apparatus, image processing method, and program
JP2013031163A (en) * 2011-06-24 2013-02-07 Panasonic Corp Super-resolution processing apparatus and super-resolution processing method
WO2015198368A1 (en) * 2014-06-24 2015-12-30 三菱電機株式会社 Image processing device and image processing method

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020021279A (en) * 2018-07-31 2020-02-06 グローリー株式会社 Image processing device, image processing system, image processing method, and image processing program
JP7291464B2 (en) 2018-07-31 2023-06-15 グローリー株式会社 Image processing device, image processing system, image processing method, and image processing program
CN110857065A (en) * 2018-08-23 2020-03-03 现代自动车株式会社 Apparatus for controlling display of vehicle, system having the same, and method thereof
JP2020060824A (en) * 2018-10-05 2020-04-16 グローリー株式会社 Image processing apparatus, image processing system, image processing method and image processing program
JP7266985B2 (en) 2018-10-05 2023-05-01 グローリー株式会社 Image processing device, image processing system, image processing method, and image processing program
US11800185B2 (en) 2018-12-28 2023-10-24 Dwango Co., Ltd. Image transmission and reception system, data transmission and reception system, transmission and reception method, computer program, image transmission system, image reception device, transmission system, reception device
KR20210015951A (en) * 2019-05-09 2021-02-10 선전 센스타임 테크놀로지 컴퍼니 리미티드 Image processing method and apparatus, electronic device, and storage medium
KR102445193B1 (en) * 2019-05-09 2022-09-19 선전 센스타임 테크놀로지 컴퍼니 리미티드 Image processing method and apparatus, electronic device, and storage medium

Also Published As

Publication number Publication date
JP6636828B2 (en) 2020-01-29

Similar Documents

Publication Publication Date Title
US20210056708A1 (en) Target detection and training for target detection network
Pappas et al. Superpixel-level CFAR detectors for ship detection in SAR imagery
JP6636828B2 (en) Monitoring system, monitoring method, and monitoring program
CN109118542B (en) Calibration method, device, equipment and storage medium between laser radar and camera
US9576375B1 (en) Methods and systems for detecting moving objects in a sequence of image frames produced by sensors with inconsistent gain, offset, and dead pixels
CN114637023A (en) System and method for laser depth map sampling
WO2016032735A1 (en) Systems and methods for determining a seam
JP2021506017A (en) Object detector and object detection method
CN111380510B (en) Repositioning method and device and robot
JPWO2012141235A1 (en) 3D point cloud position data processing apparatus, 3D point cloud position data processing system, 3D point cloud position data processing method and program
CN105989603A (en) Machine vision image sensor calibration
CN109671061B (en) Image analysis method and device, computing equipment and storage medium
EP2821935B1 (en) Vehicle detection method and device
JP2016085602A (en) Sensor information integrating method, and apparatus for implementing the same
US20240153103A1 (en) Tracking-based motion deblurring via coded exposure
US10114545B2 (en) Image location selection for use in depth photography system
CN114119652A (en) Method and device for three-dimensional reconstruction and electronic equipment
Khaledian et al. A new method for detecting variable-size infrared targets
JP2016206909A (en) Information processor, and information processing method
CN108564626A (en) Method and apparatus for determining the relative attitude angle being installed between the camera of acquisition entity
US11373315B2 (en) Method and system for tracking motion of subjects in three dimensional scene
CN110728176B (en) Unmanned aerial vehicle visual image feature rapid matching and extracting method and device
JP6976496B2 (en) Image change detection device and image change detection method
JP6751063B2 (en) Radar signal processing device, radar signal processing method, and program
WO2014178241A1 (en) Image processing device, image processing method, and image processing program

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20170912

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20170912

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180912

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190527

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190604

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190731

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20191119

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20191219

R150 Certificate of patent or registration of utility model

Ref document number: 6636828

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150