JP2017158067A - Monitoring system, monitoring method, and monitoring program - Google Patents
Monitoring system, monitoring method, and monitoring program Download PDFInfo
- Publication number
- JP2017158067A JP2017158067A JP2016040526A JP2016040526A JP2017158067A JP 2017158067 A JP2017158067 A JP 2017158067A JP 2016040526 A JP2016040526 A JP 2016040526A JP 2016040526 A JP2016040526 A JP 2016040526A JP 2017158067 A JP2017158067 A JP 2017158067A
- Authority
- JP
- Japan
- Prior art keywords
- unit
- image
- super
- dictionary data
- resolution processing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000012544 monitoring process Methods 0.000 title claims abstract description 50
- 238000000034 method Methods 0.000 title claims description 22
- 238000012545 processing Methods 0.000 claims abstract description 153
- 238000003384 imaging method Methods 0.000 claims abstract description 42
- 238000010191 image analysis Methods 0.000 claims abstract description 11
- 238000001514 detection method Methods 0.000 claims 2
- 238000010586 diagram Methods 0.000 description 7
- 238000012986 modification Methods 0.000 description 6
- 230000004048 modification Effects 0.000 description 6
- 230000001133 acceleration Effects 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005401 electroluminescence Methods 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 238000012806 monitoring device Methods 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
Images
Landscapes
- Image Processing (AREA)
- Closed-Circuit Television Systems (AREA)
Abstract
Description
本発明の実施形態は、監視システム、監視方法、および監視プログラムに関する。 Embodiments described herein relate generally to a monitoring system, a monitoring method, and a monitoring program.
超解像処理によって画像を鮮明化する技術が知られている。従来の技術は、周辺物体を監視するシステムに適用する場合において、目標の種類や環境条件を限定せずに画像を鮮明化するものであった。 A technique for sharpening an image by super-resolution processing is known. The conventional technique, when applied to a system for monitoring a peripheral object, sharpens an image without limiting the type of target or environmental conditions.
本発明が解決しようとする課題は、複数種類の対象物が出現する可能性のある場面において、より正確に監視を行うことができる監視システムを提供することである。 The problem to be solved by the present invention is to provide a monitoring system capable of performing more accurate monitoring in a scene where a plurality of types of objects may appear.
実施形態の監視システムは、撮像部と、記憶部と、画像解析部と、表示部とを持つ。記憶部は、互いに異なる複数の超解像処理を実現するための係数を含む辞書データを記憶する。画像解析部は、前記撮像部により撮像された画像に対して、前記記憶部に記憶された複数の辞書データのいずれかを用いて超解像処理を行う。表示部は、前記画像解析部により超解像処理が行われた画像を表示する。 The monitoring system according to the embodiment includes an imaging unit, a storage unit, an image analysis unit, and a display unit. The storage unit stores dictionary data including coefficients for realizing a plurality of different super-resolution processes. The image analysis unit performs super-resolution processing on the image captured by the imaging unit using any of a plurality of dictionary data stored in the storage unit. The display unit displays the image on which the super-resolution processing has been performed by the image analysis unit.
以下、実施形態の監視システム、監視方法、および監視プログラムを、図面を参照して説明する。また、必要に応じてXYZ座標を用いて説明する。 Hereinafter, a monitoring system, a monitoring method, and a monitoring program according to embodiments will be described with reference to the drawings. Moreover, it demonstrates using a XYZ coordinate as needed.
図1は、監視システム1の構成の一例を示す図である。また、図2は、監視システム1の機能構成の一例を示す図である。図1に示すように、監視システム1は、例えば、車両や、船舶、航空機などの移動体に搭載される。また、監視システム1は、地上や海上に固定されてもよい。監視システム1は、周辺の対象物を監視する。図示する例では、監視システム1が、移動体である車両Sに搭載された例である。監視システム1の監視結果は表示部40に表示され、監視員SBによって視認される。
FIG. 1 is a diagram illustrating an example of the configuration of the
監視システム1は、例えば、撮像部10と、レーダ装置20と、センサ30と、表示部40と、画像処理装置50とを備える。撮像部10は、例えば、CCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)等の固体撮像素子を備える。撮像部10は、監視システム1の周辺を所定周期で繰り返し撮像し、撮像した画像のデータを画像処理装置50に出力する。
The
レーダ装置20は、電波を対象物などの物体に向けて放射し、対象物により反射された反射波を受信する。レーダ装置20は、電波を放射してから、反射波を受信するまでの時間や反射波の位相などに基づいて、レーダ装置20から対象物までの距離を特定する。レーダ装置20は、例えば、マイクロ波を放射するレーダである。また、レーダ装置20は、ミリ波レーダや、レーザレーダ等の他の種類のレーダ装置であってもよい。また、レーダ装置20は、フェーズドアレイレーダのように電子的に指向角を変更可能なものであってもよいし、機械的に水平方向に回転駆動されるものであってもよい。
The
センサ30は、監視システム1が搭載された移動体の運動量を計測する。センサ30は、例えば加速度センサや、ジャイロセンサ、方位センサなどである。
The
表示部40は、例えばLCD(Liquid Crystal Display)や有機EL(Electroluminescence)等の表示装置である。表示部40は、監視システム1の処理結果などを表示する。また、表示部40の他に、利用者の操作を受け付けるキーボードやマウス、マイク等の画像、音声及びその他の入力デバイス42を備える。表示部40が、タブレット端末である場合、入力デバイス42は、タブレット端末が有するタッチパネルであってもよい。
The
画像処理装置50は、前段画像処理部52、後段画像処理部54、および記憶部60を含んでもよいが、これに限定されない。前段画像処理部52、および後段画像処理部54は、CPU(Central Processing Unit)等のプロセッサがプログラムを実行することにより実現されてよい。また、前段画像処理部52、および後段画像処理部54は、LSI(Large Scale Integration)、ASIC(Application Specific Integrated Circuit)、FPGA(Field-Programmable Gate Array)等のハードウェアによって実現されてもよい。記憶部60は、例えば、RAM(Random Access Memory)やROM(Read Only Memory)、HDD(Hard Disk Drive)、フラッシュメモリ等の記憶装置により実現される。記憶部60には、画像データ62と、後述する辞書データ64とが記憶されている。画像データ62は、撮像部10により撮像された画像データと、画像処理装置50により処理された画像データとを含んでよい。
The
前段画像処理部52は、撮像部10により撮像された時系列の画像に対して、再構成による超解像処理を行う。再構成による超解像処理とは、複数の撮像フレーム間における移動量を高精度に推定した情報を用いて解像度を向上させる処理である。前段画像処理部52は、センサ30により検出された撮像部10の位置変化に基づいて、再構成による超解像処理を行う。
The pre-stage
後段画像処理部54は、前段画像処理部52によって再構成による超解像処理が行われた画像に対して、複数の辞書データ64のいずれかを用いて超解像処理を行う。後段画像処理部54は、入力デバイス42により受け付けられた操作に応じた対象物の種類に対応する辞書データ64を用いて超解像処理を行う。
The post-stage
図3は、監視システム1により実行される処理の流れを示すフローチャートである。本実施形態では、監視システム1は、1つの対象物に対して、各処理を実行する例について説明する。監視システム1は、複数の物体を対象物とする場合、後述する処理を各対象物に対して並行して実行する。
FIG. 3 is a flowchart showing a flow of processing executed by the
まず、画像処理装置50が、撮像部10により撮像された画像を取得する(ステップS100)。次に、前段画像処理部52が、再構成による超解像処理を実行する(ステップS102)。再構成による超解像処理において、前段画像処理部52は、複数フレーム画像における同一の対象物を含むと推定されるウインドウの位置を決定する。ウインドウは、撮像部10により撮像された画像における対象物を含むと考えられる一部の領域である。
First, the
例えば前段画像処理部52は、画像における特徴点、レーダ装置20から取得した情報、およびセンサ30から取得した情報の一部又は全部に基づいて、ウインドウの位置を決定する。
For example, the pre-stage
図4は、ウインドウWの決定について説明するための図である。図4(A)および図4(B)の(1)、(2)、および(3)は、各撮像フレームに対応しており、各撮像フレームは、図4(C)に示す画像IM(1)、IM(2)およびIM(3)に対応している。 FIG. 4 is a diagram for explaining the determination of the window W. (1), (2), and (3) in FIG. 4 (A) and FIG. 4 (B) correspond to each imaging frame, and each imaging frame corresponds to an image IM (shown in FIG. 4C). 1), IM (2) and IM (3).
前段画像処理部52は、レーダ装置20に取得された情報に基づいて、ウインドウWを決定する。前段画像処理部52は、対象物OBの移動量を取得すると、その移動量を加味して、ウインドウW内の同じ位置に対象物OBが位置するようにウインドウWの位置を決定する。この際に、前段画像処理部52は、実平面上の座標から画像平面上の座標への変換を行う。
The pre-stage
また、前段画像処理部52は、センサ30から撮像部10(または車両S)の方位(向き)や移動量、移動方向などを導出する。前段画像処理部52は、撮像部10の撮像方向、移動量、および移動方向を、画像におけるウインドウWの移動量および移動方向に変換して、撮像部10の方位や移動によるウインドウWの変化が打ち消されるようにウインドウWの位置を決定する。
Further, the pre-stage
また、前段画像処理部52は、撮像部10から取得した基準目標を決定し、決定した基準目標の画像における位置または大きさの変化に基づいて、ウインドウWを決定してもよい。基準目標は、地平線などの消失線であってもよいし、既知の静止物であってもよい。例えば、前段画像処理部52は、取得した画像中から消失線をハフ変換などの手法で検出し、画像中における消失線の動きを推定することにより、対象物OBの移動とは無関係な撮像方向の変化を検知する。そして、前段画像処理部52は、その変化を打ち消すようにウインドウWの位置を決定する。
Further, the pre-stage
前段画像処理部52は、上記の手法を組み合わせてウインドウWの位置を決定する。例えば、前段画像処理部52は、対象物OBの位置変化に基づくウインドウWの位置変化、撮像部10の方位などの変化に基づくウインドウWの位置変化、および基準目標の画像内の位置に基づくウインドウWの位置変化に対してそれぞれ重みを付け、加重和を求めることで、ウインドウWの位置を決定する。
The pre-stage
ウインドウWの位置を決定した後、前段画像処理部52は、複数フレーム画像のそれぞれのウインドウW内の画像に基づいて、再構成による超解像処理を行う。前段画像処理部52は、ウインドウW内の画像における対象物OBの動き(または向き)を検出し、検出した動きを考慮した高精細な画像を生成する。前段画像処理部52は、予め定められた数のウインドウW内の画像のうちから、基準とする基準フレーム画像を決定する。前段画像処理部52は、基準フレーム画像として選択しなかったフレーム画像である非基準フレーム画像毎に非剛体変形処理を行う。例えば、前段画像処理部52は、非基準フレーム画像における対象物OBの向きを、基準フレーム画像における対象物OBの向きに合わせるように処理を行う。前段画像処理部52は、例えば公知のFFD(Free form Deformation)や、他の公知の手法を用いて非剛体変形処理を行う。
After determining the position of the window W, the pre-stage
例えば、前段画像処理部52は、基準フレーム画像および非基準フレーム画像に対して、対象物OBが予め定めた画素数になるように画像における領域を縦方向および横方向に格子状に分割する。縦方向に分割しているラインと、横方向に分割しているラインとが交差する格子点を中心とした所望の領域が、1つの画素に相当する。前段画像処理部52は、処理対象の画像の対象物OBに対して、複数の特徴点を設定する。前段画像処理部52は、基準フレーム画像上に設定した各格子点に、水平方向、および垂直方向の係数を持たせる。前段画像処理部52は、非基準フレーム画像における複数の特徴点の位置を、基準フレーム画像上の位置に一致させる格子点の位置(係数)を算出する。
For example, the pre-stage
前段画像処理部52は、非基準フレーム画像の各格子点を、その格子点について算出した係数に基づいて移動させる。このとき、隣接する4つの格子点で囲まれる領域の画像は、これらの格子点の移動に応じて変形することにより、各非基準フレーム画像における対象物OBの向きが、基準フレーム画像における対象物OBの向きに合わせられる。そして、前段画像処理部52は、基準フレーム画像、および上述した処理を行った非基準フレーム画像において対応する画素の平均値や、加重平均値等を算出し、その平均値等を画素値として決定する。これにより、前段画像処理部52は、再構成による超解像処理行った画像を取得する。なお、前段画像処理部52は、自己合同性を用いたフレーム内再構成型超解像処理などを用いて拡大画像を取得してもよい。
The pre-stage
次に、後段画像処理部54が、辞書データ(1)による超解像処理を実行する(ステップS104)。例えば、後段画像処理部54は、対象物OBが含まれるウインドウWに対して超解像処理を実行する。記憶部60に記憶される辞書データ64は、辞書データ(1)から(n)を含むものとする。
Next, the post-stage
辞書データ64には、例えば撮像部10により撮像され得る対象物の種類ごとの辞書データが格納される。また、辞書データ64には、晴れや雨等の撮像条件ごとの辞書データが格納されてもよい。図5は、辞書データ64の一例を示す図である。図示する例では、対象物OBの種類と、撮像条件とに対して、辞書データの実体部分である係数が対応付けられている。
The
また、辞書データ64は、後段画像処理部54が、超解像処理した画像を取得するために、畳み込み演算を実行するときに必要な係数を含む。この辞書データ64は、例えば多数の正解データである高解像度データと低解像度データの組み合わせをディープラーニング(Deep Learning)等の手法で学習することで生成される。後段画像処理部54は、この学習により生成された辞書データ64を用いて、実際に取得した画像に対して畳み込み演算を実行し、高解像度画像(拡大画像)を取得する。このような学習型超解像処理は、様々あり、監視装置50は、他の公知の手法を用いて実現してもよい。
Further, the
次に、後段画像処理部54は、ステップS104で取得した超解像画像を表示部40に表示させる(ステップS106)。
Next, the post-stage
次に、後段画像処理部54が、辞書データ(2)による超解像処理を実行する(ステップS108)。後段画像処理部54は、上述したステップS102の処理と同様に、辞書データ(2)を用いて、超解像処理を実行する。次に、後段画像処理部54は、ステップS108で取得した超解像画像を表示部40に表示させる(ステップS110)。
Next, the post-stage
このように、辞書データを順次変更しながら、超解像画像を表示させていく。後段画像処理部54は、辞書データ(n)による超解像処理を実行し(ステップS112)、ステップS112で取得した超解像画像を表示部40に表示させる(ステップS114)。図6は、辞書データ64を順次変更しながら超解像処理が行われ、表示部40によって各辞書データ64に基づく画像IM(1)から(4)が表示される様子の一例を示す図である。
In this way, super-resolution images are displayed while sequentially changing the dictionary data. The post-stage
次に、後段画像処理部54は、利用者によって画像の選択操作がされたか否かを判定する(ステップS116)。利用者は、例えば表示部40に順次表示される画像を視認して、対象物OBが鮮明に認識することができる画像(例えば図6のIM(3))を選択する。一方、対象物OBが鮮明に認識することができる画像が存在せず、利用者によって画像の選択操作がされなかった場合、本フローチャートの1ルーチンは終了し、再度ステップS100からの処理が実行される。
Next, the post-stage
利用者によって画像の選択操作がされた場合、後段画像処理部54は、撮像部10により撮像された画像を取得する(ステップS118)。次に、後段画像処理部54は、ステップS118で取得した画像に対して、上述した処理と同様に再構成による超解像処理を実行し(ステップS120)、ステップS116で選択された画像に対応する辞書データ(k)による超解像処理を実行する(ステップS122)。
When an image selection operation is performed by the user, the post-stage
次に、後段画像処理部54は、ステップS122で取得した画像を表示部40に表示させる(ステップS124)。次に、後段画像処理部54は、利用者によりリセット操作がされたか否かを判定する(ステップS126)。利用者によりリセット操作がされていない場合、本フローチャートのステップS118の処理に戻り、超解像処理した画像を表示部40に表示する処理を繰り返す。利用者によりリセット操作がされた場合、本フローチャートの1ルーチンの処理は終了する。
Next, the post-stage
上述した処理によって、監視システム1は、鮮明に視認することができる対象物OBの画像を取得することができ、複数の対象物OBを並行して監視することができる。また、監視システム1は、撮像部10により撮像された画像におけるウインドウWの決定にレーダ装置20、またはセンサ30から取得した情報を加味することによって、より精度よく対象物を追跡し、追跡した対象物を含むウインドウWを決定することができる。
Through the above-described processing, the
図7は、画像が表示部40に表示される別の一例を示す図である。後段画像処理部54は、超解像処理により取得した画像を表示部40に一括して表示させてもよい。なお、後段画像処理部54は、鮮明度の高い画像の優先度を高く設定し、設定した優先度に基づいて、超解像度処理を行った画像を配置したり、順次表示部40に表示させたりしてもよい。
FIG. 7 is a diagram illustrating another example in which an image is displayed on the
なお、本実施形態では、監視システム1は、対象物OBに対して、各辞書データ64による超解像処理を実行するものとしたが、ステップS100で取得した画像またはステップS102で再構成による超解像処理した画像を表示部40に表示させ、超解像処理に用いる辞書データ64を利用者に選択させてもよい。
In the present embodiment, the
また、本実施形態では、監視システム1は、ステップS116で利用者の選択によって、選択した画像に対応する辞書データ64による超解像処理を実行するものとしたが、画像の鮮明度等の指標に基づいて、超解像処理に用いる辞書データ64を自動的に選択してもよい。
In the present embodiment, the
また、監視システム1は、鮮明度が最も高い画像を取得したときに用いた辞書データ64に対応付けられた対象物の種類を、その画像における対象物の種類と判定し、判定結果を表示部40に表示させてもよい。
The
以上説明した第1の実施形態によれば、後段画像処理部54が、撮像部10により撮像された画像に対して、複数の辞書データ64のいずれかを用いて超解像処理を行った画像を表示部40に表示することによって、複数種類の対象物OBが出現する可能性のある場面において、より正確に監視を行うことができる。
According to the first embodiment described above, the post-stage
(第1の実施形態の変形例)
以下、第1の実施形態の変形例について説明する。第1の実施形態の変形例の監視システム1では、辞書データ64による超解像処理によって取得した画像に対してパターンマッチングを行う。以下、第1の実施形態との相違点を中心に説明する。
(Modification of the first embodiment)
Hereinafter, modifications of the first embodiment will be described. In the
第1の実施形態の変形例の記憶部60は、画像データ62、および辞書データ64の他に、更に予め複数種類の対象物OBに対応した(撮像条件にも対応していてよい)パターン識別器辞書が記憶されている。識別器として機能する後段画像処理部54は、超解像処理が行われた画像に対してSobelフィルタ処理などで取得したエッジ強度や方向等の特徴量と、超解像処理において使用された辞書データ64の種類に対応するパターン識別器辞書との類似度を計算し、辞書データ64の種類の確からしさを判別する。
In addition to the
図8は、第1の実施形態の変形例の画像処理装置50により実行される処理の流れの一部を示すフローチャートである。本フローチャートのステップS200からステップS206の処理は、画像処理装置50により一つの辞書データ64が選択され、超解像処理が実行された後に実行される処理である。従って、図8のフローチャートの処理は、辞書データ64が順次選択されるのに応じて、辞書データ64の種類ごとに実行される。
FIG. 8 is a flowchart illustrating a part of the flow of processing executed by the
後段画像処理部54は、選択された辞書データ64を用いて超解像処理された画像を取得し、取得した画像を表示部40に表示させる(ステップS200)。
The post-stage
次に、後段画像処理部54は、表示部40に表示させた画像のうちウインドウ内の画像から得られる特徴量(前述)と、選択された辞書データ64の種類に対応するパターン識別器辞書との類似度を計算し(ステップS202)、ウインドウに含まれる対象物OBの種類が、選択された辞書データ64に対応する対象物OBの種類と合致しているか否かを判定する(ステップS204)。具体的には、後段画像処理部54は、ステップS202で計算された類似度が高い場合に、これらが合致していると判定する。これらが合致していない場合、ステップS206の処理がスキップされる。
Next, the latter-stage
ウインドウに含まれる対象物OBの種類が、選択された辞書データ64に対応する対象物OBの種類と合致している場合、後段画像処理部54は、辞書データ64を固定する(ステップS206)。これにより、画像処理装置50は、自動的に、対象物OBの超解像処理に適した辞書データ64を選択することができる。
If the type of the object OB included in the window matches the type of the object OB corresponding to the selected
以上説明した第1の実施形態の変形例の監視システム1は、超解像処理が行われた画像と、超解像処理において選択された辞書データ64の種類に対応するパターン識別器辞書とのマッチングを自動的に行い、マッチングの結果に基づいて、自動的に対象物OBに適した辞書データ64を選択する。この結果、第1の実施形態の効果と同様の効果を奏すると共に、利用者にとって利便性の高い画像処理装置50を提供することができる。
The
以上説明した少なくともひとつの実施形態によれば、撮像部10と、互いに異なる複数の辞書データ64を記憶する記憶部60と、撮像部10により撮像された画像に対して、記憶部60に記憶された複数の超解像処理を実現するための係数を含む辞書データ64のいずれかを用いて超解像処理を行う後段画像処理部54と、後段画像処理部54により超解像処理が行われた画像を表示する表示部40とを持つことにより、複数種類の対象物OBが出現する可能性のある場面において、より正確に監視を行うことができる。
According to at least one embodiment described above, the
本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれると同様に、特許請求の範囲に記載された発明とその均等の範囲に含まれるものである。 Although several embodiments of the present invention have been described, these embodiments are presented by way of example and are not intended to limit the scope of the invention. These embodiments can be implemented in various other forms, and various omissions, replacements, and changes can be made without departing from the spirit of the invention. These embodiments and their modifications are included in the scope and gist of the invention, and are also included in the invention described in the claims and the equivalents thereof.
1…監視システム、10…撮像部、20…レーダ装置、30…センサ、40…表示部、42…入力デバイス、50…画像処理装置、52…前段画像処理部、54…後段画像処理部、60…記憶部、62…画像データ、64…辞書データ
DESCRIPTION OF
Claims (10)
互いに異なる複数の超解像処理を実現するための係数を含む辞書データを記憶する記憶部と、
前記撮像部により撮像された画像に対して、前記記憶部に記憶された複数の辞書データのいずれかを用いて超解像処理を行う画像解析部と、
前記画像解析部により超解像処理が行われた画像を表示する表示部と、
を備える監視システム。 An imaging unit;
A storage unit for storing dictionary data including coefficients for realizing a plurality of different super-resolution processes;
An image analysis unit that performs super-resolution processing on the image captured by the imaging unit using any of a plurality of dictionary data stored in the storage unit;
A display unit for displaying an image subjected to super-resolution processing by the image analysis unit;
A monitoring system comprising:
請求項1記載の監視システム。 The plurality of dictionary data are dictionary data for each type of object that can be imaged by the imaging unit.
The monitoring system according to claim 1.
前記画像解析部は、前記受付部により受け付けられた操作に応じた対象物の種類に対応する辞書データを用いて超解像処理を行う、
請求項2記載の監視システム。 A reception unit that receives an operation of selecting a type of the object by a user;
The image analysis unit performs super-resolution processing using dictionary data corresponding to the type of object according to the operation received by the reception unit.
The monitoring system according to claim 2.
請求項1から3のうちいずれか1項記載の監視システム。 The plurality of dictionary data is dictionary data for each imaging condition.
The monitoring system according to any one of claims 1 to 3.
請求項1から4のうちいずれか1項記載の監視システム。 The image analysis unit sequentially selects the plurality of dictionary data, and sequentially displays the images subjected to super-resolution processing using the selected dictionary data on the display unit.
The monitoring system according to any one of claims 1 to 4.
前記画像解析部は、前記前段画像処理部によって再構成による超解像処理が行われた画像に対して、前記複数の辞書データを用いた超解像処理を行う、
請求項1から5のうちいずれか1項記載の監視システム。 A pre-stage image processing unit that performs super-resolution processing by reconstruction on the time-series images captured by the imaging unit;
The image analysis unit performs super-resolution processing using the plurality of dictionary data on the image that has been subjected to super-resolution processing by reconstruction by the pre-stage image processing unit.
The monitoring system according to any one of claims 1 to 5.
前記前段画像処理部は、前記位置変化検出部により検出された前記撮像部の位置変化に基づいて、再構成による超解像処理を行う、
請求項6記載の監視システム。 A position change detection unit for detecting a position change of the imaging unit;
The pre-stage image processing unit performs super-resolution processing by reconstruction based on the position change of the imaging unit detected by the position change detection unit.
The monitoring system according to claim 6.
前記前段画像処理部は、前記レーダ部により検出された前記対象物の位置変化に基づいて、再構成による超解像処理を行う、
請求項6または7記載の監視システム。 A radar unit that detects the position of an object is provided.
The pre-stage image processing unit performs super-resolution processing by reconstruction based on the position change of the object detected by the radar unit.
The monitoring system according to claim 6 or 7.
撮像部により取得された画像を取得し、
前記取得した画像に対して、互いに異なる複数の超解像処理を実現するための係数を含む辞書データを記憶する記憶部に記憶された複数の辞書データのいずれかを用いて超解像処理を行い、
前記超解像処理を行った画像を表示部に表示させる、
監視方法。 Computer
Acquire the image acquired by the imaging unit,
Super-resolution processing is performed on the acquired image using any of a plurality of dictionary data stored in a storage unit that stores dictionary data including coefficients for realizing a plurality of different super-resolution processing. Done
Displaying the image subjected to the super-resolution processing on a display unit;
Monitoring method.
撮像部により取得された画像を取得させ、
前記取得した画像に対して、互いに異なる複数の超解像処理を実現するための係数を含む辞書データを記憶する記憶部に記憶された複数の辞書データのいずれかを用いて超解像処理を行わせ、
前記超解像処理を行った画像を表示部に表示させる処理を行わせる、
監視プログラム。 On the computer,
The image acquired by the imaging unit is acquired,
Super-resolution processing is performed on the acquired image using any of a plurality of dictionary data stored in a storage unit that stores dictionary data including coefficients for realizing a plurality of different super-resolution processing. Let
Causing the display unit to display the image subjected to the super-resolution processing;
Monitoring program.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016040526A JP6636828B2 (en) | 2016-03-02 | 2016-03-02 | Monitoring system, monitoring method, and monitoring program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016040526A JP6636828B2 (en) | 2016-03-02 | 2016-03-02 | Monitoring system, monitoring method, and monitoring program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2017158067A true JP2017158067A (en) | 2017-09-07 |
JP6636828B2 JP6636828B2 (en) | 2020-01-29 |
Family
ID=59810436
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016040526A Active JP6636828B2 (en) | 2016-03-02 | 2016-03-02 | Monitoring system, monitoring method, and monitoring program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6636828B2 (en) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020021279A (en) * | 2018-07-31 | 2020-02-06 | グローリー株式会社 | Image processing device, image processing system, image processing method, and image processing program |
CN110857065A (en) * | 2018-08-23 | 2020-03-03 | 现代自动车株式会社 | Apparatus for controlling display of vehicle, system having the same, and method thereof |
JP2020060824A (en) * | 2018-10-05 | 2020-04-16 | グローリー株式会社 | Image processing apparatus, image processing system, image processing method and image processing program |
KR20210015951A (en) * | 2019-05-09 | 2021-02-10 | 선전 센스타임 테크놀로지 컴퍼니 리미티드 | Image processing method and apparatus, electronic device, and storage medium |
US11800185B2 (en) | 2018-12-28 | 2023-10-24 | Dwango Co., Ltd. | Image transmission and reception system, data transmission and reception system, transmission and reception method, computer program, image transmission system, image reception device, transmission system, reception device |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009048620A (en) * | 2007-07-20 | 2009-03-05 | Fujifilm Corp | Image processor, image processing method, and program |
JP2010272109A (en) * | 2009-04-20 | 2010-12-02 | Fujifilm Corp | Image processing system, image processing method, and program |
JP2011180798A (en) * | 2010-03-01 | 2011-09-15 | Sony Corp | Image processing apparatus, image processing method, and program |
JP2013031163A (en) * | 2011-06-24 | 2013-02-07 | Panasonic Corp | Super-resolution processing apparatus and super-resolution processing method |
WO2015198368A1 (en) * | 2014-06-24 | 2015-12-30 | 三菱電機株式会社 | Image processing device and image processing method |
-
2016
- 2016-03-02 JP JP2016040526A patent/JP6636828B2/en active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009048620A (en) * | 2007-07-20 | 2009-03-05 | Fujifilm Corp | Image processor, image processing method, and program |
JP2010272109A (en) * | 2009-04-20 | 2010-12-02 | Fujifilm Corp | Image processing system, image processing method, and program |
JP2011180798A (en) * | 2010-03-01 | 2011-09-15 | Sony Corp | Image processing apparatus, image processing method, and program |
JP2013031163A (en) * | 2011-06-24 | 2013-02-07 | Panasonic Corp | Super-resolution processing apparatus and super-resolution processing method |
WO2015198368A1 (en) * | 2014-06-24 | 2015-12-30 | 三菱電機株式会社 | Image processing device and image processing method |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020021279A (en) * | 2018-07-31 | 2020-02-06 | グローリー株式会社 | Image processing device, image processing system, image processing method, and image processing program |
JP7291464B2 (en) | 2018-07-31 | 2023-06-15 | グローリー株式会社 | Image processing device, image processing system, image processing method, and image processing program |
CN110857065A (en) * | 2018-08-23 | 2020-03-03 | 现代自动车株式会社 | Apparatus for controlling display of vehicle, system having the same, and method thereof |
JP2020060824A (en) * | 2018-10-05 | 2020-04-16 | グローリー株式会社 | Image processing apparatus, image processing system, image processing method and image processing program |
JP7266985B2 (en) | 2018-10-05 | 2023-05-01 | グローリー株式会社 | Image processing device, image processing system, image processing method, and image processing program |
US11800185B2 (en) | 2018-12-28 | 2023-10-24 | Dwango Co., Ltd. | Image transmission and reception system, data transmission and reception system, transmission and reception method, computer program, image transmission system, image reception device, transmission system, reception device |
KR20210015951A (en) * | 2019-05-09 | 2021-02-10 | 선전 센스타임 테크놀로지 컴퍼니 리미티드 | Image processing method and apparatus, electronic device, and storage medium |
KR102445193B1 (en) * | 2019-05-09 | 2022-09-19 | 선전 센스타임 테크놀로지 컴퍼니 리미티드 | Image processing method and apparatus, electronic device, and storage medium |
Also Published As
Publication number | Publication date |
---|---|
JP6636828B2 (en) | 2020-01-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20210056708A1 (en) | Target detection and training for target detection network | |
Pappas et al. | Superpixel-level CFAR detectors for ship detection in SAR imagery | |
JP6636828B2 (en) | Monitoring system, monitoring method, and monitoring program | |
CN109118542B (en) | Calibration method, device, equipment and storage medium between laser radar and camera | |
US9576375B1 (en) | Methods and systems for detecting moving objects in a sequence of image frames produced by sensors with inconsistent gain, offset, and dead pixels | |
CN114637023A (en) | System and method for laser depth map sampling | |
WO2016032735A1 (en) | Systems and methods for determining a seam | |
JP2021506017A (en) | Object detector and object detection method | |
CN111380510B (en) | Repositioning method and device and robot | |
JPWO2012141235A1 (en) | 3D point cloud position data processing apparatus, 3D point cloud position data processing system, 3D point cloud position data processing method and program | |
CN105989603A (en) | Machine vision image sensor calibration | |
CN109671061B (en) | Image analysis method and device, computing equipment and storage medium | |
EP2821935B1 (en) | Vehicle detection method and device | |
JP2016085602A (en) | Sensor information integrating method, and apparatus for implementing the same | |
US20240153103A1 (en) | Tracking-based motion deblurring via coded exposure | |
US10114545B2 (en) | Image location selection for use in depth photography system | |
CN114119652A (en) | Method and device for three-dimensional reconstruction and electronic equipment | |
Khaledian et al. | A new method for detecting variable-size infrared targets | |
JP2016206909A (en) | Information processor, and information processing method | |
CN108564626A (en) | Method and apparatus for determining the relative attitude angle being installed between the camera of acquisition entity | |
US11373315B2 (en) | Method and system for tracking motion of subjects in three dimensional scene | |
CN110728176B (en) | Unmanned aerial vehicle visual image feature rapid matching and extracting method and device | |
JP6976496B2 (en) | Image change detection device and image change detection method | |
JP6751063B2 (en) | Radar signal processing device, radar signal processing method, and program | |
WO2014178241A1 (en) | Image processing device, image processing method, and image processing program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A712 Effective date: 20170912 Free format text: JAPANESE INTERMEDIATE CODE: A711 Effective date: 20170912 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20180912 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20190527 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20190604 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190731 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20191119 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20191219 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6636828 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |