JP6636828B2 - 監視システム、監視方法、および監視プログラム - Google Patents

監視システム、監視方法、および監視プログラム Download PDF

Info

Publication number
JP6636828B2
JP6636828B2 JP2016040526A JP2016040526A JP6636828B2 JP 6636828 B2 JP6636828 B2 JP 6636828B2 JP 2016040526 A JP2016040526 A JP 2016040526A JP 2016040526 A JP2016040526 A JP 2016040526A JP 6636828 B2 JP6636828 B2 JP 6636828B2
Authority
JP
Japan
Prior art keywords
unit
super
image
dictionary data
resolution
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016040526A
Other languages
English (en)
Other versions
JP2017158067A (ja
Inventor
剛 仲野
剛 仲野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Toshiba Infrastructure Systems and Solutions Corp
Original Assignee
Toshiba Corp
Toshiba Infrastructure Systems and Solutions Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp, Toshiba Infrastructure Systems and Solutions Corp filed Critical Toshiba Corp
Priority to JP2016040526A priority Critical patent/JP6636828B2/ja
Publication of JP2017158067A publication Critical patent/JP2017158067A/ja
Application granted granted Critical
Publication of JP6636828B2 publication Critical patent/JP6636828B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Closed-Circuit Television Systems (AREA)
  • Image Processing (AREA)

Description

本発明の実施形態は、監視システム、監視方法、および監視プログラムに関する。
超解像処理によって画像を鮮明化する技術が知られている。従来の技術は、周辺物体を監視するシステムに適用する場合において、目標の種類や環境条件を限定せずに画像を鮮明化するものであった。
"Image Super-Resolution Using Deep Convolutional Networks", IEEE Transactions on Pattern Analysis and Machine Intelligence, Volume38, Issue2, Pages 295-307, Jun.7, 2015
本発明が解決しようとする課題は、複数種類の対象物が出現する可能性のある場面において、より正確に監視を行うことができる監視システムを提供することである。
実施形態の監視システムは、撮像部と、記憶部と、受付部と、画像解析部と、表示部とを持つ。記憶部は、互いに異なる複数の超解像処理を実現するための係数を含み、前記撮像部により撮像され得る対象物の種類ごとの複数の辞書データを記憶する。受付部は、利用者による前記対象物の種類を選択する操作を受け付ける。画像解析部は、前記撮像部により撮像された画像に対して、前記受付部により受け付けられた操作に応じた対象物の種類に対応する前記辞書データを用いて超解像処理を行う。表示部は、前記画像解析部により超解像処理が行われた画像を表示する。
監視システム1の構成の一例を示す図である。 監視システム1の機能構成の一例を示す図である。 監視システム1により実行される処理の流れを示すフローチャートである。 ウインドウWの決定について説明するための図である。 辞書データ64の一例を示す図である。 表示部40によって各辞書データ64に基づく画像IM(1)から(4)が表示される様子の一例を示す図である。 画像が表示部40に表示される別の一例を示す図である。 第1の実施形態の変形例の画像処理装置50により実行される処理の流れの一部を示すフローチャートである。
以下、実施形態の監視システム、監視方法、および監視プログラムを、図面を参照して説明する。また、必要に応じてXYZ座標を用いて説明する。
図1は、監視システム1の構成の一例を示す図である。また、図2は、監視システム1の機能構成の一例を示す図である。図1に示すように、監視システム1は、例えば、車両や、船舶、航空機などの移動体に搭載される。また、監視システム1は、地上や海上に固定されてもよい。監視システム1は、周辺の対象物を監視する。図示する例では、監視システム1が、移動体である車両Sに搭載された例である。監視システム1の監視結果は表示部40に表示され、監視員SBによって視認される。
監視システム1は、例えば、撮像部10と、レーダ装置20と、センサ30と、表示部40と、画像処理装置50とを備える。撮像部10は、例えば、CCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)等の固体撮像素子を備える。撮像部10は、監視システム1の周辺を所定周期で繰り返し撮像し、撮像した画像のデータを画像処理装置50に出力する。
レーダ装置20は、電波を対象物などの物体に向けて放射し、対象物により反射された反射波を受信する。レーダ装置20は、電波を放射してから、反射波を受信するまでの時間や反射波の位相などに基づいて、レーダ装置20から対象物までの距離を特定する。レーダ装置20は、例えば、マイクロ波を放射するレーダである。また、レーダ装置20は、ミリ波レーダや、レーザレーダ等の他の種類のレーダ装置であってもよい。また、レーダ装置20は、フェーズドアレイレーダのように電子的に指向角を変更可能なものであってもよいし、機械的に水平方向に回転駆動されるものであってもよい。
センサ30は、監視システム1が搭載された移動体の運動量を計測する。センサ30は、例えば加速度センサや、ジャイロセンサ、方位センサなどである。
表示部40は、例えばLCD(Liquid Crystal Display)や有機EL(Electroluminescence)等の表示装置である。表示部40は、監視システム1の処理結果などを表示する。また、表示部40の他に、利用者の操作を受け付けるキーボードやマウス、マイク等の画像、音声及びその他の入力デバイス42を備える。表示部40が、タブレット端末である場合、入力デバイス42は、タブレット端末が有するタッチパネルであってもよい。
画像処理装置50は、前段画像処理部52、後段画像処理部54、および記憶部60を含んでもよいが、これに限定されない。前段画像処理部52、および後段画像処理部54は、CPU(Central Processing Unit)等のプロセッサがプログラムを実行することにより実現されてよい。また、前段画像処理部52、および後段画像処理部54は、LSI(Large Scale Integration)、ASIC(Application Specific Integrated Circuit)、FPGA(Field-Programmable Gate Array)等のハードウェアによって実現されてもよい。記憶部60は、例えば、RAM(Random Access Memory)やROM(Read Only Memory)、HDD(Hard Disk Drive)、フラッシュメモリ等の記憶装置により実現される。記憶部60には、画像データ62と、後述する辞書データ64とが記憶されている。画像データ62は、撮像部10により撮像された画像データと、画像処理装置50により処理された画像データとを含んでよい。
前段画像処理部52は、撮像部10により撮像された時系列の画像に対して、再構成による超解像処理を行う。再構成による超解像処理とは、複数の撮像フレーム間における移動量を高精度に推定した情報を用いて解像度を向上させる処理である。前段画像処理部52は、センサ30により検出された撮像部10の位置変化に基づいて、再構成による超解像処理を行う。
後段画像処理部54は、前段画像処理部52によって再構成による超解像処理が行われた画像に対して、複数の辞書データ64のいずれかを用いて超解像処理を行う。後段画像処理部54は、入力デバイス42により受け付けられた操作に応じた対象物の種類に対応する辞書データ64を用いて超解像処理を行う。
図3は、監視システム1により実行される処理の流れを示すフローチャートである。本実施形態では、監視システム1は、1つの対象物に対して、各処理を実行する例について説明する。監視システム1は、複数の物体を対象物とする場合、後述する処理を各対象物に対して並行して実行する。
まず、画像処理装置50が、撮像部10により撮像された画像を取得する(ステップS100)。次に、前段画像処理部52が、再構成による超解像処理を実行する(ステップS102)。再構成による超解像処理において、前段画像処理部52は、複数フレーム画像における同一の対象物を含むと推定されるウインドウの位置を決定する。ウインドウは、撮像部10により撮像された画像における対象物を含むと考えられる一部の領域である。
例えば前段画像処理部52は、画像における特徴点、レーダ装置20から取得した情報、およびセンサ30から取得した情報の一部又は全部に基づいて、ウインドウの位置を決定する。
図4は、ウインドウWの決定について説明するための図である。図4(A)および図4(B)の(1)、(2)、および(3)は、各撮像フレームに対応しており、各撮像フレームは、図4(C)に示す画像IM(1)、IM(2)およびIM(3)に対応している。
前段画像処理部52は、レーダ装置20に取得された情報に基づいて、ウインドウWを決定する。前段画像処理部52は、対象物OBの移動量を取得すると、その移動量を加味して、ウインドウW内の同じ位置に対象物OBが位置するようにウインドウWの位置を決定する。この際に、前段画像処理部52は、実平面上の座標から画像平面上の座標への変換を行う。
また、前段画像処理部52は、センサ30から撮像部10(または車両S)の方位(向き)や移動量、移動方向などを導出する。前段画像処理部52は、撮像部10の撮像方向、移動量、および移動方向を、画像におけるウインドウWの移動量および移動方向に変換して、撮像部10の方位や移動によるウインドウWの変化が打ち消されるようにウインドウWの位置を決定する。
また、前段画像処理部52は、撮像部10から取得した基準目標を決定し、決定した基準目標の画像における位置または大きさの変化に基づいて、ウインドウWを決定してもよい。基準目標は、地平線などの消失線であってもよいし、既知の静止物であってもよい。例えば、前段画像処理部52は、取得した画像中から消失線をハフ変換などの手法で検出し、画像中における消失線の動きを推定することにより、対象物OBの移動とは無関係な撮像方向の変化を検知する。そして、前段画像処理部52は、その変化を打ち消すようにウインドウWの位置を決定する。
前段画像処理部52は、上記の手法を組み合わせてウインドウWの位置を決定する。例えば、前段画像処理部52は、対象物OBの位置変化に基づくウインドウWの位置変化、撮像部10の方位などの変化に基づくウインドウWの位置変化、および基準目標の画像内の位置に基づくウインドウWの位置変化に対してそれぞれ重みを付け、加重和を求めることで、ウインドウWの位置を決定する。
ウインドウWの位置を決定した後、前段画像処理部52は、複数フレーム画像のそれぞれのウインドウW内の画像に基づいて、再構成による超解像処理を行う。前段画像処理部52は、ウインドウW内の画像における対象物OBの動き(または向き)を検出し、検出した動きを考慮した高精細な画像を生成する。前段画像処理部52は、予め定められた数のウインドウW内の画像のうちから、基準とする基準フレーム画像を決定する。前段画像処理部52は、基準フレーム画像として選択しなかったフレーム画像である非基準フレーム画像毎に非剛体変形処理を行う。例えば、前段画像処理部52は、非基準フレーム画像における対象物OBの向きを、基準フレーム画像における対象物OBの向きに合わせるように処理を行う。前段画像処理部52は、例えば公知のFFD(Free form Deformation)や、他の公知の手法を用いて非剛体変形処理を行う。
例えば、前段画像処理部52は、基準フレーム画像および非基準フレーム画像に対して、対象物OBが予め定めた画素数になるように画像における領域を縦方向および横方向に格子状に分割する。縦方向に分割しているラインと、横方向に分割しているラインとが交差する格子点を中心とした所望の領域が、1つの画素に相当する。前段画像処理部52は、処理対象の画像の対象物OBに対して、複数の特徴点を設定する。前段画像処理部52は、基準フレーム画像上に設定した各格子点に、水平方向、および垂直方向の係数を持たせる。前段画像処理部52は、非基準フレーム画像における複数の特徴点の位置を、基準フレーム画像上の位置に一致させる格子点の位置(係数)を算出する。
前段画像処理部52は、非基準フレーム画像の各格子点を、その格子点について算出した係数に基づいて移動させる。このとき、隣接する4つの格子点で囲まれる領域の画像は、これらの格子点の移動に応じて変形することにより、各非基準フレーム画像における対象物OBの向きが、基準フレーム画像における対象物OBの向きに合わせられる。そして、前段画像処理部52は、基準フレーム画像、および上述した処理を行った非基準フレーム画像において対応する画素の平均値や、加重平均値等を算出し、その平均値等を画素値として決定する。これにより、前段画像処理部52は、再構成による超解像処理行った画像を取得する。なお、前段画像処理部52は、自己合同性を用いたフレーム内再構成型超解像処理などを用いて拡大画像を取得してもよい。
次に、後段画像処理部54が、辞書データ(1)による超解像処理を実行する(ステップS104)。例えば、後段画像処理部54は、対象物OBが含まれるウインドウWに対して超解像処理を実行する。記憶部60に記憶される辞書データ64は、辞書データ(1)から(n)を含むものとする。
辞書データ64には、例えば撮像部10により撮像され得る対象物の種類ごとの辞書データが格納される。また、辞書データ64には、晴れや雨等の撮像条件ごとの辞書データが格納されてもよい。図5は、辞書データ64の一例を示す図である。図示する例では、対象物OBの種類と、撮像条件とに対して、辞書データの実体部分である係数が対応付けられている。
また、辞書データ64は、後段画像処理部54が、超解像処理した画像を取得するために、畳み込み演算を実行するときに必要な係数を含む。この辞書データ64は、例えば多数の正解データである高解像度データと低解像度データの組み合わせをディープラーニング(Deep Learning)等の手法で学習することで生成される。後段画像処理部54は、この学習により生成された辞書データ64を用いて、実際に取得した画像に対して畳み込み演算を実行し、高解像度画像(拡大画像)を取得する。このような学習型超解像処理は、様々あり、監視装置50は、他の公知の手法を用いて実現してもよい。
次に、後段画像処理部54は、ステップS104で取得した超解像画像を表示部40に表示させる(ステップS106)。
次に、後段画像処理部54が、辞書データ(2)による超解像処理を実行する(ステップS108)。後段画像処理部54は、上述したステップS102の処理と同様に、辞書データ(2)を用いて、超解像処理を実行する。次に、後段画像処理部54は、ステップS108で取得した超解像画像を表示部40に表示させる(ステップS110)。
このように、辞書データを順次変更しながら、超解像画像を表示させていく。後段画像処理部54は、辞書データ(n)による超解像処理を実行し(ステップS112)、ステップS112で取得した超解像画像を表示部40に表示させる(ステップS114)。図6は、辞書データ64を順次変更しながら超解像処理が行われ、表示部40によって各辞書データ64に基づく画像IM(1)から(4)が表示される様子の一例を示す図である。
次に、後段画像処理部54は、利用者によって画像の選択操作がされたか否かを判定する(ステップS116)。利用者は、例えば表示部40に順次表示される画像を視認して、対象物OBが鮮明に認識することができる画像(例えば図6のIM(3))を選択する。一方、対象物OBが鮮明に認識することができる画像が存在せず、利用者によって画像の選択操作がされなかった場合、本フローチャートの1ルーチンは終了し、再度ステップS100からの処理が実行される。
利用者によって画像の選択操作がされた場合、後段画像処理部54は、撮像部10により撮像された画像を取得する(ステップS118)。次に、後段画像処理部54は、ステップS118で取得した画像に対して、上述した処理と同様に再構成による超解像処理を実行し(ステップS120)、ステップS116で選択された画像に対応する辞書データ(k)による超解像処理を実行する(ステップS122)。
次に、後段画像処理部54は、ステップS122で取得した画像を表示部40に表示させる(ステップS124)。次に、後段画像処理部54は、利用者によりリセット操作がされたか否かを判定する(ステップS126)。利用者によりリセット操作がされていない場合、本フローチャートのステップS118の処理に戻り、超解像処理した画像を表示部40に表示する処理を繰り返す。利用者によりリセット操作がされた場合、本フローチャートの1ルーチンの処理は終了する。
上述した処理によって、監視システム1は、鮮明に視認することができる対象物OBの画像を取得することができ、複数の対象物OBを並行して監視することができる。また、監視システム1は、撮像部10により撮像された画像におけるウインドウWの決定にレーダ装置20、またはセンサ30から取得した情報を加味することによって、より精度よく対象物を追跡し、追跡した対象物を含むウインドウWを決定することができる。
図7は、画像が表示部40に表示される別の一例を示す図である。後段画像処理部54は、超解像処理により取得した画像を表示部40に一括して表示させてもよい。なお、後段画像処理部54は、鮮明度の高い画像の優先度を高く設定し、設定した優先度に基づいて、超解像度処理を行った画像を配置したり、順次表示部40に表示させたりしてもよい。
なお、本実施形態では、監視システム1は、対象物OBに対して、各辞書データ64による超解像処理を実行するものとしたが、ステップS100で取得した画像またはステップS102で再構成による超解像処理した画像を表示部40に表示させ、超解像処理に用いる辞書データ64を利用者に選択させてもよい。
また、本実施形態では、監視システム1は、ステップS116で利用者の選択によって、選択した画像に対応する辞書データ64による超解像処理を実行するものとしたが、画像の鮮明度等の指標に基づいて、超解像処理に用いる辞書データ64を自動的に選択してもよい。
また、監視システム1は、鮮明度が最も高い画像を取得したときに用いた辞書データ64に対応付けられた対象物の種類を、その画像における対象物の種類と判定し、判定結果を表示部40に表示させてもよい。
以上説明した第1の実施形態によれば、後段画像処理部54が、撮像部10により撮像された画像に対して、複数の辞書データ64のいずれかを用いて超解像処理を行った画像を表示部40に表示することによって、複数種類の対象物OBが出現する可能性のある場面において、より正確に監視を行うことができる。
(第1の実施形態の変形例)
以下、第1の実施形態の変形例について説明する。第1の実施形態の変形例の監視システム1では、辞書データ64による超解像処理によって取得した画像に対してパターンマッチングを行う。以下、第1の実施形態との相違点を中心に説明する。
第1の実施形態の変形例の記憶部60は、画像データ62、および辞書データ64の他に、更に予め複数種類の対象物OBに対応した(撮像条件にも対応していてよい)パターン識別器辞書が記憶されている。識別器として機能する後段画像処理部54は、超解像処理が行われた画像に対してSobelフィルタ処理などで取得したエッジ強度や方向等の特徴量と、超解像処理において使用された辞書データ64の種類に対応するパターン識別器辞書との類似度を計算し、辞書データ64の種類の確からしさを判別する。
図8は、第1の実施形態の変形例の画像処理装置50により実行される処理の流れの一部を示すフローチャートである。本フローチャートのステップS200からステップS206の処理は、画像処理装置50により一つの辞書データ64が選択され、超解像処理が実行された後に実行される処理である。従って、図8のフローチャートの処理は、辞書データ64が順次選択されるのに応じて、辞書データ64の種類ごとに実行される。
後段画像処理部54は、選択された辞書データ64を用いて超解像処理された画像を取得し、取得した画像を表示部40に表示させる(ステップS200)。
次に、後段画像処理部54は、表示部40に表示させた画像のうちウインドウ内の画像から得られる特徴量(前述)と、選択された辞書データ64の種類に対応するパターン識別器辞書との類似度を計算し(ステップS202)、ウインドウに含まれる対象物OBの種類が、選択された辞書データ64に対応する対象物OBの種類と合致しているか否かを判定する(ステップS204)。具体的には、後段画像処理部54は、ステップS202で計算された類似度が高い場合に、これらが合致していると判定する。これらが合致していない場合、ステップS206の処理がスキップされる。
ウインドウに含まれる対象物OBの種類が、選択された辞書データ64に対応する対象物OBの種類と合致している場合、後段画像処理部54は、辞書データ64を固定する(ステップS206)。これにより、画像処理装置50は、自動的に、対象物OBの超解像処理に適した辞書データ64を選択することができる。
以上説明した第1の実施形態の変形例の監視システム1は、超解像処理が行われた画像と、超解像処理において選択された辞書データ64の種類に対応するパターン識別器辞書とのマッチングを自動的に行い、マッチングの結果に基づいて、自動的に対象物OBに適した辞書データ64を選択する。この結果、第1の実施形態の効果と同様の効果を奏すると共に、利用者にとって利便性の高い画像処理装置50を提供することができる。
以上説明した少なくともひとつの実施形態によれば、撮像部10と、互いに異なる複数の辞書データ64を記憶する記憶部60と、撮像部10により撮像された画像に対して、記憶部60に記憶された複数の超解像処理を実現するための係数を含む辞書データ64のいずれかを用いて超解像処理を行う後段画像処理部54と、後段画像処理部54により超解像処理が行われた画像を表示する表示部40とを持つことにより、複数種類の対象物OBが出現する可能性のある場面において、より正確に監視を行うことができる。
本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれると同様に、特許請求の範囲に記載された発明とその均等の範囲に含まれるものである。
1…監視システム、10…撮像部、20…レーダ装置、30…センサ、40…表示部、42…入力デバイス、50…画像処理装置、52…前段画像処理部、54…後段画像処理部、60…記憶部、62…画像データ、64…辞書データ

Claims (8)

  1. 撮像部と、
    互いに異なる複数の超解像処理を実現するための係数を含み、前記撮像部により撮像され得る対象物の種類ごとの複数の辞書データを記憶する記憶部と、
    利用者による前記対象物の種類を選択する操作を受け付ける受付部と、
    前記撮像部により撮像された画像に対して、前記受付部により受け付けられた操作に応じた対象物の種類に対応する前記辞書データを用いて超解像処理を行う画像解析部と、
    前記画像解析部により超解像処理が行われた画像を表示する表示部と、
    を備える監視システム。
  2. 撮像部と
    互いに異なる複数の超解像処理を実現するための係数を含む辞書データを記憶する記憶部と、
    前記撮像部により撮像された画像に対して、前記記憶部に記憶された複数の辞書データを順次選択し、前記選択した辞書データを用いて超解像処理を行った画像を順次、表示部に表示させる画像解析部と、
    を備える監視システム。
  3. 前記複数の辞書データは、撮像条件ごとの辞書データである、
    請求項1または2に記載の監視システム。
  4. 前記撮像部により撮像された時系列の画像に対して、再構成による超解像処理を行う前段画像処理部を更に備え、
    前記画像解析部は、前記前段画像処理部によって再構成による超解像処理が行われた画像に対して、前記複数の辞書データを用いた超解像処理を行う、
    請求項1からのうちいずれか1項記載の監視システム。
  5. 前記撮像部の位置変化を検出する位置変化検出部を備え、
    前記前段画像処理部は、前記位置変化検出部により検出された前記撮像部の位置変化に基づいて、再構成による超解像処理を行う、
    請求項4に記載の監視システム。
  6. 対象物の位置を検出するレーダ部を備え、
    前記前段画像処理部は、前記レーダ部により検出された前記対象物の位置変化に基づいて、再構成による超解像処理を行う、
    請求項4または5に記載の監視システム。
  7. コンピュータが、
    利用者による対象物の種類を選択する操作を受け付け、
    撮像部により撮像された画像に対して、互いに異なる複数の超解像処理を実現するための係数を含み、前記撮像部により撮像され得る対象物の種類ごとの複数の辞書データを記憶する記憶部に記憶され、前記受け付けられた操作に応じた対象物の種類に対応する前記辞書データを用いて超解像処理を行い、
    前記超解像処理が行われた画像を表示部に表示させる、
    監視方法。
  8. コンピュータに、
    利用者による対象物の種類を選択する操作を受け付けさせ、
    撮像部により撮像された画像に対して、互いに異なる複数の超解像処理を実現するための係数を含み、前記撮像部により撮像され得る対象物の種類ごとの複数の辞書データを記憶する記憶部に記憶され、前記受け付けられた操作に応じた対象物の種類に対応する前記辞書データを用いて超解像処理を行わせ、
    前記超解像処理が行われた画像を表示部に表示させる、
    監視プログラム。
JP2016040526A 2016-03-02 2016-03-02 監視システム、監視方法、および監視プログラム Active JP6636828B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016040526A JP6636828B2 (ja) 2016-03-02 2016-03-02 監視システム、監視方法、および監視プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016040526A JP6636828B2 (ja) 2016-03-02 2016-03-02 監視システム、監視方法、および監視プログラム

Publications (2)

Publication Number Publication Date
JP2017158067A JP2017158067A (ja) 2017-09-07
JP6636828B2 true JP6636828B2 (ja) 2020-01-29

Family

ID=59810436

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016040526A Active JP6636828B2 (ja) 2016-03-02 2016-03-02 監視システム、監視方法、および監視プログラム

Country Status (1)

Country Link
JP (1) JP6636828B2 (ja)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7291464B2 (ja) * 2018-07-31 2023-06-15 グローリー株式会社 画像処理装置、画像処理システム、画像処理方法、および画像処理プログラム
KR102634348B1 (ko) * 2018-08-23 2024-02-07 현대자동차주식회사 차량 디스플레이 제어 장치, 그를 포함한 시스템 및 그 방법
JP7266985B2 (ja) * 2018-10-05 2023-05-01 グローリー株式会社 画像処理装置、画像処理システム、画像処理方法、及び、画像処理プログラム
JP6900359B2 (ja) 2018-12-28 2021-07-07 株式会社ドワンゴ 画像送受信システム、データ送受信システム、送受信方法、コンピュータ・プログラム、画像送信システム、画像受信装置、送信システム、受信装置
CN110084775B (zh) * 2019-05-09 2021-11-26 深圳市商汤科技有限公司 图像处理方法及装置、电子设备和存储介质

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009048620A (ja) * 2007-07-20 2009-03-05 Fujifilm Corp 画像処理装置、画像処理方法、およびプログラム
JP2010272109A (ja) * 2009-04-20 2010-12-02 Fujifilm Corp 画像処理装置、画像処理方法およびプログラム
JP2011180798A (ja) * 2010-03-01 2011-09-15 Sony Corp 画像処理装置、および画像処理方法、並びにプログラム
JP2013031163A (ja) * 2011-06-24 2013-02-07 Panasonic Corp 超解像処理装置及び超解像処理方法
WO2015198368A1 (ja) * 2014-06-24 2015-12-30 三菱電機株式会社 画像処理装置及び画像処理方法

Also Published As

Publication number Publication date
JP2017158067A (ja) 2017-09-07

Similar Documents

Publication Publication Date Title
JP6636828B2 (ja) 監視システム、監視方法、および監視プログラム
US11854173B2 (en) System and method for finding lines in an image with a vision system
US9576375B1 (en) Methods and systems for detecting moving objects in a sequence of image frames produced by sensors with inconsistent gain, offset, and dead pixels
US11164003B2 (en) System and method for detecting objects in video sequences
CN108780569A (zh) 用于图像分辨率增强的系统和方法
US20150253863A1 (en) Image Processor Comprising Gesture Recognition System with Static Hand Pose Recognition Based on First and Second Sets of Features
US20170188017A1 (en) Depth maps generated from a single sensor
CN105989603A (zh) 机器视觉图像传感器校准
JP6526955B2 (ja) センサ情報統合方法、及びその装置
US11170512B2 (en) Image processing apparatus and method, and image processing system
US20240153103A1 (en) Tracking-based motion deblurring via coded exposure
EP3207523B1 (en) Obstacle detection apparatus and method
JP5523298B2 (ja) 目標類識別装置
Zhang et al. Green Apple Detection Method Based on Optimized YOLOv5 Under Orchard Environment [J]
JP5335554B2 (ja) 画像処理装置及び画像処理方法
JP2018063675A (ja) 画像処理装置および制御方法
RU2737193C1 (ru) Способ наблюдения за движущимся телом
JP2016206909A (ja) 情報処理装置、情報処理方法
JP6976496B2 (ja) 画像変化検出装置及び画像変化検出方法
US11373315B2 (en) Method and system for tracking motion of subjects in three dimensional scene
JP2018092507A (ja) 画像処理装置、画像処理方法及びプログラム
WO2014178241A1 (ja) 画像処理装置、画像処理方法および画像処理プログラム
JP6602606B2 (ja) 代表静止画を決定するための代表静止画決定装置、プログラム、レーダ装置、およびレーダ装置を搭載する航空機
Petrou et al. Super-resolution in practice: the complete pipeline from image capture to super-resolved subimage creation using a novel frame selection method
US20230334820A1 (en) Image processing apparatus, image processing method, and non-transitory computer-readable storage medium

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20170912

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20170912

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180912

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190527

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190604

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190731

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20191119

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20191219

R150 Certificate of patent or registration of utility model

Ref document number: 6636828

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150