JP2020065248A - Image processing apparatus, image processing system, image processing method and program - Google Patents
Image processing apparatus, image processing system, image processing method and program Download PDFInfo
- Publication number
- JP2020065248A JP2020065248A JP2019161379A JP2019161379A JP2020065248A JP 2020065248 A JP2020065248 A JP 2020065248A JP 2019161379 A JP2019161379 A JP 2019161379A JP 2019161379 A JP2019161379 A JP 2019161379A JP 2020065248 A JP2020065248 A JP 2020065248A
- Authority
- JP
- Japan
- Prior art keywords
- unit
- frame
- display
- image processing
- graph
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Image Analysis (AREA)
- Closed-Circuit Television Systems (AREA)
Abstract
Description
本発明は、画像処理装置、画像処理システム、画像処理方法およびプログラムに関する。 The present invention relates to an image processing device, an image processing system, an image processing method and a program.
近年、ビデオカメラ等の撮像装置により録画して得られた映像データを分析して、目的物の検出、または、映像上の物体の動きもしくは異常の検出または分析等を行う画像処理システムの発展が著しい。このような画像処理システムとして、過去の映像データにおいて、表示される映像を複数のブロックに分割し、映像データを構成するフレーム同士について、対応するブロックの画素についての差分を演算し、差分が所定の閾値を超えた場合に動きがあったものとして検出信号を生成するシステムが提案されている(特許文献1参照)。 In recent years, the development of image processing systems that analyze video data obtained by recording with an imaging device such as a video camera to detect a target object or to detect or analyze movement or abnormality of an object on the video has been developed. Remarkable. As such an image processing system, in the past video data, the video to be displayed is divided into a plurality of blocks, and for the frames forming the video data, the difference between the pixels of the corresponding blocks is calculated, and the difference is predetermined. There has been proposed a system that generates a detection signal assuming that there is motion when the threshold value is exceeded (see Patent Document 1).
しかしながら、特許文献1に記載された技術は、映像データを構成するフレームの画素についての差分についてグラフを表示するものではないので、例えば、差分が閾値を超えた時刻の特定、およびその前後の状態を把握することができないという問題点があった。また、演算した差分のいずれかが所定の閾値を超えたことを検出できても、差分が閾値を超えた時刻を特定することができないので、その時刻またはその時刻前後の映像箇所を探索するのが困難であるという問題点もあった。
However, the technique described in
本発明は、上記に鑑みてなされたものであって、所望の映像を素早く表示させることができる画像処理装置、画像処理システム、画像処理方法およびプログラムを提供することを目的とする。 The present invention has been made in view of the above, and an object of the present invention is to provide an image processing device, an image processing system, an image processing method, and a program capable of quickly displaying a desired video.
上述した課題を解決し、目的を達成するために、本発明は、表示手段と、撮像手段により撮像された映像データを前記表示手段に再生表示させる再生手段と、前記映像データに含まれるフレームごとに画素値の特徴量を演算する演算手段と、前記演算手段により演算された前記特徴量によって、該特徴量を時系列に表すグラフを生成して前記表示手段に表示させる生成手段と、前記表示手段により表示された前記グラフの表示領域のいずれかの部分を指定し、前記部分に対応する前記フレームを、前記再生手段により前記表示手段に表示させるフレーム指定手段と、を備えたことを特徴とする。 In order to solve the above-mentioned problems and to achieve the object, the present invention provides a display unit, a reproduction unit that reproduces and displays video data captured by an image capturing unit on the display unit, and a frame included in the video data. Calculating means for calculating the feature quantity of the pixel value, generating means for generating a graph representing the feature quantity in time series by the feature quantity calculated by the calculating means, and displaying the graph on the display means; Frame designating means for designating any part of the display area of the graph displayed by the means and causing the reproducing means to display the frame corresponding to the part on the display means. To do.
本発明によれば、所望の映像を素早く表示させることができる。 According to the present invention, a desired image can be displayed quickly.
以下に、図面を参照しながら、本発明に係る画像処理装置、画像処理システム、画像処理方法およびプログラムの実施の形態を詳細に説明する。また、以下の実施の形態によって本発明が限定されるものではなく、以下の実施の形態における構成要素には、当業者が容易に想到できるもの、実質的に同一のもの、およびいわゆる均等の範囲のものが含まれる。さらに、以下の実施の形態の要旨を逸脱しない範囲で構成要素の種々の省略、置換、変更および組み合わせを行うことができる。 Embodiments of an image processing apparatus, an image processing system, an image processing method, and a program according to the present invention will be described in detail below with reference to the drawings. The present invention is not limited to the following embodiments, and constituent elements in the following embodiments can be easily conceived by those skilled in the art, substantially the same, and so-called equivalent ranges. Included. Furthermore, various omissions, replacements, changes and combinations of the constituent elements can be made without departing from the scope of the following embodiments.
(画像処理システムの全体構成)
図1は、実施の形態に係る画像処理システムの全体構成の一例を示す図である。図1を参照しながら、本実施の形態の画像処理システム1の全体構成について説明する。
(Overall structure of image processing system)
FIG. 1 is a diagram showing an example of the overall configuration of an image processing system according to an embodiment. The overall configuration of the
図1に示すように、本実施の形態の画像処理システム1は、撮像装置2a〜2dと、情報処理装置3と、ネットワーク4と、を含む。
As shown in FIG. 1, the
撮像装置2a〜2dは、被写体からの光を電気信号に変換することによって被写体を撮像(撮影)し、複数のフレーム(画像データ)で構成(例えば、10[FPS])された動画である映像データを生成するビデオカメラである。例えば、撮像装置2a〜2dは、製品を生産する生産設備等を撮像し、予期しない動きを検出かつ分析するための映像データを生成する。
The
なお、撮像装置2a〜2dを区別なく呼称する場合、または総称する場合、単に「撮像装置2」というものとする。また、図1では、画像処理システム1は、4台の撮像装置2を含む構成となっているが、これに限定されるものではなく、他の台数の撮像装置2を含む構成であってもよい。
When the
情報処理装置3は、撮像装置2によって撮像された映像データに対して画像処理を実行する画像処理装置として機能するPCまたワークステーション等である。情報処理装置3による映像データに対する画像処理については、後述する。
The
ネットワーク4は、撮像装置2a〜2dと、情報処理装置3とを接続するための、例えば、Ethernet(登録商標)規格のネットワークである。この場合、ネットワーク4では、TCP(Transmission Control Protocol)/IP(Internet Protocol)等のプロトコルによりデータ通信が行われる。また、この場合、撮像装置2a〜2dおよび情報処理装置3は、TCP/IPのプロトコルにより通信するためのMACアドレスを有し、かつプライベートIPアドレス等のIPアドレスが割り当てられている。また、ネットワーク4の具体的な構成は、例えば、複数のポートを有するスイッチングハブに撮像装置2a〜2dおよび情報処理装置3それぞれがLAN(Local Area Network)ケーブルによって接続されたスター配線形式である。
The
なお、撮像装置2a〜2dにより撮像された映像データは、必ずしも、情報処理装置3に記憶される必要はない。例えば、ネットワーク4にデータベースサーバが接続され、撮像装置2a〜2dにより撮像された映像データは、ネットワーク4を介してデータベースサーバに蓄積されるものとしてもよい。この場合、情報処理装置3は、データベースサーバから目的とする映像データを取得し、取得した映像データに対して画像処理を実行するものとすればよい。
The video data captured by the image capturing
また、図1に示すネットワーク4は、TCP/IPにより通信される例であるが、これに限定されるものではなく、例えば、情報処理装置3側にVGA(Video Graphics Array)端子またはUSB(Universal Serial Bus)ポートを複数有し、複数の撮像装置2がそれぞれVGAケーブルまたはUSBケーブルで情報処理装置3に接続された形態等であってもよい。
The
(情報処理装置のハードウェア構成)
図2は、実施の形態の情報処理装置のハードウェア構成の一例を示す図である。図2を参照しながら、本実施の形態の情報処理装置3のハードウェア構成について説明する。
(Hardware configuration of information processing device)
FIG. 2 is a diagram illustrating an example of a hardware configuration of the information processing device according to the embodiment. The hardware configuration of the
図2に示すように、情報処理装置3は、CPU(Central Processing Unit)101と、ROM(Read Only Memory)102と、RAM(Random Access Memory)103と、外部記憶装置104と、ディスプレイ105と、ネットワークI/F106と、キーボード107と、マウス108と、DVD(Digital Versatile Disc)ドライブ109と、を備えている。
As shown in FIG. 2, the
CPU101は、情報処理装置3全体の動作を制御する装置である。ROM102は、情報処理装置3用のプログラムを記憶している不揮発性記憶装置である。RAM103は、CPU101のワークエリアとして使用される揮発性記憶装置である。
The
外部記憶装置104は、撮像装置2により撮像された映像データ、および設定情報等の各種データを記憶するHDD(Hard Disk Drive)またはSSD(Solid State Drive)等の記憶装置である。
The
ディスプレイ105は、カーソル、メニュー、ウィンドウ、文字もしくは画像等の各種情報、または情報処理装置3による画像処理を実行するアプリケーションの画面を表示する表示装置である。ディスプレイ105は、例えば、CRT(Cathode Ray Tube)ディスプレイ、液晶ディスプレイ、プラズマディスプレイまたは有機EL(Electroluminescence)ディスプレイ等である。なお、ディスプレイ105は、例えば、情報処理装置3の本体に対して、VGAケーブルまたはHDMI(登録商標)(High−Definition Multimedia Interface)ケーブル等によって接続されたり、または、Ethernetケーブルによって接続される。
The
ネットワークI/F106は、ネットワーク4に接続してデータ通信するためのNIC(Network Interface Card)である。具体的には、情報処理装置3は、撮像装置2から、ネットワーク4およびネットワークI/F106を介して、映像データを取得する。
The network I / F 106 is a NIC (Network Interface Card) for connecting to the
キーボード107は、文字、数字、各種指示の選択、カーソルの移動、および設定情報の選択等を行う入力装置である。マウス108は、各種指示の選択および実行、処理対象の選択、カーソルの移動、ならびに設定情報の選択等を行うための入力装置である。
The
DVDドライブ109は、着脱自在な記憶媒体の一例としてのDVD110に対するデータの読み出し、書き込みおよび削除を制御する装置である。
The
上述のCPU101、ROM102、RAM103、外部記憶装置104、ディスプレイ105、ネットワークI/F106、キーボード107、マウス108およびDVDドライブ109は、アドレスバスおよびデータバス等のバス111によって互いに通信可能に接続されている。なお、ディスプレイ105が、Ethernetケーブルによって接続される場合には、ネットワークI/F106に接続されることになり、この場合、TCP/IP等のプロトコルによりデータ通信が行われる。
The
(情報処理装置のブロック構成)
図3は、実施の形態の情報処理装置の機能ブロックの構成の一例を示す図である。図3を参照しながら、情報処理装置3のブロック構成について説明する。
(Block configuration of information processing device)
FIG. 3 is a diagram illustrating an example of a configuration of functional blocks of the information processing device according to the embodiment. The block configuration of the
図3に示すように、情報処理装置3は、映像受信部301と、記憶部302と、入力装置303(フレーム指定手段、入力手段、表示操作手段)と、設定部304と、再生部305(再生手段)と、領域指定部306(領域指定手段)と、フレーム取得部307(取得手段)と、差分演算部308(演算手段の一例)と、グラフ生成部309(生成手段)と、補助情報生成部310(閾値算出手段の一例)と、表示制御部311と、表示装置312(表示手段)と、を備えている。
As illustrated in FIG. 3, the
映像受信部301は、ネットワーク4を介して、撮像装置2とデータ通信を行い、撮像装置2から映像データを受信する機能部である。映像受信部301は、受信した映像データを記憶部302に記憶させる。映像受信部301は、図2に示すネットワークI/F106によって実現される。なお、図3においては、説明を簡略化するため、ネットワーク4の図示を省略して説明する。
The
記憶部302は、映像受信部301により受信された映像データ、および各種設定情報等を記憶する記憶装置である。記憶部302は、映像受信部301により受信された映像データが、どの撮像装置2により生成された映像データであるかを識別して記憶する。記憶部302は、例えば、図2に示す外部記憶装置104によって実現される。
The
入力装置303は、情報処理装置3が実行する画像処理のために操作入力を行うための装置である。入力装置303は、図2に示すキーボード107およびマウス108によって実現される。
The
設定部304は、ユーザにより操作される入力装置303からの操作信号に従って、設定情報を設定して記憶部302に記憶させる機能部である。また、設定部304は、設定した設定情報のうち、表示する必要がある情報を、記憶部302から表示制御部311に送り、表示制御部311に対して設定情報を表示装置312に表示させる。設定部304は、図2に示すCPU101により実行されるプログラムにより実現される。
The
再生部305は、ユーザにより操作される入力装置303からの操作信号に従って、記憶部302から取得した映像データを表示制御部311に送り、表示制御部311に対して映像データを表示装置312に再生表示させる機能部である。再生部305は、図2に示すCPU101により実行されるプログラムにより実現される。
The
領域指定部306は、ユーザにより操作される入力装置303からの操作信号に従って、表示装置312における映像データの表示領域(図4で後述する映像表示部401)において分析対象となる分析領域を指定する機能部である。領域指定部306は、指定した分析領域の情報を、記憶部302に記憶させる。ここで、分析とは、映像データのフレームから、差分等のフレームの特徴量を演算してグラフ化する画像処理を示すものとする。また、分析領域の情報とは、例えば、映像データの表示領域における分析領域の位置を示す座標、および分析領域の形状等の情報である。領域指定部306は、図2に示すCPU101により実行されるプログラムにより実現される。
The
フレーム取得部307は、ユーザにより操作される入力装置303からの操作信号(具体的には、後述する分析開始ボタン410を押下した場合の操作信号)に従って、再生部305により再生されている映像データのうち、分析対象となる所定期間(分析時間)のフレームを取得する機能部である。具体的には、フレーム取得部307は、再生部305により再生されている映像データの日付・時刻情報を再生部305から受け取り、その日付・時刻から所定期間前までのフレームを取得する。フレーム取得部307は、図2に示すCPU101により実行されるプログラムにより実現される。
The
差分演算部308は、フレーム取得部307により取得されたフレームを受け取り、かつ、記憶部302に記憶された分析領域の情報を受け取り、対象フレームの分析領域と、比較対象となるフレームの分析領域との画素値についての差分を、フレームの特徴量として演算する機能部である。フレームの特徴量としての差分の演算方法としては、例えば、2つのフレームの分析領域における画素値を比較し、画素値が異なる画素の数の合計を差分として算出する。また、フレームがグレースケールの画像である場合、画素値は輝度値と一致するので、2つのフレームの分析領域における輝度値を比較し、輝度値が異なる画素の数の合計を差分として算出してもよい。また、フレームがRGBの画素値で構成された画像である場合、R(赤)、G(緑)またはB(青)のいずれかの画素値を比較して、上述と同様に、画素値が異なる画素の数の合計を差分として算出してもよい。また、フレームがL*a*b*表色系の画素値で構成された画像である場合、L*成分、a*成分およびb*成分をそれぞれ正規化した後、√((L1−L2)2+(a1−a2)2+(b1−b2)2)のように3点のユークリッド距離による色差を差分として算出してもよい。差分演算部308は、図2に示すCPU101により実行されるプログラムにより実現される。
The
また、差分演算部308は、フレーム取得部307により取得された各フレーム(対象フレーム)に対して、対象フレームの直前のフレームもしくは所定時間前のフレーム、または、特定の固定フレームを、差分を演算する比較対象となるフレーム(基準フレーム)とする。
In addition, the
なお、差分演算部308は、上述のように2つのフレームの分析領域における画素値についての差分を算出するものとしたが、これに限定されるものではない。すなわち、差分演算部308は、フレームがRGBの画素値で構成された画像である場合、フレーム取得部307により取得された各フレームについて、分析領域のR、GまたはBのうちいずれかの画素値の合計を、そのフレームの特徴量として算出するものとしてもよい。
Note that the
グラフ生成部309は、フレーム取得部307により取得された各フレームについて差分演算部308により演算された差分の情報から、差分値を時系列に表すグラフを生成する機能部である。グラフ生成部309は、生成した差分値のグラフ情報を表示制御部311に送り、表示制御部311に対して差分値のグラフを表示装置312における表示領域(図4で後述するグラフ表示部402)に表示させる。グラフ生成部309は、図2に示すCPU101により実行されるプログラムにより実現される。
The
なお、グラフ生成部309は、差分演算部308により演算されたすべての差分の情報から、差分値のグラフを生成することに限定されるものではない。すなわち、グラフ生成部309は、所定のサンプリング幅に含まれるフレーム(例えば、フレームレートが10[FPS]のフレームの場合、1秒分のフレーム、すなわち10個のフレーム)ごとに対応する差分の情報からグラフを生成するものとしてもよい。ここで、所定のサンプリング幅(例えば、上述のように1秒)に含まれるフレームごとに対応する差分は、例えば、そのサンプリング幅に含まれるフレームに対して、それぞれ差分演算部308により演算された差分のうち、最大となる差分をサンプリングしたものとする。また、グラフ生成部309が生成する差分のグラフとして、差分演算部308により演算されたすべての差分の情報から生成するか、上述のように、所定のサンプリング幅に含まれるフレームごとにサンプリングした最大の差分の情報から生成するかを、設定部304により選択設定できるものとしてもよい。
The
補助情報生成部310は、フレーム取得部307により取得された各フレームについて差分演算部308により演算された差分の情報から、最大の差分を検出して、最大の差分を示す補助線を生成する機能部である。また、補助情報生成部310は、最大の差分の所定割合(例えば、80%)の値を閾値として求め、閾値を示す補助線を生成する。そして、補助情報生成部310は、生成した最大の差分を示す補助線、および閾値を示す補助線の情報を表示制御部311に送り、表示制御部311に対して、双方の補助線を表示装置312における表示領域(図4で後述するグラフ表示部402)に表示させる。補助情報生成部310は、図2に示すCPU101により実行されるプログラムにより実現される。なお、補助情報生成部310による上述の補助線の生成および表示は、必須のものではなく、表示させないものとしてもよい。
The auxiliary
表示制御部311は、表示装置312の表示動作を制御する機能部である。具体的には、表示制御部311は、設定部304により設定された設定情報、再生部305により取得された映像データ、グラフ生成部309により生成された差分値のグラフ、および補助情報生成部310により生成された補助線等を、表示装置312に表示させる。表示制御部311は、図2に示すCPU101により実行されるプログラム(ドライバ等)により実現される。
The
表示装置312は、表示制御部311の制御に従って各種データを表示する装置である。表示装置312は、本実施の形態では特に、図2に示すCPU101により実行されるプログラム(アプリケーション)により、後述する図4等に示すアプリケーション画面400を表示する。表示装置312は、図2に示すディスプレイ105によって実現される。
The
なお、領域指定部306が、映像データの表示領域において指定できる分析領域は、1つであることに限定されるものではなく、複数指定することを可能としてもよい。この場合、差分演算部308による差分の演算、およびグラフ生成部309によるグラフの作成の対象となる分析領域は、入力装置303により選択可能とすればよい。これによって、映像データの表示領域において、動きの発生を確認したい箇所が複数ある場合においても、それぞれ分析領域を指定でき、かつそれぞれ分析を行うことができるので、分析作業の効率性が高まる。
Note that the
また、図3に示した設定部304、再生部305、領域指定部306、フレーム取得部307、差分演算部308、グラフ生成部309、補助情報生成部310および表示制御部311の一部または全部は、ソフトウェアであるプログラムではなく、ASIC(Application Specific Integrated Circuit)またはFPGA(Field−Programmable Gate Array)等のハードウェア回路によって実現されてもよい。
Further, a part or all of the
また、設定部304、再生部305、領域指定部306、フレーム取得部307、差分演算部308、グラフ生成部309、補助情報生成部310および表示制御部311は、機能を概念的に示したものであって、このような構成に限定されるものではない。
Further, the
また、以降の説明の簡略化のため、表示制御部311が、受け取ったデータを表示装置312に表示させるという表現を、単に、そのデータを表示制御部311に送った機能部が、表示装置312(または、表示装置312が表示する画面)に表示させると表現するものとする。例えば、再生部305が、映像データを表示制御部311に送り、表示制御部311に対して映像データを表示装置312に再生表示させる場合、単に、再生部305が、映像データを表示装置312に再生表示させると表現するものとする。
Further, for simplification of the following description, the expression that the
(フレームの差分のグラフを表示するアプリケーション画面)
図4は、実施の形態の情報処理装置の表示装置に表示されるアプリケーション画面において映像データが表示される例を示す図である。図5は、実施の形態の情報処理装置の表示装置に表示されるアプリケーション画面において映像表示部に分析領域を指定する例を示す図である。図6は、実施の形態の情報処理装置の表示装置に表示されるアプリケーション画面において差分グラフが表示される例を示す図である。図7は、実施の形態の情報処理装置の表示装置に表示されるアプリケーション画面において差分グラフに基づく所望の時刻の映像データを表示させる例を示す図である。図4〜7を参照しながら、アプリケーション画面400上の動作、およびフレームの差分のグラフを表示する動作等について説明する。
(Application screen that displays the frame difference graph)
FIG. 4 is a diagram showing an example in which video data is displayed on the application screen displayed on the display device of the information processing apparatus according to the embodiment. FIG. 5 is a diagram showing an example of designating an analysis area on the video display unit on the application screen displayed on the display device of the information processing apparatus according to the embodiment. FIG. 6 is a diagram showing an example in which a difference graph is displayed on the application screen displayed on the display device of the information processing apparatus according to the embodiment. FIG. 7 is a diagram showing an example of displaying video data at a desired time based on the difference graph on the application screen displayed on the display device of the information processing apparatus according to the embodiment. An operation on the
CPU101により実行されるプログラム(アプリケーション)により、図4に示すアプリケーション画面400が表示装置312に表示される。アプリケーション画面400は、分析対象となる映像データ、および、分析結果である差分等の特徴量のグラフ等を表示する画面である。アプリケーション画面400は、図4等に示すように、映像表示部401と、カメラ選択部401aと、グラフ表示部402と、再生ボタン403aと、一時停止ボタン403bと、早送りボタン403cと、早戻しボタン403dと、停止ボタン403eと、マーキングボタン403fと、シークバー404と、スライダー405と、映像拡大ボタン406aと、映像縮小ボタン406bと、スパン拡大ボタン407aと、スパン縮小ボタン407bと、時刻表示部408と、分析時間設定部409と、分析開始ボタン410と、分析停止ボタン411と、を含む。
The
映像表示部401は、再生部305によって、ユーザにより操作される入力装置303からの操作信号に従って記憶部302から取得された映像データが再生表示される表示部である。カメラ選択部401aは、ユーザが分析を所望する撮像装置2a〜2dの映像データのうちいずれの映像データを映像表示部401に表示させるのかを選択する操作部である。例えば、撮像装置2a〜2dによって撮像された映像データは、それぞれ「1」〜「4」に対応付けられており、図4の例では、「3」すなわち撮像装置2cの映像データが選択された例を示している。この場合、再生部305は、ユーザによる入力装置303の操作により、「3」のカメラ選択部401aが選択操作されると、撮像装置2cにより撮像された映像データを表示装置312に表示させる。
The
グラフ表示部402は、グラフ生成部309によって生成された差分値のグラフが表示される表示部である。
The
再生ボタン403aは、ユーザによる入力装置303の操作によって押下(マウス108によるクリック操作等、以下同様)されると、再生部305によって、映像表示部401に表示された映像データが再生開始されるボタンである。一時停止ボタン403bは、ユーザによる入力装置303の操作によって押下されると、再生部305によって、映像表示部401に再生表示されている映像データが一時停止されるボタンである。早送りボタン403cは、ユーザによる入力装置303の操作によって押下されると、再生部305によって、映像表示部401に再生表示されている映像データが早送り表示されるボタンである。早戻しボタン403dは、ユーザによる入力装置303の操作によって押下されると、再生部305によって、映像表示部401に再生表示されている映像データが早戻し表示されるボタンである。停止ボタン403eは、ユーザによる入力装置303の操作によって押下されると、再生部305によって、映像表示部401に再生表示されている映像データが停止されるボタンである。マーキングボタン403fは、後述するように、ユーザによる入力装置303の操作によって押下されると、補助情報生成部310によって、シークバー404上のスライダー405の直上部分にマーク表示されるボタンである。
The
シークバー404は、その上に配置されるスライダー405の位置により、映像表示部401に再生表示されている映像データがどの時間のものなのかを示す棒状の形状体である。スライダー405は、映像表示部401に再生表示されている映像データの撮像時刻(表示されているフレームが撮像された時刻)に対応したシークバー404上の位置にスライドする形状体かつ操作部である。逆に、スライダー405は、ユーザによる入力装置303の操作によってスライドされると、再生部305によって、スライダー405が存在するシークバー404上の位置に対応した撮像時刻の映像データのフレームが映像表示部401に表示される。
The seek
映像拡大ボタン406aは、ユーザによる入力装置303の操作によって押下されると、再生部305によって、映像表示部401に再生表示されている映像データが拡大表示されるボタンである。例えば、映像拡大ボタン406aが押下されるごとに所定の拡大率で映像データが拡大表示される。例えば、通常の表示状態を100%として、120%、140%、・・・のように拡大表示される。映像縮小ボタン406bは、ユーザによる入力装置303の操作によって押下されると、再生部305によって、映像表示部401に再生表示されている映像データが縮小表示されるボタンである。例えば、映像縮小ボタン406bが押下されるごとに所定の縮小率で映像データが縮小表示される。例えば、通常の表示状態を100%として、80%、60%、・・・のように縮小表示される。
The
スパン拡大ボタン407aは、ユーザによる入力装置303の操作によって押下されると、再生部305によって、シークバー404の表示スパンが拡大されるボタンである。スパン縮小ボタン407bは、ユーザによる入力装置303の操作によって押下されると、再生部305によって、シークバー404の表示スパンが縮小されるボタンである。なお、シークバー404の表示スパンを拡大または縮小するのは再生部305である必要はなく、図示しない異なる機能部が担うものとしてもよい。
The
時刻表示部408は、再生部305によって、映像表示部401に再生表示されている映像データの撮像日付および撮像時刻が表示される表示部である。
The
分析時間設定部409は、映像表示部401に再生表示されている映像データのうち、どれだけの時間分のフレームを分析対象とするかを設定するラジオボタンである。分析時間設定部409のうちいずれかの時間(分析時間)のラジオボタンが、ユーザによる入力装置303の操作によって選択されると、設定部304によって、その選択内容が設定情報として記憶部302に記憶される。また、設定部304は、記憶部302に記憶された分析時間の設定情報に従って、どの分析時間が選択されているかを分析時間設定部409に表示する。図4の例では、分析時間として「10分」が選択されていることが示されている。この場合、映像データのフレームレートが10[FPS]であるものとすると、フレーム取得部307は、映像表示部401に再生表示されている映像データのうち、10分間分のフレーム、すなわち、6000個のフレームを取得する。
The analysis
分析開始ボタン410は、ユーザによる入力装置303の操作によって押下されると、フレーム取得部307による映像データからの分析時間分のフレームの取得、差分演算部308によるフレームの差分の演算、グラフ生成部309による差分値のグラフの生成、および補助情報生成部310による補助線の生成の動作が開始されるボタンである。分析開始ボタン410が押下された場合の動作については、後述する。
When the
分析停止ボタン411は、ユーザによる入力装置303の操作によって押下されると、フレーム取得部307、差分演算部308、グラフ生成部309および補助情報生成部310の動作を停止させ、かつ、グラフ生成部309によって、グラフ表示部402に表示された差分値のグラフが消去されるボタンである。なお、分析停止ボタン411は、分析開始ボタン410が押下されることによって開始される処理の途中でも押下して機能を発揮できるものとしてもよい。
When the
図4に示すアプリケーション画面400は、映像表示部401に、再生部305によって記憶部302から取得された撮像装置2cの映像データが再生表示され、時刻表示部408に、映像表示部401に再生表示されている映像データの撮像日付および撮像時刻が表示されている状態を示している。また、図4に示すアプリケーション画面400は、分析開始ボタン410が押下されることによる映像データのフレームの差分についての分析動作が開始されておらず、グラフ表示部402には、差分値のグラフが表示されていない状態を示す。
In the
図5に示すアプリケーション画面400は、映像データが再生表示されている映像表示部401において差分についての分析対象となる分析領域501が指定された状態を示している。具体的には、分析領域501は、ユーザによる入力装置303の操作(例えば、マウス108によるドラッグ操作)に従って、領域指定部306が、映像表示部401におけるフレームの差分についての分析対象として指定した領域である。領域指定部306は、指定した分析領域501の情報を、記憶部302に記憶させる。また、領域指定部306が分析領域501を指定する場合、映像表示部401に表示されている映像データは再生状態であってもよく、一時停止状態であってもよい。また、図5に示すアプリケーション画面400は、図4と同様に、分析開始ボタン410が押下されることによる映像データのフレームの差分についての分析動作が開始されておらず、グラフ表示部402には、差分値のグラフが表示されていない状態を示している。
The
分析領域501として指定する領域としては、例えば、生産設備において部品の落下が予測され、その部品がいつ、どのように、なぜ落下するのかを解析する必要がある箇所が想定される。また、例えば、生産設備に備えられる赤色、黄色、緑色および青色のランプを有するシグナルタワーにおいて、生産設備で原因不明の特定の異常が発生した場合に青色のランプを点灯させる動作にしている場合、青色ランプの映像部分を分析領域501として指定することも想定される。
As the area designated as the
なお、図5に示すように、分析領域501は、矩形状で指定されるものとしているが、これに限定されるものではない。例えば、分析領域501は、多角形状で指定できるものとしてもよく、フリーハンドによる任意の形状で指定できるものとしてもよい。
Note that, as shown in FIG. 5, the
図6に示すアプリケーション画面400は、ユーザによる入力装置303の操作により分析開始ボタン410が押下されることによって、フレーム取得部307により映像データから分析時間分のフレームが取得され、差分演算部308によりフレームの分析領域501の差分が演算され、グラフ生成部309により差分値のグラフが生成されて、グラフ表示部402に差分値のグラフである差分グラフ601が表示された状態を示している。
In the
具体的には、まず、ユーザが映像表示部401において映像データの再生表示中に、分析を所望する目安となるタイミングで、入力装置303の操作により一時停止ボタン403bを押下すると、再生部305は、映像表示部401で再生表示されている映像データを一時停止する。また、ユーザが、入力装置303の操作により、分析時間設定部409のうちいずれかの分析時間を選択すると、設定部304は、選択された分析時間を設定情報として設定し、記憶部302に記憶させる。なお、ユーザによる分析時間の設定は、このタイミングではなく、予め設定されているものとしてもよいのは言うまでもない。
Specifically, first, when the user presses the
次に、ユーザが入力装置303の操作により分析開始ボタン410を押下することによって、フレーム取得部307は、映像表示部401で再生表示されている映像データのうち、一時停止されている撮像時刻、すなわち、時刻表示部408に表示されている時刻から、設定部304により設定された分析時間(図6では10分)前までのフレームを取得する。次に、差分演算部308は、フレーム取得部307により取得されたフレームを受け取り、かつ、記憶部302に記憶された分析領域501の情報を受け取り、対象フレームの分析領域501と、比較対象となるフレームの分析領域501との画素値についての差分を、フレームの特徴量として演算する。このとき、差分演算部308は、フレーム取得部307により取得された全フレームについて差分を演算する。そして、グラフ生成部309は、図6に示すように、フレーム取得部307により取得された各フレームについて差分演算部308により演算された差分の情報から、差分値のグラフである差分グラフ601を生成し、グラフ表示部402に表示させる。なお、上述では、ユーザは、映像表示部401で表示されている映像データが一時停止状態において分析開始ボタン410を押下するものとしているが、これに限定されるものではなく、映像データが再生中に分析開始ボタン410を押下して分析動作を開始するものとしてもよい。この場合、フレーム取得部307は、分析開始ボタン410が押下されたタイミングにおける映像データの撮像時刻を抽出し、抽出した撮像時刻から、設定部304により設定された分析時間前までのフレームを取得すればよい。
Next, when the user presses the
また、グラフ生成部309は、図6に示すように、映像データから取得したフレームの最前のフレームに対応する撮像時刻を開始時刻表示部605に表示させ、最後のフレームに対応する撮像時刻を終了時刻表示部604に表示させる。
Further, as shown in FIG. 6, the
また、補助情報生成部310は、フレーム取得部307により取得された各フレームについて差分演算部308により演算された差分の情報から、最大の差分を検出して、最大の差分を示す補助線を生成する。また、補助情報生成部310は、最大の差分の値の所定割合の値を閾値として求め、閾値を示す補助線を生成する。そして、補助情報生成部310は、図6に示すように、グラフ表示部402に表示された差分グラフ601に重畳して、最大の差分を示す補助線である最大差分値線602を表示させ、閾値を示す補助線である閾値線603を表示させる。このように、図6に示すように、グラフ表示部402に表示された差分グラフ601に重畳して、最大差分値線602および閾値線603を表示させることによって、映像データの分析領域501において何らかの動きが発生した時間を特定しやすくなる。また、閾値線603の閾値は、上述のように、最大差分値線602の最大の差分の値の所定割合の値としているので、差分グラフ601のいずれかの部分は、閾値線603を超えることになる。したがって、差分グラフ601において、閾値線603を超えた箇所を探索することにより、分析領域501において何らかの動きが発生した時間を特定できる可能性が高くなる。
In addition, the auxiliary
また、上述した分析領域501が生産設備において部品の落下が予測される箇所に指定された場合の例では、差分グラフ601、最大差分値線602および閾値線603によって、動きが発生した時間、すなわち、部品が落下した時間を特定しやすくなる。また、上述した生産設備に備えられたシグナルタワーの青色ランプの映像部分を分析領域501として指定した例では、差分グラフ601、最大差分値線602および閾値線603によって、動きが発生した時間、すなわち、青色ランプが点灯した時間を特定しやすくなる。
Further, in the example in the case where the above-described
図7に示すアプリケーション画面400は、グラフ表示部402におけるユーザによる入力装置303の操作、例えば、マウス108によってカーソル701が移動され、差分グラフ601が表示されたグラフ表示部402上でクリック操作がなされ、クリック操作されたときのカーソル701のポイントに対応する撮像時刻である指定時刻T1のフレーム(または、ポイントに対応する枚数目の映像データにおけるフレーム)が映像表示部401に表示される状態を示している。また、図7に示すアプリケーション画面400は、ユーザによる入力装置303の操作によりスライダー405が移動され、指定時刻T1から1分後のフレームが映像表示部401に表示され、かつ、そのフレームの分析領域501内に落下物が映り込んでいる状態を示す。さらに、図7に示すアプリケーション画面400は、ユーザによる入力装置303の操作によりマーキングボタン403fが押下されることによって、押下された時点のシークバー404上のスライダー405の直上部分にマーク801が表示された状態を示す。
In the
具体的には、まず、ユーザが、入力装置303であるマウス108によってカーソル701を移動させ、差分グラフ601が表示されたグラフ表示部402上でクリック操作すると、再生部305は、ユーザによるクリック操作がなされたときのカーソル701のポイントに対応する撮像時刻である指定時刻T1のフレームを映像表示部401に表示させる。また、再生部305は、指定時刻T1のフレームを映像表示部401に表示させたときに、指定時刻T1を時刻表示部408に表示させる。また、再生部305は、指定時刻T1のフレームを映像表示部401に表示させたときに、スライダー405をシークバー404の真ん中、すなわち「0:00」の部分に移動させる。すなわち、シークバー404の「0:00」が、時刻表示部408に表示された指定時刻T1に対応することになる。
Specifically, first, when the user moves the
次に、ユーザが入力装置303の操作によりスライダー405をシークバー404上でスライドさせると、再生部305は、指定時刻T1からシークバー404上のスライダー405の位置に対応する時間を加算した時刻に対応するフレームを映像表示部401に表示させる。図7に示すアプリケーション画面400では、ユーザがスライダー405をシークバー404上の「1:00」の位置にスライドさせた場合に対応するフレーム、すなわち、指定時刻T1(ここでは、「17:59:11.28」)から1分後の時刻(図7の例では「18:00:11.28」)に対応するフレームが映像表示部401に表示された例が示されている。そして、この場合、図7に示すように、映像表示部401に表示されたフレームの分析領域501には落下物が映り込んでおり、分析領域501内で動きが発生したフレームが探索できたことになる。このフレームの分析領域501についての差分の値は大きな値であることが想定され、すなわち、このフレームは、グラフ表示部402の差分グラフ601の最大差分値線602に達している山部近辺に対応するフレームであることが想定できる。
Next, when the user slides the
また、上述した分析領域501が生産設備において部品の落下が予測される箇所に指定された場合の例では、差分グラフ601の閾値線603を超えた部分をクリック操作して、その時刻のフレームを映像表示部401に表示させ、スライダー405のスライド操作により当該時刻の前後の映像を確認することによって、どのように部品が落下し、なぜ落下したかの原因が特定しやすくなる。また、上述した生産設備に備えられたシグナルタワーの青色ランプの映像部分を分析領域501として指定した例では、同様に、差分グラフ601の閾値線603を超えた部分をクリック操作して、その時刻のフレームを映像表示部401に表示させ、スライダー405のスライド操作により当該時刻の前後の映像を確認することによって、どのような状態および環境でその異常が発生したのか解析しやすくなり、異常の発生の原因が特定しやすくなる。
Further, in the example in which the above-described
また、図7に示すように、分析領域501において落下物が映り込んだ状態、すなわち分析領域501において動きが発生した状態において、ユーザが入力装置303の操作によりマーキングボタン403fを押下すると、補助情報生成部310は、シークバー404上のスライダー405の直上部分にマーク801を表示させる。このマーク801を表示させることによって、シークバー404上において動きが発生した時刻をマーキングしておくことができ、動きが発生した原因を解析するための手がかりとすることができる。
Further, as shown in FIG. 7, when a user presses the
以上のように、差分演算部308は、フレーム取得部307により取得された分析時間分のフレームを受け取り、対象フレームと、比較対象となるフレームとの画素値についての特徴量(差分等)を演算し、グラフ生成部309は、差分演算部308により演算された特徴量の情報から、特徴量のグラフ(例えば、差分グラフ601)を生成して、表示装置312に表示させている。これによって、特徴量が大きくなる時間を特定しやすくなり、映像データにおいて何らかの動きが発生した時間を特定しやすくなる。
As described above, the
さらに、補助情報生成部310は、グラフ表示部402に表示された差分グラフ601に重畳して、最大の特徴量を示す最大値線(例えば、最大差分値線602)を表示させ、閾値を示す補助線である閾値線(例えば、閾値線603)を表示させるものとしている。これによって、差分グラフ601において何らかの動きが発生した時間をさらに特定しやすくなる。
Further, the auxiliary
また、領域指定部306は、映像データの表示領域(映像表示部401)において分析領域を指定し、差分演算部308は、フレーム取得部307により取得されたフレームに対して、対象フレームの分析領域と、比較対象となるフレームの分析領域との画素値についての特徴量として演算するものとしている。これによって、動きが発生していると思われる箇所を分析領域として指定することができるので、差分演算部308によって演算される特徴量について、動きが発生した場合の特徴量の変化が顕著になるので、特徴量が大きく変化する時間を特定しやすくなり、映像データにおいて何らかの動きが発生した時間をさらに特定しやすくなる。例えば、差分演算部308による特徴量の演算の対象をフレーム全体とした場合、映像データの表示領域全体で常時動きがあると、その全体の動きによる特徴量の変化がグラフに出ることになる。そのため、映像データの表示領域のうち、ユーザが分析を所望し、動き(例えば、物体の落下等)が発生していると思われる箇所において、当該動きが発生しても、特徴量の変化としてグラフに現れない可能性がある。一方、領域指定部306によって分析領域として上述の箇所が指定されることによって、分析領域内で発生する動きが、特徴量の変化としてグラフに突出して現れる可能性が高くなり、当該動きが発生する状態を把握しやすくなる。
Further, the
また、特徴量のグラフが表示されたグラフ表示部402の領域の特定部分を入力装置303によって指示する操作(例えば、マウス108によるクリック操作)によって、再生部305は、指示された特定部分のフレームを映像表示部401に表示させるものとしている。これによって、ユーザが所望する撮像時刻のフレームを素早く表示させることができ、動きが発生した原因、またはその動きに伴う事象が発生した原因を特定しやすくすることができる。
In addition, by an operation (for example, a click operation by the mouse 108) of instructing a specific portion of the area of the
また、上述のように、再生部305により、指示された特定部分に対応する撮像時刻のフレームが映像表示部401により表示されてから、シークバー404のスライダー405をスライドさせることにより、ユーザは、その撮像時刻を基準にして前後の映像を確認することができる。これによって、動きが発生した原因、またはその動きに伴う事象が発生した原因をさらに特定しやすくなる。
In addition, as described above, the
(差分グラフを表示させる画像処理動作)
図8は、実施の形態の画像処理システムにおいて差分グラフを表示させる画像処理動作の一例を示すフローチャートである。図8を参照しながら、差分グラフを表示させるまでの画像処理(分析)の動作の流れを総括的に説明する。
(Image processing operation to display difference graph)
FIG. 8 is a flowchart showing an example of an image processing operation for displaying a difference graph in the image processing system according to the embodiment. The flow of the image processing (analysis) operation until the difference graph is displayed will be generally described with reference to FIG.
<ステップS11>
再生部305は、記憶部302から取得した撮像装置2の映像データを、アプリケーション画面400の映像表示部401に再生表示させる。そして、ステップS12へ移行する。
<Step S11>
The
<ステップS12>
領域指定部306は、ユーザによる入力装置303の操作(例えば、ドラッグ操作)に従って、映像表示部401におけるフレームの差分を求めるための指定した領域である分析領域501を指定し、指定した分析領域501の情報を記憶部302に記憶させる。そして、ステップS13へ移行する。
<Step S12>
The
<ステップS13>
フレーム取得部307は、ユーザによる入力装置303の操作により分析開始ボタン410が押下されることによって、映像表示部401で再生表示されている映像データのうち、分析開始ボタン410が押下されたときの映像データの撮像時刻から、設定部304により設定された分析時間前までのフレームを取得する。そして、ステップS14へ移行する。なお、ステップS14へ移行するタイミングは、必ずしも、検知領域指定部307によって、設定された分析時間前までのすべてのフレームが取得された後である必要はなく、フレームが取得されている途中であってもよい。
<Step S13>
When the
<ステップS14>
差分演算部308が、フレーム取得部307により取得された各フレーム(対象フレーム)に対して、対象フレームの直前のフレーム、または所定時間前のフレームを比較対象となるフレームとして、画素値についての差分を演算する場合(ステップS14:前フレーム)、ステップS16へ移行する。一方、差分演算部308が、フレーム取得部307により取得された各フレーム(対象フレーム)に対して、特定の固定フレームを比較対象となるフレームとして、画素値についての差分を演算する場合(ステップS14:特定フレーム)、ステップS15へ移行する。なお、比較対象となるフレームを対象フレームの直前のフレームもしくは所定時間前のフレーム、または、特定の固定フレームとするかは、設定部304によって設定情報として設定されているものとしてもよい。
<Step S14>
The
<ステップS15>
差分演算部308は、フレーム取得部307により取得されたフレームを受け取り、かつ、記憶部302に記憶された分析領域501の情報を受け取り、対象フレームの分析領域501と、特定の固定フレームの分析領域501との画素値についての差分を、フレームの特徴量として演算する。このとき、差分演算部308は、フレーム取得部307により取得された全フレームについて差分を演算する。そして、ステップS17へ移行する。
<Step S15>
The
<ステップS16>
差分演算部308は、フレーム取得部307により取得されたフレームを受け取り、かつ、記憶部302に記憶された分析領域501の情報を受け取り、対象フレームの分析領域501と、対象フレームの直前のフレーム、または所定時間前のフレームの分析領域501との画素値についての差分を、フレームの特徴量として演算する。このとき、差分演算部308は、フレーム取得部307により取得された全フレームについて差分を演算する。そして、ステップS17へ移行する。
<Step S16>
The
<ステップS17>
補助情報生成部310は、フレーム取得部307により取得された各フレームについて差分演算部308により演算された差分の情報から、最大の差分を検出して、最大の差分を示す補助線を生成する。補助情報生成部310は、最大の差分の値の所定割合の値を閾値として求め、閾値を示す補助線を生成する。そして、ステップS18へ移行する。
<Step S17>
The auxiliary
<ステップS18>
グラフ生成部309が、フレーム取得部307により取得された各フレームについて差分演算部308により演算された差分の情報から、すべての差分値を時系列に表すグラフを生成する場合(ステップS18:No)、ステップS19へ移行し、所定のサンプリング幅に含まれるフレームごとに対応する差分値を時系列に表すグラフを生成する場合(ステップS18:Yes)、ステップS20へ移行する。なお、すべての差分値のグラフを生成するか、所定のサンプリング幅に含まれるフレームごとに対応する差分値のグラフを生成するかは、設定部304によって設定情報として設定されているものとしてもよい。
<Step S18>
In the case where the
<ステップS19>
グラフ生成部309は、フレーム取得部307により取得された各フレームについて差分演算部308により演算された差分の情報から、すべての差分値を時系列に表すグラフを生成し、グラフ表示部402に表示させる。そして、ステップS21へ移行する。
<Step S19>
The
<ステップS20>
グラフ生成部309は、フレーム取得部307により取得された各フレームについて差分演算部308により演算された差分の情報から、所定のサンプリング幅に含まれるフレームごとに対応する差分値を時系列に表すグラフを生成し、グラフ表示部402に表示させる。ここで、所定のサンプリング幅(例えば、上述のように1秒)に含まれるフレームごとに対応する差分は、例えば、そのサンプリング幅に含まれるフレームに対して、それぞれ差分演算部308により演算された差分のうち、最大となる差分をサンプリングしたものとする。なお、この場合、図7で上述したように、差分グラフが表示されたグラフ表示部402においてクリック操作がされた場合、カーソル701のポイントに対応する撮像時刻が含まれるサンプリング幅に属する最大の差分に対応するフレームの撮像時刻を、指定時刻T1とすればよい。そして、ステップS21へ移行する。
<Step S20>
The
<ステップS21>
グラフ表示部402におけるユーザによる入力装置303の操作、例えば、マウス108によってカーソル701を移動させ、差分グラフ601が表示されたグラフ表示部402上でクリック操作がなされることにより、クリック操作したときのカーソル701のポイントに対応する撮像時刻である指定時刻T1のフレーム(または、ポイントに対応する枚数目の映像データにおけるフレーム)が映像表示部401に表示される。以上で、差分値のグラフを表示させ、指定時刻T1のフレームを映像表示部401に表示させる画像処理(分析)の動作を終了する。
<Step S21>
When the user operates the
また、本実施の形態の設定部304、再生部305、領域指定部306、フレーム取得部307、差分演算部308、グラフ生成部309、補助情報生成部310および表示制御部311の少なくともいずれかがプログラムの実行によって実現される場合、そのプログラムは、ROM等に予め組み込まれて提供される。また、本実施の形態の情報処理装置3で実行されるプログラムは、インストール可能な形式または実行可能な形式のファイルでCD−ROM、フレキシブルディスク(FD)、CD−R、DVD等のコンピュータで読み取り可能な記録媒体に記録して提供するように構成してもよい。また、本実施の形態の情報処理装置3で実行されるプログラムを、インターネット等のネットワークに接続されたコンピュータ上に格納し、ネットワーク経由でダウンロードさせることにより提供するように構成してもよい。また、本実施の形態の情報処理装置3で実行されるプログラムを、インターネット等のネットワーク経由で提供または配布するように構成してもよい。本実施の形態の情報処理装置3で実行されるプログラムは、上述した設定部304、再生部305、領域指定部306、フレーム取得部307、差分演算部308、グラフ生成部309、補助情報生成部310および表示制御部311の少なくともいずれかを含むモジュール構成となっており、実際のハードウェアとしてはCPUが上述のROMからプログラムを読み出して実行することにより、上述の各部が主記憶装置上にロードされて生成されるようになっている。
Further, at least one of the
1 画像処理システム
2、2a〜2d 撮像装置
3 情報処理装置
4 ネットワーク
101 CPU
102 ROM
103 RAM
104 外部記憶装置
105 ディスプレイ
106 ネットワークI/F
107 キーボード
108 マウス
109 DVDドライブ
110 DVD
111 バス
301 映像受信部
302 記憶部
303 入力装置
304 設定部
305 再生部
306 領域指定部
307 フレーム取得部
308 差分演算部
309 グラフ生成部
310 補助情報生成部
311 表示制御部
312 表示装置
400 アプリケーション画面
401 映像表示部
401a カメラ選択部
402 グラフ表示部
403a 再生ボタン
403b 一時停止ボタン
403c 早送りボタン
403d 早戻しボタン
403e 停止ボタン
403f マーキングボタン
404 シークバー
405 スライダー
406a 映像拡大ボタン
406b 映像縮小ボタン
407a スパン拡大ボタン
407b スパン縮小ボタン
408 時刻表示部
409 分析時間設定部
410 分析開始ボタン
411 分析停止ボタン
501 分析領域
601 差分グラフ
602 最大差分値線
603 閾値線
604 終了時刻表示部
605 開始時刻表示部
701 カーソル
801 マーク
T1 指定時刻
DESCRIPTION OF
102 ROM
103 RAM
104
111
上述した課題を解決し、目的を達成するために、本発明は、撮像手段により撮像された映像データを表示手段に再生表示させる再生手段と、前記映像データに含まれるフレームごとに画素値の特徴量を演算する演算手段と、前記演算手段により演算された前記特徴量によって、該特徴量を時系列に表すグラフを生成して前記表示手段に表示させる生成手段と、前記表示手段により表示された前記グラフの表示領域のいずれかの部分を指定し、前記部分に対応する前記フレームを、前記再生手段により前記表示手段に表示させるフレーム指定手段と、前記表示手段により表示された前記映像データの表示領域において分析領域を指定する領域指定手段と、を備え、前記演算手段は、前記映像データに含まれる前記フレームごとに、該フレームの前記分析領域と、基準フレームの前記分析領域とにおいて画素のユークリッド距離による色差に基づく前記特徴量を演算することを特徴とする。 To solve the above problems and achieve the object, the present invention includes a reproduction means for the video data captured by an imaging unit is reproduced and displayed on the Viewing means, pixel values for each frame included in the video data Calculating means for calculating the characteristic amount, generating means for generating a graph representing the characteristic amount in time series by the characteristic amount calculated by the calculating means and displaying the graph on the displaying means, and displaying by the displaying means. A frame designating unit that designates any part of the display area of the displayed graph, and causes the display unit to display the frame corresponding to the part, and the video data displayed by the display unit. and an area specifying means for specifying the analysis region in the display area of said calculating means, for each of the frames included in the video data, of the frame And serial analysis region, characterized by calculating the feature data based on the color difference due to the Euclidean distance of the pixel in said analysis region of the reference frame.
Claims (16)
撮像手段により撮像された映像データを前記表示手段に再生表示させる再生手段と、
前記映像データに含まれるフレームごとに画素値の特徴量を演算する演算手段と、
前記演算手段により演算された前記特徴量によって、該特徴量を時系列に表すグラフを生成して前記表示手段に表示させる生成手段と、
前記表示手段により表示された前記グラフの表示領域のいずれかの部分を指定し、前記部分に対応する前記フレームを、前記再生手段により前記表示手段に表示させるフレーム指定手段と、
を備えた画像処理装置。 Display means,
Reproduction means for reproducing and displaying the video data imaged by the imaging means on the display means,
Calculation means for calculating a feature value of a pixel value for each frame included in the video data,
Generating means for generating a graph representing the characteristic amount in time series by the characteristic amount calculated by the calculating means and displaying the graph on the display means;
Frame designating means for designating any part of the display area of the graph displayed by the display means and displaying the frame corresponding to the part on the display means by the reproducing means,
An image processing apparatus equipped with.
前記フレーム指定手段は、前記入力手段からの操作信号に従って、前記部分を指定する請求項1または2に記載の画像処理装置。 Further comprising input means,
The image processing apparatus according to claim 1, wherein the frame designation unit designates the portion according to an operation signal from the input unit.
前記演算手段は、前記映像データに含まれる前記フレームごとに前記分析領域の前記特徴量を演算する請求項1または2に記載の画像処理装置。 Further comprising area specifying means for specifying an analysis area in the display area of the video data displayed by the display means,
The image processing apparatus according to claim 1, wherein the calculation unit calculates the characteristic amount of the analysis region for each frame included in the video data.
前記領域指定手段は、前記入力手段からの操作信号に従って、前記分析領域を指定する請求項4に記載の画像処理装置。 Further comprising input means,
The image processing apparatus according to claim 4, wherein the area designating unit designates the analysis area according to an operation signal from the input unit.
前記演算手段は、前記取得手段により取得された前記フレームごとに前記特徴量を演算する請求項1〜10のいずれか一項に記載の画像処理装置。 Out of the frames included in the video data displayed by the display unit, further includes an acquisition unit that acquires the frame included in a predetermined period,
The image processing apparatus according to claim 1, wherein the calculation unit calculates the feature amount for each of the frames acquired by the acquisition unit.
請求項1〜13のいずれか一項に記載された画像処理装置と、
を備えた画像処理システム。 One or more of the imaging means,
An image processing apparatus according to any one of claims 1 to 13,
Image processing system equipped with.
前記映像データに含まれるフレームごとに画素値の特徴量を演算する演算ステップと、
演算した前記特徴量によって、該特徴量を時系列に表すグラフを生成して前記表示手段に表示させる生成ステップと、
前記表示手段により表示された前記グラフの表示領域のいずれかの部分を指定し、前記部分に対応する前記フレームを前記表示手段に表示させるフレーム指定ステップと、
を有する画像処理方法。 A reproduction step of reproducing and displaying the video data imaged by the imaging means on the display means,
A calculation step of calculating a feature value of a pixel value for each frame included in the video data,
A generation step of generating a graph representing the characteristic amount in time series by the calculated characteristic amount and displaying the graph on the display means;
A frame designating step of designating any part of the display area of the graph displayed by the display means and displaying the frame corresponding to the part on the display means;
An image processing method including.
撮像手段により撮像された映像データを表示手段に再生表示させる再生処理と、
前記映像データに含まれるフレームごとに画素値の特徴量を演算する演算処理と、
演算した前記特徴量によって、該特徴量を時系列に表すグラフを生成して前記表示手段に表示させる生成処理と、
前記表示手段により表示された前記グラフの表示領域のいずれかの部分を指定し、前記部分に対応する前記フレームを前記表示手段に表示させるフレーム指定処理と、
を実行させるプログラム。 On the computer,
A reproduction process for reproducing and displaying the video data imaged by the imaging means on the display means,
A calculation process for calculating a feature value of a pixel value for each frame included in the video data,
A generation process of generating a graph representing the feature amount in time series based on the calculated feature amount and displaying the graph on the display means;
A frame designation process of designating any part of the display area of the graph displayed by the display means and displaying the frame corresponding to the part on the display means;
A program to execute.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019161379A JP2020065248A (en) | 2019-09-04 | 2019-09-04 | Image processing apparatus, image processing system, image processing method and program |
JP2021153929A JP2022000970A (en) | 2019-09-04 | 2021-09-22 | Image processing apparatus, image processing system, image processing method and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019161379A JP2020065248A (en) | 2019-09-04 | 2019-09-04 | Image processing apparatus, image processing system, image processing method and program |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014161715A Division JP2016039496A (en) | 2014-08-07 | 2014-08-07 | Image processing apparatus, image processing system, image processing method and program |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021153929A Division JP2022000970A (en) | 2019-09-04 | 2021-09-22 | Image processing apparatus, image processing system, image processing method and program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2020065248A true JP2020065248A (en) | 2020-04-23 |
Family
ID=70387626
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019161379A Pending JP2020065248A (en) | 2019-09-04 | 2019-09-04 | Image processing apparatus, image processing system, image processing method and program |
JP2021153929A Pending JP2022000970A (en) | 2019-09-04 | 2021-09-22 | Image processing apparatus, image processing system, image processing method and program |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021153929A Pending JP2022000970A (en) | 2019-09-04 | 2021-09-22 | Image processing apparatus, image processing system, image processing method and program |
Country Status (1)
Country | Link |
---|---|
JP (2) | JP2020065248A (en) |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH06343146A (en) * | 1993-03-15 | 1994-12-13 | Toshiba Corp | Reproducing device and reproducing method |
JP2000099701A (en) * | 1998-09-24 | 2000-04-07 | Dainippon Screen Mfg Co Ltd | Image color processor, image color processing method and recording medium |
JP2000224542A (en) * | 1999-01-29 | 2000-08-11 | Hitachi Ltd | Image storage device, monitor system and storage medium |
JP2002335478A (en) * | 2001-05-07 | 2002-11-22 | Ricoh Co Ltd | Video recording reproducing system |
JP2012099979A (en) * | 2010-10-29 | 2012-05-24 | Keyence Corp | Moving image capturing device, moving image observation method, moving image observation program, and computer-readable recording medium |
JP2013239031A (en) * | 2012-05-15 | 2013-11-28 | Tukuyomi Kk | Program for making buy/sell decisions, system for making buy/sell decisions, and method for making buy/sell decisions |
JP2014033429A (en) * | 2012-07-12 | 2014-02-20 | Nk Works Co Ltd | Image processing program and image processing apparatus |
-
2019
- 2019-09-04 JP JP2019161379A patent/JP2020065248A/en active Pending
-
2021
- 2021-09-22 JP JP2021153929A patent/JP2022000970A/en active Pending
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH06343146A (en) * | 1993-03-15 | 1994-12-13 | Toshiba Corp | Reproducing device and reproducing method |
JP2000099701A (en) * | 1998-09-24 | 2000-04-07 | Dainippon Screen Mfg Co Ltd | Image color processor, image color processing method and recording medium |
JP2000224542A (en) * | 1999-01-29 | 2000-08-11 | Hitachi Ltd | Image storage device, monitor system and storage medium |
JP2002335478A (en) * | 2001-05-07 | 2002-11-22 | Ricoh Co Ltd | Video recording reproducing system |
JP2012099979A (en) * | 2010-10-29 | 2012-05-24 | Keyence Corp | Moving image capturing device, moving image observation method, moving image observation program, and computer-readable recording medium |
JP2013239031A (en) * | 2012-05-15 | 2013-11-28 | Tukuyomi Kk | Program for making buy/sell decisions, system for making buy/sell decisions, and method for making buy/sell decisions |
JP2014033429A (en) * | 2012-07-12 | 2014-02-20 | Nk Works Co Ltd | Image processing program and image processing apparatus |
Also Published As
Publication number | Publication date |
---|---|
JP2022000970A (en) | 2022-01-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6816802B2 (en) | Image processing equipment, image processing systems, image processing methods and programs | |
JP6733785B2 (en) | Image processing apparatus, image processing system, image processing method, and program | |
JP6390720B2 (en) | Image processing apparatus, image processing system, and image processing method | |
JP3823333B2 (en) | Moving image change point detection method, moving image change point detection apparatus, moving image change point detection system | |
JP6756338B2 (en) | Image processing equipment, image processing systems, image processing methods and programs | |
JP2018073176A (en) | Image processing device, image processing system, image processing method and program | |
JP2016039496A (en) | Image processing apparatus, image processing system, image processing method and program | |
JP6828377B2 (en) | Image processing equipment, image processing systems, image processing methods and programs | |
JP2021027579A (en) | Image determination device and image determination system | |
JP2007149095A (en) | Method and device for detecting variation point of moving image | |
JP2020065248A (en) | Image processing apparatus, image processing system, image processing method and program | |
EP4294003A2 (en) | Image-based determination apparatus and image-based determination system | |
JP3941808B2 (en) | Moving image change point detection method and apparatus | |
JP2008263657A (en) | Image processor, thumbnail moving image creation method and thumbnail moving image creation program | |
JP2017011498A (en) | Moving image reproduction device and moving image reproduction method | |
US11330140B2 (en) | Image processing apparatus and image processing method | |
CN111459590A (en) | Screenshot processing method and electronic equipment | |
JP2015156658A (en) | Information processing unit, control method of the same and program | |
JP2012222651A (en) | Video playback device, video playback method, and video playback program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20191003 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20191003 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20200825 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200901 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20201030 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210126 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210324 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20210622 |