JP2016039496A - Image processing apparatus, image processing system, image processing method and program - Google Patents

Image processing apparatus, image processing system, image processing method and program Download PDF

Info

Publication number
JP2016039496A
JP2016039496A JP2014161715A JP2014161715A JP2016039496A JP 2016039496 A JP2016039496 A JP 2016039496A JP 2014161715 A JP2014161715 A JP 2014161715A JP 2014161715 A JP2014161715 A JP 2014161715A JP 2016039496 A JP2016039496 A JP 2016039496A
Authority
JP
Japan
Prior art keywords
unit
frame
display
image processing
graph
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2014161715A
Other languages
Japanese (ja)
Inventor
慶二 大村
Keiji Omura
慶二 大村
長谷川 健
Takeshi Hasegawa
健 長谷川
大塚 愛子
Aiko Otsuka
愛子 大塚
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2014161715A priority Critical patent/JP2016039496A/en
Priority to CN201510434337.8A priority patent/CN105376511B/en
Publication of JP2016039496A publication Critical patent/JP2016039496A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Analysis (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an image processing apparatus capable of displaying a desired video quickly, and to provide an image processing system, image processing method and program.SOLUTION: A difference computing unit 308 receives a frame acquired by a frame acquisition unit 307, and computes the difference of pixel values in the area of analysis of an object frame, and the area of analysis of a comparison object frame, as the feature amount of a frame. A graph generation unit 309 generates a difference graph, i.e., a graph of difference value, from the information of difference computed by the difference computing unit 308, for each frame acquired by the frame acquisition unit 307, and displays the graph at a graph display part.SELECTED DRAWING: Figure 3

Description

本発明は、画像処理装置、画像処理システム、画像処理方法およびプログラムに関する。   The present invention relates to an image processing apparatus, an image processing system, an image processing method, and a program.

近年、ビデオカメラ等の撮像装置により録画して得られた映像データを分析して、目的物の検出、または、映像上の物体の動きもしくは異常の検出または分析等を行う画像処理システムの発展が著しい。このような画像処理システムとして、過去の映像データにおいて、表示される映像を複数のブロックに分割し、映像データを構成するフレーム同士について、対応するブロックの画素についての差分を演算し、差分が所定の閾値を超えた場合に動きがあったものとして検出信号を生成するシステムが提案されている(特許文献1参照)。   2. Description of the Related Art In recent years, image processing systems have been developed that analyze video data obtained by recording with an imaging device such as a video camera to detect a target object, or detect or analyze the movement or abnormality of an object on a video. It is remarkable. As such an image processing system, in past video data, a video to be displayed is divided into a plurality of blocks, the difference between the pixels of the corresponding block is calculated for each frame constituting the video data, and the difference is predetermined. There has been proposed a system for generating a detection signal on the assumption that there is a movement when the threshold value is exceeded (see Patent Document 1).

しかしながら、特許文献1に記載された技術は、映像データを構成するフレームの画素についての差分についてグラフを表示するものではないので、例えば、差分が閾値を超えた時刻の特定、およびその前後の状態を把握することができないという問題点があった。また、演算した差分のいずれかが所定の閾値を超えたことを検出できても、差分が閾値を超えた時刻を特定することができないので、その時刻またはその時刻前後の映像箇所を探索するのが困難であるという問題点もあった。   However, since the technique described in Patent Document 1 does not display a graph for the difference between the pixels of the frames constituting the video data, for example, the time when the difference exceeds the threshold and the states before and after that There was a problem that could not be grasped. Also, even if it can detect that any of the calculated differences exceeds a predetermined threshold, the time when the difference exceeds the threshold cannot be specified, so the video location around that time or around that time is searched. There was also a problem that it was difficult.

本発明は、上記に鑑みてなされたものであって、所望の映像を素早く表示させることができる画像処理装置、画像処理システム、画像処理方法およびプログラムを提供することを目的とする。   The present invention has been made in view of the above, and an object of the present invention is to provide an image processing apparatus, an image processing system, an image processing method, and a program capable of quickly displaying a desired video.

上述した課題を解決し、目的を達成するために、本発明は、表示手段と、撮像手段により撮像された映像データを前記表示手段に再生表示させる再生手段と、前記映像データに含まれるフレームごとに画素値の特徴量を演算する演算手段と、前記演算手段により演算された前記特徴量によって、該特徴量を時系列に表すグラフを生成して前記表示手段に表示させる生成手段と、前記表示手段により表示された前記グラフの表示領域のいずれかの部分を指定し、前記部分に対応する前記フレームを、前記再生手段により前記表示手段に表示させるフレーム指定手段と、を備えたことを特徴とする。   In order to solve the above-described problems and achieve the object, the present invention provides a display unit, a reproduction unit that reproduces and displays video data captured by the imaging unit on the display unit, and each frame included in the video data. Calculating means for calculating a feature value of a pixel value; generating means for generating a graph representing the feature quantity in time series by the feature quantity calculated by the calculation means and displaying the graph on the display means; and the display Frame specifying means for designating any part of the display area of the graph displayed by the means and displaying the frame corresponding to the part on the display means by the reproducing means, To do.

本発明によれば、所望の映像を素早く表示させることができる。   According to the present invention, a desired video can be quickly displayed.

図1は、実施の形態に係る画像処理システムの全体構成の一例を示す図である。FIG. 1 is a diagram illustrating an example of the overall configuration of an image processing system according to an embodiment. 図2は、実施の形態の情報処理装置のハードウェア構成の一例を示す図である。FIG. 2 is a diagram illustrating an example of a hardware configuration of the information processing apparatus according to the embodiment. 図3は、実施の形態の情報処理装置の機能ブロックの構成の一例を示す図である。FIG. 3 is a diagram illustrating an example of a functional block configuration of the information processing apparatus according to the embodiment. 図4は、実施の形態の情報処理装置の表示装置に表示されるアプリケーション画面において映像データが表示される例を示す図である。FIG. 4 is a diagram illustrating an example in which video data is displayed on an application screen displayed on the display device of the information processing apparatus according to the embodiment. 図5は、実施の形態の情報処理装置の表示装置に表示されるアプリケーション画面において映像表示部に分析領域を指定する例を示す図である。FIG. 5 is a diagram illustrating an example in which an analysis region is specified in the video display unit on the application screen displayed on the display device of the information processing apparatus according to the embodiment. 図6は、実施の形態の情報処理装置の表示装置に表示されるアプリケーション画面において差分グラフが表示される例を示す図である。FIG. 6 is a diagram illustrating an example in which a difference graph is displayed on the application screen displayed on the display device of the information processing apparatus according to the embodiment. 図7は、実施の形態の情報処理装置の表示装置に表示されるアプリケーション画面において差分グラフに基づく所望の時刻の映像データを表示させる例を示す図である。FIG. 7 is a diagram illustrating an example of displaying video data at a desired time based on the difference graph on the application screen displayed on the display device of the information processing apparatus according to the embodiment. 図8は、実施の形態の画像処理システムにおいて差分グラフを表示させる画像処理動作の一例を示すフローチャートである。FIG. 8 is a flowchart illustrating an example of an image processing operation for displaying a difference graph in the image processing system according to the embodiment.

以下に、図面を参照しながら、本発明に係る画像処理装置、画像処理システム、画像処理方法およびプログラムの実施の形態を詳細に説明する。また、以下の実施の形態によって本発明が限定されるものではなく、以下の実施の形態における構成要素には、当業者が容易に想到できるもの、実質的に同一のもの、およびいわゆる均等の範囲のものが含まれる。さらに、以下の実施の形態の要旨を逸脱しない範囲で構成要素の種々の省略、置換、変更および組み合わせを行うことができる。   Hereinafter, embodiments of an image processing apparatus, an image processing system, an image processing method, and a program according to the present invention will be described in detail with reference to the drawings. In addition, the present invention is not limited by the following embodiments, and constituent elements in the following embodiments are easily conceivable by those skilled in the art, substantially the same, and so-called equivalent ranges. Is included. Furthermore, various omissions, substitutions, changes, and combinations of the constituent elements can be made without departing from the scope of the following embodiments.

(画像処理システムの全体構成)
図1は、実施の形態に係る画像処理システムの全体構成の一例を示す図である。図1を参照しながら、本実施の形態の画像処理システム1の全体構成について説明する。
(Overall configuration of image processing system)
FIG. 1 is a diagram illustrating an example of the overall configuration of an image processing system according to an embodiment. The overall configuration of the image processing system 1 of the present embodiment will be described with reference to FIG.

図1に示すように、本実施の形態の画像処理システム1は、撮像装置2a〜2dと、情報処理装置3と、ネットワーク4と、を含む。   As illustrated in FIG. 1, the image processing system 1 according to the present embodiment includes imaging devices 2 a to 2 d, an information processing device 3, and a network 4.

撮像装置2a〜2dは、被写体からの光を電気信号に変換することによって被写体を撮像(撮影)し、複数のフレーム(画像データ)で構成(例えば、10[FPS])された動画である映像データを生成するビデオカメラである。例えば、撮像装置2a〜2dは、製品を生産する生産設備等を撮像し、予期しない動きを検出かつ分析するための映像データを生成する。   The imaging devices 2a to 2d capture (capture) a subject by converting light from the subject into an electrical signal, and are video images that are configured with a plurality of frames (image data) (for example, 10 [FPS]). A video camera that generates data. For example, the imaging devices 2a to 2d image production facilities that produce products and generate video data for detecting and analyzing unexpected movements.

なお、撮像装置2a〜2dを区別なく呼称する場合、または総称する場合、単に「撮像装置2」というものとする。また、図1では、画像処理システム1は、4台の撮像装置2を含む構成となっているが、これに限定されるものではなく、他の台数の撮像装置2を含む構成であってもよい。   Note that the imaging devices 2a to 2d are simply referred to as “imaging device 2” when referred to without distinction or collectively. In FIG. 1, the image processing system 1 is configured to include four imaging devices 2, but is not limited thereto, and may be configured to include other numbers of imaging devices 2. Good.

情報処理装置3は、撮像装置2によって撮像された映像データに対して画像処理を実行する画像処理装置として機能するPCまたワークステーション等である。情報処理装置3による映像データに対する画像処理については、後述する。   The information processing device 3 is a PC or a workstation that functions as an image processing device that performs image processing on video data captured by the imaging device 2. Image processing on the video data by the information processing apparatus 3 will be described later.

ネットワーク4は、撮像装置2a〜2dと、情報処理装置3とを接続するための、例えば、Ethernet(登録商標)規格のネットワークである。この場合、ネットワーク4では、TCP(Transmission Control Protocol)/IP(Internet Protocol)等のプロトコルによりデータ通信が行われる。また、この場合、撮像装置2a〜2dおよび情報処理装置3は、TCP/IPのプロトコルにより通信するためのMACアドレスを有し、かつプライベートIPアドレス等のIPアドレスが割り当てられている。また、ネットワーク4の具体的な構成は、例えば、複数のポートを有するスイッチングハブに撮像装置2a〜2dおよび情報処理装置3それぞれがLAN(Local Area Network)ケーブルによって接続されたスター配線形式である。   The network 4 is, for example, an Ethernet (registered trademark) standard network for connecting the imaging devices 2 a to 2 d and the information processing device 3. In this case, in the network 4, data communication is performed using a protocol such as TCP (Transmission Control Protocol) / IP (Internet Protocol). In this case, the imaging devices 2a to 2d and the information processing device 3 have a MAC address for communication using the TCP / IP protocol and are assigned an IP address such as a private IP address. The specific configuration of the network 4 is, for example, a star wiring format in which the imaging devices 2a to 2d and the information processing device 3 are connected to a switching hub having a plurality of ports by a LAN (Local Area Network) cable.

なお、撮像装置2a〜2dにより撮像された映像データは、必ずしも、情報処理装置3に記憶される必要はない。例えば、ネットワーク4にデータベースサーバが接続され、撮像装置2a〜2dにより撮像された映像データは、ネットワーク4を介してデータベースサーバに蓄積されるものとしてもよい。この場合、情報処理装置3は、データベースサーバから目的とする映像データを取得し、取得した映像データに対して画像処理を実行するものとすればよい。   Note that the video data captured by the imaging devices 2a to 2d does not necessarily need to be stored in the information processing device 3. For example, a database server may be connected to the network 4 and video data captured by the imaging devices 2 a to 2 d may be stored in the database server via the network 4. In this case, the information processing device 3 may acquire target video data from the database server and perform image processing on the acquired video data.

また、図1に示すネットワーク4は、TCP/IPにより通信される例であるが、これに限定されるものではなく、例えば、情報処理装置3側にVGA(Video Graphics Array)端子またはUSB(Universal Serial Bus)ポートを複数有し、複数の撮像装置2がそれぞれVGAケーブルまたはUSBケーブルで情報処理装置3に接続された形態等であってもよい。   The network 4 shown in FIG. 1 is an example in which communication is performed by TCP / IP, but is not limited to this. For example, a VGA (Video Graphics Array) terminal or a USB (Universal) is provided on the information processing apparatus 3 side. (Serial Bus) ports may be provided, and a plurality of imaging devices 2 may be connected to the information processing device 3 with VGA cables or USB cables, respectively.

(情報処理装置のハードウェア構成)
図2は、実施の形態の情報処理装置のハードウェア構成の一例を示す図である。図2を参照しながら、本実施の形態の情報処理装置3のハードウェア構成について説明する。
(Hardware configuration of information processing device)
FIG. 2 is a diagram illustrating an example of a hardware configuration of the information processing apparatus according to the embodiment. A hardware configuration of the information processing apparatus 3 according to the present embodiment will be described with reference to FIG.

図2に示すように、情報処理装置3は、CPU(Central Processing Unit)101と、ROM(Read Only Memory)102と、RAM(Random Access Memory)103と、外部記憶装置104と、ディスプレイ105と、ネットワークI/F106と、キーボード107と、マウス108と、DVD(Digital Versatile Disc)ドライブ109と、を備えている。   As shown in FIG. 2, the information processing apparatus 3 includes a CPU (Central Processing Unit) 101, a ROM (Read Only Memory) 102, a RAM (Random Access Memory) 103, an external storage device 104, a display 105, A network I / F 106, a keyboard 107, a mouse 108, and a DVD (Digital Versatile Disc) drive 109 are provided.

CPU101は、情報処理装置3全体の動作を制御する装置である。ROM102は、情報処理装置3用のプログラムを記憶している不揮発性記憶装置である。RAM103は、CPU101のワークエリアとして使用される揮発性記憶装置である。   The CPU 101 is a device that controls the overall operation of the information processing apparatus 3. The ROM 102 is a nonvolatile storage device that stores a program for the information processing device 3. The RAM 103 is a volatile storage device used as a work area for the CPU 101.

外部記憶装置104は、撮像装置2により撮像された映像データ、および設定情報等の各種データを記憶するHDD(Hard Disk Drive)またはSSD(Solid State Drive)等の記憶装置である。   The external storage device 104 is a storage device such as an HDD (Hard Disk Drive) or an SSD (Solid State Drive) that stores video data captured by the imaging device 2 and various data such as setting information.

ディスプレイ105は、カーソル、メニュー、ウィンドウ、文字もしくは画像等の各種情報、または情報処理装置3による画像処理を実行するアプリケーションの画面を表示する表示装置である。ディスプレイ105は、例えば、CRT(Cathode Ray Tube)ディスプレイ、液晶ディスプレイ、プラズマディスプレイまたは有機EL(Electroluminescence)ディスプレイ等である。なお、ディスプレイ105は、例えば、情報処理装置3の本体に対して、VGAケーブルまたはHDMI(登録商標)(High−Definition Multimedia Interface)ケーブル等によって接続されたり、または、Ethernetケーブルによって接続される。   The display 105 is a display device that displays various information such as a cursor, a menu, a window, characters or images, or a screen of an application that executes image processing by the information processing device 3. The display 105 is, for example, a CRT (Cathode Ray Tube) display, a liquid crystal display, a plasma display, an organic EL (Electroluminescence) display, or the like. For example, the display 105 is connected to the main body of the information processing apparatus 3 by a VGA cable, an HDMI (registered trademark) (High-Definition Multimedia Interface) cable, or the like, or by an Ethernet cable.

ネットワークI/F106は、ネットワーク4に接続してデータ通信するためのNIC(Network Interface Card)である。具体的には、情報処理装置3は、撮像装置2から、ネットワーク4およびネットワークI/F106を介して、映像データを取得する。   The network I / F 106 is a NIC (Network Interface Card) for connecting to the network 4 and performing data communication. Specifically, the information processing device 3 acquires video data from the imaging device 2 via the network 4 and the network I / F 106.

キーボード107は、文字、数字、各種指示の選択、カーソルの移動、および設定情報の選択等を行う入力装置である。マウス108は、各種指示の選択および実行、処理対象の選択、カーソルの移動、ならびに設定情報の選択等を行うための入力装置である。   A keyboard 107 is an input device for selecting characters, numbers, various instructions, moving a cursor, selecting setting information, and the like. The mouse 108 is an input device for selecting and executing various instructions, selecting a processing target, moving a cursor, selecting setting information, and the like.

DVDドライブ109は、着脱自在な記憶媒体の一例としてのDVD110に対するデータの読み出し、書き込みおよび削除を制御する装置である。   The DVD drive 109 is a device that controls reading, writing, and deletion of data with respect to the DVD 110 as an example of a removable storage medium.

上述のCPU101、ROM102、RAM103、外部記憶装置104、ディスプレイ105、ネットワークI/F106、キーボード107、マウス108およびDVDドライブ109は、アドレスバスおよびデータバス等のバス111によって互いに通信可能に接続されている。なお、ディスプレイ105が、Ethernetケーブルによって接続される場合には、ネットワークI/F106に接続されることになり、この場合、TCP/IP等のプロトコルによりデータ通信が行われる。   The CPU 101, the ROM 102, the RAM 103, the external storage device 104, the display 105, the network I / F 106, the keyboard 107, the mouse 108, and the DVD drive 109 are connected to each other via a bus 111 such as an address bus and a data bus. . When the display 105 is connected by an Ethernet cable, it is connected to the network I / F 106. In this case, data communication is performed using a protocol such as TCP / IP.

(情報処理装置のブロック構成)
図3は、実施の形態の情報処理装置の機能ブロックの構成の一例を示す図である。図3を参照しながら、情報処理装置3のブロック構成について説明する。
(Block configuration of information processing device)
FIG. 3 is a diagram illustrating an example of a functional block configuration of the information processing apparatus according to the embodiment. The block configuration of the information processing apparatus 3 will be described with reference to FIG.

図3に示すように、情報処理装置3は、映像受信部301と、記憶部302と、入力装置303(フレーム指定手段、入力手段、表示操作手段)と、設定部304と、再生部305(再生手段)と、領域指定部306(領域指定手段)と、フレーム取得部307(取得手段)と、差分演算部308(演算手段の一例)と、グラフ生成部309(生成手段)と、補助情報生成部310(閾値算出手段の一例)と、表示制御部311と、表示装置312(表示手段)と、を備えている。   As shown in FIG. 3, the information processing apparatus 3 includes a video reception unit 301, a storage unit 302, an input device 303 (frame designation unit, input unit, display operation unit), a setting unit 304, and a playback unit 305 ( Reproduction means), area designation unit 306 (area designation means), frame acquisition unit 307 (acquisition means), difference calculation unit 308 (an example of calculation means), graph generation unit 309 (generation means), and auxiliary information A generation unit 310 (an example of a threshold value calculation unit), a display control unit 311, and a display device 312 (display unit) are provided.

映像受信部301は、ネットワーク4を介して、撮像装置2とデータ通信を行い、撮像装置2から映像データを受信する機能部である。映像受信部301は、受信した映像データを記憶部302に記憶させる。映像受信部301は、図2に示すネットワークI/F106によって実現される。なお、図3においては、説明を簡略化するため、ネットワーク4の図示を省略して説明する。   The video reception unit 301 is a functional unit that performs data communication with the imaging device 2 via the network 4 and receives video data from the imaging device 2. The video receiving unit 301 stores the received video data in the storage unit 302. The video receiving unit 301 is realized by the network I / F 106 shown in FIG. In FIG. 3, the network 4 is not shown for the sake of simplicity.

記憶部302は、映像受信部301により受信された映像データ、および各種設定情報等を記憶する記憶装置である。記憶部302は、映像受信部301により受信された映像データが、どの撮像装置2により生成された映像データであるかを識別して記憶する。記憶部302は、例えば、図2に示す外部記憶装置104によって実現される。   The storage unit 302 is a storage device that stores the video data received by the video receiving unit 301 and various setting information. The storage unit 302 identifies and stores which imaging device 2 the video data received by the video reception unit 301 is. The storage unit 302 is realized by, for example, the external storage device 104 illustrated in FIG.

入力装置303は、情報処理装置3が実行する画像処理のために操作入力を行うための装置である。入力装置303は、図2に示すキーボード107およびマウス108によって実現される。   The input device 303 is a device for performing operation input for image processing performed by the information processing device 3. The input device 303 is realized by the keyboard 107 and the mouse 108 shown in FIG.

設定部304は、ユーザにより操作される入力装置303からの操作信号に従って、設定情報を設定して記憶部302に記憶させる機能部である。また、設定部304は、設定した設定情報のうち、表示する必要がある情報を、記憶部302から表示制御部311に送り、表示制御部311に対して設定情報を表示装置312に表示させる。設定部304は、図2に示すCPU101により実行されるプログラムにより実現される。   The setting unit 304 is a functional unit that sets setting information and stores the setting information in the storage unit 302 in accordance with an operation signal from the input device 303 operated by the user. In addition, the setting unit 304 sends information that needs to be displayed among the set setting information from the storage unit 302 to the display control unit 311, and causes the display control unit 311 to display the setting information on the display device 312. The setting unit 304 is realized by a program executed by the CPU 101 shown in FIG.

再生部305は、ユーザにより操作される入力装置303からの操作信号に従って、記憶部302から取得した映像データを表示制御部311に送り、表示制御部311に対して映像データを表示装置312に再生表示させる機能部である。再生部305は、図2に示すCPU101により実行されるプログラムにより実現される。   The reproduction unit 305 sends the video data acquired from the storage unit 302 to the display control unit 311 according to an operation signal from the input device 303 operated by the user, and reproduces the video data on the display device 312 for the display control unit 311. It is a functional part to be displayed. The reproduction unit 305 is realized by a program executed by the CPU 101 shown in FIG.

領域指定部306は、ユーザにより操作される入力装置303からの操作信号に従って、表示装置312における映像データの表示領域(図4で後述する映像表示部401)において分析対象となる分析領域を指定する機能部である。領域指定部306は、指定した分析領域の情報を、記憶部302に記憶させる。ここで、分析とは、映像データのフレームから、差分等のフレームの特徴量を演算してグラフ化する画像処理を示すものとする。また、分析領域の情報とは、例えば、映像データの表示領域における分析領域の位置を示す座標、および分析領域の形状等の情報である。領域指定部306は、図2に示すCPU101により実行されるプログラムにより実現される。   The area designating unit 306 designates an analysis area to be analyzed in the video data display area (video display unit 401 described later in FIG. 4) on the display device 312 in accordance with an operation signal from the input device 303 operated by the user. It is a functional part. The area specifying unit 306 causes the storage unit 302 to store information on the specified analysis area. Here, the analysis indicates image processing for calculating a graph by calculating a feature amount of a frame such as a difference from a frame of video data. The analysis area information is, for example, information such as coordinates indicating the position of the analysis area in the display area of the video data and the shape of the analysis area. The area specifying unit 306 is realized by a program executed by the CPU 101 shown in FIG.

フレーム取得部307は、ユーザにより操作される入力装置303からの操作信号(具体的には、後述する分析開始ボタン410を押下した場合の操作信号)に従って、再生部305により再生されている映像データのうち、分析対象となる所定期間(分析時間)のフレームを取得する機能部である。具体的には、フレーム取得部307は、再生部305により再生されている映像データの日付・時刻情報を再生部305から受け取り、その日付・時刻から所定期間前までのフレームを取得する。フレーム取得部307は、図2に示すCPU101により実行されるプログラムにより実現される。   The frame acquisition unit 307 is the video data reproduced by the reproduction unit 305 in accordance with an operation signal from the input device 303 operated by the user (specifically, an operation signal when an analysis start button 410 described later is pressed). Among these, it is a functional unit that acquires frames of a predetermined period (analysis time) to be analyzed. Specifically, the frame acquisition unit 307 receives date / time information of the video data reproduced by the reproduction unit 305 from the reproduction unit 305, and acquires frames from the date / time to a predetermined period before. The frame acquisition unit 307 is realized by a program executed by the CPU 101 illustrated in FIG.

差分演算部308は、フレーム取得部307により取得されたフレームを受け取り、かつ、記憶部302に記憶された分析領域の情報を受け取り、対象フレームの分析領域と、比較対象となるフレームの分析領域との画素値についての差分を、フレームの特徴量として演算する機能部である。フレームの特徴量としての差分の演算方法としては、例えば、2つのフレームの分析領域における画素値を比較し、画素値が異なる画素の数の合計を差分として算出する。また、フレームがグレースケールの画像である場合、画素値は輝度値と一致するので、2つのフレームの分析領域における輝度値を比較し、輝度値が異なる画素の数の合計を差分として算出してもよい。また、フレームがRGBの画素値で構成された画像である場合、R(赤)、G(緑)またはB(青)のいずれかの画素値を比較して、上述と同様に、画素値が異なる画素の数の合計を差分として算出してもよい。また、フレームがL*a*b*表色系の画素値で構成された画像である場合、L*成分、a*成分およびb*成分をそれぞれ正規化した後、√((L1−L2)+(a1−a2)+(b1−b2))のように3点のユークリッド距離による色差を差分として算出してもよい。差分演算部308は、図2に示すCPU101により実行されるプログラムにより実現される。 The difference calculation unit 308 receives the frame acquired by the frame acquisition unit 307 and receives information on the analysis region stored in the storage unit 302, and the analysis region of the target frame and the analysis region of the frame to be compared It is a functional part which calculates the difference about these pixel values as the feature-value of a flame | frame. As a calculation method of the difference as the feature amount of the frame, for example, the pixel values in the analysis regions of the two frames are compared, and the total number of pixels having different pixel values is calculated as the difference. If the frame is a grayscale image, the pixel value matches the luminance value, so the luminance values in the analysis areas of the two frames are compared, and the total number of pixels with different luminance values is calculated as the difference. Also good. When the frame is an image composed of RGB pixel values, the pixel values of R (red), G (green), and B (blue) are compared, and the pixel value is the same as described above. The total number of different pixels may be calculated as a difference. Further, when the frame is an image composed of pixel values of the L * a * b * color system, after normalizing the L * component, the a * component, and the b * component, √ ((L1-L2) The color difference due to the Euclidean distance of three points may be calculated as a difference, such as 2 + (a1−a2) 2 + (b1−b2) 2 ). The difference calculation unit 308 is realized by a program executed by the CPU 101 shown in FIG.

また、差分演算部308は、フレーム取得部307により取得された各フレーム(対象フレーム)に対して、対象フレームの直前のフレームもしくは所定時間前のフレーム、または、特定の固定フレームを、差分を演算する比較対象となるフレーム(基準フレーム)とする。   Also, the difference calculation unit 308 calculates the difference between each frame (target frame) acquired by the frame acquisition unit 307, the frame immediately before the target frame, the frame before a predetermined time, or a specific fixed frame. The frame to be compared (reference frame).

なお、差分演算部308は、上述のように2つのフレームの分析領域における画素値についての差分を算出するものとしたが、これに限定されるものではない。すなわち、差分演算部308は、フレームがRGBの画素値で構成された画像である場合、フレーム取得部307により取得された各フレームについて、分析領域のR、GまたはBのうちいずれかの画素値の合計を、そのフレームの特徴量として算出するものとしてもよい。   Note that although the difference calculation unit 308 calculates the difference between the pixel values in the analysis region of the two frames as described above, the present invention is not limited to this. That is, the difference calculation unit 308, for each frame acquired by the frame acquisition unit 307, if the frame is an image composed of RGB pixel values, any pixel value of R, G, or B of the analysis region May be calculated as the feature amount of the frame.

グラフ生成部309は、フレーム取得部307により取得された各フレームについて差分演算部308により演算された差分の情報から、差分値を時系列に表すグラフを生成する機能部である。グラフ生成部309は、生成した差分値のグラフ情報を表示制御部311に送り、表示制御部311に対して差分値のグラフを表示装置312における表示領域(図4で後述するグラフ表示部402)に表示させる。グラフ生成部309は、図2に示すCPU101により実行されるプログラムにより実現される。   The graph generation unit 309 is a functional unit that generates a graph representing the difference values in time series from the difference information calculated by the difference calculation unit 308 for each frame acquired by the frame acquisition unit 307. The graph generation unit 309 sends the generated difference value graph information to the display control unit 311, and displays the difference value graph for the display control unit 311 in the display area of the display device 312 (a graph display unit 402 described later in FIG. 4). To display. The graph generation unit 309 is realized by a program executed by the CPU 101 illustrated in FIG.

なお、グラフ生成部309は、差分演算部308により演算されたすべての差分の情報から、差分値のグラフを生成することに限定されるものではない。すなわち、グラフ生成部309は、所定のサンプリング幅に含まれるフレーム(例えば、フレームレートが10[FPS]のフレームの場合、1秒分のフレーム、すなわち10個のフレーム)ごとに対応する差分の情報からグラフを生成するものとしてもよい。ここで、所定のサンプリング幅(例えば、上述のように1秒)に含まれるフレームごとに対応する差分は、例えば、そのサンプリング幅に含まれるフレームに対して、それぞれ差分演算部308により演算された差分のうち、最大となる差分をサンプリングしたものとする。また、グラフ生成部309が生成する差分のグラフとして、差分演算部308により演算されたすべての差分の情報から生成するか、上述のように、所定のサンプリング幅に含まれるフレームごとにサンプリングした最大の差分の情報から生成するかを、設定部304により選択設定できるものとしてもよい。   Note that the graph generation unit 309 is not limited to generating a difference value graph from all the difference information calculated by the difference calculation unit 308. In other words, the graph generation unit 309 includes difference information corresponding to each frame included in a predetermined sampling width (for example, in the case of a frame rate of 10 [FPS], a frame for one second, that is, 10 frames). It is good also as what produces | generates a graph from. Here, the difference corresponding to each frame included in a predetermined sampling width (for example, 1 second as described above) is calculated by the difference calculation unit 308 for each frame included in the sampling width, for example. It is assumed that the maximum difference among the differences is sampled. Further, the difference graph generated by the graph generation unit 309 is generated from all the difference information calculated by the difference calculation unit 308, or the maximum sampled for each frame included in the predetermined sampling width as described above. The setting unit 304 may select and set whether to generate the difference information.

補助情報生成部310は、フレーム取得部307により取得された各フレームについて差分演算部308により演算された差分の情報から、最大の差分を検出して、最大の差分を示す補助線を生成する機能部である。また、補助情報生成部310は、最大の差分の所定割合(例えば、80%)の値を閾値として求め、閾値を示す補助線を生成する。そして、補助情報生成部310は、生成した最大の差分を示す補助線、および閾値を示す補助線の情報を表示制御部311に送り、表示制御部311に対して、双方の補助線を表示装置312における表示領域(図4で後述するグラフ表示部402)に表示させる。補助情報生成部310は、図2に示すCPU101により実行されるプログラムにより実現される。なお、補助情報生成部310による上述の補助線の生成および表示は、必須のものではなく、表示させないものとしてもよい。   The auxiliary information generation unit 310 has a function of detecting the maximum difference from the difference information calculated by the difference calculation unit 308 for each frame acquired by the frame acquisition unit 307 and generating an auxiliary line indicating the maximum difference. Part. In addition, the auxiliary information generation unit 310 obtains a value of a predetermined ratio (for example, 80%) of the maximum difference as a threshold value, and generates an auxiliary line indicating the threshold value. Then, the auxiliary information generation unit 310 sends the generated auxiliary line indicating the maximum difference and the auxiliary line information indicating the threshold to the display control unit 311, and displays both auxiliary lines to the display control unit 311. The image is displayed on a display area 312 (a graph display unit 402 described later in FIG. 4). The auxiliary information generation unit 310 is realized by a program executed by the CPU 101 shown in FIG. Note that the generation and display of the above-described auxiliary line by the auxiliary information generation unit 310 is not essential and may not be displayed.

表示制御部311は、表示装置312の表示動作を制御する機能部である。具体的には、表示制御部311は、設定部304により設定された設定情報、再生部305により取得された映像データ、グラフ生成部309により生成された差分値のグラフ、および補助情報生成部310により生成された補助線等を、表示装置312に表示させる。表示制御部311は、図2に示すCPU101により実行されるプログラム(ドライバ等)により実現される。   The display control unit 311 is a functional unit that controls the display operation of the display device 312. Specifically, the display control unit 311 includes setting information set by the setting unit 304, video data acquired by the reproduction unit 305, a difference value graph generated by the graph generation unit 309, and an auxiliary information generation unit 310. The auxiliary line generated by the above is displayed on the display device 312. The display control unit 311 is realized by a program (driver or the like) executed by the CPU 101 shown in FIG.

表示装置312は、表示制御部311の制御に従って各種データを表示する装置である。表示装置312は、本実施の形態では特に、図2に示すCPU101により実行されるプログラム(アプリケーション)により、後述する図4等に示すアプリケーション画面400を表示する。表示装置312は、図2に示すディスプレイ105によって実現される。   The display device 312 is a device that displays various data according to the control of the display control unit 311. In the present embodiment, display device 312 particularly displays application screen 400 shown in FIG. 4 and the like described later by a program (application) executed by CPU 101 shown in FIG. The display device 312 is realized by the display 105 shown in FIG.

なお、領域指定部306が、映像データの表示領域において指定できる分析領域は、1つであることに限定されるものではなく、複数指定することを可能としてもよい。この場合、差分演算部308による差分の演算、およびグラフ生成部309によるグラフの作成の対象となる分析領域は、入力装置303により選択可能とすればよい。これによって、映像データの表示領域において、動きの発生を確認したい箇所が複数ある場合においても、それぞれ分析領域を指定でき、かつそれぞれ分析を行うことができるので、分析作業の効率性が高まる。   The area specifying unit 306 is not limited to one analysis area that can be specified in the video data display area, and a plurality of analysis areas may be specified. In this case, it is only necessary that the input device 303 can select the analysis area that is the target of the difference calculation by the difference calculation unit 308 and the graph generation unit 309. As a result, even when there are a plurality of locations in the video data display area where it is desired to confirm the occurrence of motion, each analysis area can be designated and analyzed, thereby increasing the efficiency of the analysis work.

また、図3に示した設定部304、再生部305、領域指定部306、フレーム取得部307、差分演算部308、グラフ生成部309、補助情報生成部310および表示制御部311の一部または全部は、ソフトウェアであるプログラムではなく、ASIC(Application Specific Integrated Circuit)またはFPGA(Field−Programmable Gate Array)等のハードウェア回路によって実現されてもよい。   In addition, some or all of the setting unit 304, the reproduction unit 305, the region specification unit 306, the frame acquisition unit 307, the difference calculation unit 308, the graph generation unit 309, the auxiliary information generation unit 310, and the display control unit 311 illustrated in FIG. May be implemented by a hardware circuit such as an application specific integrated circuit (ASIC) or a field-programmable gate array (FPGA) instead of a program that is software.

また、設定部304、再生部305、領域指定部306、フレーム取得部307、差分演算部308、グラフ生成部309、補助情報生成部310および表示制御部311は、機能を概念的に示したものであって、このような構成に限定されるものではない。   The setting unit 304, the playback unit 305, the region specification unit 306, the frame acquisition unit 307, the difference calculation unit 308, the graph generation unit 309, the auxiliary information generation unit 310, and the display control unit 311 conceptually show functions. However, it is not limited to such a configuration.

また、以降の説明の簡略化のため、表示制御部311が、受け取ったデータを表示装置312に表示させるという表現を、単に、そのデータを表示制御部311に送った機能部が、表示装置312(または、表示装置312が表示する画面)に表示させると表現するものとする。例えば、再生部305が、映像データを表示制御部311に送り、表示制御部311に対して映像データを表示装置312に再生表示させる場合、単に、再生部305が、映像データを表示装置312に再生表示させると表現するものとする。   In addition, for the sake of simplification of the following description, the expression that the display control unit 311 displays the received data on the display device 312 is simply expressed by the functional unit that has sent the data to the display control unit 311. It is expressed that it is displayed on (or a screen displayed on the display device 312). For example, when the reproduction unit 305 sends the video data to the display control unit 311 and causes the display control unit 311 to reproduce and display the video data on the display device 312, the reproduction unit 305 simply displays the video data on the display device 312. It shall be expressed as a playback display.

(フレームの差分のグラフを表示するアプリケーション画面)
図4は、実施の形態の情報処理装置の表示装置に表示されるアプリケーション画面において映像データが表示される例を示す図である。図5は、実施の形態の情報処理装置の表示装置に表示されるアプリケーション画面において映像表示部に分析領域を指定する例を示す図である。図6は、実施の形態の情報処理装置の表示装置に表示されるアプリケーション画面において差分グラフが表示される例を示す図である。図7は、実施の形態の情報処理装置の表示装置に表示されるアプリケーション画面において差分グラフに基づく所望の時刻の映像データを表示させる例を示す図である。図4〜7を参照しながら、アプリケーション画面400上の動作、およびフレームの差分のグラフを表示する動作等について説明する。
(Application screen that displays a frame difference graph)
FIG. 4 is a diagram illustrating an example in which video data is displayed on an application screen displayed on the display device of the information processing apparatus according to the embodiment. FIG. 5 is a diagram illustrating an example in which an analysis region is specified in the video display unit on the application screen displayed on the display device of the information processing apparatus according to the embodiment. FIG. 6 is a diagram illustrating an example in which a difference graph is displayed on the application screen displayed on the display device of the information processing apparatus according to the embodiment. FIG. 7 is a diagram illustrating an example of displaying video data at a desired time based on the difference graph on the application screen displayed on the display device of the information processing apparatus according to the embodiment. An operation on the application screen 400, an operation for displaying a frame difference graph, and the like will be described with reference to FIGS.

CPU101により実行されるプログラム(アプリケーション)により、図4に示すアプリケーション画面400が表示装置312に表示される。アプリケーション画面400は、分析対象となる映像データ、および、分析結果である差分等の特徴量のグラフ等を表示する画面である。アプリケーション画面400は、図4等に示すように、映像表示部401と、カメラ選択部401aと、グラフ表示部402と、再生ボタン403aと、一時停止ボタン403bと、早送りボタン403cと、早戻しボタン403dと、停止ボタン403eと、マーキングボタン403fと、シークバー404と、スライダー405と、映像拡大ボタン406aと、映像縮小ボタン406bと、スパン拡大ボタン407aと、スパン縮小ボタン407bと、時刻表示部408と、分析時間設定部409と、分析開始ボタン410と、分析停止ボタン411と、を含む。   An application screen 400 shown in FIG. 4 is displayed on the display device 312 by a program (application) executed by the CPU 101. The application screen 400 is a screen that displays video data to be analyzed, a graph of feature amounts such as differences as analysis results, and the like. As shown in FIG. 4 and the like, the application screen 400 includes a video display unit 401, a camera selection unit 401a, a graph display unit 402, a play button 403a, a pause button 403b, a fast forward button 403c, and a fast reverse button. 403d, stop button 403e, marking button 403f, seek bar 404, slider 405, video enlargement button 406a, video reduction button 406b, span enlargement button 407a, span reduction button 407b, and time display unit 408 , An analysis time setting unit 409, an analysis start button 410, and an analysis stop button 411.

映像表示部401は、再生部305によって、ユーザにより操作される入力装置303からの操作信号に従って記憶部302から取得された映像データが再生表示される表示部である。カメラ選択部401aは、ユーザが分析を所望する撮像装置2a〜2dの映像データのうちいずれの映像データを映像表示部401に表示させるのかを選択する操作部である。例えば、撮像装置2a〜2dによって撮像された映像データは、それぞれ「1」〜「4」に対応付けられており、図4の例では、「3」すなわち撮像装置2cの映像データが選択された例を示している。この場合、再生部305は、ユーザによる入力装置303の操作により、「3」のカメラ選択部401aが選択操作されると、撮像装置2cにより撮像された映像データを表示装置312に表示させる。   The video display unit 401 is a display unit that reproduces and displays video data acquired from the storage unit 302 according to an operation signal from the input device 303 operated by the user by the playback unit 305. The camera selection unit 401a is an operation unit that selects which video data is to be displayed on the video display unit 401 among the video data of the imaging devices 2a to 2d that the user desires to analyze. For example, the video data captured by the imaging devices 2a to 2d are associated with “1” to “4”, respectively. In the example of FIG. 4, “3”, that is, the video data of the imaging device 2c is selected. An example is shown. In this case, when the “3” camera selection unit 401 a is selected and operated by the user operating the input device 303, the playback unit 305 displays the video data captured by the imaging device 2 c on the display device 312.

グラフ表示部402は、グラフ生成部309によって生成された差分値のグラフが表示される表示部である。   The graph display unit 402 is a display unit on which a graph of difference values generated by the graph generation unit 309 is displayed.

再生ボタン403aは、ユーザによる入力装置303の操作によって押下(マウス108によるクリック操作等、以下同様)されると、再生部305によって、映像表示部401に表示された映像データが再生開始されるボタンである。一時停止ボタン403bは、ユーザによる入力装置303の操作によって押下されると、再生部305によって、映像表示部401に再生表示されている映像データが一時停止されるボタンである。早送りボタン403cは、ユーザによる入力装置303の操作によって押下されると、再生部305によって、映像表示部401に再生表示されている映像データが早送り表示されるボタンである。早戻しボタン403dは、ユーザによる入力装置303の操作によって押下されると、再生部305によって、映像表示部401に再生表示されている映像データが早戻し表示されるボタンである。停止ボタン403eは、ユーザによる入力装置303の操作によって押下されると、再生部305によって、映像表示部401に再生表示されている映像データが停止されるボタンである。マーキングボタン403fは、後述するように、ユーザによる入力装置303の操作によって押下されると、補助情報生成部310によって、シークバー404上のスライダー405の直上部分にマーク表示されるボタンである。   When the playback button 403a is pressed by a user's operation of the input device 303 (click operation using the mouse 108, etc.), the playback unit 305 starts playback of video data displayed on the video display unit 401. It is. The pause button 403b is a button that, when pressed by the user operating the input device 303, causes the playback unit 305 to pause the video data that is played back and displayed on the video display unit 401. The fast-forward button 403c is a button for fast-forwarding and displaying the video data reproduced and displayed on the video display unit 401 by the reproduction unit 305 when pressed by an operation of the input device 303 by the user. The rewind button 403d is a button for quickly rewinding and displaying the video data reproduced and displayed on the video display unit 401 by the reproduction unit 305 when pressed by the user operating the input device 303. The stop button 403e is a button for stopping the video data reproduced and displayed on the video display unit 401 by the reproduction unit 305 when pressed by an operation of the input device 303 by the user. As will be described later, the marking button 403f is a button that is displayed as a mark immediately above the slider 405 on the seek bar 404 by the auxiliary information generation unit 310 when pressed by an operation of the input device 303 by the user.

シークバー404は、その上に配置されるスライダー405の位置により、映像表示部401に再生表示されている映像データがどの時間のものなのかを示す棒状の形状体である。スライダー405は、映像表示部401に再生表示されている映像データの撮像時刻(表示されているフレームが撮像された時刻)に対応したシークバー404上の位置にスライドする形状体かつ操作部である。逆に、スライダー405は、ユーザによる入力装置303の操作によってスライドされると、再生部305によって、スライダー405が存在するシークバー404上の位置に対応した撮像時刻の映像データのフレームが映像表示部401に表示される。   The seek bar 404 is a bar-shaped body that indicates how long the video data reproduced and displayed on the video display unit 401 is based on the position of the slider 405 disposed thereon. The slider 405 is a shape body and operation unit that slides to a position on the seek bar 404 corresponding to the imaging time of the video data reproduced and displayed on the video display unit 401 (time when the displayed frame is captured). Conversely, when the slider 405 is slid by the operation of the input device 303 by the user, the playback unit 305 causes the video display unit 401 to generate a frame of video data at the imaging time corresponding to the position on the seek bar 404 where the slider 405 exists. Is displayed.

映像拡大ボタン406aは、ユーザによる入力装置303の操作によって押下されると、再生部305によって、映像表示部401に再生表示されている映像データが拡大表示されるボタンである。例えば、映像拡大ボタン406aが押下されるごとに所定の拡大率で映像データが拡大表示される。例えば、通常の表示状態を100%として、120%、140%、・・・のように拡大表示される。映像縮小ボタン406bは、ユーザによる入力装置303の操作によって押下されると、再生部305によって、映像表示部401に再生表示されている映像データが縮小表示されるボタンである。例えば、映像縮小ボタン406bが押下されるごとに所定の縮小率で映像データが縮小表示される。例えば、通常の表示状態を100%として、80%、60%、・・・のように縮小表示される。   The video enlargement button 406a is a button for enlarging and displaying the video data reproduced and displayed on the video display unit 401 by the reproduction unit 305 when pressed by an operation of the input device 303 by the user. For example, every time the video enlargement button 406a is pressed, the video data is enlarged and displayed at a predetermined enlargement ratio. For example, assuming that the normal display state is 100%, the display is enlarged as 120%, 140%,. The video reduction button 406b is a button for reducing and displaying video data reproduced and displayed on the video display unit 401 by the reproduction unit 305 when pressed by an operation of the input device 303 by the user. For example, every time the video reduction button 406b is pressed, the video data is reduced and displayed at a predetermined reduction rate. For example, assuming that the normal display state is 100%, the display is reduced like 80%, 60%,.

スパン拡大ボタン407aは、ユーザによる入力装置303の操作によって押下されると、再生部305によって、シークバー404の表示スパンが拡大されるボタンである。スパン縮小ボタン407bは、ユーザによる入力装置303の操作によって押下されると、再生部305によって、シークバー404の表示スパンが縮小されるボタンである。なお、シークバー404の表示スパンを拡大または縮小するのは再生部305である必要はなく、図示しない異なる機能部が担うものとしてもよい。   The span expansion button 407a is a button for expanding the display span of the seek bar 404 by the playback unit 305 when pressed by the user operating the input device 303. The span reduction button 407 b is a button for reducing the display span of the seek bar 404 by the playback unit 305 when pressed by the user operating the input device 303. Note that it is not necessary for the playback unit 305 to enlarge or reduce the display span of the seek bar 404, and a different function unit (not shown) may be responsible for it.

時刻表示部408は、再生部305によって、映像表示部401に再生表示されている映像データの撮像日付および撮像時刻が表示される表示部である。   The time display unit 408 is a display unit that displays the imaging date and imaging time of the video data reproduced and displayed on the video display unit 401 by the reproduction unit 305.

分析時間設定部409は、映像表示部401に再生表示されている映像データのうち、どれだけの時間分のフレームを分析対象とするかを設定するラジオボタンである。分析時間設定部409のうちいずれかの時間(分析時間)のラジオボタンが、ユーザによる入力装置303の操作によって選択されると、設定部304によって、その選択内容が設定情報として記憶部302に記憶される。また、設定部304は、記憶部302に記憶された分析時間の設定情報に従って、どの分析時間が選択されているかを分析時間設定部409に表示する。図4の例では、分析時間として「10分」が選択されていることが示されている。この場合、映像データのフレームレートが10[FPS]であるものとすると、フレーム取得部307は、映像表示部401に再生表示されている映像データのうち、10分間分のフレーム、すなわち、6000個のフレームを取得する。   The analysis time setting unit 409 is a radio button for setting how many frames of video data reproduced and displayed on the video display unit 401 are to be analyzed. When a radio button of any time (analysis time) in the analysis time setting unit 409 is selected by an operation of the input device 303 by the user, the setting unit 304 stores the selection content as setting information in the storage unit 302. Is done. The setting unit 304 also displays on the analysis time setting unit 409 which analysis time is selected according to the analysis time setting information stored in the storage unit 302. In the example of FIG. 4, it is shown that “10 minutes” is selected as the analysis time. In this case, assuming that the frame rate of the video data is 10 [FPS], the frame acquisition unit 307 has 10 minutes of frames of video data reproduced and displayed on the video display unit 401, that is, 6000 frames. Get the frame.

分析開始ボタン410は、ユーザによる入力装置303の操作によって押下されると、フレーム取得部307による映像データからの分析時間分のフレームの取得、差分演算部308によるフレームの差分の演算、グラフ生成部309による差分値のグラフの生成、および補助情報生成部310による補助線の生成の動作が開始されるボタンである。分析開始ボタン410が押下された場合の動作については、後述する。   When the analysis start button 410 is pressed by the operation of the input device 303 by the user, the frame acquisition unit 307 acquires frames for the analysis time from the video data, the difference calculation unit 308 calculates the frame difference, and the graph generation unit This is a button for starting the generation of the difference value graph by 309 and the operation of generating the auxiliary line by the auxiliary information generating unit 310. The operation when the analysis start button 410 is pressed will be described later.

分析停止ボタン411は、ユーザによる入力装置303の操作によって押下されると、フレーム取得部307、差分演算部308、グラフ生成部309および補助情報生成部310の動作を停止させ、かつ、グラフ生成部309によって、グラフ表示部402に表示された差分値のグラフが消去されるボタンである。なお、分析停止ボタン411は、分析開始ボタン410が押下されることによって開始される処理の途中でも押下して機能を発揮できるものとしてもよい。   When the analysis stop button 411 is pressed by an operation of the input device 303 by the user, the operation of the frame acquisition unit 307, the difference calculation unit 308, the graph generation unit 309, and the auxiliary information generation unit 310 is stopped, and the graph generation unit A button 309 is used to delete the difference value graph displayed on the graph display unit 402. Note that the analysis stop button 411 may be pressed even during the process started when the analysis start button 410 is pressed so as to exhibit the function.

図4に示すアプリケーション画面400は、映像表示部401に、再生部305によって記憶部302から取得された撮像装置2cの映像データが再生表示され、時刻表示部408に、映像表示部401に再生表示されている映像データの撮像日付および撮像時刻が表示されている状態を示している。また、図4に示すアプリケーション画面400は、分析開始ボタン410が押下されることによる映像データのフレームの差分についての分析動作が開始されておらず、グラフ表示部402には、差分値のグラフが表示されていない状態を示す。   The application screen 400 shown in FIG. 4 displays the video data of the imaging device 2c acquired from the storage unit 302 by the playback unit 305 on the video display unit 401, and plays back and displays on the video display unit 401 on the time display unit 408. This shows a state in which the imaging date and imaging time of the video data being displayed are displayed. Further, the application screen 400 shown in FIG. 4 does not start the analysis operation for the difference in the frame of the video data when the analysis start button 410 is pressed, and the graph display unit 402 displays the difference value graph. Indicates a state that is not displayed.

図5に示すアプリケーション画面400は、映像データが再生表示されている映像表示部401において差分についての分析対象となる分析領域501が指定された状態を示している。具体的には、分析領域501は、ユーザによる入力装置303の操作(例えば、マウス108によるドラッグ操作)に従って、領域指定部306が、映像表示部401におけるフレームの差分についての分析対象として指定した領域である。領域指定部306は、指定した分析領域501の情報を、記憶部302に記憶させる。また、領域指定部306が分析領域501を指定する場合、映像表示部401に表示されている映像データは再生状態であってもよく、一時停止状態であってもよい。また、図5に示すアプリケーション画面400は、図4と同様に、分析開始ボタン410が押下されることによる映像データのフレームの差分についての分析動作が開始されておらず、グラフ表示部402には、差分値のグラフが表示されていない状態を示している。   An application screen 400 shown in FIG. 5 shows a state in which an analysis area 501 to be analyzed for differences is specified in the video display unit 401 on which video data is reproduced and displayed. Specifically, the analysis area 501 is an area designated by the area designating unit 306 as an analysis target for frame differences in the video display unit 401 in accordance with an operation of the input device 303 by the user (for example, a drag operation with the mouse 108). It is. The area specifying unit 306 causes the storage unit 302 to store information on the specified analysis area 501. In addition, when the area designating unit 306 designates the analysis area 501, the video data displayed on the video display unit 401 may be in a reproduction state or a pause state. Further, in the application screen 400 shown in FIG. 5, as in FIG. 4, the analysis operation for the difference between the frames of the video data due to the pressing of the analysis start button 410 is not started, and the graph display unit 402 The graph of the difference value is not displayed.

分析領域501として指定する領域としては、例えば、生産設備において部品の落下が予測され、その部品がいつ、どのように、なぜ落下するのかを解析する必要がある箇所が想定される。また、例えば、生産設備に備えられる赤色、黄色、緑色および青色のランプを有するシグナルタワーにおいて、生産設備で原因不明の特定の異常が発生した場合に青色のランプを点灯させる動作にしている場合、青色ランプの映像部分を分析領域501として指定することも想定される。   As an area designated as the analysis area 501, for example, a part is predicted to fall in a production facility, and a part where it is necessary to analyze when, how, and why the part falls is assumed. In addition, for example, in a signal tower having red, yellow, green and blue lamps provided in the production facility, when a specific abnormality of unknown cause occurs in the production facility, the operation is to turn on the blue lamp. It is also assumed that the video portion of the blue lamp is designated as the analysis region 501.

なお、図5に示すように、分析領域501は、矩形状で指定されるものとしているが、これに限定されるものではない。例えば、分析領域501は、多角形状で指定できるものとしてもよく、フリーハンドによる任意の形状で指定できるものとしてもよい。   As shown in FIG. 5, the analysis region 501 is designated as a rectangular shape, but is not limited to this. For example, the analysis region 501 may be designated with a polygonal shape, or may be designated with an arbitrary shape by freehand.

図6に示すアプリケーション画面400は、ユーザによる入力装置303の操作により分析開始ボタン410が押下されることによって、フレーム取得部307により映像データから分析時間分のフレームが取得され、差分演算部308によりフレームの分析領域501の差分が演算され、グラフ生成部309により差分値のグラフが生成されて、グラフ表示部402に差分値のグラフである差分グラフ601が表示された状態を示している。   In the application screen 400 shown in FIG. 6, when the analysis start button 410 is pressed by the user operating the input device 303, the frame acquisition unit 307 acquires a frame for the analysis time from the video data, and the difference calculation unit 308 The difference in the analysis area 501 of the frame is calculated, the graph of the difference value is generated by the graph generation unit 309, and the difference graph 601 that is the graph of the difference value is displayed on the graph display unit 402.

具体的には、まず、ユーザが映像表示部401において映像データの再生表示中に、分析を所望する目安となるタイミングで、入力装置303の操作により一時停止ボタン403bを押下すると、再生部305は、映像表示部401で再生表示されている映像データを一時停止する。また、ユーザが、入力装置303の操作により、分析時間設定部409のうちいずれかの分析時間を選択すると、設定部304は、選択された分析時間を設定情報として設定し、記憶部302に記憶させる。なお、ユーザによる分析時間の設定は、このタイミングではなく、予め設定されているものとしてもよいのは言うまでもない。   Specifically, first, when the user presses the pause button 403b by operating the input device 303 at a timing that is a guideline for analysis while the video display unit 401 reproduces and displays video data, the playback unit 305 The video data reproduced and displayed on the video display unit 401 is paused. When the user selects any analysis time from the analysis time setting unit 409 by operating the input device 303, the setting unit 304 sets the selected analysis time as setting information and stores it in the storage unit 302. Let It goes without saying that the analysis time set by the user may be set in advance, not at this timing.

次に、ユーザが入力装置303の操作により分析開始ボタン410を押下することによって、フレーム取得部307は、映像表示部401で再生表示されている映像データのうち、一時停止されている撮像時刻、すなわち、時刻表示部408に表示されている時刻から、設定部304により設定された分析時間(図6では10分)前までのフレームを取得する。次に、差分演算部308は、フレーム取得部307により取得されたフレームを受け取り、かつ、記憶部302に記憶された分析領域501の情報を受け取り、対象フレームの分析領域501と、比較対象となるフレームの分析領域501との画素値についての差分を、フレームの特徴量として演算する。このとき、差分演算部308は、フレーム取得部307により取得された全フレームについて差分を演算する。そして、グラフ生成部309は、図6に示すように、フレーム取得部307により取得された各フレームについて差分演算部308により演算された差分の情報から、差分値のグラフである差分グラフ601を生成し、グラフ表示部402に表示させる。なお、上述では、ユーザは、映像表示部401で表示されている映像データが一時停止状態において分析開始ボタン410を押下するものとしているが、これに限定されるものではなく、映像データが再生中に分析開始ボタン410を押下して分析動作を開始するものとしてもよい。この場合、フレーム取得部307は、分析開始ボタン410が押下されたタイミングにおける映像データの撮像時刻を抽出し、抽出した撮像時刻から、設定部304により設定された分析時間前までのフレームを取得すればよい。   Next, when the user presses the analysis start button 410 by operating the input device 303, the frame acquisition unit 307 causes the imaging time that is temporarily stopped among the video data reproduced and displayed on the video display unit 401, That is, frames from the time displayed on the time display unit 408 to the analysis time set by the setting unit 304 (10 minutes in FIG. 6) are acquired. Next, the difference calculation unit 308 receives the frame acquired by the frame acquisition unit 307 and receives the information of the analysis region 501 stored in the storage unit 302, and is compared with the analysis region 501 of the target frame. The difference between the pixel value and the analysis area 501 of the frame is calculated as the feature amount of the frame. At this time, the difference calculation unit 308 calculates the difference for all the frames acquired by the frame acquisition unit 307. Then, as illustrated in FIG. 6, the graph generation unit 309 generates a difference graph 601 that is a difference value graph from the difference information calculated by the difference calculation unit 308 for each frame acquired by the frame acquisition unit 307. And displayed on the graph display unit 402. In the above description, it is assumed that the user presses the analysis start button 410 when the video data displayed on the video display unit 401 is paused. However, the present invention is not limited to this, and the video data is being played back. Alternatively, the analysis operation may be started by pressing the analysis start button 410. In this case, the frame acquisition unit 307 extracts the imaging time of the video data at the timing when the analysis start button 410 is pressed, and acquires frames from the extracted imaging time until the analysis time set by the setting unit 304. That's fine.

また、グラフ生成部309は、図6に示すように、映像データから取得したフレームの最前のフレームに対応する撮像時刻を開始時刻表示部605に表示させ、最後のフレームに対応する撮像時刻を終了時刻表示部604に表示させる。   In addition, as illustrated in FIG. 6, the graph generation unit 309 causes the start time display unit 605 to display the imaging time corresponding to the forefront frame acquired from the video data, and ends the imaging time corresponding to the last frame. It is displayed on the time display unit 604.

また、補助情報生成部310は、フレーム取得部307により取得された各フレームについて差分演算部308により演算された差分の情報から、最大の差分を検出して、最大の差分を示す補助線を生成する。また、補助情報生成部310は、最大の差分の値の所定割合の値を閾値として求め、閾値を示す補助線を生成する。そして、補助情報生成部310は、図6に示すように、グラフ表示部402に表示された差分グラフ601に重畳して、最大の差分を示す補助線である最大差分値線602を表示させ、閾値を示す補助線である閾値線603を表示させる。このように、図6に示すように、グラフ表示部402に表示された差分グラフ601に重畳して、最大差分値線602および閾値線603を表示させることによって、映像データの分析領域501において何らかの動きが発生した時間を特定しやすくなる。また、閾値線603の閾値は、上述のように、最大差分値線602の最大の差分の値の所定割合の値としているので、差分グラフ601のいずれかの部分は、閾値線603を超えることになる。したがって、差分グラフ601において、閾値線603を超えた箇所を探索することにより、分析領域501において何らかの動きが発生した時間を特定できる可能性が高くなる。   Further, the auxiliary information generation unit 310 detects the maximum difference from the difference information calculated by the difference calculation unit 308 for each frame acquired by the frame acquisition unit 307 and generates an auxiliary line indicating the maximum difference. To do. In addition, the auxiliary information generation unit 310 calculates a predetermined ratio value of the maximum difference value as a threshold value, and generates an auxiliary line indicating the threshold value. Then, as illustrated in FIG. 6, the auxiliary information generation unit 310 superimposes the difference graph 601 displayed on the graph display unit 402 to display a maximum difference value line 602 that is an auxiliary line indicating the maximum difference, A threshold line 603 which is an auxiliary line indicating the threshold is displayed. In this way, as shown in FIG. 6, the maximum difference value line 602 and the threshold line 603 are displayed so as to be superimposed on the difference graph 601 displayed on the graph display unit 402, thereby causing some kind of analysis in the video data analysis region 501. It becomes easy to specify the time when the movement occurred. Further, as described above, the threshold value of the threshold line 603 is set to a predetermined ratio of the maximum difference value of the maximum difference value line 602, and therefore any part of the difference graph 601 exceeds the threshold line 603. become. Therefore, by searching for a location that exceeds the threshold line 603 in the difference graph 601, there is a high possibility that the time when some movement has occurred in the analysis region 501 can be specified.

また、上述した分析領域501が生産設備において部品の落下が予測される箇所に指定された場合の例では、差分グラフ601、最大差分値線602および閾値線603によって、動きが発生した時間、すなわち、部品が落下した時間を特定しやすくなる。また、上述した生産設備に備えられたシグナルタワーの青色ランプの映像部分を分析領域501として指定した例では、差分グラフ601、最大差分値線602および閾値線603によって、動きが発生した時間、すなわち、青色ランプが点灯した時間を特定しやすくなる。   Further, in the example in which the analysis area 501 described above is designated as a part where a part is expected to be dropped in the production facility, the difference graph 601, the maximum difference value line 602, and the threshold line 603 indicate the time when the movement occurs, , It will be easier to specify the time when the parts dropped. Further, in the example in which the video portion of the blue lamp of the signal tower provided in the above-described production facility is designated as the analysis region 501, the time when the movement occurs by the difference graph 601, the maximum difference value line 602, and the threshold line 603, that is, It becomes easier to specify the time when the blue lamp is lit.

図7に示すアプリケーション画面400は、グラフ表示部402におけるユーザによる入力装置303の操作、例えば、マウス108によってカーソル701が移動され、差分グラフ601が表示されたグラフ表示部402上でクリック操作がなされ、クリック操作されたときのカーソル701のポイントに対応する撮像時刻である指定時刻T1のフレーム(または、ポイントに対応する枚数目の映像データにおけるフレーム)が映像表示部401に表示される状態を示している。また、図7に示すアプリケーション画面400は、ユーザによる入力装置303の操作によりスライダー405が移動され、指定時刻T1から1分後のフレームが映像表示部401に表示され、かつ、そのフレームの分析領域501内に落下物が映り込んでいる状態を示す。さらに、図7に示すアプリケーション画面400は、ユーザによる入力装置303の操作によりマーキングボタン403fが押下されることによって、押下された時点のシークバー404上のスライダー405の直上部分にマーク801が表示された状態を示す。   In the application screen 400 shown in FIG. 7, the user operates the input device 303 in the graph display unit 402, for example, the cursor 701 is moved by the mouse 108 and a click operation is performed on the graph display unit 402 on which the difference graph 601 is displayed. , A state in which a frame at a designated time T1, which is an imaging time corresponding to the point of the cursor 701 when the click operation is performed (or a frame in the number of video data corresponding to the point), is displayed on the video display unit 401. ing. In the application screen 400 shown in FIG. 7, the slider 405 is moved by the user operating the input device 303, the frame one minute after the specified time T1 is displayed on the video display unit 401, and the analysis area of the frame is displayed. A state in which a falling object is reflected in 501 is shown. Furthermore, in the application screen 400 shown in FIG. 7, when the marking button 403f is pressed by the user operating the input device 303, a mark 801 is displayed immediately above the slider 405 on the seek bar 404 at the time of pressing. Indicates the state.

具体的には、まず、ユーザが、入力装置303であるマウス108によってカーソル701を移動させ、差分グラフ601が表示されたグラフ表示部402上でクリック操作すると、再生部305は、ユーザによるクリック操作がなされたときのカーソル701のポイントに対応する撮像時刻である指定時刻T1のフレームを映像表示部401に表示させる。また、再生部305は、指定時刻T1のフレームを映像表示部401に表示させたときに、指定時刻T1を時刻表示部408に表示させる。また、再生部305は、指定時刻T1のフレームを映像表示部401に表示させたときに、スライダー405をシークバー404の真ん中、すなわち「0:00」の部分に移動させる。すなわち、シークバー404の「0:00」が、時刻表示部408に表示された指定時刻T1に対応することになる。   Specifically, first, when the user moves the cursor 701 with the mouse 108 serving as the input device 303 and performs a click operation on the graph display unit 402 on which the difference graph 601 is displayed, the playback unit 305 performs a click operation by the user. A frame at a designated time T1, which is an imaging time corresponding to the point of the cursor 701 at the time when the image is made, is displayed on the video display unit 401. In addition, the playback unit 305 causes the time display unit 408 to display the designated time T1 when the frame at the designated time T1 is displayed on the video display unit 401. Also, the playback unit 305 moves the slider 405 to the middle of the seek bar 404, that is, “0:00” when the frame at the specified time T1 is displayed on the video display unit 401. That is, “0:00” of the seek bar 404 corresponds to the designated time T1 displayed on the time display unit 408.

次に、ユーザが入力装置303の操作によりスライダー405をシークバー404上でスライドさせると、再生部305は、指定時刻T1からシークバー404上のスライダー405の位置に対応する時間を加算した時刻に対応するフレームを映像表示部401に表示させる。図7に示すアプリケーション画面400では、ユーザがスライダー405をシークバー404上の「1:00」の位置にスライドさせた場合に対応するフレーム、すなわち、指定時刻T1(ここでは、「17:59:11.28」)から1分後の時刻(図7の例では「18:00:11.28」)に対応するフレームが映像表示部401に表示された例が示されている。そして、この場合、図7に示すように、映像表示部401に表示されたフレームの分析領域501には落下物が映り込んでおり、分析領域501内で動きが発生したフレームが探索できたことになる。このフレームの分析領域501についての差分の値は大きな値であることが想定され、すなわち、このフレームは、グラフ表示部402の差分グラフ601の最大差分値線602に達している山部近辺に対応するフレームであることが想定できる。   Next, when the user slides the slider 405 on the seek bar 404 by operating the input device 303, the playback unit 305 corresponds to the time obtained by adding the time corresponding to the position of the slider 405 on the seek bar 404 from the specified time T1. The frame is displayed on the video display unit 401. In the application screen 400 shown in FIG. 7, the frame corresponding to the case where the user slides the slider 405 to the position “10:00” on the seek bar 404, that is, the designated time T <b> 1 (here, “17:59:11”). .28 ”), a frame corresponding to a time one minute after (18: 00: 11.28 in the example of FIG. 7) is displayed on the video display unit 401. In this case, as shown in FIG. 7, falling objects are reflected in the analysis area 501 of the frame displayed on the video display unit 401, and it was possible to search for a frame in which movement occurred in the analysis area 501. become. It is assumed that the difference value for the analysis region 501 of this frame is a large value, that is, this frame corresponds to the vicinity of the mountain part reaching the maximum difference value line 602 of the difference graph 601 of the graph display unit 402. It can be assumed that this is a frame to be played.

また、上述した分析領域501が生産設備において部品の落下が予測される箇所に指定された場合の例では、差分グラフ601の閾値線603を超えた部分をクリック操作して、その時刻のフレームを映像表示部401に表示させ、スライダー405のスライド操作により当該時刻の前後の映像を確認することによって、どのように部品が落下し、なぜ落下したかの原因が特定しやすくなる。また、上述した生産設備に備えられたシグナルタワーの青色ランプの映像部分を分析領域501として指定した例では、同様に、差分グラフ601の閾値線603を超えた部分をクリック操作して、その時刻のフレームを映像表示部401に表示させ、スライダー405のスライド操作により当該時刻の前後の映像を確認することによって、どのような状態および環境でその異常が発生したのか解析しやすくなり、異常の発生の原因が特定しやすくなる。   Further, in the example in which the analysis area 501 described above is designated as a part where a part is expected to drop in the production facility, the portion of the difference graph 601 that exceeds the threshold line 603 is clicked, and the frame at that time is displayed. By displaying the image on the image display unit 401 and confirming the images before and after the time by the sliding operation of the slider 405, it is easy to identify how the component has dropped and why. In addition, in the example in which the image portion of the blue lamp of the signal tower provided in the above-described production facility is designated as the analysis region 501, similarly, the portion of the difference graph 601 that exceeds the threshold line 603 is clicked, and the time Is displayed on the video display unit 401, and by confirming the video before and after the time by sliding the slider 405, it becomes easy to analyze in which state and environment the abnormality has occurred, and the occurrence of the abnormality. It becomes easier to identify the cause of.

また、図7に示すように、分析領域501において落下物が映り込んだ状態、すなわち分析領域501において動きが発生した状態において、ユーザが入力装置303の操作によりマーキングボタン403fを押下すると、補助情報生成部310は、シークバー404上のスライダー405の直上部分にマーク801を表示させる。このマーク801を表示させることによって、シークバー404上において動きが発生した時刻をマーキングしておくことができ、動きが発生した原因を解析するための手がかりとすることができる。   In addition, as shown in FIG. 7, when the user presses the marking button 403 f by operating the input device 303 in a state where a fallen object is reflected in the analysis region 501, that is, in a state where movement occurs in the analysis region 501, auxiliary information The generation unit 310 causes the mark 801 to be displayed in a portion immediately above the slider 405 on the seek bar 404. By displaying this mark 801, it is possible to mark the time when the movement has occurred on the seek bar 404, which can be used as a clue for analyzing the cause of the movement.

以上のように、差分演算部308は、フレーム取得部307により取得された分析時間分のフレームを受け取り、対象フレームと、比較対象となるフレームとの画素値についての特徴量(差分等)を演算し、グラフ生成部309は、差分演算部308により演算された特徴量の情報から、特徴量のグラフ(例えば、差分グラフ601)を生成して、表示装置312に表示させている。これによって、特徴量が大きくなる時間を特定しやすくなり、映像データにおいて何らかの動きが発生した時間を特定しやすくなる。   As described above, the difference calculation unit 308 receives frames for the analysis time acquired by the frame acquisition unit 307, and calculates feature amounts (differences, etc.) for pixel values between the target frame and the comparison target frame. The graph generation unit 309 generates a feature amount graph (for example, the difference graph 601) from the feature amount information calculated by the difference calculation unit 308, and displays the graph on the display device 312. This makes it easy to specify the time when the feature amount increases, and makes it easy to specify the time when some movement has occurred in the video data.

さらに、補助情報生成部310は、グラフ表示部402に表示された差分グラフ601に重畳して、最大の特徴量を示す最大値線(例えば、最大差分値線602)を表示させ、閾値を示す補助線である閾値線(例えば、閾値線603)を表示させるものとしている。これによって、差分グラフ601において何らかの動きが発生した時間をさらに特定しやすくなる。   Further, the auxiliary information generation unit 310 superimposes the difference graph 601 displayed on the graph display unit 402 to display a maximum value line (for example, the maximum difference value line 602) indicating the maximum feature amount, and to indicate a threshold value. A threshold line that is an auxiliary line (for example, a threshold line 603) is displayed. This makes it easier to specify the time when some movement has occurred in the difference graph 601.

また、領域指定部306は、映像データの表示領域(映像表示部401)において分析領域を指定し、差分演算部308は、フレーム取得部307により取得されたフレームに対して、対象フレームの分析領域と、比較対象となるフレームの分析領域との画素値についての特徴量として演算するものとしている。これによって、動きが発生していると思われる箇所を分析領域として指定することができるので、差分演算部308によって演算される特徴量について、動きが発生した場合の特徴量の変化が顕著になるので、特徴量が大きく変化する時間を特定しやすくなり、映像データにおいて何らかの動きが発生した時間をさらに特定しやすくなる。例えば、差分演算部308による特徴量の演算の対象をフレーム全体とした場合、映像データの表示領域全体で常時動きがあると、その全体の動きによる特徴量の変化がグラフに出ることになる。そのため、映像データの表示領域のうち、ユーザが分析を所望し、動き(例えば、物体の落下等)が発生していると思われる箇所において、当該動きが発生しても、特徴量の変化としてグラフに現れない可能性がある。一方、領域指定部306によって分析領域として上述の箇所が指定されることによって、分析領域内で発生する動きが、特徴量の変化としてグラフに突出して現れる可能性が高くなり、当該動きが発生する状態を把握しやすくなる。   In addition, the area designating unit 306 designates an analysis area in the video data display area (video display unit 401), and the difference calculation unit 308 performs analysis of the target frame on the frame acquired by the frame acquisition unit 307. And the feature value for the pixel value of the analysis area of the frame to be compared is calculated. As a result, since it is possible to designate a portion where movement is considered to be an analysis area, a change in the characteristic amount when the movement occurs is significant for the characteristic amount calculated by the difference calculation unit 308. Therefore, it becomes easy to specify the time when the feature amount changes greatly, and it becomes easier to specify the time when some movement occurs in the video data. For example, in the case where the target of feature amount calculation by the difference calculation unit 308 is the entire frame, if there is a constant movement in the entire display area of the video data, a change in the feature amount due to the entire movement appears on the graph. Therefore, in the display area of the video data, even if the movement occurs in a place where the user desires to analyze and the movement (for example, the fall of an object) seems to occur, It may not appear on the graph. On the other hand, when the above-mentioned location is designated as the analysis area by the area designating unit 306, the movement that occurs in the analysis area is more likely to appear in the graph as a change in the feature amount, and the movement occurs. It becomes easy to grasp the state.

また、特徴量のグラフが表示されたグラフ表示部402の領域の特定部分を入力装置303によって指示する操作(例えば、マウス108によるクリック操作)によって、再生部305は、指示された特定部分のフレームを映像表示部401に表示させるものとしている。これによって、ユーザが所望する撮像時刻のフレームを素早く表示させることができ、動きが発生した原因、またはその動きに伴う事象が発生した原因を特定しやすくすることができる。   Further, the operation of instructing the specific portion of the area of the graph display unit 402 on which the feature amount graph is displayed by the input device 303 (for example, a click operation with the mouse 108) causes the reproduction unit 305 to display the frame of the specified specific portion. Is displayed on the video display unit 401. Accordingly, the frame at the imaging time desired by the user can be quickly displayed, and the cause of the movement or the cause of the event accompanying the movement can be easily identified.

また、上述のように、再生部305により、指示された特定部分に対応する撮像時刻のフレームが映像表示部401により表示されてから、シークバー404のスライダー405をスライドさせることにより、ユーザは、その撮像時刻を基準にして前後の映像を確認することができる。これによって、動きが発生した原因、またはその動きに伴う事象が発生した原因をさらに特定しやすくなる。   Further, as described above, after the playback unit 305 displays the frame at the imaging time corresponding to the specified specific part on the video display unit 401, the user can move the slider 405 of the seek bar 404 by sliding the frame 405. The images before and after the imaging time can be checked. This makes it easier to identify the cause of the movement or the cause of the event associated with the movement.

(差分グラフを表示させる画像処理動作)
図8は、実施の形態の画像処理システムにおいて差分グラフを表示させる画像処理動作の一例を示すフローチャートである。図8を参照しながら、差分グラフを表示させるまでの画像処理(分析)の動作の流れを総括的に説明する。
(Image processing operation to display the difference graph)
FIG. 8 is a flowchart illustrating an example of an image processing operation for displaying a difference graph in the image processing system according to the embodiment. With reference to FIG. 8, the flow of the image processing (analysis) operation until the difference graph is displayed will be generally described.

<ステップS11>
再生部305は、記憶部302から取得した撮像装置2の映像データを、アプリケーション画面400の映像表示部401に再生表示させる。そして、ステップS12へ移行する。
<Step S11>
The reproduction unit 305 reproduces and displays the video data of the imaging device 2 acquired from the storage unit 302 on the video display unit 401 of the application screen 400. Then, the process proceeds to step S12.

<ステップS12>
領域指定部306は、ユーザによる入力装置303の操作(例えば、ドラッグ操作)に従って、映像表示部401におけるフレームの差分を求めるための指定した領域である分析領域501を指定し、指定した分析領域501の情報を記憶部302に記憶させる。そして、ステップS13へ移行する。
<Step S12>
The area specifying unit 306 specifies an analysis area 501 that is a specified area for obtaining a frame difference in the video display unit 401 in accordance with an operation (for example, a drag operation) of the input device 303 by the user, and the specified analysis area 501 is specified. Is stored in the storage unit 302. Then, the process proceeds to step S13.

<ステップS13>
フレーム取得部307は、ユーザによる入力装置303の操作により分析開始ボタン410が押下されることによって、映像表示部401で再生表示されている映像データのうち、分析開始ボタン410が押下されたときの映像データの撮像時刻から、設定部304により設定された分析時間前までのフレームを取得する。そして、ステップS14へ移行する。なお、ステップS14へ移行するタイミングは、必ずしも、検知領域指定部307によって、設定された分析時間前までのすべてのフレームが取得された後である必要はなく、フレームが取得されている途中であってもよい。
<Step S13>
When the analysis start button 410 is pressed by an operation of the input device 303 by the user, the frame acquisition unit 307 operates when the analysis start button 410 is pressed among the video data reproduced and displayed on the video display unit 401. Frames from the imaging time of the video data to the analysis time set by the setting unit 304 are acquired. Then, the process proceeds to step S14. Note that the timing of shifting to step S14 does not necessarily have to be after all frames before the set analysis time have been acquired by the detection area designating unit 307, but during the acquisition of frames. May be.

<ステップS14>
差分演算部308が、フレーム取得部307により取得された各フレーム(対象フレーム)に対して、対象フレームの直前のフレーム、または所定時間前のフレームを比較対象となるフレームとして、画素値についての差分を演算する場合(ステップS14:前フレーム)、ステップS16へ移行する。一方、差分演算部308が、フレーム取得部307により取得された各フレーム(対象フレーム)に対して、特定の固定フレームを比較対象となるフレームとして、画素値についての差分を演算する場合(ステップS14:特定フレーム)、ステップS15へ移行する。なお、比較対象となるフレームを対象フレームの直前のフレームもしくは所定時間前のフレーム、または、特定の固定フレームとするかは、設定部304によって設定情報として設定されているものとしてもよい。
<Step S14>
The difference calculation unit 308 uses the frame immediately before the target frame or the frame before the predetermined time as a frame to be compared with respect to each frame (target frame) acquired by the frame acquisition unit 307. (Step S14: previous frame), the process proceeds to step S16. On the other hand, when the difference calculation unit 308 calculates a difference regarding the pixel value for each frame (target frame) acquired by the frame acquisition unit 307 using a specific fixed frame as a comparison target frame (step S14). : Specific frame), the process proceeds to step S15. Whether the frame to be compared is a frame immediately before the target frame, a frame before a predetermined time, or a specific fixed frame may be set by the setting unit 304 as setting information.

<ステップS15>
差分演算部308は、フレーム取得部307により取得されたフレームを受け取り、かつ、記憶部302に記憶された分析領域501の情報を受け取り、対象フレームの分析領域501と、特定の固定フレームの分析領域501との画素値についての差分を、フレームの特徴量として演算する。このとき、差分演算部308は、フレーム取得部307により取得された全フレームについて差分を演算する。そして、ステップS17へ移行する。
<Step S15>
The difference calculation unit 308 receives the frame acquired by the frame acquisition unit 307 and receives the information of the analysis region 501 stored in the storage unit 302, and the analysis region 501 of the target frame and the analysis region of the specific fixed frame The difference with respect to the pixel value from 501 is calculated as the feature amount of the frame. At this time, the difference calculation unit 308 calculates the difference for all the frames acquired by the frame acquisition unit 307. Then, the process proceeds to step S17.

<ステップS16>
差分演算部308は、フレーム取得部307により取得されたフレームを受け取り、かつ、記憶部302に記憶された分析領域501の情報を受け取り、対象フレームの分析領域501と、対象フレームの直前のフレーム、または所定時間前のフレームの分析領域501との画素値についての差分を、フレームの特徴量として演算する。このとき、差分演算部308は、フレーム取得部307により取得された全フレームについて差分を演算する。そして、ステップS17へ移行する。
<Step S16>
The difference calculation unit 308 receives the frame acquired by the frame acquisition unit 307 and receives the information of the analysis region 501 stored in the storage unit 302, the analysis region 501 of the target frame, the frame immediately before the target frame, Alternatively, a difference in pixel value from the analysis area 501 of the frame before a predetermined time is calculated as a frame feature amount. At this time, the difference calculation unit 308 calculates the difference for all the frames acquired by the frame acquisition unit 307. Then, the process proceeds to step S17.

<ステップS17>
補助情報生成部310は、フレーム取得部307により取得された各フレームについて差分演算部308により演算された差分の情報から、最大の差分を検出して、最大の差分を示す補助線を生成する。補助情報生成部310は、最大の差分の値の所定割合の値を閾値として求め、閾値を示す補助線を生成する。そして、ステップS18へ移行する。
<Step S17>
The auxiliary information generation unit 310 detects the maximum difference from the difference information calculated by the difference calculation unit 308 for each frame acquired by the frame acquisition unit 307, and generates an auxiliary line indicating the maximum difference. The auxiliary information generation unit 310 obtains a value of a predetermined ratio of the maximum difference value as a threshold value, and generates an auxiliary line indicating the threshold value. Then, the process proceeds to step S18.

<ステップS18>
グラフ生成部309が、フレーム取得部307により取得された各フレームについて差分演算部308により演算された差分の情報から、すべての差分値を時系列に表すグラフを生成する場合(ステップS18:No)、ステップS19へ移行し、所定のサンプリング幅に含まれるフレームごとに対応する差分値を時系列に表すグラフを生成する場合(ステップS18:Yes)、ステップS20へ移行する。なお、すべての差分値のグラフを生成するか、所定のサンプリング幅に含まれるフレームごとに対応する差分値のグラフを生成するかは、設定部304によって設定情報として設定されているものとしてもよい。
<Step S18>
When the graph generation unit 309 generates a graph representing all the difference values in time series from the difference information calculated by the difference calculation unit 308 for each frame acquired by the frame acquisition unit 307 (step S18: No) When the process proceeds to step S19 and a graph representing the difference value corresponding to each frame included in the predetermined sampling width in time series is generated (step S18: Yes), the process proceeds to step S20. Whether to generate a graph of all difference values or to generate a graph of difference values corresponding to each frame included in a predetermined sampling width may be set as setting information by the setting unit 304. .

<ステップS19>
グラフ生成部309は、フレーム取得部307により取得された各フレームについて差分演算部308により演算された差分の情報から、すべての差分値を時系列に表すグラフを生成し、グラフ表示部402に表示させる。そして、ステップS21へ移行する。
<Step S19>
The graph generation unit 309 generates a graph representing all the difference values in time series from the difference information calculated by the difference calculation unit 308 for each frame acquired by the frame acquisition unit 307 and displays the graph on the graph display unit 402. Let Then, the process proceeds to step S21.

<ステップS20>
グラフ生成部309は、フレーム取得部307により取得された各フレームについて差分演算部308により演算された差分の情報から、所定のサンプリング幅に含まれるフレームごとに対応する差分値を時系列に表すグラフを生成し、グラフ表示部402に表示させる。ここで、所定のサンプリング幅(例えば、上述のように1秒)に含まれるフレームごとに対応する差分は、例えば、そのサンプリング幅に含まれるフレームに対して、それぞれ差分演算部308により演算された差分のうち、最大となる差分をサンプリングしたものとする。なお、この場合、図7で上述したように、差分グラフが表示されたグラフ表示部402においてクリック操作がされた場合、カーソル701のポイントに対応する撮像時刻が含まれるサンプリング幅に属する最大の差分に対応するフレームの撮像時刻を、指定時刻T1とすればよい。そして、ステップS21へ移行する。
<Step S20>
The graph generation unit 309 is a graph that represents the difference values corresponding to each frame included in the predetermined sampling width in time series from the difference information calculated by the difference calculation unit 308 for each frame acquired by the frame acquisition unit 307. Is generated and displayed on the graph display unit 402. Here, the difference corresponding to each frame included in a predetermined sampling width (for example, 1 second as described above) is calculated by the difference calculation unit 308 for each frame included in the sampling width, for example. It is assumed that the maximum difference among the differences is sampled. In this case, as described above with reference to FIG. 7, when a click operation is performed on the graph display unit 402 on which the difference graph is displayed, the maximum difference belonging to the sampling width including the imaging time corresponding to the point of the cursor 701 is included. The image capturing time of the frame corresponding to may be set as the designated time T1. Then, the process proceeds to step S21.

<ステップS21>
グラフ表示部402におけるユーザによる入力装置303の操作、例えば、マウス108によってカーソル701を移動させ、差分グラフ601が表示されたグラフ表示部402上でクリック操作がなされることにより、クリック操作したときのカーソル701のポイントに対応する撮像時刻である指定時刻T1のフレーム(または、ポイントに対応する枚数目の映像データにおけるフレーム)が映像表示部401に表示される。以上で、差分値のグラフを表示させ、指定時刻T1のフレームを映像表示部401に表示させる画像処理(分析)の動作を終了する。
<Step S21>
The operation of the input device 303 by the user in the graph display unit 402, for example, when the cursor 701 is moved by the mouse 108 and the click operation is performed on the graph display unit 402 on which the difference graph 601 is displayed. A frame at the designated time T1 that is the imaging time corresponding to the point of the cursor 701 (or a frame in the number of video data corresponding to the point) is displayed on the video display unit 401. The image processing (analysis) operation for displaying the difference value graph and displaying the frame at the designated time T1 on the video display unit 401 is thus completed.

また、本実施の形態の設定部304、再生部305、領域指定部306、フレーム取得部307、差分演算部308、グラフ生成部309、補助情報生成部310および表示制御部311の少なくともいずれかがプログラムの実行によって実現される場合、そのプログラムは、ROM等に予め組み込まれて提供される。また、本実施の形態の情報処理装置3で実行されるプログラムは、インストール可能な形式または実行可能な形式のファイルでCD−ROM、フレキシブルディスク(FD)、CD−R、DVD等のコンピュータで読み取り可能な記録媒体に記録して提供するように構成してもよい。また、本実施の形態の情報処理装置3で実行されるプログラムを、インターネット等のネットワークに接続されたコンピュータ上に格納し、ネットワーク経由でダウンロードさせることにより提供するように構成してもよい。また、本実施の形態の情報処理装置3で実行されるプログラムを、インターネット等のネットワーク経由で提供または配布するように構成してもよい。本実施の形態の情報処理装置3で実行されるプログラムは、上述した設定部304、再生部305、領域指定部306、フレーム取得部307、差分演算部308、グラフ生成部309、補助情報生成部310および表示制御部311の少なくともいずれかを含むモジュール構成となっており、実際のハードウェアとしてはCPUが上述のROMからプログラムを読み出して実行することにより、上述の各部が主記憶装置上にロードされて生成されるようになっている。   In addition, at least one of the setting unit 304, the reproduction unit 305, the region specification unit 306, the frame acquisition unit 307, the difference calculation unit 308, the graph generation unit 309, the auxiliary information generation unit 310, and the display control unit 311 according to this embodiment. When realized by executing the program, the program is provided by being incorporated in advance in a ROM or the like. The program executed by the information processing apparatus 3 according to the present embodiment is an installable or executable file and is read by a computer such as a CD-ROM, flexible disk (FD), CD-R, or DVD. You may comprise so that it may record on a possible recording medium and provide. The program executed by the information processing apparatus 3 according to the present embodiment may be configured to be stored by being stored on a computer connected to a network such as the Internet and downloaded via the network. Further, the program executed by the information processing apparatus 3 of the present embodiment may be configured to be provided or distributed via a network such as the Internet. The program executed by the information processing apparatus 3 according to the present embodiment includes the setting unit 304, the reproduction unit 305, the region specification unit 306, the frame acquisition unit 307, the difference calculation unit 308, the graph generation unit 309, and the auxiliary information generation unit. The module includes at least one of 310 and the display control unit 311. As actual hardware, the CPU reads a program from the above-described ROM and executes the program so that the above-described units are loaded onto the main storage device. Has been generated.

1 画像処理システム
2、2a〜2d 撮像装置
3 情報処理装置
4 ネットワーク
101 CPU
102 ROM
103 RAM
104 外部記憶装置
105 ディスプレイ
106 ネットワークI/F
107 キーボード
108 マウス
109 DVDドライブ
110 DVD
111 バス
301 映像受信部
302 記憶部
303 入力装置
304 設定部
305 再生部
306 領域指定部
307 フレーム取得部
308 差分演算部
309 グラフ生成部
310 補助情報生成部
311 表示制御部
312 表示装置
400 アプリケーション画面
401 映像表示部
401a カメラ選択部
402 グラフ表示部
403a 再生ボタン
403b 一時停止ボタン
403c 早送りボタン
403d 早戻しボタン
403e 停止ボタン
403f マーキングボタン
404 シークバー
405 スライダー
406a 映像拡大ボタン
406b 映像縮小ボタン
407a スパン拡大ボタン
407b スパン縮小ボタン
408 時刻表示部
409 分析時間設定部
410 分析開始ボタン
411 分析停止ボタン
501 分析領域
601 差分グラフ
602 最大差分値線
603 閾値線
604 終了時刻表示部
605 開始時刻表示部
701 カーソル
801 マーク
T1 指定時刻
DESCRIPTION OF SYMBOLS 1 Image processing system 2, 2a-2d Image pick-up device 3 Information processing device 4 Network 101 CPU
102 ROM
103 RAM
104 External storage device 105 Display 106 Network I / F
107 keyboard 108 mouse 109 DVD drive 110 DVD
DESCRIPTION OF SYMBOLS 111 Bus 301 Image | video receiving part 302 Storage part 303 Input device 304 Setting part 305 Playback part 306 Area designation part 307 Frame acquisition part 308 Difference calculating part 309 Graph generation part 310 Auxiliary information generation part 311 Display control part 312 Display apparatus 400 Application screen 401 Video display unit 401a Camera selection unit 402 Graph display unit 403a Play button 403b Pause button 403c Fast forward button 403d Fast reverse button 403e Stop button 403f Marking button 404 Seek bar 405 Slider 406a Video enlarge button 406b Video reduce button 407a Span enlarge button 407b Span shrink Button 408 Time display section 409 Analysis time setting section 410 Analysis start button 411 Analysis stop button 501 Analysis area 601 Difference Graph 602 maximum difference value line 603 the threshold line 604 end time display part 605 starts the time display unit 701 cursor 801 marks T1 specified time

特許第4706573号公報Japanese Patent No. 4706573

Claims (16)

表示手段と、
撮像手段により撮像された映像データを前記表示手段に再生表示させる再生手段と、
前記映像データに含まれるフレームごとに画素値の特徴量を演算する演算手段と、
前記演算手段により演算された前記特徴量によって、該特徴量を時系列に表すグラフを生成して前記表示手段に表示させる生成手段と、
前記表示手段により表示された前記グラフの表示領域のいずれかの部分を指定し、前記部分に対応する前記フレームを、前記再生手段により前記表示手段に表示させるフレーム指定手段と、
を備えた画像処理装置。
Display means;
Reproduction means for reproducing and displaying the video data imaged by the imaging means on the display means;
A calculation means for calculating a feature value of a pixel value for each frame included in the video data;
Generating means for generating a graph representing the feature quantity in time series by the feature quantity computed by the computing means and displaying the graph on the display means;
A frame designating unit that designates any part of the display area of the graph displayed by the display unit, and causes the display unit to display the frame corresponding to the part;
An image processing apparatus.
前記フレーム指定手段は、前記部分に対応する撮像時刻の前記フレームを、前記再生手段により前記表示手段に表示させる請求項1に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the frame designating unit causes the reproduction unit to display the frame at the imaging time corresponding to the portion on the display unit. 入力手段を、さらに備え、
前記フレーム指定手段は、前記入力手段からの操作信号に従って、前記部分を指定する請求項1または2に記載の画像処理装置。
An input means,
The image processing apparatus according to claim 1, wherein the frame specifying unit specifies the portion in accordance with an operation signal from the input unit.
前記表示手段により表示された前記映像データの表示領域において分析領域を指定する領域指定手段を、さらに備え、
前記演算手段は、前記映像データに含まれる前記フレームごとに前記分析領域の前記特徴量を演算する請求項1または2に記載の画像処理装置。
An area specifying means for specifying an analysis area in the display area of the video data displayed by the display means;
The image processing apparatus according to claim 1, wherein the calculation unit calculates the feature amount of the analysis region for each of the frames included in the video data.
入力手段を、さらに備え、
前記領域指定手段は、前記入力手段からの操作信号に従って、前記分析領域を指定する請求項4に記載の画像処理装置。
An input means,
The image processing apparatus according to claim 4, wherein the region specifying unit specifies the analysis region in accordance with an operation signal from the input unit.
前記演算手段は、前記映像データに含まれる前記フレームの前記分析領域と、基準フレームの前記分析領域との画素値についての差分を前記特徴量として演算する請求項4または5に記載の画像処理装置。   The image processing apparatus according to claim 4, wherein the calculation unit calculates a difference between pixel values of the analysis region of the frame and the analysis region of a reference frame included in the video data as the feature amount. . 前記基準フレームは、前記演算手段による前記差分の演算対象となる前記フレームの直前または所定時間前のフレームである請求項6に記載の画像処理装置。   The image processing apparatus according to claim 6, wherein the reference frame is a frame immediately before or a predetermined time before the frame that is the calculation target of the difference by the calculation unit. 前記基準フレームは、特定の固定フレームである請求項6に記載の画像処理装置。   The image processing apparatus according to claim 6, wherein the reference frame is a specific fixed frame. 前記演算手段は、前記映像データに含まれる前記フレームの前記分析領域における所定の色に関する画素値の合計を前記特徴量として演算する請求項4または5に記載の画像処理装置。   The image processing apparatus according to claim 4, wherein the calculation unit calculates a sum of pixel values relating to a predetermined color in the analysis region of the frame included in the video data as the feature amount. 前記領域指定手段は、前記映像データの表示領域において、複数の前記分析領域を指定する請求項3〜7のいずれか一項に記載の画像処理装置。   The image processing apparatus according to claim 3, wherein the area designating unit designates a plurality of the analysis areas in the display area of the video data. 前記表示手段により表示されている前記映像データに含まれる前記フレームのうち、所定期間に含まれる前記フレームを取得する取得手段を、さらに備え、
前記演算手段は、前記取得手段により取得された前記フレームごとに前記特徴量を演算する請求項1〜10のいずれか一項に記載の画像処理装置。
An acquisition means for acquiring the frame included in a predetermined period of the frames included in the video data displayed by the display means;
The image processing apparatus according to claim 1, wherein the calculation unit calculates the feature amount for each of the frames acquired by the acquisition unit.
前記演算手段により演算された前記特徴量から最大値を求め、前記最大値の所定割合の値を閾値として算出し前記グラフに重畳して前記閾値の補助線を前記表示手段に表示させる閾値算出手段を、さらに備えた請求項1〜11のいずれか一項に記載の画像処理装置。   Threshold calculation means for obtaining a maximum value from the feature value calculated by the calculation means, calculating a value of a predetermined ratio of the maximum value as a threshold value, and superimposing the threshold value on the graph to display the auxiliary line of the threshold value on the display means The image processing apparatus according to any one of claims 1 to 11, further comprising: 前記撮像時刻の前記フレームの前後のフレームに基づく映像を、前記再生手段により前記表示手段に表示させる表示操作手段を、さらに備えた請求項1〜12のいずれか一項に記載の画像処理装置。   The image processing apparatus according to claim 1, further comprising: a display operation unit that causes the display unit to display a video based on frames before and after the frame at the imaging time. 1以上の前記撮像手段と、
請求項1〜13のいずれか一項に記載された画像処理装置と、
を備えた画像処理システム。
One or more imaging means;
An image processing device according to any one of claims 1 to 13,
An image processing system.
撮像手段により撮像された映像データを表示手段に再生表示させる再生ステップと、
前記映像データに含まれるフレームごとに画素値の特徴量を演算する演算ステップと、
演算した前記特徴量によって、該特徴量を時系列に表すグラフを生成して前記表示手段に表示させる生成ステップと、
前記表示手段により表示された前記グラフの表示領域のいずれかの部分を指定し、前記部分に対応する前記フレームを前記表示手段に表示させるフレーム指定ステップと、
を有する画像処理方法。
A reproduction step of causing the display means to reproduce and display the video data imaged by the imaging means;
A calculation step of calculating a feature value of a pixel value for each frame included in the video data;
A generation step of generating a graph representing the feature amount in time series by the calculated feature amount and displaying the graph on the display unit;
A frame designating step of designating any part of the display area of the graph displayed by the display means, and causing the display means to display the frame corresponding to the part;
An image processing method.
コンピュータに、
撮像手段により撮像された映像データを表示手段に再生表示させる再生処理と、
前記映像データに含まれるフレームごとに画素値の特徴量を演算する演算処理と、
演算した前記特徴量によって、該特徴量を時系列に表すグラフを生成して前記表示手段に表示させる生成処理と、
前記表示手段により表示された前記グラフの表示領域のいずれかの部分を指定し、前記部分に対応する前記フレームを前記表示手段に表示させるフレーム指定処理と、
を実行させるプログラム。
On the computer,
A reproduction process for causing the display means to reproduce and display the video data imaged by the imaging means;
A calculation process for calculating a feature value of a pixel value for each frame included in the video data;
A generation process for generating a graph representing the feature amount in time series by the calculated feature amount and displaying the graph on the display unit;
A frame designation process for designating any part of the display area of the graph displayed by the display means, and causing the display means to display the frame corresponding to the part;
A program that executes
JP2014161715A 2014-08-07 2014-08-07 Image processing apparatus, image processing system, image processing method and program Pending JP2016039496A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2014161715A JP2016039496A (en) 2014-08-07 2014-08-07 Image processing apparatus, image processing system, image processing method and program
CN201510434337.8A CN105376511B (en) 2014-08-07 2015-07-22 Image processing apparatus, image processing system and image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014161715A JP2016039496A (en) 2014-08-07 2014-08-07 Image processing apparatus, image processing system, image processing method and program

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2019161379A Division JP2020065248A (en) 2019-09-04 2019-09-04 Image processing apparatus, image processing system, image processing method and program

Publications (1)

Publication Number Publication Date
JP2016039496A true JP2016039496A (en) 2016-03-22

Family

ID=55378265

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014161715A Pending JP2016039496A (en) 2014-08-07 2014-08-07 Image processing apparatus, image processing system, image processing method and program

Country Status (2)

Country Link
JP (1) JP2016039496A (en)
CN (1) CN105376511B (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10638193B2 (en) 2015-02-05 2020-04-28 Ricoh Company, Ltd. Image processing device, image processing system, and image processing method
US10873719B2 (en) 2015-02-05 2020-12-22 Ricoh Company, Limited Image processing device, image processing system, image processing method, and computer program product
JP2021106315A (en) * 2019-12-26 2021-07-26 ファナック株式会社 I/o signal information display system

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08320935A (en) * 1995-05-26 1996-12-03 Canon Inc Method and device for processing moving image
JPH09219853A (en) * 1996-02-09 1997-08-19 Canon Inc Moving image processing method and its device
JP2000224542A (en) * 1999-01-29 2000-08-11 Hitachi Ltd Image storage device, monitor system and storage medium
JP2005128967A (en) * 2003-10-27 2005-05-19 Sozo Gijutsu Kenkyusho:Kk Medical device, method and program for detecting movement and computer readable recording medium
JP2005176096A (en) * 2003-12-12 2005-06-30 Canon Inc Image processing method, and image processor
JP2007047902A (en) * 2005-08-08 2007-02-22 Matsushita Electric Ind Co Ltd Image retrieval device
JP2008033743A (en) * 2006-07-31 2008-02-14 Fuji Xerox Co Ltd Program and device for reproduction control of time-series data
JP2010277264A (en) * 2009-05-27 2010-12-09 Takachiho Koeki Kk Crime prevention device, method for controlling the same, program and crime prevention system
JP2013239031A (en) * 2012-05-15 2013-11-28 Tukuyomi Kk Program for making buy/sell decisions, system for making buy/sell decisions, and method for making buy/sell decisions
JP2014033429A (en) * 2012-07-12 2014-02-20 Nk Works Co Ltd Image processing program and image processing apparatus

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7280753B2 (en) * 2003-09-03 2007-10-09 Canon Kabushiki Kaisha Display apparatus, image processing apparatus, and image processing system
JP4241709B2 (en) * 2005-10-11 2009-03-18 ソニー株式会社 Image processing device
EP2174578A4 (en) * 2007-07-12 2013-07-03 Olympus Medical Systems Corp Image processing device, its operating method and its program
JP2011250095A (en) * 2010-05-26 2011-12-08 Sony Corp Electronic apparatus, video editing method, and program
EP2742847A4 (en) * 2011-08-12 2015-01-28 Olympus Medical Systems Corp Image management device, method, and program for image reading

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08320935A (en) * 1995-05-26 1996-12-03 Canon Inc Method and device for processing moving image
JPH09219853A (en) * 1996-02-09 1997-08-19 Canon Inc Moving image processing method and its device
JP2000224542A (en) * 1999-01-29 2000-08-11 Hitachi Ltd Image storage device, monitor system and storage medium
JP2005128967A (en) * 2003-10-27 2005-05-19 Sozo Gijutsu Kenkyusho:Kk Medical device, method and program for detecting movement and computer readable recording medium
JP2005176096A (en) * 2003-12-12 2005-06-30 Canon Inc Image processing method, and image processor
JP2007047902A (en) * 2005-08-08 2007-02-22 Matsushita Electric Ind Co Ltd Image retrieval device
JP2008033743A (en) * 2006-07-31 2008-02-14 Fuji Xerox Co Ltd Program and device for reproduction control of time-series data
JP2010277264A (en) * 2009-05-27 2010-12-09 Takachiho Koeki Kk Crime prevention device, method for controlling the same, program and crime prevention system
JP2013239031A (en) * 2012-05-15 2013-11-28 Tukuyomi Kk Program for making buy/sell decisions, system for making buy/sell decisions, and method for making buy/sell decisions
JP2014033429A (en) * 2012-07-12 2014-02-20 Nk Works Co Ltd Image processing program and image processing apparatus

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10638193B2 (en) 2015-02-05 2020-04-28 Ricoh Company, Ltd. Image processing device, image processing system, and image processing method
US10873719B2 (en) 2015-02-05 2020-12-22 Ricoh Company, Limited Image processing device, image processing system, image processing method, and computer program product
JP2021106315A (en) * 2019-12-26 2021-07-26 ファナック株式会社 I/o signal information display system
JP7424825B2 (en) 2019-12-26 2024-01-30 ファナック株式会社 I/O signal information display system

Also Published As

Publication number Publication date
CN105376511A (en) 2016-03-02
CN105376511B (en) 2019-07-12

Similar Documents

Publication Publication Date Title
JP6816802B2 (en) Image processing equipment, image processing systems, image processing methods and programs
JP6733785B2 (en) Image processing apparatus, image processing system, image processing method, and program
JP6390720B2 (en) Image processing apparatus, image processing system, and image processing method
JP3823333B2 (en) Moving image change point detection method, moving image change point detection apparatus, moving image change point detection system
JP6756338B2 (en) Image processing equipment, image processing systems, image processing methods and programs
CN111095939B (en) Identifying previously streamed portions of media items to avoid repeated playback
US20110026766A1 (en) Moving image extracting apparatus, program and moving image extracting method
JP2018073176A (en) Image processing device, image processing system, image processing method and program
JP2016039496A (en) Image processing apparatus, image processing system, image processing method and program
JP6828377B2 (en) Image processing equipment, image processing systems, image processing methods and programs
JP2021027579A (en) Image determination device and image determination system
JP2007149095A (en) Method and device for detecting variation point of moving image
JP2018084443A (en) Image processing apparatus, image processing system, image processing method, and image processing program
EP4294003A2 (en) Image-based determination apparatus and image-based determination system
JP2020065248A (en) Image processing apparatus, image processing system, image processing method and program
JP6632360B2 (en) Information processing device
JP3941808B2 (en) Moving image change point detection method and apparatus
JP2008263657A (en) Image processor, thumbnail moving image creation method and thumbnail moving image creation program
JP2021064870A (en) Information processing device, information processing system, information processing method, and program
CN111459590A (en) Screenshot processing method and electronic equipment
JP2012222651A (en) Video playback device, video playback method, and video playback program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170721

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180423

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180515

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180712

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20181016

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181217

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20190604