JP2016048910A - Image processor, image processing system, image processing method, and program - Google Patents

Image processor, image processing system, image processing method, and program Download PDF

Info

Publication number
JP2016048910A
JP2016048910A JP2015041577A JP2015041577A JP2016048910A JP 2016048910 A JP2016048910 A JP 2016048910A JP 2015041577 A JP2015041577 A JP 2015041577A JP 2015041577 A JP2015041577 A JP 2015041577A JP 2016048910 A JP2016048910 A JP 2016048910A
Authority
JP
Japan
Prior art keywords
image
unit
trigger
area
detection
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015041577A
Other languages
Japanese (ja)
Other versions
JP6554825B2 (en
Inventor
慶二 大村
Keiji Omura
慶二 大村
長谷川 健
Takeshi Hasegawa
健 長谷川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2015041577A priority Critical patent/JP6554825B2/en
Priority to CN201510494581.3A priority patent/CN105391971B/en
Publication of JP2016048910A publication Critical patent/JP2016048910A/en
Application granted granted Critical
Publication of JP6554825B2 publication Critical patent/JP6554825B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Closed-Circuit Television Systems (AREA)
  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an image processor, an image processing system, an image processing method and a program that are capable of freely generating timing of a trigger, which is to be a reference of timing for image determination, or the like.SOLUTION: A trigger area specification part 305 specifies a trigger area for determining timing of a trigger in a display area of image data in a display device 317. A change point detection part 306 acquires frames for a prescribed period before and after the time of a frame of image data reproduced and displayed at the time of specifying the trigger area, calculates, in each of the acquired frames, the difference in pixel value between the frame and the previous frame thereof, and detects, on the basis of the calculated difference, a change point in the image in the trigger area. The trigger generation part 313 compares, in the trigger area on the image display part, a difference image with the image in the trigger area of the frame of the image data, and generates a trigger signal at the timing of the trigger.SELECTED DRAWING: Figure 3

Description

本発明は、画像処理装置、画像処理システム、画像処理方法およびプログラムに関する。   The present invention relates to an image processing apparatus, an image processing system, an image processing method, and a program.

近年、ビデオカメラ等の撮像装置により録画して得られた映像データを分析して、目的物の検出、または、映像上の物体の動きもしくは異常の検出または映像等を行う画像監視システムの発展が著しい。このような画像監視システムとして、画像による検査対象物の映像を録画し、検査装置側で発生する信号(例えば、近接センサまたは光電センサ等の検出信号)をトリガとし、トリガ発生時に、録画した映像データのフレームに基づいて画像判定を行うシステムが提案されている(特許文献1参照)。特許文献1に記載された技術は、画像判定を行うにあたって、必要がある場合、録画した映像データを構成するフレームのうち過去のフレームから、検査対象物が画像判定の正規の位置に映り込んでいるフレームを探索し、探索したフレームに対して画像判定を行っている。   2. Description of the Related Art In recent years, image monitoring systems have been developed that analyze video data obtained by recording with an imaging device such as a video camera to detect an object, or detect a motion or abnormality of an object on a video, or video. It is remarkable. As such an image monitoring system, an image of an inspection object is recorded by an image, and a signal generated on the inspection apparatus side (for example, a detection signal of a proximity sensor or a photoelectric sensor) is used as a trigger. A system that performs image determination based on a frame of data has been proposed (see Patent Document 1). In the technique described in Patent Document 1, when it is necessary to perform image determination, an inspection object is reflected in a normal position for image determination from a past frame among frames constituting recorded video data. The current frame is searched, and image determination is performed on the searched frame.

しかしながら、特許文献1に記載された技術は、検査装置側で発生する信号を、画像判定のトリガとしているので、トリガのタイミングが固定されておりタイミングの調整に柔軟性がないという問題点がある。   However, since the technique described in Patent Document 1 uses a signal generated on the inspection apparatus side as a trigger for image determination, there is a problem that the timing of the trigger is fixed and the timing adjustment is not flexible. .

本発明は、上記に鑑みてなされたものであって、画像判定等のタイミングの基準となるトリガのタイミングを自由に生成することができる画像処理装置、画像処理システム、画像処理方法およびプログラムを提供することを目的とする。   The present invention has been made in view of the above, and provides an image processing apparatus, an image processing system, an image processing method, and a program capable of freely generating a trigger timing that is a reference for timing of image determination and the like. The purpose is to do.

上述した課題を解決し、目的を達成するために、本発明は、表示手段と、撮像手段により撮像された映像データを前記表示手段に表示させる再生手段と、前記映像データが表示されている前記表示手段の第1表示領域において、トリガ領域を指定するトリガ領域指定手段と、前記トリガ領域指定手段により前記トリガ領域が指定された時点を基準にした第1所定時間分の前記映像データから前記トリガ領域内の画像における変化点を検出し、前記変化点のフレームの前記トリガ領域内の画像を第1画像として抽出する検出手段と、前記撮像手段により撮像された映像データが表示されている前記表示手段の第2表示領域における前記トリガ領域内の画像を前記第1画像と比較し、比較結果に応じてトリガを生成する生成手段と、を備えたことを特徴とする。   In order to solve the above-described problems and achieve the object, the present invention provides a display unit, a playback unit that displays video data captured by the imaging unit on the display unit, and the video data displayed on the display unit. In the first display area of the display means, the trigger area designating means for designating a trigger area, and the trigger from the video data for a first predetermined time based on the time point when the trigger area is designated by the trigger area designating means. Detection means for detecting a change point in an image in the area and extracting an image in the trigger area of the frame of the change point as a first image; and the display in which video data imaged by the imaging means is displayed Generating means for comparing an image in the trigger area in the second display area of the means with the first image and generating a trigger according to the comparison result And features.

本発明によれば、画像判定等のタイミングの基準となるトリガのタイミングを自由に生成することができる。   According to the present invention, it is possible to freely generate a trigger timing that is a reference for timing such as image determination.

図1は、第1の実施の形態に係る画像処理システムの全体構成の一例を示す図である。FIG. 1 is a diagram illustrating an example of the overall configuration of the image processing system according to the first embodiment. 図2は、第1の実施の形態に係る情報処理装置のハードウェア構成の一例を示す図である。FIG. 2 is a diagram illustrating an example of a hardware configuration of the information processing apparatus according to the first embodiment. 図3は、第1の実施の形態に係る情報処理装置の機能ブロックの構成の一例を示す図である。FIG. 3 is a diagram illustrating an example of a functional block configuration of the information processing apparatus according to the first embodiment. 図4は、第1の実施の形態に係る情報処理装置の表示装置に表示されるメイン画面において複数のリアルタイムの映像が表示される例を示す図である。FIG. 4 is a diagram illustrating an example in which a plurality of real-time videos are displayed on the main screen displayed on the display device of the information processing apparatus according to the first embodiment. 図5は、第1の実施の形態に係る情報処理装置の表示装置に表示される設定画面で映像データが表示される状態の例を示す図である。FIG. 5 is a diagram illustrating an example of a state in which video data is displayed on the setting screen displayed on the display device of the information processing apparatus according to the first embodiment. 図6は、第1の実施の形態に係る情報処理装置の表示装置に表示される設定画面において映像表示部にトリガ領域を指定する例を示す図である。FIG. 6 is a diagram illustrating an example in which a trigger area is specified in the video display unit on the setting screen displayed on the display device of the information processing apparatus according to the first embodiment. 図7は、第1の実施の形態に係る情報処理装置の表示装置に表示される設定画面においてトリガ領域における変化点が見つかった場合のマーク表示の例を示す図である。FIG. 7 is a diagram illustrating an example of mark display when a change point in the trigger region is found on the setting screen displayed on the display device of the information processing device according to the first embodiment. 図8は、第1の実施の形態のトリガ領域における変化点を検出する動作を説明する図である。FIG. 8 is a diagram for explaining an operation of detecting a change point in the trigger area according to the first embodiment. 図9は、第1の実施の形態に係る情報処理装置の表示装置に表示される設定画面においてトリガ領域における変化点が2点見つかった場合に表示されるダイアログの例を示す図である。FIG. 9 is a diagram illustrating an example of a dialog displayed when two change points in the trigger area are found on the setting screen displayed on the display device of the information processing apparatus according to the first embodiment. 図10は、第1の実施の形態に係る情報処理装置の表示装置に表示される設定画面においてトリガ領域における変化点が見つからなかった場合に表示されるダイアログの例を示す図である。FIG. 10 is a diagram illustrating an example of a dialog displayed when a change point in the trigger area is not found on the setting screen displayed on the display device of the information processing apparatus according to the first embodiment. 図11は、第1の実施の形態に係る情報処理装置の表示装置に表示される設定画面において映像表示部に検知領域を指定する例を示す図である。FIG. 11 is a diagram illustrating an example in which a detection area is designated in the video display unit on the setting screen displayed on the display device of the information processing device according to the first embodiment. 図12は、第1の実施の形態に係る情報処理装置の表示装置に表示される設定画面において映像表示部に2つ目の検知領域を指定する例を示す図である。FIG. 12 is a diagram illustrating an example in which the second detection area is designated in the video display unit on the setting screen displayed on the display device of the information processing device according to the first embodiment. 図13は、第1の実施の形態に係る情報処理装置の表示装置に表示される設定画面において映像表示部に表示されている映像データとは異なる映像データで設定されたトリガ領域を選択する状態の例を示す図である。FIG. 13 illustrates a state in which a trigger area set with video data different from the video data displayed on the video display unit is selected on the setting screen displayed on the display device of the information processing apparatus according to the first embodiment. It is a figure which shows the example of. 図14は、第1の実施の形態に係る情報処理装置の表示装置に表示される設定画面において映像表示部に表示されている映像データとは異なる映像データで設定されたトリガ領域を選択した後の状態の例を示す図である。FIG. 14 shows a state in which a trigger area set with video data different from the video data displayed on the video display unit is selected on the setting screen displayed on the display device of the information processing apparatus according to the first embodiment. It is a figure which shows the example of the state of. 図15は、第1の実施の形態に係る情報処理装置の表示装置に表示される設定画面において映像表示部に表示されている映像データとは異なる映像データで設定されたトリガ領域に対応する検知領域を指定する例を示す図である。FIG. 15 illustrates detection corresponding to a trigger region set with video data different from the video data displayed on the video display unit on the setting screen displayed on the display device of the information processing apparatus according to the first embodiment. It is a figure which shows the example which designates an area | region. 図16は、第1の実施の形態に係る情報処理装置の表示装置に表示される設定画面において映像表示部で指定した検知領域の属性情報を設定する例を示す図である。FIG. 16 is a diagram illustrating an example of setting the detection area attribute information designated by the video display unit on the setting screen displayed on the display device of the information processing apparatus according to the first embodiment. 図17は、第1の実施の形態に係る情報処理装置の表示装置に表示される設定画面において映像表示部で指定済みの検知領域の大きさを変更した場合の状態の例を示す図である。FIG. 17 is a diagram illustrating an example of a state in the case where the size of the detection area already designated in the video display unit is changed on the setting screen displayed on the display device of the information processing device according to the first embodiment. . 図18は、第1の実施の形態に係る情報処理装置の表示装置に表示される設定画面において映像表示部で指定済みのトリガ領域の大きさを変更した場合の状態の例を示す図である。FIG. 18 is a diagram illustrating an example of a state in the case where the size of the trigger region designated in the video display unit is changed on the setting screen displayed on the display device of the information processing device according to the first embodiment. . 図19は、第1の実施の形態に係る情報処理装置の表示装置に表示される感度設定プレビュー画面で映像データが表示される状態の例を示す図である。FIG. 19 is a diagram illustrating an example of a state in which video data is displayed on the sensitivity setting preview screen displayed on the display device of the information processing device according to the first embodiment. 図20は、第1の実施の形態に係る情報処理装置の表示装置に表示される感度設定プレビュー画面において検知基準画像に対する抽出画像の差分の判定結果の例を示す図である。FIG. 20 is a diagram illustrating an example of a determination result of the difference between the extracted images with respect to the detection reference image on the sensitivity setting preview screen displayed on the display device of the information processing apparatus according to the first embodiment. 図21は、第1の実施の形態に係る情報処理装置の表示装置に表示される感度設定プレビュー画面において異なる感度で検知基準画像に対する抽出画像の差分の再判定した結果の例を示す図である。FIG. 21 is a diagram illustrating an example of a result of re-determination of the difference between the extracted images with respect to the detection reference image at different sensitivities on the sensitivity setting preview screen displayed on the display device of the information processing device according to the first embodiment. . 図22は、第1の実施の形態に係る情報処理装置の表示装置に表示される感度設定プレビュー画面において変更した感度を適用するか否かを確認するダイアログが表示される例を示す図である。FIG. 22 is a diagram illustrating an example in which a dialog for confirming whether to apply the changed sensitivity on the sensitivity setting preview screen displayed on the display device of the information processing apparatus according to the first embodiment is displayed. . 図23は、第1の実施の形態に係る情報処理装置の表示装置に表示される設定画面において感度設定プレビュー画面で変更した感度が反映されている状態の例を示す図である。FIG. 23 is a diagram illustrating an example of a state in which the sensitivity changed on the sensitivity setting preview screen is reflected on the setting screen displayed on the display device of the information processing apparatus according to the first embodiment. 図24は、第1の実施の形態に係る情報処理装置の表示装置に表示される設定画面においてトリガ領域および検知領域を指定する設定動作の例を示すフローチャートである。FIG. 24 is a flowchart illustrating an example of a setting operation for designating a trigger area and a detection area on a setting screen displayed on the display device of the information processing apparatus according to the first embodiment. 図25は、第1の実施の形態に係る情報処理装置の表示装置に表示されるメイン画面においてトリガ領域および検知領域が指定された後の状態の例を示す図である。FIG. 25 is a diagram illustrating an example of a state after the trigger region and the detection region are designated on the main screen displayed on the display device of the information processing device according to the first embodiment. 図26は、第1の実施の形態に係る情報処理装置による画像判定動作の例を示すフローチャートである。FIG. 26 is a flowchart illustrating an example of an image determination operation performed by the information processing apparatus according to the first embodiment. 図27は、第1の実施の形態に係る情報処理装置の表示装置に表示されるメイン画面においてトリガ領域のトリガが発生した場合の当該トリガ領域の表示状態、および検知領域の検知タイミングにおける当該検知領域の表示状態の例を示す図である。FIG. 27 shows the display state of the trigger area when the trigger of the trigger area occurs on the main screen displayed on the display device of the information processing apparatus according to the first embodiment, and the detection at the detection timing of the detection area. It is a figure which shows the example of the display state of an area | region. 図28は、第2の実施の形態に係る情報処理装置の表示装置に表示される設定画面においてトリガ領域における基準画像が見つからなかった場合に表示されるダイアログの例を示す図である。FIG. 28 is a diagram illustrating an example of a dialog displayed when a reference image in the trigger area is not found on the setting screen displayed on the display device of the information processing device according to the second embodiment. 図29は、第2の実施の形態のトリガ領域における変化点を検出する動作を説明する図である。FIG. 29 is a diagram illustrating an operation of detecting a change point in the trigger area according to the second embodiment. 図30は、第2の実施の形態に係る情報処理装置の表示装置に表示される設定画面においてトリガ領域および検知領域を指定する設定動作の例を示すフローチャートである。FIG. 30 is a flowchart illustrating an example of a setting operation for designating a trigger area and a detection area on a setting screen displayed on the display device of the information processing apparatus according to the second embodiment.

以下に、図面を参照しながら、本発明に係る画像処理装置、画像処理システム、画像処理方法およびプログラムの実施の形態を詳細に説明する。また、以下の実施の形態によって本発明が限定されるものではなく、以下の実施の形態における構成要素には、当業者が容易に想到できるもの、実質的に同一のもの、およびいわゆる均等の範囲のものが含まれる。さらに、以下の実施の形態の要旨を逸脱しない範囲で構成要素の種々の省略、置換、変更および組み合わせを行うことができる。   Hereinafter, embodiments of an image processing apparatus, an image processing system, an image processing method, and a program according to the present invention will be described in detail with reference to the drawings. In addition, the present invention is not limited by the following embodiments, and constituent elements in the following embodiments are easily conceivable by those skilled in the art, substantially the same, and so-called equivalent ranges. Is included. Furthermore, various omissions, substitutions, changes, and combinations of the constituent elements can be made without departing from the scope of the following embodiments.

[第1の実施の形態]
(画像処理システムの全体構成)
図1は、第1の実施の形態に係る画像処理システムの全体構成の一例を示す図である。図1を参照しながら、本実施の形態の画像処理システム1の全体構成について説明する。
[First Embodiment]
(Overall configuration of image processing system)
FIG. 1 is a diagram illustrating an example of the overall configuration of the image processing system according to the first embodiment. The overall configuration of the image processing system 1 of the present embodiment will be described with reference to FIG.

図1に示すように、本実施の形態の画像処理システム1は、撮像装置2a〜2fと、情報処理装置3と、ネットワーク4と、を含む。   As illustrated in FIG. 1, the image processing system 1 according to the present embodiment includes imaging devices 2 a to 2 f, an information processing device 3, and a network 4.

撮像装置2a〜2fは、被写体から光を電気信号に変換することによって被写体を撮像(撮影)し、複数のフレーム(画像データ)で構成された動画(例えば、10[FPS])である映像データを生成するビデオカメラである。例えば、撮像装置2a〜2fは、製品を生産する生産設備等を撮像し、製造物であるワークに対する異常を検知するための映像データを生成する。   The imaging devices 2a to 2f capture (capture) a subject by converting light from the subject into an electrical signal, and video data that is a moving image (for example, 10 [FPS]) composed of a plurality of frames (image data). Is a video camera that generates For example, the imaging devices 2a to 2f image production facilities and the like that produce products, and generate video data for detecting an abnormality with respect to a workpiece that is a product.

なお、撮像装置2a〜2fを区別なく呼称する場合、または総称する場合、単に「撮像装置2」というものとする。また、図1では、画像処理システム1は、6台の撮像装置2を含む構成となっているが、これに限定されるものではなく、他の台数の撮像装置2を含む構成であってもよい。   Note that the imaging devices 2a to 2f are simply referred to as “imaging device 2” when referred to without distinction or collectively. In FIG. 1, the image processing system 1 is configured to include six imaging devices 2, but is not limited thereto, and may be configured to include other numbers of imaging devices 2. Good.

情報処理装置3は、撮像装置2によって撮像された映像データに基づいて画像判定を実行する画像処理装置として機能するPC(Personal Computer)またワークステーション等である。また、情報処理装置3は、生産設備等の外部機器10と、例えば、フィールドバス規格による通信が可能なように接続している。情報処理装置3による映像データに基づく画像判定処理については、後述する。   The information processing device 3 is a PC (Personal Computer), a workstation, or the like that functions as an image processing device that performs image determination based on video data captured by the imaging device 2. Further, the information processing apparatus 3 is connected to an external device 10 such as a production facility so that communication according to, for example, a fieldbus standard is possible. Image determination processing based on video data by the information processing device 3 will be described later.

ネットワーク4は、撮像装置2a〜2fと、情報処理装置3とを接続するための、例えば、Ethernet(登録商標)規格のネットワークである。この場合、ネットワーク4では、TCP(Transmission Control Protocol)/IP(Internet Protocol)等のプロトコルによりデータ通信が行われる。また、この場合、撮像装置2a〜2fおよび情報処理装置3は、TCP/IPのプロトコルにより通信するためのMACアドレスを有し、かつプライベートIPアドレス等のIPアドレスが割り当てられている。また、ネットワーク4の具体的な構成は、例えば、複数のポートを有するスイッチングハブに撮像装置2a〜2fおよび情報処理装置3それぞれがLAN(Local Area Network)ケーブルによって接続されたスター配線形式である。   The network 4 is, for example, an Ethernet (registered trademark) standard network for connecting the imaging devices 2 a to 2 f and the information processing device 3. In this case, in the network 4, data communication is performed using a protocol such as TCP (Transmission Control Protocol) / IP (Internet Protocol). In this case, the imaging devices 2a to 2f and the information processing device 3 have MAC addresses for communication using the TCP / IP protocol, and are assigned IP addresses such as private IP addresses. The specific configuration of the network 4 is, for example, a star wiring format in which the imaging devices 2a to 2f and the information processing device 3 are connected to a switching hub having a plurality of ports by a LAN (Local Area Network) cable.

なお、図1に示すネットワーク4は、TCP/IPにより通信される例を示したが、これに限定されるものではなく、例えば、情報処理装置3側にVGA(Video Graphics Array)端子またはUSB(Universal Serial Bus)ポートを複数有し、複数の撮像装置2がVGAケーブルまたはUSBケーブルで情報処理装置3に接続された形態等であってもよい。   The network 4 shown in FIG. 1 shows an example in which communication is performed by TCP / IP. However, the present invention is not limited to this. For example, a VGA (Video Graphics Array) terminal or a USB (USB) is connected to the information processing apparatus 3 side. There may be a configuration in which a plurality of (Universal Serial Bus) ports are provided and the plurality of imaging devices 2 are connected to the information processing device 3 by VGA cables or USB cables.

(情報処理装置のハードウェア構成)
図2は、第1の実施の形態に係る情報処理装置のハードウェア構成の一例を示す図である。図2を参照しながら、本実施の形態の情報処理装置3のハードウェア構成について説明する。
(Hardware configuration of information processing device)
FIG. 2 is a diagram illustrating an example of a hardware configuration of the information processing apparatus according to the first embodiment. A hardware configuration of the information processing apparatus 3 according to the present embodiment will be described with reference to FIG.

図2に示すように、情報処理装置3は、CPU(Central Processing Unit)101と、ROM(Read Only Memory)102と、RAM(Random Access Memory)103と、外部記憶装置104と、ディスプレイ105と、ネットワークI/F106と、キーボード107と、マウス108と、DVD(Digital Versatile Disc)ドライブ109と、外部機器I/F111と、を備えている。   As shown in FIG. 2, the information processing apparatus 3 includes a CPU (Central Processing Unit) 101, a ROM (Read Only Memory) 102, a RAM (Random Access Memory) 103, an external storage device 104, a display 105, A network I / F 106, a keyboard 107, a mouse 108, a DVD (Digital Versatile Disc) drive 109, and an external device I / F 111 are provided.

CPU101は、情報処理装置3全体の動作を制御する装置である。ROM102は、情報処理装置3用のプログラムを記憶している不揮発性記憶装置である。RAM103は、CPU101のワークエリアとして使用される揮発性記憶装置である。   The CPU 101 is a device that controls the overall operation of the information processing apparatus 3. The ROM 102 is a nonvolatile storage device that stores a program for the information processing device 3. The RAM 103 is a volatile storage device used as a work area for the CPU 101.

外部記憶装置104は、撮像装置2により撮像された映像データ、および設定情報等の各種データを記憶するHDD(Hard Disk Drive)またはSSD(State Solid Drive)等の記憶装置である。   The external storage device 104 is a storage device such as an HDD (Hard Disk Drive) or an SSD (State Solid Drive) that stores video data captured by the imaging device 2 and various data such as setting information.

ディスプレイ105は、カーソル、メニュー、ウィンドウ、文字もしくは画像等の各種情報、または情報処理装置3による画像判定処理を実行するアプリケーションの画面を表示する表示装置である。ディスプレイ105は、例えば、CRT(Cathode Ray Tube)ディスプレイ、液晶ディスプレイ、プラズマディスプレイまたは有機EL(Electroluminescence)ディスプレイ等である。なお、ディスプレイ105は、例えば、情報処理装置3の本体に対して、VGAケーブルまたはHDMI(登録商標)(High−Definition Multimedia Interface)ケーブル等によって接続されたり、または、Ethernetケーブルによって接続される。   The display 105 is a display device that displays various information such as a cursor, a menu, a window, characters or images, or a screen of an application that executes image determination processing by the information processing device 3. The display 105 is, for example, a CRT (Cathode Ray Tube) display, a liquid crystal display, a plasma display, an organic EL (Electroluminescence) display, or the like. For example, the display 105 is connected to the main body of the information processing apparatus 3 by a VGA cable, an HDMI (registered trademark) (High-Definition Multimedia Interface) cable, or the like, or by an Ethernet cable.

ネットワークI/F106は、ネットワーク4に接続してデータ通信するためのインターフェースである。ネットワークI/F106は、例えば、TCP/IPのプロトコルで通信可能にするNIC(Network Interface Card)である。具体的には、情報処理装置3は、撮像装置2から、ネットワーク4およびネットワークI/F106を介して、映像データを取得する。   The network I / F 106 is an interface for connecting to the network 4 and performing data communication. The network I / F 106 is, for example, a NIC (Network Interface Card) that enables communication using a TCP / IP protocol. Specifically, the information processing device 3 acquires video data from the imaging device 2 via the network 4 and the network I / F 106.

キーボード107は、文字、数字、各種指示の選択、カーソルの移動、および設定情報の設定等を行う入力装置である。マウス108は、各種指示の選択および実行、処理対象の選択、カーソルの移動、ならびに設定情報の設定等を行うための入力装置である。   The keyboard 107 is an input device for selecting characters, numbers, various instructions, moving a cursor, setting setting information, and the like. The mouse 108 is an input device for selecting and executing various instructions, selecting a processing target, moving a cursor, setting setting information, and the like.

DVDドライブ109は、着脱自在な記憶媒体の一例としてのDVD110に対するデータの読み出し、書き込みおよび削除を制御する装置である。   The DVD drive 109 is a device that controls reading, writing, and deletion of data with respect to the DVD 110 as an example of a removable storage medium.

外部機器I/F111は、外部機器10と接続してデータ通信をするためのインターフェースである。外部機器I/F111は、例えば、フィールドバス規格により通信可能にするインターフェースカードである。具体的には、情報処理装置3は、外部機器10と、外部機器I/F111を介してデータ通信を行う。   The external device I / F 111 is an interface for connecting to the external device 10 and performing data communication. The external device I / F 111 is an interface card that enables communication according to the fieldbus standard, for example. Specifically, the information processing apparatus 3 performs data communication with the external device 10 via the external device I / F 111.

上述のCPU101、ROM102、RAM103、外部記憶装置104、ディスプレイ105、ネットワークI/F106、キーボード107、マウス108、DVDドライブ109および外部機器I/F111は、アドレスバスおよびデータバス等のバス112によって互いに通信可能に接続されている。なお、ディスプレイ105が、Ethernetケーブルによって接続される場合には、ネットワークI/F106に接続されることになり、この場合、TCP/IP等のプロトコルによりデータ通信が行われる。   The CPU 101, the ROM 102, the RAM 103, the external storage device 104, the display 105, the network I / F 106, the keyboard 107, the mouse 108, the DVD drive 109, and the external device I / F 111 communicate with each other via a bus 112 such as an address bus and a data bus. Connected as possible. When the display 105 is connected by an Ethernet cable, it is connected to the network I / F 106. In this case, data communication is performed using a protocol such as TCP / IP.

(情報処理装置のブロック構成)
図3は、第1の実施の形態に係る情報処理装置の機能ブロックの構成の一例を示す図である。図3を参照しながら、情報処理装置3のブロック構成について説明する。
(Block configuration of information processing device)
FIG. 3 is a diagram illustrating an example of a functional block configuration of the information processing apparatus according to the first embodiment. The block configuration of the information processing apparatus 3 will be described with reference to FIG.

図3に示すように、情報処理装置3は、映像受信部301と、記憶部302と、入力装置303と、第1再生部304(再生手段)と、トリガ領域指定部305(トリガ領域指定手段)と、変化点検出部306(検出手段)と、検知領域指定部307(検知領域指定手段)と、設定部308(設定手段)と、第2再生部309と、画像抽出部310と、差分判定部311と、映像振分部312と、トリガ生成部313(生成手段)と、検知領域判定部314(検知領域判定手段)と、表示制御部315と、外部出力部316(外部出力手段)と、表示装置317(表示手段)と、を備えている。   As shown in FIG. 3, the information processing apparatus 3 includes a video reception unit 301, a storage unit 302, an input device 303, a first reproduction unit 304 (reproduction unit), and a trigger area designation unit 305 (trigger area designation unit). ), A change point detection unit 306 (detection unit), a detection region designation unit 307 (detection region designation unit), a setting unit 308 (setting unit), a second reproduction unit 309, an image extraction unit 310, and a difference Determination unit 311, video distribution unit 312, trigger generation unit 313 (generation unit), detection region determination unit 314 (detection region determination unit), display control unit 315, and external output unit 316 (external output unit) And a display device 317 (display means).

映像受信部301は、ネットワーク4を介して、撮像装置2とデータ通信を行い、撮像装置2から映像データを受信する機能部である。映像受信部301は、受信した映像データを記憶部302に記憶させる。映像受信部301は、図2に示すネットワークI/F106によって実現される。なお、図3においては、説明を簡略化するため、ネットワーク4の図示を省略して説明する。   The video reception unit 301 is a functional unit that performs data communication with the imaging device 2 via the network 4 and receives video data from the imaging device 2. The video receiving unit 301 stores the received video data in the storage unit 302. The video receiving unit 301 is realized by the network I / F 106 shown in FIG. In FIG. 3, the network 4 is not shown for the sake of simplicity.

記憶部302は、映像受信部301により受信された映像データ、および各種設定情報等を記憶する記憶装置である。記憶部302は、映像受信部301により受信された映像データが、どの撮像装置2により生成された映像データであるかを識別して記憶する。記憶部302は、例えば、図2に示すRAM103または外部記憶装置104によって実現される。   The storage unit 302 is a storage device that stores the video data received by the video receiving unit 301 and various setting information. The storage unit 302 identifies and stores which imaging device 2 the video data received by the video reception unit 301 is. The storage unit 302 is realized by, for example, the RAM 103 or the external storage device 104 illustrated in FIG.

入力装置303は、情報処理装置3が実行する画像判定処理のための操作入力を行う装置である。入力装置303は、図2に示すキーボード107およびマウス108によって実現される。   The input device 303 is a device that performs operation input for image determination processing executed by the information processing device 3. The input device 303 is realized by the keyboard 107 and the mouse 108 shown in FIG.

第1再生部304は、ユーザにより操作される入力装置303からの操作信号に従って、記憶部302から取得した映像データを表示制御部315に送り、表示制御部315に対して映像データを表示装置317に再生表示させる機能部である。具体的には、第1再生部304は、図5等で後述する表示装置317に表示される設定画面500の映像表示部502に映像データを再生表示させる。第1再生部304は、図2に示すCPU101により実行されるプログラムによって実現される。   The first playback unit 304 sends the video data acquired from the storage unit 302 to the display control unit 315 in accordance with an operation signal from the input device 303 operated by the user, and displays the video data to the display control unit 315. This is a functional unit that plays back and displays. Specifically, the first reproduction unit 304 reproduces and displays video data on the video display unit 502 of the setting screen 500 displayed on the display device 317 described later with reference to FIG. The first reproduction unit 304 is realized by a program executed by the CPU 101 shown in FIG.

トリガ領域指定部305は、ユーザにより操作される入力装置303からの操作信号に従って、表示装置317における映像データの表示領域(図5等で後述する映像表示部502)においてトリガのタイミングを決定するトリガ領域を指定する機能部である。トリガ領域指定部305は、指定したトリガ領域の情報を、記憶部302に記憶させる。また、トリガ領域の情報とは、例えば、映像データの表示領域におけるトリガ領域の位置を示す座標、およびトリガ領域の形状等の情報である。トリガ領域指定部305は、図2に示すCPU101により実行されるプログラムによって実現される。   The trigger area specifying unit 305 is a trigger that determines the trigger timing in the display area of the video data on the display device 317 (the video display unit 502 described later in FIG. 5 and the like) in accordance with an operation signal from the input device 303 operated by the user. It is a functional part that specifies an area. The trigger area designation unit 305 causes the storage unit 302 to store information on the designated trigger area. The trigger area information is information such as coordinates indicating the position of the trigger area in the display area of the video data and the shape of the trigger area, for example. The trigger area specifying unit 305 is realized by a program executed by the CPU 101 shown in FIG.

変化点検出部306は、トリガ領域指定部305によりトリガ領域が指定された場合、指定された時点で第1再生部304が再生表示している映像データのフレームの時刻の前後の所定時間分のフレームを取得し、取得したフレームにおいて、フレームごとに直前のフレームとの画素値についての差分(第1差分)を演算し、演算した差分に基づいて、トリガ領域内の画像についての変化点を検出する機能部である。変化点については、後述する。差分の演算方法としては、例えば、2つのフレームのトリガ領域における画素値を比較し、画素値が所定の感度以上異なる画素の数の合計を差分として算出する。また、フレームがグレースケールの画像である場合、画素値は輝度値と一致するので、2つのフレームのトリガ領域における輝度値を比較し、輝度値が所定の感度以上異なる画素の数の合計を差分として算出してもよい。また、フレームがRGBの画素値で構成された画像である場合、R(赤)、G(緑)またはB(青)のいずれかの画素値を比較して、上述と同様に、画素値が所定の感度以上異なる画素の数の合計を差分として算出してもよい。また、フレームの画像におけるエッジ検出処理を行い、エッジ部分の合計を差分として算出してもよい。変化点検出部306は、図2に示すCPU101により実行されるプログラムによって実現される。   When the trigger region is specified by the trigger region specifying unit 305, the change point detecting unit 306 is for a predetermined time before and after the time of the frame of the video data reproduced and displayed by the first reproducing unit 304 at the specified time. A frame is acquired, and in the acquired frame, a difference (first difference) with respect to a pixel value from the immediately preceding frame is calculated for each frame, and a change point for an image in the trigger region is detected based on the calculated difference. It is a functional part to do. The change point will be described later. As a difference calculation method, for example, pixel values in the trigger areas of two frames are compared, and the total number of pixels having pixel values different from each other by a predetermined sensitivity or more is calculated as a difference. Also, if the frame is a grayscale image, the pixel value matches the luminance value, so the luminance values in the trigger area of the two frames are compared, and the difference in the total number of pixels whose luminance values differ by more than a predetermined sensitivity May be calculated as When the frame is an image composed of RGB pixel values, the pixel values of R (red), G (green), and B (blue) are compared, and the pixel value is the same as described above. The sum of the number of pixels that differ by more than a predetermined sensitivity may be calculated as a difference. Alternatively, edge detection processing may be performed on the frame image, and the sum of the edge portions may be calculated as a difference. The change point detection unit 306 is realized by a program executed by the CPU 101 shown in FIG.

検知領域指定部307は、ユーザにより操作される入力装置303からの操作信号に従って、表示装置317における映像データの表示領域(映像表示部502)において異常を検知する画像判定処理の対象となる検知領域を指定する機能部である。検知領域指定部307は、指定した検知領域の情報を、記憶部302に記憶させる。また、検知領域の情報とは、例えば、映像データの表示領域における検知領域の位置を示す座標、およびトリガ領域の形状等の情報である。また、検知領域指定部307は、後述するように、映像データの表示領域において複数の検知領域を指定することができる。検知領域指定部307は、図2に示すCPU101により実行されるプログラムによって実現される。   The detection area designating unit 307 is a detection area that is a target of image determination processing that detects an abnormality in the display area of the video data (video display section 502) on the display device 317 in accordance with an operation signal from the input device 303 operated by the user. Is a functional part for designating. The detection area designation unit 307 causes the storage unit 302 to store information on the designated detection area. The information on the detection area is information such as coordinates indicating the position of the detection area in the display area of the video data and the shape of the trigger area, for example. The detection area designating unit 307 can designate a plurality of detection areas in the video data display area, as will be described later. The detection area designating unit 307 is realized by a program executed by the CPU 101 shown in FIG.

設定部308は、ユーザにより操作される入力装置303からの操作信号に従って、設定情報を設定して記憶部302に記憶させる機能部である。また、設定部308は、設定した設定情報のうち、表示する必要がある情報を、記憶部302から表示制御部315に送り、表示制御部315に対して設定情報を表示装置317に表示させる。設定部308は、図2に示すCPU101により実行されるプログラムによって実現される。   The setting unit 308 is a functional unit that sets setting information and stores the setting information in the storage unit 302 in accordance with an operation signal from the input device 303 operated by the user. In addition, the setting unit 308 sends information that needs to be displayed among the set setting information from the storage unit 302 to the display control unit 315, and causes the display control unit 315 to display the setting information on the display device 317. The setting unit 308 is realized by a program executed by the CPU 101 shown in FIG.

第2再生部309は、ユーザにより操作される入力装置303からの操作信号に従って、記憶部302から取得した映像データを表示制御部315に送り、表示制御部315に対して映像データを表示装置317に再生表示させる機能部である。具体的には、第2再生部309は、図19等で後述する表示装置317に表示される感度設定プレビュー画面700の映像表示部702に映像データを再生表示させる。第2再生部309は、図2に示すCPU101により実行されるプログラムによって実現される。   The second playback unit 309 sends the video data acquired from the storage unit 302 to the display control unit 315 in accordance with an operation signal from the input device 303 operated by the user, and displays the video data to the display control unit 315. This is a functional unit that plays back and displays. Specifically, the second reproduction unit 309 reproduces and displays video data on the video display unit 702 of the sensitivity setting preview screen 700 displayed on the display device 317 described later with reference to FIG. The second playback unit 309 is realized by a program executed by the CPU 101 shown in FIG.

画像抽出部310は、第2再生部309により映像データが再生表示されている表示領域(映像表示部702)において、検知領域指定部307により指定された検知領域に対応する部分の画像(抽出画像)を抽出する機能部である。画像抽出部310は、図2に示すCPU101により実行されるプログラムによって実現される。   The image extraction unit 310 includes an image (extraction image) of a portion corresponding to the detection area specified by the detection area specification unit 307 in the display area (video display unit 702) where the video data is reproduced and displayed by the second reproduction unit 309. ). The image extraction unit 310 is realized by a program executed by the CPU 101 shown in FIG.

差分判定部311は、検知領域が指定された時刻の検知領域内の画像である検知基準画像と、画像抽出部310により抽出された抽出画像との差分を演算する機能部である。差分の演算方法は、上述の変化点検出部306の演算方法に準じる。差分判定部311は、図2に示すCPU101により実行されるプログラムによって実現される。   The difference determination unit 311 is a functional unit that calculates a difference between a detection reference image that is an image in a detection region at a time at which a detection region is designated and an extracted image extracted by the image extraction unit 310. The calculation method of the difference is in accordance with the calculation method of the change point detection unit 306 described above. The difference determination unit 311 is realized by a program executed by the CPU 101 shown in FIG.

映像振分部312は、ユーザにより操作される入力装置303からの操作信号に従って、映像受信部301から取得したリアルタイムの映像データを表示制御部315に送り、表示制御部315に対して映像データを表示装置317に表示させる機能部である。具体的には、映像振分部312は、図4および25で後述する表示装置317に表示されるメイン画面400の映像表示部401a〜401fに映像データを振り分けて表示させる。映像振分部312は、図2に示すCPU101により実行されるプログラムによって実現される。   The video distribution unit 312 sends real-time video data acquired from the video receiving unit 301 to the display control unit 315 according to an operation signal from the input device 303 operated by the user, and sends the video data to the display control unit 315. This is a functional unit to be displayed on the display device 317. Specifically, the video distribution unit 312 distributes and displays the video data on the video display units 401a to 401f of the main screen 400 displayed on the display device 317 described later with reference to FIGS. The video distribution unit 312 is realized by a program executed by the CPU 101 shown in FIG.

トリガ生成部313は、後述する図25のメイン画面400の映像表示部401a〜401fにおけるトリガ領域において、差分画像と、映像データのフレームのトリガ領域の画像とを比較して、トリガのタイミングでトリガ信号を生成する機能部である。トリガ生成部313は、図2に示すCPU101により実行されるプログラムによって実現される。   The trigger generation unit 313 compares the difference image with the image of the trigger region of the video data frame in the trigger region in the video display units 401a to 401f of the main screen 400 shown in FIG. It is a functional unit that generates a signal. The trigger generation unit 313 is realized by a program executed by the CPU 101 shown in FIG.

検知領域判定部314は、トリガ生成部313により生成されたトリガ信号を受け取ったときの設定時間前または設定時間後に、上述の映像表示部401a〜401fにおける検知領域において、検知基準画像(第2画像)と、映像データのフレームの検知領域の画像とを比較して異常であるか否かの判定をする機能部である。検知領域判定部314は、図2に示すCPU101により実行されるプログラムによって実現される。   The detection area determination unit 314 detects the detection reference image (second image) in the detection areas in the video display units 401a to 401f before or after the set time when the trigger signal generated by the trigger generation unit 313 is received. ) And the image in the detection area of the frame of the video data to determine whether or not there is an abnormality. The detection area determination unit 314 is realized by a program executed by the CPU 101 illustrated in FIG.

表示制御部315は、表示装置317の表示動作を制御する機能部である。具体的には、表示制御部315は、第1再生部304および第2再生部309により取得された映像データ、設定部308により設定された設定情報、トリガ領域指定部305により指定されたトリガ領域、および、検知領域指定部307により指定された検知領域等を、映像振分部312に表示させる。表示制御部315は、図2に示すCPU101により実行されるプログラム(ドライバ)によって実現される。   The display control unit 315 is a functional unit that controls the display operation of the display device 317. Specifically, the display control unit 315 displays the video data acquired by the first playback unit 304 and the second playback unit 309, the setting information set by the setting unit 308, and the trigger area specified by the trigger area specifying unit 305. And the detection area designated by the detection area designation unit 307 and the like are displayed on the video distribution unit 312. The display control unit 315 is realized by a program (driver) executed by the CPU 101 shown in FIG.

外部出力部316は、検知領域判定部314により異常の判定がされた場合、異常信号を外部機器10に出力する機能部である。外部出力部316は、図2に示す外部機器I/F111によって実現される。なお、外部出力部316は異常信号を出力するものとしているが、これに限定されるものではなく、メールで異常を通知するためのバッチファイルを外部機器10に送信したり、または、メイン画面400上に異常を報知(例えば、ランプアイコンで点滅表示)する等の処置を行うものとしてもよい。   The external output unit 316 is a functional unit that outputs an abnormal signal to the external device 10 when the detection region determination unit 314 determines abnormality. The external output unit 316 is realized by the external device I / F 111 shown in FIG. The external output unit 316 outputs an abnormality signal. However, the present invention is not limited to this, and a batch file for notifying abnormality by e-mail is transmitted to the external device 10 or the main screen 400. It is also possible to take measures such as notifying abnormality (for example, blinking with a lamp icon).

表示装置317は、表示制御部315の制御に従って各種データを表示する装置である。表示装置317は、本実施の形態では特に、図2に示すCPU101により実行されるプログラム(アプリケーション)により、後述するメイン画面400、設定画面500、および感度設定プレビュー画面700等を表示する。表示装置317は、図2に示すディスプレイ105によって実現される。   The display device 317 is a device that displays various data according to the control of the display control unit 315. In the present embodiment, in particular, the display device 317 displays a main screen 400, a setting screen 500, a sensitivity setting preview screen 700, and the like, which will be described later, by a program (application) executed by the CPU 101 shown in FIG. The display device 317 is realized by the display 105 illustrated in FIG.

また、図3に示した第1再生部304、トリガ領域指定部305、変化点検出部306、検知領域指定部307、設定部308、第2再生部309、画像抽出部310、差分判定部311、映像振分部312、トリガ生成部313、検知領域判定部314および表示制御部315の一部または全部は、ソフトウェアであるプログラムではなく、ASIC(Application Specific Integrated Circuit)またはFPGA(Field−Programmable Gate Array)等のハードウェア回路によって実現されてもよい。   In addition, the first reproduction unit 304, the trigger region designation unit 305, the change point detection unit 306, the detection region designation unit 307, the setting unit 308, the second reproduction unit 309, the image extraction unit 310, and the difference determination unit 311 illustrated in FIG. The video distribution unit 312, the trigger generation unit 313, the detection region determination unit 314, and the display control unit 315 are not all software programs, but are ASIC (Application Specific Integrated Circuit) or FPGA (Field-Programmable Gate). Array) or the like may be realized by a hardware circuit.

また第1再生部304、トリガ領域指定部305、変化点検出部306、検知領域指定部307、設定部308、第2再生部309、画像抽出部310、差分判定部311、映像振分部312、トリガ生成部313、検知領域判定部314および表示制御部315は、機能を概念的に示したものであって、このような構成に限定されるものではない。   In addition, the first reproduction unit 304, the trigger region designation unit 305, the change point detection unit 306, the detection region designation unit 307, the setting unit 308, the second reproduction unit 309, the image extraction unit 310, the difference determination unit 311, and the video distribution unit 312. The trigger generation unit 313, the detection area determination unit 314, and the display control unit 315 conceptually show functions, and are not limited to such a configuration.

また、以降の説明の簡略化のため、表示制御部315が、受け取ったデータを表示装置317に表示させるという表現を、単に、そのデータを表示制御部315に送った機能部が、表示装置317(または、表示装置317が表示する画面)に表示させると表現するものとする。例えば、第1再生部304が、映像データを表示制御部315に送り、表示制御部315に対して映像データを表示装置317に再生表示させる場合、単に、第1再生部304が、映像データを表示装置317に再生表示させると表現するものとする。   In addition, for the sake of simplification of the following description, an expression that the display control unit 315 displays the received data on the display device 317 is simply a function unit that has sent the data to the display control unit 315. It is expressed that it is displayed on (or a screen displayed by the display device 317). For example, when the first reproduction unit 304 sends the video data to the display control unit 315 and causes the display control unit 315 to reproduce and display the video data on the display device 317, the first reproduction unit 304 simply displays the video data. It is expressed that playback is displayed on the display device 317.

(メイン画面の構成)
図4は、第1の実施の形態に係る情報処理装置の表示装置に表示されるメイン画面において複数のリアルタイムの映像が表示される例を示す図である。図4を参照しながら、メイン画面400の構成、および複数のリアルタイムの映像が表示される動作について説明する。
(Main screen structure)
FIG. 4 is a diagram illustrating an example in which a plurality of real-time videos are displayed on the main screen displayed on the display device of the information processing apparatus according to the first embodiment. The configuration of the main screen 400 and the operation for displaying a plurality of real-time videos will be described with reference to FIG.

CPU101により実行されるプログラム(アプリケーション)により、図4に示すメイン画面400が表示装置317に表示される。メイン画面400は、複数の撮像装置2から受信した映像データをリアルタイムに表示し、トリガ領域指定部305により指定されたトリガ領域において、トリガ生成部313によりトリガのタイミングでトリガ信号が生成される画面である。また、メイン画面400は、検知領域判定部314によりトリガ信号を受け取ったときの設定時間または設定時間後に、検知領域指定部307により指定された検知領域において異常の有無が判定される画面である。メイン画面400は、図4に示すように、映像表示部401a〜401fと、監視開始ボタン411と、監視停止ボタン412と、監視設定ボタン413と、を含む。   A main screen 400 shown in FIG. 4 is displayed on the display device 317 by a program (application) executed by the CPU 101. The main screen 400 displays video data received from a plurality of imaging devices 2 in real time, and a trigger signal is generated at the trigger timing by the trigger generation unit 313 in the trigger region specified by the trigger region specifying unit 305. It is. The main screen 400 is a screen for determining whether there is an abnormality in the detection region designated by the detection region designation unit 307 after the set time or the set time when the trigger signal is received by the detection region judgment unit 314. As shown in FIG. 4, the main screen 400 includes video display units 401 a to 401 f, a monitoring start button 411, a monitoring stop button 412, and a monitoring setting button 413.

映像表示部401a〜401fは、映像振分部312によって、ユーザにより操作される入力装置303からの操作信号に従って、撮像装置2a〜2fから、映像受信部301を介して取得されたリアルタイムの映像データがそれぞれ表示される表示部である。なお、映像表示部401a〜401fを区別なく呼称する場合、または総称する場合、単に「映像表示部401」というものとする。   The video display units 401a to 401f are real-time video data acquired from the imaging devices 2a to 2f via the video reception unit 301 in accordance with an operation signal from the input device 303 operated by the user by the video distribution unit 312. Is a display unit on which each is displayed. Note that the video display units 401a to 401f are simply referred to as the “video display unit 401” when referred to without distinction or collectively.

監視開始ボタン411は、ユーザによる入力装置303の操作によって押下(マウス108によるクリック操作等、以下同様)されると、映像振分部312によって、映像表示部401a〜401fにそれぞれリアルタイムの映像データが表示されるボタンである。また、監視開始ボタン411が押下され、映像表示部401に映像データが表示されると、トリガ領域指定部305により指定されたトリガ領域において、トリガ生成部313によりトリガのタイミングでトリガ信号が生成され、検知領域判定部314によりトリガ信号を受け取ったときの設定時間または設定時間後に検知領域における異常の有無の判定が開始される。   When the monitoring start button 411 is pressed by a user's operation of the input device 303 (click operation using the mouse 108, etc., the same applies hereinafter), the video distribution unit 312 causes real-time video data to be displayed on the video display units 401a to 401f, respectively. It is a button that is displayed. When the monitor start button 411 is pressed and video data is displayed on the video display unit 401, a trigger signal is generated at the trigger timing by the trigger generation unit 313 in the trigger region specified by the trigger region specifying unit 305. Then, determination of the presence or absence of abnormality in the detection region is started after the set time when the trigger signal is received by the detection region determination unit 314 or after the set time.

監視停止ボタン412は、ユーザによる入力装置303の操作によって押下されると、トリガ生成部313によるトリガのタイミングでのトリガ信号の生成動作、検知領域判定部314による検知領域における異常の有無の判定動作、および、映像振分部312によるリアルタイムの映像データの表示動作を停止させるボタンである。   When the monitoring stop button 412 is pressed by an operation of the input device 303 by the user, the trigger generation unit 313 generates a trigger signal at the trigger timing, and the detection region determination unit 314 determines whether there is an abnormality in the detection region. And a button for stopping the real-time video data display operation by the video distribution unit 312.

監視設定ボタン413は、ユーザによる入力装置303の操作によって押下されると、設定部308によって、後述の図5等に示す設定画面500を表示装置317に表示させるボタンである。   A monitoring setting button 413 is a button for causing the setting unit 308 to display a setting screen 500 shown in FIG. 5 and the like on the display device 317 when the user presses the input device 303.

(設定画面の構成)
図5は、第1の実施の形態に係る情報処理装置の表示装置に表示される設定画面で映像データが表示される状態の例を示す図である。図5を参照しながら、設定画面500の構成について説明する。
(Configuration of configuration screen)
FIG. 5 is a diagram illustrating an example of a state in which video data is displayed on the setting screen displayed on the display device of the information processing apparatus according to the first embodiment. The configuration of the setting screen 500 will be described with reference to FIG.

設定画面500は、トリガ領域および検知領域の指定、ならびに、検知領域における画像判定の感度、閾値およびタイミングを設定する画面である。設定画面500は、図5に示すように、カメラ選択部501と、映像表示部502と、再生ボタン503aと、一時停止ボタン503bと、早送りボタン503cと、早戻しボタン503dと、停止ボタン503eと、シークバー504と、スライダー505と、時刻表示部506と、トリガ領域情報部507と、基準画像表示部508aと、差分画像表示部508bと、検知領域情報部509と、検知領域ボタン部510と、設定読出ボタン511と、設定書込ボタン512と、設定反映ボタン513と、閉じるボタン514と、を含む。   The setting screen 500 is a screen for setting the trigger region and the detection region, and setting the sensitivity, threshold value, and timing of image determination in the detection region. As shown in FIG. 5, the setting screen 500 includes a camera selection unit 501, a video display unit 502, a playback button 503a, a pause button 503b, a fast forward button 503c, a fast reverse button 503d, and a stop button 503e. A seek bar 504, a slider 505, a time display unit 506, a trigger region information unit 507, a reference image display unit 508a, a difference image display unit 508b, a detection region information unit 509, a detection region button unit 510, A setting reading button 511, a setting writing button 512, a setting reflection button 513, and a close button 514 are included.

カメラ選択部501は、ユーザがトリガ領域および検知領域の指定を所望する撮像装置2a〜2fの映像データのうちいずれの映像データを映像表示部502に表示させるのかを選択する操作部である。例えば、撮像装置2a〜2fによって撮像された映像データは、それぞれ「1」〜「6」に対応付けられており、図5の例では、「6」すなわち撮像装置2fの映像データが選択された例を示している。   The camera selection unit 501 is an operation unit that selects which video data is to be displayed on the video display unit 502 among the video data of the imaging devices 2a to 2f that the user desires to specify the trigger region and the detection region. For example, the video data captured by the imaging devices 2a to 2f are associated with “1” to “6”, respectively. In the example of FIG. 5, “6”, that is, the video data of the imaging device 2f is selected. An example is shown.

映像表示部502は、第1再生部304によって、ユーザにより操作される入力装置303からの操作信号に従って記憶部302から取得された映像データを再生表示される表示部である。図5の例では、第1再生部304は、ユーザによる入力装置303の操作により、「6」のカメラ選択部501が選択操作されると、撮像装置2fにより撮像された映像データを表示装置317に表示させる。   The video display unit 502 is a display unit that reproduces and displays video data acquired from the storage unit 302 according to an operation signal from the input device 303 operated by the user by the first playback unit 304. In the example of FIG. 5, when the user selects the “6” camera selection unit 501 by operating the input device 303, the first playback unit 304 displays the video data captured by the imaging device 2 f as the display device 317. To display.

再生ボタン503aは、ユーザによる入力装置303の操作によって押下されると、第1再生部304によって、映像表示部502に表示された映像データが再生開始されるボタンである。一時停止ボタン503bは、ユーザによる入力装置303の操作によって押下されると、第1再生部304によって、映像表示部502に再生表示されている映像データが一時停止されるボタンである。早送りボタン503cは、ユーザによる入力装置303の操作によって押下されると、第1再生部304によって、映像表示部502に再生表示されている映像データが早送り表示されるボタンである。早戻しボタン503dは、ユーザによる入力装置303の操作によって押下されると、第1再生部304によって、映像表示部502に再生表示されている映像データが早戻し表示されるボタンである。停止ボタン503eは、ユーザによる入力装置303の操作によって押下されると、第1再生部304によって、映像表示部502に再生表示されている映像データが停止されるボタンである。   The playback button 503a is a button for starting playback of the video data displayed on the video display unit 502 by the first playback unit 304 when pressed by an operation of the input device 303 by the user. The pause button 503b is a button for temporarily stopping the video data reproduced and displayed on the video display unit 502 by the first reproduction unit 304 when pressed by an operation of the input device 303 by the user. The fast-forward button 503c is a button for fast-forwarding and displaying the video data reproduced and displayed on the video display unit 502 by the first reproduction unit 304 when pressed by the user operating the input device 303. The rewind button 503d is a button for fast rewinding display of video data reproduced and displayed on the video display unit 502 by the first reproduction unit 304 when pressed by the user operating the input device 303. The stop button 503e is a button for stopping the video data reproduced and displayed on the video display unit 502 by the first reproduction unit 304 when pressed by the operation of the input device 303 by the user.

シークバー504は、その上に配置されるスライダー505の位置により、映像表示部502に再生表示されている映像データがどの時間のものなのかを示す棒状の形状体である。スライダー505は、映像表示部502に再生表示されている映像データの撮像時刻(表示されているフレームが撮像された時刻)に対応したシークバー504上の位置にスライドする形状体かつ操作部である。逆に、スライダー505は、ユーザによる入力装置303の操作によってスライドされると、第1再生部304によって、スライダー505が存在するシークバー504上の位置に対応した撮像時刻の映像データのフレームが映像表示部502に表示される。   The seek bar 504 is a bar-shaped body that indicates how long the video data reproduced and displayed on the video display unit 502 is based on the position of the slider 505 disposed thereon. The slider 505 is a shape body and operation unit that slides to a position on the seek bar 504 corresponding to the imaging time of the video data reproduced and displayed on the video display unit 502 (time when the displayed frame is captured). Conversely, when the slider 505 is slid by the operation of the input device 303 by the user, the first playback unit 304 displays a frame of video data at the imaging time corresponding to the position on the seek bar 504 where the slider 505 exists. Displayed on the part 502.

時刻表示部506は、第1再生部304によって、映像表示部502に再生表示されている映像データの撮像日付および撮像時刻が表示される表示部である。   The time display unit 506 is a display unit that displays the imaging date and imaging time of the video data reproduced and displayed on the video display unit 502 by the first reproduction unit 304.

トリガ領域情報部507は、トリガ領域指定部305により指定されたトリガ領域の名称、ならびに、変化点検出部306が上述の変化点を検出するための感度および閾値を表示する表示部である。基準画像表示部508aは、変化点検出部306により抽出された基準画像を表示する表示部である。差分画像表示部508bは、変化点検出部306により抽出された差分画像(後述)を表示する表示部である。   The trigger region information unit 507 is a display unit that displays the name of the trigger region specified by the trigger region specifying unit 305 and the sensitivity and threshold value for the change point detection unit 306 to detect the above-described change point. The reference image display unit 508 a is a display unit that displays the reference image extracted by the change point detection unit 306. The difference image display unit 508 b is a display unit that displays a difference image (described later) extracted by the change point detection unit 306.

検知領域情報部509は、検知領域指定部307により指定された検知領域の名称、感度、閾値、検知遅延時間(図5では「遅延時間」と表記)、監視方法(図5では「監視」と表記)、アクションの有無(図5では「アクション」と表記)、および画像判定の方法(図5では「画像判定」と表記)(以下、検知領域についてのこれらの情報を属性情報という)を表示する表示部かつ選択操作部である。   The detection area information unit 509 includes the name, sensitivity, threshold value, detection delay time (indicated as “delay time” in FIG. 5) of the detection area designated by the detection area designating unit 307, and a monitoring method (“monitoring” in FIG. 5). (Notation), presence / absence of action (indicated as “action” in FIG. 5), and image determination method (indicated as “image determination” in FIG. 5) (hereinafter, these pieces of information about the detection area are referred to as attribute information). And a selection operation unit.

検知領域ボタン部510は、検知領域指定部307により指定され、検知領域情報部509に表示された検知領域についての属性情報を編集するボタン群である。検知領域ボタン部510は、アクションボタン510aと、画像判定選択ボタン510bと、削除ボタン510cと、感度判定ボタン510dと、感度増加ボタン510eと、感度減少ボタン510fと、閾値増加ボタン510gと、閾値減少ボタン510hと、を含む。検知領域ボタン部510の各ボタンの機能は、後述する。   The detection area button unit 510 is a group of buttons for editing attribute information about the detection area specified by the detection area specifying unit 307 and displayed in the detection area information unit 509. The detection area button unit 510 includes an action button 510a, an image determination selection button 510b, a deletion button 510c, a sensitivity determination button 510d, a sensitivity increase button 510e, a sensitivity decrease button 510f, a threshold increase button 510g, and a threshold decrease. Button 510h. The function of each button of the detection area button unit 510 will be described later.

設定読出ボタン511は、ユーザによる入力装置303の操作によって押下されると、設定部308によって、記憶部302に記憶されたトリガ領域および検知領域の情報等の設定情報が読み出され、設定画面500の各表示部に設定情報が表示されるボタンである。設定書込ボタン512は、ユーザによる入力装置303の操作によって押下されると、設定部308によって、設定画面500上で設定されたトリガ領域および検知領域の情報等の設定情報が、記憶部302(外部記憶装置104)に記憶されるボタンである。設定反映ボタン513は、ユーザによる入力装置303の操作によって押下されると、設定部308によって、設定画面500上で設定されたトリガ領域および検知領域の情報等の設定情報が、メイン画面400および設定画面500等のアプリケーションが閉じられるまで有効とされる(例えば、RAM103に一時記憶される)ボタンである。   When the setting read button 511 is pressed by the user's operation of the input device 303, the setting unit 308 reads setting information such as the trigger area and the detection area information stored in the storage unit 302, and the setting screen 500 The setting information is displayed on each display unit. When the setting write button 512 is pressed by an operation of the input device 303 by the user, setting information such as trigger area and detection area information set on the setting screen 500 by the setting unit 308 is stored in the storage unit 302 ( These buttons are stored in the external storage device 104). When the setting reflection button 513 is pressed by an operation of the input device 303 by the user, setting information such as trigger area and detection area information set on the setting screen 500 by the setting unit 308 is displayed on the main screen 400 and setting. The button is valid until an application such as the screen 500 is closed (for example, temporarily stored in the RAM 103).

閉じるボタン514は、ユーザによる入力装置303の操作によって押下されると、設定部308によって、設定画面500が閉じられ、メイン画面400を表示装置317に表示させるボタンである。   The close button 514 is a button for causing the setting unit 500 to close the setting screen 500 and causing the display device 317 to display the main screen 400 when pressed by the user operating the input device 303.

(トリガ領域の指定および変化点の検出)
図6は、第1の実施の形態に係る情報処理装置の表示装置に表示される設定画面において映像表示部にトリガ領域を指定する例を示す図である。図7は、第1の実施の形態に係る情報処理装置の表示装置に表示される設定画面においてトリガ領域における変化点が見つかった場合のマーク表示の例を示す図である。図8は、第1の実施の形態のトリガ領域における変化点を検出する動作を説明する図である。図9は、第1の実施の形態に係る情報処理装置の表示装置に表示される設定画面においてトリガ領域における変化点が2点見つかった場合に表示されるダイアログの例を示す図である。図10は、第1の実施の形態に係る情報処理装置の表示装置に表示される設定画面においてトリガ領域における変化点が見つからなかった場合に表示されるダイアログの例を示す図である。図6〜10を参照しながら、トリガ領域の指定および変化点の検出について説明する。
(Specify trigger area and detect change point)
FIG. 6 is a diagram illustrating an example in which a trigger area is specified in the video display unit on the setting screen displayed on the display device of the information processing apparatus according to the first embodiment. FIG. 7 is a diagram illustrating an example of mark display when a change point in the trigger region is found on the setting screen displayed on the display device of the information processing device according to the first embodiment. FIG. 8 is a diagram for explaining an operation of detecting a change point in the trigger area according to the first embodiment. FIG. 9 is a diagram illustrating an example of a dialog displayed when two change points in the trigger area are found on the setting screen displayed on the display device of the information processing apparatus according to the first embodiment. FIG. 10 is a diagram illustrating an example of a dialog displayed when a change point in the trigger area is not found on the setting screen displayed on the display device of the information processing apparatus according to the first embodiment. The trigger area designation and change point detection will be described with reference to FIGS.

図6に示す設定画面500は、第1再生部304により映像データが再生表示されている映像表示部502においてトリガ領域530が指定された状態を示している。具体的には、まず、映像表示部502において映像データの再生表示中に、トリガの発生の基となる所望する画像の部分が表示されているタイミングで、ユーザによる入力装置303の操作によって一時停止ボタン503bが押下されると、第1再生部304は、映像表示部502に再生表示されている映像データを一時停止し、その時点のフレームの撮像日付および撮像時刻を時刻表示部506に表示させる。次に、ユーザによる入力装置303の操作(例えば、マウス108のドラッグ操作)によって、トリガ領域指定部305は、映像表示部502(第1表示領域)においてトリガ領域530を指定して表示させる。   A setting screen 500 shown in FIG. 6 shows a state in which the trigger area 530 is designated in the video display unit 502 in which video data is played back and displayed by the first playback unit 304. Specifically, first, during playback and display of the video data on the video display unit 502, the user pauses by the operation of the input device 303 at the timing when the desired image portion that is the basis of the occurrence of the trigger is displayed. When the button 503b is pressed, the first reproduction unit 304 pauses the video data reproduced and displayed on the video display unit 502, and causes the time display unit 506 to display the imaging date and imaging time of the frame at that time. . Next, when the user operates the input device 303 (for example, dragging the mouse 108), the trigger area specifying unit 305 specifies and displays the trigger area 530 on the video display unit 502 (first display area).

図7に示す設定画面500は、変化点検出部306によって、トリガ領域指定部305により指定されたトリガ領域530において変化点が検出された場合の状態を示している。具体的には、変化点検出部306は、まず、トリガ領域指定部305によりトリガ領域530が指定された場合、指定された時点で第1再生部304が再生表示している映像データのフレームの撮像時刻の前後の所定時間(例えば前後2秒間)(第1所定時間)分のフレームを取得し、トリガ領域530が指定された時刻のトリガ領域530内の画像を基準画像として抽出する。ここで、変化点とは、トリガ生成部313がトリガ信号を生成するタイミングの基準とするための、トリガ領域530内の画像の所定の変化を帯びた時点をいう。以下、変化点検出部306による具体的な変化点の検出方法について説明する。   A setting screen 500 illustrated in FIG. 7 illustrates a state in which a change point is detected in the trigger region 530 specified by the trigger region specifying unit 305 by the change point detecting unit 306. Specifically, when the trigger region 530 is designated by the trigger region designation unit 305, the change point detection unit 306 first determines the frame of the video data being reproduced and displayed by the first reproduction unit 304 at the designated time point. Frames for a predetermined time (for example, 2 seconds before and after the imaging time) (first predetermined time) before and after the imaging time are acquired, and an image in the trigger area 530 at the time when the trigger area 530 is designated is extracted as a reference image. Here, the change point refers to a point in time when a predetermined change in the image in the trigger region 530 is taken as a reference for the timing at which the trigger generation unit 313 generates the trigger signal. Hereinafter, a specific method for detecting change points by the change point detection unit 306 will be described.

変化点検出部306は、図8(a)に示すように、所定時間分のフレームとして13個のフレーム(フレーム(0)〜フレーム(12))を取得したものとする。この場合、変化点検出部306によって、フレーム(6)を真中として、その前後の所定時間分のフレームが取得されたことになる。また、説明を簡略にするため、各フレームにおけるトリガ領域530に対応する部分の画像についても、それぞれフレーム(0)〜フレーム(12)と称するものとする。そして、変化点検出部306は、取得したフレームにおいて、フレームごとに直前のフレームとの画素値についての差分を演算する。差分の演算方法については、上述した通りである。変化点検出部306が図8(a)に例示したフレームを抽出し、フレームごとに演算した差分を時系列に表したグラフが、図8(b)に示すグラフである。図8(b)において、例えば、フレーム(1)の差分は、フレーム(1)と、その直前のフレームであるフレーム(0)との差分を示す。ここで、変化点としてのIN点およびOUT点を次のように定義する。すなわち、IN点とは、連続するフレームにおいて、トリガ領域530内の画像が変化し始めた時点とする。また、OUT点とは、連続するフレームにおいて、トリガ領域530内の画像の変化がおさまり始めた時点とする。なお、変化点検出部306は、取得したフレームにおいて、フレームごとに直前のフレームとの差分を演算するものとしたが、直前のフレームに限定されるものではなく、例えば、フレームごとに、数フレーム前のフレームとの差分を演算するものとしてもよい。   As shown in FIG. 8A, the change point detection unit 306 acquires 13 frames (frame (0) to frame (12)) as frames for a predetermined time. In this case, the change point detection unit 306 acquires frames for a predetermined time before and after the frame (6) as the middle. In addition, in order to simplify the description, the image of the part corresponding to the trigger region 530 in each frame is also referred to as frame (0) to frame (12), respectively. Then, the change point detection unit 306 calculates a difference in pixel values from the immediately preceding frame for each acquired frame. The difference calculation method is as described above. The graph shown in FIG. 8B is a graph in which the change point detection unit 306 extracts the frames exemplified in FIG. 8A and expresses the differences calculated for each frame in time series. In FIG. 8B, for example, the difference between the frame (1) indicates the difference between the frame (1) and the frame (0) that is the immediately preceding frame. Here, the IN point and OUT point as change points are defined as follows. That is, the IN point is the time when the image in the trigger area 530 starts to change in successive frames. The OUT point is a point in time when a change in the image in the trigger area 530 starts to subside in successive frames. The change point detection unit 306 calculates the difference between the acquired frame and the immediately preceding frame for each frame. However, the change point detecting unit 306 is not limited to the immediately preceding frame. The difference from the previous frame may be calculated.

変化点検出部306は、フレームごとに演算した差分に基づいて、IN点の候補、およびOUT点の候補を見つける。具体的には、変化点検出部306は、演算した差分が2フレーム分以上連続して所定の閾値(第1閾値)以上となった場合、最初に差分が所定の閾値以上となったフレームをIN点の候補のフレームとする。図8(b)の例では、フレーム(1)の差分は閾値未満、フレーム(2)の差分は閾値以上となり、そして、フレーム(3)の差分も閾値以上となり、フレーム(2)および(3)の2フレーム分の差分が閾値以上となるので、最初に差分が閾値以上となったフレーム(2)がIN点の候補のフレームとなる。同様に、フレーム(7)もIN点の候補のフレームとなる。また、2フレーム分以上連続ではなく、1フレーム分のみの差分が閾値以上となった場合は、ノイズの可能性があるので、そのフレームはIN点の候補のフレームとしない。   The change point detection unit 306 finds an IN point candidate and an OUT point candidate based on the difference calculated for each frame. Specifically, when the calculated difference becomes equal to or greater than a predetermined threshold (first threshold) for two or more consecutive frames, the change point detection unit 306 first determines the frame whose difference is equal to or greater than the predetermined threshold. The frame is a candidate frame for the IN point. In the example of FIG. 8B, the difference of frame (1) is less than the threshold, the difference of frame (2) is greater than or equal to the threshold, and the difference of frame (3) is also greater than or equal to the threshold, and frames (2) and (3 ) Of two frames is equal to or greater than the threshold, so the frame (2) where the difference first exceeds the threshold is the IN point candidate frame. Similarly, the frame (7) is a candidate frame for the IN point. In addition, when the difference for only one frame is not less than the threshold and not more than two frames, there is a possibility of noise, so that frame is not a candidate frame for the IN point.

一方、変化点検出部306は、演算した差分が2フレーム分以上連続して所定の閾値(第1閾値)未満となった場合、最初に差分が所定の閾値未満となったフレームをOUT点の候補のフレームとする。図8(b)の例では、フレーム(4)の差分は閾値以上、フレーム(5)の差分は閾値未満、そして、フレーム(6)の差分も閾値未満となり、フレーム(5)および(6)の2フレーム分の差分が閾値未満となるので、最初に差分が閾値未満となったフレーム(5)がOUT点の候補のフレームとなる。ここで、フレーム(12)は、差分が所定の閾値未満となっているが、後に続くフレーム(13)は、変化点検出部306が抽出したフレーム以外のフレームであるので、OUT点の候補のフレームとしない。また、2フレーム分以上連続ではなく、1フレーム分のみの差分が閾値未満となった場合は、ノイズの可能性があるので、そのフレームはOUT点の候補のフレームとしない。   On the other hand, when the calculated difference is continuously less than a predetermined threshold value (first threshold value) for two frames or more, the change point detection unit 306 first determines the frame whose difference is less than the predetermined threshold value as the OUT point. Candidate frames. In the example of FIG. 8B, the difference of the frame (4) is greater than or equal to the threshold, the difference of the frame (5) is less than the threshold, and the difference of the frame (6) is also less than the threshold, and the frames (5) and (6) Since the difference between the two frames is less than the threshold value, the frame (5) in which the difference is initially less than the threshold value is the OUT point candidate frame. Here, the difference of the frame (12) is less than the predetermined threshold value, but the subsequent frame (13) is a frame other than the frame extracted by the change point detection unit 306, and therefore the OUT point candidate Do not frame. Also, if the difference for only one frame is less than the threshold value and not continuous for two frames or more, there is a possibility of noise, so that frame is not a candidate frame for the OUT point.

以上のように、変化点検出部306は、図8の例では、IN点の候補のフレームとしてフレーム(2)および(7)を特定し、OUT点の候補のフレームとしてフレーム(5)を特定する。このように、変化点検出部306は、IN点の候補のフレームが複数特定された場合、取得したフレームの真中のフレーム(6)に最も近いフレーム、すなわちフレーム(7)をIN点のフレームに決定する。なお、図8の例では、OUT点の候補のフレームとして、1つのフレーム(フレーム(5))のみ特定されているが、IN点の候補と同様に、複数のフレームがOUT点の候補のフレームとして特定される場合もある。このように、OUT点の候補のフレームが複数特定された場合、変化点検出部306は、IN点の候補と同様に、取得したフレームの真中のフレーム(6)に最も近いフレームをOUT点のフレームに決定する。図8の例では、OUT点の候補のフレームはフレーム(5)のみなので、変化点検出部306は、フレーム(5)をOUT点のフレームに決定する。以上のように、変化点検出部306は、取得した所定時間分のフレームから、IN点のフレームおよびOUT点のフレームを決定することにより、変化点(IN点およびOUT点)を検出する。なお、変化点検出部306は、変化点を検出した場合、変化点のフレームの前のフレーム、もしくは後のフレーム、または前後のフレームを用いて、トリガ領域530内の動体検知を行い、どの方向から動体が入ってきたのかを示すベクトル情報を記憶部302に記憶させるものとしてもよい。この場合、トリガ生成部313は、記憶部302に記憶されたベクトル情報を用いて、動体がベクトル情報の示す方向と同一の方向から動いてきたか否かを確認し、その確認結果に基づいてトリガ信号を生成するものとしてもよい。   As described above, the change point detection unit 306 specifies the frames (2) and (7) as the IN point candidate frames and the frame (5) as the OUT point candidate frames in the example of FIG. To do. As described above, when a plurality of IN point candidate frames are identified, the change point detection unit 306 sets the frame closest to the middle frame (6) of the acquired frames, that is, the frame (7) as the IN point frame. decide. In the example of FIG. 8, only one frame (frame (5)) is specified as the OUT point candidate frame. However, as with the IN point candidate, a plurality of frames are OUT point candidate frames. It may be specified as. As described above, when a plurality of OUT point candidate frames are identified, the change point detection unit 306 determines the frame closest to the middle frame (6) of the acquired frames as the OUT point candidate, similarly to the IN point candidate. Decide on a frame. In the example of FIG. 8, since the OUT point candidate frame is only the frame (5), the change point detection unit 306 determines the frame (5) as the OUT point frame. As described above, the change point detection unit 306 detects the change points (IN point and OUT point) by determining the IN point frame and the OUT point frame from the acquired frames for a predetermined time. When the change point is detected, the change point detection unit 306 detects a moving object in the trigger region 530 using a frame before the change point frame, a frame after the change point frame, or a frame before and after the change point frame. Vector information indicating whether a moving object has entered from the storage unit 302 may be stored in the storage unit 302. In this case, the trigger generation unit 313 uses the vector information stored in the storage unit 302 to check whether the moving object has moved from the same direction as the vector information, and triggers based on the confirmation result. A signal may be generated.

なお、変化点検出部306によるトリガ領域530において変化点の検出方法は、上述の方法に限定されるものではなく、トリガを発生させるタイミングを規定する変化点であれば、どのように変化点を検出してもよい。   Note that the method of detecting the change point in the trigger region 530 by the change point detection unit 306 is not limited to the above-described method, and how the change point is determined as long as the change point defines the timing at which the trigger is generated. It may be detected.

また、上述のように、変化点検出部306は、差分が2フレーム分以上連続して所定の閾値以上となった場合、最初に差分が所定の閾値以上となったフレームをIN点の候補のフレームとするものとしているが、これに限定されるものではない。すなわち、差分が2フレーム分以上連続ではなく、その他の数以上のフレームが連続して所定の閾値以上となった場合としてもよい。これは、OUT点の候補のフレームを見つける場合についても同様である。   In addition, as described above, the change point detection unit 306, when the difference is equal to or greater than the predetermined threshold continuously for two frames or more, first determines the frame whose difference is equal to or greater than the predetermined threshold as the IN point candidate. Although it is assumed to be a frame, it is not limited to this. That is, the difference may not be continuous for two frames or more, but may be a case where another number of frames or more are continuously equal to or greater than a predetermined threshold. The same applies to the case of finding a candidate frame for the OUT point.

また、図8では、IN点およびOUT点の双方のフレームが見つかる例を示したが、変化点検出部306は、IN点のフレームのみ、または、OUT点のフレームのみを見つける場合もあり、この場合は、これらのIN点またはOUT点を変化点として検出する。この場合、変化点検出部306は、検出した変化点のフレームのトリガ領域530内の画像を差分画像(第1画像)として抽出する。変化点検出部306は、抽出した基準画像、および変化点のフレームにおける差分画像を記憶部302に記憶させ、基準画像を基準画像表示部508aに表示させ、差分画像を差分画像表示部508bに表示させる。さらに、変化点検出部306は、シークバー504において、検出した変化点のフレームの時刻に対応する部分にトリガマーク540を表示する。また、変化点検出部306により変化点が検出された場合、トリガ領域指定部305は、指定したトリガ領域530の情報を記憶部302に記憶させる。また、設定部308は、トリガ領域指定部305により指定されたトリガ領域530に命名した名前、ならびに、変化点検出部306の変化点の検出に利用された所定の感度(例えば、「50」)および所定の閾値(例えば、「20%」)(デフォルト値)を、トリガ領域情報部507に表示させる。設定部308は、トリガ領域530の名前として、図7に示すように、例えば、「6」の撮像装置(撮像装置2f)の映像データに対して指定されたトリガ領域であるものとして、「TR6」と命名する。   FIG. 8 shows an example in which both the IN point and OUT point frames are found. However, the change point detection unit 306 may find only the IN point frame or only the OUT point frame. In this case, these IN point or OUT point is detected as a change point. In this case, the change point detection unit 306 extracts an image in the trigger region 530 of the detected change point frame as a difference image (first image). The change point detection unit 306 stores the extracted reference image and the difference image in the frame of the change point in the storage unit 302, displays the reference image on the reference image display unit 508a, and displays the difference image on the difference image display unit 508b. Let Furthermore, the change point detection unit 306 displays a trigger mark 540 on the seek bar 504 at a portion corresponding to the time of the detected change point frame. When a change point is detected by the change point detection unit 306, the trigger area specifying unit 305 causes the storage unit 302 to store information on the specified trigger area 530. The setting unit 308 also names the trigger region 530 specified by the trigger region specifying unit 305 and a predetermined sensitivity (for example, “50”) used to detect the change point of the change point detection unit 306. A predetermined threshold value (for example, “20%”) (default value) is displayed on the trigger area information unit 507. As illustrated in FIG. 7, the setting unit 308 assumes that the trigger region is the trigger region designated for the video data of the imaging device “6” (imaging device 2f), as shown in FIG. ".

図9に示す設定画面500は、変化点検出部306によって、トリガ領域指定部305により指定されたトリガ領域530において変化点が上述のように2つ(IN点およびOUT点)検出された場合に、変化点選択ダイアログ600が表示された状態を示している。このように、変化点検出部306は、変化点を2つ以上検出した場合、基準画像を抽出した時点に最も近い2つの変化点(IN点およびOUT点)のうちいずれをトリガの生成のために利用するかを選択するための変化点選択ダイアログ600を表示装置317に表示させる。変化点選択ダイアログ600は、はいボタン601と、いいえボタン602と、閉じるボタン603と、を含む。閉じるボタン603は、変化点選択ダイアログ600を閉じるためのボタンである。   The setting screen 500 shown in FIG. 9 is displayed when the change point detection unit 306 detects two change points (IN point and OUT point) in the trigger region 530 specified by the trigger region specification unit 305 as described above. The change point selection dialog 600 is displayed. As described above, when two or more change points are detected, the change point detection unit 306 generates one of the two change points (IN point and OUT point) closest to the time when the reference image is extracted for generating a trigger. The display device 317 displays a change point selection dialog 600 for selecting whether or not to use. The change point selection dialog 600 includes a yes button 601, a no button 602, and a close button 603. A close button 603 is a button for closing the change point selection dialog 600.

ユーザによる入力装置303の操作によって、はいボタン601を押下した場合、変化点検出部306は、IN点を変化点として検出し、IN点のフレームのトリガ領域530内の画像を差分画像として抽出する。そして、変化点検出部306は、抽出した基準画像、およびIN点のフレームにおける差分画像を記憶部302に記憶させ、基準画像を基準画像表示部508aに表示させ、差分画像を差分画像表示部508bに表示させる。さらに、変化点検出部306は、シークバー504において、検出したIN点のフレームの時刻に対応する部分にトリガマーク540を表示する。   When the user presses the yes button 601 by operating the input device 303, the change point detection unit 306 detects the IN point as a change point, and extracts an image in the trigger region 530 of the frame at the IN point as a difference image. . Then, the change point detection unit 306 stores the extracted reference image and the difference image in the frame of the IN point in the storage unit 302, displays the reference image on the reference image display unit 508a, and displays the difference image as the difference image display unit 508b. To display. Furthermore, the change point detection unit 306 displays a trigger mark 540 on the seek bar 504 at a portion corresponding to the detected time of the frame at the IN point.

一方、ユーザによる入力装置303の操作によって、いいえボタン602を押下した場合、変化点検出部306は、OUT点を変化点として検出し、OUT点のフレームのトリガ領域530内の画像を差分画像として抽出する。そして、変化点検出部306は、抽出した基準画像、およびOUT点のフレームにおける差分画像を記憶部302に記憶させ、基準画像を基準画像表示部508aに表示させ、差分画像を差分画像表示部508bに表示させる。さらに、変化点検出部306は、シークバー504において、検出したOUT点のフレームの時刻に対応する部分にトリガマーク540を表示する。その他の動作は、図7で上述した動作と同様である。   On the other hand, when the user presses the No button 602 by operating the input device 303, the change point detection unit 306 detects the OUT point as a change point, and uses the image in the trigger region 530 of the frame at the OUT point as a difference image. Extract. Then, the change point detection unit 306 stores the extracted reference image and the difference image in the frame of the OUT point in the storage unit 302, displays the reference image on the reference image display unit 508a, and displays the difference image as the difference image display unit 508b. To display. Furthermore, the change point detection unit 306 displays a trigger mark 540 on the seek bar 504 at a portion corresponding to the time of the frame of the detected OUT point. Other operations are the same as those described above with reference to FIG.

このように、変化点検出部306により変化点としてIN点およびOUT点が検出され、ユーザにより2つの変化点のいずれかを選択できるようにすることにより、ユーザが真に指定を所望する変化点を選択させることができる。   In this way, the change point detection unit 306 detects the IN point and the OUT point as change points, and allows the user to select one of the two change points, so that the user can truly specify the change point. Can be selected.

図10に示す設定画面500は、変化点検出部306によって、トリガ領域指定部305により指定されたトリガ領域530において変化点が見つからなかった場合に、変化点無し通知ダイアログ610が表示された状態を示している。変化点検出部306は、上述の図8で説明した動作において、演算した差分が所定の閾値以上とならず、変化点が検出できない場合がある。この場合、変化点検出部306は、変化点が見つからなかった旨を示す変化点無し通知ダイアログ610を表示装置317に表示させる。   The setting screen 500 shown in FIG. 10 shows a state in which the no change point notification dialog 610 is displayed when no change point is found in the trigger area 530 specified by the trigger area specifying unit 305 by the change point detecting unit 306. Show. In the operation described with reference to FIG. 8, the change point detection unit 306 may not be able to detect a change point because the calculated difference does not exceed a predetermined threshold value. In this case, the change point detection unit 306 causes the display device 317 to display a no change point notification dialog 610 indicating that no change point has been found.

変化点無し通知ダイアログ610は、OKボタン611と、閉じるボタン612と、を含む。閉じるボタン612は、変化点無し通知ダイアログ610を閉じるためのボタンである。ユーザによる入力装置303の操作によって、OKボタン611を押下した場合、変化点検出部306は、記憶部302に何の情報も記憶せず、基準画像表示部508aおよび差分画像表示部508bにも画像を表示させずに、変化点無し通知ダイアログ610を閉じる。   The no change point notification dialog 610 includes an OK button 611 and a close button 612. The close button 612 is a button for closing the no change point notification dialog 610. When the user presses the OK button 611 by operating the input device 303, the change point detection unit 306 stores no information in the storage unit 302, and the image is also displayed in the reference image display unit 508 a and the difference image display unit 508 b. Is not displayed, and the no change point notification dialog 610 is closed.

(検知領域の指定および検知領域の属性情報の設定)
図11は、第1の実施の形態に係る情報処理装置の表示装置に表示される設定画面において映像表示部に検知領域を指定する例を示す図である。図12は、第1の実施の形態に係る情報処理装置の表示装置に表示される設定画面において映像表示部に2つ目の検知領域を指定する例を示す図である。図13は、第1の実施の形態に係る情報処理装置の表示装置に表示される設定画面において映像表示部に表示されている映像データとは異なる映像データで設定されたトリガ領域を選択する状態の例を示す図である。図14は、第1の実施の形態に係る情報処理装置の表示装置に表示される設定画面において映像表示部に表示されている映像データとは異なる映像データで設定されたトリガ領域を選択した後の状態の例を示す図である。図15は、第1の実施の形態に係る情報処理装置の表示装置に表示される設定画面において映像表示部に表示されている映像データとは異なる映像データで設定されたトリガ領域に対応する検知領域を指定する例を示す図である。図16は、第1の実施の形態に係る情報処理装置の表示装置に表示される設定画面において映像表示部で指定した検知領域の属性情報を設定する例を示す図である。図11〜16を参照しながら、検知領域の指定および検知領域の属性情報の設定について説明する。
(Specifying detection area and setting attribute information of detection area)
FIG. 11 is a diagram illustrating an example in which a detection area is designated in the video display unit on the setting screen displayed on the display device of the information processing device according to the first embodiment. FIG. 12 is a diagram illustrating an example in which the second detection area is designated in the video display unit on the setting screen displayed on the display device of the information processing device according to the first embodiment. FIG. 13 illustrates a state in which a trigger area set with video data different from the video data displayed on the video display unit is selected on the setting screen displayed on the display device of the information processing apparatus according to the first embodiment. It is a figure which shows the example of. FIG. 14 shows a state in which a trigger area set with video data different from the video data displayed on the video display unit is selected on the setting screen displayed on the display device of the information processing apparatus according to the first embodiment. It is a figure which shows the example of the state of. FIG. 15 illustrates detection corresponding to a trigger region set with video data different from the video data displayed on the video display unit on the setting screen displayed on the display device of the information processing apparatus according to the first embodiment. It is a figure which shows the example which designates an area | region. FIG. 16 is a diagram illustrating an example of setting the detection area attribute information designated by the video display unit on the setting screen displayed on the display device of the information processing apparatus according to the first embodiment. The detection area designation and detection area attribute information setting will be described with reference to FIGS.

図11に示す設定画面500は、第1再生部304により映像データが再生表示されている映像表示部502において検知領域535が指定された状態を示している。具体的には、まず、映像表示部502において映像データの再生表示中に、画像判定を所望する画像の部分が表示されているタイミングで、ユーザによる入力装置303の操作によって一時停止ボタン503bが押下されると、第1再生部304は、映像表示部502に再生表示されている映像データを一時停止し、その時点のフレームの撮像日付および撮像時刻を時刻表示部506に表示させる。次に、ユーザによる入力装置303の操作(例えば、マウス108のドラッグ操作)によって、検知領域指定部307は、映像表示部502において検知領域535を指定して表示させる。ただし、検知領域指定部307が、検知領域535を指定できるのは、トリガ領域情報部507において、トリガ領域指定部305により指定されたトリガ領域が選択(図11の例では「TR6」)されている必要がある。すなわち、検知領域指定部307により指定された検知領域535は、トリガ領域情報部507において選択されたトリガ領域と関連付けられる。   A setting screen 500 shown in FIG. 11 shows a state in which the detection area 535 is specified in the video display unit 502 in which video data is played back and displayed by the first playback unit 304. Specifically, first, during the reproduction and display of the video data on the video display unit 502, the pause button 503b is pressed by the operation of the input device 303 by the user at the timing when the part of the image for which image determination is desired is displayed. Then, the first reproduction unit 304 pauses the video data reproduced and displayed on the video display unit 502 and causes the time display unit 506 to display the imaging date and imaging time of the frame at that time. Next, when the user operates the input device 303 (for example, dragging the mouse 108), the detection area designating unit 307 designates and displays the detection area 535 on the video display unit 502. However, the detection region designation unit 307 can designate the detection region 535 because the trigger region designated by the trigger region designation unit 305 is selected in the trigger region information unit 507 (“TR6” in the example of FIG. 11). Need to be. That is, the detection area 535 designated by the detection area designation unit 307 is associated with the trigger area selected in the trigger area information unit 507.

また、設定部308は、検知領域535の属性情報として、検知領域指定部307により指定された検知領域535に命名した名前、ならびに、デフォルト値として、後述する画像判定で使用する所定の感度(例えば、「50」)および所定の閾値(例えば、「20%」)、監視方法(例えば、「グレースケール」)、アクションの有無(例えば、「なし」)および画像判定の方法(例えば、「一致」)を、検知領域情報部509に表示させる。設定部308は、検知領域535の名前として、図11に示すように、例えば、トリガ領域「TR6」に関連付けられた1番目の領域であるものとして、「K61」と命名する。また、設定部308は、変化点検出部306によって検出された変化点の時刻に対して、検知領域指定部307により検知領域535が指定された時点のフレームの時刻の遅延時間(図11の例では「2.14」)(判定時間)を属性情報として算出して、検知領域情報部509に表示させる。すなわち、この場合、「K61」と命名された検知領域535では、トリガのタイミングから「2.14」秒後に画像判定が行われるように設定されたことになる。また、設定部308は、検知領域情報部509に表示させた検知領域535の属性情報を、記憶部302に記憶させる。   In addition, the setting unit 308 uses, as attribute information of the detection region 535, a name that is named for the detection region 535 designated by the detection region designation unit 307, and a predetermined sensitivity (for example, used in image determination described later) as a default value. , “50”) and a predetermined threshold (eg, “20%”), monitoring method (eg, “grayscale”), presence / absence of action (eg, “none”), and image determination method (eg, “match”) ) Is displayed on the detection area information unit 509. The setting unit 308 names “K61” as the name of the detection region 535, as shown in FIG. 11, for example, as the first region associated with the trigger region “TR6”. The setting unit 308 also delays the time of the frame at the time when the detection region 535 is specified by the detection region specifying unit 307 with respect to the time of the change point detected by the change point detection unit 306 (example in FIG. 11). Then, “2.14”) (determination time) is calculated as attribute information and displayed on the detection area information unit 509. That is, in this case, the detection region 535 named “K61” is set to perform image determination “2.14” seconds after the trigger timing. In addition, the setting unit 308 causes the storage unit 302 to store the attribute information of the detection area 535 displayed on the detection area information unit 509.

また、検知領域指定部307は、検知領域535を指定した時刻の検知領域535内の画像を検知基準画像として抽出して記憶部302に記憶させ、指定した検知領域535の情報を記憶部302に記憶させる。   In addition, the detection area designating unit 307 extracts an image in the detection area 535 at the time when the detection area 535 is designated as a detection reference image and stores it in the storage unit 302, and stores information on the designated detection area 535 in the storage unit 302. Remember.

図12に示す設定画面500は、第1再生部304により映像データが再生表示されている映像表示部502において2つ目の検知領域である検知領域536が指定された状態を示している。具体的には、まず、映像表示部502において映像データの再生表示(一時停止)中に、ユーザによる入力装置303の操作によってシークバー504のスライダー505をスライドさせて、画像判定を所望する画像の部分が表示されているタイミングに調整する。第1再生部304は、映像表示部502に一時停止されている映像データのフレームの撮像日付および撮像時刻を時刻表示部506に表示させる。   A setting screen 500 shown in FIG. 12 shows a state in which the detection area 536 that is the second detection area is designated in the video display unit 502 in which video data is reproduced and displayed by the first reproduction unit 304. Specifically, first, during the reproduction display (pause) of the video data on the video display unit 502, the slider 505 of the seek bar 504 is slid by the operation of the input device 303 by the user, and the part of the image for which image determination is desired. Adjust to the timing when is displayed. The first reproduction unit 304 causes the time display unit 506 to display the imaging date and the imaging time of the frame of the video data temporarily stopped on the video display unit 502.

次に、ユーザによる入力装置303の操作(例えば、マウス108のドラッグ操作)によって、検知領域指定部307は、映像表示部502において2つ目の検知領域である検知領域536を指定して表示させる。ただし、検知領域指定部307が、検知領域536を指定できるのは、検知領域535の指定の場合と同様に、トリガ領域情報部507において、トリガ領域指定部305により指定されたトリガ領域が選択(図12の例では「TR6」)されている必要がある。すなわち、検知領域指定部307により指定された検知領域536は、トリガ領域情報部507において選択されたトリガ領域と関連付けられる。   Next, when the user operates the input device 303 (for example, dragging the mouse 108), the detection area designating unit 307 designates and displays the detection area 536, which is the second detection area, on the video display unit 502. . However, the detection area designation unit 307 can designate the detection area 536, as in the case of designation of the detection area 535, in the trigger area information part 507, the trigger area designated by the trigger area designation unit 305 is selected ( In the example of FIG. 12, “TR6” is required. That is, the detection area 536 designated by the detection area designation unit 307 is associated with the trigger area selected in the trigger area information unit 507.

また、設定部308は、検知領域536の属性情報として、検知領域指定部307により指定された検知領域536に命名した名前、ならびに、デフォルト値として、後述する画像判定で使用する所定の感度(例えば、「50」)および所定の閾値(例えば、「20%」)、監視方法(例えば、「グレースケール」)、アクションの有無(例えば、「なし」)および画像判定の方法(例えば、「一致」)を、検知領域情報部509に表示させる。設定部308は、検知領域536の名前として、図12に示すように、例えば、検知領域「TR6」に関連付けられた2番目の領域であるものとして、「K62」と命名する。また、設定部308は、変化点検出部306によって検出された変化点の時刻に対して、検知領域指定部307により検知領域536が指定された時点のフレームの時刻の遅延時間(図12の例では「−1.86」)を属性情報として算出して、検知領域情報部509に表示させる。すなわち、この場合、「K62」と命名された検知領域535では、トリガのタイミングから「1.86」秒前に画像判定が行われるように設定されたことになる。また、設定部308は、検知領域情報部509に表示させた検知領域536の属性情報を、記憶部302に記憶させる。   In addition, the setting unit 308 uses, as attribute information of the detection region 536, a name given to the detection region 536 designated by the detection region designation unit 307, and a predetermined sensitivity (for example, used in image determination described later) as a default value. , “50”) and a predetermined threshold (eg, “20%”), monitoring method (eg, “grayscale”), presence / absence of action (eg, “none”), and image determination method (eg, “match”) ) Is displayed on the detection area information unit 509. As illustrated in FIG. 12, the setting unit 308 names “K62” as the name of the detection region 536, for example, as the second region associated with the detection region “TR6”. The setting unit 308 also delays the time of the frame at the time when the detection region 536 is specified by the detection region specifying unit 307 with respect to the time of the change point detected by the change point detection unit 306 (example in FIG. 12). Then, “−1.86”) is calculated as attribute information and displayed on the detection area information unit 509. That is, in this case, the detection area 535 named “K62” is set to perform image determination “1.86” seconds before the trigger timing. In addition, the setting unit 308 causes the storage unit 302 to store the attribute information of the detection region 536 displayed on the detection region information unit 509.

また、検知領域指定部307は、検知領域536を指定した時刻の検知領域536内の画像を検知基準画像として抽出して記憶部302に記憶させ、指定した検知領域536の情報を記憶部302に記憶させる。   In addition, the detection area designating unit 307 extracts an image in the detection area 536 at the time when the detection area 536 is designated as a detection reference image and stores it in the storage unit 302, and stores information on the designated detection area 536 in the storage unit 302. Remember.

図13に示す設定画面500は、第1再生部304により映像データが再生表示されている映像表示部502において、再生表示されている映像データを撮像した撮像装置2とは異なる撮像装置2の映像データにおいて指定されたトリガ領域を選択する状態を示している。具体的には、まず、ユーザによる入力装置303の操作によって、トリガ領域情報部507のプルダウンボタン507aを押下すると、「トリガ領域名」の欄からプルダウンメニュー507bが出現する。設定部308は、複数の撮像装置2の映像データのうち指定されたトリガ領域を、プルダウンメニュー507bに配列表示させる。   A setting screen 500 shown in FIG. 13 is an image of the image pickup apparatus 2 different from the image pickup apparatus 2 that picked up the image data being reproduced and displayed in the image display section 502 where the image data is reproduced and displayed by the first reproduction unit 304. The state which selects the trigger area designated in data is shown. Specifically, first, when a pull-down button 507a of the trigger area information unit 507 is pressed by an operation of the input device 303 by the user, a pull-down menu 507b appears from the “trigger area name” column. The setting unit 308 causes the specified trigger area among the video data of the plurality of imaging devices 2 to be displayed in an array on the pull-down menu 507b.

図14に示す設定画面500は、ユーザによる入力装置303の操作によって、プルダウンメニュー507bに表示されたトリガ領域のうち「TR2」が選択された状態を示している。ここで、トリガ領域名が「TR2」であるトリガ領域は、例えば、「2」の撮像装置(撮像装置2b)の映像データに対して指定されたトリガ領域である。   A setting screen 500 illustrated in FIG. 14 illustrates a state in which “TR2” is selected from the trigger area displayed in the pull-down menu 507b by the user operating the input device 303. Here, the trigger area whose trigger area name is “TR2” is, for example, a trigger area designated for the video data of the imaging apparatus (imaging apparatus 2b) of “2”.

具体的には、まず、ユーザによる入力装置303の操作によって、トリガ領域情報部507のプルダウンメニュー507bに配列表示されたトリガ領域(図13の例では「TR2」および「TR6」)のうち、いずれかのトリガ領域(図14の例では「TR2」)を選択する。すると、設定部308は、入力装置303により選択されたトリガ領域「TR2」の感度および閾値を、記憶部302から取得して、トリガ領域情報部507に表示させる。また、設定部308は、「6」の撮像装置の映像データにおいては、トリガ領域「TR2」に関連付けられた検知領域は存在しないので、検知領域情報部509に表示されていた検知領域535、536の属性情報の表示を消去する。さらに、変化点検出部306は、トリガ領域「TR2」の基準画像および差分画像を記憶部302から取得して、基準画像を基準画像表示部508aに表示させ、差分画像を差分画像表示部508bに表示させる。   Specifically, first, any of the trigger areas ("TR2" and "TR6" in the example of FIG. 13) displayed in an array on the pull-down menu 507b of the trigger area information unit 507 by the operation of the input device 303 by the user. The trigger area (“TR2” in the example of FIG. 14) is selected. Then, the setting unit 308 acquires the sensitivity and threshold value of the trigger region “TR2” selected by the input device 303 from the storage unit 302 and causes the trigger region information unit 507 to display it. In addition, in the video data of the imaging device “6”, the setting unit 308 has no detection region associated with the trigger region “TR2”, and thus the detection regions 535 and 536 displayed in the detection region information unit 509. Clear the display of attribute information. Further, the change point detection unit 306 acquires the reference image and difference image of the trigger region “TR2” from the storage unit 302, displays the reference image on the reference image display unit 508a, and causes the difference image to be displayed on the difference image display unit 508b. Display.

図15に示す設定画面500は、第1再生部304により映像データが再生表示されている映像表示部502において3つ目の検知領域である検知領域537が指定された状態を示している。具体的には、まず、映像表示部502において映像データの再生表示(一時停止)中に、ユーザによる入力装置303の操作によってシークバー504のスライダー505をスライドさせて、画像判定を所望する画像の部分が表示されているタイミングに調整する。第1再生部304は、映像表示部502に一時停止されている映像データのフレームの撮像日付および撮像時刻を時刻表示部506に表示させる。   A setting screen 500 shown in FIG. 15 shows a state in which a detection area 537, which is the third detection area, is designated in the video display section 502 where video data is played back and displayed by the first playback section 304. Specifically, first, during the reproduction display (pause) of the video data on the video display unit 502, the slider 505 of the seek bar 504 is slid by the operation of the input device 303 by the user, and the part of the image for which image determination is desired. Adjust to the timing when is displayed. The first reproduction unit 304 causes the time display unit 506 to display the imaging date and the imaging time of the frame of the video data temporarily stopped on the video display unit 502.

次に、ユーザによる入力装置303の操作(例えば、マウス108のドラッグ操作)によって、検知領域指定部307は、映像表示部502において3つ目の検知領域である検知領域537を指定して表示させる。この場合、検知領域指定部307により指定された検知領域536は、トリガ領域情報部507において選択されたトリガ領域「TR2」と関連付けられる。   Next, when the user operates the input device 303 (for example, dragging the mouse 108), the detection area designating unit 307 designates and displays the detection area 537, which is the third detection area, on the video display unit 502. . In this case, the detection region 536 designated by the detection region designation unit 307 is associated with the trigger region “TR2” selected in the trigger region information unit 507.

また、設定部308は、検知領域537の属性情報として、検知領域指定部307により指定された検知領域537に命名した名前、ならびに、デフォルト値として、後述する画像判定で使用する所定の感度(例えば、「50」)および所定の閾値(例えば、「20%」)、監視方法(例えば、「グレースケール」)、アクションの有無(例えば、「なし」)および画像判定の方法(例えば、「一致」)を、検知領域情報部509に表示させる。設定部308は、検知領域537の名前として、図15に示すように、例えば、検知領域「TR2」に関連付けられた1番目の領域であるものとして、「K21」と命名する。また、設定部308は、変化点検出部306によって検出された、「2」の撮像装置(撮像装置2b)の映像データのトリガ領域「TR2」の変化点のタイミングに対して、検知領域指定部307により検知領域537が指定されたタイミングの遅延時間(図15の例では「1.50」)のデフォルト値を属性情報として決定し、検知領域情報部509に表示させる。また、設定部308は、検知領域情報部509に表示させた検知領域537の属性情報を、記憶部302に記憶させる。   In addition, the setting unit 308 uses, as attribute information of the detection region 537, a name given to the detection region 537 specified by the detection region specifying unit 307, and a predetermined sensitivity (for example, used in image determination described later) as a default value. , “50”) and a predetermined threshold (eg, “20%”), monitoring method (eg, “grayscale”), presence / absence of action (eg, “none”), and image determination method (eg, “match”) ) Is displayed on the detection area information unit 509. As illustrated in FIG. 15, the setting unit 308 names “K21” as the first region associated with the detection region “TR2”, for example, as illustrated in FIG. In addition, the setting unit 308 detects the change point of the trigger region “TR2” of the video data of the image pickup device “2” (the image pickup device 2b) detected by the change point detection unit 306. The default value of the delay time (“1.50” in the example of FIG. 15) at the timing at which the detection area 537 is designated by 307 is determined as attribute information and displayed on the detection area information unit 509. In addition, the setting unit 308 causes the storage unit 302 to store the attribute information of the detection region 537 displayed on the detection region information unit 509.

また、検知領域指定部307は、検知領域537を指定した時刻の検知領域537内の画像を検知基準画像として抽出して記憶部302に記憶させ、指定した検知領域537の情報を記憶部302に記憶させる。   In addition, the detection area designating unit 307 extracts an image in the detection area 537 at the time when the detection area 537 is designated as a detection reference image and stores it in the storage unit 302, and stores information on the designated detection area 537 in the storage unit 302. Remember.

このように、映像表示部502に表示されている映像データに係る撮像装置2とは異なる撮像装置2の映像データで指定されたトリガ領域と関連付けて検知領域を指定できるので、複数の撮像装置2間の連携が可能となり、画像判定の自由度を飛躍的に向上させることができる。   As described above, since the detection area can be specified in association with the trigger area specified by the video data of the imaging device 2 different from the imaging device 2 related to the video data displayed on the video display unit 502, a plurality of imaging devices 2 can be specified. Can be linked, and the degree of freedom of image determination can be dramatically improved.

図16に示す設定画面500は、トリガ領域情報部507でトリガ領域「TR6」(トリガ領域530)が選択された状態で、検知領域情報部509に属性情報が表示された検知領域「K61」(検知領域535)、「K62」(検知領域536)のうち「K62」が選択された状態を示している。図16を参照しながら、検知領域の属性情報の編集について説明する。ただし、検知領域ボタン部510の感度判定ボタン510dが押下された場合の検知領域の感度調整については、図19〜22で後述する。   The setting screen 500 shown in FIG. 16 has a detection area “K61” (attribute information displayed in the detection area information section 509 in a state where the trigger area “TR6” (trigger area 530) is selected in the trigger area information section 507). In the detection area 535) and “K62” (detection area 536), “K62” is selected. The editing of the attribute information of the detection area will be described with reference to FIG. However, the sensitivity adjustment of the detection area when the sensitivity determination button 510d of the detection area button unit 510 is pressed will be described later with reference to FIGS.

まず、図16に示すように、ユーザによる入力装置303の操作によって、検知領域情報部509に属性情報が表示された検知領域のいずれかを選択すると、設定部308は、選択された検知領域情報部509の検知領域の属性情報の表示部分を反転表示させる。以下、図16に示すように検知領域536(検知領域名「K62」)が選択されたものとして説明する。   First, as illustrated in FIG. 16, when one of detection areas whose attribute information is displayed in the detection area information unit 509 is selected by the user's operation of the input device 303, the setting unit 308 displays the selected detection area information. The display part of the attribute information of the detection area of the part 509 is highlighted. In the following description, it is assumed that the detection area 536 (detection area name “K62”) is selected as shown in FIG.

次に、例えば、ユーザによる入力装置303の操作によって、アクションボタン510aを押下すると、設定部308は、選択された検知領域536のアクションの有無の設定値を切り替える。例えば、検知領域536のアクションの有無が「なし」となっている場合、アクションボタン510aが押下されると、設定部308は、検知領域536のアクションの有無を「あり」に設定する。一方、検知領域536のアクションの有無が「あり」となっている場合、アクションボタン510aが押下されると、設定部308は、検知領域536のアクションの有無を「なし」に設定する。後述するように、アクションの有無が「あり」となっている場合、検知領域判定部314によってその検知領域における画像判定で異常と判定された場合、外部出力部316が異常信号を出力する。   Next, for example, when the action button 510 a is pressed by the user operating the input device 303, the setting unit 308 switches the setting value of the presence or absence of the action in the selected detection area 536. For example, when the presence / absence of an action in the detection area 536 is “none”, when the action button 510a is pressed, the setting unit 308 sets the presence / absence of an action in the detection area 536 to “present”. On the other hand, when the presence / absence of the action in the detection area 536 is “Yes”, when the action button 510a is pressed, the setting unit 308 sets the presence / absence of the action in the detection area 536 to “No”. As will be described later, when the presence / absence of an action is “Yes”, the external output unit 316 outputs an abnormal signal when the detection region determination unit 314 determines that the image determination in the detection region is abnormal.

また、例えば、ユーザによる入力装置303の操作によって、画像判定選択ボタン510bを押下すると、設定部308は、選択された検知領域536の画面判定の方法の設定値を切り替える。例えば、検知領域536の画面判定の方法が「一致」となっている場合、画像判定選択ボタン510bが押下されると、設定部308は、検知領域536の画面判定の方法を「不一致」に設定する。一方、検知領域536の画面判定の方法が「不一致」となっている場合、画像判定選択ボタン510bが押下されると、設定部308は、検知領域536の画面判定の方法を「一致」に設定する。   For example, when the image determination selection button 510b is pressed by the user operating the input device 303, the setting unit 308 switches the setting value of the screen determination method of the selected detection area 536. For example, when the screen determination method of the detection area 536 is “match”, when the image determination selection button 510b is pressed, the setting unit 308 sets the screen determination method of the detection area 536 to “mismatch”. To do. On the other hand, when the screen determination method of the detection area 536 is “mismatch”, when the image determination selection button 510b is pressed, the setting unit 308 sets the screen determination method of the detection area 536 to “match”. To do.

後述するように、画面判定の方法が「一致」となっている場合、検知領域判定部314は、抽出した画像と、検知基準画像との差分が属性情報の閾値以上の場合、異常と判定する。このように、画面判定の方法が「一致」とする場合の例としては、ワークに部品を挿入する設備において、部品がワークに挿入されている状態を検知基準画像とし、ワークへの部品の挿入動作が終了したタイミングで画像判定する場合が挙げられる。この場合、ワークへの部品の挿入動作が失敗し、正常に部品が挿入されていない状態で検知領域判定部314により画像判定が実行されると、検知基準画像との差分が属性情報の閾値以上となり、異常と判定されることになる。   As will be described later, when the screen determination method is “match”, the detection area determination unit 314 determines that the difference between the extracted image and the detection reference image is equal to or greater than the threshold value of the attribute information as abnormal. . In this way, as an example of the case where the screen judgment method is “match”, in a facility for inserting a part into a workpiece, the state where the part is inserted into the workpiece is used as a detection reference image, and the part is inserted into the workpiece. There is a case where an image is determined at the timing when the operation is completed. In this case, when the part insertion operation to the workpiece fails and the image determination is executed by the detection region determination unit 314 in a state where the part is not normally inserted, the difference from the detection reference image is equal to or greater than the threshold value of the attribute information. Thus, it is determined that there is an abnormality.

一方、画面判定の方法が「不一致」となっている場合、検知領域判定部314は、抽出した画像と、検知基準画像との差分が属性情報の閾値未満の場合、異常と判定する。このように、画面判定の方法が「不一致」とする場合の例としては、ワークに部品を挿入する設備において、部品がワークに挿入されていない状態を検知基準画像とし、ワークへの部品の挿入動作が終了したタイミングで画像判定する場合が挙げられる。この場合、ワークへの部品の挿入動作が失敗し、正常に部品が挿入されていない状態で検知領域判定部314により画像判定が実行されると、検知基準画像との差分が属性情報の閾値未満となり、異常と判定されることになる。なお、部品がワークに挿入されていない状態を検知基準画像とする事情としては、完成品としての部品が挿入されたワークを準備するのが困難である場合等が挙げられる。   On the other hand, when the screen determination method is “mismatch”, the detection region determination unit 314 determines that the difference is between the extracted image and the detection reference image is less than the threshold value of the attribute information. In this way, as an example of the case where the screen judgment method is “mismatch”, in the equipment for inserting a part into the workpiece, the state where the part is not inserted into the workpiece is used as a detection reference image, and the part is inserted into the workpiece. There is a case where an image is determined at the timing when the operation is completed. In this case, when the operation of inserting the component into the workpiece fails and the detection region determination unit 314 performs image determination in a state where the component is not normally inserted, the difference from the detection reference image is less than the threshold value of the attribute information. Thus, it is determined that there is an abnormality. A situation in which a state in which no part is inserted into the workpiece is used as the detection reference image includes a case where it is difficult to prepare a workpiece into which a component as a finished product is inserted.

また、例えば、ユーザによる入力装置303の操作によって、削除ボタン510cを押下すると、設定部308は、検知領域情報部509に表示された検知領域536の属性情報を消去し、記憶部302に記憶された検知領域536の属性情報を削除する。また、検知領域指定部307は、映像表示部502に表示された検知領域536を消去し、記憶部302に記憶された検知基準画像および検知領域536の情報を削除する。   For example, when the user presses the delete button 510 c by operating the input device 303, the setting unit 308 deletes the attribute information of the detection area 536 displayed in the detection area information unit 509 and stores the attribute information in the storage unit 302. The attribute information of the detected area 536 is deleted. Further, the detection area designating unit 307 deletes the detection area 536 displayed on the video display unit 502 and deletes the detection reference image and the information on the detection area 536 stored in the storage unit 302.

また、例えば、ユーザによる入力装置303の操作によって、感度判定ボタン510dを押下すると、設定部308は、後述の図19等に示す感度設定プレビュー画面700を表示装置317に表示させる。   For example, when the sensitivity determination button 510d is pressed by the user operating the input device 303, the setting unit 308 causes the display device 317 to display a sensitivity setting preview screen 700 illustrated in FIG.

また、例えば、ユーザによる入力装置303の操作によって、感度増加ボタン510eを押下すると、設定部308は、選択された検知領域536の画像判定に用いられる感度の値を所定値だけ増加させる。一方、ユーザによる入力装置303の操作によって、感度減少ボタン510fを押下すると、設定部308は、選択された検知領域536の画像判定に用いられる感度の値を所定値だけ減少させる。   For example, when the sensitivity increase button 510e is pressed by the user operating the input device 303, the setting unit 308 increases the sensitivity value used for image determination of the selected detection region 536 by a predetermined value. On the other hand, when the sensitivity reduction button 510f is pressed by the user operating the input device 303, the setting unit 308 decreases the sensitivity value used for image determination of the selected detection region 536 by a predetermined value.

また、例えば、ユーザによる入力装置303の操作によって、閾値増加ボタン510gを押下すると、設定部308は、選択された検知領域536の画像判定に用いられる閾値の値を所定値だけ増加させる。一方、ユーザによる入力装置303の操作によって、閾値減少ボタン510hを押下すると、設定部308は、選択された検知領域536の画像判定に用いられる閾値の値を所定値だけ減少させる。   For example, when the threshold value increase button 510g is pressed by the user operating the input device 303, the setting unit 308 increases the threshold value used for image determination of the selected detection region 536 by a predetermined value. On the other hand, when the threshold value decrease button 510h is pressed by the user operating the input device 303, the setting unit 308 decreases the threshold value used for image determination of the selected detection region 536 by a predetermined value.

(検知領域およびトリガ領域の大きさの変更)
図17は、第1の実施の形態に係る情報処理装置の表示装置に表示される設定画面において映像表示部で指定済みの検知領域の大きさを変更した場合の状態の例を示す図である。図18は、第1の実施の形態に係る情報処理装置の表示装置に表示される設定画面において映像表示部で指定済みのトリガ領域の大きさを変更した場合の状態の例を示す図である。図17および18を参照しながら、検知領域およびトリガ領域の大きさを変更した場合の動作について説明する。
(Change of detection area and trigger area size)
FIG. 17 is a diagram illustrating an example of a state in the case where the size of the detection area already designated in the video display unit is changed on the setting screen displayed on the display device of the information processing device according to the first embodiment. . FIG. 18 is a diagram illustrating an example of a state in the case where the size of the trigger region designated in the video display unit is changed on the setting screen displayed on the display device of the information processing device according to the first embodiment. . The operation when the sizes of the detection area and the trigger area are changed will be described with reference to FIGS.

図17に示す設定画面500は、第1再生部304により映像データが再生表示されている映像表示部502において指定された検知領域535の大きさが変更された状態を示している。具体的には、まず、映像表示部502において映像データの再生表示(一時停止)中に、ユーザによる入力装置303の操作によってシークバー504のスライダー505をスライドさせて、画像判定を所望する画像の部分が表示されているタイミングに再調整する。第1再生部304は、映像表示部502に一時停止されている映像データのフレームの撮像日付および撮像時刻を時刻表示部506に表示させる。   A setting screen 500 illustrated in FIG. 17 illustrates a state in which the size of the detection area 535 designated in the video display unit 502 in which video data is reproduced and displayed by the first reproduction unit 304 is changed. Specifically, first, during the reproduction display (pause) of the video data on the video display unit 502, the slider 505 of the seek bar 504 is slid by the operation of the input device 303 by the user, and the part of the image for which image determination is desired. Readjust to the timing when is displayed. The first reproduction unit 304 causes the time display unit 506 to display the imaging date and the imaging time of the frame of the video data temporarily stopped on the video display unit 502.

次に、ユーザによる入力装置303の操作(例えば、マウス108のドラッグ操作)によって、検知領域指定部307は、例えば、映像表示部502において指定した2つ目の検知領域である検知領域536の大きさを変更して検知領域536aとする。このとき、設定部308は、変化点検出部306によって検出された変化点の時刻に対して、検知領域指定部307により検知領域536aに大きさが変更された時点のフレームの時刻の遅延時間(図17の例では「−0.86」)を属性情報として再計算して、検知領域情報部509に表示させる。また、設定部308は、検知領域情報部509に更新表示させた検知領域536aの属性情報を、記憶部302に記憶させる。   Next, when the user operates the input device 303 (for example, dragging the mouse 108), the detection area designating unit 307, for example, the size of the detection area 536 that is the second detection area designated in the video display unit 502 is displayed. This is changed to a detection area 536a. At this time, the setting unit 308 delays the time of the frame when the size is changed to the detection region 536a by the detection region specifying unit 307 with respect to the time of the change point detected by the change point detection unit 306 ( In the example of FIG. 17, “−0.86”) is recalculated as attribute information and displayed on the detection area information unit 509. In addition, the setting unit 308 causes the storage unit 302 to store the attribute information of the detection region 536 a that is updated and displayed in the detection region information unit 509.

また、検知領域指定部307は、検知領域536aに大きさを変更した時刻の検知領域536a内の画像を検知基準画像として抽出して記憶部302に記憶させ、指定した検知領域536aの情報を記憶部302に記憶させる。   In addition, the detection area designating unit 307 extracts an image in the detection area 536a at the time when the size is changed to the detection area 536a as a detection reference image, stores the extracted image in the storage unit 302, and stores information on the designated detection area 536a. The data is stored in the unit 302.

図18に示す設定画面500は、第1再生部304により映像データが再生表示されている映像表示部502においてトリガ領域530の大きさが変更された状態を示している。具体的には、まず、映像表示部502において映像データの再生表示(一時停止)中に、ユーザによる入力装置303の操作によってシークバー504のスライダー505をスライドさせて、トリガの発生の基となる所望する画像の部分が表示されているタイミングに再調整する。第1再生部304は、映像表示部502に一時停止されている映像データのフレームの撮像日付および撮像時刻を時刻表示部506に表示させる。   A setting screen 500 shown in FIG. 18 shows a state in which the size of the trigger area 530 is changed in the video display unit 502 where video data is played back and displayed by the first playback unit 304. Specifically, first, during playback / pause of video data on the video display unit 502, the slider 505 of the seek bar 504 is slid by the operation of the input device 303 by the user, and a desired basis for generating a trigger is generated. Readjust to the timing when the part of the image to be displayed is displayed. The first reproduction unit 304 causes the time display unit 506 to display the imaging date and the imaging time of the frame of the video data temporarily stopped on the video display unit 502.

次に、ユーザによる入力装置303の操作(例えば、マウス108のドラッグ操作)によって、トリガ領域指定部305は、映像表示部502において指定したトリガ領域530の大きさを変更してトリガ領域530aとする。変化点検出部306は、トリガ領域指定部305により指定されたトリガ領域530の大きさが変更されトリガ領域530aとなった場合、大きさが変更された時点で第1再生部304が再生表示している映像データのフレームの撮像時刻の前後の所定時間(例えば前後2秒間)分のフレームを取得し、トリガ領域530aに大きさが変更された時刻のトリガ領域530a内の画像を新たに基準画像として抽出する。その後、変化点検出部306による取得したフレームの差分の演算、変化点の検出、および差分画像の抽出の動作は、図7〜10で上述した動作と同様である。   Next, when the user operates the input device 303 (for example, dragging the mouse 108), the trigger area specifying unit 305 changes the size of the trigger area 530 specified in the video display unit 502 to be the trigger area 530a. . When the size of the trigger region 530 designated by the trigger region designation unit 305 is changed to become the trigger region 530a, the change point detection unit 306 reproduces and displays the first reproduction unit 304 when the size is changed. A frame for a predetermined time (for example, 2 seconds before and after the imaging time) of the frame of the video data being acquired is acquired, and an image in the trigger area 530a at the time when the size is changed to the trigger area 530a is newly set as a reference image. Extract as Thereafter, the operation of calculating the difference of the acquired frame, the detection of the change point, and the extraction of the difference image by the change point detection unit 306 is the same as the operation described above with reference to FIGS.

変化点検出部306は、新たに抽出した基準画像、および変化点のフレームにおける差分画像を記憶部302に記憶させ、基準画像を基準画像表示部508aに再表示させ、差分画像を差分画像表示部508bに再表示させる。さらに、変化点検出部306は、シークバー504において、トリガマーク540を消去し、新たに検出した変化点のフレームの時刻に対応する部分にトリガマーク540aを表示する。   The change point detection unit 306 stores the newly extracted reference image and the difference image in the frame of the change point in the storage unit 302, redisplays the reference image on the reference image display unit 508a, and displays the difference image as the difference image display unit. It is displayed again at 508b. Further, the change point detection unit 306 deletes the trigger mark 540 in the seek bar 504, and displays the trigger mark 540a at a portion corresponding to the time of the frame of the newly detected change point.

また、変化点検出部306により新たに変化点が検出された場合、トリガ領域指定部305は、トリガ領域530aの情報を記憶部302に記憶させる。   When a new change point is detected by the change point detection unit 306, the trigger area specifying unit 305 causes the storage unit 302 to store information on the trigger area 530a.

設定部308は、変化点検出部306によって新たに検出された変化点のフレームの時刻に対して、検知領域指定部307により検知領域535が指定された時点のフレームの時刻の遅延時間(図18の例では「1.64」)を属性情報として再計算して、検知領域情報部509に表示させる。また、設定部308は、変化点検出部306によって新たに検出された変化点のフレームの時刻に対して、検知領域指定部307により検知領域536aに大きさが変更された時点のフレームの時刻の遅延時間(図18の例では「−1.36」)を属性情報として再計算して、検知領域情報部509に表示させる。また、設定部308は、検知領域情報部509に更新表示させた検知領域535、536aの属性情報を、記憶部302に記憶させる。   The setting unit 308 delays the time of the frame at the time when the detection region 535 is specified by the detection region specifying unit 307 with respect to the time of the frame of the change point newly detected by the change point detection unit 306 (FIG. 18). In this example, “1.64”) is recalculated as attribute information and displayed on the detection area information unit 509. The setting unit 308 also sets the time of the frame at the time when the size of the frame of the change point newly detected by the change point detection unit 306 is changed to the detection region 536a by the detection region specifying unit 307. The delay time (“−1.36” in the example of FIG. 18) is recalculated as attribute information and displayed on the detection area information unit 509. In addition, the setting unit 308 causes the storage unit 302 to store the attribute information of the detection areas 535 and 536a updated and displayed in the detection area information unit 509.

(感度設定プレビュー画面における感度調整)
図19は、第1の実施の形態に係る情報処理装置の表示装置に表示される感度設定プレビュー画面で映像データが表示される状態の例を示す図である。図20は、第1の実施の形態に係る情報処理装置の表示装置に表示される感度設定プレビュー画面において検知基準画像に対する抽出画像の差分の判定結果の例を示す図である。図21は、第1の実施の形態に係る情報処理装置の表示装置に表示される感度設定プレビュー画面において異なる感度で検知基準画像に対する抽出画像の差分の再判定した結果の例を示す図である。図22は、第1の実施の形態に係る情報処理装置の表示装置に表示される感度設定プレビュー画面において変更した感度を適用するか否かを確認するダイアログが表示される例を示す図である。図23は、第1の実施の形態に係る情報処理装置の表示装置に表示される設定画面において感度設定プレビュー画面で変更した感度が反映されている状態の例を示す図である。図19〜23を参照しながら、感度設定プレビュー画面700における感度調整について説明する。
(Sensitivity adjustment in the sensitivity setting preview screen)
FIG. 19 is a diagram illustrating an example of a state in which video data is displayed on the sensitivity setting preview screen displayed on the display device of the information processing device according to the first embodiment. FIG. 20 is a diagram illustrating an example of a determination result of the difference between the extracted images with respect to the detection reference image on the sensitivity setting preview screen displayed on the display device of the information processing apparatus according to the first embodiment. FIG. 21 is a diagram illustrating an example of a result of re-determination of the difference between the extracted images with respect to the detection reference image at different sensitivities on the sensitivity setting preview screen displayed on the display device of the information processing device according to the first embodiment. . FIG. 22 is a diagram illustrating an example in which a dialog for confirming whether to apply the changed sensitivity on the sensitivity setting preview screen displayed on the display device of the information processing apparatus according to the first embodiment is displayed. . FIG. 23 is a diagram illustrating an example of a state in which the sensitivity changed on the sensitivity setting preview screen is reflected on the setting screen displayed on the display device of the information processing apparatus according to the first embodiment. The sensitivity adjustment on the sensitivity setting preview screen 700 will be described with reference to FIGS.

感度設定プレビュー画面700は、選択された検知領域について、属性情報の1つである画像判定における感度を調整するための画面である。感度設定プレビュー画面700は、図19に示すように、検知領域情報部701と、映像表示部702と、検知基準画像表示部703と、抽出画像表示部704と、差異表示部705と、色別検出数表示部706と、領域画素数表示部707と、差分検出数表示部708と、差分検出割合表示部709と、感度増加ボタン710aと、感度減少ボタン710bと、判定ボタン711と、OKボタン712と、閉じるボタン713と、を含む。   The sensitivity setting preview screen 700 is a screen for adjusting the sensitivity in image determination, which is one of the attribute information, for a selected detection area. As shown in FIG. 19, the sensitivity setting preview screen 700 includes a detection area information unit 701, a video display unit 702, a detection reference image display unit 703, an extracted image display unit 704, a difference display unit 705, and a color-specific display. Detection number display section 706, area pixel number display section 707, difference detection number display section 708, difference detection ratio display section 709, sensitivity increase button 710a, sensitivity decrease button 710b, determination button 711, and OK button 712 and a close button 713.

検知領域情報部701は、設定部308によって、設定画面500の検知領域情報部509において選択された検知領域の属性情報が表示される表示部である。図19の例では、検知領域情報部701に、カメラ名が「CAM6」と、検知領域名が「K61」と、感度が「50」と、そして、閾値が「20%」と表示されている。   The detection area information part 701 is a display part on which attribute information of the detection area selected by the setting part 308 in the detection area information part 509 of the setting screen 500 is displayed. In the example of FIG. 19, the detection area information portion 701 displays the camera name “CAM6”, the detection area name “K61”, the sensitivity “50”, and the threshold value “20%”. .

映像表示部702は、第2再生部309によって、ユーザにより操作される入力装置303からの操作信号に従って記憶部302から取得された映像データを再生表示される表示部である。図19の例では、第2再生部309は、ユーザによる入力装置303の操作によって、「6」のカメラ選択部501が選択操作されているので、撮像装置2fにより撮像された映像データを表示装置317に表示させる。なお、映像表示部702は、第2再生部309によって記憶部302から取得された映像データが再生表示されるものとしたが、これに限定されるものではなく、撮像装置2から映像受信部301を介して取得されたリアルタイムの映像データが表示されるものとしてもよい。   The video display unit 702 is a display unit that reproduces and displays video data acquired from the storage unit 302 according to an operation signal from the input device 303 operated by the user by the second playback unit 309. In the example of FIG. 19, the second playback unit 309 displays the video data captured by the imaging device 2 f as the display device because the camera selection unit 501 of “6” is selected by the user operating the input device 303. 317 is displayed. The video display unit 702 reproduces and displays the video data acquired from the storage unit 302 by the second playback unit 309. However, the present invention is not limited to this, and the video reception unit 301 from the imaging device 2 is not limited thereto. Real-time video data acquired via the display may be displayed.

検知基準画像表示部703は、設定部308によって、検知領域指定部307により抽出された検知基準画像が、記憶部302から取得されて表示される表示部である。抽出画像表示部704は、画像抽出部310によって抽出された抽出画像が表示される表示部である。差異表示部705は、差分判定部311によって、演算された検知基準画像と抽出画像との差分の特徴を示す画像(差分特徴画像)が表示される表示部である。   The detection reference image display unit 703 is a display unit on which the detection reference image extracted by the detection region specifying unit 307 by the setting unit 308 is acquired from the storage unit 302 and displayed. The extracted image display unit 704 is a display unit on which the extracted image extracted by the image extracting unit 310 is displayed. The difference display unit 705 is a display unit that displays an image (difference feature image) indicating the difference feature between the detection reference image calculated by the difference determination unit 311 and the extracted image.

色別検出数表示部706は、差分判定部311によって、演算された検知基準画像と抽出画像との差分についての情報(差分情報)のうち、差分について各所定幅に属する画素の検出数が表示される表示部である。領域画素数表示部707は、差分判定部311によって差分の演算の際に算出された、差分情報としての対象となる検知領域を構成する画素の数が表示される表示部である。差分検出数表示部708は、差分判定部311によって差分の演算において算出された、差分情報としての差分が所定の閾値以上となる画素の数が表示される表示部である。差分検出割合表示部709は、差分判定部311による差分の演算において算出され、対象となる検知領域を構成する画素の数に対する、差分が所定の閾値以上となる画素の数の割合が差分情報として表示される表示部である。   The detection number display unit 706 for each color displays the detection number of pixels belonging to each predetermined width for the difference among the information (difference information) about the difference between the detection reference image calculated by the difference determination unit 311 and the extracted image. It is a display part. The region pixel number display unit 707 is a display unit that displays the number of pixels constituting the detection region that is the target as difference information, which is calculated by the difference determination unit 311 when calculating the difference. The difference detection number display unit 708 is a display unit that displays the number of pixels calculated as a difference information by the difference determination unit 311 and having a difference equal to or greater than a predetermined threshold. The difference detection ratio display unit 709 is calculated in the difference calculation by the difference determination unit 311, and the ratio of the number of pixels in which the difference is equal to or larger than a predetermined threshold to the number of pixels constituting the target detection area is the difference information. It is a display part displayed.

感度増加ボタン710aは、ユーザによる入力装置303の操作によって押下されると、設定部308によって、対象の検知領域の画像判定に用いられる感度の値を所定値だけ増加させるボタンである。感度増加ボタン710aの機能は、上述の感度増加ボタン510eの機能と同様である。   The sensitivity increase button 710a is a button that, when pressed by the user operating the input device 303, causes the setting unit 308 to increase the sensitivity value used for image determination of the target detection area by a predetermined value. The function of the sensitivity increase button 710a is the same as the function of the sensitivity increase button 510e described above.

感度減少ボタン710bは、ユーザによる入力装置303の操作によって押下されると、設定部308によって、対象の検知領域の画像判定に用いられる感度の値を所定値だけ減少させるボタンである。感度減少ボタン710bの機能は、上述の感度減少ボタン510fの機能と同様である。   The sensitivity reduction button 710b is a button that, when pressed by the user operating the input device 303, causes the setting unit 308 to decrease the sensitivity value used for image determination of the target detection area by a predetermined value. The function of the sensitivity decrease button 710b is the same as the function of the sensitivity decrease button 510f described above.

判定ボタン711は、ユーザによる入力装置303の操作によって押下されると、画像抽出部310によって抽出画像が抽出され、差分判定部311によって、検知基準画像と抽出画像との差分が演算され、差分情報が算出されるボタンである。   When the determination button 711 is pressed by the operation of the input device 303 by the user, an extracted image is extracted by the image extraction unit 310, and a difference between the detection reference image and the extracted image is calculated by the difference determination unit 311. Is a button that is calculated.

OKボタン712は、ユーザによる入力装置303の操作によって押下された場合に、設定部308によって、差分判定部311による差分の演算に利用された感度(検知領域情報部701に表示されている感度)が設定画面500の検知領域情報部509に反映されるボタンである。   When the OK button 712 is pressed by the operation of the input device 303 by the user, the sensitivity used by the setting unit 308 to calculate the difference by the difference determination unit 311 (sensitivity displayed in the detection region information unit 701). Are buttons reflected in the detection area information part 509 of the setting screen 500.

閉じるボタン713は、ユーザによる入力装置303の操作によって押下されると、設定部308によって、感度設定プレビュー画面700が閉じられ、設定画面500を表示装置317に表示させるボタンである。   When the close button 713 is pressed by the user operating the input device 303, the sensitivity setting preview screen 700 is closed by the setting unit 308 and the setting screen 500 is displayed on the display device 317.

図19に示す感度設定プレビュー画面700は、ユーザによる入力装置303の操作により、検知領域情報部509の検知領域535(検知領域名「K61」)が選択された状態で、感度判定ボタン510dが押下された場合に表示される画面である。具体的には、ユーザによる入力装置303の操作により、検知領域535(検知領域名「K61」)が選択された状態で、感度判定ボタン510dが押下されると、設定部308は、設定画面500を表示装置317に表示させる。また、設定部308は、選択された検知領域535の属性情報を、検知領域情報部701に表示させ、検知領域指定部307により抽出された検知領域535に対応する検知基準画像を記憶部302から取得し、検知基準画像表示部703に表示させる。図19の例では、検知基準画像表示部703に表示された検知基準画像は、生産対象であるワークのネジ穴であって、ネジがまだ嵌合されていない状態を示している。   The sensitivity setting preview screen 700 shown in FIG. 19 is displayed when the detection area 535 (detection area name “K61”) in the detection area information section 509 is selected by the user's operation of the input device 303 and the sensitivity determination button 510d is pressed. This is the screen that is displayed when Specifically, when the sensitivity determination button 510d is pressed in a state where the detection region 535 (detection region name “K61”) is selected by the operation of the input device 303 by the user, the setting unit 308 causes the setting screen 500 to be displayed. Is displayed on the display device 317. In addition, the setting unit 308 displays the attribute information of the selected detection region 535 on the detection region information unit 701, and the detection reference image corresponding to the detection region 535 extracted by the detection region specifying unit 307 is stored from the storage unit 302. Acquired and displayed on the detection reference image display unit 703. In the example of FIG. 19, the detection reference image displayed on the detection reference image display unit 703 indicates a screw hole of a work to be produced, and a screw is not yet fitted.

また、第2再生部309は、ユーザによる入力装置303の操作によって、検知領域情報部701に表示されたカメラ名に対応する撮像装置2の映像データを記憶部302から取得して、映像表示部702に再生表示させる。   Also, the second playback unit 309 acquires the video data of the imaging device 2 corresponding to the camera name displayed in the detection area information unit 701 from the storage unit 302 by the operation of the input device 303 by the user, and the video display unit 702 is displayed for reproduction.

図20に示す感度設定プレビュー画面700は、ユーザによる入力装置303の操作によって判定ボタン711が押下された場合に、画像抽出部310により抽出画像が抽出され、差分判定部311により検知基準画像と抽出画像との差分が演算された結果を示している。具体的には、まず、映像表示部702において映像データの表示中に、差分演算を所望するタイミングで、ユーザによる入力装置303の操作によって判定ボタン711を押下する。すると、画像抽出部310は、第2再生部309により映像データが表示されている映像表示部702において、検知領域指定部307により指定された検知領域535に対応する部分の画像を抽出画像として抽出し、抽出画像表示部704に表示させる。図20の例では、抽出画像表示部704に表示された抽出画像は、生産対象であるワークのネジ穴であって、ネジが嵌合された状態を示している。   In the sensitivity setting preview screen 700 shown in FIG. 20, when the determination button 711 is pressed by the user operating the input device 303, the extracted image is extracted by the image extraction unit 310, and the detection reference image is extracted by the difference determination unit 311. The result of calculating the difference from the image is shown. Specifically, first, while the video data is being displayed on the video display unit 702, the determination button 711 is pressed by the user operating the input device 303 at a timing when the difference calculation is desired. Then, the image extraction unit 310 extracts, as an extracted image, an image of a portion corresponding to the detection area 535 designated by the detection area designation unit 307 in the video display unit 702 where the video data is displayed by the second reproduction unit 309. And displayed on the extracted image display unit 704. In the example of FIG. 20, the extracted image displayed on the extracted image display unit 704 is a screw hole of a work to be produced and shows a state in which a screw is fitted.

そして、差分判定部311は、検知基準画像と、画像抽出部310により抽出された抽出画像との差分を演算し、演算した差分について各所定幅(図20の例では「70以上」、「50〜69」、「20〜49」、「19以下」)に属する画素の検出数を色別検出数表示部706に表示させる。また、差分判定部311は、差分の演算の対象となった検知領域535を構成する画素の数を算出して領域画素数表示部707に表示させる。また、差分判定部311は、抽出画像において演算した差分が所定の閾値以上となる画素の数を算出して差分検出数表示部708に表示させる。そして、差分判定部311は、差分の演算の対象となった検知領域535を構成する画素の数に対する、抽出画像において差分が所定の閾値以上となる画素の数の割合を算出して差分検出割合表示部709に表示させる。ここで、差分の最大値は、例えば「255」とする。   Then, the difference determination unit 311 calculates the difference between the detection reference image and the extracted image extracted by the image extraction unit 310, and the calculated difference has a predetermined width (in the example of FIG. 20, “70 or more”, “50”). To 69 ”,“ 20 to 49 ”, and“ 19 or less ”) are displayed on the color detection number display unit 706. Further, the difference determination unit 311 calculates the number of pixels constituting the detection region 535 that is the target of the difference calculation, and causes the region pixel number display unit 707 to display it. In addition, the difference determination unit 311 calculates the number of pixels in which the difference calculated in the extracted image is equal to or greater than a predetermined threshold value, and displays the calculated number on the difference detection number display unit 708. Then, the difference determination unit 311 calculates the ratio of the number of pixels in which the difference is equal to or greater than a predetermined threshold in the extracted image to the number of pixels constituting the detection area 535 that is the target of the difference calculation, and the difference detection ratio It is displayed on the display unit 709. Here, the maximum value of the difference is, for example, “255”.

また、差分判定部311は、演算した差分の特徴を示す差分特徴画像を差異表示部705に表示させる。具体的には、差分判定部311は、図20に示すように、演算した差分が上述の各所定幅のどれに属するかによって色分けし、演算した差分に対応する画素上に、その差分に対応する色のドットを重畳させて差分特徴画像を生成する。   Also, the difference determination unit 311 causes the difference display unit 705 to display a difference feature image indicating the calculated difference feature. Specifically, as shown in FIG. 20, the difference determination unit 311 color-codes the calculated difference according to which of the above-described predetermined widths, and corresponds to the difference on the pixel corresponding to the calculated difference. A difference feature image is generated by superimposing dots of the color to be used.

図21に示す感度設定プレビュー画面700は、ユーザが図20の差分結果を踏まえて、図20の場合よりも感度を減少させ、差分判定部311により、再度、差分演算が実行された結果を示している。具体的には、まず、ユーザによる入力装置303の操作によって、感度減少ボタン710bを押下して、差分演算に用いる感度を「50」から「40」に減少させる。そして、映像表示部702において映像データの表示中に、差分演算を所望するタイミング(ここでは、図20のタイミングと同様とする)で、ユーザによる入力装置303の操作によって判定ボタン711を押下する。すると、画像抽出部310は、第2再生部309により映像データが表示されている映像表示部702において、検知領域指定部307により指定された検知領域535に対応する部分の画像を抽出画像として抽出し、抽出画像表示部704に表示させる。   The sensitivity setting preview screen 700 shown in FIG. 21 shows the result of the user performing the difference calculation again by the difference determination unit 311 with the sensitivity reduced compared to the case of FIG. 20 based on the difference result of FIG. ing. Specifically, first, the sensitivity reduction button 710b is pressed by the user operating the input device 303, and the sensitivity used for the difference calculation is decreased from “50” to “40”. Then, during the display of the video data on the video display unit 702, the determination button 711 is pressed by the user operating the input device 303 at the timing when the difference calculation is desired (here, the timing is the same as the timing in FIG. 20). Then, the image extraction unit 310 extracts, as an extracted image, an image of a portion corresponding to the detection area 535 designated by the detection area designation unit 307 in the video display unit 702 where the video data is displayed by the second reproduction unit 309. And displayed on the extracted image display unit 704.

ここで、図20のタイミングで判定ボタン711で押下されたものとしているので、抽出画像表示部704、差異表示部705、色別検出数表示部706および領域画素数表示部707に表示される画像および情報は、図20と同様である。   Here, since the determination button 711 is pressed at the timing of FIG. 20, the images displayed on the extracted image display unit 704, the difference display unit 705, the detection number display unit 706 for each color, and the area pixel number display unit 707. The information is the same as in FIG.

ただし、差分判定部311は、抽出画像において演算した差分が所定の閾値以上となる画素の数を算出して差分検出数表示部708に表示させる。この場合、差分判定部311による差分演算の感度が図20の場合よりも低い値となっているので、抽出画像において演算した差分が所定の閾値以上となる画素の数は、図20の場合よりも大きくなる(図21の例では、「10」から「16」となっている)。そして、差分判定部311は、差分の演算の対象となった検知領域535を構成する画素の数に対する、抽出画像において差分が所定の閾値以上となる画素の数の割合を算出して差分検出割合表示部709に表示させる。この場合、差分判定部311による差分演算の感度が図20の場合よりも低い値となっているので、抽出画像において演算した差分が所定の閾値以上となる画素の数の割合は、図20の場合よりも大きくなる(図21の例では、「4.4%」から「7.1%」となっている)。   However, the difference determination unit 311 calculates the number of pixels in which the difference calculated in the extracted image is equal to or greater than a predetermined threshold value, and displays the calculated number on the difference detection number display unit 708. In this case, since the sensitivity of the difference calculation performed by the difference determination unit 311 is lower than that in the case of FIG. 20, the number of pixels in which the difference calculated in the extracted image is equal to or greater than a predetermined threshold is greater than in the case of FIG. (In the example of FIG. 21, it is “10” to “16”). Then, the difference determination unit 311 calculates the ratio of the number of pixels in which the difference is equal to or greater than a predetermined threshold in the extracted image to the number of pixels constituting the detection area 535 that is the target of the difference calculation, and the difference detection ratio It is displayed on the display unit 709. In this case, since the sensitivity of the difference calculation by the difference determination unit 311 is lower than that in FIG. 20, the ratio of the number of pixels in which the difference calculated in the extracted image is equal to or greater than a predetermined threshold is shown in FIG. (In the example of FIG. 21, it is “4.4%” to “7.1%”).

図22に示す感度設定プレビュー画面700は、図21で調整した感度を適用するために、ユーザがOKボタン712を押下することにより感度適用確認ダイアログ800が表示された状態を示している。図23に示す設定画面500は、感度設定プレビュー画面700において対象となる検知領域(図22および23では検知領域535)について調整された感度が検知領域情報部509に反映された状態を示している。   A sensitivity setting preview screen 700 shown in FIG. 22 shows a state in which a sensitivity application confirmation dialog 800 is displayed when the user presses an OK button 712 in order to apply the sensitivity adjusted in FIG. A setting screen 500 shown in FIG. 23 shows a state in which the sensitivity adjusted for the target detection region (the detection region 535 in FIGS. 22 and 23) in the sensitivity setting preview screen 700 is reflected in the detection region information unit 509. .

具体的には、ユーザによる入力装置303の操作によってOKボタン712が押下されると、設定部308は、図21で調整した感度(値としては「40」)を適用、すなわち、設定画面500の検知領域情報部509に反映させるか否かを確認する感度適用確認ダイアログ800を表示装置317に表示させる。感度適用確認ダイアログ800は、はいボタン801と、いいえボタン802と、キャンセルボタン803と、閉じるボタン804と、を含む。閉じるボタン804は、感度適用確認ダイアログ800を閉じるためのボタンである。   Specifically, when the OK button 712 is pressed by the user operating the input device 303, the setting unit 308 applies the sensitivity adjusted in FIG. 21 (value is “40”), that is, on the setting screen 500. The display device 317 displays a sensitivity application confirmation dialog 800 for confirming whether or not to reflect the detection area information unit 509. The sensitivity application confirmation dialog 800 includes a yes button 801, a no button 802, a cancel button 803, and a close button 804. A close button 804 is a button for closing the sensitivity application confirmation dialog 800.

ユーザによる入力装置303の操作によって、はいボタン801を押下した場合、差分判定部311は、図21で調整された感度(検知領域情報部701に表示されている感度)を、図23に示すように、設定画面500の検知領域情報部509に反映させる。そして、設定部308は、感度適用確認ダイアログ800および感度設定プレビュー画面700を閉じて、設定画面500を表示装置317に表示させる。   When the user presses the yes button 801 by operating the input device 303, the difference determination unit 311 shows the sensitivity adjusted in FIG. 21 (sensitivity displayed in the detection area information unit 701) as shown in FIG. To be reflected in the detection area information section 509 of the setting screen 500. Then, the setting unit 308 closes the sensitivity application confirmation dialog 800 and the sensitivity setting preview screen 700 and causes the display device 317 to display the setting screen 500.

また、ユーザによる入力装置303の操作によって、いいえボタン802を押下した場合、差分判定部311は、図21で調整された感度を、設定画面500の検知領域情報部509には反映させない。そして、設定部308は、感度適用確認ダイアログ800および感度設定プレビュー画面700を閉じて、設定画面500を表示装置317に表示させる。   When the user presses the no button 802 by operating the input device 303, the difference determination unit 311 does not reflect the sensitivity adjusted in FIG. 21 on the detection area information unit 509 of the setting screen 500. Then, the setting unit 308 closes the sensitivity application confirmation dialog 800 and the sensitivity setting preview screen 700 and causes the display device 317 to display the setting screen 500.

また、ユーザによる入力装置303の操作によって、キャンセルボタン803を押下した場合、差分判定部311は、図21で調整された感度を、設定画面500の検知領域情報部509には反映させない。そして、設定部308は、感度適用確認ダイアログ800を閉じて、感度設定プレビュー画面700を表示装置317に表示させたままとする。   When the user presses the cancel button 803 by operating the input device 303, the difference determination unit 311 does not reflect the sensitivity adjusted in FIG. 21 on the detection area information unit 509 of the setting screen 500. Then, the setting unit 308 closes the sensitivity application confirmation dialog 800 and keeps the sensitivity setting preview screen 700 displayed on the display device 317.

(トリガ領域および検知領域を指定する設定動作の流れ)
図24は、第1の実施の形態に係る情報処理装置の表示装置に表示される設定画面においてトリガ領域および検知領域を指定する設定動作の例を示すフローチャートである。図24を参照しながら、設定画面500においてトリガ領域および検知領域を指定する設定動作の流れを総括的に説明する。
(Flow of setting operation to specify trigger area and detection area)
FIG. 24 is a flowchart illustrating an example of a setting operation for designating a trigger area and a detection area on a setting screen displayed on the display device of the information processing apparatus according to the first embodiment. With reference to FIG. 24, the flow of the setting operation for designating the trigger area and the detection area on the setting screen 500 will be generally described.

<ステップS11>
第1再生部304は、ユーザによる入力装置303の操作に従って、映像データを記憶部302から取得して、映像表示部502に再生表示させる。そして。ステップS12へ移行する。
<Step S11>
The first playback unit 304 acquires video data from the storage unit 302 according to the operation of the input device 303 by the user, and causes the video display unit 502 to play back and display the video data. And then. The process proceeds to step S12.

<ステップS12>
映像表示部502において映像データの再生表示中に、トリガの発生の基となる所望する画像の部分が表示されているタイミングで、ユーザによる入力装置303の操作によって一時停止ボタン503bが押下されると、第1再生部304は、映像表示部502に再生表示されている映像データを一時停止する。ユーザによる入力装置303の操作(例えば、マウス108のドラッグ操作)によって、トリガ領域指定部305は、映像表示部502においてトリガ領域を指定して表示させる。そして、ステップS13へ移行する。
<Step S12>
When the user presses the pause button 503b by the operation of the input device 303 at the timing when the desired image portion that is the basis of the occurrence of the trigger is displayed while the video data is being reproduced and displayed on the video display unit 502. The first playback unit 304 pauses the video data that is played back and displayed on the video display unit 502. When the user operates the input device 303 (for example, dragging the mouse 108), the trigger area designating unit 305 designates and displays the trigger area on the video display unit 502. Then, the process proceeds to step S13.

<ステップS13>
変化点検出部306は、トリガ領域指定部305によりトリガ領域が指定された場合、指定された時点で第1再生部304が再生表示している映像データのフレームの撮像時刻の前後の所定時間(例えば前後2秒間)分のフレームを取得し、取得したフレームにおいて、フレームごとに直前のフレームとの画素値についての差分を演算し、演算した差分に基づいて、トリガ領域内の画像についての変化点を検出する。具体的な変化点の検出方法は、図7〜9で上述した通りである。そして、ステップS14へ移行する。
<Step S13>
When the trigger area is specified by the trigger area specifying unit 305, the change point detecting unit 306 is a predetermined time before and after the imaging time of the frame of the video data that the first playback unit 304 reproduces and displays at the specified time ( (For example, 2 seconds before and after) frames are acquired, and in the acquired frames, a difference in pixel value from the immediately preceding frame is calculated for each frame, and a change point for the image in the trigger region is calculated based on the calculated difference. Is detected. A specific change point detection method is as described above with reference to FIGS. Then, the process proceeds to step S14.

<ステップS14>
変化点検出部306によって変化点が検出された場合(ステップS14:Yes)、ステップS15へ移行し、変化点が検出されなかった場合(ステップS14:No)、ステップS11へ戻る。
<Step S14>
When the change point is detected by the change point detection unit 306 (step S14: Yes), the process proceeds to step S15. When the change point is not detected (step S14: No), the process returns to step S11.

<ステップS15>
変化点検出部306は、変化点としてIN点を検出した場合、IN点のフレームのトリガ領域530内の画像を差分画像として抽出する。また、変化点検出部306は、変化点としてOUT点を検出した場合、OUT点のフレームのトリガ領域530内の画像を差分画像として抽出する。変化点検出部306は、抽出した基準画像、および変化点のフレームにおける差分画像を記憶部302に記憶させ、基準画像を基準画像表示部508aに表示させ、差分画像を差分画像表示部508bに表示させる。また、トリガ領域指定部305は、指定したトリガ領域の情報を記憶部302に記憶させる。そして、ステップS16へ移行する。
<Step S15>
When the change point detection unit 306 detects the IN point as the change point, the change point detection unit 306 extracts an image in the trigger region 530 of the frame at the IN point as a difference image. In addition, when the OUT point is detected as the change point, the change point detection unit 306 extracts an image in the trigger region 530 of the frame at the OUT point as a difference image. The change point detection unit 306 stores the extracted reference image and the difference image in the frame of the change point in the storage unit 302, displays the reference image on the reference image display unit 508a, and displays the difference image on the difference image display unit 508b. Let The trigger area specifying unit 305 causes the storage unit 302 to store information on the specified trigger area. Then, the process proceeds to step S16.

<ステップS16>
映像表示部502において映像データの再生表示中に、画像判定を所望する画像の部分が表示されているタイミング、すなわち、検知領域の指定を所望するフレームが表示されたタイミングで、ユーザによる入力装置303の操作によって一時停止ボタン503bが押下されると、第1再生部304は、映像表示部502に再生表示されている映像データを一時停止する。そして、ステップS17へ移行する。
<Step S16>
While the video data is being reproduced and displayed on the video display unit 502, the user inputs the input device 303 at the timing when the portion of the image for which image determination is desired is displayed, that is, at the timing when the frame for which the detection area is desired is displayed. When the pause button 503b is pressed by the above operation, the first reproduction unit 304 pauses the video data reproduced and displayed on the video display unit 502. Then, the process proceeds to step S17.

<ステップS17>
ユーザによる入力装置303の操作(例えば、マウス108のドラッグ操作)によって、検知領域指定部307は、映像表示部502において検知領域を指定して表示させる。また、設定部308は、検知領域535の属性情報として、検知領域指定部307により指定された検知領域に命名した名前、ならびに、デフォルト値として、画像判定で使用する所定の感度および所定の閾値、監視方法、アクションの有無および画像判定の方法(例えば、「一致」)を、検知領域情報部509に表示させる。また、設定部308は、変化点検出部306によって検出された変化点の時刻に対して、検知領域指定部307により検知領域が指定された時点のフレームの時刻の遅延時間を属性情報として算出して、検知領域情報部509に表示させる。また、設定部308は、検知領域情報部509に表示させた検知領域535の属性情報を、記憶部302に記憶させる。そして、ステップS18へ移行する。
<Step S17>
When the user operates the input device 303 (for example, dragging the mouse 108), the detection area designating unit 307 designates and displays the detection area on the video display unit 502. In addition, the setting unit 308 includes, as attribute information of the detection region 535, a name that is named for the detection region specified by the detection region specifying unit 307, and a default value that includes a predetermined sensitivity and a predetermined threshold value used in image determination. The monitoring area information unit 509 displays the monitoring method, the presence / absence of an action, and the image determination method (for example, “match”). Also, the setting unit 308 calculates, as attribute information, the delay time of the frame time when the detection region is specified by the detection region specification unit 307 with respect to the time of the change point detected by the change point detection unit 306. And displayed on the detection area information unit 509. In addition, the setting unit 308 causes the storage unit 302 to store the attribute information of the detection area 535 displayed on the detection area information unit 509. Then, the process proceeds to step S18.

<ステップS18>
ユーザによる入力装置303の操作によって、検知領域情報部509に属性情報が表示された検知領域のいずれかを選択すると、設定部308は、選択された検知領域情報部509の検知領域の属性情報の表示部分を反転表示させる。次に、ユーザによる入力装置303の操作によって、アクションボタン510aを押下すると、設定部308は、選択された検知領域のアクションの有無の設定値を切り替える。また、ユーザによる入力装置303の操作によって、画像判定選択ボタン510bを押下すると、設定部308は、選択された検知領域の画面判定の方法の設定値を切り替える。
<Step S18>
When one of the detection areas whose attribute information is displayed in the detection area information unit 509 is selected by the user's operation of the input device 303, the setting unit 308 displays the attribute information of the detection area of the selected detection area information unit 509. Highlight the display area. Next, when the action button 510a is pressed by the user's operation of the input device 303, the setting unit 308 switches setting values for presence / absence of an action in the selected detection area. When the image determination selection button 510b is pressed by the user operating the input device 303, the setting unit 308 switches the setting value of the screen determination method for the selected detection area.

また、ユーザによる入力装置303の操作によって、感度増加ボタン510eを押下すると、設定部308は、選択された検知領域の画像判定に用いられる感度の値を所定値だけ増加させる。一方、ユーザによる入力装置303の操作によって、感度減少ボタン510fを押下すると、設定部308は、選択された検知領域の画像判定に用いられる感度の値を所定値だけ減少させる。なお、選択された検知領域の画像判定に用いられる感度は、上述のように感度設定プレビュー画面700において設定することができる。   When the sensitivity increase button 510e is pressed by the user operating the input device 303, the setting unit 308 increases the sensitivity value used for image determination of the selected detection area by a predetermined value. On the other hand, when the sensitivity reduction button 510f is pressed by the user operating the input device 303, the setting unit 308 decreases the sensitivity value used for image determination of the selected detection region by a predetermined value. Note that the sensitivity used for image determination of the selected detection area can be set on the sensitivity setting preview screen 700 as described above.

また、ユーザによる入力装置303の操作によって、閾値増加ボタン510gを押下すると、設定部308は、選択された検知領域の画像判定に用いられる閾値の値を所定値だけ増加させる。一方、ユーザによる入力装置303の操作によって、閾値減少ボタン510hを押下すると、設定部308は、選択された検知領域の画像判定に用いられる閾値の値を所定値だけ減少させる。選択された検知領域の属性情報の設定が終了すると、ステップS19へ移行する。   When the threshold value increase button 510g is pressed by the user operating the input device 303, the setting unit 308 increases the threshold value used for image determination of the selected detection area by a predetermined value. On the other hand, when the threshold value decrease button 510h is pressed by the user operating the input device 303, the setting unit 308 decreases the threshold value used for image determination of the selected detection area by a predetermined value. When the setting of the attribute information of the selected detection area is completed, the process proceeds to step S19.

<ステップS19>
映像データが表示している映像表示部502において、検知領域の指定が全て終了した場合(ステップS19:Yes)、トリガ領域および検知領域を指定する設定動作が終了し、検知領域の指定が全て終了していない場合(ステップS19:No)、ステップS16へ戻る。
<Step S19>
In the video display unit 502 displaying the video data, when all the detection areas are designated (step S19: Yes), the setting operation for designating the trigger area and the detection area is finished, and all the detection areas are designated. If not (step S19: No), the process returns to step S16.

(メイン画面における画像判定動作)
図25は、第1の実施の形態に係る情報処理装置の表示装置に表示されるメイン画面においてトリガ領域および検知領域が指定された後の状態の例を示す図である。図26は、第1の実施の形態に係る情報処理装置による画像判定動作の例を示すフローチャートである。図27は、第1の実施の形態に係る情報処理装置の表示装置に表示されるメイン画面においてトリガ領域のトリガが発生した場合の当該トリガ領域の表示状態、および検知領域の検知タイミングにおける当該検知領域の表示状態の例を示す図である。
(Image judgment operation on the main screen)
FIG. 25 is a diagram illustrating an example of a state after the trigger region and the detection region are designated on the main screen displayed on the display device of the information processing device according to the first embodiment. FIG. 26 is a flowchart illustrating an example of an image determination operation performed by the information processing apparatus according to the first embodiment. FIG. 27 shows the display state of the trigger area when the trigger of the trigger area occurs on the main screen displayed on the display device of the information processing apparatus according to the first embodiment, and the detection at the detection timing of the detection area. It is a figure which shows the example of the display state of an area | region.

まず、図25を参照しながら、メイン画面400における画像判定動作について説明する。図25に示すメイン画面400は、複数の撮像装置2から受信した映像データをリアルタイムに表示し、映像表示部401bでトリガ領域「TR2」が指定され、映像表示部401fでトリガ領域「TR6」、ならびに検知領域「K61」、「K62」および「K21」が指定された状態を示している。具体的なメイン画面400における画像判定動作では、まず、映像振分部312が、映像受信部301から取得したリアルタイムの映像データを映像表示部401a〜401fに振り分けて表示させる。トリガ生成部313は、記憶部302から、変化点検出部306により検出された変化点のフレームにおける差分画像を取得する。そして、トリガ生成部313は、映像表示部401bで指定されているトリガ領域「TR2」、および映像表示部401fで指定されているトリガ領域「TR6」において、それぞれ差分画像と、映像データのフレームのトリガ領域の画像とを比較する。なお、ここでの映像表示部401b、401fは、「第2表示領域」に対応する。トリガ生成部313は、映像データのフレームのトリガ領域の画像が、変化点のフレームにおける差分画像と比較して、画素値が所定の感度以上異なる画素の数の合計である差分(第2差分)が所定の閾値未満となったタイミングでトリガ信号を生成する。   First, an image determination operation on the main screen 400 will be described with reference to FIG. The main screen 400 shown in FIG. 25 displays video data received from a plurality of imaging devices 2 in real time, the trigger area “TR2” is designated by the video display section 401b, and the trigger area “TR6” is designated by the video display section 401f. In addition, the detection areas “K61”, “K62”, and “K21” are designated. In a specific image determination operation on the main screen 400, first, the video distribution unit 312 distributes and displays the real-time video data acquired from the video reception unit 301 on the video display units 401a to 401f. The trigger generation unit 313 acquires, from the storage unit 302, a difference image in the frame of the change point detected by the change point detection unit 306. Then, the trigger generation unit 313 performs the difference image and the frame of the video data in the trigger region “TR2” specified by the video display unit 401b and the trigger region “TR6” specified by the video display unit 401f, respectively. Compare the image in the trigger area. Note that the video display portions 401b and 401f here correspond to the “second display area”. The trigger generation unit 313 is a difference (second difference) in which the image of the trigger region of the video data frame is the sum of the number of pixels whose pixel values differ by a predetermined sensitivity or more compared to the difference image in the change point frame. A trigger signal is generated at a timing when becomes less than a predetermined threshold.

検知領域「K61」、「K62」の属性情報のうち検知遅延時間が図23に示す値に設定されているものとする。また、検知領域「K21」の属性情報のうち検知遅延時間が図15に示す値に設定されているものとする。検知領域判定部314は、記憶部302から、指定された検知領域の属性情報を取得する。検知領域判定部314は、トリガ生成部313により生成されたトリガ信号を受け取ったときの設定時間前または設定時間後に、指定された検知領域において、検知基準画像と、映像データのフレームの検知領域の画像とを比較して異常であるか否かの画像判定をする。   It is assumed that the detection delay time is set to the value shown in FIG. 23 among the attribute information of the detection areas “K61” and “K62”. Further, it is assumed that the detection delay time is set to the value shown in FIG. 15 in the attribute information of the detection area “K21”. The detection area determination unit 314 acquires attribute information of the designated detection area from the storage unit 302. The detection area determination unit 314 detects the detection reference image and the detection area of the frame of the video data in the designated detection area before or after the set time when the trigger signal generated by the trigger generation unit 313 is received. The image is compared with the image to determine whether it is abnormal.

具体的には、検知領域判定部314は、トリガ生成部313によりトリガ領域「TR6」に対応するトリガ信号を受け取った時点から、検知領域「K61」に対応する検知遅延時間「1.5」秒後の映像データのフレームの検知領域の画像と、検知基準画像とを比較して異常であるか否かの画像判定をする。このとき、画像判定として、検知領域判定部314は、検知基準画像と、検知領域の画像との比較で、画素値が検知領域「K61」の属性情報の感度以上異なる画素の数の合計である差分(第3差分)が、当該属性情報の閾値(第3閾値)以上となった場合に、検知領域「K61」の画像判定は異常と判定する。このように、検知領域判定部314が、トリガ信号を受け取った時点から先のタイミングで画像判定する場合の例としては、圧入機等の設備において、圧入動作開始のタイミングをトリガとして、圧入後の圧入状態を画像判定する場合が挙げられる。具体的には、トリガ生成部313は、圧入機がワークに対して圧入部品を圧入する動作を開始するタイミングをトリガとしてトリガ信号を生成する。その後、圧入機は、ワークに圧入部品を圧入し、圧入動作終了後、圧入機の各アクチュエータは原点位置に戻る。そして、検知領域判定部314は、圧入後のワークの圧入状態に対して画像判定を行う。この検知領域判定部314による画像判定のタイミングが、トリガ生成部313からトリガ信号を受けてから、検知遅延時間で設定された時間後のタイミングとなる。トリガ信号が生成される圧入動作の開始から、圧入後の圧入状態の画像判定が実行されるまでの時間は、圧入機による自動動作なので固定時間となり、トリガのタイミングから画像判定をするまでの検知遅延時間を固定の時間として設定できることになる。   Specifically, the detection region determination unit 314 receives the trigger signal corresponding to the trigger region “TR6” from the trigger generation unit 313, and then the detection delay time “1.5” seconds corresponding to the detection region “K61”. The image of the detection area of the frame of the subsequent video data is compared with the detection reference image to determine whether or not there is an abnormality. At this time, as the image determination, the detection area determination unit 314 is the total of the number of pixels whose pixel values differ by more than the sensitivity of the attribute information of the detection area “K61” in the comparison between the detection reference image and the detection area image. When the difference (third difference) is equal to or greater than the threshold value (third threshold value) of the attribute information, the image determination of the detection region “K61” is determined to be abnormal. As described above, as an example of the case where the detection region determination unit 314 determines the image at the previous timing from when the trigger signal is received, in the equipment such as a press-fitting machine, the timing after the press-fitting operation is used as a trigger. A case where the image of the press-fitted state is determined is mentioned. Specifically, the trigger generation unit 313 generates a trigger signal with a timing at which the press-fitting machine starts an operation of press-fitting the press-fitting part into the work as a trigger. Thereafter, the press-fitting machine press-fits the press-fitting parts into the work, and after the press-fitting operation, each actuator of the press-fitting machine returns to the origin position. Then, the detection area determination unit 314 performs image determination on the press-fitted state of the work after press-fitting. The timing of the image determination by the detection region determination unit 314 is the timing after the time set by the detection delay time after receiving the trigger signal from the trigger generation unit 313. The time from the start of the press-fitting operation that generates the trigger signal to the execution of press-fitting image judgment after press-fitting is a fixed time because it is an automatic operation by the press-fitting machine, and detection from the trigger timing to image judgment The delay time can be set as a fixed time.

また、検知領域判定部314は、トリガ生成部313によりトリガ領域「TR6」に対応するトリガ信号を受け取った時点から、検知領域「K62」に対応する検知遅延時間「−0・86」秒後、すなわち「0.86」秒前の映像データのフレームの検知領域の画像と、検知基準画像とを比較して異常であるか否かの画像判定をする。このように、検知領域判定部314が、トリガ信号を受け取った時点から前のタイミングで画像判定する場合の例としては、手動により圧入部品をワークに圧入する圧入機等の設備において、作業者が圧入後のワークを完成品入れに入れるタイミングをトリガとして、完成品入れに入れられる前に圧入器にセットされている状態の圧入後のワークを画像判定する場合が挙げられる。具体的には、まず、作業者が圧入前のワークを圧入機にセットする。次に、作業者は、圧入開始ボタンを押下し、圧入機がワークに対して圧入部品の圧入動作を開始する。圧入後、作業者は、圧入後のワークを取り上げて完成品入れに入れる。トリガ生成部313は、作業者が、圧入後のワークを完成品入れに入れるタイミングをトリガとしてトリガ信号を生成する。そして、検知領域判定部314は、トリガ信号を受け取った時点から、検知遅延時間で設定された時間前のタイミング、すなわち、完成品入れに入れられる前の圧入機にセットされているタイミングで、圧入後のワークを画像判定する。このように、トリガ信号が生成された時点から前のタイミングで圧入機にセットされているワークに対して画像判定することによって以下の事態を回避できる。すなわち、例えば、作業者がワークをセットした後に、昼休み等で作業現場を一時退去し、戻った後に圧入動作を忘れて、圧入前のワークを完成品入れに入れてしまう場合がある。この場合、完成品入れにワークを入れたタイミングをトリガとして、そのトリガの時点から検知遅延時間で設定された時間前のタイミングで画像判定することにより、作業者は、圧入前のワークであることを判断することができ、圧入前のワークが完成品入れに混入することを抑制することができる。   In addition, the detection region determination unit 314 receives the trigger signal corresponding to the trigger region “TR6” from the trigger generation unit 313, and after the detection delay time “−0 · 86” seconds corresponding to the detection region “K62”, That is, the image of the detection area of the frame of the video data “0.86” seconds ago is compared with the detection reference image to determine whether or not there is an abnormality. As described above, as an example of the case where the detection region determination unit 314 determines the image at the timing before the trigger signal is received, in an installation such as a press-fitting machine that manually press-fits the press-fitting component, There is a case where an image determination is performed on a workpiece after press-fitting in a state where the workpiece is set in a press-fitting device before being put into a finished product case, with the timing of putting the workpiece after press-fitting into the finished product case as a trigger. Specifically, first, an operator sets a work before press-fitting on a press-fitting machine. Next, the operator presses the press-fitting start button, and the press-fitting machine starts the press-fitting operation of the press-fitting parts to the workpiece. After the press-fitting, the operator picks up the press-fitted work and puts it into a finished product case. The trigger generation unit 313 generates a trigger signal triggered by the timing at which the operator puts the press-fitted work into a finished product. The detection area determination unit 314 then press-fits the trigger signal at the timing set by the detection delay time from the time when the trigger signal is received, that is, at the timing set in the press-fitting machine before being put into the finished product case. The image of the subsequent workpiece is determined. As described above, the following situation can be avoided by performing image determination on the workpiece set in the press-fitting machine at the timing before the trigger signal is generated. That is, for example, after an operator sets a work, the worker temporarily leaves the work site during a lunch break or the like, and after returning, forgets the press-fitting operation and puts the work before press-fitting into a finished product case. In this case, the worker must be the workpiece before press-fitting by determining the image at the timing set in the detection delay time from the time of the trigger using the timing when the workpiece is put in the finished product case as a trigger. It is possible to prevent the workpiece before press-fitting from being mixed into the finished product case.

また、検知領域判定部314は、トリガ生成部313によりトリガ領域「TR2」に対応するトリガ信号を受け取った時点から、検知領域「K21」に対応する検知遅延時間「1.5」秒後の映像データのフレームの検知領域の画像と、検知基準画像とを比較して異常であるか否かの画像判定をする。   In addition, the detection region determination unit 314 receives the trigger signal corresponding to the trigger region “TR2” from the trigger generation unit 313 and the video after the detection delay time “1.5” seconds corresponding to the detection region “K21”. The image in the detection area of the data frame is compared with the detection reference image to determine whether or not there is an abnormality.

そして、外部出力部316は、検知領域判定部314により異常の判定がなされた場合、異常信号を外部機器10に出力する。   Then, the external output unit 316 outputs an abnormal signal to the external device 10 when the detection region determination unit 314 determines abnormality.

次に、図26を参照しながら、メイン画面400における画像判定動作の一連の流れを総括的に説明する。   Next, a series of flow of the image determination operation on the main screen 400 will be generally described with reference to FIG.

<ステップS31>
映像振分部312が、撮像装置2から映像受信部301を介して、映像データが取得可能である場合(ステップS31:Yes)、ステップS32へ移行し、取得が不可である場合(ステップS31:No)、待機状態となる。
<Step S31>
When the video distribution unit 312 can acquire video data from the imaging device 2 via the video reception unit 301 (step S31: Yes), the process proceeds to step S32, and when acquisition is not possible (step S31: No), a standby state is entered.

<ステップS32>
映像振分部312は、映像受信部301から取得したリアルタイムの映像データを映像表示部401a〜401fに振り分けて表示させると共に、記憶部302に映像データを記憶する。そして、ステップS33へ移行する。
<Step S32>
The video distribution unit 312 distributes and displays the real-time video data acquired from the video reception unit 301 on the video display units 401 a to 401 f and stores the video data in the storage unit 302. Then, the process proceeds to step S33.

<ステップS33>
記憶部302に記憶された映像データとして、現在時刻の所定時間前より過去のフレームが存在する場合(ステップS33:Yes)、ステップS34へ移行し、存在しない場合(ステップS33:No)、ステップS31へ戻る。
<Step S33>
If there is a past frame as the video data stored in the storage unit 302 before a predetermined time before the current time (step S33: Yes), the process proceeds to step S34, and if it does not exist (step S33: No), step S31. Return to.

<ステップS34>
映像振分部312は、記憶部302に記憶された映像データとして、現在時刻の所定時間前より過去のフレームを削除する。そして、ステップS35へ移行する。
<Step S34>
The video distribution unit 312 deletes the past frames as the video data stored in the storage unit 302 from a predetermined time before the current time. Then, the process proceeds to step S35.

<ステップS35>
トリガ生成部313は、記憶部302から、変化点検出部306により検出された変化点のフレームにおける差分画像を取得する。そして、トリガ生成部313は、指定されているトリガ領域において、差分画像と、映像データのフレームのトリガ領域の画像とを比較する。そして、ステップS36へ移行する。
<Step S35>
The trigger generation unit 313 acquires, from the storage unit 302, a difference image in the frame of the change point detected by the change point detection unit 306. Then, the trigger generation unit 313 compares the difference image with the image in the trigger area of the video data frame in the designated trigger area. Then, the process proceeds to step S36.

<ステップS36>
トリガ生成部313は、映像データのフレームのトリガ領域の画像が、変化点のフレームにおける差分画像と比較して、画素値が所定の感度以上異なる画素の数の合計である差分(第2差分)が所定の閾値(第2閾値)未満となったタイミングでトリガ信号を生成する。トリガ生成部313によってトリガ信号が生成され出力された場合(ステップS36:Yes)、ステップS37へ移行し、出力されてない場合(ステップS36:No)、ステップS31へ戻る。例えば、図27(a)に示すように、トリガ生成部313は、トリガ領域指定部305により指定されたトリガ領域「TR6」(トリガ領域530a)においてトリガ信号を生成して出力したタイミングで、トリガ領域530aの枠の色を反転表示させる。これによって、トリガ生成部313によりいつトリガが出力されたかを視覚的に把握できる。
<Step S36>
The trigger generation unit 313 is a difference (second difference) in which the image of the trigger region of the video data frame is the sum of the number of pixels whose pixel values differ by a predetermined sensitivity or more compared to the difference image in the change point frame. Is generated at a timing when becomes less than a predetermined threshold (second threshold). When the trigger signal is generated and output by the trigger generation unit 313 (step S36: Yes), the process proceeds to step S37, and when it is not output (step S36: No), the process returns to step S31. For example, as illustrated in FIG. 27A, the trigger generation unit 313 generates a trigger signal at the timing when the trigger signal is generated and output in the trigger region “TR6” (trigger region 530a) specified by the trigger region specifying unit 305. The frame color of the area 530a is displayed in reverse. Thereby, it is possible to visually grasp when the trigger is output by the trigger generation unit 313.

<ステップS37>
検知領域指定部307によって指定された検知領域のうち、トリガ生成部313によるトリガのタイミングから過去のタイミングで検知領域判定部314により画像判定(検知)がなされる検知領域がある場合(ステップS37:Yes)、ステップS38へ移行し、ない場合(ステップS37:No)、ステップS41へ移行する。
<Step S37>
Among the detection areas designated by the detection area designation unit 307, there is a detection area in which image detection (detection) is performed by the detection area determination unit 314 at a past timing from the trigger timing by the trigger generation unit 313 (step S37: Yes), the process proceeds to step S38, and if not (step S37: No), the process proceeds to step S41.

<ステップS38>
検知領域判定部314は、トリガ生成部313によりトリガ領域に対応するトリガ信号を受け取った時点から、検知領域に対応する所定時間(検知遅延時間)前の映像データのフレームの検知領域の画像と、検知基準画像とを比較して異常であるか否かの画像判定をする。そして、ステップS39へ進む。
<Step S38>
The detection region determination unit 314 includes an image of a detection region of a frame of video data before a predetermined time (detection delay time) corresponding to the detection region from when the trigger signal corresponding to the trigger region is received by the trigger generation unit 313, The image is determined whether or not it is abnormal by comparing with the detection reference image. Then, the process proceeds to step S39.

<ステップS39>
検知領域判定部314は、検知領域の属性情報の画面判定の方法が「一致」である場合、検知基準画像と、検知領域の画像との比較で、画素値が検知領域の属性情報の感度以上異なる画素の数の合計である差分が、当該属性情報の閾値以上となった場合に、検知領域の画像判定は異常と判定(異常検知)する。検知領域判定部314により異常と判定された場合(ステップS39:Yes)、ステップS40へ移行し、正常と判定された場合(ステップS39:No)、ステップS37へ戻る。なお、検知領域判定部314は、検知領域の属性情報の画面判定の方法が「不一致」である場合、検知基準画像と、検知領域の画像との比較で、画素値が検知領域の属性情報の感度以上異なる画素の数の合計である差分が、当該属性情報の閾値未満となった場合に、検知領域の画像判定は異常と判定(異常検知)する。
<Step S39>
When the screen determination method of the attribute information of the detection area is “match”, the detection area determination unit 314 compares the detection reference image with the image of the detection area and the pixel value is equal to or higher than the sensitivity of the attribute information of the detection area. When the difference that is the total number of different pixels is equal to or greater than the threshold value of the attribute information, the image determination of the detection region is determined to be abnormal (abnormal detection). When it is determined that the detection area determination unit 314 is abnormal (step S39: Yes), the process proceeds to step S40, and when it is determined normal (step S39: No), the process returns to step S37. Note that, when the screen determination method of the attribute information of the detection area is “mismatch”, the detection area determination unit 314 compares the detection reference image with the image of the detection area, and the pixel value is the attribute information of the detection area. When the difference, which is the total number of pixels that differ by more than the sensitivity, is less than the threshold value of the attribute information, the image determination of the detection area is determined to be abnormal (abnormal detection).

<ステップS40>
外部出力部316は、検知領域判定部314により異常の判定がなされた場合、異常信号を外部機器10に出力する。そして、ステップS37へ戻る。
<Step S40>
The external output unit 316 outputs an abnormal signal to the external device 10 when the detection region determination unit 314 determines abnormality. Then, the process returns to step S37.

<ステップS41>
検知領域指定部307によって指定された検知領域のうち、トリガ生成部313によるトリガのタイミングから未来のタイミングで検知領域判定部314により画像判定(検知)がなされる検知領域であって、現在が画像判定(検知)のタイミングとなった場合(ステップS41:Yes)、ステップS42へ移行し、当該タイミングとなっていない場合(ステップS41:No)、ステップS45へ移行する。
<Step S41>
Among the detection areas specified by the detection area specifying unit 307, the detection area is determined by the detection area determination unit 314 at the future timing from the trigger timing by the trigger generation unit 313. If the determination (detection) timing is reached (step S41: Yes), the process proceeds to step S42. If the timing is not reached (step S41: No), the process proceeds to step S45.

<ステップS42>
検知領域判定部314は、トリガ生成部313によりトリガ領域に対応するトリガ信号を受け取った時点から、検知領域に対応する所定時間(検知遅延時間)後の映像データのフレームの検知領域の画像と、検知基準画像とを比較して異常であるか否かの画像判定をする。例えば、図27(b)に示すように、検知領域判定部314は、検知領域指定部307により指定された検知領域「K61」(検知領域535)において画像判定を実行したタイミングで、検知領域535の枠の色を反転表示させる。これによって、検知領域判定部314によりいつ画像判定されたかを視覚的には把握できる。そして、ステップS43へ進む。
<Step S42>
The detection area determination unit 314 includes an image of a detection area of a frame of video data after a predetermined time (detection delay time) corresponding to the detection area from the time when the trigger generation unit 313 receives the trigger signal corresponding to the trigger area, The image is determined whether or not it is abnormal by comparing with the detection reference image. For example, as illustrated in FIG. 27B, the detection region determination unit 314 performs the detection region 535 at the timing when the image determination is performed in the detection region “K61” (detection region 535) designated by the detection region designation unit 307. Highlight the frame color. Thereby, it is possible to visually grasp when the image is determined by the detection area determination unit 314. Then, the process proceeds to step S43.

<ステップS43>
検知領域判定部314は、検知領域の属性情報の画面判定の方法が「一致」である場合、検知基準画像と、検知領域の画像との比較で、画素値が検知領域の属性情報の感度以上異なる画素の数の合計である差分が、当該属性情報の閾値以上となった場合に、検知領域の画像判定は異常と判定(異常検知)する。検知領域判定部314により異常と判定された場合(ステップS43:Yes)、ステップS44へ移行し、正常と判定された場合(ステップS43:No)、ステップS41へ戻る。なお、検知領域判定部314は、検知領域の属性情報の画面判定の方法が「不一致」である場合、検知基準画像と、検知領域の画像との比較で、画素値が検知領域の属性情報の感度以上異なる画素の数の合計である差分が、当該属性情報の閾値未満となった場合に、検知領域の画像判定は異常と判定(異常検知)する。
<Step S43>
When the screen determination method of the attribute information of the detection area is “match”, the detection area determination unit 314 compares the detection reference image with the image of the detection area and the pixel value is equal to or higher than the sensitivity of the attribute information of the detection area. When the difference that is the total number of different pixels is equal to or greater than the threshold value of the attribute information, the image determination of the detection region is determined to be abnormal (abnormal detection). When it is determined that the detection area determination unit 314 is abnormal (step S43: Yes), the process proceeds to step S44, and when it is determined normal (step S43: No), the process returns to step S41. Note that, when the screen determination method of the attribute information of the detection area is “mismatch”, the detection area determination unit 314 compares the detection reference image with the image of the detection area, and the pixel value is the attribute information of the detection area. When the difference, which is the total number of pixels that differ by more than the sensitivity, is less than the threshold value of the attribute information, the image determination of the detection area is determined to be abnormal (abnormal detection).

<ステップS44>
外部出力部316は、検知領域判定部314により異常の判定がなされた場合、異常信号を外部機器10に出力する。そして、ステップS41へ戻る。
<Step S44>
The external output unit 316 outputs an abnormal signal to the external device 10 when the detection region determination unit 314 determines abnormality. Then, the process returns to step S41.

<ステップS45>
検知領域指定部307によって指定された検知領域のうち、トリガ生成部313によるトリガのタイミングから未来のタイミングで検知領域判定部314により画像判定(検知)がなされる検知領域であって、まだ画像判定がなされていない検知領域がある場合(ステップS45:Yes)、ステップS41へ戻り、ない場合(ステップS45:No)、画像判定動作を終了する。
<Step S45>
Among the detection areas designated by the detection area designation unit 307, the detection area is determined by the detection area determination unit 314 at the future timing from the trigger timing by the trigger generation unit 313, and the image determination is still performed. If there is a detection area that has not been subjected to (step S45: Yes), the process returns to step S41, and if not (step S45: No), the image determination operation ends.

以上のように、ユーザによる入力装置303の操作によって、トリガ領域指定部305は、映像表示部502においてトリガ領域を指定して表示させ、変化点検出部306は、指定された時点で第1再生部304が再生表示している映像データのフレームの撮像時刻の前後の所定時間分のフレームを取得し、トリガ領域が指定された時刻のトリガ領域内で抽出した画像である基準画像と、取得したフレームのトリガ領域内の画像との画素値についての差分を演算するものとしている。さらに、変化点検出部306は、演算した差分を時系列に表したグラフにおいて、取得したフレームの最初のフレームのトリガ領域内の画像に対して、画素値が所定の感度以上異なる画素の数の合計を差分として、その差分が所定の閾値以上となり、かつ、基準画像と比較してほとんど差分がない状態になった時点を変化点(IN点)として検出する。また、変化点検出部306は、演算した差分を時系列に表したグラフにおいて、取得したフレームの最初のフレームのトリガ領域内の画像であって、基準画像と比較してほとんど差分がない画像である場合、その最初のフレームのトリガ領域内の画像から、画素値が所定の感度以上異なる画素の数の合計を差分として、その差分が所定の閾値以上となった時点を変化点(OUT点)として検出する。そして、トリガ生成部313は、変化点検出部306により検出された変化点がOUT点である場合、映像データのフレームのトリガ領域の画像が、基準画像と比較して差分がほぼない状態から、画素値が所定の感度以上異なる画素の数の合計である差分が所定の閾値以上となったタイミングでトリガ信号を生成する。また、トリガ生成部313は、変化点がIN点である場合、映像データのフレームのトリガ領域の画像(差分画像)に対して、画素値が所定の感度以上異なる画素の数の合計である差分が所定の閾値以上となり、かつ、基準画像と比較してほとんど差分がない状態となったタイミングでトリガ信号を生成する。これによって、検知領域判定部314による画像判定のタイミングの基準となるトリガのタイミングを自由に生成することができる。   As described above, when the user operates the input device 303, the trigger area designation unit 305 designates and displays the trigger area on the video display unit 502, and the change point detection unit 306 performs the first reproduction at the designated time point. A frame for a predetermined time before and after the imaging time of the frame of the video data reproduced and displayed by the unit 304 is acquired, and a reference image that is an image extracted in the trigger area at the specified time is acquired The difference between the pixel values of the image in the trigger region of the frame is calculated. Furthermore, the change point detection unit 306 has a graph showing the calculated differences in time series, and the number of pixels having pixel values different from each other by a predetermined sensitivity or more with respect to an image in the trigger region of the first frame of the acquired frame. The sum is taken as a difference, and a point in time when the difference is equal to or greater than a predetermined threshold and there is almost no difference compared to the reference image is detected as a change point (IN point). In addition, the change point detection unit 306 is an image in the trigger region of the first frame of the acquired frame in the graph showing the calculated difference in time series, and the image has almost no difference compared to the reference image. If there is a difference from the image in the trigger area of the first frame, the sum of the number of pixels whose pixel values differ by a predetermined sensitivity or more is set as a difference, and the time when the difference becomes a predetermined threshold or more is a change point (OUT point) Detect as. Then, when the change point detected by the change point detection unit 306 is the OUT point, the trigger generation unit 313 has a state in which the image of the trigger region of the frame of the video data has almost no difference compared to the reference image. A trigger signal is generated at a timing when the difference, which is the sum of the number of pixels having pixel values that differ by a predetermined sensitivity or more, becomes equal to or greater than a predetermined threshold. In addition, when the change point is the IN point, the trigger generation unit 313 is a difference that is the sum of the number of pixels whose pixel values differ by a predetermined sensitivity or more with respect to the image (difference image) of the trigger region of the video data frame The trigger signal is generated at a timing when becomes equal to or greater than a predetermined threshold and there is almost no difference compared to the reference image. As a result, the trigger timing that is the reference for the timing of the image determination by the detection region determination unit 314 can be freely generated.

また、映像表示部502において映像データの再生表示中に、画像判定を所望する画像の部分が表示されているタイミングで、ユーザによる入力装置303の操作によって一時停止ボタン503bが押下され、第1再生部304は、映像表示部502に再生表示されている映像データを一時停止する。そして、ユーザによる入力装置303の操作によって、検知領域指定部307は、映像表示部502において検知領域を指定して表示させる。また、設定部308は、変化点検出部306によって検出された変化点の時刻に対して、検知領域指定部307により検知領域が指定された時点のフレームの時刻の遅延時間を属性情報として算出する。そして、検知領域判定部314は、トリガ生成部313により生成されたトリガ信号を受け取ったときから、設定部308により設定された遅延時間前または遅延時間後に、指定された検知領域において、検知基準画像と、映像データのフレームの検知領域の画像とを比較して異常であるか否かの画像判定をする。これによって、生成されたトリガのタイミングを基準にして、所定時間後のフレームの検知領域の画像に対して画像判定するのみならず、所定時間前の過去のフレームの検知領域の画像に対しても画像判定することができる。よって、画像判定のタイミングの設計の自由度を飛躍的に向上させることができる。   In addition, during the playback and display of the video data on the video display unit 502, the pause button 503b is pressed by the user's operation of the input device 303 at the timing when the portion of the image for which image determination is desired is displayed, and the first playback is performed. The unit 304 pauses the video data being reproduced and displayed on the video display unit 502. And the detection area designation | designated part 307 designates and displays a detection area in the video display part 502 by operation of the input device 303 by a user. Also, the setting unit 308 calculates, as attribute information, the delay time of the frame time when the detection region is specified by the detection region specification unit 307 with respect to the time of the change point detected by the change point detection unit 306. . Then, the detection region determination unit 314 receives the trigger signal generated by the trigger generation unit 313, and before or after the delay time set by the setting unit 308, in the specified detection region, the detection reference image And the image in the detection area of the frame of the video data are compared to determine whether the image is abnormal. This makes it possible not only to perform image determination on the image of the detection area of the frame after a predetermined time, but also to the image of the detection area of the past frame of the predetermined time before, based on the generated trigger timing. The image can be determined. Therefore, the degree of freedom in designing the image determination timing can be dramatically improved.

なお、本実施の形態において、設定画面500では、映像表示部502においてトリガ領域および検知領域の指定等が行われ、メイン画面400では、映像表示部401で表示される画像に基づいてトリガ信号が生成され、かつ、画像判定が実行されるものとしているが、これに限定されるものではない。すなわち、設定画面500およびメイン画面400の双方の機能を統一して、例えば、映像表示部502と映像表示部401とを同一の表示部として、トリガ領域および検知領域の指定等、ならびに、トリガ信号の生成および画像判定が実行できるものとしてもよい。この場合、映像表示部502と映像表示部401とを同一の表示部とした場合、当該表示部は「第1表示部」および「第2表示部」の双方に相当する。   In the present embodiment, on the setting screen 500, a trigger area and a detection area are specified in the video display unit 502, and on the main screen 400, a trigger signal is generated based on an image displayed on the video display unit 401. Although generated and image determination is performed, the present invention is not limited to this. That is, the functions of both the setting screen 500 and the main screen 400 are unified, for example, the video display unit 502 and the video display unit 401 are set as the same display unit, the trigger area and the detection area are specified, and the trigger signal. Generation and image determination may be executed. In this case, when the video display unit 502 and the video display unit 401 are the same display unit, the display unit corresponds to both the “first display unit” and the “second display unit”.

また、トリガ生成部313により生成されたトリガ信号は、上述の実施の形態では検知領域判定部314による画像判定のタイミングの基準として用いられているが、これに限定されるものではない。例えば、トリガ信号は、生産設備側で所定の処理を行わせるタイミングの基準に用いられるようにしてもよく、その場合には、トリガ信号が生成された時点でトリガ信号を生産設備に送信するようにしてもよい。   The trigger signal generated by the trigger generation unit 313 is used as a reference for the timing of image determination by the detection region determination unit 314 in the above-described embodiment, but is not limited to this. For example, the trigger signal may be used as a reference for timing at which the production facility performs predetermined processing. In this case, the trigger signal is transmitted to the production facility when the trigger signal is generated. It may be.

[第2の実施の形態]
本実施の形態の情報処理装置3について、第1の実施形態の情報処理装置3と相違する点を中心に説明する。特に、本実施の形態の情報処理装置3のトリガ領域における変化点の検出の動作について、第1の実施の形態の情報処理装置3と相違する点を詳述する。なお、本実施の形態の画像処理システム1の全体構成、情報処理装置3のハードウェア構成およびブロック構成、メイン画面400の構成、設定画面500の構成、検知領域の指定および検知領域の属性情報の設定の動作、感度設定プレビュー画面700における感度調整の動作、ならびにメイン画面400における画像判定動作は、第1の実施の形態と同様である。
[Second Embodiment]
The information processing apparatus 3 according to the present embodiment will be described focusing on differences from the information processing apparatus 3 according to the first embodiment. In particular, the difference between the information processing device 3 of the first embodiment and the information processing device 3 of the first embodiment will be described in detail with respect to the operation of detecting a change point in the trigger region of the information processing device 3 of the present embodiment. The overall configuration of the image processing system 1 of the present embodiment, the hardware configuration and block configuration of the information processing device 3, the configuration of the main screen 400, the configuration of the setting screen 500, the designation of the detection area, and the attribute information of the detection area The setting operation, the sensitivity adjustment operation on the sensitivity setting preview screen 700, and the image determination operation on the main screen 400 are the same as those in the first embodiment.

(情報処理装置のブロック構成)
上述のように、本実施の形態の情報処理装置3のブロック構成は、図3に示す第1の実施の形態の情報処理装置3のブロック構成と同様であるが、動作が相違する機能部について説明する。
(Block configuration of information processing device)
As described above, the block configuration of the information processing device 3 of the present embodiment is the same as the block configuration of the information processing device 3 of the first embodiment shown in FIG. explain.

本実施の形態では、変化点検出部306は、トリガ領域指定部305によりトリガ領域が指定された場合、指定された時点で第1再生部304が再生表示している映像データのフレームの撮像時刻から所定時間(例えば、3秒)前までのフレームを取得し、取得したフレームにおいて、フレームごとに直前のフレームとの画素値についての差分を演算し、演算した差分に基づいて、トリガ領域530内の画像についての基準画像を検出する機能部である。また、変化点検出部306は、検出した基準画像のフレーム(基準フレーム)の時刻から所定時間(例えば、6秒)後までのフレームを取得し、取得したフレームにおいて、フレームごとに基準フレームとの画素値についての差分(第1差分)を演算し、演算した差分に基づいて、トリガ領域内の画像についての変化点を検出する。本実施の形態における変化点については、後述する。上述の差分の演算方法としては、例えば、2つのフレームのトリガ領域における画素値を比較し、画素値が所定の感度以上異なる画素の数の合計、または、トリガ領域の画像の画素のうち、画素値が所定の感度以上異なる画素の数の比率(面積比)を差分として算出する。また、フレームがグレースケールの画像である場合、画素値は輝度値と一致するので、2つのフレームのトリガ領域における輝度値を比較し、輝度値が所定の感度以上異なる画素の数を算出するものとしてもよい。また、フレームがRGBの画素値で構成された画像である場合、R(赤)、G(緑)またはB(青)のいずれかの画素値を比較して、上述と同様に、画素値が所定の感度以上異なる画素の数を算出するものとしてもよい。また、フレームの画像におけるエッジ検出処理を行い、エッジ部分の合計を差分として算出してもよい。変化点検出部306は、図2に示すCPU101により実行されるプログラムによって実現される。   In the present embodiment, when the trigger region is designated by the trigger region designation unit 305, the change point detection unit 306 captures the imaging time of the frame of the video data reproduced and displayed by the first reproduction unit 304 at the designated time point. Frames from the previous frame to a predetermined time (for example, 3 seconds), and in the acquired frames, the difference between the previous frame and the pixel value is calculated for each frame, and the trigger area 530 is calculated based on the calculated difference. It is a function part which detects the reference | standard image about these images. In addition, the change point detection unit 306 acquires a frame from the time of the detected reference image frame (reference frame) to a predetermined time (for example, 6 seconds) later. A difference (first difference) for the pixel value is calculated, and a change point for the image in the trigger region is detected based on the calculated difference. The changing points in the present embodiment will be described later. As a method of calculating the above-mentioned difference, for example, pixel values in the trigger area of two frames are compared, and the total number of pixels whose pixel values differ by a predetermined sensitivity or more, or among the pixels of the image in the trigger area, pixels A ratio (area ratio) of the number of pixels whose values differ by a predetermined sensitivity or more is calculated as a difference. Also, when the frame is a grayscale image, the pixel value matches the luminance value, so the luminance values in the trigger area of the two frames are compared, and the number of pixels whose luminance values differ by more than a predetermined sensitivity is calculated. It is good. When the frame is an image composed of RGB pixel values, the pixel values of R (red), G (green), and B (blue) are compared, and the pixel value is the same as described above. The number of pixels that differ by more than a predetermined sensitivity may be calculated. Alternatively, edge detection processing may be performed on the frame image, and the sum of the edge portions may be calculated as a difference. The change point detection unit 306 is realized by a program executed by the CPU 101 shown in FIG.

(トリガ領域の指定および変化点の検出)
図28は、第2の実施の形態に係る情報処理装置の表示装置に表示される設定画面においてトリガ領域における基準画像が見つからなかった場合に表示されるダイアログの例を示す図である。図29は、第2の実施の形態のトリガ領域における変化点を検出する動作を説明する図である。図28および29、ならびに、第1の実施の形態における図面を参照しながら、トリガ領域の指定、基準画像の検出および変化点の検出について説明する。
(Specify trigger area and detect change point)
FIG. 28 is a diagram illustrating an example of a dialog displayed when a reference image in the trigger area is not found on the setting screen displayed on the display device of the information processing device according to the second embodiment. FIG. 29 is a diagram illustrating an operation of detecting a change point in the trigger area according to the second embodiment. With reference to FIGS. 28 and 29 and the drawings in the first embodiment, specification of a trigger region, detection of a reference image, and detection of a change point will be described.

まず、図6に示すように、映像表示部502において映像データの再生表示中に、トリガの発生の基となる所望する画像の部分が表示されているタイミングで、ユーザによる入力装置303の操作によって一時停止ボタン503bが押下されると、第1再生部304は、映像表示部502に再生表示されている映像データを一時停止し、その時点のフレームの撮像日付および撮像時刻を時刻表示部506に表示させる。次に、ユーザによる入力装置303の操作(例えば、マウス108のドラッグ操作)によって、トリガ領域指定部305は、映像表示部502(第1表示領域)においてトリガ領域530を指定して表示させる。   First, as shown in FIG. 6, during the reproduction and display of video data on the video display unit 502, the user operates the input device 303 at a timing when a desired image portion that is the basis of generation of a trigger is displayed. When the pause button 503b is pressed, the first reproduction unit 304 pauses the video data reproduced and displayed on the video display unit 502, and the time display unit 506 displays the imaging date and time of the current frame. Display. Next, when the user operates the input device 303 (for example, dragging the mouse 108), the trigger area specifying unit 305 specifies and displays the trigger area 530 on the video display unit 502 (first display area).

次に、変化点検出部306は、トリガ領域指定部305によりトリガ領域530が指定された場合、指定された時点で第1再生部304が再生表示している映像データのフレームの撮像時刻から所定時間(例えば、3秒)(第1所定時間)前までのフレームを取得する。そして、変化点検出部306は、取得したフレームにおいて、フレームごとに直前のフレームとの画素値についての差分を演算し、演算した差分に基づいて、トリガ領域530内の画像についての基準画像を検出する。具体的には、変化点検出部306は、取得したフレームにおいて、対象のフレームのトリガ領域530の画像の画素値と、そのフレームの直前のフレームのトリガ領域530の画像の画素値との差が所定の感度(例えば「30」)以上異なる画素の数の比率(面積比)を差分として算出し、その差分が所定の閾値(例えば「5%」)以下となった場合における、対象のフレームのトリガ領域530の画像を基準画像として検出する。   Next, when the trigger area 530 is designated by the trigger area designation unit 305, the change point detection unit 306 is predetermined from the imaging time of the frame of the video data that is reproduced and displayed by the first reproduction unit 304 at the designated time. Frames up to a time (for example, 3 seconds) (first predetermined time) are acquired. Then, the change point detection unit 306 calculates, for each acquired frame, a difference in pixel value from the immediately preceding frame for each frame, and detects a reference image for an image in the trigger region 530 based on the calculated difference. To do. Specifically, in the acquired frame, the change point detection unit 306 has a difference between the pixel value of the image in the trigger area 530 of the target frame and the pixel value of the image in the trigger area 530 of the frame immediately before the frame. The ratio (area ratio) of the number of pixels that differ by a predetermined sensitivity (for example, “30”) or more is calculated as a difference, and when the difference falls below a predetermined threshold (for example, “5%”), The image of the trigger area 530 is detected as a reference image.

なお、上述の基準画像を検出するために用いる所定時間、所定の感度、および所定の閾値の具体的数値は例示であり、他の値でもよく、または、記憶部302に設定ファイルとして記憶され編集可能であるものとしてもよい。また、上述のように、変化点検出部306は、第1再生部304が再生表示している映像データのフレームの撮像時刻から所定時間前までのフレームを取得するものとしているが、これに限定されるものではない。例えば、変化点検出部306は、第1再生部304が再生表示している映像データのフレームの撮像時刻の前後の所定時間分のフレーム、または、撮像時刻から所定時間後までのフレームを取得してもよい。   Note that the specific values of the predetermined time, the predetermined sensitivity, and the predetermined threshold used for detecting the above-described reference image are examples, and other values may be used, or they may be stored in the storage unit 302 as a setting file and edited. It may be possible. Further, as described above, the change point detection unit 306 acquires frames from the imaging time of the frame of the video data reproduced and displayed by the first reproduction unit 304 to a predetermined time before, but is not limited thereto. Is not to be done. For example, the change point detection unit 306 acquires a frame for a predetermined time before and after the imaging time of a frame of video data reproduced and displayed by the first playback unit 304 or a frame from the imaging time to a predetermined time later. May be.

図28に示す設定画面500は、変化点検出部306によって、トリガ領域指定部305により指定されたトリガ領域530において基準画像が検出されなかった場合に、基準画像無し通知ダイアログ620が表示された状態を示している。変化点検出部306は、上述の基準画像の検出動作で、演算した差分が所定の閾値以上とならず、基準画像が検出できない場合がある。この場合、変化点検出部306は、基準画像が検出できなかった旨を示す基準画像無し通知ダイアログ620を表示装置317に表示させる。   In the setting screen 500 shown in FIG. 28, when the reference image is not detected in the trigger area 530 specified by the trigger area specifying unit 305 by the change point detection unit 306, a notification dialog 620 indicating no reference image is displayed. Is shown. In the above-described reference image detection operation, the change point detection unit 306 may not be able to detect the reference image because the calculated difference does not exceed a predetermined threshold value. In this case, the change point detection unit 306 causes the display device 317 to display a reference image absence notification dialog 620 indicating that the reference image could not be detected.

基準画像無し通知ダイアログ620は、OKボタン621と、閉じるボタン622と、を含む。OKボタン621は、基準画像無し通知ダイアログ620を閉じるためのボタンである。ユーザによる入力装置303の操作によって、OKボタン621を押下した場合、変化点検出部306は、記憶部302に何の情報も記憶せず、基準画像表示部508aおよび差分画像表示部508bにも画像を表示させずに、基準画像無し通知ダイアログ620を閉じる。   The reference image absence notification dialog 620 includes an OK button 621 and a close button 622. The OK button 621 is a button for closing the reference image absence notification dialog 620. When the user presses the OK button 621 by operating the input device 303, the change point detection unit 306 does not store any information in the storage unit 302, and the image is also displayed in the reference image display unit 508a and the difference image display unit 508b. Is not displayed, and the reference image absence notification dialog 620 is closed.

次に、変化点検出部306は、基準画像を検出した場合、基準画像のフレームである基準フレームの撮像時刻から所定時間(例えば、6秒)(第2所定時間)後までのフレームを取得する。そして、変化点検出部306は、取得したフレームにおいて、フレームごとに基準フレームとの画素値についての差分(第1差分)を演算し、演算した差分に基づいて、トリガ領域内の画像についての変化点を検出する。ここで、差分の演算方法としては、例えば、変化点検出部306により取得したフレームにおいて、対象のフレームのトリガ領域530の画像の画素値と、基準フレームのトリガ領域530の画像の画素値との差が所定の感度(例えば「50」)以上異なる画素の数の比率(面積比)を差分とする。以下、変化点検出部306による具体的な変化点の検出方法について説明する。   Next, when detecting the reference image, the change point detection unit 306 acquires frames from the imaging time of the reference frame that is a frame of the reference image to a predetermined time (for example, 6 seconds) (second predetermined time). . Then, the change point detection unit 306 calculates a difference (first difference) about the pixel value with respect to the reference frame for each frame in the acquired frame, and changes about the image in the trigger region based on the calculated difference. Detect points. Here, as a difference calculation method, for example, in the frame acquired by the change point detection unit 306, the pixel value of the image in the trigger area 530 of the target frame and the pixel value of the image in the trigger area 530 of the reference frame are calculated. The difference is the ratio (area ratio) of the number of pixels that differ by at least a predetermined sensitivity (eg, “50”). Hereinafter, a specific method for detecting change points by the change point detection unit 306 will be described.

変化点検出部306は、図29(a)に示すように、基準フレームの撮像時刻からの所定時間分のフレームとして13個のフレーム(フレーム(0)〜フレーム(12))を取得したものとする。この場合、変化点検出部306によって、フレーム(0)を基準フレームとして、そこから所定時間分のフレームが取得されたことになる。また、説明を簡略にするため、各フレームにおけるトリガ領域530に対応する部分の画像についても、それぞれフレーム(0)〜フレーム(12)と称するものとする。そして、変化点検出部306は、取得したフレームにおいて、フレームごとに基準フレームとの画素値についての差分を演算する。差分の演算方法については、上述した通りである。変化点検出部306が図29(a)に例示したフレームを抽出し、フレームごとに演算した差分を時系列に表したグラフが、図29(b)に示すグラフである。図29(b)において、例えば、フレーム(2)の差分は、フレーム(2)と、基準フレームであるフレーム(0)との差分を示す。ここで、本実施の形態の変化点としてのIN点およびOUT点を次のように定義する。すなわち、IN点とは、連続するフレームにおいてトリガ領域530内の画像が、基準フレームのトリガ領域530内の画像と比較して所定の程度だけ変化した時点とする。また、OUT点とは、IN点から、連続するフレームにおいてトリガ領域530内の画像が、基準フレームのトリガ領域530内の画像に近似した時点とする。   As shown in FIG. 29A, the change point detection unit 306 acquires 13 frames (frame (0) to frame (12)) as frames for a predetermined time from the imaging time of the reference frame. To do. In this case, the change point detection unit 306 acquires a frame for a predetermined time from the frame (0) as a reference frame. In addition, in order to simplify the description, the image of the part corresponding to the trigger region 530 in each frame is also referred to as frame (0) to frame (12), respectively. Then, the change point detection unit 306 calculates a difference in pixel values from the reference frame for each frame in the acquired frame. The difference calculation method is as described above. The graph shown in FIG. 29B is a graph in which the change point detection unit 306 extracts the frames exemplified in FIG. 29A and expresses the differences calculated for each frame in time series. In FIG. 29B, for example, the difference between the frame (2) indicates the difference between the frame (2) and the frame (0) that is the reference frame. Here, the IN point and the OUT point as changing points of the present embodiment are defined as follows. That is, the IN point is a point in time when the image in the trigger area 530 is changed by a predetermined degree in the consecutive frames as compared with the image in the trigger area 530 of the reference frame. The OUT point is a point in time when an image in the trigger area 530 approximates an image in the trigger area 530 of the reference frame in successive frames from the IN point.

変化点検出部306は、フレームごとに演算した差分に基づいて、IN点の候補、およびOUT点の候補を見つける。具体的には、変化点検出部306は、演算した差分が、所定の閾値(例えば、20%)(第1閾値)以下の状態からその閾値を超えた場合、その閾値を超えた差分に対応するフレームをIN点の候補のフレームとする。図29(b)の例では、フレーム(1)〜(3)の差分は閾値未満であり、フレーム(4)になると差分が閾値を超えるので、フレーム(4)がIN点の候補のフレームとなる。同様に、フレーム(10)もIN点の候補のフレームとなる。   The change point detection unit 306 finds an IN point candidate and an OUT point candidate based on the difference calculated for each frame. Specifically, the change point detection unit 306 responds to a difference exceeding the threshold when the calculated difference exceeds the threshold from a state equal to or less than a predetermined threshold (for example, 20%) (first threshold). The frame to be used is the IN point candidate frame. In the example of FIG. 29B, the difference between the frames (1) to (3) is less than the threshold, and the difference exceeds the threshold when the frame (4) is reached. Become. Similarly, the frame (10) is also a candidate frame for the IN point.

一方、変化点検出部306は、演算した差分が、所定の閾値(第1閾値)より大きい状態からその閾値以下となった場合、その閾値以下となった差分に対応するフレームをOUT点の候補のフレームとする。図29(b)の例では、フレーム(4)〜(6)の差分は閾値より大きく、フレーム(7)になると差分が閾値以下となるので、フレーム(7)がOUT点の候補のフレームとなる。同様に、フレーム(11)もOUT点の候補のフレームとなる。   On the other hand, the change point detection unit 306, when the calculated difference falls below the threshold value from a state larger than the predetermined threshold value (first threshold value), the frame corresponding to the difference below the threshold value is selected as an OUT point candidate. Frame. In the example of FIG. 29 (b), the difference between the frames (4) to (6) is larger than the threshold, and when the frame (7) is reached, the difference is equal to or less than the threshold. Become. Similarly, the frame (11) is also a candidate frame for the OUT point.

以上のように、変化点検出部306は、図29の例では、IN点の候補のフレームとしてフレーム(4)および(10)を特定し、OUT点の候補のフレームとしてフレーム(7)および(11)を特定する。このように、変化点検出部306は、IN点の候補のフレームが複数特定された場合、基準フレームに最も近いフレーム、すなわちフレーム(4)をIN点のフレームに決定する。同様に、変化点検出部306は、OUT点の候補のフレームが複数特定された場合、基準フレームに最も近いフレーム、すなわちフレーム(7)をOUT点のフレームに決定する。以上のように、変化点検出部306は、取得した所定時間分のフレームから、IN点のフレームおよびOUT点のフレームを決定することにより、変化点(IN点およびOUT点)を検出する。なお、変化点検出部306は、変化点を検出した場合、変化点のフレームの前のフレーム、もしくは後のフレーム、または前後のフレームを用いて、トリガ領域530内の動体検知を行い、どの方向から動体が入ってきたのかを示すベクトル情報を記憶部302に記憶させるものとしてもよい。この場合、トリガ生成部313は、記憶部302に記憶されたベクトル情報を用いて、動体がベクトル情報の示す方向と同一の方向から動いてきたか否かを確認し、その確認結果に基づいてトリガ信号を生成するものとしてもよい。   As described above, in the example of FIG. 29, the change point detection unit 306 identifies the frames (4) and (10) as the IN point candidate frames and the frames (7) and (10) as the OUT point candidate frames. 11) is specified. As described above, when a plurality of IN point candidate frames are specified, the change point detection unit 306 determines the frame closest to the reference frame, that is, the frame (4) as the IN point frame. Similarly, when a plurality of OUT point candidate frames are specified, the change point detection unit 306 determines the frame closest to the reference frame, that is, the frame (7) as the OUT point frame. As described above, the change point detection unit 306 detects the change points (IN point and OUT point) by determining the IN point frame and the OUT point frame from the acquired frames for a predetermined time. When the change point is detected, the change point detection unit 306 detects a moving object in the trigger region 530 using a frame before the change point frame, a frame after the change point frame, or a frame before and after the change point frame. Vector information indicating whether a moving object has entered from the storage unit 302 may be stored in the storage unit 302. In this case, the trigger generation unit 313 uses the vector information stored in the storage unit 302 to check whether the moving object has moved from the same direction as the vector information, and triggers based on the confirmation result. A signal may be generated.

また、図29では、IN点およびOUT点の双方のフレームが見つかる例を示したが、変化点検出部306は、IN点のフレームのみ、または、OUT点のフレームのみを見つける場合もあり、この場合は、これらのIN点またはOUT点を変化点として検出する。この場合、変化点検出部306は、検出した変化点のフレームのトリガ領域530内の画像を差分画像(第1画像)として抽出する。変化点検出部306は、抽出した基準画像、および変化点のフレームにおける差分画像を記憶部302に記憶させ、基準画像を基準画像表示部508aに表示させ、差分画像を差分画像表示部508bに表示させる。さらに、変化点検出部306は、シークバー504において、検出した変化点のフレームの時刻に対応する部分にトリガマーク540を表示する。また、変化点検出部306により変化点が検出された場合、トリガ領域指定部305は、指定したトリガ領域530の情報を記憶部302に記憶させる。また、設定部308は、トリガ領域指定部305により指定されたトリガ領域530に命名した名前、ならびに、トリガ生成部313によるトリガの検出に利用する所定の感度(例えば、「50」)および所定の閾値(例えば、「20%」)(デフォルト値)を、トリガ領域情報部507に表示させる。設定部308は、トリガ領域530の名前として、上述の図7に示すように、例えば、「6」の撮像装置(撮像装置2f)の映像データに対して指定されたトリガ領域であるものとして、「TR6」と命名する。   FIG. 29 shows an example in which both the IN point and OUT point frames are found. However, the change point detection unit 306 may find only the IN point frame or only the OUT point frame. In this case, these IN point or OUT point is detected as a change point. In this case, the change point detection unit 306 extracts an image in the trigger region 530 of the detected change point frame as a difference image (first image). The change point detection unit 306 stores the extracted reference image and the difference image in the frame of the change point in the storage unit 302, displays the reference image on the reference image display unit 508a, and displays the difference image on the difference image display unit 508b. Let Furthermore, the change point detection unit 306 displays a trigger mark 540 on the seek bar 504 at a portion corresponding to the time of the detected change point frame. When a change point is detected by the change point detection unit 306, the trigger area specifying unit 305 causes the storage unit 302 to store information on the specified trigger area 530. In addition, the setting unit 308 has a name given to the trigger region 530 specified by the trigger region specifying unit 305, a predetermined sensitivity (for example, “50”) used for detection of a trigger by the trigger generation unit 313, and a predetermined A threshold (for example, “20%”) (default value) is displayed on the trigger area information unit 507. As shown in FIG. 7 described above, the setting unit 308 assumes that the trigger area 530 is a trigger area designated for the video data of the imaging device (imaging device 2f) of “6”, for example. It is named “TR6”.

なお、上述の変化点を検出するために用いる所定時間、所定の感度、および所定の閾値の具体的数値は例示であり、他の値でもよく、または、記憶部302に設定ファイルとして記憶され編集可能であるものとしてもよい。   The specific values of the predetermined time, the predetermined sensitivity, and the predetermined threshold used for detecting the above-described change point are examples, and may be other values, or may be stored in the storage unit 302 as a setting file and edited. It may be possible.

また、変化点検出部306によって、トリガ領域指定部305により指定されたトリガ領域530において変化点が上述のように2つ(IN点およびOUT点)検出された場合は、上述の図9で示した変化点選択ダイアログ600による動作と同様である。このように、変化点検出部306により変化点としてIN点およびOUT点が検出され、ユーザにより2つの変化点のいずれかを選択できるようにすることにより、ユーザが真に指定を所望する変化点を選択させることができる。   In addition, when the change point detection unit 306 detects two change points (IN point and OUT point) in the trigger region 530 designated by the trigger region designation unit 305 as described above, the change point detection unit 306 is illustrated in FIG. 9 described above. The operation is the same as that of the change point selection dialog 600. In this way, the change point detection unit 306 detects the IN point and the OUT point as change points, and allows the user to select one of the two change points, so that the user can truly specify the change point. Can be selected.

また、変化点検出部306によって、トリガ領域指定部305により指定されたトリガ領域530において変化点が見つからなかった場合は、上述の図10で示した変化点無し通知ダイアログ610による動作と同様である。   Further, when the change point detection unit 306 does not find a change point in the trigger region 530 specified by the trigger region specifying unit 305, the operation is the same as that performed by the above-described no change point notification dialog 610 shown in FIG. .

(トリガ領域および検知領域を指定する設定動作の流れ)
図30は、第2の実施の形態に係る情報処理装置の表示装置に表示される設定画面においてトリガ領域および検知領域を指定する設定動作の例を示すフローチャートである。図30を参照しながら、設定画面500においてトリガ領域および検知領域を指定する設定動作の流れを総括的に説明する。
(Flow of setting operation to specify trigger area and detection area)
FIG. 30 is a flowchart illustrating an example of a setting operation for designating a trigger area and a detection area on a setting screen displayed on the display device of the information processing apparatus according to the second embodiment. With reference to FIG. 30, the flow of the setting operation for designating the trigger area and the detection area on the setting screen 500 will be generally described.

<ステップS51>
第1再生部304は、ユーザによる入力装置303の操作に従って、映像データを記憶部302から取得して、映像表示部502に再生表示させる。そして、ステップS52へ移行する。
<Step S51>
The first playback unit 304 acquires video data from the storage unit 302 according to the operation of the input device 303 by the user, and causes the video display unit 502 to play back and display the video data. Then, the process proceeds to step S52.

<ステップS52>
映像表示部502において映像データの再生表示中に、トリガの発生の基となる所望する画像の部分が表示されているタイミングで、ユーザによる入力装置303の操作によって一時停止ボタン503bが押下されると、第1再生部304は、映像表示部502に再生表示されている映像データを一時停止する。ユーザによる入力装置303の操作(例えば、マウス108のドラッグ操作)によって、トリガ領域指定部305は、映像表示部502においてトリガ領域を指定して表示させる。そして、ステップS53へ移行する。
<Step S52>
When the user presses the pause button 503b by the operation of the input device 303 at the timing when the desired image portion that is the basis of the occurrence of the trigger is displayed while the video data is being reproduced and displayed on the video display unit 502. The first playback unit 304 pauses the video data that is played back and displayed on the video display unit 502. When the user operates the input device 303 (for example, dragging the mouse 108), the trigger area designating unit 305 designates and displays the trigger area on the video display unit 502. Then, the process proceeds to step S53.

<ステップS53>
変化点検出部306は、トリガ領域指定部305によりトリガ領域530が指定された場合、指定された時点で第1再生部304が再生表示している映像データのフレームの撮像時刻から所定時間(例えば、3秒)前までのフレームを取得する。そして、変化点検出部306は、取得したフレームにおいて、フレームごとに直前のフレームとの画素値についての差分を演算し、演算した差分に基づいて、トリガ領域530内の画像についての基準画像を検出する。具体的な基準画像の検出方法は、上述した通りである。そして、ステップS54へ移行する。
<Step S53>
When the trigger area 530 is designated by the trigger area designation unit 305, the change point detection unit 306 is a predetermined time (for example, from the imaging time of the frame of the video data reproduced and displayed by the first reproduction unit 304 at the designated time point) 3 seconds) The previous frame is acquired. Then, the change point detection unit 306 calculates, for each acquired frame, a difference in pixel value from the immediately preceding frame for each frame, and detects a reference image for an image in the trigger region 530 based on the calculated difference. To do. A specific reference image detection method is as described above. Then, the process proceeds to step S54.

<ステップS54>
変化点検出部306によって基準画像が検出された場合(ステップS54:Yes)、ステップS55へ移行し、基準画像が検出されなかった場合(ステップS54:No)、ステップS51へ戻る。
<Step S54>
When the reference image is detected by the change point detection unit 306 (step S54: Yes), the process proceeds to step S55, and when the reference image is not detected (step S54: No), the process returns to step S51.

<ステップS55>
変化点検出部306は、基準画像を検出した場合、基準フレームの撮像時刻から所定時間(例えば、6秒)後までのフレームを取得する。そして、変化点検出部306は、取得したフレームにおいて、フレームごとに基準フレームとの画素値についての差分を演算し、演算した差分に基づいて、トリガ領域内の画像についての変化点を検出する。具体的な変化点の検出方法は、図28および29等で上述した通りである。そして、ステップS56へ移行する。
<Step S55>
When detecting the reference image, the change point detection unit 306 acquires frames from the imaging time of the reference frame to a predetermined time (for example, 6 seconds). Then, the change point detection unit 306 calculates a difference for the pixel value from the reference frame for each frame in the acquired frame, and detects a change point for the image in the trigger region based on the calculated difference. The specific change point detection method is as described above with reference to FIGS. Then, the process proceeds to step S56.

<ステップS56>
変化点検出部306によって変化点が検出された場合(ステップS56:Yes)、ステップS57へ移行し、変化点が検出されなかった場合(ステップS56:No)、ステップS51へ戻る。
<Step S56>
When the change point is detected by the change point detection unit 306 (step S56: Yes), the process proceeds to step S57, and when the change point is not detected (step S56: No), the process returns to step S51.

<ステップS57〜61>
ステップS57〜61の処理は、それぞれ第1の実施の形態において図24で示したステップS15〜19の処理と同様である。
<Steps S57 to 61>
The processing in steps S57 to 61 is the same as the processing in steps S15 to 19 shown in FIG. 24 in the first embodiment.

以上のように、変化点検出部306は、まず、基準画像を検出し、基準画像が検出された場合に、基準フレームの撮像時刻から所定時間後までのフレームを取得し、フレームごとに基準フレームとの画素値についての差分を演算し、演算した差分に基づいて、トリガ領域内の画像についての変化点を検出するものとしている。このような方法で検出された変化点に基づいて、トリガ生成部313は、トリガ信号を生成する。これによって、検知領域判定部314による画像判定のタイミングの基準となるトリガのタイミングを自由に生成することができる。その他、第1の実施の形態と同様の効果を得ることができる。   As described above, the change point detection unit 306 first detects the reference image, and when the reference image is detected, acquires a frame from the imaging time of the reference frame to a predetermined time later, and the reference frame for each frame. And a change point for an image in the trigger region is detected based on the calculated difference. Based on the change point detected by such a method, the trigger generation unit 313 generates a trigger signal. As a result, the trigger timing that is the reference for the timing of the image determination by the detection region determination unit 314 can be freely generated. In addition, the same effects as those of the first embodiment can be obtained.

また、上述の各実施の形態の第1再生部304、トリガ領域指定部305、変化点検出部306、検知領域指定部307、設定部308、第2再生部309、画像抽出部310、差分判定部311、映像振分部312、トリガ生成部313、検知領域判定部314および表示制御部315の少なくともいずれかがプログラムの実行によって実現される場合、そのプログラムは、ROM等に予め組み込まれて提供される。また、本実施の形態の情報処理装置3で実行されるプログラムは、インストール可能な形式または実行可能な形式のファイルでCD−ROM、フレキシブルディスク(FD)、CD−R、DVD等のコンピュータで読み取り可能な記録媒体に記録して提供するように構成してもよい。また、本実施の形態の情報処理装置3で実行されるプログラムを、インターネット等のネットワークに接続されたコンピュータ上に格納し、ネットワーク経由でダウンロードさせることにより提供するように構成してもよい。また、本実施の形態の情報処理装置3で実行されるプログラムを、インターネット等のネットワーク経由で提供または配布するように構成してもよい。本実施の形態の情報処理装置3で実行されるプログラムは、上述した第1再生部304、トリガ領域指定部305、変化点検出部306、検知領域指定部307、設定部308、第2再生部309、画像抽出部310、差分判定部311、映像振分部312、トリガ生成部313、検知領域判定部314および表示制御部315の少なくともいずれかを含むモジュール構成となっており、実際のハードウェアとしてはCPUが上述のROMからプログラムを読み出して実行することにより、上述の各部が主記憶装置上にロードされて生成されるようになっている。   In addition, the first reproduction unit 304, the trigger region designation unit 305, the change point detection unit 306, the detection region designation unit 307, the setting unit 308, the second reproduction unit 309, the image extraction unit 310, and the difference determination of each embodiment described above. When at least one of the unit 311, the video distribution unit 312, the trigger generation unit 313, the detection area determination unit 314, and the display control unit 315 is realized by executing a program, the program is provided in advance in a ROM or the like Is done. The program executed by the information processing apparatus 3 according to the present embodiment is an installable or executable file and is read by a computer such as a CD-ROM, flexible disk (FD), CD-R, or DVD. You may comprise so that it may record on a possible recording medium and provide. The program executed by the information processing apparatus 3 according to the present embodiment may be configured to be stored by being stored on a computer connected to a network such as the Internet and downloaded via the network. Further, the program executed by the information processing apparatus 3 of the present embodiment may be configured to be provided or distributed via a network such as the Internet. The program executed by the information processing apparatus 3 according to the present embodiment includes the first reproduction unit 304, the trigger region designation unit 305, the change point detection unit 306, the detection region designation unit 307, the setting unit 308, and the second reproduction unit described above. 309, an image extraction unit 310, a difference determination unit 311, a video distribution unit 312, a trigger generation unit 313, a detection region determination unit 314, and a display control unit 315. As described above, the CPU reads out the program from the ROM and executes the program, so that each unit described above is loaded on the main storage device and generated.

1 画像処理システム
2、2a〜2f 撮像装置
3 情報処理装置
4 ネットワーク
10 外部機器
101 CPU
102 ROM
103 RAM
104 外部記憶装置
105 ディスプレイ
106 ネットワークI/F
107 キーボード
108 マウス
109 DVDドライブ
110 DVD
111 外部機器I/F
112 バス
301 映像受信部
302 記憶部
303 入力装置
304 第1再生部
305 トリガ領域指定部
306 変化点検出部
307 検知領域指定部
308 設定部
309 第2再生部
310 画像抽出部
311 差分判定部
312 映像振分部
313 トリガ生成部
314 検知領域判定部
315 表示制御部
316 外部出力部
317 表示装置
400 メイン画面
401、401a〜401f 映像表示部
411 監視開始ボタン
412 監視停止ボタン
413 監視設定ボタン
500 設定画面
501 カメラ選択部
502 映像表示部
503a 再生ボタン
503b 一時停止ボタン
503c 早送りボタン
503d 早戻しボタン
503e 停止ボタン
504 シークバー
505 スライダー
506 時刻表示部
507 トリガ領域情報部
507a プルダウンボタン
507b プルダウンメニュー
508a 基準画像表示部
508b 差分画像表示部
509 検知領域情報部
510 検知領域ボタン部
510a アクションボタン
510b 画像判定選択ボタン
510c 削除ボタン
510d 感度判定ボタン
510e 感度増加ボタン
510f 感度減少ボタン
510g 閾値増加ボタン
510h 閾値減少ボタン
511 設定読出ボタン
512 設定書込ボタン
513 設定反映ボタン
514 閉じるボタン
530、530a トリガ領域
535、536、536a、537 検知領域
540、540a トリガマーク
600 変化点選択ダイアログ
601 はいボタン
602 いいえボタン
603 閉じるボタン
610 変化点無し通知ダイアログ
611 OKボタン
612 閉じるボタン
620 基準画像無し通知ダイアログ
621 OKボタン
622 閉じるボタン
700 感度設定プレビュー画面
701 検知領域情報部
702 映像表示部
703 検知基準画像表示部
704 抽出画像表示部
705 差異表示部
706 色別検出数表示部
707 領域画素数表示部
708 差分検出数表示部
709 差分検出割合表示部
710a 感度増加ボタン
710b 感度減少ボタン
711 判定ボタン
712 OKボタン
713 閉じるボタン
800 感度適用確認ダイアログ
801 はいボタン
802 いいえボタン
803 キャンセルボタン
804 閉じるボタン
DESCRIPTION OF SYMBOLS 1 Image processing system 2, 2a-2f Image pick-up device 3 Information processing device 4 Network 10 External apparatus 101 CPU
102 ROM
103 RAM
104 External storage device 105 Display 106 Network I / F
107 keyboard 108 mouse 109 DVD drive 110 DVD
111 External device I / F
DESCRIPTION OF SYMBOLS 112 Bus 301 Image | video receiving part 302 Memory | storage part 303 Input device 304 1st reproduction | regeneration part 305 Trigger area | region designation | designated part 306 Change point detection part 307 Detection area | region designation | designated part 308 Setting part 309 2nd reproduction | regeneration part 310 Image extraction part 311 Difference determination part 312 Image | video Distribution unit 313 Trigger generation unit 314 Detection area determination unit 315 Display control unit 316 External output unit 317 Display device 400 Main screen 401, 401a to 401f Video display unit 411 Monitoring start button 412 Monitoring stop button 413 Monitoring setting button 500 Setting screen 501 Camera selection unit 502 Video display unit 503a Play button 503b Pause button 503c Fast forward button 503d Fast reverse button 503e Stop button 504 Seek bar 505 Slider 506 Time display unit 507 Trigger area information unit 50 7a Pull-down button 507b Pull-down menu 508a Reference image display section 508b Difference image display section 509 Detection area information section 510 Detection area button section 510a Action button 510b Image determination selection button 510c Delete button 510d Sensitivity determination button 510e Sensitivity increase button 510f Sensitivity decrease button 510g Threshold increase button 510h Threshold decrease button 511 Setting read button 512 Setting write button 513 Setting reflection button 514 Close button 530, 530a Trigger area 535, 536, 536a, 537 Detection area 540, 540a Trigger mark 600 Change point selection dialog 601 Yes button 602 No button 603 Close button 610 No change point notification dialog 611 OK button 612 Close button 62 Reference image absence notification dialog 621 OK button 622 Close button 700 Sensitivity setting preview screen 701 Detection area information section 702 Video display section 703 Detection reference image display section 704 Extracted image display section 705 Difference display section 706 Color detection number display section 707 Area pixel Number display part 708 Difference detection number display part 709 Difference detection ratio display part 710a Sensitivity increase button 710b Sensitivity decrease button 711 Determination button 712 OK button 713 Close button 800 Sensitivity application confirmation dialog 801 Yes button 802 No button 803 Cancel button 804 Close button

特開平07−248214号公報JP 07-248214 A

Claims (22)

表示手段と、
撮像手段により撮像された映像データを前記表示手段に表示させる再生手段と、
前記映像データが表示されている前記表示手段の第1表示領域において、トリガ領域を指定するトリガ領域指定手段と、
前記トリガ領域指定手段により前記トリガ領域が指定された時点を基準にした第1所定時間分の前記映像データから前記トリガ領域内の画像における変化点を検出し、前記変化点のフレームの前記トリガ領域内の画像を第1画像として抽出する検出手段と、
前記撮像手段により撮像された映像データが表示されている前記表示手段の第2表示領域における前記トリガ領域内の画像を前記第1画像と比較し、比較結果に応じてトリガを生成する生成手段と、
を備えた画像処理装置。
Display means;
Reproduction means for displaying the video data imaged by the imaging means on the display means;
Trigger area specifying means for specifying a trigger area in the first display area of the display means on which the video data is displayed;
A change point in the image in the trigger area is detected from the video data for a first predetermined time with reference to a time point when the trigger area is specified by the trigger area specifying means, and the trigger area of the frame of the change point is detected. Detecting means for extracting the image inside as the first image;
Generating means for comparing an image in the trigger area in the second display area of the display means on which video data picked up by the image pickup means is displayed with the first image, and generating a trigger according to the comparison result; ,
An image processing apparatus.
前記検出手段は、
前記第1所定時間分の前記映像データのフレームを取得して、取得した該フレームごとに、前のフレームとの差分を演算し、該差分に基づいて前記トリガ領域内の基準画像を検出し、
前記基準画像を含むフレームの時点から第2所定時間後までの前記映像データのフレームを取得し、取得した該フレームごとに、前記基準画像を含むフレームとの第1差分を演算し、前記第1差分に基づいて前記トリガ領域内の画像における前記変化点を検出する請求項1に記載の画像処理装置。
The detection means includes
Obtaining a frame of the video data for the first predetermined time, calculating a difference from the previous frame for each of the obtained frames, and detecting a reference image in the trigger region based on the difference;
A frame of the video data from a time point of a frame including the reference image to a second predetermined time later is acquired, a first difference from the frame including the reference image is calculated for each of the acquired frames, and the first The image processing apparatus according to claim 1, wherein the change point in the image in the trigger region is detected based on the difference.
前記検出手段は、前記第1差分が第1閾値を超えたフレームの時点、または、前記第1差分が前記第1閾値を超えたフレームの時点から該第1閾値以下となったフレームの時点を前記変化点として検出する請求項2に記載の画像処理装置。   The detection means may determine a time point of a frame when the first difference exceeds a first threshold value, or a time point of a frame where the first difference falls below the first threshold value from a time point of a frame where the first difference exceeds the first threshold value. The image processing apparatus according to claim 2, wherein the image processing apparatus detects the change point. 前記検出手段は、前記トリガ指定領域手段により前記トリガ領域が指定された時点の前後の前記第1所定時間分の前記映像データのフレームを取得し、該フレームごとに、前のフレームとの第1差分を演算し、前記第1差分に基づいて前記トリガ領域内の画像における前記変化点を検出する請求項1に記載の画像処理装置。   The detection means acquires frames of the video data for the first predetermined time before and after the time when the trigger area is designated by the trigger designation area means, and for each frame, a first frame with a previous frame is obtained. The image processing apparatus according to claim 1, wherein a difference is calculated, and the change point in the image in the trigger region is detected based on the first difference. 前記検出手段は、前記第1差分と第1閾値との比較結果によって前記変化点を検出する請求項4に記載の画像処理装置。   The image processing apparatus according to claim 4, wherein the detection unit detects the change point based on a comparison result between the first difference and a first threshold value. 前記生成手段は、前記第2表示領域における画像判定の基準となる前記トリガを生成する請求項1〜5のいずれか一項に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the generation unit generates the trigger that serves as a reference for image determination in the second display region. 前記生成手段は、前記第2表示領域における前記トリガ領域内の画像と、前記第1画像との第2差分を演算し、前記第2差分が第2閾値未満となったときに前記トリガを生成する請求項1〜6のいずれか一項に記載の画像処理装置。   The generation means calculates a second difference between the image in the trigger area in the second display area and the first image, and generates the trigger when the second difference becomes less than a second threshold value. The image processing apparatus according to any one of claims 1 to 6. 前記第1表示領域において、前記画像判定の対象となる検知領域を指定する検知領域指定手段と、
前記検知領域に対して前記画像判定を行う検知領域判定手段と、
前記検知領域において、前記生成手段が前記トリガを生成した時点を基準に、前記検知領域判定手段によって前記画像判定が行われる時点を定める判定時間を設定する設定手段と、
をさらに備えた請求項1〜7のいずれか一項に記載の画像処理装置。
In the first display area, a detection area designating unit for designating a detection area to be a target of the image determination;
Detection area determination means for performing the image determination on the detection area;
In the detection area, setting means for setting a determination time for determining a time point at which the image determination is performed by the detection area determination means with reference to a time point when the generation means generates the trigger;
The image processing apparatus according to claim 1, further comprising:
前記設定手段は、前記生成手段が前記トリガを生成した時点よりも前の映像データのフレームの前記検知領域に対して前記画像判定が行われるように前記判定時間を設定する請求項8に記載の画像処理装置。   The said setting means sets the said determination time so that the said image determination may be performed with respect to the said detection area | region of the flame | frame of the video data before the time when the said production | generation means produced | generated the said trigger. Image processing device. 前記設定手段は、前記生成手段が前記トリガを生成した時点よりも後の映像データのフレームの前記検知領域に対して前記画像判定が行われるように前記判定時間を設定する請求項8に記載の画像処理装置。   The said setting means sets the said determination time so that the said image determination may be performed with respect to the said detection area | region of the flame | frame of video data after the time when the said production | generation means produced | generated the said trigger. Image processing device. 前記トリガ領域指定手段は、前記撮像手段とは別の撮像手段により撮像された映像データについて、前記第1表示領域において前記トリガ領域とは別のトリガ領域を指定し、
前記検知領域判定手段は、前記生成手段によって前記別のトリガ領域に対するトリガが生成された時点を基準に、前記検知領域に対して前記画像判定を行う請求項8〜10のいずれか一項に記載の画像処理装置。
The trigger area designating unit designates a trigger area different from the trigger area in the first display area for video data captured by an imaging unit different from the imaging unit,
The said detection area determination means performs the said image determination with respect to the said detection area on the basis of the time when the trigger with respect to said another trigger area | region was produced | generated by the said production | generation means. Image processing apparatus.
前記検知領域指定手段は、前記第1表示領域において、複数の前記検知領域を指定する請求項8〜11のいずれか一項に記載の画像処理装置。   The image processing apparatus according to any one of claims 8 to 11, wherein the detection area designating unit designates a plurality of the detection areas in the first display area. 前記検知領域判定手段は、前記検知領域指定手段により指定されたときの前記検知領域内の画像である第2画像と、前記判定時間における前記フレームの前記検知領域の画像との第3差分を演算し、前記第3差分が第3閾値以上となった場合、異常と判定する請求項8〜12のいずれか一項に記載の画像処理装置。   The detection area determination means calculates a third difference between a second image that is an image in the detection area when specified by the detection area specification means and an image of the detection area of the frame at the determination time. The image processing apparatus according to claim 8, wherein when the third difference is equal to or greater than a third threshold value, it is determined that the abnormality is present. 前記検知領域判定手段は、前記検知領域指定手段により指定されたときの前記検知領域内の画像である第2画像と、前記判定時間における前記フレームの前記検知領域の画像との第3差分を演算し、前記第3差分が第3閾値未満となった場合、異常と判定する請求項8〜12のいずれか一項に記載の画像処理装置。   The detection area determination means calculates a third difference between a second image that is an image in the detection area when specified by the detection area specification means and an image of the detection area of the frame at the determination time. The image processing apparatus according to any one of claims 8 to 12, wherein when the third difference is less than a third threshold, it is determined as abnormal. 前記検知領域判定手段は、前記第2画像、および、前記判定時間における前記フレームの前記検知領域の画像の画素値が所定の感度以上異なる画素の数に基づいて前記第3差分を演算し、
前記設定手段は、前記所定の感度を設定する請求項13または14に記載の画像処理装置。
The detection area determination means calculates the third difference based on the number of pixels in which the pixel values of the second image and the image of the detection area of the frame at the determination time differ by a predetermined sensitivity or more,
The image processing apparatus according to claim 13, wherein the setting unit sets the predetermined sensitivity.
前記検知領域指定手段は、前記再生手段が表示する前記映像データに基づいて、前記検知領域を指定する請求項8〜15のいずれか一項に記載の画像処理装置。   The image processing apparatus according to claim 8, wherein the detection area designating unit designates the detection area based on the video data displayed by the reproduction unit. 前記検知領域判定手段が前記画像判定において異常と判定した場合、外部機器に異常である旨を出力する外部出力手段を、さらに備えた請求項8〜16のいずれか一項に記載の画像処理装置。   The image processing apparatus according to any one of claims 8 to 16, further comprising an external output unit that outputs an abnormality to an external device when the detection region determination unit determines that an abnormality has occurred in the image determination. . 前記検出手段は、前記第1差分として、輝度値、または所定の色に関する画素値についての差分を演算する請求項1〜17のいずれか一項に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the detection unit calculates a difference regarding a luminance value or a pixel value related to a predetermined color as the first difference. 前記トリガ領域指定手段は、前記再生手段が表示する前記映像データに基づいて、前記トリガ領域を指定する請求項1〜18のいずれか一項に記載の画像処理装置。   The image processing apparatus according to any one of claims 1 to 18, wherein the trigger area designating unit designates the trigger area based on the video data displayed by the reproduction unit. 1以上の前記撮像手段と、
請求項1〜19のいずれか一項に記載の画像処理装置と、
を備えた画像処理システム。
One or more imaging means;
An image processing device according to any one of claims 1 to 19,
An image processing system.
撮像手段により撮像された映像データを表示手段に表示させる再生ステップと、
前記映像データが表示されている前記表示手段の第1表示領域において、トリガ領域を指定するトリガ領域指定ステップと、
前記トリガ領域を指定した時点を基準にした所定時間分の前記映像データから前記トリガ領域内の画像における変化点を検出し、前記変化点のフレームの前記トリガ領域内の画像を差分画像として抽出する検出ステップと、
前記撮像手段により撮像された映像データが表示されている前記表示手段の第2表示領域における前記トリガ領域内の画像を前記差分画像と比較し、比較結果に応じてトリガを生成する生成ステップと、
を有する画像処理方法。
A reproduction step of causing the display means to display the video data imaged by the imaging means;
A trigger area designating step for designating a trigger area in the first display area of the display means on which the video data is displayed;
A change point in the image in the trigger area is detected from the video data for a predetermined time with reference to the time point when the trigger area is specified, and an image in the trigger area of the frame of the change point is extracted as a difference image. A detection step;
A generation step of comparing an image in the trigger area in the second display area of the display means on which video data captured by the imaging means is displayed with the difference image, and generating a trigger according to the comparison result;
An image processing method.
コンピュータに、
撮像手段により撮像された映像データを表示手段に表示させる再生処理と、
前記映像データが表示されている前記表示手段の第1表示領域において、トリガ領域を指定するトリガ領域指定処理と、
前記トリガ領域を指定した時点を基準にした所定時間分の前記映像データから前記トリガ領域内の画像における変化点を検出し、前記変化点のフレームの前記トリガ領域内の画像を差分画像として抽出する検出処理と、
前記撮像手段により撮像された映像データが表示されている前記表示手段の第2表示領域における前記トリガ領域内の画像を前記差分画像と比較し、比較結果に応じてトリガを生成する生成処理と、
を実行させるプログラム。
On the computer,
A reproduction process for causing the display means to display the video data imaged by the imaging means;
A trigger area designating process for designating a trigger area in the first display area of the display means on which the video data is displayed;
A change point in the image in the trigger area is detected from the video data for a predetermined time with reference to the time point when the trigger area is specified, and an image in the trigger area of the frame of the change point is extracted as a difference image. Detection process,
A generation process for comparing an image in the trigger region in the second display area of the display unit on which video data captured by the imaging unit is displayed with the difference image, and generating a trigger according to the comparison result;
A program that executes
JP2015041577A 2014-08-25 2015-03-03 Image processing apparatus, image processing system, image processing method, and program Active JP6554825B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2015041577A JP6554825B2 (en) 2014-08-25 2015-03-03 Image processing apparatus, image processing system, image processing method, and program
CN201510494581.3A CN105391971B (en) 2014-08-25 2015-08-12 Image processing apparatus, image processing system and image processing method

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2014170735 2014-08-25
JP2014170735 2014-08-25
JP2015041577A JP6554825B2 (en) 2014-08-25 2015-03-03 Image processing apparatus, image processing system, image processing method, and program

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2019128792A Division JP6733785B2 (en) 2014-08-25 2019-07-10 Image processing apparatus, image processing system, image processing method, and program

Publications (2)

Publication Number Publication Date
JP2016048910A true JP2016048910A (en) 2016-04-07
JP6554825B2 JP6554825B2 (en) 2019-08-07

Family

ID=55649590

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2015041577A Active JP6554825B2 (en) 2014-08-25 2015-03-03 Image processing apparatus, image processing system, image processing method, and program
JP2019128792A Active JP6733785B2 (en) 2014-08-25 2019-07-10 Image processing apparatus, image processing system, image processing method, and program

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2019128792A Active JP6733785B2 (en) 2014-08-25 2019-07-10 Image processing apparatus, image processing system, image processing method, and program

Country Status (1)

Country Link
JP (2) JP6554825B2 (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106998450A (en) * 2017-04-21 2017-08-01 林仁昌 A kind of method and system of offer dining room food processing picture
JP2018010368A (en) * 2016-07-11 2018-01-18 株式会社リコー Process determination device, and process determination method
CN110679154A (en) * 2017-10-27 2020-01-10 谷歌有限责任公司 Previewing videos in response to computing device interactions
US10638193B2 (en) 2015-02-05 2020-04-28 Ricoh Company, Ltd. Image processing device, image processing system, and image processing method
JP2020197794A (en) * 2019-05-31 2020-12-10 株式会社日立ソリューションズ Image analysis device, image analysis method and program
US10873719B2 (en) 2015-02-05 2020-12-22 Ricoh Company, Limited Image processing device, image processing system, image processing method, and computer program product
CN113524170A (en) * 2020-04-21 2021-10-22 佳能株式会社 Image processing apparatus for monitoring object, control method thereof, and storage medium

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7131578B2 (en) * 2020-03-13 2022-09-06 株式会社リコー Information processing device, information processing method and program

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004248089A (en) * 2003-02-14 2004-09-02 Canon Inc Image change detection system
JP2005128999A (en) * 2003-05-16 2005-05-19 Hitachi Kokusai Electric Inc Change detecting apparatus
JP2005160017A (en) * 2003-10-30 2005-06-16 Canon Inc Image motion detecting apparatus, image motion detecting method, program and recording medium
JP2008104130A (en) * 2006-10-23 2008-05-01 Hitachi Ltd Apparatus and system for monitoring video
JP2012099979A (en) * 2010-10-29 2012-05-24 Keyence Corp Moving image capturing device, moving image observation method, moving image observation program, and computer-readable recording medium

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004248089A (en) * 2003-02-14 2004-09-02 Canon Inc Image change detection system
JP2005128999A (en) * 2003-05-16 2005-05-19 Hitachi Kokusai Electric Inc Change detecting apparatus
JP2005160017A (en) * 2003-10-30 2005-06-16 Canon Inc Image motion detecting apparatus, image motion detecting method, program and recording medium
JP2008104130A (en) * 2006-10-23 2008-05-01 Hitachi Ltd Apparatus and system for monitoring video
JP2012099979A (en) * 2010-10-29 2012-05-24 Keyence Corp Moving image capturing device, moving image observation method, moving image observation program, and computer-readable recording medium

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10638193B2 (en) 2015-02-05 2020-04-28 Ricoh Company, Ltd. Image processing device, image processing system, and image processing method
US10873719B2 (en) 2015-02-05 2020-12-22 Ricoh Company, Limited Image processing device, image processing system, image processing method, and computer program product
JP2018010368A (en) * 2016-07-11 2018-01-18 株式会社リコー Process determination device, and process determination method
CN106998450A (en) * 2017-04-21 2017-08-01 林仁昌 A kind of method and system of offer dining room food processing picture
CN110679154A (en) * 2017-10-27 2020-01-10 谷歌有限责任公司 Previewing videos in response to computing device interactions
JP2020197794A (en) * 2019-05-31 2020-12-10 株式会社日立ソリューションズ Image analysis device, image analysis method and program
CN113524170A (en) * 2020-04-21 2021-10-22 佳能株式会社 Image processing apparatus for monitoring object, control method thereof, and storage medium
US11839980B2 (en) 2020-04-21 2023-12-12 Canon Kabushiki Kaisha Image processing apparatus monitoring target, control method therefor, and storage medium storing control program therefor
CN113524170B (en) * 2020-04-21 2024-02-27 佳能株式会社 Image processing apparatus for monitoring object, control method thereof, and storage medium

Also Published As

Publication number Publication date
JP2019205185A (en) 2019-11-28
JP6554825B2 (en) 2019-08-07
JP6733785B2 (en) 2020-08-05

Similar Documents

Publication Publication Date Title
JP6733785B2 (en) Image processing apparatus, image processing system, image processing method, and program
JP6816802B2 (en) Image processing equipment, image processing systems, image processing methods and programs
JP6390720B2 (en) Image processing apparatus, image processing system, and image processing method
JP3823333B2 (en) Moving image change point detection method, moving image change point detection apparatus, moving image change point detection system
US8036470B2 (en) Image processing apparatus, image processing method, and program
US10049703B2 (en) Data reproduction apparatus, control method for data reproduction apparatus, and recording medium storing control program
CN105391971A (en) Image processing device, image processing system and image processing method
JP6828377B2 (en) Image processing equipment, image processing systems, image processing methods and programs
JP2018084443A (en) Image processing apparatus, image processing system, image processing method, and image processing program
JP2021027579A (en) Image determination device and image determination system
JP2016039496A (en) Image processing apparatus, image processing system, image processing method and program
JP2007149095A (en) Method and device for detecting variation point of moving image
EP4362457A2 (en) Image-based determination apparatus and image-based determination system
JP6632360B2 (en) Information processing device
JP5025567B2 (en) Operation content reproduction system and operation content reproduction program
JP2017011498A (en) Moving image reproduction device and moving image reproduction method
JP2020065248A (en) Image processing apparatus, image processing system, image processing method and program
JP3941808B2 (en) Moving image change point detection method and apparatus
JP2021002698A (en) Display control device, display control method, and program
JP2010093348A (en) Image processing apparatus, image processing method, and image processing program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180208

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20181129

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20181218

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190218

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190611

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190624

R151 Written notification of patent or utility model registration

Ref document number: 6554825

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151