JP2021027579A - Image determination device and image determination system - Google Patents

Image determination device and image determination system Download PDF

Info

Publication number
JP2021027579A
JP2021027579A JP2020105414A JP2020105414A JP2021027579A JP 2021027579 A JP2021027579 A JP 2021027579A JP 2020105414 A JP2020105414 A JP 2020105414A JP 2020105414 A JP2020105414 A JP 2020105414A JP 2021027579 A JP2021027579 A JP 2021027579A
Authority
JP
Japan
Prior art keywords
image
image data
unit
information processing
detection area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2020105414A
Other languages
Japanese (ja)
Inventor
慶二 大村
Keiji Omura
慶二 大村
翔太郎 小元
Shotaro Komoto
翔太郎 小元
有芸人 田島
Akito Tajima
有芸人 田島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to US16/929,162 priority Critical patent/US11223802B2/en
Priority to EP20187931.9A priority patent/EP3772219A3/en
Priority to EP24163826.1A priority patent/EP4362457A2/en
Priority to EP23207938.4A priority patent/EP4294003A3/en
Priority to CN202010751845.XA priority patent/CN112307882A/en
Publication of JP2021027579A publication Critical patent/JP2021027579A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Closed-Circuit Television Systems (AREA)

Abstract

To provide an image determination device and an image determination system that do not limit image data to be determined to image data output from an imaging apparatus, but can include image data from a device other than the imaging apparatus in the image data to be determined.SOLUTION: An image determination device can perform image determination, and comprises: a receiving unit that, of first image data and second image data output from another device outputting an image to be an object of image determination, at least the second image data; a first play-back unit that plays back and displays the received at least second image data on a display unit; a specification unit that specifies a detection area to be an object of image determination in a first display area of the display unit where the first image data or the second image data is played back and displayed; and a determination unit that performs image determination for the first image data or the second image data in the detection area in a second display area of the display unit where at least one of the first image data and the second image data is displayed.SELECTED DRAWING: Figure 3

Description

本発明は、画像判定装置および画像判定システムに関する。 The present invention relates to an image determination device and an image determination system.

近年、ビデオカメラ等の撮像装置により録画して得られた画像データを分析して、目的物の検出、または、画像データ上の物体の動きもしくは異常の判定等を行う画像判定システムの発展が著しい。このような画像判定システムは、例えば、製品の生産ライン等において適用される。 In recent years, the development of an image judgment system that analyzes image data recorded by an image pickup device such as a video camera to detect an object or determine the movement or abnormality of an object on the image data has been remarkable. .. Such an image determination system is applied, for example, in a product production line or the like.

このような、画像に基づいて物体の動きまたは異常の判定等を行う画像監視システムとして、監視対象を撮影した監視対象画像から、作業者の作業領域または作業時刻についてユーザにより設定された条件に従って画像を抽出する画像抽出手段と、作業者の作業領域、作業時間、または作業内容についてユーザにより設定された特定のイベントに関連付けられたマークを画像抽出手段により抽出された画像に関連付け、リストを生成して記憶装置に記憶するリスト生成手段と、記憶装置に記憶されたリストを読み込み、表示装置に表示させると共に、表示装置に表示されたリストからマークが選択されたとき、マークに関連付けられた画像を特定し、表示装置に再生表示するように制御する再生制御手段と、を有する技術が開示されている(例えば特許文献1)。 As an image monitoring system that determines the movement or abnormality of an object based on such an image, an image is taken from the monitored image of the monitored object according to the conditions set by the user for the worker's work area or working time. An image extraction means for extracting images and a mark associated with a specific event set by the user for the worker's work area, work time, or work content are associated with the image extracted by the image extraction means to generate a list. When a mark is selected from the list generation means stored in the storage device and the list stored in the storage device and displayed on the display device, and the mark is selected from the list displayed on the display device, the image associated with the mark is displayed. A technique is disclosed that includes a reproduction control means that identifies and controls the reproduction and display on a display device (for example, Patent Document 1).

しかしながら、特許文献1に記載された技術は、画像判定装置に接続するデバイスとしてIP(Internet Proctocol)カメラ(ネットワークカメラ)等の撮像装置のみであり、当該撮像装置により撮影された画像データに対する判定処理しか行うことができないという問題がある。 However, the technique described in Patent Document 1 is only an image pickup device such as an IP (Internet Protocol) camera (network camera) as a device connected to the image determination device, and a determination process for image data captured by the image pickup device is used. There is a problem that it can only be done.

本発明は、上記に鑑みてなされたものであって、判定対象となる画像データは撮像装置から出力された画像データに限定せずに、撮像装置以外のデバイスからの画像データについても判定対象とすることができる画像判定装置および画像判定システムを提供することを目的とする。 The present invention has been made in view of the above, and the image data to be determined is not limited to the image data output from the imaging device, but the image data from a device other than the imaging device is also subject to determination. It is an object of the present invention to provide an image determination device and an image determination system capable of performing the above.

上述した課題を解決し、目的を達成するために、本発明は、画像データに対して画像判定が可能な画像判定装置であって、撮像装置から出力された第1画像データ、および、前記画像判定の対象となる画像データを出力する該撮像装置とは別のデバイスから出力された第2画像データのうち少なくとも該第2画像データを受信する受信部と、前記受信部により受信された少なくとも前記第2画像データを表示装置に再生表示させる第1再生部と、前記第1画像データまたは前記第2画像データが再生表示される前記表示装置の第1表示領域において、前記画像判定の対象となる検知領域を指定する指定部と、前記第1画像データおよび前記第2画像データのうち少なくとも一方が表示される前記表示装置の第2表示領域における前記検知領域内の前記第1画像データまたは前記第2画像データに対して前記画像判定を行う判定部と、を備えたことを特徴とする。 In order to solve the above-mentioned problems and achieve the object, the present invention is an image determination device capable of image determination on image data, the first image data output from the image pickup device, and the image. Of the second image data output from a device other than the imaging device that outputs the image data to be determined, at least a receiving unit that receives the second image data, and at least the receiving unit received by the receiving unit. The image determination is performed in the first reproduction unit for reproducing and displaying the second image data on the display device and the first display area of the display device on which the first image data or the second image data is reproduced and displayed. The first image data or the first image data in the detection area in the second display area of the display device in which at least one of the first image data and the second image data is displayed by the designation unit that specifies the detection area. 2. It is characterized by including a determination unit that performs the image determination on the image data.

本発明によれば、判定対象となる画像データは撮像装置から出力された画像データに限定せずに、撮像装置以外のデバイスからの画像データについても判定対象とすることができる。 According to the present invention, the image data to be determined is not limited to the image data output from the imaging device, but the image data from a device other than the imaging device can also be determined.

図1は、実施形態に係る画像判定システムの全体構成の一例を示す図である。FIG. 1 is a diagram showing an example of the overall configuration of the image determination system according to the embodiment. 図2は、実施形態に係る情報処理装置のハードウェア構成の一例を示す図である。FIG. 2 is a diagram showing an example of the hardware configuration of the information processing apparatus according to the embodiment. 図3は、実施形態に係る情報処理装置の機能ブロックの構成の一例を示す図である。FIG. 3 is a diagram showing an example of the configuration of the functional block of the information processing apparatus according to the embodiment. 図4は、実施形態に係る情報処理装置において記憶装置に記憶される情報のディレクトリ構造の一例を示す図である。FIG. 4 is a diagram showing an example of a directory structure of information stored in the storage device in the information processing device according to the embodiment. 図5は、実施形態に係る情報処理装置の表示装置に表示されるウォッチャ画面において複数のリアルタイムの画像データが表示される例を示す図である。FIG. 5 is a diagram showing an example in which a plurality of real-time image data is displayed on a watcher screen displayed on the display device of the information processing apparatus according to the embodiment. 図6は、実施形態に係る情報処理装置の表示装置に表示される設定画面で画像データが表示される状態の一例を示す図である。FIG. 6 is a diagram showing an example of a state in which image data is displayed on a setting screen displayed on the display device of the information processing device according to the embodiment. 図7は、実施形態に係る情報処理装置の表示装置に表示される設定画面において設定用画像表示部に検知領域を指定する例を示す図である。FIG. 7 is a diagram showing an example of designating a detection area in the setting image display unit on the setting screen displayed on the display device of the information processing device according to the embodiment. 図8は、実施形態に係る情報処理装置の表示装置に表示されるウォッチャ画面で監視動作が実行される状態の一例を示す図である。FIG. 8 is a diagram showing an example of a state in which a monitoring operation is executed on a watcher screen displayed on the display device of the information processing device according to the embodiment. 図9は、実施形態に係る情報処理装置の表示装置に表示されるウォッチャ画面で実行される監視動作で検知領域で画像判定が行われた状態の一例を示す図である。FIG. 9 is a diagram showing an example of a state in which image determination is performed in the detection area in the monitoring operation executed on the watcher screen displayed on the display device of the information processing device according to the embodiment. 図10は、実施形態に係る画像判定システムの全体構成において仮想カメラを画像判定システムとした場合の一例を示す図である。FIG. 10 is a diagram showing an example of a case where a virtual camera is used as an image determination system in the overall configuration of the image determination system according to the embodiment. 図11は、実施形態に係る情報処理装置の表示装置に表示されるウォッチャ画面において、仮想カメラとしての画像判定システムから出力されたウォッチャ画面が表示された状態の一例を示す図である。FIG. 11 is a diagram showing an example of a state in which the watcher screen output from the image determination system as a virtual camera is displayed on the watcher screen displayed on the display device of the information processing device according to the embodiment. 図12は、実施形態に係る画像判定システムに対して、仮想カメラとしての画像判定システムが多段で接続される状態を説明する図である。FIG. 12 is a diagram illustrating a state in which an image determination system as a virtual camera is connected in multiple stages to the image determination system according to the embodiment. 図13は、実施形態に係る情報処理装置の表示装置に表示されるビューワ画面で録画された画像データが再生表示される状態の一例を示す図である。FIG. 13 is a diagram showing an example of a state in which the image data recorded on the viewer screen displayed on the display device of the information processing apparatus according to the embodiment is reproduced and displayed. 図14は、実施形態に係る情報処理装置の表示装置に表示されるビューワ画面でマーカリスト画面が表示された状態の一例を示す図である。FIG. 14 is a diagram showing an example of a state in which the marker list screen is displayed on the viewer screen displayed on the display device of the information processing device according to the embodiment. 図15は、変形例1に係る画像判定システムの全体構成の一例を示す図である。FIG. 15 is a diagram showing an example of the overall configuration of the image determination system according to the first modification. 図16は、変形例2に係る画像判定システムの全体構成の一例を示す図である。FIG. 16 is a diagram showing an example of the overall configuration of the image determination system according to the second modification. 図17は、変形例3に係る画像判定システムに接続される仮想カメラが出力する画像として音を可視化するソフトウェアの画像について説明する図である。FIG. 17 is a diagram illustrating an image of software that visualizes sound as an image output by a virtual camera connected to the image determination system according to the third modification. 図18は、変形例4に係る画像判定システムの全体構成の一例を示す図である。FIG. 18 is a diagram showing an example of the overall configuration of the image determination system according to the modified example 4. 図19は、変形例5に係る画像判定システムに接続される仮想カメラが出力する画像としてデータからグラフをプロットするソフトウェアの画像について説明する図である。FIG. 19 is a diagram illustrating an image of software that plots a graph from data as an image output by a virtual camera connected to the image determination system according to the fifth modification. 図20は、変形例6に係る画像判定システムの全体構成の一例を示す図である。FIG. 20 is a diagram showing an example of the overall configuration of the image determination system according to the modified example 6.

以下に、図面を参照しながら、本発明に係る画像判定装置および画像判定システムの実施形態を詳細に説明する。また、以下の実施形態によって本発明が限定されるものではなく、以下の実施形態における構成要素には、当業者が容易に想到できるもの、実質的に同一のもの、およびいわゆる均等の範囲のものが含まれる。さらに、以下の実施形態の要旨を逸脱しない範囲で構成要素の種々の省略、置換、変更および組み合わせを行うことができる。 Hereinafter, embodiments of the image determination device and the image determination system according to the present invention will be described in detail with reference to the drawings. Further, the present invention is not limited by the following embodiments, and the components in the following embodiments include those easily conceived by those skilled in the art, substantially the same, and so-called equivalent ranges. Is included. Furthermore, various omissions, substitutions, changes and combinations of components can be made without departing from the gist of the following embodiments.

(画像処理システムの全体構成)
図1は、実施形態に係る画像判定システムの全体構成の一例を示す図である。図1を参照しながら、本実施形態に係る画像判定システム1の全体構成について説明する。
(Overall configuration of image processing system)
FIG. 1 is a diagram showing an example of the overall configuration of the image determination system according to the embodiment. The overall configuration of the image determination system 1 according to the present embodiment will be described with reference to FIG.

図1に示すように、画像判定システム1は、撮像装置2b〜2fと、仮想カメラ5と、ハブ4と、情報処理装置3と、を含む。 As shown in FIG. 1, the image determination system 1 includes image pickup devices 2b to 2f, a virtual camera 5, a hub 4, and an information processing device 3.

撮像装置2b〜2fは、被写体から光を電気信号に変換することによって被写体を撮像(撮影)し、複数のフレームで構成された動画(例えば、10[FPS])である画像データ(第1画像データ)を生成するIPカメラ(ネットワークカメラ)である。例えば、撮像装置2b〜2fは、製品を生産する生産設備または生産ライン等を撮像し、製造物であるワークに対する異常を検知するため、または、作業者の作業工程の誤りを判定するため等の画像データを生成する。 The image pickup devices 2b to 2f image (shoot) the subject by converting light from the subject into an electric signal, and image data (first image) which is a moving image (for example, 10 [FPS]) composed of a plurality of frames. It is an IP camera (network camera) that generates data). For example, the image pickup devices 2b to 2f image a production facility or a production line that produces a product, detect an abnormality in a workpiece as a product, or determine an error in a worker's work process. Generate image data.

なお、撮像装置2b〜2fを区別なく呼称する場合、または総称する場合、単に「撮像装置2」というものとする。また、図1では、画像判定システム1は、5台の撮像装置2を含む構成となっているが、これに限定されるものではなく、他の台数の撮像装置2を含む構成であってもよい。 When the image pickup devices 2b to 2f are referred to without distinction, or when they are collectively referred to, they are simply referred to as "imaging device 2". Further, in FIG. 1, the image determination system 1 is configured to include five image pickup devices 2, but the present invention is not limited to this, and the image determination system 1 may include another number of image pickup devices 2. Good.

仮想カメラ5は、撮像装置2b〜2fのように、直接、撮影された撮像画像等を判定対象として情報処理装置3へ出力する装置ではなく、異常等の有無の判定対象とする動画、キャプチャ画像および生成画像等の画像データ(第2画像データの一例)を出力することができる装置およびシステム等であるデバイスを示すものとする。本実施形態では、仮想カメラ5は、後述するように、画像判定システム1の構成に準じる形態を有する別の画像判定システムであるものとする。仮想カメラ5は、本発明の「別のデバイス」に相当する。 The virtual camera 5 is not a device that directly outputs a captured image or the like to the information processing device 3 as a determination target like the image pickup devices 2b to 2f, but a moving image or a captured image that is a determination target for the presence or absence of an abnormality or the like. And a device such as a device and a system capable of outputting image data such as a generated image (an example of a second image data). In the present embodiment, as will be described later, the virtual camera 5 is another image determination system having a form similar to the configuration of the image determination system 1. The virtual camera 5 corresponds to "another device" of the present invention.

なお、図1では、画像判定システム1は、1の仮想カメラ5を含む構成となっているが、これに限定されるものではなく、他の台数の仮想カメラ5を含む構成であってもよい。また、画像データは、複数のフレームで構成された動画像として説明しているが、1枚のフレームで構成された静止画像を含む。また、撮像装置2b〜2fから出力された画像データを第1画像データ、仮想カメラ5から出力された画像データを第2画像データとしているが、これは画像データの出力元が撮像装置2b〜2fか仮想カメラ5かを区別するためのものである。 Note that, in FIG. 1, the image determination system 1 is configured to include one virtual camera 5, but the present invention is not limited to this, and may be configured to include another number of virtual cameras 5. .. Further, although the image data is described as a moving image composed of a plurality of frames, the image data includes a still image composed of one frame. Further, the image data output from the image pickup devices 2b to 2f is used as the first image data, and the image data output from the virtual camera 5 is used as the second image data. The output source of the image data is the image pickup devices 2b to 2f. This is for distinguishing between the virtual camera 5 and the virtual camera 5.

ハブ4は、撮像装置2b〜2fと、仮想カメラ5と、情報処理装置3とを接続してLAN(Local Area Network)を形成するための、例えば、Ethernet(登録商標)規格に対応したスイッチングハブである。上述の撮像装置2b〜2f、仮想カメラ5および情報処理装置3は、それぞれIPアドレス(およびMAC(Media Access Control)アドレス)を有しているため、スイッチングハブであるハブ4を介してLANを構成することが可能である。この場合、当該LANでは、TCP(Transmission Control Protocol)/IP(Internet Protocol)等のプロトコルによりデータ通信が行われる。 The hub 4 is a switching hub corresponding to, for example, an Ethernet® standard for connecting the image pickup devices 2b to 2f, the virtual camera 5, and the information processing device 3 to form a LAN (Local Area Network). Is. Since the above-mentioned image pickup devices 2b to 2f, the virtual camera 5 and the information processing device 3 each have an IP address (and a MAC (Media Access Control) address), a LAN is configured via a hub 4 which is a switching hub. It is possible to do. In this case, in the LAN, data communication is performed by a protocol such as TCP (Transmission Control Protocol) / IP (Internet Protocol).

情報処理装置3は、撮像装置2から出力された画像データ(第1画像データ)、および仮想カメラ5から出力された動画等の画像データ(第2画像データ)に基づいて画像判定を実行する画像判定装置として機能するPC(Personal Computer)またワークステーション等である。また、情報処理装置3は、生産設備等の外部機器10と、例えばフィールドバスによってデータ通信が可能となるように接続している。フィールドバスによる通信規格としては、例えば、欧州で使用されるProfibus(プロフィバス)、または三菱電機社のCC−Link(登録商標)等がある。 The information processing device 3 executes image determination based on the image data (first image data) output from the image pickup device 2 and the image data (second image data) such as a moving image output from the virtual camera 5. A PC (Personal Computer) or a workstation that functions as a determination device. Further, the information processing device 3 is connected to an external device 10 such as a production facility so that data communication can be performed by, for example, a field bus. Examples of fieldbus communication standards include Profibus (Profibus) used in Europe and CC-Link (registered trademark) of Mitsubishi Electric Corporation.

なお、図1に示したLANでは、TCP/IPにより通信される例を示したが、これに限定されるものではなく、例えば、情報処理装置3側にVGA(Video Graphics Array)端子またはUSB(Universal Serial Bus)ポートを複数有し、複数の撮像装置2、または仮想カメラ5がVGAケーブルまたはUSBケーブルで情報処理装置3に接続された形態等であってもよい。 In the LAN shown in FIG. 1, an example of communication by TCP / IP is shown, but the present invention is not limited to this, and for example, a VGA (Video Graphics Array) terminal or a USB (Video Graphics Array) terminal or USB (on the information processing device 3 side) is shown. It may have a plurality of Universal Serial Bus) ports, and a plurality of image pickup devices 2 or a virtual camera 5 may be connected to an information processing device 3 with a VGA cable or a USB cable.

(情報処理装置のハードウェア構成)
図2は、実施形態に係る情報処理装置のハードウェア構成の一例を示す図である。図2を参照しながら、本実施形態に係る情報処理装置3のハードウェア構成について説明する。
(Hardware configuration of information processing device)
FIG. 2 is a diagram showing an example of the hardware configuration of the information processing device according to the embodiment. The hardware configuration of the information processing apparatus 3 according to the present embodiment will be described with reference to FIG.

図2に示すように、情報処理装置3は、CPU(Central Processing Unit)101と、ROM(Read Only Memory)102と、RAM(Random Access Memory)103と、補助記憶装置104と、ディスプレイ105(表示装置)と、ネットワークI/F106と、キーボード107(入力装置の一例)と、マウス108(入力装置の一例)と、DVD(Digital Versatile Disc)ドライブ109と、外部機器I/F111と、スピーカ112と、を備えている。 As shown in FIG. 2, the information processing device 3 includes a CPU (Central Processing Unit) 101, a ROM (Read Only Memory) 102, a RAM (Random Access Memory) 103, an auxiliary storage device 104, and a display 105 (display). Device), network I / F 106, keyboard 107 (example of input device), mouse 108 (example of input device), DVD (Digital Peripheral Disc) drive 109, external device I / F 111, speaker 112, and so on. , Is equipped.

CPU101は、情報処理装置3全体の動作を制御する装置である。ROM102は、情報処理装置3用のプログラムおよびBIOS(Basic Input/Output System)等を記憶している不揮発性記憶装置である。RAM103は、CPU101のワークエリアとして使用される揮発性記憶装置である。 The CPU 101 is a device that controls the operation of the entire information processing device 3. The ROM 102 is a non-volatile storage device that stores a program for the information processing device 3, a BIOS (Basic Input / Output System), and the like. The RAM 103 is a volatile storage device used as a work area of the CPU 101.

補助記憶装置104は、撮像装置2から出力された画像データ(第1画像データ)、仮想カメラ5により出力された動画等の画像データ(第2画像データ)、および設定情報等の各種データを記憶するHDD(Hard Disk Drive)またはSSD(Solid State Drive)等の記憶装置である。 The auxiliary storage device 104 stores various data such as image data (first image data) output from the image pickup device 2, image data (second image data) such as a moving image output by the virtual camera 5, and setting information. A storage device such as an HDD (Hard Disk Drive) or an SSD (Solid State Drive).

ディスプレイ105は、カーソル、メニュー、ウィンドウ、文字もしくは画像等の各種情報、または情報処理装置3による画像判定動作を実行するアプリケーションの画面を表示する表示装置である。ディスプレイ105は、例えば、CRT(Cathode Ray Tube)ディスプレイ、液晶ディスプレイ(Liquid Crystal Display:LCD)、または有機EL(Electroluminescence)ディスプレイ等である。なお、ディスプレイ105は、例えば、情報処理装置3の本体に対して、VGAケーブルまたはHDMI(登録商標)(High−Definition Multimedia Interface)ケーブル等によって接続されたり、または、Ethernetケーブルによって接続される。 The display 105 is a display device that displays various information such as cursors, menus, windows, characters or images, or a screen of an application that executes an image determination operation by the information processing device 3. The display 105 is, for example, a CRT (Cathode Ray Tube) display, a liquid crystal display (LCD), an organic EL (Electroluminance) display, or the like. The display 105 is connected to the main body of the information processing device 3, for example, by a VGA cable, an HDMI (registered trademark) (High-Definition Multimedia Interface) cable, or the like, or is connected by an Ethernet cable.

ネットワークI/F106は、ハブ4に接続してデータ通信するためのインターフェースである。ネットワークI/F106は、例えば、TCP/IPのプロトコルで通信可能にするNIC(Network Interface Card)である。具体的には、情報処理装置3は、撮像装置2、および仮想カメラ5から、ハブ4およびネットワークI/F106を介して、画像データを取得する。なお、ネットワークI/F106は、Wi−Fi(登録商標)等の通信規格に準拠した無線I/Fであってもよい。 The network I / F 106 is an interface for connecting to the hub 4 for data communication. The network I / F 106 is, for example, a NIC (Network Interface Card) that enables communication using the TCP / IP protocol. Specifically, the information processing device 3 acquires image data from the image pickup device 2 and the virtual camera 5 via the hub 4 and the network I / F 106. The network I / F 106 may be a wireless I / F conforming to a communication standard such as Wi-Fi (registered trademark).

キーボード107は、文字、数字、各種指示の選択、カーソルの移動、および設定情報の設定等を行う入力装置である。マウス108は、各種指示の選択および実行、処理対象の選択、カーソルの移動、ならびに設定情報の設定等を行うための入力装置である。 The keyboard 107 is an input device for selecting characters, numbers, various instructions, moving a cursor, setting setting information, and the like. The mouse 108 is an input device for selecting and executing various instructions, selecting a processing target, moving a cursor, setting setting information, and the like.

DVDドライブ109は、着脱自在な記憶媒体の一例としてのDVD110に対するデータの読み出し、書き込みおよび削除を制御する装置である。なお、DVDドライブ109で読み出しまたは書き込みを行う記憶媒体としては、DVDに限定されるものではなく、例えば、CD−ROM(Compact Disc−Read Only Memory)、CD−R(Compact Disc−Recordable)、DVD−R、DVD−RW(DVD ReWritable)、またはブルーレイディスク等であってもよい。 The DVD drive 109 is a device that controls reading, writing, and deleting of data to a DVD 110 as an example of a removable storage medium. The storage medium for reading or writing with the DVD drive 109 is not limited to DVD, and is, for example, a CD-ROM (Compact Disc-Read Only Memory), a CD-R (Compact Disc-Recordable), or a DVD. -R, DVD-RW (DVD Rewritable), Blu-ray disc, or the like may be used.

外部機器I/F111は、外部機器10と接続してデータ通信をするためのインターフェースである。外部機器I/F111は、例えば、フィールドバスにより通信を可能にするインターフェースである。具体的には、情報処理装置3は、外部機器10と、外部機器I/F111を介してデータ通信を行う。 The external device I / F 111 is an interface for connecting to the external device 10 for data communication. The external device I / F 111 is, for example, an interface that enables communication by a field bus. Specifically, the information processing device 3 performs data communication with the external device 10 via the external device I / F 111.

スピーカ112は、アプリケーションの動作に従って音声を出力する装置である。 The speaker 112 is a device that outputs sound according to the operation of the application.

上述のCPU101、ROM102、RAM103、補助記憶装置104、ディスプレイ105、ネットワークI/F106、キーボード107、マウス108、DVDドライブ109、外部機器I/F111およびスピーカ112は、アドレスバスおよびデータバス等のバス113によって互いに通信可能に接続されている。なお、ディスプレイ105が、Ethernetケーブルによって接続される場合には、ネットワークI/F106に接続されることになり、この場合、TCP/IP等のプロトコルによりデータ通信が行われる。 The CPU 101, ROM 102, RAM 103, auxiliary storage device 104, display 105, network I / F 106, keyboard 107, mouse 108, DVD drive 109, external device I / F 111, and speaker 112 are the buses 113 such as the address bus and the data bus. Are connected so that they can communicate with each other. When the display 105 is connected by an Ethernet cable, it is connected to the network I / F 106, and in this case, data communication is performed by a protocol such as TCP / IP.

(情報処理装置のブロック構成)
図3は、実施形態に係る情報処理装置の機能ブロックの構成の一例を示す図である。図3を参照しながら、本実施形態に係る情報処理装置3の機能ブロックの構成について説明する。
(Block configuration of information processing device)
FIG. 3 is a diagram showing an example of the configuration of the functional block of the information processing apparatus according to the embodiment. The configuration of the functional block of the information processing apparatus 3 according to the present embodiment will be described with reference to FIG.

図3に示すように、情報処理装置3は、画像受信部301(受信部)と、記憶部302と、入力部303(入力装置)と、第1再生部304と、設定部308と、検知領域指定部309(指定部)と、画像振分部312と、検知領域判定部314(判定部)と、第1制御部316と、第2再生部318と、領域表示制御部319と、リスト制御部320と、第2制御部321と、表示制御部331と、外部出力部332と、表示部333(表示装置)と、を有する。なお、図3においては、説明を簡略化するため、ハブ4の図示を省略して説明する。 As shown in FIG. 3, the information processing device 3 detects an image receiving unit 301 (receiving unit), a storage unit 302, an input unit 303 (input device), a first reproduction unit 304, a setting unit 308, and the like. Area designation unit 309 (designation unit), image distribution unit 312, detection area determination unit 314 (judgment unit), first control unit 316, second reproduction unit 318, area display control unit 319, and a list. It has a control unit 320, a second control unit 321, a display control unit 331, an external output unit 332, and a display unit 333 (display device). In FIG. 3, for simplification of the description, the hub 4 will be omitted from the illustration.

画像受信部301は、撮像装置2および仮想カメラ5とデータ通信を行い、撮像装置2から画像データ、および仮想カメラ5からの画像データを受信する機能部である。画像受信部301は、受信した画像データを記憶部302に記憶させる。画像受信部301は、図2に示すネットワークI/F106、およびCPU101によりプログラムが実行されることによって実現される。 The image receiving unit 301 is a functional unit that performs data communication with the image pickup device 2 and the virtual camera 5 and receives image data from the image pickup device 2 and image data from the virtual camera 5. The image receiving unit 301 stores the received image data in the storage unit 302. The image receiving unit 301 is realized by executing a program by the network I / F 106 shown in FIG. 2 and the CPU 101.

記憶部302は、画像受信部301により受信された画像データ、各種設定情報、および後述する時刻情報等を記憶する記憶装置である。記憶部302は、画像受信部301により受信された画像データおよび画像が、どの撮像装置2または仮想カメラ5により生成された画像データまたは画像であるかを識別して記憶する。記憶部302は、例えば、図2に示すRAM103または補助記憶装置104によって実現される。 The storage unit 302 is a storage device that stores image data received by the image receiving unit 301, various setting information, time information described later, and the like. The storage unit 302 identifies and stores which image data or image received by the image receiving unit 301 is the image data or image generated by the imaging device 2 or the virtual camera 5. The storage unit 302 is realized by, for example, the RAM 103 or the auxiliary storage device 104 shown in FIG.

入力部303は、情報処理装置3が実行する画像判定動作等のための操作入力を行う装置である。入力部303は、図2に示すキーボード107およびマウス108によって実現される。 The input unit 303 is a device that performs operation input for an image determination operation or the like executed by the information processing device 3. The input unit 303 is realized by the keyboard 107 and the mouse 108 shown in FIG.

第1再生部304は、ユーザにより操作される入力部303からの操作信号に従って、記憶部302から取得した画像データを表示制御部331に送り、表示制御部331に対して画像データを表示部333に再生表示させる機能部である。具体的には、第1再生部304は、図6等で後述する表示部333に表示される設定画面500の設定用画像表示部502に画像データを再生表示させる。第1再生部304は、図2に示すCPU101によりプログラムが実行されることによって実現される。 The first reproduction unit 304 sends the image data acquired from the storage unit 302 to the display control unit 331 according to the operation signal from the input unit 303 operated by the user, and sends the image data to the display control unit 331 to the display unit 333. It is a functional part to play and display on. Specifically, the first reproduction unit 304 causes the setting image display unit 502 of the setting screen 500 displayed on the display unit 333 described later in FIG. 6 or the like to reproduce and display the image data. The first reproduction unit 304 is realized by executing a program by the CPU 101 shown in FIG.

設定部308は、ユーザにより操作される入力部303からの操作信号に従って、各種設定情報を設定して記憶部302に記憶させる機能部である。また、設定部308は、設定した設定情報のうち、表示する必要がある情報を、記憶部302から表示制御部331に送り、表示制御部331に対して設定情報を表示部333に表示させる。設定部308は、図2に示すCPU101によりプログラムが実行されることによって実現される。 The setting unit 308 is a functional unit that sets various setting information according to an operation signal from the input unit 303 operated by the user and stores it in the storage unit 302. Further, the setting unit 308 sends the information that needs to be displayed among the set setting information from the storage unit 302 to the display control unit 331, and causes the display control unit 331 to display the setting information on the display unit 333. The setting unit 308 is realized by executing a program by the CPU 101 shown in FIG.

検知領域指定部309は、ユーザにより操作される入力部303からの操作信号に従って、表示部333における画像データの表示領域(設定用画像表示部502)(第1表示領域)において、異常等を検知する画像判定動作の対象となる検知領域を指定する機能部である。検知領域指定部309は、指定した検知領域の情報を、撮像装置2または仮想カメラ5ごとに関連付けて記憶部302に記憶させる。また、検知領域の情報とは、例えば、画像データまたは画像の表示領域における検知領域の位置を示す座標、および検知領域の形状等の情報である。検知領域指定部309により指定された検知領域は、後述する検知機能で使用される。検知領域指定部309は、図2に示すCPU101によりプログラムが実行されることによって実現される。 The detection area designation unit 309 detects an abnormality or the like in the image data display area (setting image display unit 502) (first display area) of the display unit 333 according to the operation signal from the input unit 303 operated by the user. This is a functional unit that specifies the detection area that is the target of the image determination operation to be performed. The detection area designation unit 309 stores the information of the designated detection area in the storage unit 302 in association with each image pickup device 2 or the virtual camera 5. Further, the information of the detection area is, for example, information such as coordinates indicating the position of the detection area in the image data or the display area of the image, the shape of the detection area, and the like. The detection area designated by the detection area designation unit 309 is used in the detection function described later. The detection area designation unit 309 is realized by executing a program by the CPU 101 shown in FIG.

なお、上述の画像判定動作には、上述のように異常であるか否かの判定(異常検知)のほか、特定の事象が発生したか否かの判定等も想定されるが、本実施形態では説明を簡潔にするため、画像判定動作として異常であるか否かの判定(異常検知)動作を例に挙げて説明するものとする。 In the above-mentioned image determination operation, in addition to the determination of whether or not an abnormality has occurred (abnormality detection) as described above, the determination of whether or not a specific event has occurred is assumed. Then, for the sake of brevity, the image determination operation of determining whether or not an abnormality is occurring (abnormality detection) will be described as an example.

画像振分部312は、ユーザにより操作される入力部303からの操作信号に従って、画像受信部301から取得したリアルタイムの画像データを表示制御部331に送り、表示制御部331に対して当該画像データおよび画像を表示部333に表示させる機能部である。具体的には、画像振分部312は、図5等で後述する表示部333に表示されるウォッチャ画面400の画像表示部401a〜401fに、対応する画像データおよび画像を振り分けて表示させる。また、画像振分部312は、画像表示部401a〜401fに表示せせる各画像データを、記憶部302に記憶(録画)させる。画像振分部312は、図2に示すCPU101によりプログラムが実行されることによって実現される。 The image distribution unit 312 sends real-time image data acquired from the image reception unit 301 to the display control unit 331 according to an operation signal from the input unit 303 operated by the user, and sends the image data to the display control unit 331. It is a functional unit that displays an image on the display unit 333. Specifically, the image distribution unit 312 distributes and displays the corresponding image data and images on the image display units 401a to 401f of the watcher screen 400 displayed on the display unit 333 described later in FIG. 5 and the like. Further, the image distribution unit 312 stores (records) each image data to be displayed on the image display units 401a to 401f in the storage unit 302. The image distribution unit 312 is realized by executing a program by the CPU 101 shown in FIG.

検知領域判定部314は、監視動作が開始された後、後述する図5のウォッチャ画面400の画像表示部401a〜401fにおける検知領域において、検知基準画像と、画像データとしてのフレームまたは画像における検知領域の画像とを比較して異常であるか否かの判定を実行する機能部である。検知領域判定部314は、図2に示すCPU101によりプログラムが実行されることによって実現される。 After the monitoring operation is started, the detection area determination unit 314 sets the detection reference image and the detection area in the frame or image as image data in the detection area in the image display units 401a to 401f of the watcher screen 400 of FIG. It is a functional part that compares with the image of the above and executes the determination of whether or not it is abnormal. The detection area determination unit 314 is realized by executing a program by the CPU 101 shown in FIG.

第1制御部316は、ユーザにより操作される入力部303からの操作信号に従って、後述する図5のウォッチャ画面400において監視動作の開始および停止を行うことのほか、ウォッチャ画面400の動作全体を制御する機能部である。第1制御部316は、図2に示すCPU101によりプログラムが実行されることによって実現される。 The first control unit 316 starts and stops the monitoring operation on the watcher screen 400 of FIG. 5, which will be described later, in accordance with the operation signal from the input unit 303 operated by the user, and also controls the entire operation of the watcher screen 400. It is a functional part to do. The first control unit 316 is realized by executing a program by the CPU 101 shown in FIG.

第2再生部318は、ユーザにより操作される入力部303からの操作信号に従って、記憶部302から取得した画像データを表示制御部331に送り、表示制御部331に対して画像データおよび画像を表示部333に再生表示させる機能部である。具体的には、第2再生部318は、図13等で後述する表示部333に表示されるビューワ画面700の画像表示部701a〜701fに、対応する画像データを振り分けて再生表示させる。第2再生部318は、図2に示すCPU101によりプログラムが実行されることによって実現される。 The second reproduction unit 318 sends the image data acquired from the storage unit 302 to the display control unit 331 according to the operation signal from the input unit 303 operated by the user, and displays the image data and the image to the display control unit 331. This is a functional unit to be reproduced and displayed on the unit 333. Specifically, the second reproduction unit 318 distributes the corresponding image data to the image display units 701a to 701f of the viewer screen 700 displayed on the display unit 333 described later in FIG. 13 and the like, and reproduces and displays the corresponding image data. The second reproduction unit 318 is realized by executing a program by the CPU 101 shown in FIG.

領域表示制御部319は、入力部303に記憶された各検知領域の検知時刻の情報(時刻情報)に基づいて、ビューワ画面700の画像表示部701a〜701fに再生表示されている画像データとしてのフレームまたは画像に重畳して各検知領域の状態を表示する機能部である。領域表示制御部319は、図2に示すCPU101によりプログラムが実行されることによって実現される。 The area display control unit 319 uses the detection time information (time information) of each detection area stored in the input unit 303 as image data to be reproduced and displayed on the image display units 701a to 701f of the viewer screen 700. It is a functional unit that displays the status of each detection area by superimposing it on a frame or image. The area display control unit 319 is realized by executing a program by the CPU 101 shown in FIG.

リスト制御部320は、ビューワ画面700で、記憶部302に記憶されたマーカファイルを読み出し、マーカファイルの内容を表示させる図14で後述するマーカリスト画面800を表示する機能部である。ここで、マーカファイルとは、検知機能により異常が検知された時刻等が時系列に記録されたファイルである。リスト制御部320は、図2に示すCPU101によりプログラムが実行されることによって実現される。 The list control unit 320 is a functional unit that displays the marker list screen 800, which will be described later in FIG. 14, by reading the marker file stored in the storage unit 302 on the viewer screen 700 and displaying the contents of the marker file. Here, the marker file is a file in which the time when an abnormality is detected by the detection function is recorded in time series. The list control unit 320 is realized by executing a program by the CPU 101 shown in FIG.

第2制御部321は、ビューワ画面700の動作全体を制御する機能部である。第2制御部321は、図2に示すCPU101によりプログラムが実行されることによって実現される。 The second control unit 321 is a functional unit that controls the entire operation of the viewer screen 700. The second control unit 321 is realized by executing a program by the CPU 101 shown in FIG.

表示制御部331は、表示部333の表示動作を制御する機能部である。具体的には、表示制御部331は、第1再生部304および画像振分部312から取得された画像データ、設定部308により設定された設定情報、および、検知領域指定部309により指定された検知領域等を、表示部333に表示させる。表示制御部331は、図2に示すCPU101によりプログラム(ドライバ)が実行されることによって実現される。 The display control unit 331 is a functional unit that controls the display operation of the display unit 333. Specifically, the display control unit 331 is designated by the image data acquired from the first reproduction unit 304 and the image distribution unit 312, the setting information set by the setting unit 308, and the detection area designation unit 309. The detection area and the like are displayed on the display unit 333. The display control unit 331 is realized by executing a program (driver) by the CPU 101 shown in FIG.

外部出力部332は、検知領域判定部314により異常の判定がされた場合、異常信号を外部機器10に出力する機能部である。外部出力部332は、図2に示す外部機器I/F111、およびCPU101によりプログラムが実行されることによって実現される。なお、外部出力部332は異常信号を出力するものとしているが、これに限定されるものではなく、メールで異常を通知するためのバッチファイルを外部機器10に送信したり、または、ウォッチャ画面400上に異常を報知(例えば、ランプアイコンで点滅表示)する等の処置を行うものとしてもよい。 The external output unit 332 is a functional unit that outputs an abnormal signal to the external device 10 when an abnormality is determined by the detection area determination unit 314. The external output unit 332 is realized by executing a program by the external device I / F 111 and the CPU 101 shown in FIG. The external output unit 332 is supposed to output an abnormality signal, but the present invention is not limited to this, and a batch file for notifying the abnormality by e-mail can be sent to the external device 10 or the watcher screen 400. You may take measures such as notifying the abnormality on the top (for example, blinking with a lamp icon).

表示部333は、表示制御部331の制御に従って各種データを表示する装置である。表示部333は、本実施形態では特に、図2に示すCPU101によりプログラム(アプリケーション)が実行されることにより、後述するウォッチャ画面400、設定画面500、およびビューワ画面700等を表示する。表示部333は、図2に示すディスプレイ105によって実現される。 The display unit 333 is a device that displays various data under the control of the display control unit 331. In this embodiment, the display unit 333 displays the watcher screen 400, the setting screen 500, the viewer screen 700, and the like, which will be described later, by executing the program (application) by the CPU 101 shown in FIG. The display unit 333 is realized by the display 105 shown in FIG.

なお、図3に示した第1再生部304、設定部308、検知領域指定部309、画像振分部312、検知領域判定部314、第1制御部316、第2再生部318、領域表示制御部319、リスト制御部320、第2制御部321および表示制御部331の一部または全部は、ソフトウェアであるプログラムではなく、ASIC(Application Specific Integrated Circuit)またはFPGA(Field−Programmable Gate Array)等のハードウェア回路によって実現されてもよい。 The first reproduction unit 304, the setting unit 308, the detection area designation unit 309, the image distribution unit 312, the detection area determination unit 314, the first control unit 316, the second reproduction unit 318, and the area display control shown in FIG. Part 319, list control unit 320, second control unit 321 and display control unit 331 are not programs that are software, but ASIC (Application Specific Integrated Circuit) or FPGA (Field-Programmable Gate Array) or the like. It may be realized by a hardware circuit.

また、図3に示した各機能部は、機能を概念的に示したものであって、このような構成に限定されるものではない。例えば、図3で独立した機能部として図示した複数の機能部を、1つの機能部として構成してもよい。一方、図3の1つの機能部が有する機能を複数に分割し、複数の機能部として構成するものとしてもよい。 Further, each functional unit shown in FIG. 3 conceptually shows a function, and is not limited to such a configuration. For example, a plurality of functional units shown as independent functional units in FIG. 3 may be configured as one functional unit. On the other hand, the function of one functional unit in FIG. 3 may be divided into a plurality of functions and configured as a plurality of functional units.

また、以降の説明の簡略化のため、表示制御部331が、受け取ったデータを表示部333に表示させるという表現を、単に、そのデータを表示制御部331に送った機能部が、表示部333(または、表示部333が表示する画面)に表示させると表現するものとする。例えば、第1再生部304が、画像データを表示制御部331に送り、表示制御部331に対して画像データを表示部333に再生表示させる場合、単に、第1再生部304が、画像データを表示部333に再生表示させると表現するものとする。 Further, for the sake of simplification of the following description, the function unit that simply sends the data to the display control unit 331 expresses that the display control unit 331 displays the received data on the display unit 333. (Or, it is expressed that it is displayed on the screen displayed by the display unit 333). For example, when the first reproduction unit 304 sends the image data to the display control unit 331 and causes the display control unit 331 to reproduce and display the image data on the display unit 333, the first reproduction unit 304 simply displays the image data. It shall be expressed as being reproduced and displayed on the display unit 333.

(記憶部に記憶される情報のディレクトリ構造)
図4は、実施形態に係る情報処理装置において記憶装置に記憶される情報のディレクトリ構造の一例を示す図である。図4を参照しながら、記憶部302で情報を管理するためのディレクトリ構造について説明する。
(Directory structure of information stored in the storage unit)
FIG. 4 is a diagram showing an example of a directory structure of information stored in the storage device in the information processing device according to the embodiment. A directory structure for managing information in the storage unit 302 will be described with reference to FIG.

まず、図4に示すように、記憶部302は、ルートフォルダとして、「Setting」フォルダと、「Common」フォルダと、を形成している。「Setting」フォルダの中には、各撮像装置2および仮想カメラ5に関する情報を保存するための「CAM1」〜「CAM6」フォルダ(以下、単に「カメラフォルダ」と総称する)が形成されている。「CAM1」〜「CAM6」フォルダは、それぞれ仮想カメラ5および撮像装置2b〜2fに関するフォルダに相当する。 First, as shown in FIG. 4, the storage unit 302 forms a "Setting" folder and a "Common" folder as root folders. In the "Setting" folder, "CAM1" to "CAM6" folders (hereinafter, simply collectively referred to as "camera folders") for storing information about each image pickup apparatus 2 and the virtual camera 5 are formed. The "CAM1" to "CAM6" folders correspond to folders related to the virtual camera 5 and the image pickup devices 2b to 2f, respectively.

各カメラフォルダには、図4に示すように、領域情報ファイル、時刻情報ファイル、および画像データが保存される。ここで、領域情報ファイルは、対応する撮像装置2または仮想カメラ5について設定された各検知領域の位置情報(位置示す座標および領域の形状等の情報)および後述する属性情報を含むファイルである。また、時刻情報ファイルは、対応する撮像装置2または仮想カメラ5について監視動作が開始および終了した時刻、各検知領域が指定(設定)された時刻、および、監視動作中に各検知領域が検知した時刻を含むファイルである。また、画像データは、後述する検知基準画像等のデータである。 As shown in FIG. 4, the area information file, the time information file, and the image data are stored in each camera folder. Here, the area information file is a file including the position information (information such as the coordinates indicating the position and the shape of the area) of each detection area set for the corresponding image pickup apparatus 2 or the virtual camera 5 and the attribute information described later. Further, the time information file includes the time when the monitoring operation starts and ends for the corresponding image pickup device 2 or the virtual camera 5, the time when each detection area is specified (set), and the time when each detection area detects during the monitoring operation. A file that contains the time. Further, the image data is data such as a detection reference image described later.

また、「Common」フォルダには、上述のマーカファイルが保存される。 In addition, the above-mentioned marker file is saved in the "Common" folder.

なお、図4に示した情報を管理するためのディレクトリ構造は一例であり、これに限定されるものではなく、その他のデータ構造によって情報が管理されるものとしてもよい。また、図4に示したフォルダの名称も一例であり、これらに限定されるものではない。 The directory structure for managing the information shown in FIG. 4 is an example, and the information is not limited to this, and the information may be managed by another data structure. Further, the name of the folder shown in FIG. 4 is also an example, and the name is not limited to these.

(ウォッチャ画面の構成)
図5は、実施形態に係る情報処理装置の表示装置に表示されるウォッチャ画面において複数のリアルタイムの画像データが表示される例を示す図である。図5を参照しながら、ウォッチャ画面400の構成、ならびに、複数のリアルタイムの画像データが表示される動作について説明する。
(Watcher screen configuration)
FIG. 5 is a diagram showing an example in which a plurality of real-time image data is displayed on a watcher screen displayed on the display device of the information processing apparatus according to the embodiment. The configuration of the watcher screen 400 and the operation of displaying a plurality of real-time image data will be described with reference to FIG.

CPU101により実行されるプログラム(アプリケーション)により、図5に示すウォッチャ画面400が表示部333に表示される。ウォッチャ画面400は、複数の撮像装置2から受信した画像データ、および仮想カメラ5から受信した画像データをリアルタイムに表示し、画像判定動作(監視動作)が実行されている場合には、指定された各検知領域において画像判定が実行される画面である。具体的には、ウォッチャ画面400では、画像判定動作(監視動作)が実行されている場合、検知領域判定部314によって、検知領域指定部309により指定された検知領域において異常の有無が判定される。 The watcher screen 400 shown in FIG. 5 is displayed on the display unit 333 by the program (application) executed by the CPU 101. The watcher screen 400 displays the image data received from the plurality of image pickup devices 2 and the image data received from the virtual camera 5 in real time, and is designated when the image determination operation (monitoring operation) is executed. This is a screen on which image determination is executed in each detection area. Specifically, on the watcher screen 400, when the image determination operation (monitoring operation) is executed, the detection area determination unit 314 determines the presence or absence of an abnormality in the detection area designated by the detection area designation unit 309. ..

ウォッチャ画面400は、図5に示すように、画像表示部401a〜401fと、監視開始ボタン411と、監視停止ボタン412と、監視設定ボタン413と、OKランプ414と、NGランプ415と、状態表示部421a〜421fと、を含む。 As shown in FIG. 5, the watcher screen 400 displays the status of the image display units 401a to 401f, the monitoring start button 411, the monitoring stop button 412, the monitoring setting button 413, the OK lamp 414, and the NG lamp 415. Parts 421a to 421f are included.

画像表示部401a〜401fは、ユーザにより操作される入力部303からの操作信号に従って、画像振分部312によって、撮像装置2a〜2fから画像受信部301を介して取得されたリアルタイムの画像データがそれぞれ表示される表示領域である。また、画像表示部401a〜401fは、ユーザによる入力部303の操作によって押下(例えば、マウス108のクリック操作等、以下同様)されると、選択状態にすることができる。なお、画像表示部401a〜401fを区別なく呼称する場合、または総称する場合、単に「画像表示部401」(第2表示領域)というものとする。 The image display units 401a to 401f receive real-time image data acquired by the image distribution unit 312 from the image pickup devices 2a to 2f via the image reception unit 301 according to the operation signal from the input unit 303 operated by the user. Each is a display area to be displayed. Further, the image display units 401a to 401f can be put into the selected state when pressed by the operation of the input unit 303 by the user (for example, a click operation of the mouse 108, etc.). When the image display units 401a to 401f are referred to without distinction, or when they are collectively referred to, they are simply referred to as "image display unit 401" (second display area).

監視開始ボタン411は、ユーザによる入力部303の操作によって押下されると、リアルタイムの画像データが表示されている選択状態の画像表示部401において、検知領域指定部309により指定された検知領域における異常の有無の判定が開始される。 When the monitoring start button 411 is pressed by the operation of the input unit 303 by the user, the abnormality in the detection area designated by the detection area designation unit 309 in the image display unit 401 in the selected state in which the real-time image data is displayed is displayed. The determination of the presence or absence of is started.

監視停止ボタン412は、ユーザによる入力部303の操作によって押下されると、選択状態の画像表示部401で、検知領域判定部314による検知領域における異常の有無の判定動作を停止させるボタンである。 The monitoring stop button 412 is a button that, when pressed by the operation of the input unit 303 by the user, stops the operation of determining the presence or absence of an abnormality in the detection area by the detection area determination unit 314 on the image display unit 401 in the selected state.

監視設定ボタン413は、ユーザによる入力部303の操作によって押下されると、各判定領域の設定するために、第1制御部316によって、後述の図6等に示す設定画面500を表示部333に表示させるボタンである。 When the monitoring setting button 413 is pressed by the operation of the input unit 303 by the user, the first control unit 316 displays the setting screen 500 shown in FIG. 6 or the like described later on the display unit 333 in order to set each determination area. It is a button to be displayed.

OKランプ414は、選択状態の各画像表示部401において指定された検知領域において異常の有無の判定の結果、異常無しという判定結果となった場合に、第1制御部316により点灯されるランプ領域である。例えば、OKランプ414は、選択状態の画像表示部401のうち、OKランプ414およびNGランプ415によるランプ点灯の対象となっている画像表示部401での検知領域において、すべての検知領域で異常無しと判定された場合に、第1制御部316により点灯される。 The OK lamp 414 is a lamp area that is lit by the first control unit 316 when the result of determination of the presence or absence of an abnormality in the detection area designated by each image display unit 401 in the selected state is that there is no abnormality. Is. For example, the OK lamp 414 has no abnormality in all the detection areas of the image display unit 401 in the selected state, in the detection area of the image display unit 401 that is the target of lamp lighting by the OK lamp 414 and the NG lamp 415. When it is determined that the lamp is turned on by the first control unit 316.

NGランプ415は、選択状態の各画像表示部401において指定された検知領域において異常の有無の判定の結果、異常有りという判定結果となった場合に、第1制御部316により点灯されるランプ領域である。例えば、NGランプ415は、選択状態の画像表示部401のうち、OKランプ414およびNGランプ415によるランプ点灯の対象となっている画像表示部401での検知領域のうちいずれかの検知領域で異常有りと判定された場合に、第1制御部316により点灯される。 The NG lamp 415 is a lamp area that is lit by the first control unit 316 when the result of determination of the presence or absence of an abnormality in the detection area designated by each image display unit 401 in the selected state is that there is an abnormality. Is. For example, the NG lamp 415 has an abnormality in any of the detection areas of the image display unit 401 in the selected state, which is the target of the lamp lighting by the OK lamp 414 and the NG lamp 415. When it is determined that there is, it is turned on by the first control unit 316.

状態表示部421a〜421fは、各画像表示部401に対応する撮像装置2および仮想カメラ5についての状態を示す表示部である。例えば、状態表示部421a〜421fには、「未接続」、「未設定」、「設定完了」、「監視中」等の撮像装置2および仮想カメラ5についての状態を示す内容が表示される。「未接続」とは、画像表示部401に対応する撮像装置2または仮想カメラ5が情報処理装置3に接続されていない状態を示し、画像表示部401には画像データが表示されていない状態を示す。例えば、図5に示す例では、画像表示部401cに対応する撮像装置2(具体的には撮像装置2c)が情報処理装置3に接続されていないため、状態表示部421cでは「未接続」と表示され、画像表示部401cには画像データが表示されていない状態を示す。「未設定」とは、画像表示部401に表示されている画像データについて検知領域等の設定がなされていない状態を示す。「設定完了」とは、画像表示部401に表示されている画像データについて検知領域等の設定が完了している状態を示す。「監視中」とは、設定された各検知領域の情報に基づいて、画像判定動作(監視動作)が実行中である状態を示す。なお、状態表示部421a〜421fを区別なく呼称する場合、または総称する場合、単に「状態表示部421」というものとする。 The status display units 421a to 421f are display units that indicate the states of the image pickup device 2 and the virtual camera 5 corresponding to the image display units 401. For example, the status display units 421a to 421f display contents indicating the status of the imaging device 2 and the virtual camera 5, such as "not connected", "not set", "setting completed", and "monitoring". “Not connected” means that the image pickup device 2 or the virtual camera 5 corresponding to the image display unit 401 is not connected to the information processing device 3, and the image data is not displayed on the image display unit 401. Shown. For example, in the example shown in FIG. 5, since the image pickup device 2 (specifically, the image pickup device 2c) corresponding to the image display section 401c is not connected to the information processing device 3, the status display section 421c says "not connected". It is displayed, and indicates a state in which the image data is not displayed on the image display unit 401c. “Not set” indicates a state in which the detection area and the like are not set for the image data displayed on the image display unit 401. “Setting completed” indicates a state in which the setting of the detection area and the like is completed for the image data displayed on the image display unit 401. “Monitoring” indicates a state in which the image determination operation (monitoring operation) is being executed based on the information of each set detection area. When the state display units 421a to 421f are referred to without distinction, or when they are collectively referred to, they are simply referred to as "state display units 421".

(設定画面の構成)
図6は、実施形態に係る情報処理装置の表示装置に表示される設定画面で画像データが表示される状態の一例を示す図である。図6を参照しながら、設定画面500の構成について説明する。
(Configuration of setting screen)
FIG. 6 is a diagram showing an example of a state in which image data is displayed on a setting screen displayed on the display device of the information processing device according to the embodiment. The configuration of the setting screen 500 will be described with reference to FIG.

設定画面500は、検知領域の指定、ならびに検知領域における画像判定の感度および閾値等を設定する画面である。図6に示す設定画面500は、検知機能について設定するための画面であり、カメラ選択タブ501、設定用画像表示部502と、再生ボタン503aと、一時停止ボタン503bと、早送りボタン503cと、早戻しボタン503dと、停止ボタン503eと、シークバー504と、スライダー505と、時刻表示部506と、設定読出ボタン511と、設定書込ボタン512と、設定反映ボタン513と、閉じるボタン514と、検知領域情報部561と、検知領域ボタン群562と、を含む。 The setting screen 500 is a screen for designating the detection area and setting the sensitivity and threshold value of image determination in the detection area. The setting screen 500 shown in FIG. 6 is a screen for setting the detection function, and includes a camera selection tab 501, an image display unit 502 for setting, a play button 503a, a pause button 503b, and a fast forward button 503c. Return button 503d, stop button 503e, seek bar 504, slider 505, time display unit 506, setting read button 511, setting write button 512, setting reflection button 513, close button 514, and detection area. The information unit 561 and the detection area button group 562 are included.

カメラ選択タブ501は、ユーザが検知領域の指定を所望する仮想カメラ5の画像データおよび撮像装置2b〜2fの画像データのうちいずれのデータを設定用画像表示部502に表示させるのかを選択する操作部である。例えば、仮想カメラ5によって出力された画像データ、および撮像装置2b〜2fによって撮像された画像データは、それぞれ「1」〜「6」に対応付けられており、図6の例では、「6」すなわち撮像装置2fの画像データが選択された例を示している。 The camera selection tab 501 is an operation for selecting which of the image data of the virtual camera 5 and the image data of the imaging devices 2b to 2f that the user wants to specify the detection area to be displayed on the setting image display unit 502. It is a department. For example, the image data output by the virtual camera 5 and the image data captured by the image pickup devices 2b to 2f are associated with "1" to "6", respectively. In the example of FIG. 6, "6" is used. That is, an example in which the image data of the image pickup apparatus 2f is selected is shown.

設定用画像表示部502は、第1再生部304によって、ユーザにより操作される入力部303からの操作信号に従って記憶部302から取得された画像データを再生表示される表示部である。図6の例では、第1再生部304は、ユーザによる入力部303の操作により、「6」のカメラ選択タブ501が選択操作されると、撮像装置2fにより撮像された画像データを設定用画像表示部502に再生表示させる。 The setting image display unit 502 is a display unit in which the first reproduction unit 304 reproduces and displays the image data acquired from the storage unit 302 according to the operation signal from the input unit 303 operated by the user. In the example of FIG. 6, when the camera selection tab 501 of "6" is selected by the operation of the input unit 303 by the user, the first reproduction unit 304 sets the image data captured by the image pickup device 2f as a setting image. The display unit 502 is displayed for reproduction.

再生ボタン503aは、ユーザによる入力部303の操作によって押下されると、第1再生部304によって、設定用画像表示部502に表示された画像データが再生開始されるボタンである。一時停止ボタン503bは、ユーザによる入力部303の操作によって押下されると、第1再生部304によって、設定用画像表示部502に再生表示されている画像データが一時停止されるボタンである。早送りボタン503cは、ユーザによる入力部303の操作によって押下されると、第1再生部304によって、設定用画像表示部502に再生表示されている画像データが早送り表示されるボタンである。早戻しボタン503dは、ユーザによる入力部303の操作によって押下されると、第1再生部304によって、設定用画像表示部502に再生表示されている画像データが早戻し表示されるボタンである。停止ボタン503eは、ユーザによる入力部303の操作によって押下されると、第1再生部304によって、設定用画像表示部502に再生表示されている画像データが停止されるボタンである。 The reproduction button 503a is a button that, when pressed by the operation of the input unit 303 by the user, starts reproduction of the image data displayed on the setting image display unit 502 by the first reproduction unit 304. The pause button 503b is a button that, when pressed by the operation of the input unit 303 by the user, suspends the image data reproduced and displayed on the setting image display unit 502 by the first reproduction unit 304. The fast-forward button 503c is a button that, when pressed by the operation of the input unit 303 by the user, fast-forward displays the image data reproduced and displayed on the setting image display unit 502 by the first reproduction unit 304. The fast-rewind button 503d is a button that, when pressed by the operation of the input unit 303 by the user, fast-rewinds the image data reproduced and displayed on the setting image display unit 502 by the first playback unit 304. The stop button 503e is a button that, when pressed by the operation of the input unit 303 by the user, stops the image data reproduced and displayed on the setting image display unit 502 by the first reproduction unit 304.

シークバー504は、その上に配置されるスライダー505の位置により、設定用画像表示部502に再生表示されている画像データがどの時間のものなのかを示す棒状の形状体である。スライダー505は、設定用画像表示部502に再生表示されている画像データの撮像時刻(表示されているフレームが撮像された時刻、または表示されている画像が取得された時刻)に対応したシークバー504上の位置にスライドする形状体かつ操作部である。逆に、スライダー505は、ユーザによる入力部303の操作によってスライドされると、第1再生部304によって、スライダー505が存在するシークバー504上の位置に対応した撮像時刻の画像データとしてのフレーム、または画像が設定用画像表示部502に表示される。 The seek bar 504 is a rod-shaped body that indicates the time of the image data reproduced and displayed on the setting image display unit 502 by the position of the slider 505 arranged on the seek bar 504. The slider 505 is a seek bar 504 corresponding to the imaging time of the image data reproduced and displayed on the setting image display unit 502 (the time when the displayed frame is captured or the time when the displayed image is acquired). It is a shape and operation unit that slides to the upper position. On the contrary, when the slider 505 is slid by the operation of the input unit 303 by the user, the first reproduction unit 304 causes the frame as image data of the imaging time corresponding to the position on the seek bar 504 where the slider 505 exists, or the frame. The image is displayed on the setting image display unit 502.

時刻表示部506は、第1再生部304によって、設定用画像表示部502に再生表示されている画像データの撮像日付(取得された日付の概念を含む)および撮像時刻を表示する表示部である。 The time display unit 506 is a display unit that displays the imaging date (including the concept of the acquired date) and the imaging time of the image data reproduced and displayed on the setting image display unit 502 by the first reproduction unit 304. ..

設定読出ボタン511は、ユーザによる入力部303の操作によって押下されると、設定部308によって、記憶部302に記憶された、カメラ選択タブ501で選択された撮像装置2または仮想カメラ5についての検知領域の情報等が読み出され、設定画面500の各表示部に表示されるボタンである。設定書込ボタン512は、ユーザによる入力部303の操作によって押下されると、設定部308によって、設定画面500上で設定された検知領域の情報等が、カメラ選択タブ501で選択された撮像装置2または仮想カメラ5に関連付けられて記憶部302に記憶されるボタンである。設定反映ボタン513は、ユーザによる入力部303の操作によって押下されると、設定部308によって、設定画面500上で設定された検知領域の情報等が、ウォッチャ画面400および設定画面500等のアプリケーションが閉じられるまで有効とされる(例えば、RAM103に一時記憶される)ボタンである。 When the setting read button 511 is pressed by the operation of the input unit 303 by the user, the setting unit 308 detects the image pickup device 2 or the virtual camera 5 stored in the storage unit 302 and selected by the camera selection tab 501. It is a button that reads out area information and the like and displays it on each display unit of the setting screen 500. When the setting write button 512 is pressed by the operation of the input unit 303 by the user, the information of the detection area set on the setting screen 500 by the setting unit 308 is selected by the camera selection tab 501. 2 or a button associated with the virtual camera 5 and stored in the storage unit 302. When the setting reflection button 513 is pressed by the operation of the input unit 303 by the user, the information of the detection area set on the setting screen 500 by the setting unit 308 is transmitted to the application such as the watcher screen 400 and the setting screen 500. A button that is valid until closed (eg, temporarily stored in RAM 103).

閉じるボタン514は、ユーザによる入力部303の操作によって押下されると、設定部308によって、設定画面500が閉じられ、ウォッチャ画面400を表示部333に表示させるボタンである。 The close button 514 is a button that closes the setting screen 500 by the setting unit 308 and displays the watcher screen 400 on the display unit 333 when pressed by the operation of the input unit 303 by the user.

検知領域情報部561は、検知領域指定部309により指定された検知領域の名称、感度、閾値、監視方法(図6では「監視」と表記)、およびアクションの有無(図6では「アクション」と表記)(以下、検知領域についてのこれらの情報を属性情報という)を表示する表示領域かつ選択操作領域である。 The detection area information unit 561 includes the name, sensitivity, threshold value, monitoring method (denoted as “monitoring” in FIG. 6) of the detection area designated by the detection area designation unit 309, and the presence / absence of an action (“action” in FIG. 6). Notation) (hereinafter, these information about the detection area is referred to as attribute information) is a display area and a selection operation area.

検知領域ボタン群562は、検知領域指定部309により指定され、検知領域情報部561に表示された検知領域についての属性情報を編集するボタン群である。検知領域ボタン群562は、アクションボタン562aと、削除ボタン562cと、感度増加ボタン562eと、感度減少ボタン562fと、閾値増加ボタン562gと、閾値減少ボタン562hと、を含む。検知領域ボタン群562の各ボタンの機能は、後述する。 The detection area button group 562 is a button group that is designated by the detection area designation unit 309 and edits the attribute information about the detection area displayed on the detection area information unit 561. The detection area button group 562 includes an action button 562a, a delete button 562c, a sensitivity increasing button 562e, a sensitivity decreasing button 562f, a threshold increasing button 562g, and a threshold decreasing button 562h. The function of each button of the detection area button group 562 will be described later.

(検知領域の指定)
図7は、実施形態に係る情報処理装置の表示装置に表示される設定画面において設定用画像表示部に検知領域を指定する例を示す図である。図7を参照しながら、検知領域の指定について説明する。
(Designation of detection area)
FIG. 7 is a diagram showing an example of designating a detection area in the setting image display unit on the setting screen displayed on the display device of the information processing device according to the embodiment. The designation of the detection area will be described with reference to FIG. 7.

図7に示す設定画面500は、第1再生部304により画像データが再生表示されている設定用画像表示部502において検知領域570が指定された状態を示している。具体的には、まず、設定用画像表示部502において画像データの再生表示中に、検知機能の画像判定を所望する画像の部分が表示されているタイミングで、ユーザによる入力部303の操作によって一時停止ボタン503bが押下されると、第1再生部304は、設定用画像表示部502に再生表示されている画像データを一時停止し、その時点のフレームまたは画像の撮像日付および撮像時刻を時刻表示部506に表示させる。 The setting screen 500 shown in FIG. 7 shows a state in which the detection area 570 is designated in the setting image display unit 502 in which the image data is reproduced and displayed by the first reproduction unit 304. Specifically, first, at the timing when the part of the image desired to be image-determined by the detection function is displayed during the reproduction display of the image data on the setting image display unit 502, the user operates the input unit 303 temporarily. When the stop button 503b is pressed, the first reproduction unit 304 pauses the image data reproduced and displayed on the setting image display unit 502, and displays the imaging date and imaging time of the frame or image at that time. It is displayed on the unit 506.

次に、ユーザによる入力部303の操作(例えば、マウス108のドラッグ操作)によって、検知領域指定部309は、設定用画像表示部502において検知領域570を指定して表示させる。 Next, the detection area designation unit 309 designates and displays the detection area 570 on the setting image display unit 502 by the operation of the input unit 303 by the user (for example, the drag operation of the mouse 108).

また、設定部308は、検知領域570の属性情報として、検知領域指定部309により指定された検知領域570に命名した名前、ならびに、デフォルト値として、後述する画像判定で使用する所定の感度(例えば、「50」)、所定の閾値(例えば、「20%」)、監視方法(例えば、「グレースケール」)、およびアクションの有無(例えば、「なし」)を、検知領域情報部561に表示させる。設定部308は、検知領域570の名前として、図7に示すように、例えば、「6」の撮像装置(撮像装置2f)の画像データに対して指定された検知領域であるものとして、「A61」と命名する。また、検知領域指定部309は、カメラ選択タブ501で選択された撮像装置2または仮想カメラ5(図7の例では、撮像装置2f)に関連付けて、検知領域570を指定した時刻の設定用画像表示部502に表示されているフレームまたは画像における検知領域570内の画像を検知基準画像として抽出して記憶部302に記憶させ、指定した検知領域570の情報(位置および形状等の位置情報、および属性情報等)を記憶部302に記憶させる。さらに、検知領域指定部309は、カメラ選択タブ501で選択された撮像装置2または仮想カメラ5に関連付けて、検知領域570を指定した時刻の情報(時刻情報)を記憶部302に記憶させる。なお、上述と同様の方法で、検知領域指定部309により複数の検知領域を指定することができる。 Further, the setting unit 308 has the name given to the detection area 570 designated by the detection area designation unit 309 as the attribute information of the detection area 570, and a predetermined sensitivity (for example, for example) used in the image determination described later as a default value. , "50"), a predetermined threshold value (for example, "20%"), a monitoring method (for example, "grayscale"), and the presence or absence of an action (for example, "none") are displayed on the detection area information unit 561. .. As shown in FIG. 7, the setting unit 308 is designated as the name of the detection area 570 as the detection area designated for the image data of the image pickup device (imaging device 2f) of “6”, for example, “A61”. ". Further, the detection area designation unit 309 is associated with the image pickup device 2 or the virtual camera 5 (image pickup device 2f in the example of FIG. 7) selected on the camera selection tab 501, and the detection area 570 is an image for setting the designated time. The image in the detection area 570 in the frame or image displayed on the display unit 502 is extracted as a detection reference image and stored in the storage unit 302, and the information of the designated detection area 570 (position information such as position and shape, and position information such as shape and shape) and (Attribute information, etc.) is stored in the storage unit 302. Further, the detection area designation unit 309 stores information (time information) at the time when the detection area 570 is designated in the storage unit 302 in association with the image pickup device 2 or the virtual camera 5 selected on the camera selection tab 501. In addition, a plurality of detection areas can be designated by the detection area designation unit 309 by the same method as described above.

図7に示す設定画面500で指定された検知領域(図7では検知領域570)の属性情報は、編集することができる。まず、ユーザによる入力部303の操作によって、検知領域情報部561に属性情報が表示された検知領域のいずれか(図7では検知領域570の属性情報のみを表示)を選択すると、設定部308は、選択された検知領域情報部561の検知領域の属性情報の表示部分を反転表示させる。以下、図7に示した検知領域570(常時検知領域名「A61」)が選択されたものとして説明する。 The attribute information of the detection area (detection area 570 in FIG. 7) designated on the setting screen 500 shown in FIG. 7 can be edited. First, when one of the detection areas in which the attribute information is displayed in the detection area information unit 561 (only the attribute information of the detection area 570 is displayed in FIG. 7) is selected by the operation of the input unit 303 by the user, the setting unit 308 is selected. , The display portion of the attribute information of the detection area of the selected detection area information unit 561 is highlighted. Hereinafter, it is assumed that the detection area 570 (constant detection area name “A61”) shown in FIG. 7 is selected.

次に、例えば、ユーザによる入力部303の操作によって、アクションボタン562aを押下すると、設定部308は、選択された検知領域570のアクションの有無の設定値を切り替える。例えば、検知領域570のアクションの有無が「なし」となっている場合、アクションボタン562aが押下されると、設定部308は、検知領域570のアクションの有無を「あり」に設定する。一方、検知領域570のアクションの有無が「あり」となっている場合、アクションボタン562aが押下されると、設定部308は、検知領域570のアクションの有無を「なし」に設定する。後述するように、アクションの有無が「あり」となっている場合、検知領域判定部314によってその検知領域における画像判定で異常と判定された場合、外部出力部332が異常信号を出力する。 Next, for example, when the action button 562a is pressed by the operation of the input unit 303 by the user, the setting unit 308 switches the setting value of the presence or absence of the action in the selected detection area 570. For example, when the presence / absence of the action in the detection area 570 is "none", when the action button 562a is pressed, the setting unit 308 sets the presence / absence of the action in the detection area 570 to "yes". On the other hand, when the presence / absence of the action in the detection area 570 is "Yes", when the action button 562a is pressed, the setting unit 308 sets the presence / absence of the action in the detection area 570 to "None". As will be described later, when the presence / absence of the action is "Yes", the external output unit 332 outputs an abnormality signal when the detection area determination unit 314 determines that the image is abnormal in the image determination in the detection area.

また、例えば、ユーザによる入力部303の操作によって、削除ボタン562cを押下すると、設定部308は、検知領域情報部561に表示された検知領域570の属性情報を消去し、記憶部302に記憶された検知領域570の情報を削除する。また、検知領域指定部309は、設定用画像表示部502に表示された検知領域570を消去し、記憶部302に記憶された検知基準画像を削除する。 Further, for example, when the delete button 562c is pressed by the operation of the input unit 303 by the user, the setting unit 308 erases the attribute information of the detection area 570 displayed in the detection area information unit 561 and stores it in the storage unit 302. The information in the detection area 570 is deleted. Further, the detection area designation unit 309 erases the detection area 570 displayed on the setting image display unit 502, and deletes the detection reference image stored in the storage unit 302.

また、例えば、ユーザによる入力部303の操作によって、感度増加ボタン562eを押下すると、設定部308は、選択された検知領域570の画像判定に用いられる感度の値を所定値だけ増加させる。一方、ユーザによる入力部303の操作によって、感度減少ボタン562fを押下すると、設定部308は、選択された検知領域570の画像判定に用いられる感度の値を所定値だけ減少させる。 Further, for example, when the sensitivity increase button 562e is pressed by the operation of the input unit 303 by the user, the setting unit 308 increases the sensitivity value used for the image determination of the selected detection area 570 by a predetermined value. On the other hand, when the sensitivity reduction button 562f is pressed by the operation of the input unit 303 by the user, the setting unit 308 reduces the sensitivity value used for the image determination of the selected detection area 570 by a predetermined value.

また、例えば、ユーザによる入力部303の操作によって、閾値増加ボタン562gを押下すると、設定部308は、選択された検知領域570の画像判定に用いられる閾値の値を所定値だけ増加させる。一方、ユーザによる入力部303の操作によって、閾値減少ボタン562hを押下すると、設定部308は、選択された検知領域570の画像判定に用いられる閾値の値を所定値だけ減少させる。 Further, for example, when the threshold value increase button 562g is pressed by the operation of the input unit 303 by the user, the setting unit 308 increases the threshold value used for the image determination of the selected detection area 570 by a predetermined value. On the other hand, when the threshold value reduction button 562h is pressed by the operation of the input unit 303 by the user, the setting unit 308 reduces the threshold value used for the image determination of the selected detection area 570 by a predetermined value.

(ウォッチャ画面における画像判定動作)
図8は、実施形態に係る情報処理装置の表示装置に表示されるウォッチャ画面で監視動作が実行される状態の一例を示す図である。図9は、実施形態に係る情報処理装置の表示装置に表示されるウォッチャ画面で実行される監視動作で検知領域で画像判定が行われた状態の一例を示す図である。図8および図9は、本実施形態に係る情報処理装置3の表示装置に表示されるウォッチャ画面で実行される監視動作で検知領域で画像判定が行われた状態の一例を示す図である。
(Image judgment operation on the watcher screen)
FIG. 8 is a diagram showing an example of a state in which a monitoring operation is executed on a watcher screen displayed on the display device of the information processing device according to the embodiment. FIG. 9 is a diagram showing an example of a state in which image determination is performed in the detection area in the monitoring operation executed on the watcher screen displayed on the display device of the information processing apparatus according to the embodiment. 8 and 9 are diagrams showing an example of a state in which image determination is performed in the detection area in the monitoring operation executed on the watcher screen displayed on the display device of the information processing device 3 according to the present embodiment.

まず、図8を参照しながら、ウォッチャ画面400における画像判定動作(監視動作)の概要について説明する。図8に示すウォッチャ画面400は、各撮像装置2および仮想カメラ5から受信した画像データをリアルタイムに表示し、画像表示部401fで、検知領域「A61」が指定された状態を示している。ただし、ウォッチャ画面400における画像判定動作においては、外観の煩雑さを回避するため、画像表示部401に表示される各判定領域の名称の表示は省略するものとしている。ここで、検知機能とは、検知領域での画像が異常であるか否かの画像判定を監視動作中実行する機能である。また、第1制御部316は、設定画面500からウォッチャ画面400に遷移した後、画像表示部401fについて各検知領域の設定が完了したので、状態表示部421fに「設定完了」と表示させる。 First, an outline of the image determination operation (monitoring operation) on the watcher screen 400 will be described with reference to FIG. The watcher screen 400 shown in FIG. 8 displays image data received from each image pickup apparatus 2 and the virtual camera 5 in real time, and shows a state in which the detection area “A61” is designated by the image display unit 401f. However, in the image determination operation on the watcher screen 400, the display of the name of each determination area displayed on the image display unit 401 is omitted in order to avoid the complexity of the appearance. Here, the detection function is a function that executes an image determination as to whether or not the image in the detection area is abnormal during the monitoring operation. Further, after the transition from the setting screen 500 to the watcher screen 400, the first control unit 316 completes the setting of each detection area for the image display unit 401f, so that the status display unit 421f displays "setting completed".

次に、ユーザは、入力部303の操作によって、画像判定動作(監視動作)を開始させたい撮像装置2または仮想カメラ5に対応する画像表示部401を押下して選択状態にする。図8に示す例では、画像表示部401fが押下されて選択状態になった状態が示されている。そして、第1制御部316は、ユーザによる入力部303の操作によって、監視開始ボタン411が押下されると、画像表示部401fに表示される撮像装置2fのリアルタイムの画像データについて画像判定動作を開始する。このとき、第1制御部316は、図8に示すように、撮像装置2fについて画像判定動作が実行中である旨を示すために、状態表示部421fに「監視中」と表示させる。また、第1制御部316は、選択状態になっている画像表示部401に対応する撮像装置2に関連付けて、画像判定動作(監視動作)を開始した時刻の情報(時刻情報)を記憶部302に記憶させる。なお、第1制御部316は、ユーザによる入力部303の操作によって、監視停止ボタン412が押下された場合、選択状態の画像表示部401についての画像判定動作を停止し、その画像表示部401に対応する撮像装置2または仮想カメラ5に関連付けて、画像判定動作(監視動作)を停止した時刻の情報(時刻情報)を記憶部302に記憶させる。 Next, the user presses the image display unit 401 corresponding to the image pickup device 2 or the virtual camera 5 to start the image determination operation (monitoring operation) by the operation of the input unit 303 to put it in the selected state. In the example shown in FIG. 8, the state in which the image display unit 401f is pressed to be in the selected state is shown. Then, when the monitoring start button 411 is pressed by the operation of the input unit 303 by the user, the first control unit 316 starts an image determination operation for the real-time image data of the image pickup device 2f displayed on the image display unit 401f. To do. At this time, as shown in FIG. 8, the first control unit 316 causes the state display unit 421f to display “monitoring” in order to indicate that the image determination operation is being executed for the image pickup device 2f. Further, the first control unit 316 stores information (time information) at the time when the image determination operation (monitoring operation) is started in association with the image pickup device 2 corresponding to the image display unit 401 in the selected state. To memorize. When the monitoring stop button 412 is pressed by the operation of the input unit 303 by the user, the first control unit 316 stops the image determination operation of the image display unit 401 in the selected state, and causes the image display unit 401 to stop the image determination operation. The storage unit 302 stores information (time information) at the time when the image determination operation (monitoring operation) is stopped in association with the corresponding image pickup device 2 or the virtual camera 5.

具体的なウォッチャ画面400における画像判定動作では、まず、画像振分部312が、画像受信部301から取得したリアルタイムの画像データを画像表示部401a〜401fに振り分けて表示させる。また、検知領域判定部314は、記憶部302から、指定された検知領域(図7における検知領域570)の属性情報を取得する。検知領域判定部314は、監視動作が実行されている間、指定された検知領域において、検知基準画像と、画像データとしてのフレームまたは画像における検知領域の画像とを比較して異常であるか否かの画像判定を実行する。 In the image determination operation on the specific watcher screen 400, first, the image distribution unit 312 distributes and displays the real-time image data acquired from the image reception unit 301 to the image display units 401a to 401f. Further, the detection area determination unit 314 acquires the attribute information of the designated detection area (detection area 570 in FIG. 7) from the storage unit 302. While the monitoring operation is being executed, the detection area determination unit 314 compares the detection reference image with the frame as image data or the image of the detection area in the image in the designated detection area, and determines whether or not there is an abnormality. The image judgment is executed.

具体的には、検知領域判定部314は、検知領域570に対応する画像データとしてのフレームまたは画像における検知領域の画像と、検知基準画像とを比較して異常であるか否かの画像判定をする。このとき、画像判定として、検知領域判定部314は、検知基準画像と、検知領域の画像とにおける対応する画素同士の比較で、画素値が検知領域570の属性情報の感度以上異なる画素の数の合計である差分が、当該属性情報の閾値(例えば閾値が「20%」の場合、検知領域の画像(または検知基準画像)の全体の画像数のうち20%の画素数)以上となった場合に、検知領域570の画像判定は異常と判定する。また、検知領域判定部314は、検知基準画像と、検知領域の画像との比較で、画素値が検知領域570の属性情報の感度以上異なる画素の数の合計である差分が、当該属性情報の閾値未満である限り、検知領域570の画像判定は正常と判定する。 Specifically, the detection area determination unit 314 compares the image of the detection area in the frame or image as the image data corresponding to the detection area 570 with the detection reference image, and determines whether or not the image is abnormal. To do. At this time, as an image determination, the detection area determination unit 314 compares the corresponding pixels of the detection reference image and the image of the detection area with the number of pixels whose pixel values differ by more than the sensitivity of the attribute information of the detection area 570. When the total difference is equal to or greater than the threshold of the attribute information (for example, when the threshold is "20%", the number of pixels is 20% of the total number of images in the image (or detection reference image) in the detection area). In addition, the image determination of the detection area 570 is determined to be abnormal. Further, the detection area determination unit 314 compares the detection reference image with the image in the detection area, and the difference in which the pixel value is the total number of pixels different from the sensitivity of the attribute information in the detection area 570 is the sum of the number of pixels of the attribute information. As long as it is less than the threshold value, the image determination of the detection area 570 is determined to be normal.

また、検知領域判定部314による画像判定の結果、正常検知となっている場合であって、画像表示部401fがOKランプ414およびNGランプ415によるランプ点灯の対象となっていて、かつ、他のランプ点灯の対象となっている画像表示部401における検知領域での画像判定が正常検知となっている場合、第1制御部316は、OKランプ414を点灯させる。 Further, when the result of the image determination by the detection area determination unit 314 is normal detection, the image display unit 401f is the target of lamp lighting by the OK lamp 414 and the NG lamp 415, and other When the image determination in the detection area of the image display unit 401 that is the target of the lamp lighting is normal detection, the first control unit 316 turns on the OK lamp 414.

また、検知領域判定部314による画像判定の結果、異常検知となった場合、図9に示すように、第1制御部316は、検知領域570を示す枠を、通常状態の色とは異なる色で、かつ、通常状態の枠よりも太く表示させる。例えば、第1制御部316は、異常検知を示すために、検知領域570を示す枠を「赤色」かつ太く表示させ、この表示状態を例えば1秒間継続させる。また、第1制御部316は、検知領域570における画像判定で異常検知がなされたとき、画像表示部401fがOKランプ414およびNGランプ415によるランプ点灯の対象となっている場合、NGランプ415を点灯させる。そして、第1制御部316は、1秒後、検知領域570を示す枠の表示を通常状態の枠の表示に戻す。なお、第1制御部316は、検知領域判定部314により、検知基準画像と、検知領域の画像との比較で、画素値が検知領域570の属性情報の感度以上異なる画素の数の合計である差分が、当該属性情報の閾値以上となっている限り、検知領域570を示す枠を「赤色」かつ太く表示させる状態を継続し、異常検知の状態となっていることを示し続けるものとしてもよい。この場合、NGランプ415の点灯動作も同様である。 Further, when an abnormality is detected as a result of the image determination by the detection area determination unit 314, as shown in FIG. 9, the first control unit 316 sets the frame indicating the detection area 570 to a color different from the color in the normal state. And, it is displayed thicker than the frame in the normal state. For example, the first control unit 316 displays the frame indicating the detection area 570 in "red" and thick in order to indicate the abnormality detection, and keeps this display state for, for example, 1 second. Further, when an abnormality is detected in the image determination in the detection area 570, the first control unit 316 sets the NG lamp 415 when the image display unit 401f is the target of lamp lighting by the OK lamp 414 and the NG lamp 415. Turn it on. Then, after 1 second, the first control unit 316 returns the display of the frame indicating the detection area 570 to the display of the frame in the normal state. The first control unit 316 is the total number of pixels whose pixel values differ by the detection area determination unit 314 from the detection reference image and the image of the detection area by the sensitivity of the attribute information of the detection area 570 or more. As long as the difference is equal to or greater than the threshold value of the attribute information, the frame indicating the detection area 570 may be continuously displayed in "red" and thick, indicating that the abnormality is detected. .. In this case, the lighting operation of the NG lamp 415 is the same.

そして、検知領域判定部314は、画像判定動作で異常検知をした検知時刻の情報(時刻情報)を、画像判定動作を実行している撮像装置2または仮想カメラ5に関連付けて、記憶部302に記憶させる。また、検知領域判定部314は、画像判定動作で異常検知をした検知時刻の情報(時刻情報)を、画像判定動作を実行している撮像装置2または仮想カメラ5に関連付けて、記憶部302のマーカファイルに書き込む。 Then, the detection area determination unit 314 associates the information (time information) of the detection time when the abnormality is detected in the image determination operation with the image pickup device 2 or the virtual camera 5 executing the image determination operation, and stores the information in the storage unit 302. Remember. Further, the detection area determination unit 314 associates the information (time information) of the detection time when the abnormality is detected in the image determination operation with the image pickup device 2 or the virtual camera 5 executing the image determination operation, and stores the storage unit 302. Write to the marker file.

そして、外部出力部332は、検知領域判定部314により異常の判定がなされた場合、異常信号を外部機器10に出力する。 Then, when the detection area determination unit 314 determines the abnormality, the external output unit 332 outputs the abnormality signal to the external device 10.

以上のように、第1制御部316は、各検知領域を示す枠を、異常検知の場合には通常状態とは別の色および枠の太さで表示して、異常検知であることを明示するようにしている。これによって、ユーザは、各画像表示部401の画像判定動作(監視動作)のうち、どの画像表示部401の検知領域で異常検知がなされたのかについてのタイミングを視覚的に把握することができる。 As described above, the first control unit 316 displays the frame indicating each detection area in a color different from the normal state and the thickness of the frame in the case of abnormality detection, and clearly indicates that the abnormality is detected. I try to do it. As a result, the user can visually grasp the timing of the detection area of the image display unit 401 in which the abnormality detection is performed in the image determination operation (monitoring operation) of each image display unit 401.

(仮想カメラが画像判定システムである場合の構成について)
図10は、実施形態に係る画像判定システムの全体構成において仮想カメラを画像判定システムとした場合の一例を示す図である。図11は、実施形態に係る情報処理装置の表示装置に表示されるウォッチャ画面において、仮想カメラとしての画像判定システムから出力されたウォッチャ画面が表示された状態の一例を示す図である。図10および図11を参照しながら、本実施形態に係る画像判定システム1において、上述のように仮想カメラ5として別の画像判定システムが接続されている場合の構成および動作の詳細について説明する。
(About the configuration when the virtual camera is an image judgment system)
FIG. 10 is a diagram showing an example of a case where a virtual camera is used as an image determination system in the overall configuration of the image determination system according to the embodiment. FIG. 11 is a diagram showing an example of a state in which the watcher screen output from the image determination system as a virtual camera is displayed on the watcher screen displayed on the display device of the information processing device according to the embodiment. With reference to FIGS. 10 and 11, in the image determination system 1 according to the present embodiment, details of the configuration and operation when another image determination system is connected as the virtual camera 5 as described above will be described.

図10に示すように、本実施形態に係る画像判定システム1では、図1で示した仮想カメラ5として、画像判定システム1の構成に準じる形態を有する別の画像判定システム5aが、ハブ4を介して情報処理装置3に接続されている。画像判定システム5aに含まれる情報処理装置(画像判定システム1の情報処理装置3に相当)は、画像判定システム1と同様に複数のIPカメラ(画像判定システム1の撮像装置2に相当)から画像データを受信して、表示装置であるディスプレイ(ディスプレイ105に相当)に、例えば、ウォッチャ画面400に相当する画面を表示させ、画像判定システム1と同様に、各IPカメラから受信した画像データに対する画像判定を行う。また、画像判定システム5aに含まれる情報処理装置は、ディスプレイに表示されている画面(例えばウォッチャ画面400に相当する画面)をキャプチャして、例えば、Motion JPEGまたはH.264等の動画圧縮規格により動画に変換して外部に配信するアプリケーション(以下、単に「配信アプリ」と称する)がインストールされている。ここでは、図11に示すように、画像判定システム5aに含まれる情報処理装置は、配信アプリの機能により、ディスプレイに表示されているウォッチャ画面900(ウォッチャ画面400に対応)をキャプチャして変換した動画(第2画像データの一例)を、ハブ4を介して情報処理装置3へ送信する。すなわち、画像判定システム5a自体は、撮像装置そのものではないが、ディスプレイに表示された動画を出力することが可能であるので、当該動画を、撮像装置2の画像データに相当するものとして受信することにより画像判定を行うことができる。画像判定システム5aは、本発明の「別のデバイス」に相当する。 As shown in FIG. 10, in the image determination system 1 according to the present embodiment, another image determination system 5a having a form similar to the configuration of the image determination system 1 as the virtual camera 5 shown in FIG. 1 has a hub 4. It is connected to the information processing device 3 via. The information processing device (corresponding to the information processing device 3 of the image judgment system 1) included in the image judgment system 5a is an image from a plurality of IP cameras (corresponding to the image pickup device 2 of the image judgment system 1) as in the image judgment system 1. Upon receiving the data, a display (corresponding to the display 105) which is a display device is displayed, for example, a screen corresponding to the watcher screen 400, and an image for the image data received from each IP camera is displayed as in the image determination system 1. Make a judgment. Further, the information processing device included in the image determination system 5a captures the screen displayed on the display (for example, the screen corresponding to the watcher screen 400) and conforms to a moving image compression standard such as Motion JPEG or H.264. An application that converts to video and distributes it to the outside (hereinafter, simply referred to as "distribution application") is installed. Here, as shown in FIG. 11, the information processing device included in the image determination system 5a captures and converts the watcher screen 900 (corresponding to the watcher screen 400) displayed on the display by the function of the distribution application. A moving image (an example of the second image data) is transmitted to the information processing device 3 via the hub 4. That is, although the image determination system 5a itself is not the image pickup device itself, it can output the moving image displayed on the display, so that the moving image is received as corresponding to the image data of the image pickup device 2. The image can be determined by. The image determination system 5a corresponds to "another device" of the present invention.

例えば、図11に示すように、画像判定システム1側のウォッチャ画面400において、画像表示部401aに表示された、画像判定システム5aから出力されたウォッチャ画面900を示す動画(キャプチャ動画)に対して異常検知するための検知領域として、検知領域指定部309により検知領域571、572が指定されている。なお、図11では、説明の都合上、ウォッチャ画面900に含まれるOKランプおよびNGランプを、ウォッチャ画面400の画像表示部401a上では、縮尺を変えて(拡大して)図示している。 For example, as shown in FIG. 11, on the watcher screen 400 on the image determination system 1 side, with respect to a moving image (captured moving image) showing the watcher screen 900 output from the image determination system 5a displayed on the image display unit 401a. The detection areas 571 and 572 are designated by the detection area designation unit 309 as the detection areas for detecting an abnormality. In FIG. 11, for convenience of explanation, the OK lamp and the NG lamp included in the watcher screen 900 are shown on the image display unit 401a of the watcher screen 400 at different scales (enlarged).

検知領域571は、ウォッチャ画面900のOKランプ(ウォッチャ画面400のOKランプ414に相当)を含むように指定されている。検知領域572は、ウォッチャ画面900のNGランプ(ウォッチャ画面400のNGランプ415に相当)を含むように指定されている。そして、検知領域指定部309は、例えば、ウォッチャ画面900のOKランプが消灯している状態における検知領域571内の画像を検知基準画像として抽出して記憶部302に記憶させ、指定した検知領域571の情報(位置および形状等の位置情報、および属性情報等)を記憶部302に記憶させる。また、検知領域指定部309は、例えば、ウォッチャ画面900のNGランプが消灯している状態における検知領域572内の画像を検知基準画像として抽出して記憶部302に記憶させ、指定した検知領域572の情報(位置および形状等の位置情報、および属性情報等)を記憶部302に記憶させる。 The detection area 571 is designated to include the OK lamp of the watcher screen 900 (corresponding to the OK lamp 414 of the watcher screen 400). The detection area 572 is designated to include the NG lamp of the watcher screen 900 (corresponding to the NG lamp 415 of the watcher screen 400). Then, the detection area designation unit 309 extracts, for example, an image in the detection area 571 when the OK lamp of the watcher screen 900 is off as a detection reference image and stores it in the storage unit 302, and stores the designated detection area 571. Information (position information such as position and shape, attribute information, etc.) is stored in the storage unit 302. Further, the detection area designation unit 309 extracts, for example, an image in the detection area 572 when the NG lamp of the watcher screen 900 is off as a detection reference image and stores it in the storage unit 302, and stores the image in the storage unit 302, and the designated detection area 572. Information (position information such as position and shape, attribute information, etc.) is stored in the storage unit 302.

図11に示すウォッチャ画面400では、画像表示部401aにおいて仮想カメラ5である画像判定システム5aから受信した動画をリアルタイムに表示し、検知領域571、572が指定された状態を示している。次に、ユーザは、入力部303の操作によって、画像判定動作(監視動作)を開始させたい撮像装置2または仮想カメラ5に対応する画像表示部401(ここでは、画像表示部401a)を押下して選択状態にする。そして、第1制御部316は、ユーザによる入力部303の操作によって、監視開始ボタン411が押下されると、画像表示部401aに表示される画像判定システム5aのリアルタイムの動画(キャプチャ動画)について画像判定動作を開始する。また、第1制御部316は、選択状態になっている画像表示部401aに対応する画像判定システム5aに関連付けて、画像判定動作(監視動作)を開始した時刻の情報(時刻情報)を記憶部302に記憶させる。なお、第1制御部316は、ユーザによる入力部303の操作によって、監視停止ボタン412が押下された場合、選択状態の画像表示部401aについての画像判定動作を停止し、その画像表示部401aに対応する画像判定システム5aに関連付けて、画像判定動作(監視動作)を停止した時刻の情報(時刻情報)を記憶部302に記憶させる。 In the watcher screen 400 shown in FIG. 11, the moving image received from the image determination system 5a, which is the virtual camera 5, is displayed in real time on the image display unit 401a, and the detection areas 571 and 572 are designated. Next, the user presses the image display unit 401 (here, the image display unit 401a) corresponding to the image pickup device 2 or the virtual camera 5 whose image determination operation (monitoring operation) is desired to be started by the operation of the input unit 303. To select. Then, the first control unit 316 is an image of a real-time moving image (captured moving image) of the image determination system 5a displayed on the image display unit 401a when the monitoring start button 411 is pressed by the operation of the input unit 303 by the user. The judgment operation is started. Further, the first control unit 316 stores information (time information) at the time when the image determination operation (monitoring operation) is started in association with the image determination system 5a corresponding to the image display unit 401a in the selected state. Store in 302. When the monitoring stop button 412 is pressed by the operation of the input unit 303 by the user, the first control unit 316 stops the image determination operation of the image display unit 401a in the selected state, and causes the image display unit 401a to stop the image determination operation. In association with the corresponding image determination system 5a, the storage unit 302 stores information (time information) at the time when the image determination operation (monitoring operation) is stopped.

そして、検知領域判定部314は、記憶部302から、指定された検知領域571、572の属性情報を取得する。検知領域判定部314は、監視動作が実行されている間、指定された検知領域571、572において、検知基準画像と、動画における検知領域の画像とを比較して画像判定を実行する。 Then, the detection area determination unit 314 acquires the attribute information of the designated detection areas 571 and 572 from the storage unit 302. While the monitoring operation is being executed, the detection area determination unit 314 compares the detection reference image with the image of the detection area in the moving image in the designated detection areas 571 and 572, and executes image determination.

具体的には、検知領域判定部314は、検知領域571、572に対応する動画における検知領域の画像と、検知基準画像とを比較して画像判定をする。このとき、画像判定として、検知領域判定部314は、検知基準画像と、検知領域の画像との比較で、画素値が検知領域571の属性情報の感度以上異なる画素の数の合計である差分が、当該属性情報の閾値以上となった場合に、検知領域571の画像判定としてOKランプが点灯したと判定する。また、検知領域判定部314は、検知基準画像と、検知領域の画像との比較で、画素値が検知領域571の属性情報の感度以上異なる画素の数の合計である差分が、当該属性情報の閾値未満である限り、検知領域571の画像判定としてOKランプが点灯していないと判定する。 Specifically, the detection area determination unit 314 compares the image of the detection area in the moving image corresponding to the detection areas 571 and 572 with the detection reference image to perform image determination. At this time, as an image determination, the detection area determination unit 314 compares the detection reference image with the image in the detection area, and the difference is the total number of pixels whose pixel values differ by the sensitivity of the attribute information of the detection area 571 or more. When the value exceeds the threshold value of the attribute information, it is determined that the OK lamp is lit as an image determination of the detection area 571. Further, the detection area determination unit 314 compares the detection reference image with the image in the detection area, and the difference in which the pixel value is the total number of pixels different from the sensitivity of the attribute information in the detection area 571 is the sum of the attribute information. As long as it is less than the threshold value, it is determined that the OK lamp is not lit as an image determination of the detection area 571.

同様に、検知領域判定部314は、検知基準画像と、検知領域の画像との比較で、画素値が検知領域572の属性情報の感度以上異なる画素の数の合計である差分が、当該属性情報の閾値以上となった場合に、検知領域572の画像判定としてNGランプが点灯したと判定する。また、検知領域判定部314は、検知基準画像と、検知領域の画像との比較で、画素値が検知領域572の属性情報の感度以上異なる画素の数の合計である差分が、当該属性情報の閾値未満である限り、検知領域572の画像判定としてNGランプが点灯していないと判定する。 Similarly, the detection area determination unit 314 compares the detection reference image with the image in the detection area, and the difference in which the pixel value is the total number of pixels different from the sensitivity of the attribute information in the detection area 572 is the attribute information. When the value exceeds the threshold value of, it is determined that the NG lamp is lit as an image determination of the detection area 572. Further, the detection area determination unit 314 compares the detection reference image with the image in the detection area, and the difference in which the pixel value is the total number of pixels different from the sensitivity of the attribute information in the detection area 572 is the sum of the number of pixels of the attribute information. As long as it is less than the threshold value, it is determined that the NG lamp is not lit as an image determination of the detection area 572.

そして、検知領域判定部314は、画像判定動作でOKランプまたはNGランプが点灯した場合の検知時刻の情報(時刻情報)を、画像判定システム5aに関連付けて、記憶部302に記憶させる。また、検知領域判定部314は、画像判定動作でOKランプまたはNGランプが点灯した場合の検知時刻の情報(時刻情報)を、画像判定システム5aに関連付けて、記憶部302のマーカファイルに書き込む。 Then, the detection area determination unit 314 stores the information (time information) of the detection time when the OK lamp or the NG lamp is turned on in the image determination operation in the storage unit 302 in association with the image determination system 5a. Further, the detection area determination unit 314 writes information (time information) of the detection time when the OK lamp or the NG lamp is turned on in the image determination operation in the marker file of the storage unit 302 in association with the image determination system 5a.

そして、外部出力部332は、検知領域判定部314により異常の判定がなされた場合(検知領域572のNGランプが点灯したことが検知された場合)、異常信号を外部機器10に出力する。 Then, when the detection area determination unit 314 determines the abnormality (when it is detected that the NG lamp in the detection area 572 is lit), the external output unit 332 outputs the abnormality signal to the external device 10.

以上のように、撮像装置2と代替する仮想カメラ5としての画像判定システム5aがハブ4を介して情報処理装置3に接続されている場合、画像判定システム5aの使用方法、設定方法等を特に認識していなくても、画像判定システム5a内で認識された画像判定の結果について、画像判定システム5aが出力する動画に対する画像判定システム1側での画像判定を通して、画像判定システム1側で認識することが可能となる。 As described above, when the image determination system 5a as the virtual camera 5 that replaces the image pickup apparatus 2 is connected to the information processing apparatus 3 via the hub 4, the usage method, setting method, etc. of the image determination system 5a are particularly described. Even if it is not recognized, the result of the image judgment recognized in the image judgment system 5a is recognized by the image judgment system 1 side through the image judgment on the image judgment system 1 side for the moving image output by the image judgment system 5a. It becomes possible.

(仮想カメラが画像判定システムである場合の多段構成について)
図12は、実施形態に係る画像判定システムに対して、仮想カメラとしての画像判定システムが多段で接続される状態を説明する図である。図12を参照しながら、本実施形態に係る画像判定システム1において、仮想カメラ5として別の画像判定システムが多段に接続されている場合の動作の詳細について説明する。
(About multi-stage configuration when the virtual camera is an image judgment system)
FIG. 12 is a diagram illustrating a state in which an image determination system as a virtual camera is connected in multiple stages to the image determination system according to the embodiment. With reference to FIG. 12, in the image determination system 1 according to the present embodiment, details of the operation when another image determination system is connected in multiple stages as the virtual camera 5 will be described.

図10および図11で上述したように、情報処理装置3に接続される仮想カメラ5として、画像判定システム1の構成に準じる形態を有する別の画像判定システムとした場合、さらに、当該別の画像判定システムに対してさらに別の画像判定システムを仮想カメラとして多段に接続することが可能である。例えば、図12では、ウォッチャ画面400を表示する画像判定システム1には、仮想カメラとして、ウォッチャ画面400_1を表示する画像判定システム、およびウォッチャ画面400_2を表示する画像判定システムが接続されている。さらに、ウォッチャ画面400_1を表示する画像判定システムには、さらに仮想カメラとして、ウォッチャ画面400_1_1と表示する画像判定システムが接続されている。 As described above in FIGS. 10 and 11, when the virtual camera 5 connected to the information processing device 3 is another image determination system having a form similar to the configuration of the image determination system 1, the other image is further obtained. It is possible to connect yet another image judgment system to the judgment system as a virtual camera in multiple stages. For example, in FIG. 12, the image determination system 1 for displaying the watcher screen 400 is connected as a virtual camera with an image determination system for displaying the watcher screen 400_1 and an image determination system for displaying the watcher screen 400_2. Further, an image determination system that displays the watcher screen 400_1 is connected to the image determination system that displays the watcher screen 400_1 as a virtual camera.

以上のように、画像判定システム1に接続される仮想カメラを、別の画像判定システムとした場合、当該別の画像判定システムに対する仮想カメラとして、さらに別の画像判定システムを接続することができる。これによって、多段に接続される画像判定システムの使用方法、設定方法等を認識していなくても、画像判定システムのウォッチャ画面のOKランプまたはNGランプを検知領域として上位の画像判定システムが画像判定を行っていくことによって、多段の構成のうちの最下位の画像判定システムでの画像判定結果を、最上位の画像判定システム1がキャプチャ動画に対する画像判定を通じて認識することができる。 As described above, when the virtual camera connected to the image determination system 1 is another image determination system, another image determination system can be connected as a virtual camera for the other image determination system. As a result, even if the user does not recognize the usage method, setting method, etc. of the image judgment system connected in multiple stages, the upper image judgment system uses the OK lamp or the NG lamp of the watcher screen of the image judgment system as the detection area to judge the image. By performing the above, the image determination result in the lowest image determination system in the multi-stage configuration can be recognized by the uppermost image determination system 1 through the image determination for the captured moving image.

(ビューワ画面における画像判定再現動作)
図13は、実施形態に係る情報処理装置の表示装置に表示されるビューワ画面で録画された画像データが再生表示される状態の一例を示す図である。図14は、実施形態に係る情報処理装置の表示装置に表示されるビューワ画面でマーカリスト画面が表示された状態の一例を示す図である。図13および図14を参照しながら、ビューワ画面700の構成、および録画(記憶)された複数の画像データが表示される動作等について説明する。
(Image judgment reproduction operation on the viewer screen)
FIG. 13 is a diagram showing an example of a state in which the image data recorded on the viewer screen displayed on the display device of the information processing apparatus according to the embodiment is reproduced and displayed. FIG. 14 is a diagram showing an example of a state in which the marker list screen is displayed on the viewer screen displayed on the display device of the information processing device according to the embodiment. The configuration of the viewer screen 700, the operation of displaying a plurality of recorded (stored) image data, and the like will be described with reference to FIGS. 13 and 14.

CPU101により実行されるプログラム(アプリケーション)により、図13に示すビューワ画面700が表示部333に表示される。ビューワ画面700は、第2再生部318によって、複数の撮像装置2から受信した画像データおよび仮想カメラ5から出力された画像データであって、画像振分部312により記憶部302に記憶された過去の画像データが表示され、指定された各検知領域において画像判定の状態を再現する画面である。 The viewer screen 700 shown in FIG. 13 is displayed on the display unit 333 by the program (application) executed by the CPU 101. The viewer screen 700 is image data received from a plurality of image pickup devices 2 by the second reproduction unit 318 and image data output from the virtual camera 5, and is stored in the storage unit 302 by the image distribution unit 312 in the past. This is a screen on which the image data of is displayed and the state of image judgment is reproduced in each designated detection area.

ビューワ画面700は、図25に示すように、画像表示部701a〜701fと、再生ボタン703aと、一時停止ボタン703bと、早送りボタン703cと、早戻しボタン703dと、停止ボタン703eと、シークバー704と、スライダー705と、時刻表示部706と、マーカリストボタン707と、を含む。 As shown in FIG. 25, the viewer screen 700 includes image display units 701a to 701f, a play button 703a, a pause button 703b, a fast forward button 703c, a fast rewind button 703d, a stop button 703e, and a seek bar 704. , A slider 705, a time display unit 706, and a marker list button 707.

画像表示部701a〜701fは、ユーザにより操作される入力部303からの操作信号に従って、第2再生部318によって、記憶部302に記憶された各撮像装置2および仮想カメラ5の過去の画像データがそれぞれ表示される表示領域である。また、ここでは、画像表示部701a〜701fは、同じ日付・時刻の画像データを表示するものとする。また、画像表示部701a〜701fは、ユーザによる入力部303の操作によって押下(例えば、マウス108のクリック操作等、以下同様)されると、選択状態にすることができる。なお、画像表示部701a〜701fを区別なく呼称する場合、または総称する場合、単に「画像表示部701」というものとする。 In the image display units 701a to 701f, the past image data of each image pickup device 2 and the virtual camera 5 stored in the storage unit 302 by the second reproduction unit 318 according to the operation signal from the input unit 303 operated by the user. Each is a display area to be displayed. Further, here, it is assumed that the image display units 701a to 701f display image data of the same date and time. Further, the image display units 701a to 701f can be put into the selected state when pressed by the operation of the input unit 303 by the user (for example, a click operation of the mouse 108, etc.). When the image display units 701a to 701f are referred to without distinction, or when they are collectively referred to, they are simply referred to as "image display units 701".

再生ボタン703aは、ユーザによる入力部303の操作によって押下されると、第2再生部318によって、画像表示部701に表示された画像データが再生開始されるボタンである。一時停止ボタン703bは、ユーザによる入力部303の操作によって押下されると、第2再生部318によって、画像表示部701に再生表示されている画像データおよび動作等の画像が一時停止されるボタンである。早送りボタン703cは、ユーザによる入力部303の操作によって押下されると、第2再生部318によって、画像表示部701に再生表示されている画像データが早送り表示されるボタンである。早戻しボタン703dは、ユーザによる入力部303の操作によって押下されると、第2再生部318によって、画像表示部701に再生表示されている画像データが早戻し表示されるボタンである。停止ボタン703eは、ユーザによる入力部303の操作によって押下されると、第2再生部318によって、画像表示部701に再生表示されている画像データが停止されるボタンである。 The reproduction button 703a is a button that, when pressed by the operation of the input unit 303 by the user, starts reproduction of the image data displayed on the image display unit 701 by the second reproduction unit 318. When the pause button 703b is pressed by the operation of the input unit 303 by the user, the second reproduction unit 318 suspends the image data and the image such as the operation displayed on the image display unit 701. is there. The fast-forward button 703c is a button that, when pressed by the operation of the input unit 303 by the user, fast-forward displays the image data reproduced and displayed on the image display unit 701 by the second reproduction unit 318. The fast-rewind button 703d is a button that, when pressed by the operation of the input unit 303 by the user, rewinds the image data reproduced and displayed on the image display unit 701 by the second playback unit 318. The stop button 703e is a button that, when pressed by the operation of the input unit 303 by the user, stops the image data reproduced and displayed on the image display unit 701 by the second reproduction unit 318.

シークバー704は、その上に配置されるスライダー705の位置により、画像表示部701に再生表示されている画像データがどの時間のものなのかを示す棒状の形状体である。スライダー705は、画像表示部701に再生表示されている画像データの撮像時刻(表示されているフレームが撮像された時刻、または表示されている画像が取得された時刻)に対応したシークバー704上の位置にスライドする形状体かつ操作部である。逆に、スライダー705は、ユーザによる入力部303の操作によってスライドされると、第2再生部318によって、スライダー705が存在するシークバー704上の位置に対応した撮像時刻の画像データとしてのフレーム、および画像が画像表示部701に表示される。 The seek bar 704 is a rod-shaped body that indicates the time of the image data reproduced and displayed on the image display unit 701 depending on the position of the slider 705 arranged on the seek bar 704. The slider 705 is on the seek bar 704 corresponding to the imaging time of the image data reproduced and displayed on the image display unit 701 (the time when the displayed frame is captured or the time when the displayed image is acquired). It is a shape and operation unit that slides to a position. On the contrary, when the slider 705 is slid by the operation of the input unit 303 by the user, the second reproduction unit 318 sets the frame as image data of the imaging time corresponding to the position on the seek bar 704 in which the slider 705 exists, and the frame. The image is displayed on the image display unit 701.

時刻表示部706は、第2再生部318によって、画像表示部701に再生表示されている画像データの撮像日付(取得された日付の概念を含む)および撮像時刻を表示する表示部である。 The time display unit 706 is a display unit that displays the imaging date (including the concept of the acquired date) and the imaging time of the image data reproduced and displayed on the image display unit 701 by the second reproduction unit 318.

マーカリストボタン707は、ユーザによる入力部303の操作によって押下されると、リスト制御部320により記憶部302に記憶されたまマーカファイルを読み出し、マーカファイルの内容を表示させる、図14に示すマーカリスト画面800が表示されるボタンである。 When the marker list button 707 is pressed by the operation of the input unit 303 by the user, the list control unit 320 reads the marker file stored in the storage unit 302 and displays the contents of the marker file. The marker list shown in FIG. This is a button on which the screen 800 is displayed.

ビューワ画面700の画像表示部701で、第2再生部318により記憶部302に記憶された過去の画像データが表示されると、領域表示制御部319は、記憶部302に記憶された、画像判定動作(監視動作)が開始および終了された時刻の情報、各検知領域が指定された時刻の情報、および各検知領域で検知された時刻の情報を読み出す。領域表示制御部319は、図13に示すように、これらの時刻情報に基づいて、各検知領域を示す枠を、画像表示部701に再生表示されている過去の画像データに重畳させて表示させる。例えば、領域表示制御部319は、時刻情報から、画像判定動作が開始された時刻よりも、各検知領域が指定された時刻が前であれば、画像判定動作の開始時刻から、指定された各検知領域を示す枠を表示させる。また、領域表示制御部319は、画像表示部701に再生表示されている画像データの時刻が、時刻情報における画像判定動作の終了時刻になった時点で、表示していた各検知領域を示す枠を消去する。 When the image display unit 701 of the viewer screen 700 displays the past image data stored in the storage unit 302 by the second playback unit 318, the area display control unit 319 determines the image stored in the storage unit 302. The information of the time when the operation (monitoring operation) is started and ended, the information of the time when each detection area is specified, and the information of the time detected in each detection area are read out. As shown in FIG. 13, the area display control unit 319 displays a frame indicating each detection area by superimposing it on the past image data reproduced and displayed on the image display unit 701 based on the time information. .. For example, if the time in which each detection area is specified is earlier than the time when the image determination operation is started from the time information, the area display control unit 319 starts each of the specified times from the start time of the image determination operation. Display a frame indicating the detection area. Further, the area display control unit 319 has a frame indicating each detection area displayed when the time of the image data reproduced and displayed on the image display unit 701 becomes the end time of the image determination operation in the time information. Erase.

また、領域表示制御部319は、画像表示部701に再生表示されている画像データの時刻が、時刻情報における特定の検知領域の異常検知時刻になった時点で、その検知領域を示す枠を通常状態の色とは異なる色、かつ、通常状態の枠よりも太く表示させる。例えば、領域表示制御部319は、ウォッチャ画面400において表示される各検知領域を示す枠と同様に、例えば、「赤色」かつ太く表示させる。 Further, the area display control unit 319 usually sets a frame indicating the detection area when the time of the image data reproduced and displayed on the image display unit 701 becomes the abnormality detection time of the specific detection area in the time information. Display a color different from the color of the state and thicker than the frame of the normal state. For example, the area display control unit 319 displays, for example, "red" and thick like a frame indicating each detection area displayed on the watcher screen 400.

以上のように、領域表示制御部319により、記憶部302に記憶された、各時刻情報に基いて、各検知領域の枠の表示状態を制御することによって、ウォッチャ画面400における画像判定動作(監視動作)の状態を、過去の画像データで再現することができる。これによって、ユーザは、リアルタイムの画像データおよび画像ではなく、過去の画像データおよび画像について、どのような画像判定動作が行われていたかを確認することができる。 As described above, the area display control unit 319 controls the display state of the frame of each detection area based on each time information stored in the storage unit 302, thereby performing the image determination operation (monitoring) on the watcher screen 400. The state of operation) can be reproduced with past image data. This allows the user to confirm what kind of image determination operation has been performed on past image data and images instead of real-time image data and images.

なお、画像表示部701a〜701fは、同じ日付・時刻の画像データを表示するものとしているが、これに限定されるものではなく、例えば、画像表示部701それぞれにシークバーおよび操作ボタン等を有するものとし、各画像表示部701で異なる日付・時刻の画像データを表示できるものとしてもよい。 The image display units 701a to 701f are intended to display image data of the same date and time, but the present invention is not limited to this, and for example, the image display units 701 each have a seek bar and an operation button. It is also possible that each image display unit 701 can display image data having a different date and time.

また、図14に示すように、リスト制御部320は、ユーザによる入力部303の操作によってマーカリストボタン707が押下されると、記憶部302に記憶されたマーカファイルを読み出し、マーカファイルの内容を示すマーカリスト画面800を表示させる。図14に示すように、マーカリスト画面800は、検知履歴表示部802(リスト)を含む。 Further, as shown in FIG. 14, when the marker list button 707 is pressed by the operation of the input unit 303 by the user, the list control unit 320 reads the marker file stored in the storage unit 302 and reads the contents of the marker file. The marker list screen 800 is displayed. As shown in FIG. 14, the marker list screen 800 includes a detection history display unit 802 (list).

検知履歴表示部802は、検知機能に基づく検知の日付・時刻のリストの表示領域である。具体的には、検知履歴表示部802には、検知領域の領域名、検知された日時・時刻、ならびに、対応する撮像装置2および仮想カメラ5を識別する名称が表示されている。 The detection history display unit 802 is a display area for a list of detection dates / times based on the detection function. Specifically, the detection history display unit 802 displays the area name of the detection area, the detected date / time / time, and the name that identifies the corresponding imaging device 2 and the virtual camera 5.

リスト制御部320は、ユーザによる入力部303の操作によって検知履歴表示部802のいずれかの検知領域を示すレコードが押下されると、第2再生部318に、そのレコードが示す日時・時刻の画像データを画像表示部701に表示させる。 When a record indicating any detection area of the detection history display unit 802 is pressed by the operation of the input unit 303 by the user, the list control unit 320 displays an image of the date and time indicated by the record on the second playback unit 318. The data is displayed on the image display unit 701.

このように、図14に示すマーカリスト画面800を表示させることによって、各検知領域での検知の日付・時刻をリスト表示することによって、不具合の発生のタイミング、傾向または異常発生の原因等の特定を容易にすることができる。 In this way, by displaying the marker list screen 800 shown in FIG. 14, the dates and times of detection in each detection area are displayed in a list, thereby identifying the timing, tendency, cause of abnormality, etc. of the occurrence of the defect. Can be facilitated.

なお、上述の図12に示したように、仮想カメラ5として多段に別の画像判定システムが接続されている場合については、ウォッチャ画面400の検知履歴表示部802のレコードを押下することにより、第2再生部318に、ウォッチャ画面400_1、400_2、400_1_1で録画された画像データを再生表示させることもできる。 As shown in FIG. 12 above, when another image determination system is connected in multiple stages as the virtual camera 5, the record of the detection history display unit 802 of the watcher screen 400 is pressed to obtain the second image. 2 The image data recorded on the watcher screens 400_1, 400_2, and 400_1_1 can be reproduced and displayed on the reproduction unit 318.

以上のように、本実施形態に係る画像判定システム1では、撮像装置2のように直接撮影された画像データを出力する装置だけでなく、異常等の有無の判定対象とすることができる画像データを出力するデバイスを接続して、当該デバイスから取得した画像データに対して、撮像装置からの画像データに対する画像判定と同様に、画像判定を行うものとしている。これによって判定対象となる画像は撮像装置により撮影された画像データに限定せずに、撮像装置以外のデバイスからの画像についても判定対象とすることができる。 As described above, in the image determination system 1 according to the present embodiment, not only the device that outputs the image data directly captured like the image pickup apparatus 2 but also the image data that can be used as a determination target for the presence or absence of an abnormality or the like. Is connected to a device that outputs the image, and the image data acquired from the device is subjected to image determination in the same manner as the image determination for the image data from the image pickup device. As a result, the image to be determined is not limited to the image data captured by the imaging device, but the image from a device other than the imaging device can also be determined.

また、撮像装置2と代替する仮想カメラ5としての画像判定システム5aがハブ4を介して情報処理装置3に接続されている場合、画像判定システム5aの使用方法、設定方法等を特に認識していなくても、画像判定システム5a内で認識された画像判定の結果について、画像判定システム5aが出力する動画に対する画像判定システム1側での画像判定を通して、画像判定システム1側で認識することが可能となる。 Further, when the image determination system 5a as a virtual camera 5 that replaces the image pickup apparatus 2 is connected to the information processing apparatus 3 via the hub 4, the usage method, setting method, etc. of the image determination system 5a are particularly recognized. Even without it, the result of the image judgment recognized in the image judgment system 5a can be recognized by the image judgment system 1 side through the image judgment on the image judgment system 1 side for the moving image output by the image judgment system 5a. It becomes.

また、画像判定システム1に接続される仮想カメラを、別の画像判定システムとした場合、当該別の画像判定システムに対する仮想カメラとして、さらに別の画像判定システムを接続することができる。これによって、多段に接続される画像判定システムの使用方法、設定方法等を認識していなくても、画像判定システムのウォッチャ画面のOKランプまたはNGランプ等を検知領域として上位の画像判定システムが画像判定を行っていくことによって、多段の構成のうちの最下位の画像判定システムでの画像判定結果を、最上位の画像判定システム1がキャプチャ動画に対する画像判定を通じて認識することができる。 Further, when the virtual camera connected to the image determination system 1 is another image determination system, another image determination system can be connected as a virtual camera for the other image determination system. As a result, even if the user does not recognize the usage method, setting method, etc. of the image judgment system connected in multiple stages, the upper image judgment system uses the OK lamp or NG lamp of the watcher screen of the image judgment system as the detection area to display the image. By performing the determination, the image determination result in the lowest image determination system in the multi-stage configuration can be recognized by the uppermost image determination system 1 through the image determination for the captured moving image.

なお、上述の図11に示すように、本実施形態に係る画像判定システム1では、画像判定システム5aの情報処理装置の配信アプリが、ディスプレイに表示される画面全体(例えば画面全体で表示したウォッチャ画面900)をキャプチャした動画を情報処理装置3へ送信しているものとしたが、これに限定されない。例えば、画像判定システム5aの情報処理装置の配信アプリは、ディスプレイに表示される画面の一部の画像(例えば、ウォッチャ画面900のOKランプおよびNGランプを含む一部の画像)、または、画面の一部の画像のレイアウトを変えて組み合わせた画像等を、情報処理装置3へ送信するものとしてもよい。 As shown in FIG. 11 described above, in the image determination system 1 according to the present embodiment, the distribution application of the information processing device of the image determination system 5a is a watcher displayed on the entire screen displayed on the display (for example, a watcher displayed on the entire screen). It is assumed that the moving image captured on the screen 900) is transmitted to the information processing device 3, but the present invention is not limited to this. For example, the distribution application of the information processing device of the image determination system 5a may display a part of the image of the screen displayed on the display (for example, a part of the image including the OK lamp and the NG lamp of the watcher screen 900) or the screen. Images and the like obtained by changing the layout of some images and combining them may be transmitted to the information processing apparatus 3.

また、図10に示すように、仮想カメラ5として画像判定システム5aを適用した場合、画像判定システム5aの情報処理装置が、ディスプレイの画面をキャプチャして、そのキャプチャした画像を、画像判定システム1の情報処理装置3へ送信する場合、所定の遅延が生じる可能性がある。この場合、ウォッチャ画面400で表示される画像判定システム5aからの動画と、撮像装置2からの画像データとでは、表示している画像データおよび動画の時刻が異なることになる。この場合、上述の遅延は既知であるものとし、画像判定システム1の情報処理装置3は、ウォッチャ画面400の各画像表示部401に表示させる画像データおよび動作について、当該遅延を考慮して表示タイミングをずらず処理を行うことによって、各画像表示部401で表示される画像データおよび動画の時刻を統一にすることができる。 Further, as shown in FIG. 10, when the image determination system 5a is applied as the virtual camera 5, the information processing device of the image determination system 5a captures the screen of the display, and the captured image is used as the image determination system 1. When transmitting to the information processing device 3 of the above, a predetermined delay may occur. In this case, the time of the displayed image data and the moving image is different between the moving image from the image determination system 5a displayed on the watcher screen 400 and the image data from the imaging device 2. In this case, it is assumed that the above-mentioned delay is known, and the information processing device 3 of the image determination system 1 displays the image data and the operation to be displayed on each image display unit 401 of the watcher screen 400 in consideration of the delay. By performing the processing without shifting, the time of the image data and the moving image displayed on each image display unit 401 can be unified.

(変形例1)
本実施形態の変形例1に係る画像判定システムについて、本実施形態に係る画像判定システム1と相違する点を中心に説明する。本実施形態では、仮想カメラ5として画像判定システム1とは別の画像判定システムを、画像判定システム1の情報処理装置3に接続した構成および動作について説明した。本変形例では、仮想カメラとしてアナログカメラを含むシステムを、情報処理装置3へ接続した場合の構成および動作について説明する。なお、本変形例に係る情報処理装置3のハードウェア構成および機能ブロック構成は、上述の実施形態で説明した構成と同様である。
(Modification example 1)
The image determination system according to the first modification of the present embodiment will be described focusing on the differences from the image determination system 1 according to the present embodiment. In the present embodiment, the configuration and operation of connecting an image determination system different from the image determination system 1 as the virtual camera 5 to the information processing device 3 of the image determination system 1 have been described. In this modification, a configuration and operation when a system including an analog camera as a virtual camera is connected to the information processing device 3 will be described. The hardware configuration and the functional block configuration of the information processing device 3 according to this modification are the same as the configurations described in the above-described embodiment.

図15は、変形例1に係る画像判定システムの全体構成の一例を示す図である。図15を参照しながら、本変形例に係る画像判定システム1bの構成および動作について説明する。 FIG. 15 is a diagram showing an example of the overall configuration of the image determination system according to the first modification. The configuration and operation of the image determination system 1b according to this modification will be described with reference to FIG.

図15に示すように、画像判定システム1bは、図1に示す画像判定システム1が有する仮想カメラ5の代わりに、仮想カメラ5bを有する構成となっている。仮想カメラ5bは、アナログカメラを含むシステムであり、具体的には、アナログカメラ21と、変換器22と、PC(Personal Computer)23(情報処理装置の一例)と、を含む。なお、図15では、撮像装置2の図示を省略している。また、仮想カメラ5bは、本発明の「別のデバイス」に相当する。 As shown in FIG. 15, the image determination system 1b has a configuration in which the virtual camera 5b is provided instead of the virtual camera 5 included in the image determination system 1 shown in FIG. The virtual camera 5b is a system including an analog camera, and specifically includes an analog camera 21, a converter 22, and a PC (Personal Computer) 23 (an example of an information processing device). In FIG. 15, the image pickup device 2 is not shown. Further, the virtual camera 5b corresponds to "another device" of the present invention.

アナログカメラ21は、被写体から光を電気信号に変換することによって被写体を撮像(撮影)し、アナログの画像信号を生成するアナログカメラである。 The analog camera 21 is an analog camera that captures (photographs) a subject by converting light from the subject into an electric signal and generates an analog image signal.

変換器22は、アナログカメラ21からAVケーブル24を介して受信したアナログの画像信号を、デジタルの画像データに変換する装置である。変換器22は、変換したデジタルの画像データを、USB(Universal Serial Bus)ケーブル25を介してPC23へ送信する。なお、変換器22は、USBケーブル25を介してPC23へ画像データを送信することに限定されるものではなく、例えば、HDMIケーブル等によって送信するものとしてもよい。 The converter 22 is a device that converts an analog image signal received from the analog camera 21 via the AV cable 24 into digital image data. The converter 22 transmits the converted digital image data to the PC 23 via the USB (Universal Serial Bus) cable 25. The converter 22 is not limited to transmitting image data to the PC 23 via the USB cable 25, and may be transmitted by, for example, an HDMI cable or the like.

PC23は、アナログカメラ21により撮影されたアナログ信号が変換器22により変換されたデジタルの画像データに対して、所定の解析等を行う情報処理装置である。PC23は、図15に示すように、解析アプリ23aと、配信アプリ23bとがインストールされている。 The PC 23 is an information processing device that performs a predetermined analysis or the like on the digital image data obtained by converting the analog signal captured by the analog camera 21 by the converter 22. As shown in FIG. 15, the analysis application 23a and the distribution application 23b are installed on the PC 23.

解析アプリ23aは、変換器22から受信した画像データに対して所定の解析を行うためのアプリケーションである。なお、解析アプリ23aは、画像データを解析するのではなく、単に画像データを再生表示するアプリケーションであってもよい。 The analysis application 23a is an application for performing a predetermined analysis on the image data received from the converter 22. The analysis application 23a may be an application that simply reproduces and displays the image data instead of analyzing the image data.

配信アプリ23bは、PC23のディスプレイに表示されている画面をキャプチャして、例えば、Motion JPEGまたはH.264等の動画圧縮規格により動画に変換して、ハブ4を介して情報処理装置3へ送信(配信)するアプリケーションである。すなわち、PC23のネットワークI/Fからは、解析アプリ23aにより所定の解析結果等(例えば画像データの再生の表示も含む)が表示されたディスプレイでの表示画面の動画(キャプチャ動画)(第2画像データの一例)が、情報処理装置3へ送信される。 The distribution application 23b captures the screen displayed on the display of the PC 23, converts it into a moving image according to a moving image compression standard such as Motion JPEG or H.264, and transmits it to the information processing device 3 via the hub 4. It is an application to (deliver). That is, from the network I / F of the PC 23, a moving image (captured moving image) (second image) of the display screen on the display on which a predetermined analysis result or the like (including display of reproduction of image data) is displayed by the analysis application 23a. An example of data) is transmitted to the information processing device 3.

以上のように、アナログカメラで撮影されたアナログ信号の画像データに対する所定の解析結果等(例えば画像データの再生の表示も含む)が表示された画面の動画を、情報処理装置3へ送信することが可能であるので、仮想カメラとして、図15に示したようなアナログカメラを含むシステムを適用することができる。 As described above, it is possible to transmit to the information processing apparatus 3 a moving image of a screen displaying a predetermined analysis result or the like (including display of reproduction of the image data) for the image data of the analog signal taken by the analog camera. Since it is possible, a system including an analog camera as shown in FIG. 15 can be applied as a virtual camera.

(変形例2)
本実施形態の変形例2に係る画像判定システムについて、本実施形態に係る画像判定システム1と相違する点を中心に説明する。本実施形態では、仮想カメラ5として画像判定システム1とは別の画像判定システムを、画像判定システム1の情報処理装置3に接続した構成および動作について説明した。本変形例では、仮想カメラとして産業用デジタルカメラを含むシステムを、情報処理装置3へ接続した場合の構成および動作について説明する。なお、本変形例に係る情報処理装置3のハードウェア構成および機能ブロック構成は、上述の実施形態で説明した構成と同様である。
(Modification 2)
The image determination system according to the second modification of the present embodiment will be described focusing on the differences from the image determination system 1 according to the present embodiment. In the present embodiment, the configuration and operation of connecting an image determination system different from the image determination system 1 as the virtual camera 5 to the information processing device 3 of the image determination system 1 have been described. In this modification, a configuration and operation when a system including an industrial digital camera as a virtual camera is connected to the information processing device 3 will be described. The hardware configuration and the functional block configuration of the information processing device 3 according to this modification are the same as the configurations described in the above-described embodiment.

図16は、変形例2に係る画像判定システムの全体構成の一例を示す図である。図16を参照しながら、本変形例に係る画像判定システム1cの構成および動作について説明する。 FIG. 16 is a diagram showing an example of the overall configuration of the image determination system according to the second modification. The configuration and operation of the image determination system 1c according to this modification will be described with reference to FIG.

図16に示すように、画像判定システム1cは、図1に示す画像判定システム1が有する仮想カメラ5の代わりに、仮想カメラ5cを有する構成となっている。仮想カメラ5cは、産業用デジタルカメラを含むシステムであり、具体的には、産業用デジタルカメラ31a、31b(ビデオカメラの一例)と、変換器32a、32bと、PC33(情報処理装置の一例)と、を含む。なお、図16では、撮像装置2の図示を省略している。また、仮想カメラ5cは、本発明の「別のデバイス」に相当する。 As shown in FIG. 16, the image determination system 1c has a configuration in which the virtual camera 5c is provided instead of the virtual camera 5 included in the image determination system 1 shown in FIG. The virtual camera 5c is a system including an industrial digital camera. Specifically, the industrial digital cameras 31a and 31b (an example of a video camera), converters 32a and 32b, and a PC 33 (an example of an information processing device). And, including. Note that FIG. 16 omits the illustration of the image pickup apparatus 2. Further, the virtual camera 5c corresponds to "another device" of the present invention.

産業用デジタルカメラ31a、31bは、被写体から光を電気信号に変換することによって被写体を撮像(撮影)し、複数のフレーム(画像データ)で構成された動画(例えば、10[FPS])である画像データを生成するデジタルカメラである。 The industrial digital cameras 31a and 31b are moving images (for example, 10 [FPS]) composed of a plurality of frames (image data) by capturing (shooting) the subject by converting light from the subject into an electric signal. It is a digital camera that generates image data.

変換器32a、32bは、産業用デジタルカメラ31a、31bで撮影された画像データであって、HDMIケーブル34a、34bによりHDMI規格で送信されてきた画像データを、USB規格で通信可能な画像データに変換する装置である。変換器32a、32bは、変換したUSB規格で通信可能な画像データを、USBケーブル35a、35bを介してPC33へ送信する。 The converters 32a and 32b are image data taken by the industrial digital cameras 31a and 31b, and the image data transmitted by the HDMI cables 34a and 34b in the HDMI standard is converted into image data that can be communicated by the USB standard. It is a device to convert. The converters 32a and 32b transmit the converted image data that can be communicated with the USB standard to the PC 33 via the USB cables 35a and 35b.

PC33は、産業用デジタルカメラ31a、31bにより撮影された画像データに対して、所定の解析等を行う情報処理装置である。PC33は、図16に示すように、解析アプリ33aと、配信アプリ33bとがインストールされている。 The PC 33 is an information processing device that performs predetermined analysis and the like on the image data captured by the industrial digital cameras 31a and 31b. As shown in FIG. 16, the analysis application 33a and the distribution application 33b are installed on the PC 33.

解析アプリ33aは、変換器32a、32bから受信した画像データに対して所定の解析を行うためのアプリケーションである。 The analysis application 33a is an application for performing a predetermined analysis on the image data received from the converters 32a and 32b.

配信アプリ33bは、PC33のディスプレイに表示されている画面をキャプチャして、例えば、Motion JPEGまたはH.264等の動画圧縮規格により動画に変換して、ハブ4を介して情報処理装置3へ送信(配信)するアプリケーションである。すなわち、PC33のネットワークI/Fからは、解析アプリ33aにより所定の解析結果等(例えば画像データの再生の表示も含む)が表示されたディスプレイでの表示画面の動画(キャプチャ動画)(第2画像データの一例)が、情報処理装置3へ送信される。 The distribution application 33b captures the screen displayed on the display of the PC 33, converts it into a moving image according to a moving image compression standard such as Motion JPEG or H.264, and transmits it to the information processing device 3 via the hub 4. It is an application to (deliver). That is, from the network I / F of the PC 33, a moving image (captured moving image) (second image) of the display screen on the display on which a predetermined analysis result or the like (including the display of reproduction of image data) is displayed by the analysis application 33a. An example of data) is transmitted to the information processing device 3.

以上のように、産業用ビデオカメラで撮影された画像データに対する所定の解析結果等(例えば画像データの再生の表示も含む)が表示された画面の動画を、情報処理装置3へ送信することが可能であるので、仮想カメラとして、図16に示したような産業用ビデオカメラを含むシステムを適用することができる。 As described above, it is possible to transmit to the information processing apparatus 3 a moving image of a screen displaying a predetermined analysis result or the like (including display of reproduction of image data) for image data taken by an industrial video camera. Since it is possible, a system including an industrial video camera as shown in FIG. 16 can be applied as a virtual camera.

また、PC33において、解析アプリ33aの機能が、受信された産業用デジタルカメラ31a、31bからの画像データが記憶装置等に保存させずに解析のみを行う機能である場合、産業用デジタルカメラ31a、31bを含むシステムを、情報処理装置3へ仮想カメラとして接続することによって、仮想カメラの動画等の画像データとして記憶部302に記憶することができる。そして、領域表示制御部319により、ウォッチャ画面400における画像判定動作(監視動作)の状態を、記憶部302に記憶された過去の動画等の画像データで再現することができる。これによって、ユーザは、仮想カメラ5cで撮影された過去の画像データに基づいて解析アプリ33aによりどのような解析動作が行われていたかを確認することができる。 Further, in the PC 33, when the function of the analysis application 33a is a function of performing analysis only without storing the received image data from the industrial digital cameras 31a and 31b in a storage device or the like, the industrial digital camera 31a, By connecting the system including 31b to the information processing device 3 as a virtual camera, it can be stored in the storage unit 302 as image data such as a moving image of the virtual camera. Then, the area display control unit 319 can reproduce the state of the image determination operation (monitoring operation) on the watcher screen 400 with image data such as a past moving image stored in the storage unit 302. As a result, the user can confirm what kind of analysis operation has been performed by the analysis application 33a based on the past image data taken by the virtual camera 5c.

また、産業用デジタルカメラ31a、31bを含むシステム、特に解析アプリ33aの使用方法、設定方法等を特に認識していなくても、仮想カメラ5c内で認識される解析等の結果について、仮想カメラ5cが出力する画像データに対する情報処理装置3での画像判定を通して、解析等の結果を認識することが可能となる。 Further, even if the system including the industrial digital cameras 31a and 31b, particularly the usage method and the setting method of the analysis application 33a are not particularly recognized, the result of the analysis or the like recognized in the virtual camera 5c can be obtained by the virtual camera 5c. The result of analysis or the like can be recognized through the image determination by the information processing apparatus 3 for the image data output by.

(変形例3)
本実施形態の変形例3に係る画像判定システムについて、本実施形態に係る画像判定システム1と相違する点を中心に説明する。本実施形態では、仮想カメラ5として画像判定システム1とは別の画像判定システムを、画像判定システム1の情報処理装置3に接続した構成および動作について説明した。本変形例では、仮想カメラとしてアプリケーションによる解析結果等を表示する情報処理装置を含むシステムを、情報処理装置3へ接続した場合の構成および動作について説明する。なお、本変形例に係る情報処理装置3のハードウェア構成および機能ブロック構成は、上述の実施形態で説明した構成と同様である。
(Modification 3)
The image determination system according to the third modification of the present embodiment will be described focusing on the differences from the image determination system 1 according to the present embodiment. In the present embodiment, the configuration and operation of connecting an image determination system different from the image determination system 1 as the virtual camera 5 to the information processing device 3 of the image determination system 1 have been described. In this modification, a configuration and operation when a system including an information processing device that displays analysis results by an application as a virtual camera is connected to the information processing device 3 will be described. The hardware configuration and the functional block configuration of the information processing device 3 according to this modification are the same as the configurations described in the above-described embodiment.

図17は、変形例3に係る画像判定システムに接続される仮想カメラが出力する画像として音を可視化するソフトウェアの画像について説明する図である。図17を参照しながら、アプリケーションによる解析結果等を表示する情報処理装置を含むシステムを仮想カメラとした場合の例について説明する。 FIG. 17 is a diagram illustrating an image of software that visualizes sound as an image output by a virtual camera connected to the image determination system according to the third modification. An example will be described in the case where a system including an information processing device for displaying analysis results by an application is used as a virtual camera with reference to FIG.

本変形例に係る仮想カメラには、例えば、図17に示すような、振動または音声等の波形データに対してウェーブレット変換を行い、当該波形データを色で表現する解析アプリがインストールされた情報処理装置が含まれるものとする。そして、当該情報処理装置にインストールされた配信アプリにより、図17に示すようなウェーブレット変換された波形データを色で表現する解析アプリのアプリケーション画面をキャプチャした動画(第2画像データの一例)として、ハブ4を介して情報処理装置3へ送信される。これによって、情報処理装置3の表示部333に表示されるウォッチャ画面400には、図17に示すような解析アプリのアプリケーション画面が表示されることになり、当該アプリケーション画面の波形表示に対して、検知領域指定部309により、図17に示すような検知領域573を指定することができる。例えば、検知領域573の設定内容(設定画面500での設定に準じた内容)で、図17(a)に示すように、良品の波形データは赤色の分布が少なく、図17(b)に示すように、不良品の波形データは赤色の分布が多いことから、赤色の分布が少ない画像を検知基準画像となるように設定する。これによって、ウォッチャ画面400における画像判定動作において、検知領域573の画像と、上述の検知基準画像との比較により、不良品の波形データであることを検知することが可能となる。 Information processing in which the virtual camera according to this modification is equipped with an analysis application that performs wavelet transform on waveform data such as vibration or voice as shown in FIG. 17 and expresses the waveform data in color. The device shall be included. Then, as a moving image (an example of the second image data) that captures the application screen of the analysis application that expresses the wavelet-transformed waveform data in color by the distribution application installed in the information processing device, as shown in FIG. It is transmitted to the information processing device 3 via the hub 4. As a result, the application screen of the analysis application as shown in FIG. 17 is displayed on the watcher screen 400 displayed on the display unit 333 of the information processing device 3, and the waveform display of the application screen is displayed. The detection area designation unit 309 can specify the detection area 573 as shown in FIG. For example, in the setting content of the detection area 573 (content according to the setting on the setting screen 500), as shown in FIG. 17A, the waveform data of the non-defective product has a small distribution of red, and is shown in FIG. 17B. As described above, since the waveform data of defective products has a large distribution of red, an image having a small distribution of red is set as a detection reference image. As a result, in the image determination operation on the watcher screen 400, it is possible to detect that the waveform data is a defective product by comparing the image in the detection area 573 with the above-mentioned detection reference image.

すなわち、アプリケーションによる解析結果等を表示する情報処理装置を含むシステムの使用方法、設定方法等を特に認識していなくても、解析のアプリケーション側で認識される解析結果について、仮想カメラが出力する画像データに対する情報処理装置3での画像判定を通して、当該解析結果を認識することが可能となる。また、図17に示すアプリケーションによる解析結果(すなわち仮想カメラ単体内での解析結果)を、情報処理装置3側の画像判定によって、当該解析結果を連携して認識することができる。 That is, an image output by the virtual camera about the analysis result recognized by the analysis application side even if the usage method, setting method, etc. of the system including the information processing device that displays the analysis result by the application is not particularly recognized. The analysis result can be recognized through the image determination by the information processing apparatus 3 for the data. Further, the analysis result by the application shown in FIG. 17 (that is, the analysis result in the virtual camera alone) can be recognized in cooperation with the image determination on the information processing apparatus 3 side.

(変形例4)
本実施形態の変形例4に係る画像判定システムについて、本実施形態に係る画像判定システム1と相違する点を中心に説明する。本実施形態では、仮想カメラ5として画像判定システム1とは別の画像判定システムを、画像判定システム1の情報処理装置3に接続した構成および動作について説明した。本変形例では、仮想カメラとして無線通信によりキャプチャ動画を送信するスマートフォンを、情報処理装置3へ無線接続した場合の構成および動作について説明する。なお、本変形例に係る情報処理装置3のハードウェア構成および機能ブロック構成は、上述の実施形態で説明した構成と同様である。
(Modification example 4)
The image determination system according to the modified example 4 of the present embodiment will be described focusing on the differences from the image determination system 1 according to the present embodiment. In the present embodiment, the configuration and operation of connecting an image determination system different from the image determination system 1 as the virtual camera 5 to the information processing device 3 of the image determination system 1 have been described. In this modification, a configuration and operation when a smartphone that transmits a captured video by wireless communication as a virtual camera is wirelessly connected to the information processing device 3 will be described. The hardware configuration and the functional block configuration of the information processing device 3 according to this modification are the same as the configurations described in the above-described embodiment.

図18は、変形例4に係る画像判定システムの全体構成の一例を示す図である。図18を参照しながら、本変形例に係る画像判定システム1dの構成および動作について説明する。 FIG. 18 is a diagram showing an example of the overall configuration of the image determination system according to the modified example 4. The configuration and operation of the image determination system 1d according to this modification will be described with reference to FIG.

図18に示すように、画像判定システム1dは、図1に示す画像判定システム1が有する仮想カメラ5の代わりに、仮想カメラ5dとしてのスマートフォン41(無線通信端末の一例)を有する構成となっている。仮想カメラ5dは、本発明の「別のデバイス」に相当する。 As shown in FIG. 18, the image determination system 1d has a configuration in which a smartphone 41 (an example of a wireless communication terminal) as the virtual camera 5d is provided instead of the virtual camera 5 included in the image determination system 1 shown in FIG. There is. The virtual camera 5d corresponds to "another device" of the present invention.

スマートフォン41は、表示画面をキャプチャして、例えば、Motion JPEGまたはH.264等の動画圧縮規格により動画に変換して外部に配信する配信アプリがインストールされている。当該配信アプリは、スマートフォン41が有する無線I/FによってWi−Fi等の通信規格により、キャプチャした動画(第2画像データの一例)を情報処理装置3へ送信する。なお、仮想カメラ5dとして情報処理装置3へ無線接続する情報処理装置としては、スマートフォン41に限定されるものではなく、例えば、タブレット端末、または無線通信が可能なPC等(無線通信端末の一例)であってもよい。 The smartphone 41 is installed with a distribution application that captures a display screen, converts it into a moving image according to a moving image compression standard such as Motion JPEG or H.264, and distributes it to the outside. The distribution application transmits the captured moving image (an example of the second image data) to the information processing device 3 by the wireless I / F of the smartphone 41 according to a communication standard such as Wi-Fi. The information processing device that wirelessly connects to the information processing device 3 as the virtual camera 5d is not limited to the smartphone 41, and is, for example, a tablet terminal or a PC capable of wireless communication (an example of a wireless communication terminal). It may be.

以上のように、スマートフォン41に表示される画面をキャプチャした動画を、情報処理装置3へ送信することが可能であるので、仮想カメラとして、図17に示したようなスマートフォン41等の無線通信端末を適用することができる。 As described above, since it is possible to transmit the moving image of the screen displayed on the smartphone 41 to the information processing device 3, a wireless communication terminal such as the smartphone 41 as shown in FIG. 17 as a virtual camera. Can be applied.

また、スマートフォン41で起動および表示されているアプリ画面、またはスマートフォン41の内蔵カメラで撮像した写真の画面等に対して、情報処理装置3側の画像判定によって、当該画面に対する異常等の検知を行うことが可能となる。 Further, with respect to the application screen activated and displayed on the smartphone 41, the screen of the photograph taken by the built-in camera of the smartphone 41, etc., the image determination on the information processing device 3 side detects an abnormality or the like on the screen. It becomes possible.

(変形例5)
本実施形態の変形例5に係る画像判定システムについて、本実施形態に係る画像判定システム1と相違する点を中心に説明する。本実施形態では、仮想カメラ5として画像判定システム1とは別の画像判定システムを、画像判定システム1の情報処理装置3に接続した構成および動作について説明した。本変形例では、仮想カメラとしてソフトウェアで処理された結果を表示する情報処理装置(PC等)を、情報処理装置3へ接続した場合の構成および動作について説明する。なお、本変形例に係る情報処理装置3のハードウェア構成および機能ブロック構成は、上述の実施形態で説明した構成と同様である。
(Modification 5)
The image determination system according to the modified example 5 of the present embodiment will be described focusing on the differences from the image determination system 1 according to the present embodiment. In the present embodiment, the configuration and operation of connecting an image determination system different from the image determination system 1 as the virtual camera 5 to the information processing device 3 of the image determination system 1 have been described. In this modification, the configuration and operation when an information processing device (PC or the like) that displays the result processed by software as a virtual camera is connected to the information processing device 3 will be described. The hardware configuration and the functional block configuration of the information processing device 3 according to this modification are the same as the configurations described in the above-described embodiment.

図19は、変形例5に係る画像判定システムに接続される仮想カメラが出力する画像としてデータからグラフをプロットするソフトウェアの画像について説明する図である。図19を参照しながら、ソフトウェアで処理された結果を表示する情報処理装置(PC等)を仮想カメラとした場合の例について説明する。 FIG. 19 is a diagram illustrating an image of software that plots a graph from data as an image output by a virtual camera connected to the image determination system according to the fifth modification. An example in which a virtual camera is used as an information processing device (PC or the like) for displaying the result processed by software will be described with reference to FIG.

本変形例に係る仮想カメラは、例えば、図19(a)および図19(b)に示すように、他のアプリケーションが生成したCSV(Comma−Separated Values)データを入力してグラフを自動作成し、かつ、更新されているCSVファイルのデータを適宜、グラフにも更新して反映するソフトウェアを実行している情報処理装置であるものとする。また、当該ソフトウェアでは、例えば、更新されていくグラフの値が所定の閾値を超えた場合のグラフ(例えば図19(b)に示すグラフ)の色を変える(例えば、赤色に変える)ような機能を有するものとする。そして、当該情報処理装置にインストールされた配信アプリにより、図19に示すような自動作成かつ更新されるグラフが表示されたソフトウェアの画面をキャプチャした動画(第2画像データの一例)として、ハブ4を介して情報処理装置3へ送信される。これによって、情報処理装置3の表示部333に表示されるウォッチャ画面400には、図19に示すようなグラフが表示された画面が表示されることになり、当該グラフを含む領域を、検知領域指定部309により検知領域として指定することができる。この場合、検知領域の設定内容(設定画面500での設定に準じた内容)で、赤色がない画像を検知基準画像となるように設定する。これによって、ウォッチャ画面400における画像判定動作において、検知領域の画像と、上述の検知基準画像との比較により、グラフの値が閾値を超えたことを検知することが可能となる。 The virtual camera according to this modification automatically creates a graph by inputting CSV (Comma-Separated Values) data generated by another application, for example, as shown in FIGS. 19 (a) and 19 (b). In addition, it is assumed that the information processing device is executing software that updates and reflects the updated CSV file data in the graph as appropriate. Further, in the software, for example, a function of changing the color (for example, changing to red) of the graph (for example, the graph shown in FIG. 19B) when the value of the graph to be updated exceeds a predetermined threshold value. Shall have. Then, as a moving image (an example of the second image data) of the software screen on which the graph automatically created and updated as shown in FIG. 19 is displayed by the distribution application installed in the information processing device, the hub 4 Is transmitted to the information processing device 3 via. As a result, the watcher screen 400 displayed on the display unit 333 of the information processing apparatus 3 displays a screen on which a graph as shown in FIG. 19 is displayed, and the area including the graph is detected as a detection area. It can be designated as a detection area by the designation unit 309. In this case, the setting content of the detection area (content according to the setting on the setting screen 500) is set so that the image without red color becomes the detection reference image. As a result, in the image determination operation on the watcher screen 400, it is possible to detect that the value of the graph exceeds the threshold value by comparing the image in the detection area with the above-mentioned detection reference image.

以上のように、ソフトウェアで処理された結果を表示する情報処理装置(PC等)の当該結果を表示する画面の動画を情報処理装置3へ送信することが可能であるので、仮想カメラとして、ソフトウェアで処理された結果を表示する情報処理装置(PC等)を適用することができる。 As described above, since it is possible to transmit the moving image of the screen displaying the result of the information processing device (PC or the like) that displays the result processed by the software to the information processing device 3, the software as a virtual camera. An information processing device (PC or the like) that displays the result processed in is applicable.

また、ソフトウェアで処理された結果を表示する情報処理装置(PC等)の使用方法、設定方法等を特に認識していなくても、当該ソフトウェアで作成されたグラフの結果について仮想カメラが出力する動画に対する情報処理装置3での画像判定を通して、当該結果を認識することが可能となる。 In addition, even if the user does not particularly recognize the usage method, setting method, etc. of the information processing device (PC, etc.) that displays the result processed by the software, the video output by the virtual camera about the result of the graph created by the software. The result can be recognized through the image determination by the information processing apparatus 3 for the above.

(変形例6)
本実施形態の変形例6に係る画像判定システムについて、本実施形態に係る画像判定システム1と相違する点を中心に説明する。本実施形態では、仮想カメラ5として画像判定システム1とは別の画像判定システムを、画像判定システム1の情報処理装置3に接続した構成および動作について説明した。本変形例では、仮想カメラとして、撮像装置で撮像された画像データに対して画像処理を施す情報処理装置を含むシステムを、情報処理装置3へ無線接続した場合の構成および動作について説明する。なお、本変形例に係る情報処理装置3のハードウェア構成および機能ブロック構成は、上述の実施形態で説明した構成と同様である。
(Modification 6)
The image determination system according to the modification 6 of the present embodiment will be described focusing on the differences from the image determination system 1 according to the present embodiment. In the present embodiment, the configuration and operation of connecting an image determination system different from the image determination system 1 as the virtual camera 5 to the information processing device 3 of the image determination system 1 have been described. In this modification, a configuration and operation when a system including an information processing device that performs image processing on image data captured by the imaging device as a virtual camera is wirelessly connected to the information processing device 3 will be described. The hardware configuration and the functional block configuration of the information processing device 3 according to this modification are the same as the configurations described in the above-described embodiment.

図20は、変形例6に係る画像判定システムの全体構成の一例を示す図である。図20を参照しながら、本変形例に係る画像判定システム1eの構成および動作について説明する。 FIG. 20 is a diagram showing an example of the overall configuration of the image determination system according to the modified example 6. The configuration and operation of the image determination system 1e according to this modification will be described with reference to FIG. 20.

図20(a)および図20(b)に示すように、撮像装置51で撮像した被写体61の画像は、周囲の環境(天気、時刻、季節等)によって明るくなったり暗くなったりする。例えば、図20(a)に示す例のように、晴れの状態で撮像装置51により被写体61が撮像された場合、明るい画像が得られるのに対し、図20(b)に示す例のように、雨天の状態で撮像装置51により被写体61が撮像された場合、暗い画像が得られることになる。このような場合に、撮像装置51で撮影された画像データをそのまま情報処理装置3へ送信し、設定画面500で指定した検知領域で定まる検知基準画像を1つ固定すると、当該画像データが撮影された環境とは異なる環境で撮影された画像データに対して画像判定された場合、誤った判定結果が出得る。 As shown in FIGS. 20A and 20B, the image of the subject 61 captured by the imaging device 51 may become brighter or darker depending on the surrounding environment (weather, time, season, etc.). For example, as in the example shown in FIG. 20 (a), when the subject 61 is imaged by the image pickup device 51 in a sunny state, a bright image is obtained, whereas as in the example shown in FIG. 20 (b). When the subject 61 is imaged by the image pickup apparatus 51 in a rainy weather, a dark image can be obtained. In such a case, if the image data captured by the imaging device 51 is transmitted to the information processing device 3 as it is and one detection reference image determined in the detection area specified on the setting screen 500 is fixed, the image data is captured. When the image is judged on the image data taken in the environment different from the environment, an erroneous judgment result may be obtained.

そこで、特定の環境(例えば図20(a)に示す晴れの環境)で撮像装置51により撮像された被写体61の画像(第1撮像画像)のある部分(部分画像)を、環境調整用の基準部分62(基準画像)として登録する。そして、基準部分62の登録後、撮像装置51により撮像された被写体61の画像から、基準部分62に対応する画像の明るさおよび彩度等の変化を計算し、当該画像が基準部分62の明るさおよび彩度等(すなわち色)になるような変換式を求め、当該画像全体に対して当該変換式を適用することによって、環境の変化を低減した画像を得ることができる。 Therefore, a part (partial image) of the image (first captured image) of the subject 61 captured by the imaging device 51 in a specific environment (for example, the sunny environment shown in FIG. 20A) is used as a reference for environment adjustment. Register as part 62 (reference image). Then, after registering the reference portion 62, changes in brightness, saturation, etc. of the image corresponding to the reference portion 62 are calculated from the image of the subject 61 captured by the imaging device 51, and the image is the brightness of the reference portion 62. By obtaining a conversion formula such as brightness and saturation (that is, color) and applying the conversion formula to the entire image, an image with reduced changes in the environment can be obtained.

図20(c)に示すように、本変形例に係る画像判定システム1eは、図1に示す画像判定システム1が有する仮想カメラ5の代わりに、仮想カメラ5eを有する構成となっている。仮想カメラ5eは、撮像装置で撮像された画像データに対して画像処理を施す情報処理装置を含むシステムであり、具体的には、撮像装置51と、PC53(情報処理装置の一例)と、を含む。なお、図20(c)では、撮像装置2の図示を省略している。また、仮想カメラ5eは、本発明の「別のデバイス」に相当する。 As shown in FIG. 20 (c), the image determination system 1e according to this modification has a configuration in which the virtual camera 5e is provided instead of the virtual camera 5 included in the image determination system 1 shown in FIG. The virtual camera 5e is a system including an information processing device that performs image processing on image data captured by the image pickup device. Specifically, the image pickup device 51 and a PC 53 (an example of the information processing device) are used. Including. In addition, in FIG. 20C, the illustration of the image pickup apparatus 2 is omitted. Further, the virtual camera 5e corresponds to "another device" of the present invention.

撮像装置51は、被写体から光を電気信号に変換することによって被写体を撮像(撮影)し、複数のフレーム(画像データ)で構成された動画(例えば、10[FPS])である画像データを生成するデジタルカメラである。 The image pickup device 51 captures (photographs) the subject by converting light from the subject into an electric signal, and generates image data which is a moving image (for example, 10 [FPS]) composed of a plurality of frames (image data). It is a digital camera.

PC53は、上述のように基準部分62を登録し、撮像装置51により撮像された被写体61の画像(第2撮像画像)から、基準部分62に対応する画像の明るさおよび彩度等の変化を計算し、変換式を求め、当該画像全体に対して当該変換式を適用する画像処理を施す情報処理装置である。PC53は、図20に示すように、画像処理アプリ53aと、配信アプリ53bとがインストールされている。 The PC 53 registers the reference portion 62 as described above, and changes the brightness, saturation, and the like of the image corresponding to the reference portion 62 from the image of the subject 61 (second captured image) captured by the image pickup device 51. It is an information processing device that calculates, obtains a conversion formula, and performs image processing to apply the conversion formula to the entire image. As shown in FIG. 20, the PC 53 has an image processing application 53a and a distribution application 53b installed.

画像処理アプリ53aは、上述の画像処理を施すアプリケーションである。 The image processing application 53a is an application that performs the above-mentioned image processing.

配信アプリ53bは、PC53のディスプレイに表示されている画面をキャプチャして、例えば、Motion JPEGまたはH.264等の動画圧縮規格により動画に変換して、ハブ4を介して情報処理装置3へ送信(配信)するアプリケーションである。すなわち、PC53のネットワークI/Fからは、画像処理アプリ53aにより画像処理が行われた画像データが表示されたディスプレイの表示画面の動画(キャプチャ動画)(第2画像データの一例)が、情報処理装置3へ送信される。 The distribution application 53b captures the screen displayed on the display of the PC 53, converts it into a moving image according to a moving image compression standard such as Motion JPEG or H.264, and transmits it to the information processing device 3 via the hub 4. It is an application to (deliver). That is, from the network I / F of the PC 53, a moving image (captured moving image) (an example of the second image data) of the display screen on which the image data processed by the image processing application 53a is displayed is processed. It is transmitted to the device 3.

以上のように、撮像装置51で撮像された画像データに対して環境の変化の影響を低減する画像処理を施したものが表示された画面の動画を、情報処理装置3へ送信することが可能であるので、仮想カメラとして、図20(c)に示したような撮像装置51で撮像された画像データに対して画像処理を施す情報処理装置(PC53)を含むシステムを適用することができる。これによって、環境の変化を低減した画像データについて情報処理装置3側で画像判定を行うことができるので、誤った判定の発生を抑制することができる。 As described above, it is possible to transmit the moving image of the screen on which the image data captured by the image pickup device 51 is subjected to image processing for reducing the influence of changes in the environment to the information processing device 3. Therefore, as a virtual camera, a system including an information processing device (PC53) that performs image processing on the image data captured by the image pickup device 51 as shown in FIG. 20 (c) can be applied. As a result, the information processing apparatus 3 can perform image determination on the image data in which the change in the environment is reduced, so that the occurrence of erroneous determination can be suppressed.

なお、情報処理装置3へ接続する仮想カメラとしては、上述の実施形態および各変形例で示した仮想カメラに限定されるものではなく、例えば、人体検知および熱源を監視して火災予防するためにサーモグラフィ画像を撮像するシステム、手作業分析を行うために深度センサ画像を撮像するシステム、Wi−Fi経由で画像を取得するラズベリーパイを含むシステム、放射線センサの検知情報を可視化して警報するシステム、作業分析を行うために人の骨格情報を検知するシステム、作業分析をするために人の動線情報を検知するシステム、PC操作をするために人の手によるジェスチャ情報を検知するシステム、人の目線画像を取得するウェアラブルカメラを含むシステム、静電気センサで工程内の静電気発生を可視化して警報するシステム、業務内容の検知および時間分析をするためにPCスクリーン画面を取り込むシステム、ならびに、360度画像を複数取り込む死角のない監視カメラを含むシステム等を、仮想カメラとして適用することもできる。 The virtual camera connected to the information processing device 3 is not limited to the virtual cameras shown in the above-described embodiment and each modification. For example, in order to detect a human body and monitor a heat source to prevent a fire. A system that captures thermography images, a system that captures depth sensor images for manual analysis, a system that includes a raspberry pie that acquires images via Wi-Fi, a system that visualizes and warns the detection information of radiation sensors, A system that detects human skeleton information for work analysis, a system that detects human movement line information for work analysis, a system that detects human gesture information for PC operation, and a human A system including a wearable camera that acquires a line-of-sight image, a system that visualizes and warns the generation of static electricity in the process with an electrostatic sensor, a system that captures a PC screen screen for detecting work content and analyzing time, and a 360-degree image It is also possible to apply a system or the like including a surveillance camera having no blind spot that captures a plurality of images as a virtual camera.

また、上述の実施形態および各変形例のように、ウォッチャ画面400ではリアルタイムの画像データの表示、および、ビューワ画面700では過去の画像データの表示というように画面を分けて表示するものとしているが、これに限定されるものではない。すなわち、ウォッチャ画面400およびビューワ画面700の機能を共通の画面で実現させるものとしてもよい。 Further, as in the above-described embodiment and each modification, the watcher screen 400 displays real-time image data, and the viewer screen 700 displays past image data. , Not limited to this. That is, the functions of the watcher screen 400 and the viewer screen 700 may be realized on a common screen.

また、各表示領域(画像表示部401、701)において、各検知領域を示す表示要素として枠を用いるものとしているが、これに限定されるものではなく、各検知領域を示すことができる表示要素であればどのように表示してもよい。 Further, in each display area (image display units 401 and 701), a frame is used as a display element indicating each detection area, but the present invention is not limited to this, and a display element capable of indicating each detection area is used. If so, it may be displayed in any way.

また、上述の実施形態および各変形例の各機能は、一または複数の処理回路によって実現することが可能である。ここで、「処理回路」とは、電子回路により実装されるプロセッサのようにソフトウェアによって各機能を実行するようプログラミングされたプロセッサや、上述した各機能を実行するよう設計されたASIC(Application Specific Integrated Circuit)、DSP(Digital Signal Processor)、FPGA(Field−Programmable Gate Array)、SoC(System on a chip)、GPU(Graphics Processing Unit)や従来の回路モジュール等のデバイスを含むものとする。 Further, each function of the above-described embodiment and each modification can be realized by one or a plurality of processing circuits. Here, the "processing circuit" is a processor programmed to execute each function by software such as a processor implemented by an electronic circuit, or an ASIC (Application Specific Integrated) designed to execute each function described above. Devices including devices such as Circuits, DSPs (Digital Signal Processors), FPGAs (Field-Programmable Gate Arrays), SoCs (System on a chip), GPUs (Graphics Processing Units), and conventional circuit modules.

また、上述の実施形態および各変形例の情報処理装置3で実行されるプログラムは、インストール可能な形式又は実行可能な形式のファイルでCD−ROM(Compact Disc Read Only Memory)、フレキシブルディスク(FD)、CD−R(Compact Disk−Recordable)、DVD(Digital Versatile Disk)等のコンピュータで読み取り可能な記録媒体に記録してコンピュータ・プログラム・プロダクトとして提供するように構成してもよい。 Further, the program executed by the information processing apparatus 3 of the above-described embodiment and each modification is a file in an installable format or an executable format, which is a CD-ROM (Computer Disc Read Only Memory) or a flexible disk (FD). , CD-R (Compact Disk-Recordable), DVD (Digital Versaille Disk), or the like, which may be recorded on a computer-readable recording medium and provided as a computer program product.

また、上述の実施形態および各変形例の情報処理装置3で実行されるプログラムを、インターネット等のネットワークに接続されたコンピュータ上に格納し、ネットワーク経由でダウンロードさせることにより提供するように構成してもよい。また、上述の実施形態および各変形例の情報処理装置3で実行されるプログラムをインターネット等のネットワーク経由で提供または配布するように構成してもよい。 Further, the program executed by the information processing apparatus 3 of the above-described embodiment and each modification is stored on a computer connected to a network such as the Internet and provided by downloading via the network. May be good. Further, the program executed by the information processing apparatus 3 of the above-described embodiment and each modification may be provided or distributed via a network such as the Internet.

また、上述の実施形態および各変形例の情報処理装置3で実行されるプログラムは、上述した各機能部を含むモジュール構成となっており、実際のハードウェアとしてはCPU(プロセッサ)が上述のROMからプログラムを読み出して実行することにより上記各部が主記憶装置上にロードされ、各部が主記憶装置上に生成されるようになっている。 Further, the program executed by the information processing apparatus 3 of the above-described embodiment and each modification has a module configuration including each of the above-mentioned functional units, and the CPU (processor) is the above-mentioned ROM as the actual hardware. By reading and executing the program from, each of the above parts is loaded on the main storage device, and each part is generated on the main storage device.

1、1b〜1e 画像判定システム
2、2b〜2f 撮像装置
3 情報処理装置
4 ハブ
5 仮想カメラ
5a 画像判定システム
5b〜5e 仮想カメラ
10 外部機器
21 アナログカメラ
22 変換器
23 PC
23a 解析アプリ
23b 配信アプリ
24 AVケーブル
25 USBケーブル
31a、31b 産業用デジタルカメラ
32a、32b 変換器
33 PC
33a 解析アプリ
33b 配信アプリ
34a、34b HDMIケーブル
35a、35b USBケーブル
41 スマートフォン
51 撮像装置
53 PC
53a 画像処理アプリ
53b 配信アプリ
61 被写体
62 基準部分
101 CPU
102 ROM
103 RAM
104 補助記憶装置
105 ディスプレイ
106 ネットワークI/F
107 キーボード
108 マウス
109 DVDドライブ
110 DVD
111 外部機器I/F
112 スピーカ
113 バス
301 画像受信部
302 記憶部
303 入力部
304 第1再生部
308 設定部
309 検知領域設定部
312 画像振分部
314 検知領域判定部
316 第1制御部
318 第2再生部
319 領域表示制御部
320 リスト制御部
321 第2制御部
331 表示制御部
332 外部出力部
333 表示部
400、400_1、400_1_1、400_2 ウォッチャ画面
401、401a〜401f 画像表示部
411 監視開始ボタン
412 監視停止ボタン
413 監視設定ボタン
414 OKランプ
415 NGランプ
421、421a〜421f 状態表示部
500 設定画面
501 カメラ選択タブ
502 設定用画像表示部
503a 再生ボタン
503b 一時停止ボタン
503c 早送りボタン
503d 早戻しボタン
503e 停止ボタン
504 シークバー
505 スライダー
506 時刻表示部
511 設定読出ボタン
512 設定書込ボタン
513 設定反映ボタン
514 閉じるボタン
561 検知領域情報部
562 検知領域ボタン群
562a アクションボタン
562c 削除ボタン
562e 感度増加ボタン
562f 感度減少ボタン
562g 閾値増加ボタン
562h 閾値減少ボタン
570〜573 検知領域
700 ビューワ画面
701、701a〜701f 画像表示部
703a 再生ボタン
703b 一時停止ボタン
703c 早送りボタン
703d 早戻しボタン
703e 停止ボタン
704 シークバー
705 スライダー
706 時刻表示部
707 マーカリストボタン
800 マーカリスト画面
802 検知履歴表示部
900 ウォッチャ画面
1, 1b to 1e Image judgment system 2, 2b to 2f Image pickup device 3 Information processing device 4 Hub 5 Virtual camera 5a Image judgment system 5b to 5e Virtual camera 10 External device 21 Analog camera 22 Converter 23 PC
23a Analysis app 23b Distribution app 24 AV cable 25 USB cable 31a, 31b Industrial digital camera 32a, 32b Converter 33 PC
33a Analysis app 33b Distribution app 34a, 34b HDMI cable 35a, 35b USB cable 41 Smartphone 51 Imaging device 53 PC
53a Image processing application 53b Distribution application 61 Subject 62 Reference part 101 CPU
102 ROM
103 RAM
104 Auxiliary storage 105 Display 106 Network I / F
107 Keyboard 108 Mouse 109 DVD Drive 110 DVD
111 External device I / F
112 Speaker 113 Bus 301 Image receiving unit 302 Storage unit 303 Input unit 304 1st playback unit 308 Setting unit 309 Detection area setting unit 312 Image distribution unit 314 Detection area determination unit 316 1st control unit 318 2nd playback unit 319 Area display Control unit 320 List control unit 321 Second control unit 331 Display control unit 332 External output unit 333 Display unit 400, 400_1, 400_1, 400_2 Watcher screen 401, 401a to 401f Image display unit 411 Monitoring start button 412 Monitoring stop button 413 Monitoring setting Button 414 OK lamp 415 NG lamp 421, 421a to 421f Status display 500 Setting screen 501 Camera selection tab 502 Setting image display 503a Play button 503b Pause button 503c Fast forward button 503d Fast rewind button 503e Stop button 505 Seek bar 505 Time display 511 Setting read button 512 Setting write button 513 Setting reflection button 514 Close button 561 Detection area information part 562 Detection area button group 562a Action button 562c Delete button 562e Sensitivity increase button 562f Sensitivity decrease button 562g Threshold increase button 562h Threshold decrease Buttons 570 to 573 Detection area 700 Viewer screen 701, 701a to 701f Image display unit 703a Play button 703b Pause button 703c Fast forward button 703d Fast rewind button 703e Stop button 704 Seek bar 705 Slider 706 Time display unit 707 Marker list button 800 802 Detection history display 900 Watcher screen

特許第6459256号公報Japanese Patent No. 6459256

Claims (12)

画像データに対して画像判定が可能な画像判定装置であって、
撮像装置から出力された第1画像データ、および、前記画像判定の対象となる画像データを出力する該撮像装置とは別のデバイスから出力された第2画像データのうち少なくとも該第2画像データを受信する受信部と、
前記受信部により受信された少なくとも前記第2画像データを表示装置に再生表示させる第1再生部と、
前記第1画像データまたは前記第2画像データが再生表示される前記表示装置の第1表示領域において、前記画像判定の対象となる検知領域を指定する指定部と、
前記第1画像データおよび前記第2画像データのうち少なくとも一方が表示される前記表示装置の第2表示領域における前記検知領域内の前記第1画像データまたは前記第2画像データに対して前記画像判定を行う判定部と、
を備えた画像判定装置。
An image judgment device capable of image judgment on image data.
Of the first image data output from the image pickup device and the second image data output from a device different from the image pickup device that outputs the image data to be image-determined, at least the second image data is used. The receiver to receive and
A first reproduction unit that reproduces and displays at least the second image data received by the reception unit on a display device.
In the first display area of the display device on which the first image data or the second image data is reproduced and displayed, a designation unit for designating a detection area to be image-determined, and a designated unit.
The image determination is made with respect to the first image data or the second image data in the detection area in the second display area of the display device in which at least one of the first image data and the second image data is displayed. Judgment unit to perform
An image judgment device equipped with.
前記判定部は、前記画像判定の結果をリストとして生成し、
前記リストの中から、入力装置に対する操作により選択された結果が得られた日時に対応する前記第1画像データ、または前記別のデバイスにより出力された前記第2画像データを、前記表示装置に再生表示させる第2再生部を、さらに備えた請求項1に記載の画像判定装置。
The determination unit generates the result of the image determination as a list, and generates the result.
From the list, the first image data corresponding to the date and time when the result selected by the operation on the input device is obtained, or the second image data output by the other device is reproduced on the display device. The image determination device according to claim 1, further comprising a second reproduction unit to be displayed.
前記受信部は、前記別のデバイスに含まれる表示装置に表示される画面の一部の画像データ、または、前記一部の画像データを組み合わせた画像データを受信する請求項1または2に記載の画像判定装置。 The first or second aspect of the present invention, wherein the receiving unit receives a part of the image data of the screen displayed on the display device included in the other device, or the image data obtained by combining the part of the image data. Image judgment device. 前記別のデバイスは、前記画像判定装置と同様に、1以上の撮像装置から画像データを受信する別の画像判定装置を含むシステムであり、
前記受信部は、前記別の画像判定装置からの画像データを前記第2画像データとして受信する請求項1〜3のいずれか一項に記載の画像判定装置。
The other device is a system including another image determination device that receives image data from one or more image pickup devices, like the image determination device.
The image determination device according to any one of claims 1 to 3, wherein the receiving unit receives image data from the other image determination device as the second image data.
前記別のデバイスは、前記画像判定装置と同様に、1以上の撮像装置から画像データを受信する別の画像判定装置を含むシステムが多段に接続されたものである請求項4に記載の画像判定装置。 The image determination according to claim 4, wherein the other device is a system in which a system including another image determination device that receives image data from one or more image pickup devices is connected in multiple stages, similarly to the image determination device. apparatus. 前記別のデバイスは、アナログカメラにより撮影された画像信号を変換器によってデジタルの画像データに変換して、少なくとも該画像データを含む画像データを前記第2画像データとして出力する情報処理装置を含むシステムであり、
前記受信部は、前記情報処理装置から前記第2画像データを受信する請求項1〜3のいずれか一項に記載の画像判定装置。
The other device is a system including an information processing device that converts an image signal taken by an analog camera into digital image data by a converter and outputs at least the image data including the image data as the second image data. Yes,
The image determination device according to any one of claims 1 to 3, wherein the receiving unit receives the second image data from the information processing device.
前記別のデバイスは、ビデオカメラにより撮影された画像データに対して所定の解析処理を行う情報処理装置を含むシステムであり、
前記受信部は、前記情報処理装置から、該情報処理装置の表示装置に表示された前記解析処理の結果を含む画像を前記第2画像データとして受信する請求項1〜3のいずれか一項に記載の画像判定装置。
The other device is a system including an information processing device that performs a predetermined analysis process on image data captured by a video camera.
According to any one of claims 1 to 3, the receiving unit receives an image including the result of the analysis process displayed on the display device of the information processing device from the information processing device as the second image data. The image determination device described.
前記別のデバイスは、アプリケーションにより所定の解析処理が行われる情報処理装置であり、
前記受信部は、前記情報処理装置から、該情報処理装置の表示装置に表示された前記解析処理の結果を含む画像を前記第2画像データとして受信する請求項1〜3のいずれか一項に記載の画像判定装置。
The other device is an information processing device in which a predetermined analysis process is performed by an application.
According to any one of claims 1 to 3, the receiving unit receives an image including the result of the analysis process displayed on the display device of the information processing device from the information processing device as the second image data. The image determination device described.
前記別のデバイスは、表示装置に表示される画像の少なくとも一部の画像を無線通信で前記画像判定装置へ送信する無線通信端末であり、
前記受信部は、前記無線通信端末から前記少なくとも一部の画像を前記第2画像データとして無線通信により受信する請求項1〜3のいずれか一項に記載の画像判定装置。
The other device is a wireless communication terminal that transmits at least a part of the image displayed on the display device to the image determination device by wireless communication.
The image determination device according to any one of claims 1 to 3, wherein the receiving unit receives at least a part of the image from the wireless communication terminal as the second image data by wireless communication.
前記別のデバイスは、アプリケーションにより生成されたデータからグラフを生成および更新して表示装置に表示させる情報処理装置であり、
前記受信部は、前記情報処理装置から、該情報処理装置の前記表示装置に表示された前記グラフを含む画像を前記第2画像データとして受信する請求項1〜3のいずれか一項に記載の画像判定装置。
The other device is an information processing device that generates and updates a graph from data generated by an application and displays it on a display device.
The item according to any one of claims 1 to 3, wherein the receiving unit receives an image including the graph displayed on the display device of the information processing device from the information processing device as the second image data. Image judgment device.
前記別のデバイスは、撮像装置により過去に撮像された第1撮像画像の部分画像を基準画像として、該撮像装置により撮像された第2撮像画像の前記部分画像に対応する位置の画像に対して前記基準画像と同じ色にする変換式を求め、前記第2撮像画像に対して前記変換式を適用した画像を出力する情報処理装置を含むシステムであり、
前記受信部は、前記情報処理装置から、該情報処理装置から出力された、前記変換式を適用した画像を前記第2画像データとして受信する請求項1〜3のいずれか一項に記載の画像判定装置。
The other device uses a partial image of the first captured image captured by the imaging device in the past as a reference image, and refers to an image at a position corresponding to the partial image of the second captured image captured by the imaging device. It is a system including an information processing apparatus that obtains a conversion formula that makes the color the same as the reference image and outputs an image to which the conversion formula is applied to the second captured image.
The image according to any one of claims 1 to 3, wherein the receiving unit receives an image to which the conversion formula is applied, which is output from the information processing device, as the second image data. Judgment device.
第1画像データを出力する1以上の撮像装置、および、画像判定の対象となる第2画像データを出力する、前記撮像装置とは異なる別のデバイスのうち少なくとも前記別のデバイスと、
前記第1画像データおよび前記第2画像データのうち少なくとも一方に対して画像判定を行う画像判定装置と、
を有し、
前記画像判定装置は、
前記第1画像データおよび前記第2画像データのうち少なくとも該第2画像データを受信する受信部と、
前記受信部により受信された少なくとも前記第2画像データを表示装置に再生表示させる再生部と、
前記第1画像データまたは前記第2画像データが再生表示される前記表示装置の第1表示領域において、前記画像判定の対象となる検知領域を指定する指定部と、
前記第1画像データおよび前記第2画像データのうち少なくとも一方が表示される前記表示装置の第2表示領域における前記検知領域内の前記第1画像データまたは前記第2画像データに対して前記画像判定を行う判定部と、
を備えた画像判定システム。
One or more image pickup devices that output the first image data, and at least the other device among other devices different from the image pickup device that output the second image data to be image-determined.
An image determination device that performs image determination on at least one of the first image data and the second image data,
Have,
The image determination device is
A receiving unit that receives at least the second image data of the first image data and the second image data, and
A reproduction unit that reproduces and displays at least the second image data received by the reception unit on a display device.
In the first display area of the display device on which the first image data or the second image data is reproduced and displayed, a designation unit for designating a detection area to be image-determined, and a designated unit.
The image determination is made with respect to the first image data or the second image data in the detection area in the second display area of the display device in which at least one of the first image data and the second image data is displayed. Judgment unit to perform
Image judgment system equipped with.
JP2020105414A 2019-07-31 2020-06-18 Image determination device and image determination system Pending JP2021027579A (en)

Priority Applications (5)

Application Number Priority Date Filing Date Title
US16/929,162 US11223802B2 (en) 2019-07-31 2020-07-15 Image-based determination apparatus and image-based determination system
EP20187931.9A EP3772219A3 (en) 2019-07-31 2020-07-27 Image-based determination apparatus and image-based determination system
EP24163826.1A EP4362457A2 (en) 2019-07-31 2020-07-27 Image-based determination apparatus and image-based determination system
EP23207938.4A EP4294003A3 (en) 2019-07-31 2020-07-27 Image-based determination apparatus and image-based determination system
CN202010751845.XA CN112307882A (en) 2019-07-31 2020-07-30 Image determination device and image determination system

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2019141802 2019-07-31
JP2019141802 2019-07-31

Publications (1)

Publication Number Publication Date
JP2021027579A true JP2021027579A (en) 2021-02-22

Family

ID=74664896

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020105414A Pending JP2021027579A (en) 2019-07-31 2020-06-18 Image determination device and image determination system

Country Status (1)

Country Link
JP (1) JP2021027579A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7115812B1 (en) 2021-06-28 2022-08-09 株式会社オプティム program, method, information processing device, system
WO2023053519A1 (en) * 2021-09-28 2023-04-06 オムロン株式会社 Setting device, setting method, and setting program

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7115812B1 (en) 2021-06-28 2022-08-09 株式会社オプティム program, method, information processing device, system
WO2023276676A1 (en) * 2021-06-28 2023-01-05 株式会社オプティム Program, method, information processing device, and system
JP2023005151A (en) * 2021-06-28 2023-01-18 株式会社オプティム Program, method, information processing device and system
WO2023053519A1 (en) * 2021-09-28 2023-04-06 オムロン株式会社 Setting device, setting method, and setting program

Similar Documents

Publication Publication Date Title
JP6816802B2 (en) Image processing equipment, image processing systems, image processing methods and programs
JP4241709B2 (en) Image processing device
JP6733785B2 (en) Image processing apparatus, image processing system, image processing method, and program
CN100496097C (en) Image display control apparatus, method of controlling the same, and control program therefor
JP6756338B2 (en) Image processing equipment, image processing systems, image processing methods and programs
JP2021027579A (en) Image determination device and image determination system
JPWO2011093367A1 (en) Information adding device, electronic camera, and information adding program
US20160372157A1 (en) Display control apparatus, display control method, and storage medium
US7940958B2 (en) Information processing system and method for controlling the same
JP6822093B2 (en) Image processing equipment, image processing system, image processing method, and image processing program
US11223802B2 (en) Image-based determination apparatus and image-based determination system
US8824872B2 (en) Display control apparatus, reproduction system, and recording medium in which display control is performed based on a detected event
US11094084B2 (en) Image processing method
JP5152317B2 (en) Presentation control apparatus and program
JP4454704B2 (en) Image processing device
JP2016119648A (en) Parameter recording control device and method for controlling the same
US10165223B2 (en) Pre-selectable video file playback system and method, and computer program product
CN105391971A (en) Image processing device, image processing system and image processing method
JP2016039496A (en) Image processing apparatus, image processing system, image processing method and program
US10764551B2 (en) Method for configuring image-recording settings
JP6252921B1 (en) Surveillance camera system and playback method
JP2004207842A (en) Image processor and program
US20090136198A1 (en) Video reproducing/recording and playing system and method for setting and playing video section
JP2022000970A (en) Image processing apparatus, image processing system, image processing method and program
US11188743B2 (en) Image processing apparatus and image processing method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230412

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240521

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240619