JP2021027579A - Image determination device and image determination system - Google Patents
Image determination device and image determination system Download PDFInfo
- Publication number
- JP2021027579A JP2021027579A JP2020105414A JP2020105414A JP2021027579A JP 2021027579 A JP2021027579 A JP 2021027579A JP 2020105414 A JP2020105414 A JP 2020105414A JP 2020105414 A JP2020105414 A JP 2020105414A JP 2021027579 A JP2021027579 A JP 2021027579A
- Authority
- JP
- Japan
- Prior art keywords
- image
- image data
- unit
- information processing
- detection area
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000001514 detection method Methods 0.000 claims abstract description 274
- 238000003384 imaging method Methods 0.000 claims abstract description 34
- 230000010365 information processing Effects 0.000 claims description 145
- 238000004458 analytical method Methods 0.000 claims description 42
- 238000000034 method Methods 0.000 claims description 26
- 238000004891 communication Methods 0.000 claims description 22
- 238000006243 chemical reaction Methods 0.000 claims description 7
- 230000008569 process Effects 0.000 claims description 7
- 238000003860 storage Methods 0.000 description 64
- 238000012544 monitoring process Methods 0.000 description 46
- 230000004048 modification Effects 0.000 description 44
- 238000012986 modification Methods 0.000 description 44
- 230000005856 abnormality Effects 0.000 description 43
- 238000010586 diagram Methods 0.000 description 41
- 238000009826 distribution Methods 0.000 description 31
- 230000006870 function Effects 0.000 description 21
- 239000003550 marker Substances 0.000 description 21
- 230000035945 sensitivity Effects 0.000 description 18
- 238000012545 processing Methods 0.000 description 17
- 230000009471 action Effects 0.000 description 14
- 230000033001 locomotion Effects 0.000 description 8
- 230000002159 abnormal effect Effects 0.000 description 6
- 230000006835 compression Effects 0.000 description 5
- 238000007906 compression Methods 0.000 description 5
- 238000004519 manufacturing process Methods 0.000 description 4
- 230000002950 deficient Effects 0.000 description 3
- 101100438246 Arabidopsis thaliana CAM6 gene Proteins 0.000 description 2
- 101100118004 Arabidopsis thaliana EBP1 gene Proteins 0.000 description 2
- 101150052583 CALM1 gene Proteins 0.000 description 2
- 102100025580 Calmodulin-1 Human genes 0.000 description 2
- 101100459256 Cyprinus carpio myca gene Proteins 0.000 description 2
- 101150091339 cam-1 gene Proteins 0.000 description 2
- 230000003247 decreasing effect Effects 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 238000000605 extraction Methods 0.000 description 2
- 230000009467 reduction Effects 0.000 description 2
- 240000007651 Rubus glaucus Species 0.000 description 1
- 235000011034 Rubus glaucus Nutrition 0.000 description 1
- 235000009122 Rubus idaeus Nutrition 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000004397 blinking Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000005611 electricity Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 230000005855 radiation Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 238000011895 specific detection Methods 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 238000001931 thermography Methods 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
Images
Landscapes
- Closed-Circuit Television Systems (AREA)
Abstract
Description
本発明は、画像判定装置および画像判定システムに関する。 The present invention relates to an image determination device and an image determination system.
近年、ビデオカメラ等の撮像装置により録画して得られた画像データを分析して、目的物の検出、または、画像データ上の物体の動きもしくは異常の判定等を行う画像判定システムの発展が著しい。このような画像判定システムは、例えば、製品の生産ライン等において適用される。 In recent years, the development of an image judgment system that analyzes image data recorded by an image pickup device such as a video camera to detect an object or determine the movement or abnormality of an object on the image data has been remarkable. .. Such an image determination system is applied, for example, in a product production line or the like.
このような、画像に基づいて物体の動きまたは異常の判定等を行う画像監視システムとして、監視対象を撮影した監視対象画像から、作業者の作業領域または作業時刻についてユーザにより設定された条件に従って画像を抽出する画像抽出手段と、作業者の作業領域、作業時間、または作業内容についてユーザにより設定された特定のイベントに関連付けられたマークを画像抽出手段により抽出された画像に関連付け、リストを生成して記憶装置に記憶するリスト生成手段と、記憶装置に記憶されたリストを読み込み、表示装置に表示させると共に、表示装置に表示されたリストからマークが選択されたとき、マークに関連付けられた画像を特定し、表示装置に再生表示するように制御する再生制御手段と、を有する技術が開示されている(例えば特許文献1)。 As an image monitoring system that determines the movement or abnormality of an object based on such an image, an image is taken from the monitored image of the monitored object according to the conditions set by the user for the worker's work area or working time. An image extraction means for extracting images and a mark associated with a specific event set by the user for the worker's work area, work time, or work content are associated with the image extracted by the image extraction means to generate a list. When a mark is selected from the list generation means stored in the storage device and the list stored in the storage device and displayed on the display device, and the mark is selected from the list displayed on the display device, the image associated with the mark is displayed. A technique is disclosed that includes a reproduction control means that identifies and controls the reproduction and display on a display device (for example, Patent Document 1).
しかしながら、特許文献1に記載された技術は、画像判定装置に接続するデバイスとしてIP(Internet Proctocol)カメラ(ネットワークカメラ)等の撮像装置のみであり、当該撮像装置により撮影された画像データに対する判定処理しか行うことができないという問題がある。
However, the technique described in
本発明は、上記に鑑みてなされたものであって、判定対象となる画像データは撮像装置から出力された画像データに限定せずに、撮像装置以外のデバイスからの画像データについても判定対象とすることができる画像判定装置および画像判定システムを提供することを目的とする。 The present invention has been made in view of the above, and the image data to be determined is not limited to the image data output from the imaging device, but the image data from a device other than the imaging device is also subject to determination. It is an object of the present invention to provide an image determination device and an image determination system capable of performing the above.
上述した課題を解決し、目的を達成するために、本発明は、画像データに対して画像判定が可能な画像判定装置であって、撮像装置から出力された第1画像データ、および、前記画像判定の対象となる画像データを出力する該撮像装置とは別のデバイスから出力された第2画像データのうち少なくとも該第2画像データを受信する受信部と、前記受信部により受信された少なくとも前記第2画像データを表示装置に再生表示させる第1再生部と、前記第1画像データまたは前記第2画像データが再生表示される前記表示装置の第1表示領域において、前記画像判定の対象となる検知領域を指定する指定部と、前記第1画像データおよび前記第2画像データのうち少なくとも一方が表示される前記表示装置の第2表示領域における前記検知領域内の前記第1画像データまたは前記第2画像データに対して前記画像判定を行う判定部と、を備えたことを特徴とする。 In order to solve the above-mentioned problems and achieve the object, the present invention is an image determination device capable of image determination on image data, the first image data output from the image pickup device, and the image. Of the second image data output from a device other than the imaging device that outputs the image data to be determined, at least a receiving unit that receives the second image data, and at least the receiving unit received by the receiving unit. The image determination is performed in the first reproduction unit for reproducing and displaying the second image data on the display device and the first display area of the display device on which the first image data or the second image data is reproduced and displayed. The first image data or the first image data in the detection area in the second display area of the display device in which at least one of the first image data and the second image data is displayed by the designation unit that specifies the detection area. 2. It is characterized by including a determination unit that performs the image determination on the image data.
本発明によれば、判定対象となる画像データは撮像装置から出力された画像データに限定せずに、撮像装置以外のデバイスからの画像データについても判定対象とすることができる。 According to the present invention, the image data to be determined is not limited to the image data output from the imaging device, but the image data from a device other than the imaging device can also be determined.
以下に、図面を参照しながら、本発明に係る画像判定装置および画像判定システムの実施形態を詳細に説明する。また、以下の実施形態によって本発明が限定されるものではなく、以下の実施形態における構成要素には、当業者が容易に想到できるもの、実質的に同一のもの、およびいわゆる均等の範囲のものが含まれる。さらに、以下の実施形態の要旨を逸脱しない範囲で構成要素の種々の省略、置換、変更および組み合わせを行うことができる。 Hereinafter, embodiments of the image determination device and the image determination system according to the present invention will be described in detail with reference to the drawings. Further, the present invention is not limited by the following embodiments, and the components in the following embodiments include those easily conceived by those skilled in the art, substantially the same, and so-called equivalent ranges. Is included. Furthermore, various omissions, substitutions, changes and combinations of components can be made without departing from the gist of the following embodiments.
(画像処理システムの全体構成)
図1は、実施形態に係る画像判定システムの全体構成の一例を示す図である。図1を参照しながら、本実施形態に係る画像判定システム1の全体構成について説明する。
(Overall configuration of image processing system)
FIG. 1 is a diagram showing an example of the overall configuration of the image determination system according to the embodiment. The overall configuration of the
図1に示すように、画像判定システム1は、撮像装置2b〜2fと、仮想カメラ5と、ハブ4と、情報処理装置3と、を含む。
As shown in FIG. 1, the
撮像装置2b〜2fは、被写体から光を電気信号に変換することによって被写体を撮像(撮影)し、複数のフレームで構成された動画(例えば、10[FPS])である画像データ(第1画像データ)を生成するIPカメラ(ネットワークカメラ)である。例えば、撮像装置2b〜2fは、製品を生産する生産設備または生産ライン等を撮像し、製造物であるワークに対する異常を検知するため、または、作業者の作業工程の誤りを判定するため等の画像データを生成する。
The
なお、撮像装置2b〜2fを区別なく呼称する場合、または総称する場合、単に「撮像装置2」というものとする。また、図1では、画像判定システム1は、5台の撮像装置2を含む構成となっているが、これに限定されるものではなく、他の台数の撮像装置2を含む構成であってもよい。
When the
仮想カメラ5は、撮像装置2b〜2fのように、直接、撮影された撮像画像等を判定対象として情報処理装置3へ出力する装置ではなく、異常等の有無の判定対象とする動画、キャプチャ画像および生成画像等の画像データ(第2画像データの一例)を出力することができる装置およびシステム等であるデバイスを示すものとする。本実施形態では、仮想カメラ5は、後述するように、画像判定システム1の構成に準じる形態を有する別の画像判定システムであるものとする。仮想カメラ5は、本発明の「別のデバイス」に相当する。
The
なお、図1では、画像判定システム1は、1の仮想カメラ5を含む構成となっているが、これに限定されるものではなく、他の台数の仮想カメラ5を含む構成であってもよい。また、画像データは、複数のフレームで構成された動画像として説明しているが、1枚のフレームで構成された静止画像を含む。また、撮像装置2b〜2fから出力された画像データを第1画像データ、仮想カメラ5から出力された画像データを第2画像データとしているが、これは画像データの出力元が撮像装置2b〜2fか仮想カメラ5かを区別するためのものである。
Note that, in FIG. 1, the
ハブ4は、撮像装置2b〜2fと、仮想カメラ5と、情報処理装置3とを接続してLAN(Local Area Network)を形成するための、例えば、Ethernet(登録商標)規格に対応したスイッチングハブである。上述の撮像装置2b〜2f、仮想カメラ5および情報処理装置3は、それぞれIPアドレス(およびMAC(Media Access Control)アドレス)を有しているため、スイッチングハブであるハブ4を介してLANを構成することが可能である。この場合、当該LANでは、TCP(Transmission Control Protocol)/IP(Internet Protocol)等のプロトコルによりデータ通信が行われる。
The
情報処理装置3は、撮像装置2から出力された画像データ(第1画像データ)、および仮想カメラ5から出力された動画等の画像データ(第2画像データ)に基づいて画像判定を実行する画像判定装置として機能するPC(Personal Computer)またワークステーション等である。また、情報処理装置3は、生産設備等の外部機器10と、例えばフィールドバスによってデータ通信が可能となるように接続している。フィールドバスによる通信規格としては、例えば、欧州で使用されるProfibus(プロフィバス)、または三菱電機社のCC−Link(登録商標)等がある。
The
なお、図1に示したLANでは、TCP/IPにより通信される例を示したが、これに限定されるものではなく、例えば、情報処理装置3側にVGA(Video Graphics Array)端子またはUSB(Universal Serial Bus)ポートを複数有し、複数の撮像装置2、または仮想カメラ5がVGAケーブルまたはUSBケーブルで情報処理装置3に接続された形態等であってもよい。
In the LAN shown in FIG. 1, an example of communication by TCP / IP is shown, but the present invention is not limited to this, and for example, a VGA (Video Graphics Array) terminal or a USB (Video Graphics Array) terminal or USB (on the
(情報処理装置のハードウェア構成)
図2は、実施形態に係る情報処理装置のハードウェア構成の一例を示す図である。図2を参照しながら、本実施形態に係る情報処理装置3のハードウェア構成について説明する。
(Hardware configuration of information processing device)
FIG. 2 is a diagram showing an example of the hardware configuration of the information processing device according to the embodiment. The hardware configuration of the
図2に示すように、情報処理装置3は、CPU(Central Processing Unit)101と、ROM(Read Only Memory)102と、RAM(Random Access Memory)103と、補助記憶装置104と、ディスプレイ105(表示装置)と、ネットワークI/F106と、キーボード107(入力装置の一例)と、マウス108(入力装置の一例)と、DVD(Digital Versatile Disc)ドライブ109と、外部機器I/F111と、スピーカ112と、を備えている。
As shown in FIG. 2, the
CPU101は、情報処理装置3全体の動作を制御する装置である。ROM102は、情報処理装置3用のプログラムおよびBIOS(Basic Input/Output System)等を記憶している不揮発性記憶装置である。RAM103は、CPU101のワークエリアとして使用される揮発性記憶装置である。
The
補助記憶装置104は、撮像装置2から出力された画像データ(第1画像データ)、仮想カメラ5により出力された動画等の画像データ(第2画像データ)、および設定情報等の各種データを記憶するHDD(Hard Disk Drive)またはSSD(Solid State Drive)等の記憶装置である。
The
ディスプレイ105は、カーソル、メニュー、ウィンドウ、文字もしくは画像等の各種情報、または情報処理装置3による画像判定動作を実行するアプリケーションの画面を表示する表示装置である。ディスプレイ105は、例えば、CRT(Cathode Ray Tube)ディスプレイ、液晶ディスプレイ(Liquid Crystal Display:LCD)、または有機EL(Electroluminescence)ディスプレイ等である。なお、ディスプレイ105は、例えば、情報処理装置3の本体に対して、VGAケーブルまたはHDMI(登録商標)(High−Definition Multimedia Interface)ケーブル等によって接続されたり、または、Ethernetケーブルによって接続される。
The
ネットワークI/F106は、ハブ4に接続してデータ通信するためのインターフェースである。ネットワークI/F106は、例えば、TCP/IPのプロトコルで通信可能にするNIC(Network Interface Card)である。具体的には、情報処理装置3は、撮像装置2、および仮想カメラ5から、ハブ4およびネットワークI/F106を介して、画像データを取得する。なお、ネットワークI/F106は、Wi−Fi(登録商標)等の通信規格に準拠した無線I/Fであってもよい。
The network I /
キーボード107は、文字、数字、各種指示の選択、カーソルの移動、および設定情報の設定等を行う入力装置である。マウス108は、各種指示の選択および実行、処理対象の選択、カーソルの移動、ならびに設定情報の設定等を行うための入力装置である。
The
DVDドライブ109は、着脱自在な記憶媒体の一例としてのDVD110に対するデータの読み出し、書き込みおよび削除を制御する装置である。なお、DVDドライブ109で読み出しまたは書き込みを行う記憶媒体としては、DVDに限定されるものではなく、例えば、CD−ROM(Compact Disc−Read Only Memory)、CD−R(Compact Disc−Recordable)、DVD−R、DVD−RW(DVD ReWritable)、またはブルーレイディスク等であってもよい。
The
外部機器I/F111は、外部機器10と接続してデータ通信をするためのインターフェースである。外部機器I/F111は、例えば、フィールドバスにより通信を可能にするインターフェースである。具体的には、情報処理装置3は、外部機器10と、外部機器I/F111を介してデータ通信を行う。
The external device I /
スピーカ112は、アプリケーションの動作に従って音声を出力する装置である。
The
上述のCPU101、ROM102、RAM103、補助記憶装置104、ディスプレイ105、ネットワークI/F106、キーボード107、マウス108、DVDドライブ109、外部機器I/F111およびスピーカ112は、アドレスバスおよびデータバス等のバス113によって互いに通信可能に接続されている。なお、ディスプレイ105が、Ethernetケーブルによって接続される場合には、ネットワークI/F106に接続されることになり、この場合、TCP/IP等のプロトコルによりデータ通信が行われる。
The
(情報処理装置のブロック構成)
図3は、実施形態に係る情報処理装置の機能ブロックの構成の一例を示す図である。図3を参照しながら、本実施形態に係る情報処理装置3の機能ブロックの構成について説明する。
(Block configuration of information processing device)
FIG. 3 is a diagram showing an example of the configuration of the functional block of the information processing apparatus according to the embodiment. The configuration of the functional block of the
図3に示すように、情報処理装置3は、画像受信部301(受信部)と、記憶部302と、入力部303(入力装置)と、第1再生部304と、設定部308と、検知領域指定部309(指定部)と、画像振分部312と、検知領域判定部314(判定部)と、第1制御部316と、第2再生部318と、領域表示制御部319と、リスト制御部320と、第2制御部321と、表示制御部331と、外部出力部332と、表示部333(表示装置)と、を有する。なお、図3においては、説明を簡略化するため、ハブ4の図示を省略して説明する。
As shown in FIG. 3, the
画像受信部301は、撮像装置2および仮想カメラ5とデータ通信を行い、撮像装置2から画像データ、および仮想カメラ5からの画像データを受信する機能部である。画像受信部301は、受信した画像データを記憶部302に記憶させる。画像受信部301は、図2に示すネットワークI/F106、およびCPU101によりプログラムが実行されることによって実現される。
The
記憶部302は、画像受信部301により受信された画像データ、各種設定情報、および後述する時刻情報等を記憶する記憶装置である。記憶部302は、画像受信部301により受信された画像データおよび画像が、どの撮像装置2または仮想カメラ5により生成された画像データまたは画像であるかを識別して記憶する。記憶部302は、例えば、図2に示すRAM103または補助記憶装置104によって実現される。
The
入力部303は、情報処理装置3が実行する画像判定動作等のための操作入力を行う装置である。入力部303は、図2に示すキーボード107およびマウス108によって実現される。
The
第1再生部304は、ユーザにより操作される入力部303からの操作信号に従って、記憶部302から取得した画像データを表示制御部331に送り、表示制御部331に対して画像データを表示部333に再生表示させる機能部である。具体的には、第1再生部304は、図6等で後述する表示部333に表示される設定画面500の設定用画像表示部502に画像データを再生表示させる。第1再生部304は、図2に示すCPU101によりプログラムが実行されることによって実現される。
The
設定部308は、ユーザにより操作される入力部303からの操作信号に従って、各種設定情報を設定して記憶部302に記憶させる機能部である。また、設定部308は、設定した設定情報のうち、表示する必要がある情報を、記憶部302から表示制御部331に送り、表示制御部331に対して設定情報を表示部333に表示させる。設定部308は、図2に示すCPU101によりプログラムが実行されることによって実現される。
The
検知領域指定部309は、ユーザにより操作される入力部303からの操作信号に従って、表示部333における画像データの表示領域(設定用画像表示部502)(第1表示領域)において、異常等を検知する画像判定動作の対象となる検知領域を指定する機能部である。検知領域指定部309は、指定した検知領域の情報を、撮像装置2または仮想カメラ5ごとに関連付けて記憶部302に記憶させる。また、検知領域の情報とは、例えば、画像データまたは画像の表示領域における検知領域の位置を示す座標、および検知領域の形状等の情報である。検知領域指定部309により指定された検知領域は、後述する検知機能で使用される。検知領域指定部309は、図2に示すCPU101によりプログラムが実行されることによって実現される。
The detection
なお、上述の画像判定動作には、上述のように異常であるか否かの判定(異常検知)のほか、特定の事象が発生したか否かの判定等も想定されるが、本実施形態では説明を簡潔にするため、画像判定動作として異常であるか否かの判定(異常検知)動作を例に挙げて説明するものとする。 In the above-mentioned image determination operation, in addition to the determination of whether or not an abnormality has occurred (abnormality detection) as described above, the determination of whether or not a specific event has occurred is assumed. Then, for the sake of brevity, the image determination operation of determining whether or not an abnormality is occurring (abnormality detection) will be described as an example.
画像振分部312は、ユーザにより操作される入力部303からの操作信号に従って、画像受信部301から取得したリアルタイムの画像データを表示制御部331に送り、表示制御部331に対して当該画像データおよび画像を表示部333に表示させる機能部である。具体的には、画像振分部312は、図5等で後述する表示部333に表示されるウォッチャ画面400の画像表示部401a〜401fに、対応する画像データおよび画像を振り分けて表示させる。また、画像振分部312は、画像表示部401a〜401fに表示せせる各画像データを、記憶部302に記憶(録画)させる。画像振分部312は、図2に示すCPU101によりプログラムが実行されることによって実現される。
The
検知領域判定部314は、監視動作が開始された後、後述する図5のウォッチャ画面400の画像表示部401a〜401fにおける検知領域において、検知基準画像と、画像データとしてのフレームまたは画像における検知領域の画像とを比較して異常であるか否かの判定を実行する機能部である。検知領域判定部314は、図2に示すCPU101によりプログラムが実行されることによって実現される。
After the monitoring operation is started, the detection area determination unit 314 sets the detection reference image and the detection area in the frame or image as image data in the detection area in the
第1制御部316は、ユーザにより操作される入力部303からの操作信号に従って、後述する図5のウォッチャ画面400において監視動作の開始および停止を行うことのほか、ウォッチャ画面400の動作全体を制御する機能部である。第1制御部316は、図2に示すCPU101によりプログラムが実行されることによって実現される。
The
第2再生部318は、ユーザにより操作される入力部303からの操作信号に従って、記憶部302から取得した画像データを表示制御部331に送り、表示制御部331に対して画像データおよび画像を表示部333に再生表示させる機能部である。具体的には、第2再生部318は、図13等で後述する表示部333に表示されるビューワ画面700の画像表示部701a〜701fに、対応する画像データを振り分けて再生表示させる。第2再生部318は、図2に示すCPU101によりプログラムが実行されることによって実現される。
The
領域表示制御部319は、入力部303に記憶された各検知領域の検知時刻の情報(時刻情報)に基づいて、ビューワ画面700の画像表示部701a〜701fに再生表示されている画像データとしてのフレームまたは画像に重畳して各検知領域の状態を表示する機能部である。領域表示制御部319は、図2に示すCPU101によりプログラムが実行されることによって実現される。
The area
リスト制御部320は、ビューワ画面700で、記憶部302に記憶されたマーカファイルを読み出し、マーカファイルの内容を表示させる図14で後述するマーカリスト画面800を表示する機能部である。ここで、マーカファイルとは、検知機能により異常が検知された時刻等が時系列に記録されたファイルである。リスト制御部320は、図2に示すCPU101によりプログラムが実行されることによって実現される。
The
第2制御部321は、ビューワ画面700の動作全体を制御する機能部である。第2制御部321は、図2に示すCPU101によりプログラムが実行されることによって実現される。
The
表示制御部331は、表示部333の表示動作を制御する機能部である。具体的には、表示制御部331は、第1再生部304および画像振分部312から取得された画像データ、設定部308により設定された設定情報、および、検知領域指定部309により指定された検知領域等を、表示部333に表示させる。表示制御部331は、図2に示すCPU101によりプログラム(ドライバ)が実行されることによって実現される。
The
外部出力部332は、検知領域判定部314により異常の判定がされた場合、異常信号を外部機器10に出力する機能部である。外部出力部332は、図2に示す外部機器I/F111、およびCPU101によりプログラムが実行されることによって実現される。なお、外部出力部332は異常信号を出力するものとしているが、これに限定されるものではなく、メールで異常を通知するためのバッチファイルを外部機器10に送信したり、または、ウォッチャ画面400上に異常を報知(例えば、ランプアイコンで点滅表示)する等の処置を行うものとしてもよい。
The
表示部333は、表示制御部331の制御に従って各種データを表示する装置である。表示部333は、本実施形態では特に、図2に示すCPU101によりプログラム(アプリケーション)が実行されることにより、後述するウォッチャ画面400、設定画面500、およびビューワ画面700等を表示する。表示部333は、図2に示すディスプレイ105によって実現される。
The
なお、図3に示した第1再生部304、設定部308、検知領域指定部309、画像振分部312、検知領域判定部314、第1制御部316、第2再生部318、領域表示制御部319、リスト制御部320、第2制御部321および表示制御部331の一部または全部は、ソフトウェアであるプログラムではなく、ASIC(Application Specific Integrated Circuit)またはFPGA(Field−Programmable Gate Array)等のハードウェア回路によって実現されてもよい。
The
また、図3に示した各機能部は、機能を概念的に示したものであって、このような構成に限定されるものではない。例えば、図3で独立した機能部として図示した複数の機能部を、1つの機能部として構成してもよい。一方、図3の1つの機能部が有する機能を複数に分割し、複数の機能部として構成するものとしてもよい。 Further, each functional unit shown in FIG. 3 conceptually shows a function, and is not limited to such a configuration. For example, a plurality of functional units shown as independent functional units in FIG. 3 may be configured as one functional unit. On the other hand, the function of one functional unit in FIG. 3 may be divided into a plurality of functions and configured as a plurality of functional units.
また、以降の説明の簡略化のため、表示制御部331が、受け取ったデータを表示部333に表示させるという表現を、単に、そのデータを表示制御部331に送った機能部が、表示部333(または、表示部333が表示する画面)に表示させると表現するものとする。例えば、第1再生部304が、画像データを表示制御部331に送り、表示制御部331に対して画像データを表示部333に再生表示させる場合、単に、第1再生部304が、画像データを表示部333に再生表示させると表現するものとする。
Further, for the sake of simplification of the following description, the function unit that simply sends the data to the
(記憶部に記憶される情報のディレクトリ構造)
図4は、実施形態に係る情報処理装置において記憶装置に記憶される情報のディレクトリ構造の一例を示す図である。図4を参照しながら、記憶部302で情報を管理するためのディレクトリ構造について説明する。
(Directory structure of information stored in the storage unit)
FIG. 4 is a diagram showing an example of a directory structure of information stored in the storage device in the information processing device according to the embodiment. A directory structure for managing information in the
まず、図4に示すように、記憶部302は、ルートフォルダとして、「Setting」フォルダと、「Common」フォルダと、を形成している。「Setting」フォルダの中には、各撮像装置2および仮想カメラ5に関する情報を保存するための「CAM1」〜「CAM6」フォルダ(以下、単に「カメラフォルダ」と総称する)が形成されている。「CAM1」〜「CAM6」フォルダは、それぞれ仮想カメラ5および撮像装置2b〜2fに関するフォルダに相当する。
First, as shown in FIG. 4, the
各カメラフォルダには、図4に示すように、領域情報ファイル、時刻情報ファイル、および画像データが保存される。ここで、領域情報ファイルは、対応する撮像装置2または仮想カメラ5について設定された各検知領域の位置情報(位置示す座標および領域の形状等の情報)および後述する属性情報を含むファイルである。また、時刻情報ファイルは、対応する撮像装置2または仮想カメラ5について監視動作が開始および終了した時刻、各検知領域が指定(設定)された時刻、および、監視動作中に各検知領域が検知した時刻を含むファイルである。また、画像データは、後述する検知基準画像等のデータである。
As shown in FIG. 4, the area information file, the time information file, and the image data are stored in each camera folder. Here, the area information file is a file including the position information (information such as the coordinates indicating the position and the shape of the area) of each detection area set for the corresponding
また、「Common」フォルダには、上述のマーカファイルが保存される。 In addition, the above-mentioned marker file is saved in the "Common" folder.
なお、図4に示した情報を管理するためのディレクトリ構造は一例であり、これに限定されるものではなく、その他のデータ構造によって情報が管理されるものとしてもよい。また、図4に示したフォルダの名称も一例であり、これらに限定されるものではない。 The directory structure for managing the information shown in FIG. 4 is an example, and the information is not limited to this, and the information may be managed by another data structure. Further, the name of the folder shown in FIG. 4 is also an example, and the name is not limited to these.
(ウォッチャ画面の構成)
図5は、実施形態に係る情報処理装置の表示装置に表示されるウォッチャ画面において複数のリアルタイムの画像データが表示される例を示す図である。図5を参照しながら、ウォッチャ画面400の構成、ならびに、複数のリアルタイムの画像データが表示される動作について説明する。
(Watcher screen configuration)
FIG. 5 is a diagram showing an example in which a plurality of real-time image data is displayed on a watcher screen displayed on the display device of the information processing apparatus according to the embodiment. The configuration of the
CPU101により実行されるプログラム(アプリケーション)により、図5に示すウォッチャ画面400が表示部333に表示される。ウォッチャ画面400は、複数の撮像装置2から受信した画像データ、および仮想カメラ5から受信した画像データをリアルタイムに表示し、画像判定動作(監視動作)が実行されている場合には、指定された各検知領域において画像判定が実行される画面である。具体的には、ウォッチャ画面400では、画像判定動作(監視動作)が実行されている場合、検知領域判定部314によって、検知領域指定部309により指定された検知領域において異常の有無が判定される。
The
ウォッチャ画面400は、図5に示すように、画像表示部401a〜401fと、監視開始ボタン411と、監視停止ボタン412と、監視設定ボタン413と、OKランプ414と、NGランプ415と、状態表示部421a〜421fと、を含む。
As shown in FIG. 5, the
画像表示部401a〜401fは、ユーザにより操作される入力部303からの操作信号に従って、画像振分部312によって、撮像装置2a〜2fから画像受信部301を介して取得されたリアルタイムの画像データがそれぞれ表示される表示領域である。また、画像表示部401a〜401fは、ユーザによる入力部303の操作によって押下(例えば、マウス108のクリック操作等、以下同様)されると、選択状態にすることができる。なお、画像表示部401a〜401fを区別なく呼称する場合、または総称する場合、単に「画像表示部401」(第2表示領域)というものとする。
The
監視開始ボタン411は、ユーザによる入力部303の操作によって押下されると、リアルタイムの画像データが表示されている選択状態の画像表示部401において、検知領域指定部309により指定された検知領域における異常の有無の判定が開始される。
When the
監視停止ボタン412は、ユーザによる入力部303の操作によって押下されると、選択状態の画像表示部401で、検知領域判定部314による検知領域における異常の有無の判定動作を停止させるボタンである。
The
監視設定ボタン413は、ユーザによる入力部303の操作によって押下されると、各判定領域の設定するために、第1制御部316によって、後述の図6等に示す設定画面500を表示部333に表示させるボタンである。
When the
OKランプ414は、選択状態の各画像表示部401において指定された検知領域において異常の有無の判定の結果、異常無しという判定結果となった場合に、第1制御部316により点灯されるランプ領域である。例えば、OKランプ414は、選択状態の画像表示部401のうち、OKランプ414およびNGランプ415によるランプ点灯の対象となっている画像表示部401での検知領域において、すべての検知領域で異常無しと判定された場合に、第1制御部316により点灯される。
The
NGランプ415は、選択状態の各画像表示部401において指定された検知領域において異常の有無の判定の結果、異常有りという判定結果となった場合に、第1制御部316により点灯されるランプ領域である。例えば、NGランプ415は、選択状態の画像表示部401のうち、OKランプ414およびNGランプ415によるランプ点灯の対象となっている画像表示部401での検知領域のうちいずれかの検知領域で異常有りと判定された場合に、第1制御部316により点灯される。
The
状態表示部421a〜421fは、各画像表示部401に対応する撮像装置2および仮想カメラ5についての状態を示す表示部である。例えば、状態表示部421a〜421fには、「未接続」、「未設定」、「設定完了」、「監視中」等の撮像装置2および仮想カメラ5についての状態を示す内容が表示される。「未接続」とは、画像表示部401に対応する撮像装置2または仮想カメラ5が情報処理装置3に接続されていない状態を示し、画像表示部401には画像データが表示されていない状態を示す。例えば、図5に示す例では、画像表示部401cに対応する撮像装置2(具体的には撮像装置2c)が情報処理装置3に接続されていないため、状態表示部421cでは「未接続」と表示され、画像表示部401cには画像データが表示されていない状態を示す。「未設定」とは、画像表示部401に表示されている画像データについて検知領域等の設定がなされていない状態を示す。「設定完了」とは、画像表示部401に表示されている画像データについて検知領域等の設定が完了している状態を示す。「監視中」とは、設定された各検知領域の情報に基づいて、画像判定動作(監視動作)が実行中である状態を示す。なお、状態表示部421a〜421fを区別なく呼称する場合、または総称する場合、単に「状態表示部421」というものとする。
The
(設定画面の構成)
図6は、実施形態に係る情報処理装置の表示装置に表示される設定画面で画像データが表示される状態の一例を示す図である。図6を参照しながら、設定画面500の構成について説明する。
(Configuration of setting screen)
FIG. 6 is a diagram showing an example of a state in which image data is displayed on a setting screen displayed on the display device of the information processing device according to the embodiment. The configuration of the
設定画面500は、検知領域の指定、ならびに検知領域における画像判定の感度および閾値等を設定する画面である。図6に示す設定画面500は、検知機能について設定するための画面であり、カメラ選択タブ501、設定用画像表示部502と、再生ボタン503aと、一時停止ボタン503bと、早送りボタン503cと、早戻しボタン503dと、停止ボタン503eと、シークバー504と、スライダー505と、時刻表示部506と、設定読出ボタン511と、設定書込ボタン512と、設定反映ボタン513と、閉じるボタン514と、検知領域情報部561と、検知領域ボタン群562と、を含む。
The
カメラ選択タブ501は、ユーザが検知領域の指定を所望する仮想カメラ5の画像データおよび撮像装置2b〜2fの画像データのうちいずれのデータを設定用画像表示部502に表示させるのかを選択する操作部である。例えば、仮想カメラ5によって出力された画像データ、および撮像装置2b〜2fによって撮像された画像データは、それぞれ「1」〜「6」に対応付けられており、図6の例では、「6」すなわち撮像装置2fの画像データが選択された例を示している。
The
設定用画像表示部502は、第1再生部304によって、ユーザにより操作される入力部303からの操作信号に従って記憶部302から取得された画像データを再生表示される表示部である。図6の例では、第1再生部304は、ユーザによる入力部303の操作により、「6」のカメラ選択タブ501が選択操作されると、撮像装置2fにより撮像された画像データを設定用画像表示部502に再生表示させる。
The setting
再生ボタン503aは、ユーザによる入力部303の操作によって押下されると、第1再生部304によって、設定用画像表示部502に表示された画像データが再生開始されるボタンである。一時停止ボタン503bは、ユーザによる入力部303の操作によって押下されると、第1再生部304によって、設定用画像表示部502に再生表示されている画像データが一時停止されるボタンである。早送りボタン503cは、ユーザによる入力部303の操作によって押下されると、第1再生部304によって、設定用画像表示部502に再生表示されている画像データが早送り表示されるボタンである。早戻しボタン503dは、ユーザによる入力部303の操作によって押下されると、第1再生部304によって、設定用画像表示部502に再生表示されている画像データが早戻し表示されるボタンである。停止ボタン503eは、ユーザによる入力部303の操作によって押下されると、第1再生部304によって、設定用画像表示部502に再生表示されている画像データが停止されるボタンである。
The
シークバー504は、その上に配置されるスライダー505の位置により、設定用画像表示部502に再生表示されている画像データがどの時間のものなのかを示す棒状の形状体である。スライダー505は、設定用画像表示部502に再生表示されている画像データの撮像時刻(表示されているフレームが撮像された時刻、または表示されている画像が取得された時刻)に対応したシークバー504上の位置にスライドする形状体かつ操作部である。逆に、スライダー505は、ユーザによる入力部303の操作によってスライドされると、第1再生部304によって、スライダー505が存在するシークバー504上の位置に対応した撮像時刻の画像データとしてのフレーム、または画像が設定用画像表示部502に表示される。
The seek
時刻表示部506は、第1再生部304によって、設定用画像表示部502に再生表示されている画像データの撮像日付(取得された日付の概念を含む)および撮像時刻を表示する表示部である。
The
設定読出ボタン511は、ユーザによる入力部303の操作によって押下されると、設定部308によって、記憶部302に記憶された、カメラ選択タブ501で選択された撮像装置2または仮想カメラ5についての検知領域の情報等が読み出され、設定画面500の各表示部に表示されるボタンである。設定書込ボタン512は、ユーザによる入力部303の操作によって押下されると、設定部308によって、設定画面500上で設定された検知領域の情報等が、カメラ選択タブ501で選択された撮像装置2または仮想カメラ5に関連付けられて記憶部302に記憶されるボタンである。設定反映ボタン513は、ユーザによる入力部303の操作によって押下されると、設定部308によって、設定画面500上で設定された検知領域の情報等が、ウォッチャ画面400および設定画面500等のアプリケーションが閉じられるまで有効とされる(例えば、RAM103に一時記憶される)ボタンである。
When the setting read
閉じるボタン514は、ユーザによる入力部303の操作によって押下されると、設定部308によって、設定画面500が閉じられ、ウォッチャ画面400を表示部333に表示させるボタンである。
The
検知領域情報部561は、検知領域指定部309により指定された検知領域の名称、感度、閾値、監視方法(図6では「監視」と表記)、およびアクションの有無(図6では「アクション」と表記)(以下、検知領域についてのこれらの情報を属性情報という)を表示する表示領域かつ選択操作領域である。
The detection
検知領域ボタン群562は、検知領域指定部309により指定され、検知領域情報部561に表示された検知領域についての属性情報を編集するボタン群である。検知領域ボタン群562は、アクションボタン562aと、削除ボタン562cと、感度増加ボタン562eと、感度減少ボタン562fと、閾値増加ボタン562gと、閾値減少ボタン562hと、を含む。検知領域ボタン群562の各ボタンの機能は、後述する。
The detection
(検知領域の指定)
図7は、実施形態に係る情報処理装置の表示装置に表示される設定画面において設定用画像表示部に検知領域を指定する例を示す図である。図7を参照しながら、検知領域の指定について説明する。
(Designation of detection area)
FIG. 7 is a diagram showing an example of designating a detection area in the setting image display unit on the setting screen displayed on the display device of the information processing device according to the embodiment. The designation of the detection area will be described with reference to FIG. 7.
図7に示す設定画面500は、第1再生部304により画像データが再生表示されている設定用画像表示部502において検知領域570が指定された状態を示している。具体的には、まず、設定用画像表示部502において画像データの再生表示中に、検知機能の画像判定を所望する画像の部分が表示されているタイミングで、ユーザによる入力部303の操作によって一時停止ボタン503bが押下されると、第1再生部304は、設定用画像表示部502に再生表示されている画像データを一時停止し、その時点のフレームまたは画像の撮像日付および撮像時刻を時刻表示部506に表示させる。
The
次に、ユーザによる入力部303の操作(例えば、マウス108のドラッグ操作)によって、検知領域指定部309は、設定用画像表示部502において検知領域570を指定して表示させる。
Next, the detection
また、設定部308は、検知領域570の属性情報として、検知領域指定部309により指定された検知領域570に命名した名前、ならびに、デフォルト値として、後述する画像判定で使用する所定の感度(例えば、「50」)、所定の閾値(例えば、「20%」)、監視方法(例えば、「グレースケール」)、およびアクションの有無(例えば、「なし」)を、検知領域情報部561に表示させる。設定部308は、検知領域570の名前として、図7に示すように、例えば、「6」の撮像装置(撮像装置2f)の画像データに対して指定された検知領域であるものとして、「A61」と命名する。また、検知領域指定部309は、カメラ選択タブ501で選択された撮像装置2または仮想カメラ5(図7の例では、撮像装置2f)に関連付けて、検知領域570を指定した時刻の設定用画像表示部502に表示されているフレームまたは画像における検知領域570内の画像を検知基準画像として抽出して記憶部302に記憶させ、指定した検知領域570の情報(位置および形状等の位置情報、および属性情報等)を記憶部302に記憶させる。さらに、検知領域指定部309は、カメラ選択タブ501で選択された撮像装置2または仮想カメラ5に関連付けて、検知領域570を指定した時刻の情報(時刻情報)を記憶部302に記憶させる。なお、上述と同様の方法で、検知領域指定部309により複数の検知領域を指定することができる。
Further, the
図7に示す設定画面500で指定された検知領域(図7では検知領域570)の属性情報は、編集することができる。まず、ユーザによる入力部303の操作によって、検知領域情報部561に属性情報が表示された検知領域のいずれか(図7では検知領域570の属性情報のみを表示)を選択すると、設定部308は、選択された検知領域情報部561の検知領域の属性情報の表示部分を反転表示させる。以下、図7に示した検知領域570(常時検知領域名「A61」)が選択されたものとして説明する。
The attribute information of the detection area (
次に、例えば、ユーザによる入力部303の操作によって、アクションボタン562aを押下すると、設定部308は、選択された検知領域570のアクションの有無の設定値を切り替える。例えば、検知領域570のアクションの有無が「なし」となっている場合、アクションボタン562aが押下されると、設定部308は、検知領域570のアクションの有無を「あり」に設定する。一方、検知領域570のアクションの有無が「あり」となっている場合、アクションボタン562aが押下されると、設定部308は、検知領域570のアクションの有無を「なし」に設定する。後述するように、アクションの有無が「あり」となっている場合、検知領域判定部314によってその検知領域における画像判定で異常と判定された場合、外部出力部332が異常信号を出力する。
Next, for example, when the
また、例えば、ユーザによる入力部303の操作によって、削除ボタン562cを押下すると、設定部308は、検知領域情報部561に表示された検知領域570の属性情報を消去し、記憶部302に記憶された検知領域570の情報を削除する。また、検知領域指定部309は、設定用画像表示部502に表示された検知領域570を消去し、記憶部302に記憶された検知基準画像を削除する。
Further, for example, when the
また、例えば、ユーザによる入力部303の操作によって、感度増加ボタン562eを押下すると、設定部308は、選択された検知領域570の画像判定に用いられる感度の値を所定値だけ増加させる。一方、ユーザによる入力部303の操作によって、感度減少ボタン562fを押下すると、設定部308は、選択された検知領域570の画像判定に用いられる感度の値を所定値だけ減少させる。
Further, for example, when the
また、例えば、ユーザによる入力部303の操作によって、閾値増加ボタン562gを押下すると、設定部308は、選択された検知領域570の画像判定に用いられる閾値の値を所定値だけ増加させる。一方、ユーザによる入力部303の操作によって、閾値減少ボタン562hを押下すると、設定部308は、選択された検知領域570の画像判定に用いられる閾値の値を所定値だけ減少させる。
Further, for example, when the threshold
(ウォッチャ画面における画像判定動作)
図8は、実施形態に係る情報処理装置の表示装置に表示されるウォッチャ画面で監視動作が実行される状態の一例を示す図である。図9は、実施形態に係る情報処理装置の表示装置に表示されるウォッチャ画面で実行される監視動作で検知領域で画像判定が行われた状態の一例を示す図である。図8および図9は、本実施形態に係る情報処理装置3の表示装置に表示されるウォッチャ画面で実行される監視動作で検知領域で画像判定が行われた状態の一例を示す図である。
(Image judgment operation on the watcher screen)
FIG. 8 is a diagram showing an example of a state in which a monitoring operation is executed on a watcher screen displayed on the display device of the information processing device according to the embodiment. FIG. 9 is a diagram showing an example of a state in which image determination is performed in the detection area in the monitoring operation executed on the watcher screen displayed on the display device of the information processing apparatus according to the embodiment. 8 and 9 are diagrams showing an example of a state in which image determination is performed in the detection area in the monitoring operation executed on the watcher screen displayed on the display device of the
まず、図8を参照しながら、ウォッチャ画面400における画像判定動作(監視動作)の概要について説明する。図8に示すウォッチャ画面400は、各撮像装置2および仮想カメラ5から受信した画像データをリアルタイムに表示し、画像表示部401fで、検知領域「A61」が指定された状態を示している。ただし、ウォッチャ画面400における画像判定動作においては、外観の煩雑さを回避するため、画像表示部401に表示される各判定領域の名称の表示は省略するものとしている。ここで、検知機能とは、検知領域での画像が異常であるか否かの画像判定を監視動作中実行する機能である。また、第1制御部316は、設定画面500からウォッチャ画面400に遷移した後、画像表示部401fについて各検知領域の設定が完了したので、状態表示部421fに「設定完了」と表示させる。
First, an outline of the image determination operation (monitoring operation) on the
次に、ユーザは、入力部303の操作によって、画像判定動作(監視動作)を開始させたい撮像装置2または仮想カメラ5に対応する画像表示部401を押下して選択状態にする。図8に示す例では、画像表示部401fが押下されて選択状態になった状態が示されている。そして、第1制御部316は、ユーザによる入力部303の操作によって、監視開始ボタン411が押下されると、画像表示部401fに表示される撮像装置2fのリアルタイムの画像データについて画像判定動作を開始する。このとき、第1制御部316は、図8に示すように、撮像装置2fについて画像判定動作が実行中である旨を示すために、状態表示部421fに「監視中」と表示させる。また、第1制御部316は、選択状態になっている画像表示部401に対応する撮像装置2に関連付けて、画像判定動作(監視動作)を開始した時刻の情報(時刻情報)を記憶部302に記憶させる。なお、第1制御部316は、ユーザによる入力部303の操作によって、監視停止ボタン412が押下された場合、選択状態の画像表示部401についての画像判定動作を停止し、その画像表示部401に対応する撮像装置2または仮想カメラ5に関連付けて、画像判定動作(監視動作)を停止した時刻の情報(時刻情報)を記憶部302に記憶させる。
Next, the user presses the image display unit 401 corresponding to the
具体的なウォッチャ画面400における画像判定動作では、まず、画像振分部312が、画像受信部301から取得したリアルタイムの画像データを画像表示部401a〜401fに振り分けて表示させる。また、検知領域判定部314は、記憶部302から、指定された検知領域(図7における検知領域570)の属性情報を取得する。検知領域判定部314は、監視動作が実行されている間、指定された検知領域において、検知基準画像と、画像データとしてのフレームまたは画像における検知領域の画像とを比較して異常であるか否かの画像判定を実行する。
In the image determination operation on the
具体的には、検知領域判定部314は、検知領域570に対応する画像データとしてのフレームまたは画像における検知領域の画像と、検知基準画像とを比較して異常であるか否かの画像判定をする。このとき、画像判定として、検知領域判定部314は、検知基準画像と、検知領域の画像とにおける対応する画素同士の比較で、画素値が検知領域570の属性情報の感度以上異なる画素の数の合計である差分が、当該属性情報の閾値(例えば閾値が「20%」の場合、検知領域の画像(または検知基準画像)の全体の画像数のうち20%の画素数)以上となった場合に、検知領域570の画像判定は異常と判定する。また、検知領域判定部314は、検知基準画像と、検知領域の画像との比較で、画素値が検知領域570の属性情報の感度以上異なる画素の数の合計である差分が、当該属性情報の閾値未満である限り、検知領域570の画像判定は正常と判定する。
Specifically, the detection area determination unit 314 compares the image of the detection area in the frame or image as the image data corresponding to the
また、検知領域判定部314による画像判定の結果、正常検知となっている場合であって、画像表示部401fがOKランプ414およびNGランプ415によるランプ点灯の対象となっていて、かつ、他のランプ点灯の対象となっている画像表示部401における検知領域での画像判定が正常検知となっている場合、第1制御部316は、OKランプ414を点灯させる。
Further, when the result of the image determination by the detection area determination unit 314 is normal detection, the
また、検知領域判定部314による画像判定の結果、異常検知となった場合、図9に示すように、第1制御部316は、検知領域570を示す枠を、通常状態の色とは異なる色で、かつ、通常状態の枠よりも太く表示させる。例えば、第1制御部316は、異常検知を示すために、検知領域570を示す枠を「赤色」かつ太く表示させ、この表示状態を例えば1秒間継続させる。また、第1制御部316は、検知領域570における画像判定で異常検知がなされたとき、画像表示部401fがOKランプ414およびNGランプ415によるランプ点灯の対象となっている場合、NGランプ415を点灯させる。そして、第1制御部316は、1秒後、検知領域570を示す枠の表示を通常状態の枠の表示に戻す。なお、第1制御部316は、検知領域判定部314により、検知基準画像と、検知領域の画像との比較で、画素値が検知領域570の属性情報の感度以上異なる画素の数の合計である差分が、当該属性情報の閾値以上となっている限り、検知領域570を示す枠を「赤色」かつ太く表示させる状態を継続し、異常検知の状態となっていることを示し続けるものとしてもよい。この場合、NGランプ415の点灯動作も同様である。
Further, when an abnormality is detected as a result of the image determination by the detection area determination unit 314, as shown in FIG. 9, the
そして、検知領域判定部314は、画像判定動作で異常検知をした検知時刻の情報(時刻情報)を、画像判定動作を実行している撮像装置2または仮想カメラ5に関連付けて、記憶部302に記憶させる。また、検知領域判定部314は、画像判定動作で異常検知をした検知時刻の情報(時刻情報)を、画像判定動作を実行している撮像装置2または仮想カメラ5に関連付けて、記憶部302のマーカファイルに書き込む。
Then, the detection area determination unit 314 associates the information (time information) of the detection time when the abnormality is detected in the image determination operation with the
そして、外部出力部332は、検知領域判定部314により異常の判定がなされた場合、異常信号を外部機器10に出力する。
Then, when the detection area determination unit 314 determines the abnormality, the
以上のように、第1制御部316は、各検知領域を示す枠を、異常検知の場合には通常状態とは別の色および枠の太さで表示して、異常検知であることを明示するようにしている。これによって、ユーザは、各画像表示部401の画像判定動作(監視動作)のうち、どの画像表示部401の検知領域で異常検知がなされたのかについてのタイミングを視覚的に把握することができる。
As described above, the
(仮想カメラが画像判定システムである場合の構成について)
図10は、実施形態に係る画像判定システムの全体構成において仮想カメラを画像判定システムとした場合の一例を示す図である。図11は、実施形態に係る情報処理装置の表示装置に表示されるウォッチャ画面において、仮想カメラとしての画像判定システムから出力されたウォッチャ画面が表示された状態の一例を示す図である。図10および図11を参照しながら、本実施形態に係る画像判定システム1において、上述のように仮想カメラ5として別の画像判定システムが接続されている場合の構成および動作の詳細について説明する。
(About the configuration when the virtual camera is an image judgment system)
FIG. 10 is a diagram showing an example of a case where a virtual camera is used as an image determination system in the overall configuration of the image determination system according to the embodiment. FIG. 11 is a diagram showing an example of a state in which the watcher screen output from the image determination system as a virtual camera is displayed on the watcher screen displayed on the display device of the information processing device according to the embodiment. With reference to FIGS. 10 and 11, in the
図10に示すように、本実施形態に係る画像判定システム1では、図1で示した仮想カメラ5として、画像判定システム1の構成に準じる形態を有する別の画像判定システム5aが、ハブ4を介して情報処理装置3に接続されている。画像判定システム5aに含まれる情報処理装置(画像判定システム1の情報処理装置3に相当)は、画像判定システム1と同様に複数のIPカメラ(画像判定システム1の撮像装置2に相当)から画像データを受信して、表示装置であるディスプレイ(ディスプレイ105に相当)に、例えば、ウォッチャ画面400に相当する画面を表示させ、画像判定システム1と同様に、各IPカメラから受信した画像データに対する画像判定を行う。また、画像判定システム5aに含まれる情報処理装置は、ディスプレイに表示されている画面(例えばウォッチャ画面400に相当する画面)をキャプチャして、例えば、Motion JPEGまたはH.264等の動画圧縮規格により動画に変換して外部に配信するアプリケーション(以下、単に「配信アプリ」と称する)がインストールされている。ここでは、図11に示すように、画像判定システム5aに含まれる情報処理装置は、配信アプリの機能により、ディスプレイに表示されているウォッチャ画面900(ウォッチャ画面400に対応)をキャプチャして変換した動画(第2画像データの一例)を、ハブ4を介して情報処理装置3へ送信する。すなわち、画像判定システム5a自体は、撮像装置そのものではないが、ディスプレイに表示された動画を出力することが可能であるので、当該動画を、撮像装置2の画像データに相当するものとして受信することにより画像判定を行うことができる。画像判定システム5aは、本発明の「別のデバイス」に相当する。
As shown in FIG. 10, in the
例えば、図11に示すように、画像判定システム1側のウォッチャ画面400において、画像表示部401aに表示された、画像判定システム5aから出力されたウォッチャ画面900を示す動画(キャプチャ動画)に対して異常検知するための検知領域として、検知領域指定部309により検知領域571、572が指定されている。なお、図11では、説明の都合上、ウォッチャ画面900に含まれるOKランプおよびNGランプを、ウォッチャ画面400の画像表示部401a上では、縮尺を変えて(拡大して)図示している。
For example, as shown in FIG. 11, on the
検知領域571は、ウォッチャ画面900のOKランプ(ウォッチャ画面400のOKランプ414に相当)を含むように指定されている。検知領域572は、ウォッチャ画面900のNGランプ(ウォッチャ画面400のNGランプ415に相当)を含むように指定されている。そして、検知領域指定部309は、例えば、ウォッチャ画面900のOKランプが消灯している状態における検知領域571内の画像を検知基準画像として抽出して記憶部302に記憶させ、指定した検知領域571の情報(位置および形状等の位置情報、および属性情報等)を記憶部302に記憶させる。また、検知領域指定部309は、例えば、ウォッチャ画面900のNGランプが消灯している状態における検知領域572内の画像を検知基準画像として抽出して記憶部302に記憶させ、指定した検知領域572の情報(位置および形状等の位置情報、および属性情報等)を記憶部302に記憶させる。
The
図11に示すウォッチャ画面400では、画像表示部401aにおいて仮想カメラ5である画像判定システム5aから受信した動画をリアルタイムに表示し、検知領域571、572が指定された状態を示している。次に、ユーザは、入力部303の操作によって、画像判定動作(監視動作)を開始させたい撮像装置2または仮想カメラ5に対応する画像表示部401(ここでは、画像表示部401a)を押下して選択状態にする。そして、第1制御部316は、ユーザによる入力部303の操作によって、監視開始ボタン411が押下されると、画像表示部401aに表示される画像判定システム5aのリアルタイムの動画(キャプチャ動画)について画像判定動作を開始する。また、第1制御部316は、選択状態になっている画像表示部401aに対応する画像判定システム5aに関連付けて、画像判定動作(監視動作)を開始した時刻の情報(時刻情報)を記憶部302に記憶させる。なお、第1制御部316は、ユーザによる入力部303の操作によって、監視停止ボタン412が押下された場合、選択状態の画像表示部401aについての画像判定動作を停止し、その画像表示部401aに対応する画像判定システム5aに関連付けて、画像判定動作(監視動作)を停止した時刻の情報(時刻情報)を記憶部302に記憶させる。
In the
そして、検知領域判定部314は、記憶部302から、指定された検知領域571、572の属性情報を取得する。検知領域判定部314は、監視動作が実行されている間、指定された検知領域571、572において、検知基準画像と、動画における検知領域の画像とを比較して画像判定を実行する。
Then, the detection area determination unit 314 acquires the attribute information of the designated
具体的には、検知領域判定部314は、検知領域571、572に対応する動画における検知領域の画像と、検知基準画像とを比較して画像判定をする。このとき、画像判定として、検知領域判定部314は、検知基準画像と、検知領域の画像との比較で、画素値が検知領域571の属性情報の感度以上異なる画素の数の合計である差分が、当該属性情報の閾値以上となった場合に、検知領域571の画像判定としてOKランプが点灯したと判定する。また、検知領域判定部314は、検知基準画像と、検知領域の画像との比較で、画素値が検知領域571の属性情報の感度以上異なる画素の数の合計である差分が、当該属性情報の閾値未満である限り、検知領域571の画像判定としてOKランプが点灯していないと判定する。
Specifically, the detection area determination unit 314 compares the image of the detection area in the moving image corresponding to the
同様に、検知領域判定部314は、検知基準画像と、検知領域の画像との比較で、画素値が検知領域572の属性情報の感度以上異なる画素の数の合計である差分が、当該属性情報の閾値以上となった場合に、検知領域572の画像判定としてNGランプが点灯したと判定する。また、検知領域判定部314は、検知基準画像と、検知領域の画像との比較で、画素値が検知領域572の属性情報の感度以上異なる画素の数の合計である差分が、当該属性情報の閾値未満である限り、検知領域572の画像判定としてNGランプが点灯していないと判定する。
Similarly, the detection area determination unit 314 compares the detection reference image with the image in the detection area, and the difference in which the pixel value is the total number of pixels different from the sensitivity of the attribute information in the
そして、検知領域判定部314は、画像判定動作でOKランプまたはNGランプが点灯した場合の検知時刻の情報(時刻情報)を、画像判定システム5aに関連付けて、記憶部302に記憶させる。また、検知領域判定部314は、画像判定動作でOKランプまたはNGランプが点灯した場合の検知時刻の情報(時刻情報)を、画像判定システム5aに関連付けて、記憶部302のマーカファイルに書き込む。
Then, the detection area determination unit 314 stores the information (time information) of the detection time when the OK lamp or the NG lamp is turned on in the image determination operation in the
そして、外部出力部332は、検知領域判定部314により異常の判定がなされた場合(検知領域572のNGランプが点灯したことが検知された場合)、異常信号を外部機器10に出力する。
Then, when the detection area determination unit 314 determines the abnormality (when it is detected that the NG lamp in the
以上のように、撮像装置2と代替する仮想カメラ5としての画像判定システム5aがハブ4を介して情報処理装置3に接続されている場合、画像判定システム5aの使用方法、設定方法等を特に認識していなくても、画像判定システム5a内で認識された画像判定の結果について、画像判定システム5aが出力する動画に対する画像判定システム1側での画像判定を通して、画像判定システム1側で認識することが可能となる。
As described above, when the
(仮想カメラが画像判定システムである場合の多段構成について)
図12は、実施形態に係る画像判定システムに対して、仮想カメラとしての画像判定システムが多段で接続される状態を説明する図である。図12を参照しながら、本実施形態に係る画像判定システム1において、仮想カメラ5として別の画像判定システムが多段に接続されている場合の動作の詳細について説明する。
(About multi-stage configuration when the virtual camera is an image judgment system)
FIG. 12 is a diagram illustrating a state in which an image determination system as a virtual camera is connected in multiple stages to the image determination system according to the embodiment. With reference to FIG. 12, in the
図10および図11で上述したように、情報処理装置3に接続される仮想カメラ5として、画像判定システム1の構成に準じる形態を有する別の画像判定システムとした場合、さらに、当該別の画像判定システムに対してさらに別の画像判定システムを仮想カメラとして多段に接続することが可能である。例えば、図12では、ウォッチャ画面400を表示する画像判定システム1には、仮想カメラとして、ウォッチャ画面400_1を表示する画像判定システム、およびウォッチャ画面400_2を表示する画像判定システムが接続されている。さらに、ウォッチャ画面400_1を表示する画像判定システムには、さらに仮想カメラとして、ウォッチャ画面400_1_1と表示する画像判定システムが接続されている。
As described above in FIGS. 10 and 11, when the
以上のように、画像判定システム1に接続される仮想カメラを、別の画像判定システムとした場合、当該別の画像判定システムに対する仮想カメラとして、さらに別の画像判定システムを接続することができる。これによって、多段に接続される画像判定システムの使用方法、設定方法等を認識していなくても、画像判定システムのウォッチャ画面のOKランプまたはNGランプを検知領域として上位の画像判定システムが画像判定を行っていくことによって、多段の構成のうちの最下位の画像判定システムでの画像判定結果を、最上位の画像判定システム1がキャプチャ動画に対する画像判定を通じて認識することができる。
As described above, when the virtual camera connected to the
(ビューワ画面における画像判定再現動作)
図13は、実施形態に係る情報処理装置の表示装置に表示されるビューワ画面で録画された画像データが再生表示される状態の一例を示す図である。図14は、実施形態に係る情報処理装置の表示装置に表示されるビューワ画面でマーカリスト画面が表示された状態の一例を示す図である。図13および図14を参照しながら、ビューワ画面700の構成、および録画(記憶)された複数の画像データが表示される動作等について説明する。
(Image judgment reproduction operation on the viewer screen)
FIG. 13 is a diagram showing an example of a state in which the image data recorded on the viewer screen displayed on the display device of the information processing apparatus according to the embodiment is reproduced and displayed. FIG. 14 is a diagram showing an example of a state in which the marker list screen is displayed on the viewer screen displayed on the display device of the information processing device according to the embodiment. The configuration of the
CPU101により実行されるプログラム(アプリケーション)により、図13に示すビューワ画面700が表示部333に表示される。ビューワ画面700は、第2再生部318によって、複数の撮像装置2から受信した画像データおよび仮想カメラ5から出力された画像データであって、画像振分部312により記憶部302に記憶された過去の画像データが表示され、指定された各検知領域において画像判定の状態を再現する画面である。
The
ビューワ画面700は、図25に示すように、画像表示部701a〜701fと、再生ボタン703aと、一時停止ボタン703bと、早送りボタン703cと、早戻しボタン703dと、停止ボタン703eと、シークバー704と、スライダー705と、時刻表示部706と、マーカリストボタン707と、を含む。
As shown in FIG. 25, the
画像表示部701a〜701fは、ユーザにより操作される入力部303からの操作信号に従って、第2再生部318によって、記憶部302に記憶された各撮像装置2および仮想カメラ5の過去の画像データがそれぞれ表示される表示領域である。また、ここでは、画像表示部701a〜701fは、同じ日付・時刻の画像データを表示するものとする。また、画像表示部701a〜701fは、ユーザによる入力部303の操作によって押下(例えば、マウス108のクリック操作等、以下同様)されると、選択状態にすることができる。なお、画像表示部701a〜701fを区別なく呼称する場合、または総称する場合、単に「画像表示部701」というものとする。
In the
再生ボタン703aは、ユーザによる入力部303の操作によって押下されると、第2再生部318によって、画像表示部701に表示された画像データが再生開始されるボタンである。一時停止ボタン703bは、ユーザによる入力部303の操作によって押下されると、第2再生部318によって、画像表示部701に再生表示されている画像データおよび動作等の画像が一時停止されるボタンである。早送りボタン703cは、ユーザによる入力部303の操作によって押下されると、第2再生部318によって、画像表示部701に再生表示されている画像データが早送り表示されるボタンである。早戻しボタン703dは、ユーザによる入力部303の操作によって押下されると、第2再生部318によって、画像表示部701に再生表示されている画像データが早戻し表示されるボタンである。停止ボタン703eは、ユーザによる入力部303の操作によって押下されると、第2再生部318によって、画像表示部701に再生表示されている画像データが停止されるボタンである。
The
シークバー704は、その上に配置されるスライダー705の位置により、画像表示部701に再生表示されている画像データがどの時間のものなのかを示す棒状の形状体である。スライダー705は、画像表示部701に再生表示されている画像データの撮像時刻(表示されているフレームが撮像された時刻、または表示されている画像が取得された時刻)に対応したシークバー704上の位置にスライドする形状体かつ操作部である。逆に、スライダー705は、ユーザによる入力部303の操作によってスライドされると、第2再生部318によって、スライダー705が存在するシークバー704上の位置に対応した撮像時刻の画像データとしてのフレーム、および画像が画像表示部701に表示される。
The seek
時刻表示部706は、第2再生部318によって、画像表示部701に再生表示されている画像データの撮像日付(取得された日付の概念を含む)および撮像時刻を表示する表示部である。
The
マーカリストボタン707は、ユーザによる入力部303の操作によって押下されると、リスト制御部320により記憶部302に記憶されたまマーカファイルを読み出し、マーカファイルの内容を表示させる、図14に示すマーカリスト画面800が表示されるボタンである。
When the
ビューワ画面700の画像表示部701で、第2再生部318により記憶部302に記憶された過去の画像データが表示されると、領域表示制御部319は、記憶部302に記憶された、画像判定動作(監視動作)が開始および終了された時刻の情報、各検知領域が指定された時刻の情報、および各検知領域で検知された時刻の情報を読み出す。領域表示制御部319は、図13に示すように、これらの時刻情報に基づいて、各検知領域を示す枠を、画像表示部701に再生表示されている過去の画像データに重畳させて表示させる。例えば、領域表示制御部319は、時刻情報から、画像判定動作が開始された時刻よりも、各検知領域が指定された時刻が前であれば、画像判定動作の開始時刻から、指定された各検知領域を示す枠を表示させる。また、領域表示制御部319は、画像表示部701に再生表示されている画像データの時刻が、時刻情報における画像判定動作の終了時刻になった時点で、表示していた各検知領域を示す枠を消去する。
When the image display unit 701 of the
また、領域表示制御部319は、画像表示部701に再生表示されている画像データの時刻が、時刻情報における特定の検知領域の異常検知時刻になった時点で、その検知領域を示す枠を通常状態の色とは異なる色、かつ、通常状態の枠よりも太く表示させる。例えば、領域表示制御部319は、ウォッチャ画面400において表示される各検知領域を示す枠と同様に、例えば、「赤色」かつ太く表示させる。
Further, the area
以上のように、領域表示制御部319により、記憶部302に記憶された、各時刻情報に基いて、各検知領域の枠の表示状態を制御することによって、ウォッチャ画面400における画像判定動作(監視動作)の状態を、過去の画像データで再現することができる。これによって、ユーザは、リアルタイムの画像データおよび画像ではなく、過去の画像データおよび画像について、どのような画像判定動作が行われていたかを確認することができる。
As described above, the area
なお、画像表示部701a〜701fは、同じ日付・時刻の画像データを表示するものとしているが、これに限定されるものではなく、例えば、画像表示部701それぞれにシークバーおよび操作ボタン等を有するものとし、各画像表示部701で異なる日付・時刻の画像データを表示できるものとしてもよい。
The
また、図14に示すように、リスト制御部320は、ユーザによる入力部303の操作によってマーカリストボタン707が押下されると、記憶部302に記憶されたマーカファイルを読み出し、マーカファイルの内容を示すマーカリスト画面800を表示させる。図14に示すように、マーカリスト画面800は、検知履歴表示部802(リスト)を含む。
Further, as shown in FIG. 14, when the
検知履歴表示部802は、検知機能に基づく検知の日付・時刻のリストの表示領域である。具体的には、検知履歴表示部802には、検知領域の領域名、検知された日時・時刻、ならびに、対応する撮像装置2および仮想カメラ5を識別する名称が表示されている。
The detection
リスト制御部320は、ユーザによる入力部303の操作によって検知履歴表示部802のいずれかの検知領域を示すレコードが押下されると、第2再生部318に、そのレコードが示す日時・時刻の画像データを画像表示部701に表示させる。
When a record indicating any detection area of the detection
このように、図14に示すマーカリスト画面800を表示させることによって、各検知領域での検知の日付・時刻をリスト表示することによって、不具合の発生のタイミング、傾向または異常発生の原因等の特定を容易にすることができる。
In this way, by displaying the
なお、上述の図12に示したように、仮想カメラ5として多段に別の画像判定システムが接続されている場合については、ウォッチャ画面400の検知履歴表示部802のレコードを押下することにより、第2再生部318に、ウォッチャ画面400_1、400_2、400_1_1で録画された画像データを再生表示させることもできる。
As shown in FIG. 12 above, when another image determination system is connected in multiple stages as the
以上のように、本実施形態に係る画像判定システム1では、撮像装置2のように直接撮影された画像データを出力する装置だけでなく、異常等の有無の判定対象とすることができる画像データを出力するデバイスを接続して、当該デバイスから取得した画像データに対して、撮像装置からの画像データに対する画像判定と同様に、画像判定を行うものとしている。これによって判定対象となる画像は撮像装置により撮影された画像データに限定せずに、撮像装置以外のデバイスからの画像についても判定対象とすることができる。
As described above, in the
また、撮像装置2と代替する仮想カメラ5としての画像判定システム5aがハブ4を介して情報処理装置3に接続されている場合、画像判定システム5aの使用方法、設定方法等を特に認識していなくても、画像判定システム5a内で認識された画像判定の結果について、画像判定システム5aが出力する動画に対する画像判定システム1側での画像判定を通して、画像判定システム1側で認識することが可能となる。
Further, when the
また、画像判定システム1に接続される仮想カメラを、別の画像判定システムとした場合、当該別の画像判定システムに対する仮想カメラとして、さらに別の画像判定システムを接続することができる。これによって、多段に接続される画像判定システムの使用方法、設定方法等を認識していなくても、画像判定システムのウォッチャ画面のOKランプまたはNGランプ等を検知領域として上位の画像判定システムが画像判定を行っていくことによって、多段の構成のうちの最下位の画像判定システムでの画像判定結果を、最上位の画像判定システム1がキャプチャ動画に対する画像判定を通じて認識することができる。
Further, when the virtual camera connected to the
なお、上述の図11に示すように、本実施形態に係る画像判定システム1では、画像判定システム5aの情報処理装置の配信アプリが、ディスプレイに表示される画面全体(例えば画面全体で表示したウォッチャ画面900)をキャプチャした動画を情報処理装置3へ送信しているものとしたが、これに限定されない。例えば、画像判定システム5aの情報処理装置の配信アプリは、ディスプレイに表示される画面の一部の画像(例えば、ウォッチャ画面900のOKランプおよびNGランプを含む一部の画像)、または、画面の一部の画像のレイアウトを変えて組み合わせた画像等を、情報処理装置3へ送信するものとしてもよい。
As shown in FIG. 11 described above, in the
また、図10に示すように、仮想カメラ5として画像判定システム5aを適用した場合、画像判定システム5aの情報処理装置が、ディスプレイの画面をキャプチャして、そのキャプチャした画像を、画像判定システム1の情報処理装置3へ送信する場合、所定の遅延が生じる可能性がある。この場合、ウォッチャ画面400で表示される画像判定システム5aからの動画と、撮像装置2からの画像データとでは、表示している画像データおよび動画の時刻が異なることになる。この場合、上述の遅延は既知であるものとし、画像判定システム1の情報処理装置3は、ウォッチャ画面400の各画像表示部401に表示させる画像データおよび動作について、当該遅延を考慮して表示タイミングをずらず処理を行うことによって、各画像表示部401で表示される画像データおよび動画の時刻を統一にすることができる。
Further, as shown in FIG. 10, when the
(変形例1)
本実施形態の変形例1に係る画像判定システムについて、本実施形態に係る画像判定システム1と相違する点を中心に説明する。本実施形態では、仮想カメラ5として画像判定システム1とは別の画像判定システムを、画像判定システム1の情報処理装置3に接続した構成および動作について説明した。本変形例では、仮想カメラとしてアナログカメラを含むシステムを、情報処理装置3へ接続した場合の構成および動作について説明する。なお、本変形例に係る情報処理装置3のハードウェア構成および機能ブロック構成は、上述の実施形態で説明した構成と同様である。
(Modification example 1)
The image determination system according to the first modification of the present embodiment will be described focusing on the differences from the
図15は、変形例1に係る画像判定システムの全体構成の一例を示す図である。図15を参照しながら、本変形例に係る画像判定システム1bの構成および動作について説明する。
FIG. 15 is a diagram showing an example of the overall configuration of the image determination system according to the first modification. The configuration and operation of the
図15に示すように、画像判定システム1bは、図1に示す画像判定システム1が有する仮想カメラ5の代わりに、仮想カメラ5bを有する構成となっている。仮想カメラ5bは、アナログカメラを含むシステムであり、具体的には、アナログカメラ21と、変換器22と、PC(Personal Computer)23(情報処理装置の一例)と、を含む。なお、図15では、撮像装置2の図示を省略している。また、仮想カメラ5bは、本発明の「別のデバイス」に相当する。
As shown in FIG. 15, the
アナログカメラ21は、被写体から光を電気信号に変換することによって被写体を撮像(撮影)し、アナログの画像信号を生成するアナログカメラである。
The
変換器22は、アナログカメラ21からAVケーブル24を介して受信したアナログの画像信号を、デジタルの画像データに変換する装置である。変換器22は、変換したデジタルの画像データを、USB(Universal Serial Bus)ケーブル25を介してPC23へ送信する。なお、変換器22は、USBケーブル25を介してPC23へ画像データを送信することに限定されるものではなく、例えば、HDMIケーブル等によって送信するものとしてもよい。
The
PC23は、アナログカメラ21により撮影されたアナログ信号が変換器22により変換されたデジタルの画像データに対して、所定の解析等を行う情報処理装置である。PC23は、図15に示すように、解析アプリ23aと、配信アプリ23bとがインストールされている。
The
解析アプリ23aは、変換器22から受信した画像データに対して所定の解析を行うためのアプリケーションである。なお、解析アプリ23aは、画像データを解析するのではなく、単に画像データを再生表示するアプリケーションであってもよい。
The
配信アプリ23bは、PC23のディスプレイに表示されている画面をキャプチャして、例えば、Motion JPEGまたはH.264等の動画圧縮規格により動画に変換して、ハブ4を介して情報処理装置3へ送信(配信)するアプリケーションである。すなわち、PC23のネットワークI/Fからは、解析アプリ23aにより所定の解析結果等(例えば画像データの再生の表示も含む)が表示されたディスプレイでの表示画面の動画(キャプチャ動画)(第2画像データの一例)が、情報処理装置3へ送信される。
The
以上のように、アナログカメラで撮影されたアナログ信号の画像データに対する所定の解析結果等(例えば画像データの再生の表示も含む)が表示された画面の動画を、情報処理装置3へ送信することが可能であるので、仮想カメラとして、図15に示したようなアナログカメラを含むシステムを適用することができる。 As described above, it is possible to transmit to the information processing apparatus 3 a moving image of a screen displaying a predetermined analysis result or the like (including display of reproduction of the image data) for the image data of the analog signal taken by the analog camera. Since it is possible, a system including an analog camera as shown in FIG. 15 can be applied as a virtual camera.
(変形例2)
本実施形態の変形例2に係る画像判定システムについて、本実施形態に係る画像判定システム1と相違する点を中心に説明する。本実施形態では、仮想カメラ5として画像判定システム1とは別の画像判定システムを、画像判定システム1の情報処理装置3に接続した構成および動作について説明した。本変形例では、仮想カメラとして産業用デジタルカメラを含むシステムを、情報処理装置3へ接続した場合の構成および動作について説明する。なお、本変形例に係る情報処理装置3のハードウェア構成および機能ブロック構成は、上述の実施形態で説明した構成と同様である。
(Modification 2)
The image determination system according to the second modification of the present embodiment will be described focusing on the differences from the
図16は、変形例2に係る画像判定システムの全体構成の一例を示す図である。図16を参照しながら、本変形例に係る画像判定システム1cの構成および動作について説明する。
FIG. 16 is a diagram showing an example of the overall configuration of the image determination system according to the second modification. The configuration and operation of the
図16に示すように、画像判定システム1cは、図1に示す画像判定システム1が有する仮想カメラ5の代わりに、仮想カメラ5cを有する構成となっている。仮想カメラ5cは、産業用デジタルカメラを含むシステムであり、具体的には、産業用デジタルカメラ31a、31b(ビデオカメラの一例)と、変換器32a、32bと、PC33(情報処理装置の一例)と、を含む。なお、図16では、撮像装置2の図示を省略している。また、仮想カメラ5cは、本発明の「別のデバイス」に相当する。
As shown in FIG. 16, the
産業用デジタルカメラ31a、31bは、被写体から光を電気信号に変換することによって被写体を撮像(撮影)し、複数のフレーム(画像データ)で構成された動画(例えば、10[FPS])である画像データを生成するデジタルカメラである。
The industrial
変換器32a、32bは、産業用デジタルカメラ31a、31bで撮影された画像データであって、HDMIケーブル34a、34bによりHDMI規格で送信されてきた画像データを、USB規格で通信可能な画像データに変換する装置である。変換器32a、32bは、変換したUSB規格で通信可能な画像データを、USBケーブル35a、35bを介してPC33へ送信する。
The
PC33は、産業用デジタルカメラ31a、31bにより撮影された画像データに対して、所定の解析等を行う情報処理装置である。PC33は、図16に示すように、解析アプリ33aと、配信アプリ33bとがインストールされている。
The
解析アプリ33aは、変換器32a、32bから受信した画像データに対して所定の解析を行うためのアプリケーションである。
The analysis application 33a is an application for performing a predetermined analysis on the image data received from the
配信アプリ33bは、PC33のディスプレイに表示されている画面をキャプチャして、例えば、Motion JPEGまたはH.264等の動画圧縮規格により動画に変換して、ハブ4を介して情報処理装置3へ送信(配信)するアプリケーションである。すなわち、PC33のネットワークI/Fからは、解析アプリ33aにより所定の解析結果等(例えば画像データの再生の表示も含む)が表示されたディスプレイでの表示画面の動画(キャプチャ動画)(第2画像データの一例)が、情報処理装置3へ送信される。
The
以上のように、産業用ビデオカメラで撮影された画像データに対する所定の解析結果等(例えば画像データの再生の表示も含む)が表示された画面の動画を、情報処理装置3へ送信することが可能であるので、仮想カメラとして、図16に示したような産業用ビデオカメラを含むシステムを適用することができる。 As described above, it is possible to transmit to the information processing apparatus 3 a moving image of a screen displaying a predetermined analysis result or the like (including display of reproduction of image data) for image data taken by an industrial video camera. Since it is possible, a system including an industrial video camera as shown in FIG. 16 can be applied as a virtual camera.
また、PC33において、解析アプリ33aの機能が、受信された産業用デジタルカメラ31a、31bからの画像データが記憶装置等に保存させずに解析のみを行う機能である場合、産業用デジタルカメラ31a、31bを含むシステムを、情報処理装置3へ仮想カメラとして接続することによって、仮想カメラの動画等の画像データとして記憶部302に記憶することができる。そして、領域表示制御部319により、ウォッチャ画面400における画像判定動作(監視動作)の状態を、記憶部302に記憶された過去の動画等の画像データで再現することができる。これによって、ユーザは、仮想カメラ5cで撮影された過去の画像データに基づいて解析アプリ33aによりどのような解析動作が行われていたかを確認することができる。
Further, in the
また、産業用デジタルカメラ31a、31bを含むシステム、特に解析アプリ33aの使用方法、設定方法等を特に認識していなくても、仮想カメラ5c内で認識される解析等の結果について、仮想カメラ5cが出力する画像データに対する情報処理装置3での画像判定を通して、解析等の結果を認識することが可能となる。
Further, even if the system including the industrial
(変形例3)
本実施形態の変形例3に係る画像判定システムについて、本実施形態に係る画像判定システム1と相違する点を中心に説明する。本実施形態では、仮想カメラ5として画像判定システム1とは別の画像判定システムを、画像判定システム1の情報処理装置3に接続した構成および動作について説明した。本変形例では、仮想カメラとしてアプリケーションによる解析結果等を表示する情報処理装置を含むシステムを、情報処理装置3へ接続した場合の構成および動作について説明する。なお、本変形例に係る情報処理装置3のハードウェア構成および機能ブロック構成は、上述の実施形態で説明した構成と同様である。
(Modification 3)
The image determination system according to the third modification of the present embodiment will be described focusing on the differences from the
図17は、変形例3に係る画像判定システムに接続される仮想カメラが出力する画像として音を可視化するソフトウェアの画像について説明する図である。図17を参照しながら、アプリケーションによる解析結果等を表示する情報処理装置を含むシステムを仮想カメラとした場合の例について説明する。 FIG. 17 is a diagram illustrating an image of software that visualizes sound as an image output by a virtual camera connected to the image determination system according to the third modification. An example will be described in the case where a system including an information processing device for displaying analysis results by an application is used as a virtual camera with reference to FIG.
本変形例に係る仮想カメラには、例えば、図17に示すような、振動または音声等の波形データに対してウェーブレット変換を行い、当該波形データを色で表現する解析アプリがインストールされた情報処理装置が含まれるものとする。そして、当該情報処理装置にインストールされた配信アプリにより、図17に示すようなウェーブレット変換された波形データを色で表現する解析アプリのアプリケーション画面をキャプチャした動画(第2画像データの一例)として、ハブ4を介して情報処理装置3へ送信される。これによって、情報処理装置3の表示部333に表示されるウォッチャ画面400には、図17に示すような解析アプリのアプリケーション画面が表示されることになり、当該アプリケーション画面の波形表示に対して、検知領域指定部309により、図17に示すような検知領域573を指定することができる。例えば、検知領域573の設定内容(設定画面500での設定に準じた内容)で、図17(a)に示すように、良品の波形データは赤色の分布が少なく、図17(b)に示すように、不良品の波形データは赤色の分布が多いことから、赤色の分布が少ない画像を検知基準画像となるように設定する。これによって、ウォッチャ画面400における画像判定動作において、検知領域573の画像と、上述の検知基準画像との比較により、不良品の波形データであることを検知することが可能となる。
Information processing in which the virtual camera according to this modification is equipped with an analysis application that performs wavelet transform on waveform data such as vibration or voice as shown in FIG. 17 and expresses the waveform data in color. The device shall be included. Then, as a moving image (an example of the second image data) that captures the application screen of the analysis application that expresses the wavelet-transformed waveform data in color by the distribution application installed in the information processing device, as shown in FIG. It is transmitted to the
すなわち、アプリケーションによる解析結果等を表示する情報処理装置を含むシステムの使用方法、設定方法等を特に認識していなくても、解析のアプリケーション側で認識される解析結果について、仮想カメラが出力する画像データに対する情報処理装置3での画像判定を通して、当該解析結果を認識することが可能となる。また、図17に示すアプリケーションによる解析結果(すなわち仮想カメラ単体内での解析結果)を、情報処理装置3側の画像判定によって、当該解析結果を連携して認識することができる。
That is, an image output by the virtual camera about the analysis result recognized by the analysis application side even if the usage method, setting method, etc. of the system including the information processing device that displays the analysis result by the application is not particularly recognized. The analysis result can be recognized through the image determination by the
(変形例4)
本実施形態の変形例4に係る画像判定システムについて、本実施形態に係る画像判定システム1と相違する点を中心に説明する。本実施形態では、仮想カメラ5として画像判定システム1とは別の画像判定システムを、画像判定システム1の情報処理装置3に接続した構成および動作について説明した。本変形例では、仮想カメラとして無線通信によりキャプチャ動画を送信するスマートフォンを、情報処理装置3へ無線接続した場合の構成および動作について説明する。なお、本変形例に係る情報処理装置3のハードウェア構成および機能ブロック構成は、上述の実施形態で説明した構成と同様である。
(Modification example 4)
The image determination system according to the modified example 4 of the present embodiment will be described focusing on the differences from the
図18は、変形例4に係る画像判定システムの全体構成の一例を示す図である。図18を参照しながら、本変形例に係る画像判定システム1dの構成および動作について説明する。
FIG. 18 is a diagram showing an example of the overall configuration of the image determination system according to the modified example 4. The configuration and operation of the
図18に示すように、画像判定システム1dは、図1に示す画像判定システム1が有する仮想カメラ5の代わりに、仮想カメラ5dとしてのスマートフォン41(無線通信端末の一例)を有する構成となっている。仮想カメラ5dは、本発明の「別のデバイス」に相当する。
As shown in FIG. 18, the
スマートフォン41は、表示画面をキャプチャして、例えば、Motion JPEGまたはH.264等の動画圧縮規格により動画に変換して外部に配信する配信アプリがインストールされている。当該配信アプリは、スマートフォン41が有する無線I/FによってWi−Fi等の通信規格により、キャプチャした動画(第2画像データの一例)を情報処理装置3へ送信する。なお、仮想カメラ5dとして情報処理装置3へ無線接続する情報処理装置としては、スマートフォン41に限定されるものではなく、例えば、タブレット端末、または無線通信が可能なPC等(無線通信端末の一例)であってもよい。
The
以上のように、スマートフォン41に表示される画面をキャプチャした動画を、情報処理装置3へ送信することが可能であるので、仮想カメラとして、図17に示したようなスマートフォン41等の無線通信端末を適用することができる。
As described above, since it is possible to transmit the moving image of the screen displayed on the
また、スマートフォン41で起動および表示されているアプリ画面、またはスマートフォン41の内蔵カメラで撮像した写真の画面等に対して、情報処理装置3側の画像判定によって、当該画面に対する異常等の検知を行うことが可能となる。
Further, with respect to the application screen activated and displayed on the
(変形例5)
本実施形態の変形例5に係る画像判定システムについて、本実施形態に係る画像判定システム1と相違する点を中心に説明する。本実施形態では、仮想カメラ5として画像判定システム1とは別の画像判定システムを、画像判定システム1の情報処理装置3に接続した構成および動作について説明した。本変形例では、仮想カメラとしてソフトウェアで処理された結果を表示する情報処理装置(PC等)を、情報処理装置3へ接続した場合の構成および動作について説明する。なお、本変形例に係る情報処理装置3のハードウェア構成および機能ブロック構成は、上述の実施形態で説明した構成と同様である。
(Modification 5)
The image determination system according to the modified example 5 of the present embodiment will be described focusing on the differences from the
図19は、変形例5に係る画像判定システムに接続される仮想カメラが出力する画像としてデータからグラフをプロットするソフトウェアの画像について説明する図である。図19を参照しながら、ソフトウェアで処理された結果を表示する情報処理装置(PC等)を仮想カメラとした場合の例について説明する。 FIG. 19 is a diagram illustrating an image of software that plots a graph from data as an image output by a virtual camera connected to the image determination system according to the fifth modification. An example in which a virtual camera is used as an information processing device (PC or the like) for displaying the result processed by software will be described with reference to FIG.
本変形例に係る仮想カメラは、例えば、図19(a)および図19(b)に示すように、他のアプリケーションが生成したCSV(Comma−Separated Values)データを入力してグラフを自動作成し、かつ、更新されているCSVファイルのデータを適宜、グラフにも更新して反映するソフトウェアを実行している情報処理装置であるものとする。また、当該ソフトウェアでは、例えば、更新されていくグラフの値が所定の閾値を超えた場合のグラフ(例えば図19(b)に示すグラフ)の色を変える(例えば、赤色に変える)ような機能を有するものとする。そして、当該情報処理装置にインストールされた配信アプリにより、図19に示すような自動作成かつ更新されるグラフが表示されたソフトウェアの画面をキャプチャした動画(第2画像データの一例)として、ハブ4を介して情報処理装置3へ送信される。これによって、情報処理装置3の表示部333に表示されるウォッチャ画面400には、図19に示すようなグラフが表示された画面が表示されることになり、当該グラフを含む領域を、検知領域指定部309により検知領域として指定することができる。この場合、検知領域の設定内容(設定画面500での設定に準じた内容)で、赤色がない画像を検知基準画像となるように設定する。これによって、ウォッチャ画面400における画像判定動作において、検知領域の画像と、上述の検知基準画像との比較により、グラフの値が閾値を超えたことを検知することが可能となる。
The virtual camera according to this modification automatically creates a graph by inputting CSV (Comma-Separated Values) data generated by another application, for example, as shown in FIGS. 19 (a) and 19 (b). In addition, it is assumed that the information processing device is executing software that updates and reflects the updated CSV file data in the graph as appropriate. Further, in the software, for example, a function of changing the color (for example, changing to red) of the graph (for example, the graph shown in FIG. 19B) when the value of the graph to be updated exceeds a predetermined threshold value. Shall have. Then, as a moving image (an example of the second image data) of the software screen on which the graph automatically created and updated as shown in FIG. 19 is displayed by the distribution application installed in the information processing device, the
以上のように、ソフトウェアで処理された結果を表示する情報処理装置(PC等)の当該結果を表示する画面の動画を情報処理装置3へ送信することが可能であるので、仮想カメラとして、ソフトウェアで処理された結果を表示する情報処理装置(PC等)を適用することができる。
As described above, since it is possible to transmit the moving image of the screen displaying the result of the information processing device (PC or the like) that displays the result processed by the software to the
また、ソフトウェアで処理された結果を表示する情報処理装置(PC等)の使用方法、設定方法等を特に認識していなくても、当該ソフトウェアで作成されたグラフの結果について仮想カメラが出力する動画に対する情報処理装置3での画像判定を通して、当該結果を認識することが可能となる。
In addition, even if the user does not particularly recognize the usage method, setting method, etc. of the information processing device (PC, etc.) that displays the result processed by the software, the video output by the virtual camera about the result of the graph created by the software. The result can be recognized through the image determination by the
(変形例6)
本実施形態の変形例6に係る画像判定システムについて、本実施形態に係る画像判定システム1と相違する点を中心に説明する。本実施形態では、仮想カメラ5として画像判定システム1とは別の画像判定システムを、画像判定システム1の情報処理装置3に接続した構成および動作について説明した。本変形例では、仮想カメラとして、撮像装置で撮像された画像データに対して画像処理を施す情報処理装置を含むシステムを、情報処理装置3へ無線接続した場合の構成および動作について説明する。なお、本変形例に係る情報処理装置3のハードウェア構成および機能ブロック構成は、上述の実施形態で説明した構成と同様である。
(Modification 6)
The image determination system according to the modification 6 of the present embodiment will be described focusing on the differences from the
図20は、変形例6に係る画像判定システムの全体構成の一例を示す図である。図20を参照しながら、本変形例に係る画像判定システム1eの構成および動作について説明する。
FIG. 20 is a diagram showing an example of the overall configuration of the image determination system according to the modified example 6. The configuration and operation of the
図20(a)および図20(b)に示すように、撮像装置51で撮像した被写体61の画像は、周囲の環境(天気、時刻、季節等)によって明るくなったり暗くなったりする。例えば、図20(a)に示す例のように、晴れの状態で撮像装置51により被写体61が撮像された場合、明るい画像が得られるのに対し、図20(b)に示す例のように、雨天の状態で撮像装置51により被写体61が撮像された場合、暗い画像が得られることになる。このような場合に、撮像装置51で撮影された画像データをそのまま情報処理装置3へ送信し、設定画面500で指定した検知領域で定まる検知基準画像を1つ固定すると、当該画像データが撮影された環境とは異なる環境で撮影された画像データに対して画像判定された場合、誤った判定結果が出得る。
As shown in FIGS. 20A and 20B, the image of the subject 61 captured by the
そこで、特定の環境(例えば図20(a)に示す晴れの環境)で撮像装置51により撮像された被写体61の画像(第1撮像画像)のある部分(部分画像)を、環境調整用の基準部分62(基準画像)として登録する。そして、基準部分62の登録後、撮像装置51により撮像された被写体61の画像から、基準部分62に対応する画像の明るさおよび彩度等の変化を計算し、当該画像が基準部分62の明るさおよび彩度等(すなわち色)になるような変換式を求め、当該画像全体に対して当該変換式を適用することによって、環境の変化を低減した画像を得ることができる。
Therefore, a part (partial image) of the image (first captured image) of the subject 61 captured by the
図20(c)に示すように、本変形例に係る画像判定システム1eは、図1に示す画像判定システム1が有する仮想カメラ5の代わりに、仮想カメラ5eを有する構成となっている。仮想カメラ5eは、撮像装置で撮像された画像データに対して画像処理を施す情報処理装置を含むシステムであり、具体的には、撮像装置51と、PC53(情報処理装置の一例)と、を含む。なお、図20(c)では、撮像装置2の図示を省略している。また、仮想カメラ5eは、本発明の「別のデバイス」に相当する。
As shown in FIG. 20 (c), the
撮像装置51は、被写体から光を電気信号に変換することによって被写体を撮像(撮影)し、複数のフレーム(画像データ)で構成された動画(例えば、10[FPS])である画像データを生成するデジタルカメラである。
The
PC53は、上述のように基準部分62を登録し、撮像装置51により撮像された被写体61の画像(第2撮像画像)から、基準部分62に対応する画像の明るさおよび彩度等の変化を計算し、変換式を求め、当該画像全体に対して当該変換式を適用する画像処理を施す情報処理装置である。PC53は、図20に示すように、画像処理アプリ53aと、配信アプリ53bとがインストールされている。
The
画像処理アプリ53aは、上述の画像処理を施すアプリケーションである。
The
配信アプリ53bは、PC53のディスプレイに表示されている画面をキャプチャして、例えば、Motion JPEGまたはH.264等の動画圧縮規格により動画に変換して、ハブ4を介して情報処理装置3へ送信(配信)するアプリケーションである。すなわち、PC53のネットワークI/Fからは、画像処理アプリ53aにより画像処理が行われた画像データが表示されたディスプレイの表示画面の動画(キャプチャ動画)(第2画像データの一例)が、情報処理装置3へ送信される。
The
以上のように、撮像装置51で撮像された画像データに対して環境の変化の影響を低減する画像処理を施したものが表示された画面の動画を、情報処理装置3へ送信することが可能であるので、仮想カメラとして、図20(c)に示したような撮像装置51で撮像された画像データに対して画像処理を施す情報処理装置(PC53)を含むシステムを適用することができる。これによって、環境の変化を低減した画像データについて情報処理装置3側で画像判定を行うことができるので、誤った判定の発生を抑制することができる。
As described above, it is possible to transmit the moving image of the screen on which the image data captured by the
なお、情報処理装置3へ接続する仮想カメラとしては、上述の実施形態および各変形例で示した仮想カメラに限定されるものではなく、例えば、人体検知および熱源を監視して火災予防するためにサーモグラフィ画像を撮像するシステム、手作業分析を行うために深度センサ画像を撮像するシステム、Wi−Fi経由で画像を取得するラズベリーパイを含むシステム、放射線センサの検知情報を可視化して警報するシステム、作業分析を行うために人の骨格情報を検知するシステム、作業分析をするために人の動線情報を検知するシステム、PC操作をするために人の手によるジェスチャ情報を検知するシステム、人の目線画像を取得するウェアラブルカメラを含むシステム、静電気センサで工程内の静電気発生を可視化して警報するシステム、業務内容の検知および時間分析をするためにPCスクリーン画面を取り込むシステム、ならびに、360度画像を複数取り込む死角のない監視カメラを含むシステム等を、仮想カメラとして適用することもできる。
The virtual camera connected to the
また、上述の実施形態および各変形例のように、ウォッチャ画面400ではリアルタイムの画像データの表示、および、ビューワ画面700では過去の画像データの表示というように画面を分けて表示するものとしているが、これに限定されるものではない。すなわち、ウォッチャ画面400およびビューワ画面700の機能を共通の画面で実現させるものとしてもよい。
Further, as in the above-described embodiment and each modification, the
また、各表示領域(画像表示部401、701)において、各検知領域を示す表示要素として枠を用いるものとしているが、これに限定されるものではなく、各検知領域を示すことができる表示要素であればどのように表示してもよい。 Further, in each display area (image display units 401 and 701), a frame is used as a display element indicating each detection area, but the present invention is not limited to this, and a display element capable of indicating each detection area is used. If so, it may be displayed in any way.
また、上述の実施形態および各変形例の各機能は、一または複数の処理回路によって実現することが可能である。ここで、「処理回路」とは、電子回路により実装されるプロセッサのようにソフトウェアによって各機能を実行するようプログラミングされたプロセッサや、上述した各機能を実行するよう設計されたASIC(Application Specific Integrated Circuit)、DSP(Digital Signal Processor)、FPGA(Field−Programmable Gate Array)、SoC(System on a chip)、GPU(Graphics Processing Unit)や従来の回路モジュール等のデバイスを含むものとする。 Further, each function of the above-described embodiment and each modification can be realized by one or a plurality of processing circuits. Here, the "processing circuit" is a processor programmed to execute each function by software such as a processor implemented by an electronic circuit, or an ASIC (Application Specific Integrated) designed to execute each function described above. Devices including devices such as Circuits, DSPs (Digital Signal Processors), FPGAs (Field-Programmable Gate Arrays), SoCs (System on a chip), GPUs (Graphics Processing Units), and conventional circuit modules.
また、上述の実施形態および各変形例の情報処理装置3で実行されるプログラムは、インストール可能な形式又は実行可能な形式のファイルでCD−ROM(Compact Disc Read Only Memory)、フレキシブルディスク(FD)、CD−R(Compact Disk−Recordable)、DVD(Digital Versatile Disk)等のコンピュータで読み取り可能な記録媒体に記録してコンピュータ・プログラム・プロダクトとして提供するように構成してもよい。
Further, the program executed by the
また、上述の実施形態および各変形例の情報処理装置3で実行されるプログラムを、インターネット等のネットワークに接続されたコンピュータ上に格納し、ネットワーク経由でダウンロードさせることにより提供するように構成してもよい。また、上述の実施形態および各変形例の情報処理装置3で実行されるプログラムをインターネット等のネットワーク経由で提供または配布するように構成してもよい。
Further, the program executed by the
また、上述の実施形態および各変形例の情報処理装置3で実行されるプログラムは、上述した各機能部を含むモジュール構成となっており、実際のハードウェアとしてはCPU(プロセッサ)が上述のROMからプログラムを読み出して実行することにより上記各部が主記憶装置上にロードされ、各部が主記憶装置上に生成されるようになっている。
Further, the program executed by the
1、1b〜1e 画像判定システム
2、2b〜2f 撮像装置
3 情報処理装置
4 ハブ
5 仮想カメラ
5a 画像判定システム
5b〜5e 仮想カメラ
10 外部機器
21 アナログカメラ
22 変換器
23 PC
23a 解析アプリ
23b 配信アプリ
24 AVケーブル
25 USBケーブル
31a、31b 産業用デジタルカメラ
32a、32b 変換器
33 PC
33a 解析アプリ
33b 配信アプリ
34a、34b HDMIケーブル
35a、35b USBケーブル
41 スマートフォン
51 撮像装置
53 PC
53a 画像処理アプリ
53b 配信アプリ
61 被写体
62 基準部分
101 CPU
102 ROM
103 RAM
104 補助記憶装置
105 ディスプレイ
106 ネットワークI/F
107 キーボード
108 マウス
109 DVDドライブ
110 DVD
111 外部機器I/F
112 スピーカ
113 バス
301 画像受信部
302 記憶部
303 入力部
304 第1再生部
308 設定部
309 検知領域設定部
312 画像振分部
314 検知領域判定部
316 第1制御部
318 第2再生部
319 領域表示制御部
320 リスト制御部
321 第2制御部
331 表示制御部
332 外部出力部
333 表示部
400、400_1、400_1_1、400_2 ウォッチャ画面
401、401a〜401f 画像表示部
411 監視開始ボタン
412 監視停止ボタン
413 監視設定ボタン
414 OKランプ
415 NGランプ
421、421a〜421f 状態表示部
500 設定画面
501 カメラ選択タブ
502 設定用画像表示部
503a 再生ボタン
503b 一時停止ボタン
503c 早送りボタン
503d 早戻しボタン
503e 停止ボタン
504 シークバー
505 スライダー
506 時刻表示部
511 設定読出ボタン
512 設定書込ボタン
513 設定反映ボタン
514 閉じるボタン
561 検知領域情報部
562 検知領域ボタン群
562a アクションボタン
562c 削除ボタン
562e 感度増加ボタン
562f 感度減少ボタン
562g 閾値増加ボタン
562h 閾値減少ボタン
570〜573 検知領域
700 ビューワ画面
701、701a〜701f 画像表示部
703a 再生ボタン
703b 一時停止ボタン
703c 早送りボタン
703d 早戻しボタン
703e 停止ボタン
704 シークバー
705 スライダー
706 時刻表示部
707 マーカリストボタン
800 マーカリスト画面
802 検知履歴表示部
900 ウォッチャ画面
1, 1b to 1e
53a
102 ROM
103 RAM
104
111 External device I / F
112
Claims (12)
撮像装置から出力された第1画像データ、および、前記画像判定の対象となる画像データを出力する該撮像装置とは別のデバイスから出力された第2画像データのうち少なくとも該第2画像データを受信する受信部と、
前記受信部により受信された少なくとも前記第2画像データを表示装置に再生表示させる第1再生部と、
前記第1画像データまたは前記第2画像データが再生表示される前記表示装置の第1表示領域において、前記画像判定の対象となる検知領域を指定する指定部と、
前記第1画像データおよび前記第2画像データのうち少なくとも一方が表示される前記表示装置の第2表示領域における前記検知領域内の前記第1画像データまたは前記第2画像データに対して前記画像判定を行う判定部と、
を備えた画像判定装置。 An image judgment device capable of image judgment on image data.
Of the first image data output from the image pickup device and the second image data output from a device different from the image pickup device that outputs the image data to be image-determined, at least the second image data is used. The receiver to receive and
A first reproduction unit that reproduces and displays at least the second image data received by the reception unit on a display device.
In the first display area of the display device on which the first image data or the second image data is reproduced and displayed, a designation unit for designating a detection area to be image-determined, and a designated unit.
The image determination is made with respect to the first image data or the second image data in the detection area in the second display area of the display device in which at least one of the first image data and the second image data is displayed. Judgment unit to perform
An image judgment device equipped with.
前記リストの中から、入力装置に対する操作により選択された結果が得られた日時に対応する前記第1画像データ、または前記別のデバイスにより出力された前記第2画像データを、前記表示装置に再生表示させる第2再生部を、さらに備えた請求項1に記載の画像判定装置。 The determination unit generates the result of the image determination as a list, and generates the result.
From the list, the first image data corresponding to the date and time when the result selected by the operation on the input device is obtained, or the second image data output by the other device is reproduced on the display device. The image determination device according to claim 1, further comprising a second reproduction unit to be displayed.
前記受信部は、前記別の画像判定装置からの画像データを前記第2画像データとして受信する請求項1〜3のいずれか一項に記載の画像判定装置。 The other device is a system including another image determination device that receives image data from one or more image pickup devices, like the image determination device.
The image determination device according to any one of claims 1 to 3, wherein the receiving unit receives image data from the other image determination device as the second image data.
前記受信部は、前記情報処理装置から前記第2画像データを受信する請求項1〜3のいずれか一項に記載の画像判定装置。 The other device is a system including an information processing device that converts an image signal taken by an analog camera into digital image data by a converter and outputs at least the image data including the image data as the second image data. Yes,
The image determination device according to any one of claims 1 to 3, wherein the receiving unit receives the second image data from the information processing device.
前記受信部は、前記情報処理装置から、該情報処理装置の表示装置に表示された前記解析処理の結果を含む画像を前記第2画像データとして受信する請求項1〜3のいずれか一項に記載の画像判定装置。 The other device is a system including an information processing device that performs a predetermined analysis process on image data captured by a video camera.
According to any one of claims 1 to 3, the receiving unit receives an image including the result of the analysis process displayed on the display device of the information processing device from the information processing device as the second image data. The image determination device described.
前記受信部は、前記情報処理装置から、該情報処理装置の表示装置に表示された前記解析処理の結果を含む画像を前記第2画像データとして受信する請求項1〜3のいずれか一項に記載の画像判定装置。 The other device is an information processing device in which a predetermined analysis process is performed by an application.
According to any one of claims 1 to 3, the receiving unit receives an image including the result of the analysis process displayed on the display device of the information processing device from the information processing device as the second image data. The image determination device described.
前記受信部は、前記無線通信端末から前記少なくとも一部の画像を前記第2画像データとして無線通信により受信する請求項1〜3のいずれか一項に記載の画像判定装置。 The other device is a wireless communication terminal that transmits at least a part of the image displayed on the display device to the image determination device by wireless communication.
The image determination device according to any one of claims 1 to 3, wherein the receiving unit receives at least a part of the image from the wireless communication terminal as the second image data by wireless communication.
前記受信部は、前記情報処理装置から、該情報処理装置の前記表示装置に表示された前記グラフを含む画像を前記第2画像データとして受信する請求項1〜3のいずれか一項に記載の画像判定装置。 The other device is an information processing device that generates and updates a graph from data generated by an application and displays it on a display device.
The item according to any one of claims 1 to 3, wherein the receiving unit receives an image including the graph displayed on the display device of the information processing device from the information processing device as the second image data. Image judgment device.
前記受信部は、前記情報処理装置から、該情報処理装置から出力された、前記変換式を適用した画像を前記第2画像データとして受信する請求項1〜3のいずれか一項に記載の画像判定装置。 The other device uses a partial image of the first captured image captured by the imaging device in the past as a reference image, and refers to an image at a position corresponding to the partial image of the second captured image captured by the imaging device. It is a system including an information processing apparatus that obtains a conversion formula that makes the color the same as the reference image and outputs an image to which the conversion formula is applied to the second captured image.
The image according to any one of claims 1 to 3, wherein the receiving unit receives an image to which the conversion formula is applied, which is output from the information processing device, as the second image data. Judgment device.
前記第1画像データおよび前記第2画像データのうち少なくとも一方に対して画像判定を行う画像判定装置と、
を有し、
前記画像判定装置は、
前記第1画像データおよび前記第2画像データのうち少なくとも該第2画像データを受信する受信部と、
前記受信部により受信された少なくとも前記第2画像データを表示装置に再生表示させる再生部と、
前記第1画像データまたは前記第2画像データが再生表示される前記表示装置の第1表示領域において、前記画像判定の対象となる検知領域を指定する指定部と、
前記第1画像データおよび前記第2画像データのうち少なくとも一方が表示される前記表示装置の第2表示領域における前記検知領域内の前記第1画像データまたは前記第2画像データに対して前記画像判定を行う判定部と、
を備えた画像判定システム。 One or more image pickup devices that output the first image data, and at least the other device among other devices different from the image pickup device that output the second image data to be image-determined.
An image determination device that performs image determination on at least one of the first image data and the second image data,
Have,
The image determination device is
A receiving unit that receives at least the second image data of the first image data and the second image data, and
A reproduction unit that reproduces and displays at least the second image data received by the reception unit on a display device.
In the first display area of the display device on which the first image data or the second image data is reproduced and displayed, a designation unit for designating a detection area to be image-determined, and a designated unit.
The image determination is made with respect to the first image data or the second image data in the detection area in the second display area of the display device in which at least one of the first image data and the second image data is displayed. Judgment unit to perform
Image judgment system equipped with.
Priority Applications (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US16/929,162 US11223802B2 (en) | 2019-07-31 | 2020-07-15 | Image-based determination apparatus and image-based determination system |
EP20187931.9A EP3772219A3 (en) | 2019-07-31 | 2020-07-27 | Image-based determination apparatus and image-based determination system |
EP24163826.1A EP4362457A2 (en) | 2019-07-31 | 2020-07-27 | Image-based determination apparatus and image-based determination system |
EP23207938.4A EP4294003A3 (en) | 2019-07-31 | 2020-07-27 | Image-based determination apparatus and image-based determination system |
CN202010751845.XA CN112307882A (en) | 2019-07-31 | 2020-07-30 | Image determination device and image determination system |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019141802 | 2019-07-31 | ||
JP2019141802 | 2019-07-31 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2021027579A true JP2021027579A (en) | 2021-02-22 |
Family
ID=74664896
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020105414A Pending JP2021027579A (en) | 2019-07-31 | 2020-06-18 | Image determination device and image determination system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2021027579A (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7115812B1 (en) | 2021-06-28 | 2022-08-09 | 株式会社オプティム | program, method, information processing device, system |
WO2023053519A1 (en) * | 2021-09-28 | 2023-04-06 | オムロン株式会社 | Setting device, setting method, and setting program |
-
2020
- 2020-06-18 JP JP2020105414A patent/JP2021027579A/en active Pending
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7115812B1 (en) | 2021-06-28 | 2022-08-09 | 株式会社オプティム | program, method, information processing device, system |
WO2023276676A1 (en) * | 2021-06-28 | 2023-01-05 | 株式会社オプティム | Program, method, information processing device, and system |
JP2023005151A (en) * | 2021-06-28 | 2023-01-18 | 株式会社オプティム | Program, method, information processing device and system |
WO2023053519A1 (en) * | 2021-09-28 | 2023-04-06 | オムロン株式会社 | Setting device, setting method, and setting program |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6816802B2 (en) | Image processing equipment, image processing systems, image processing methods and programs | |
JP4241709B2 (en) | Image processing device | |
JP6733785B2 (en) | Image processing apparatus, image processing system, image processing method, and program | |
CN100496097C (en) | Image display control apparatus, method of controlling the same, and control program therefor | |
JP6756338B2 (en) | Image processing equipment, image processing systems, image processing methods and programs | |
JP2021027579A (en) | Image determination device and image determination system | |
JPWO2011093367A1 (en) | Information adding device, electronic camera, and information adding program | |
US20160372157A1 (en) | Display control apparatus, display control method, and storage medium | |
US7940958B2 (en) | Information processing system and method for controlling the same | |
JP6822093B2 (en) | Image processing equipment, image processing system, image processing method, and image processing program | |
US11223802B2 (en) | Image-based determination apparatus and image-based determination system | |
US8824872B2 (en) | Display control apparatus, reproduction system, and recording medium in which display control is performed based on a detected event | |
US11094084B2 (en) | Image processing method | |
JP5152317B2 (en) | Presentation control apparatus and program | |
JP4454704B2 (en) | Image processing device | |
JP2016119648A (en) | Parameter recording control device and method for controlling the same | |
US10165223B2 (en) | Pre-selectable video file playback system and method, and computer program product | |
CN105391971A (en) | Image processing device, image processing system and image processing method | |
JP2016039496A (en) | Image processing apparatus, image processing system, image processing method and program | |
US10764551B2 (en) | Method for configuring image-recording settings | |
JP6252921B1 (en) | Surveillance camera system and playback method | |
JP2004207842A (en) | Image processor and program | |
US20090136198A1 (en) | Video reproducing/recording and playing system and method for setting and playing video section | |
JP2022000970A (en) | Image processing apparatus, image processing system, image processing method and program | |
US11188743B2 (en) | Image processing apparatus and image processing method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20230412 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20240521 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240619 |