JP6400260B1 - Data processing apparatus, programmable display and data processing method - Google Patents

Data processing apparatus, programmable display and data processing method Download PDF

Info

Publication number
JP6400260B1
JP6400260B1 JP2018532182A JP2018532182A JP6400260B1 JP 6400260 B1 JP6400260 B1 JP 6400260B1 JP 2018532182 A JP2018532182 A JP 2018532182A JP 2018532182 A JP2018532182 A JP 2018532182A JP 6400260 B1 JP6400260 B1 JP 6400260B1
Authority
JP
Japan
Prior art keywords
image
event information
unit
data processing
video data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018532182A
Other languages
Japanese (ja)
Other versions
JPWO2019077750A1 (en
Inventor
孝一 折戸
孝一 折戸
茂 角
茂 角
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Application granted granted Critical
Publication of JP6400260B1 publication Critical patent/JP6400260B1/en
Publication of JPWO2019077750A1 publication Critical patent/JPWO2019077750A1/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Graphics (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Image Processing (AREA)
  • Processing Or Creating Images (AREA)
  • Alarm Systems (AREA)

Abstract

映像データを構成する画像から監視対象が表示されている複数の特徴画像を抽出するデータ処理部(14)と、データ処理部(14)により映像データを構成する画像から抽出された複数の特徴画像を合成して合成画像を生成する表示生成部(16)とを備える。監視対象とは、監視場所において移動する物体であり、例えば、製品を生産する工程において、ベルトコンベアにより搬送される製品である。当該構成によれば、時間をかけずに監視対象を確認することができる。A data processing unit (14) for extracting a plurality of feature images on which a monitoring target is displayed from images constituting the video data, and a plurality of feature images extracted from the images constituting the video data by the data processing unit (14) And a display generation unit (16) for generating a composite image. The monitoring target is an object that moves at a monitoring location, and is, for example, a product that is conveyed by a belt conveyor in a process of producing the product. According to this configuration, it is possible to confirm the monitoring target without taking time.

Description

本発明は、映像データの処理を行うデータ処理装置、プログラマブル表示器およびデータ処理方法に関する。   The present invention relates to a data processing device, a programmable display, and a data processing method for processing video data.

従来、撮像された時間の異なる複数の画像を階層的に提示し、長時間にわたって動的に変化する被写体の動きを監視する技術がある。監視を効率的に行うためには、再生時間の短縮が望まれる。   2. Description of the Related Art Conventionally, there is a technique for presenting a plurality of images taken at different times in a hierarchical manner and monitoring the movement of a subject that dynamically changes over a long period of time. In order to perform monitoring efficiently, it is desired to shorten the reproduction time.

例えば、特許文献1には、監視対象に基づいて入力画像を撮像するか判定し、撮像すると判定された画像を記憶することにより、監視対象のみを撮像するように撮像間隔を制御する画像記憶装置が開示されている。   For example, Patent Document 1 discloses an image storage device that determines whether to capture an input image based on a monitoring target, and stores an image determined to be captured, thereby controlling an imaging interval so as to capture only the monitoring target. Is disclosed.

特開2000−224542号公報JP 2000-224542 A

しかしながら、特許文献1の画像記憶装置では、再生時間の短縮は図られているものの、撮像した映像をすべて再生しないと監視対象の状態を確認することができず、特に撮像時間が長い場合には、監視対象の確認に時間を要してしまう。   However, in the image storage device of Patent Document 1, although the reproduction time is shortened, the state of the monitoring target cannot be confirmed unless all the captured images are reproduced, particularly when the imaging time is long. , It takes time to check the monitoring target.

本発明は、上記に鑑みてなされたものであって、監視対象を確認する時間を短縮することができるデータ処理装置を得ることを目的とする。   The present invention has been made in view of the above, and an object of the present invention is to obtain a data processing apparatus that can shorten the time for checking a monitoring target.

上述した課題を解決し、目的を達成するために、本発明は、映像データを構成する画像から監視対象が表示されている複数の特徴画像を抽出するデータ処理部と、データ処理部により映像データを構成する画像から抽出された複数の特徴画像を合成して合成画像を生成する表示生成部とを備え、データ処理部は、映像データを構成する画像が撮像された時間における監視対象の状態を示すイベント情報を外部装置から取得する取得部と、取得部により取得されたイベント情報には、外部装置により制御されている装置の異常または故障の検出に応じて生成されたアラーム情報が含まれ、このアラーム情報に基づいて、映像データを構成する画像を選択し、選択した画像から特徴画像を抽出する抽出部とを備える。 In order to solve the above-described problems and achieve the object, the present invention provides a data processing unit for extracting a plurality of feature images on which a monitoring target is displayed from images constituting video data, and video data by the data processing unit. And a display generation unit that generates a composite image by combining a plurality of feature images extracted from the images constituting the image , and the data processing unit displays the state of the monitoring target at the time when the image constituting the video data was captured The acquisition unit that acquires the event information shown from the external device, and the event information acquired by the acquisition unit includes alarm information generated in response to detection of an abnormality or failure of the device controlled by the external device, based on this alarm information, select the image constituting the video data, Ru and an extractor for extracting feature image from the selected image.

本発明にかかるデータ処理装置は、監視対象を確認する時間を短縮することができるという効果を奏する。   The data processing apparatus according to the present invention has an effect that the time for checking the monitoring target can be shortened.

本発明の実施の形態におけるデータ処理装置の構成を示す図The figure which shows the structure of the data processor in embodiment of this invention 実施の形態における合成画像の一例を示す図The figure which shows an example of the synthesized image in embodiment 実施の形態におけるデータ処理部の構成を示す図The figure which shows the structure of the data processing part in embodiment 実施の形態における映像データを構成する画像から特徴画像を抽出する具体例についての説明に供する図The figure which uses for description about the specific example which extracts the feature image from the image which comprises the video data in embodiment 実施の形態におけるイベント情報を取得する手順を示すフローチャートThe flowchart which shows the procedure which acquires the event information in embodiment 実施の形態における映像データを構成する画像から特徴画像を抽出する手順を示すフローチャートThe flowchart which shows the procedure which extracts the feature image from the image which comprises the video data in embodiment 実施の形態におけるイベント情報を選択する手順についての説明に供する図The figure which uses for the description about the procedure which selects the event information in embodiment 実施の形態における特徴画像にイベント情報画像を追加する手順についての説明に供する図The figure which uses for description about the procedure which adds an event information image to the characteristic image in embodiment 実施の形態における映像データが選択されてから、合成画像が表示されるまでの手順を示すフローチャートThe flowchart which shows the procedure from the video data selection in the embodiment until the composite image is displayed 実施の形態におけるデータ処理装置の表示生成部の構成を示す図The figure which shows the structure of the display production | generation part of the data processor in embodiment 実施の形態における映像データを選択する画面の一例を示す図The figure which shows an example of the screen which selects the video data in embodiment 実施の形態における映像データの構成の一例を示す図The figure which shows an example of a structure of the video data in embodiment 実施の形態における抽出部により画像から抽出された特徴画像の一例を示す図The figure which shows an example of the feature image extracted from the image by the extraction part in embodiment 実施の形態における追加部により特徴画像にイベント情報画像を追加する一例を示す図The figure which shows an example which adds an event information image to a feature image by the addition part in embodiment 実施の形態における合成画像の一例を示す図The figure which shows an example of the synthesized image in embodiment 実施の形態における映像データの構成の一例を示す図The figure which shows an example of a structure of the video data in embodiment 実施の形態における映像データの構成の一例を示す図The figure which shows an example of a structure of the video data in embodiment 実施の形態における抽出部により画像から抽出された特徴画像の一例を示す図The figure which shows an example of the feature image extracted from the image by the extraction part in embodiment 実施の形態における抽出部により画像から抽出された特徴画像の一例を示す図The figure which shows an example of the feature image extracted from the image by the extraction part in embodiment 実施の形態における追加部により特徴画像にイベント情報画像を追加する一例を示す図The figure which shows an example which adds an event information image to a feature image by the addition part in embodiment 実施の形態における追加部により特徴画像にイベント情報画像を追加する一例を示す図The figure which shows an example which adds an event information image to a feature image by the addition part in embodiment 実施の形態における合成画像の一例を示す図The figure which shows an example of the synthesized image in embodiment 実施の形態におけるデータ処理装置のハードウェアの構成例を示す図The figure which shows the structural example of the hardware of the data processor in embodiment

以下に、本発明の実施の形態にかかるデータ処理装置、プログラマブル表示器およびデータ処理方法を図面に基づいて詳細に説明する。なお、この実施の形態によりこの発明が限定されるものではない。   Below, a data processor, a programmable indicator, and a data processing method concerning an embodiment of the invention are explained in detail based on a drawing. Note that the present invention is not limited to the embodiments.

実施の形態.
図1は、本発明の実施の形態におけるデータ処理装置1の構成を示す図である。データ処理装置1は、プログラマブル表示器により実現される。プログラマブル表示器は、画像を表示する表示部と、ユーザの操作を受け付ける操作部と、外部装置を接続する接続部と、データを記憶する記憶部とを備え、外部装置の動作状況の表示と、外部装置に対して値の入力とを行う電子式操作表示器である。
Embodiment.
FIG. 1 is a diagram showing a configuration of a data processing device 1 according to an embodiment of the present invention. The data processing device 1 is realized by a programmable display. The programmable display device includes a display unit that displays an image, an operation unit that receives a user operation, a connection unit that connects an external device, and a storage unit that stores data. It is an electronic operation indicator that inputs values to an external device.

データ処理装置1は、撮像装置により一定時間の間に録画された映像データを構成する複数の画像から監視対象が表示されている特徴画像を抽出し、抽出した複数の特徴画像を合成して合成画像を生成する。本発明の実施の形態では、監視対象とは、監視場所において移動する物体、設備機器などである。また、本発明の実施の形態では、特徴画像は、映像データを構成する画像と同じ大きさであるとして説明するが、画像に表示されている監視対象と同じ大きさであってもよい。すなわち、特徴画像は、映像データを構成し、監視対象が表示されている画像を複数領域に分けた一部であってもよい。以下に、データ処理装置1の具体的な動作と構成について説明する。   The data processing device 1 extracts a feature image on which a monitoring target is displayed from a plurality of images constituting video data recorded for a predetermined time by an imaging device, and synthesizes and combines the extracted feature images. Generate an image. In the embodiment of the present invention, the monitoring target is an object, equipment, or the like that moves at the monitoring location. In the embodiment of the present invention, the feature image is described as being the same size as the image constituting the video data, but may be the same size as the monitoring target displayed in the image. That is, the characteristic image may be a part of the video data and the image on which the monitoring target is displayed divided into a plurality of areas. Hereinafter, a specific operation and configuration of the data processing apparatus 1 will be described.

データ処理装置1は、ユーザの操作を受け付ける操作部11と、外部装置2が接続される外部装置接続部12と、撮像装置3が接続される撮像装置接続部13とを備える。   The data processing device 1 includes an operation unit 11 that receives a user operation, an external device connection unit 12 to which the external device 2 is connected, and an imaging device connection unit 13 to which the imaging device 3 is connected.

データ処理装置1は、映像データを構成する画像から監視対象が表示されている部分の画像である特徴画像を抽出するデータ処理部14と、映像データと特徴画像とを記憶する記憶部15とを備える。   The data processing apparatus 1 includes a data processing unit 14 that extracts a feature image that is an image of a portion where a monitoring target is displayed from an image that constitutes video data, and a storage unit 15 that stores the video data and the feature image. Prepare.

データ処理装置1は、データ処理部14により映像データを構成する複数の画像それぞれから抽出された複数の特徴画像を合成して合成画像を生成する表示生成部16と、表示生成部16で生成された合成画像を表示する表示部17とを備える。   The data processing apparatus 1 is generated by a display generation unit 16 that generates a composite image by combining a plurality of feature images extracted from each of a plurality of images constituting video data by the data processing unit 14, and a display generation unit 16. And a display unit 17 for displaying the synthesized image.

操作部11は、キーボードまたはタッチパネルにより構成されており、ユーザの操作を受け付ける。具体的には、操作部11は、付加情報を入力する操作と、再生対象の映像データを選択する操作とを受け付ける。操作部11は、受け付けた操作に応じた操作信号を生成し、生成した操作信号をデータ処理部14に出力する。   The operation unit 11 includes a keyboard or a touch panel, and accepts user operations. Specifically, the operation unit 11 receives an operation for inputting additional information and an operation for selecting video data to be reproduced. The operation unit 11 generates an operation signal corresponding to the received operation, and outputs the generated operation signal to the data processing unit 14.

外部装置接続部12は、外部装置2が接続されるインターフェイスである。外部装置接続部12は、例えば、USB(Universal Serial Bus)コネクタまたはRS−232Cコネクタにより構成される。   The external device connection unit 12 is an interface to which the external device 2 is connected. The external device connection unit 12 is configured by, for example, a USB (Universal Serial Bus) connector or an RS-232C connector.

外部装置2は、例えば、産業用機械を制御するPLC(Programmable Logic Controller)、または、製品の検査を行うセンシング装置である。PLCは、制御対象である産業用機械に記憶されているデバイスID(Identification)を保持する。デバイスIDとは、産業用機械を識別するための情報である。   The external device 2 is, for example, a PLC (Programmable Logic Controller) that controls an industrial machine or a sensing device that inspects a product. The PLC holds a device ID (Identification) stored in an industrial machine to be controlled. The device ID is information for identifying an industrial machine.

PLCは、接続されている産業用機械の動作を制御する。また、PLCは、産業用機械が動作している状態を監視する。PLCは、産業用機械の異常または故障を検出するとアラーム情報を生成し、生成したアラーム情報をデータ処理装置1に出力する。アラーム情報には、異常または故障の内容と、異常または故障が発生した時刻情報とが含まれている。   The PLC controls the operation of the connected industrial machine. The PLC also monitors the state in which the industrial machine is operating. When the PLC detects an abnormality or failure in the industrial machine, the PLC generates alarm information and outputs the generated alarm information to the data processing device 1. The alarm information includes details of the abnormality or failure and time information when the abnormality or failure occurs.

また、センシング装置は、例えば、製品の外観を検査する外観検査、または、製品の部品が所望の位置に配置されているかどうかを検査する位置検査を行う。センシング装置は、製品の検査を行い、検査の結果であるセンサ情報を生成し、生成したセンサ情報をデータ処理装置1に出力する。センサ情報には、検査の結果と、検査の時刻情報とが含まれている。   In addition, the sensing device performs, for example, an appearance inspection for inspecting the appearance of a product, or a position inspection for inspecting whether or not a part of the product is arranged at a desired position. The sensing device inspects the product, generates sensor information that is a result of the inspection, and outputs the generated sensor information to the data processing device 1. The sensor information includes an inspection result and inspection time information.

外部装置接続部12は、外部装置2から入力された情報をデータ処理部14に出力する。外部装置2から入力された情報とは、外部装置2がPLCの場合には、デバイスIDおよびアラーム情報である。また、外部装置2から入力された情報とは、外部装置2がセンシング機器の場合には、センサ情報である。以下では、デバイスIDとアラーム情報とセンサ情報とをイベント情報という。また、イベント情報は、例えば、製品を生産する工程において、ベルトコンベアにより搬送される製品の移動状況を示す情報、段取り替えの作業の情報などでもよい。ベルトコンベアにより搬送される製品の移動状況を示す情報とは、製品の出庫時間および入庫時間を示す情報、または、製品が予め定めた箇所を通過した時間を示す情報などである。また、段取り替えの作業の情報とは、機械設備に設定されているパラメータの変更を示す情報である。   The external device connection unit 12 outputs information input from the external device 2 to the data processing unit 14. The information input from the external device 2 is a device ID and alarm information when the external device 2 is a PLC. The information input from the external device 2 is sensor information when the external device 2 is a sensing device. Hereinafter, the device ID, alarm information, and sensor information are referred to as event information. Further, the event information may be, for example, information indicating a movement status of a product conveyed by a belt conveyor, information on a setup change operation, or the like in a process of producing a product. The information indicating the movement status of the product conveyed by the belt conveyor is information indicating the product delivery time and storage time, or information indicating the time when the product has passed a predetermined location. Further, the information on the work for changeover is information indicating a change in parameters set in the machine equipment.

なお、イベント情報は、映像データを構成する画像に関する情報として与えられる。すなわち、イベント情報は、映像データを構成する、ある画像が撮影された時間および発生要因に対応して得られる情報である。なお、画像は、ヘッダ部、ペイロード部、インデックス部などから構成される画像ファイル形式で保存される。イベント情報は、例えば、インデックス部に格納される。   Note that the event information is given as information related to the images constituting the video data. In other words, the event information is information obtained corresponding to the time at which a certain image is taken and the factors that make up the video data. The image is stored in an image file format including a header part, a payload part, an index part, and the like. The event information is stored in, for example, an index part.

撮像装置接続部13は、撮像装置3が接続されるインターフェイスである。撮像装置接続部13は、例えば、USBコネクタまたはイーサネット(登録商標)用の通信コネクタである。   The imaging device connection unit 13 is an interface to which the imaging device 3 is connected. The imaging device connection unit 13 is, for example, a USB connector or a communication connector for Ethernet (registered trademark).

撮像装置3は、一定の時間間隔で撮像した後に、または、撮像装置接続部13から送信されるトリガ信号により撮像した後に、撮像した映像データをデータ処理装置1に出力する。撮像装置接続部13は、撮像装置3から入力された映像データをデータ処理部14に出力する。   The imaging device 3 outputs the captured video data to the data processing device 1 after imaging at regular time intervals or after imaging with a trigger signal transmitted from the imaging device connection unit 13. The imaging device connection unit 13 outputs the video data input from the imaging device 3 to the data processing unit 14.

データ処理部14は、撮像装置接続部13から映像データが入力され、当該映像データを構成する画像から監視対象が表示されている画像である特徴画像を抽出する。映像データを構成する画像から特徴画像を抽出する手順の詳細については、後述する。   The data processing unit 14 receives video data from the imaging device connection unit 13 and extracts a feature image, which is an image on which a monitoring target is displayed, from an image constituting the video data. Details of the procedure for extracting the feature image from the image constituting the video data will be described later.

映像データは、撮像装置3からデジタル形式で入力されるが、アナログ形式で入力されてもよい。アナログ形式で映像データが入力された場合には、撮像装置接続部13は、A/D(Analog to Digital)変換により、アナログ形式の映像データをデジタル形式の映像データに変換する。   The video data is input from the imaging device 3 in a digital format, but may be input in an analog format. When the video data is input in the analog format, the imaging device connection unit 13 converts the analog format video data into the digital format video data by A / D (Analog to Digital) conversion.

表示生成部16は、データ処理部14で抽出された監視対象が表示されている部分の画像である特徴画像と、監視対象の背景が表示されている画像とを合成することにより合成画像を生成する。   The display generation unit 16 generates a composite image by combining the feature image, which is the image of the portion where the monitoring target extracted by the data processing unit 14 is displayed, and the image where the background of the monitoring target is displayed. To do.

例えば、表示生成部16は、図2に示すように、監視対象B1が表示されている特徴画像a2と、監視対象の背景が表示されている背景画像a1とを合成して合成画像Dを生成する。   For example, as illustrated in FIG. 2, the display generation unit 16 generates a composite image D by combining the feature image a2 in which the monitoring target B1 is displayed and the background image a1 in which the background of the monitoring target is displayed. To do.

なお、本実施の形態は、工場で製品が生産される場合の生産ラインを監視する分野に適用できる。よって、例えば、図2に示すように、監視対象は、生産される商品であり、背景画像は、ベルトコンベアなどの生産ラインである。   This embodiment can be applied to the field of monitoring a production line when products are produced in a factory. Thus, for example, as shown in FIG. 2, the monitoring target is a product to be produced, and the background image is a production line such as a belt conveyor.

表示部17は、液晶表示装置または有機EL(Electro Luminescence)表示装置により構成される。操作部11と表示部17とは、ユーザによる操作を受け付ける操作機能と、操作画面を表示する表示機能とが一体化した操作表示部により構成されてもよい。   The display unit 17 is configured by a liquid crystal display device or an organic EL (Electro Luminescence) display device. The operation unit 11 and the display unit 17 may be configured by an operation display unit in which an operation function for receiving an operation by a user and a display function for displaying an operation screen are integrated.

本実施の形態では、データ処理装置1は、映像データが選択され、選択された映像データを構成する複数の画像それぞれから抽出された特徴画像を合成して合成画像を生成するので、複数の特徴画像を一つの合成画像に集約して示すことができる。   In the present embodiment, the data processing apparatus 1 selects video data and generates a composite image by synthesizing feature images extracted from each of a plurality of images constituting the selected video data. Images can be shown in a single composite image.

ユーザは、複数の特徴画像が合成された合成画像を確認することにより、映像データをすべて再生することなく、監視対象の移動状況を把握することができるので、監視対象の確認作業を短時間で済ますことができる。   The user can grasp the movement status of the monitoring target without replaying all the video data by confirming the composite image in which a plurality of feature images are combined. I can do it.

ここで、データ処理部14の具体的な構成について説明する。図3は、データ処理部14の構成を示す図である。図4は、映像データを構成する画像から特徴画像を抽出する具体例についての説明に供する図である。データ処理部14は、映像データが撮像された時または映像データが撮像された後に監視対象の状態を示すイベント情報を取得する取得部21と、取得部21により取得されたイベント情報に基づいて、映像データを構成する画像を選択し、選択した画像から特徴画像を抽出する抽出部22とを備える。   Here, a specific configuration of the data processing unit 14 will be described. FIG. 3 is a diagram illustrating a configuration of the data processing unit 14. FIG. 4 is a diagram for explaining a specific example of extracting a feature image from images constituting video data. The data processing unit 14 acquires event information indicating a monitoring target state when the video data is captured or after the video data is captured, and the event information acquired by the acquisition unit 21 based on the event information acquired by the acquisition unit 21. An extraction unit 22 that selects an image constituting the video data and extracts a feature image from the selected image;

具体的には、抽出部22は、イベント情報を取得した時刻と同じ時刻に撮像された画像を選択する。つまり、抽出部22は、イベント情報を取得した時刻に基づいて画像を検索し、検索した画像の中から画像を選択する。また、抽出部22は、撮像装置接続部13から送信されるトリガ信号により撮像を行った場合、トリガ信号に基づいて画像を検索し、検索した画像の中から画像を選択してもよい。抽出部22は、図4に示すように、選択した画像A1から監視対象B1が表示されている部分の画像である特徴画像a1を抽出する。また、抽出部22は、映像データと、特徴画像と、イベント情報とを記憶部15に出力する。記憶部15は、映像データと、特徴画像と、イベント情報とを関連付けて保存する。   Specifically, the extraction unit 22 selects an image captured at the same time as the time when the event information is acquired. That is, the extraction unit 22 searches for an image based on the time when the event information is acquired, and selects an image from the searched images. In addition, when the extraction unit 22 performs imaging using the trigger signal transmitted from the imaging device connection unit 13, the extraction unit 22 may search for an image based on the trigger signal and select an image from the searched images. As illustrated in FIG. 4, the extraction unit 22 extracts a feature image a1 that is an image of a portion where the monitoring target B1 is displayed from the selected image A1. Further, the extraction unit 22 outputs the video data, the feature image, and the event information to the storage unit 15. The storage unit 15 stores video data, feature images, and event information in association with each other.

ここで、取得部21によりイベント情報を取得する手順について、図5に示すフローチャートを用いて説明する。   Here, the procedure for acquiring event information by the acquisition unit 21 will be described with reference to the flowchart shown in FIG.

ステップS1において、操作部11は、設定情報を受け付ける。設定情報とは、イベント情報を取得するタイミングを示す情報である。取得部21がイベント情報を取得するタイミングは、設定情報の内容によって任意に設定することができる。例えば、取得するタイミングは、撮像装置3による映像データの撮像を開始する時刻、映像データの撮像を行っている時刻、映像データの撮像が終了した時刻、予め定めた周期、複数ビット条件などが考えられる。なお、複数ビット条件とは、PLC等の外部装置2において予め設定された複数のビットの立上りおよび立下り状態であるビットの変化を監視し、当該複数のビットを用いた論理演算で得られる結果によりイベント情報を取得するタイミングを定める条件である。例えば、PLC等の外部装置2が上述した論理演算を行い、データ処理装置1の取得部21は、PLC等の外部装置2から取得した論理演算の結果に基づいて、イベント情報を取得するタイミングを定めてもよい。また、データ処理装置1の取得部21は、PLC等の外部装置2から複数のビットを受信し、受信した複数のビットを用いて論理演算を行い、当該論理演算の結果に基づいて、イベント情報を取得するタイミングを定めてもよい。操作部11は、設定情報を取得部21に出力する。   In step S1, the operation unit 11 accepts setting information. The setting information is information indicating the timing for acquiring event information. The timing at which the acquisition unit 21 acquires event information can be arbitrarily set according to the content of the setting information. For example, the acquisition timing may be a time at which imaging of the video data by the imaging device 3 is started, a time at which the imaging of the video data is performed, a time at which imaging of the video data is completed, a predetermined cycle, a multi-bit condition, It is done. The multi-bit condition refers to a result obtained by monitoring a change in a bit in a rising state and a falling state of a plurality of bits set in advance in the external device 2 such as a PLC and performing a logical operation using the plurality of bits. Is a condition that determines the timing for acquiring event information. For example, the external device 2 such as a PLC performs the logical operation described above, and the acquisition unit 21 of the data processing device 1 sets the timing for acquiring event information based on the result of the logical operation acquired from the external device 2 such as the PLC. It may be determined. The acquisition unit 21 of the data processing device 1 receives a plurality of bits from the external device 2 such as a PLC, performs a logical operation using the received plurality of bits, and based on the result of the logical operation, event information You may determine the timing which acquires. The operation unit 11 outputs setting information to the acquisition unit 21.

ステップS2において、取得部21は、設定情報を記憶部15に出力する。   In step S <b> 2, the acquisition unit 21 outputs setting information to the storage unit 15.

ステップS3において、取得部21は、設定情報に基づいて、イベント情報を取得するタイミングになったかどうかを判断する。取得部21は、イベント情報を取得するタイミングになったと判断した場合(ステップS3 Yes)には、ステップS4に進み、イベント情報を取得するタイミングになっていないと判断した場合(ステップS3 No)には、ステップS3の工程を繰り返す。   In step S3, the acquisition unit 21 determines whether it is time to acquire event information based on the setting information. If the acquisition unit 21 determines that it is time to acquire event information (Yes in step S3), the process proceeds to step S4, and if it is determined that it is not time to acquire event information (No in step S3). Repeats the process of step S3.

ステップS4において、取得部21は、外部装置2にイベント情報の送信を要求し、外部装置2からイベント情報を取得する。   In step S <b> 4, the acquisition unit 21 requests the external device 2 to transmit event information, and acquires event information from the external device 2.

つぎに、抽出部22により映像データを構成する画像から特徴画像を抽出する手順について、図6に示すフローチャートを用いて説明する。   Next, a procedure for extracting a feature image from an image constituting video data by the extraction unit 22 will be described with reference to a flowchart shown in FIG.

ステップS11において、撮像装置3は、撮像装置接続部13を介して映像データを抽出部22に出力する。映像データは、複数の画像により構成されている。   In step S <b> 11, the imaging device 3 outputs video data to the extraction unit 22 via the imaging device connection unit 13. The video data is composed of a plurality of images.

ステップS12において、抽出部22は、取得部21で取得されたイベント情報に基づいて、映像データを構成する画像を選択する。   In step S <b> 12, the extraction unit 22 selects an image constituting the video data based on the event information acquired by the acquisition unit 21.

ステップS13において、抽出部22は、選択した画像に基づいて、画像内の動きのある画像領域を特定する。画像は、複数の画素により構成されている。   In step S <b> 13, the extraction unit 22 identifies an image area with movement in the image based on the selected image. The image is composed of a plurality of pixels.

ここで、画像内の動きのある画像領域の特定は、例えば、特開昭54−124927号公報に記載されているように、動きベクトルを利用する方法がある。   Here, there is a method of using a motion vector as described in, for example, Japanese Patent Application Laid-Open No. 54-124927, for specifying an image area having motion in an image.

特開昭54−124927号公報に記載の方法では、映像データを構成する画像Aにおいて任意の大きさのブロックaを定め、画像Aのひとつ前の画像Bの任意の場所にブロックaと同じ大きさのブロックbを定め、ブロックbを構成する画素の輝度値とブロックaを構成する画素の輝度値との差分を算出する。また、ブロックbの場所を画像B内で順次変更し、変更した場所におけるブロックbを構成する画素の輝度値とブロックaを構成する画素の輝度値との差分を算出する。算出した差分の中で最も小さい差分のブロックbを特定する。特定したブロックbは、画像Aのブロックaと同じ画像部分であると推定できる。そして、特定したブロックbの位置ベクトルと、ブロックaの位置ベクトルとの差に基づいて、動きベクトルを算出する。   In the method described in Japanese Patent Laid-Open No. 54-124927, a block a having an arbitrary size is defined in an image A constituting video data, and the same size as that of the block a is set at an arbitrary position in an image B immediately before the image A. The block b is determined, and the difference between the luminance value of the pixel constituting the block b and the luminance value of the pixel constituting the block a is calculated. Further, the location of the block b is sequentially changed in the image B, and the difference between the luminance value of the pixel constituting the block b and the luminance value of the pixel constituting the block a at the changed location is calculated. The block b having the smallest difference among the calculated differences is specified. It can be estimated that the identified block b is the same image portion as the block a of the image A. Then, a motion vector is calculated based on the difference between the identified position vector of the block b and the position vector of the block a.

抽出部22は、動きベクトルに基づいて動きのある画像領域を特定する。例えば、抽出部22は、算出した動きベクトルの大きさが一定の値よりも大きい場合には、動きのある画像領域であると特定してもよい。特定された画像領域には、監視対象が含まれている。   The extraction unit 22 identifies an image area with motion based on the motion vector. For example, when the magnitude of the calculated motion vector is larger than a certain value, the extraction unit 22 may specify that the image area is in motion. The identified image area includes a monitoring target.

ステップS14において、抽出部22は、特定された画像領域に基づいて、画像から特徴画像を抽出する。   In step S14, the extraction unit 22 extracts a feature image from the image based on the identified image region.

なお、上述では、イベント情報を取得したタイミングに対応する画像から特徴画像を抽出する動作について説明したが、当該動作に限定されない。例えば、本実施の形態の変形例として、データ処理装置1は、イベント情報を選択し、選択したイベント情報に基づいて画像を選択し、選択した画像から特徴画像を抽出し、抽出した特徴画像を合成して合成画像を生成する構成でもよい。具体的には、取得部21によって取得されたイベント情報の一覧は、記憶部15に記憶されている。表示部17は、イベント情報の一覧を表示する。ユーザは、表示部17に表示されているイベント情報の一覧に基づき、操作部11を操作して任意のイベント情報を選択する。抽出部22は、選択されたイベント情報に基づいて対応する画像を抽出する。   In the above description, the operation of extracting the feature image from the image corresponding to the timing at which the event information is acquired has been described. However, the operation is not limited to this operation. For example, as a modification of the present embodiment, the data processing apparatus 1 selects event information, selects an image based on the selected event information, extracts a feature image from the selected image, and extracts the extracted feature image. The composition which synthesizes and generates a composition picture may be sufficient. Specifically, a list of event information acquired by the acquisition unit 21 is stored in the storage unit 15. The display unit 17 displays a list of event information. Based on the list of event information displayed on the display unit 17, the user operates the operation unit 11 to select arbitrary event information. The extraction unit 22 extracts a corresponding image based on the selected event information.

操作部11は、取得部21によって取得されたイベント情報の選択を受け付ける。図7は、表示部17に複数のイベント情報、すなわち、記憶部15に記憶されているイベント情報の一覧が表示されている様子を示している。撮像装置3は、映像データとともに、映像データを撮像した時刻の情報、撮像装置3が設置されている場所の情報、および撮像装置3に付与されている固有のIDをデータ処理装置1に送信してもよい。また、表示部17には、イベント情報だけでなく、映像データを撮像した時刻の情報、撮像装置3が設置されている場所の情報、および撮像装置3に付与されている固有のIDも表示されてよい。   The operation unit 11 accepts selection of event information acquired by the acquisition unit 21. FIG. 7 shows a state where a plurality of event information, that is, a list of event information stored in the storage unit 15 is displayed on the display unit 17. The imaging device 3 transmits to the data processing device 1 information on the time at which the video data was captured, information on the location where the imaging device 3 is installed, and a unique ID assigned to the imaging device 3 together with the video data. May be. The display unit 17 displays not only the event information but also information on the time when the image data was captured, information on the location where the imaging device 3 is installed, and a unique ID assigned to the imaging device 3. It's okay.

具体的には、ユーザは、表示部17に表示されている画面に基づいて、操作部11を操作して、一または複数のイベント情報を選択する。   Specifically, the user operates the operation unit 11 based on the screen displayed on the display unit 17 to select one or more event information.

抽出部22は、操作部11が受け付けたイベント情報に基づいて、映像データを構成する画像を選択し、選択した画像から特徴画像を抽出する。   The extraction unit 22 selects an image constituting the video data based on the event information received by the operation unit 11, and extracts a feature image from the selected image.

具体的には、抽出部22は、選択されたイベント情報に関連付けられている映像データを記憶部15から読み出し、イベント情報に基づいて、読み出した映像データを構成する画像の中から画像を選択し、選択した画像から特徴画像を抽出する。抽出部22は、抽出した特徴画像を表示生成部16に出力する。   Specifically, the extraction unit 22 reads the video data associated with the selected event information from the storage unit 15, and selects an image from the images constituting the read video data based on the event information. The feature image is extracted from the selected image. The extraction unit 22 outputs the extracted feature image to the display generation unit 16.

なお、抽出部22は、選択されたイベント情報に対応する特徴画像を直接記憶部15から読み出し、読み出した特徴画像を表示生成部16に出力する構成でもよい。   The extraction unit 22 may be configured to read a feature image corresponding to the selected event information directly from the storage unit 15 and output the read feature image to the display generation unit 16.

表示生成部16は、複数の特徴画像を合成して合成画像を生成する。   The display generation unit 16 combines a plurality of feature images to generate a combined image.

よって、データ処理装置1は、ユーザが任意に選択したイベント情報に基づいて、複数の特徴画像が合成された合成画像を生成するので、特定の監視対象の移動状況を把握することができ、特定の監視対象の確認作業を短時間で済ますことができる。   Therefore, since the data processing apparatus 1 generates a composite image in which a plurality of feature images are combined based on event information arbitrarily selected by the user, the movement status of a specific monitoring target can be grasped and specified. It is possible to confirm the monitoring target in a short time.

また、取得部21は、特徴画像を加工する加工情報を取得する。具体的には、ユーザは、操作部11を操作して映像データを選択し、選択した映像データに加工情報を設定する。取得部21は、操作部11から設定された加工情報を取得する。なお、加工情報は、外部装置接続部12に接続された外部装置2である端末装置から入力されてもよい。取得部21は、取得した加工情報を記憶部15に出力する。記憶部15は、加工情報を対応する映像データに関連付けて保存する。   The acquisition unit 21 acquires processing information for processing the feature image. Specifically, the user operates the operation unit 11 to select video data, and sets processing information for the selected video data. The acquisition unit 21 acquires the processing information set from the operation unit 11. The processing information may be input from a terminal device that is the external device 2 connected to the external device connection unit 12. The acquisition unit 21 outputs the acquired processing information to the storage unit 15. The storage unit 15 stores the processing information in association with the corresponding video data.

加工情報とは、特徴画像の監視対象を画像処理によって加工する内容を示す情報である。加工情報には、監視対象の濃淡を補正する濃淡補正値、監視対象の色調を補正する色調補正値、および動きベクトルの大きさを示す値のいずれか一つまたは複数が含まれる。   The processing information is information indicating the content of processing the monitoring target of the feature image by image processing. The processing information includes one or more of a density correction value for correcting the density of the monitoring target, a color correction value for correcting the color tone of the monitoring target, and a value indicating the magnitude of the motion vector.

データ処理部14は、加工情報に基づいて、特徴画像を加工する加工部23を備える。   The data processing unit 14 includes a processing unit 23 that processes the feature image based on the processing information.

ここで、加工部23の具体的な動作について説明する。加工部23は、操作部11により再生対象の映像データの選択を受け付けた場合、当該映像データに関連付けられている特徴画像と加工情報とを記憶部15から読み出す。   Here, a specific operation of the processing unit 23 will be described. When the processing unit 23 receives selection of video data to be played back by the operation unit 11, the processing unit 23 reads out a feature image and processing information associated with the video data from the storage unit 15.

加工部23は、加工情報に濃淡補正値が含まれている場合には、当該濃淡補正値に基づいて、監視対象の濃淡を補正する。   When the processing information includes a density correction value, the processing unit 23 corrects the density of the monitoring target based on the density correction value.

また、加工部23は、加工情報に色調補正値が含まれている場合には、当該色調補正値に基づいて、監視対象の色調を補正する。   Further, when the processing information includes a color tone correction value, the processing unit 23 corrects the color tone to be monitored based on the color tone correction value.

また、加工部23は、加工情報に動きベクトルの大きさを示す値が含まれている場合には、特徴画像の中から、当該値を超える大きさの動きベクトルの特徴画像を選択する。   Further, when the processing information includes a value indicating the magnitude of the motion vector, the processing unit 23 selects a feature image of the motion vector having a size exceeding the value from the feature images.

また、データ処理部14は、記憶部15からイベント情報を読み出し、読み出したイベント情報を画像に変換してイベント情報画像を生成する画像生成部24と、イベント情報画像を特徴画像の監視対象に追加する追加部25とを備える。   The data processing unit 14 reads event information from the storage unit 15, converts the read event information into an image to generate an event information image, and adds the event information image to the feature image monitoring target. And an adding unit 25.

例えば、イベント情報は、上述したように、画像を構成するインデックス部に格納されている。画像生成部24は、画像を構成するインデックス部からイベント情報を読み出し、読み出したイベント情報を画像に変換してイベント情報画像を生成する。追加部25は、イベント情報を読み出した画像から抽出された特徴画像にイベント情報画像を追加する。   For example, the event information is stored in the index part that constitutes the image as described above. The image generation unit 24 reads event information from an index unit that constitutes an image, converts the read event information into an image, and generates an event information image. The adding unit 25 adds the event information image to the feature image extracted from the image from which the event information has been read.

具体的には、画像生成部24は、操作部11により再生対象の映像データの選択を受け付けた場合、当該映像データに関連付けられているイベント情報を記憶部15から読み出す。画像生成部24は、テキストデータであるイベント情報を画像に変換し、イベント情報画像を生成する。   Specifically, when the selection of video data to be reproduced is received by the operation unit 11, the image generation unit 24 reads event information associated with the video data from the storage unit 15. The image generation unit 24 converts event information, which is text data, into an image, and generates an event information image.

また、取得部21は、特徴画像の監視対象にイベント情報画像を追加するときの方法を指示する指示情報を取得する。追加部25は、指示情報に基づいて、イベント情報画像を特徴画像の監視対象に追加する。   In addition, the acquisition unit 21 acquires instruction information for instructing a method for adding an event information image to the feature image monitoring target. The adding unit 25 adds the event information image to the feature image monitoring target based on the instruction information.

例えば、指示情報が「監視対象の上側にイベント情報画像を追加する」の場合には、追加部25は、図8に示すように、監視対象Bの上側にイベント情報画像Cを追加する。なお、イベント情報画像を追加する位置は、監視対象の上側に限らず、監視対象の右側、監視対象の左側、または監視対象の下側などでもよいし、監視対象の正面に重畳させてもよい。また、図8では、イベントIDと時刻情報とが含まれているイベント情報画像を示しているが、一例であって、他の情報が含まれていてもよい。また、ユーザが操作部11を操作して、イベント情報画像に含まれる情報を任意に選択できてもよい。   For example, when the instruction information is “add event information image above the monitoring target”, the adding unit 25 adds the event information image C above the monitoring target B as shown in FIG. The position where the event information image is added is not limited to the upper side of the monitoring target, but may be the right side of the monitoring target, the left side of the monitoring target, the lower side of the monitoring target, or the like, or may be superimposed on the front of the monitoring target. . Further, FIG. 8 shows an event information image including an event ID and time information, but it is an example, and other information may be included. In addition, the user may arbitrarily select information included in the event information image by operating the operation unit 11.

ここで、操作部11により映像データが選択されてから、合成画像が表示部17に表示されるまでの手順について、図9に示すフローチャートを用いて説明する。   Here, a procedure from when video data is selected by the operation unit 11 to when a composite image is displayed on the display unit 17 will be described with reference to a flowchart shown in FIG.

ステップS21において、操作部11は、映像データの選択を受け付ける。具体的には、ユーザは、操作部11を操作して、表示部17に表示されている複数の映像データの中から一または複数の映像データを選択する。   In step S21, the operation unit 11 receives selection of video data. Specifically, the user operates the operation unit 11 to select one or a plurality of video data from a plurality of video data displayed on the display unit 17.

ステップS22において、加工部23は、受け付けた映像データに関連付けられている特徴画像と、イベント情報と、加工情報とを記憶部15から読み出す。   In step S <b> 22, the processing unit 23 reads out the feature image, event information, and processing information associated with the received video data from the storage unit 15.

ステップS23において、加工部23は、加工情報に基づいて特徴画像を加工する。加工部23は、加工情報に濃淡補正値が含まれている場合には、当該濃淡補正値に基づいて、監視対象の濃淡を補正する。加工部23は、加工情報に色調補正値が含まれている場合には、当該色調補正値に基づいて、監視対象の色調を補正する。加工部23は、加工情報に動きベクトルの大きさを示す値が含まれている場合には、当該値を超える大きさの動きベクトルに対応する特徴画像を選択する。   In step S23, the processing unit 23 processes the feature image based on the processing information. When the processing information includes a density correction value, the processing unit 23 corrects the density of the monitoring target based on the density correction value. When the processing information includes a color tone correction value, the processing unit 23 corrects the color tone to be monitored based on the color tone correction value. When the processing information includes a value indicating the magnitude of the motion vector, the processing unit 23 selects a feature image corresponding to a motion vector having a size exceeding the value.

加工情報に濃淡補正値と色調補正値と動きベクトルの大きさを示す値とのすべてが含まれている場合には、追加部25は、当該値を超える大きさの動きベクトルに対応する特徴画像を選択する。そして、追加部25は、濃淡補正値に基づいて、選択した特徴画像の監視対象の濃淡を補正する。追加部25は、色調補正値に基づいて、選択した特徴画像の監視対象の色調を補正する。   When the processing information includes all of the density correction value, the tone correction value, and the value indicating the magnitude of the motion vector, the adding unit 25 corresponds to the feature image corresponding to the motion vector having a magnitude exceeding the value. Select. Then, the adding unit 25 corrects the density of the monitoring target of the selected feature image based on the density correction value. The adding unit 25 corrects the color tone of the selected feature image to be monitored based on the color tone correction value.

ステップS24において、画像生成部24は、ステップS21の工程により選択を受け付けた映像データに関連付けられているイベント情報を記憶部15から読み出し、読み出したイベント情報を画像に変換してイベント情報画像を生成する。   In step S24, the image generation unit 24 reads event information associated with the video data that has been selected in the process of step S21 from the storage unit 15, and converts the read event information into an image to generate an event information image. To do.

ステップS25において、追加部25は、特徴画像の監視対象にイベント情報画像を追加する。加工情報に指示情報が含まれている場合には、追加部25は、指示情報に基づいて、特徴画像の監視対象にイベント情報画像を追加する。なお、加工情報に指示情報が含まれていない場合には、追加部25は、予め定められている位置にイベント情報画像を追加する。予め定められている位置とは、例えば、監視対象の右側である。   In step S25, the adding unit 25 adds the event information image to the feature image monitoring target. When the instruction information is included in the processing information, the adding unit 25 adds the event information image to the monitoring target of the feature image based on the instruction information. Note that when the instruction information is not included in the processing information, the adding unit 25 adds the event information image to a predetermined position. The predetermined position is, for example, the right side of the monitoring target.

また、ステップS21の工程において、操作部11により複数の映像データの選択を受け付けた場合には、受け付けた映像データごとにステップS22の工程からステップS25の工程を繰り返す。   Further, in the process of step S21, when selection of a plurality of video data is received by the operation unit 11, the process from step S22 to step S25 is repeated for each received video data.

ステップS26において、表示生成部16は、ステップS25の工程でイベント情報画像が追加された特徴画像と、監視対象の背景が表示されている画像とを合成することにより合成画像を生成する。   In step S <b> 26, the display generation unit 16 generates a composite image by combining the feature image to which the event information image has been added in the process of step S <b> 25 and the image in which the background to be monitored is displayed.

よって、データ処理装置1は、映像データが選択され、選択された映像データを構成する画像から、イベント情報画像が追加された特徴画像を合成して合成画像を生成するので、イベント情報画像が追加された特徴画像を一つの合成画像に集約して示すことができる。   Therefore, the data processing apparatus 1 selects the video data and generates a composite image by synthesizing the feature image to which the event information image is added from the images constituting the selected video data, so that the event information image is added. The feature images thus obtained can be shown together in one composite image.

ユーザは、合成画像を確認することにより、映像データをすべて再生することなく監視対象の移動状況を把握することができるので、監視対象の確認作業を短時間で済ますことができる。   By confirming the composite image, the user can grasp the movement status of the monitoring target without reproducing all the video data, so that the monitoring operation for the monitoring target can be completed in a short time.

なお、本実施の形態においては、特徴画像にイベント情報画像を追加した後に、合成画像を生成する動作について説明したが、当該動作に限定されない。表示生成部16は、複数の特徴画像を合成して合成画像を生成し、その後、合成画像に含まれている特徴画像にイベント情報画像を追加してもよい。具体的には、この場合、データ処理装置1は、図10に示すように、合成画像を生成する表示生成部31を備える。表示生成部31は、複数の特徴画像を合成して合成画像を生成する合成部32と、合成部32により合成された合成画像に含まれている特徴画像にイベント情報画像を追加する追加部25を備える。つまり、図10に示した構成例では、データ処理部14は、追加部25を備えない構成になる。   In the present embodiment, the operation of generating the composite image after adding the event information image to the feature image has been described. However, the present invention is not limited to this operation. The display generation unit 16 may generate a composite image by combining a plurality of feature images, and then add an event information image to the feature image included in the composite image. Specifically, in this case, the data processing apparatus 1 includes a display generation unit 31 that generates a composite image as illustrated in FIG. The display generating unit 31 combines a plurality of feature images to generate a combined image, and an adding unit 25 that adds an event information image to the feature images included in the combined image combined by the combining unit 32. Is provided. That is, in the configuration example illustrated in FIG. 10, the data processing unit 14 does not include the adding unit 25.

つぎに、映像データが選択され、イベント情報画像が特徴画像に追加されて、合成画像が生成されるまでの手順について説明する。   Next, a procedure until video data is selected, an event information image is added to the feature image, and a composite image is generated will be described.

図11は、表示部17に複数の映像データの見本用画像が表示されている様子を示している。映像データの見本用画像とは、映像データを構成する一つの画像のサイズを縮小して生成された画像である。   FIG. 11 shows a state in which a plurality of sample images of video data are displayed on the display unit 17. A sample image of video data is an image generated by reducing the size of one image constituting video data.

ユーザは、表示部17に表示されている見本用画像に基づいて、操作部11を操作して、一または複数の映像データを選択する。以下では、映像データE1が選択された場合を想定して説明する。   The user operates the operation unit 11 based on the sample image displayed on the display unit 17 to select one or a plurality of video data. In the following description, it is assumed that the video data E1 is selected.

映像データE1は、図12に示すように、複数の画像A11,A12,A13により構成されており、監視対象B1,B2,B3がベルトコンベアX上を搬送される様子が撮像されている映像データである。なお、監視対象B1,B2,B3は、ベルトコンベアX上を搬送される同一の製品である。   As shown in FIG. 12, the video data E1 is composed of a plurality of images A11, A12, A13, and video data in which the monitoring targets B1, B2, B3 are conveyed on the belt conveyor X is captured. It is. Note that the monitoring targets B1, B2, and B3 are the same products that are conveyed on the belt conveyor X.

図13は、複数の特徴画像により構成される特徴画像群E1′を示す。抽出部22は、図13に示すように、イベント情報に基づいて画像A11から監視対象B1が表示されている部分の画像である特徴画像a11を抽出し、イベント情報に基づいて画像A12から監視対象B2が表示されている部分の画像である特徴画像a12を抽出し、イベント情報に基づいて画像A13から監視対象B3が表示されている部分の画像である特徴画像a13を抽出する。   FIG. 13 shows a feature image group E1 ′ composed of a plurality of feature images. As illustrated in FIG. 13, the extraction unit 22 extracts a feature image a11 that is an image of the portion where the monitoring target B1 is displayed from the image A11 based on the event information, and the monitoring target from the image A12 based on the event information. A feature image a12 that is an image of a portion where B2 is displayed is extracted, and a feature image a13 that is an image of a portion where the monitoring target B3 is displayed is extracted from the image A13 based on the event information.

図14は、イベント情報画像が追加された複数の特徴画像により構成される特徴画像群E1′を示す。追加部25は、図14に示すように、特徴画像a11の監視対象B1にイベント情報画像C1を追加し、特徴画像a12の監視対象B2にイベント情報画像C2を追加し、特徴画像a13の監視対象B3にイベント情報画像C3を追加する。   FIG. 14 shows a feature image group E1 ′ composed of a plurality of feature images to which event information images are added. As illustrated in FIG. 14, the adding unit 25 adds the event information image C1 to the monitoring target B1 of the feature image a11, adds the event information image C2 to the monitoring target B2 of the feature image a12, and monitors the feature image a13. An event information image C3 is added to B3.

表示生成部16は、特徴画像a11と、特徴画像a12と、特徴画像a13と、監視対象の背景が表示されている画像とを合成することにより合成画像Dを生成する。合成画像Dには、図15に示すように、イベント情報画像C1が追加された監視対象B1と、イベント情報画像C2が追加された監視対象B2と、イベント情報画像C3が追加された監視対象B3とが含まれている。   The display generation unit 16 generates a composite image D by combining the feature image a11, the feature image a12, the feature image a13, and the image on which the monitoring target background is displayed. As shown in FIG. 15, the composite image D includes a monitoring target B1 to which the event information image C1 is added, a monitoring target B2 to which the event information image C2 is added, and a monitoring target B3 to which the event information image C3 is added. And are included.

よって、データ処理装置1は、映像データが選択され、選択された映像データを構成する画像から、監視対象にイベント情報画像が追加された特徴画像を合成して合成画像を生成するので、特徴画像を一つの合成画像に集約して示すことができる。   Therefore, the data processing apparatus 1 selects the video data, and generates a composite image by combining the feature image in which the event information image is added to the monitoring target from the image constituting the selected video data. Can be shown together in one composite image.

ユーザは、合成画像を確認することにより、映像データをすべて再生することなく監視対象の移動状況を把握することができるので、監視対象の確認作業を短時間で済ますことができる。   By confirming the composite image, the user can grasp the movement status of the monitoring target without reproducing all the video data, so that the monitoring operation for the monitoring target can be completed in a short time.

つぎに、複数の映像データが選択されて、合成画像が生成されるまでの手順について説明する。なお、以下では、監視対象を撮像するときの撮像装置3の撮像角度は同じであるが、異なるベルトコンベア上を搬送される監視対象をそれぞれ撮像した映像データE2と映像データE3とが選択された場合を想定して説明する。映像データE2は、図16に示すように、複数の画像A11,A12,A13により構成されており、ベルトコンベアX1からベルトコンベアX2へ監視対象B11,B12,B13が搬送される様子が撮像されている映像データである。なお、監視対象B11,B12,B13は、ベルトコンベアX1,X2上を搬送される同一の製品である。   Next, a procedure until a composite image is generated after a plurality of video data is selected will be described. In the following, although the imaging angle of the imaging device 3 when imaging the monitoring target is the same, the video data E2 and the video data E3 each imaging the monitoring target conveyed on different belt conveyors are selected. A case will be described. As shown in FIG. 16, the video data E2 is composed of a plurality of images A11, A12, and A13, and an image is taken of how the monitoring targets B11, B12, and B13 are conveyed from the belt conveyor X1 to the belt conveyor X2. Video data. Note that the monitoring targets B11, B12, and B13 are the same products that are transported on the belt conveyors X1 and X2.

映像データE3は、図17に示すように、複数の画像A21,A22,A23により構成されており、ベルトコンベアX3からベルトコンベアX2へ監視対象B21,B22,B23が搬送される様子が撮像されている映像データである。なお、監視対象B21,B22,B23は、ベルトコンベアX2,X3上を搬送される同一の製品である。   As shown in FIG. 17, the video data E3 is composed of a plurality of images A21, A22, A23, and an image is taken of how the monitoring targets B21, B22, B23 are conveyed from the belt conveyor X3 to the belt conveyor X2. Video data. Note that the monitoring targets B21, B22, and B23 are the same products that are transported on the belt conveyors X2 and X3.

図18は、複数の特徴画像により構成される特徴画像群E2′を示す。抽出部22は、図18に示すように、イベント情報に基づいて画像A11から監視対象B11が表示されている部分の画像である特徴画像a11を抽出し、イベント情報に基づいて画像A12から監視対象B12が表示されている部分の画像である特徴画像a12を抽出し、イベント情報に基づいて画像A13から監視対象B13が表示されている部分の画像である特徴画像a13を抽出する。   FIG. 18 shows a feature image group E2 ′ composed of a plurality of feature images. As illustrated in FIG. 18, the extraction unit 22 extracts a feature image a11 that is an image of a portion where the monitoring target B11 is displayed from the image A11 based on the event information, and extracts the monitoring target from the image A12 based on the event information. A feature image a12 that is an image of the portion where B12 is displayed is extracted, and a feature image a13 that is an image of the portion where the monitoring target B13 is displayed is extracted from the image A13 based on the event information.

図19は、複数の特徴画像により構成される特徴画像群E3′を示す。また、抽出部22は、図19に示すように、イベント情報に基づいて画像A21から監視対象B21が表示されている部分の画像である特徴画像a21を抽出し、イベント情報に基づいて画像A22から監視対象B22が表示されている部分の画像である特徴画像a22を抽出し、イベント情報に基づいて画像A23から監視対象B23が表示されている部分の画像である特徴画像a23を抽出する。   FIG. 19 shows a feature image group E3 ′ composed of a plurality of feature images. Further, as illustrated in FIG. 19, the extraction unit 22 extracts a feature image a21 that is an image of the portion where the monitoring target B21 is displayed from the image A21 based on the event information, and from the image A22 based on the event information. A feature image a22 which is an image of a part where the monitoring target B22 is displayed is extracted, and a feature image a23 which is an image of a part where the monitoring target B23 is displayed is extracted from the image A23 based on the event information.

図20は、イベント情報画像が追加された複数の特徴画像により構成される特徴画像群E2′を示す。追加部25は、図20に示すように、特徴画像a11の監視対象B11にイベント情報画像C11を追加し、特徴画像a12の監視対象B12にイベント情報画像C12を追加し、特徴画像a13の監視対象B13にイベント情報画像C13を追加する。   FIG. 20 shows a feature image group E2 ′ composed of a plurality of feature images to which event information images are added. As illustrated in FIG. 20, the adding unit 25 adds the event information image C11 to the monitoring target B11 of the feature image a11, adds the event information image C12 to the monitoring target B12 of the feature image a12, and monitors the feature image a13. An event information image C13 is added to B13.

図21は、イベント情報画像が追加された複数の特徴画像により構成される特徴画像群E3′を示す。追加部25は、図21に示すように、特徴画像a21の監視対象B21にイベント情報画像C21を追加し、特徴画像a22の監視対象B22にイベント情報画像C22を追加し、特徴画像a23の監視対象B23にイベント情報画像C23を追加する。   FIG. 21 shows a feature image group E3 ′ composed of a plurality of feature images to which event information images are added. As illustrated in FIG. 21, the adding unit 25 adds the event information image C21 to the monitoring target B21 of the feature image a21, adds the event information image C22 to the monitoring target B22 of the feature image a22, and monitors the feature image a23. An event information image C23 is added to B23.

表示生成部16は、特徴画像a11と、特徴画像a12と、特徴画像a13と、特徴画像a21と、特徴画像a22と、特徴画像a23と、監視対象の背景が表示されている画像とを合成することにより合成画像Dを生成する。合成画像Dには、図22に示すように、イベント情報画像C11が追加された監視対象B11と、イベント情報画像C12が追加された監視対象B12と、イベント情報画像C13が追加された監視対象B13と、イベント情報画像C21が追加された監視対象B21と、イベント情報画像C22が追加された監視対象B22と、イベント情報画像C23が追加された監視対象B23とが含まれている。   The display generation unit 16 synthesizes the feature image a11, the feature image a12, the feature image a13, the feature image a21, the feature image a22, the feature image a23, and the image on which the monitoring target background is displayed. Thus, the composite image D is generated. In the composite image D, as shown in FIG. 22, the monitoring target B11 to which the event information image C11 is added, the monitoring target B12 to which the event information image C12 is added, and the monitoring target B13 to which the event information image C13 is added. The monitoring target B21 to which the event information image C21 is added, the monitoring target B22 to which the event information image C22 is added, and the monitoring target B23 to which the event information image C23 is added are included.

なお、上述では、二つの映像データE2,E3から一つの合成画像Dを生成する手順について説明したが、三つ以上の映像データから一つの合成画像を生成してもよい。   In the above description, the procedure for generating one composite image D from the two video data E2 and E3 has been described. However, one composite image may be generated from three or more video data.

よって、データ処理装置1は、複数の映像データが選択され、選択された複数の映像データを構成する画像から、イベント情報画像が追加された特徴画像を合成して合成画像を生成するので、複数の映像データの特徴画像を一つの合成画像に集約して示すことができる。   Therefore, the data processing apparatus 1 selects a plurality of video data, and generates a composite image by synthesizing the feature image to which the event information image is added from the images constituting the selected plurality of video data. The feature images of the video data can be shown together in one composite image.

ユーザは、合成画像を確認することにより、複数の映像データをそれぞれ再生することなく監視対象の移動状況を把握することができるので、監視対象の確認作業を短時間で済ますことができる。   By checking the composite image, the user can grasp the movement status of the monitoring target without reproducing each of the plurality of video data, so that the monitoring target can be confirmed in a short time.

また、データ処理装置1は、複数の映像データからそれぞれ生成した合成画像を合成するので、複数の映像データを並列的に表示する必要がなく、表示部17を小型化することができ、装置全体を小規模化することができる。   In addition, since the data processing apparatus 1 synthesizes composite images generated from a plurality of video data, there is no need to display the plurality of video data in parallel, and the display unit 17 can be reduced in size. Can be scaled down.

また、データ処理装置1は、映像データから抽出した特徴画像にイベント情報を追加して合成画像を生成するので、映像データごとの差異と状況を容易に把握することができる。   In addition, since the data processing apparatus 1 generates a composite image by adding event information to the feature image extracted from the video data, it is possible to easily grasp the difference and situation for each video data.

また、データ処理装置1は、特徴画像にイベント情報が表示されているので、状況の把握が容易になる。なお、図22に示す例では、イベント情報画像のすべてが特徴画像に追加されているが、これに限定されない。例えば、表示画面においてイベント情報画像の一部またはすべてが非表示になっており、マウスなどのポインティングデバイスの操作にしたがって表示画面上を移動するカーソルが特徴画像に重畳されたときに、イベント情報画像がポップアップ状に表示される形態でもよい。   Moreover, since the event information is displayed on the feature image, the data processing apparatus 1 can easily grasp the situation. In the example shown in FIG. 22, all of the event information images are added to the feature image, but the present invention is not limited to this. For example, when part or all of the event information image is hidden on the display screen, and the cursor that moves on the display screen according to the operation of the pointing device such as a mouse is superimposed on the feature image, the event information image May be displayed in a pop-up form.

図23は、データ処理装置1のハードウェア構成例を示す図である。データ処理装置1は、コンピュータであり、通信回路101、プロセッサ102、メモリ103、表示部104および入力部105を備える。図1に示した外部装置接続部12および撮像装置接続部13は、通信回路101により実現される。   FIG. 23 is a diagram illustrating a hardware configuration example of the data processing apparatus 1. The data processing apparatus 1 is a computer and includes a communication circuit 101, a processor 102, a memory 103, a display unit 104, and an input unit 105. The external device connection unit 12 and the imaging device connection unit 13 illustrated in FIG. 1 are realized by the communication circuit 101.

図1に示したデータ処理部14および表示生成部16は、メモリ103に格納されたプログラムがプロセッサ102により実行されることにより実現される。図1に示した記憶部15は、メモリ103により実現される。   The data processing unit 14 and the display generation unit 16 illustrated in FIG. 1 are realized by a program stored in the memory 103 being executed by the processor 102. The storage unit 15 illustrated in FIG. 1 is realized by the memory 103.

プロセッサ102は、例えば、CPU、マイクロプロセッサなどであり、処理回路である。メモリ103は、プロセッサ102によりプログラムが実行される際の記憶領域としても用いられる。   The processor 102 is, for example, a CPU or a microprocessor, and is a processing circuit. The memory 103 is also used as a storage area when a program is executed by the processor 102.

図1に示した操作部11は、入力部105により実現される。図1に示した表示部17は、表示部104により実現される。入力部105は、キーボード、マウスなどである。表示部104は、ディスプレイ、モニタなどである。表示部104および入力部105は、これらが一体化されたタッチパネルにより実現されてもよい。   The operation unit 11 illustrated in FIG. 1 is realized by the input unit 105. The display unit 17 illustrated in FIG. 1 is realized by the display unit 104. The input unit 105 is a keyboard, a mouse, or the like. The display unit 104 is a display, a monitor, or the like. The display unit 104 and the input unit 105 may be realized by a touch panel in which these are integrated.

以上の実施の形態に示した構成は、本発明の内容の一例を示すものであり、別の公知の技術と組み合わせることも可能であるし、本発明の要旨を逸脱しない範囲で、構成の一部を省略、変更することも可能である。   The configuration described in the above embodiment shows an example of the contents of the present invention, and can be combined with another known technique, and can be combined with other configurations without departing from the gist of the present invention. It is also possible to omit or change the part.

1 データ処理装置、2 外部装置、3 撮像装置、11 操作部、12 外部装置接続部、13 撮像装置接続部、14 データ処理部、15 記憶部、16,31 表示生成部、17 表示部、21 取得部、22 抽出部、23 加工部、24 画像生成部、25 追加部。   DESCRIPTION OF SYMBOLS 1 Data processing device, 2 External device, 3 Imaging device, 11 Operation part, 12 External device connection part, 13 Imaging device connection part, 14 Data processing part, 15 Storage part, 16, 31 Display production | generation part, 17 Display part, 21 Acquisition unit, 22 extraction unit, 23 processing unit, 24 image generation unit, 25 addition unit.

Claims (9)

映像データを構成する画像から監視対象が表示されている複数の特徴画像を抽出するデータ処理部と、
前記データ処理部により前記映像データを構成する画像から抽出された複数の前記特徴画像を合成して合成画像を生成する表示生成部とを備え
前記データ処理部は、
前記映像データを構成する画像が撮像された時間における前記監視対象の状態を示すイベント情報を外部装置から取得する取得部と、
前記取得部により取得された前記イベント情報には、前記外部装置により制御されている装置の異常または故障の検出に応じて生成されたアラーム情報が含まれ、このアラーム情報に基づいて、前記映像データを構成する画像を選択し、選択した画像から前記特徴画像を抽出する抽出部とを備えることを特徴とするデータ処理装置。
A data processing unit for extracting a plurality of feature images in which a monitoring target is displayed from images constituting video data;
A display generation unit configured to generate a composite image by combining a plurality of the feature images extracted from the image constituting the video data by the data processing unit ;
The data processing unit
An acquisition unit for acquiring event information indicating a state of the monitoring target at a time when an image constituting the video data is captured;
The event information acquired by the acquisition unit includes alarm information generated in response to detection of abnormality or failure of the device controlled by the external device, and the video data is based on the alarm information. select the image constituting the data processing apparatus according to claim Rukoto a extracting unit that extracts the feature image from the selected image.
前記取得部で取得した前記イベント情報の選択を受け付ける操作部を備え、
前記抽出部は、前記操作部が受け付けた前記イベント情報に基づいて、前記映像データを構成する画像を選択し、選択した画像から前記特徴画像を抽出することを特徴とする請求項に記載のデータ処理装置。
An operation unit that accepts selection of the event information acquired by the acquisition unit;
The extraction section, based on the event information the operation unit accepts, select the images forming the image data, the selected image according to claim 1, characterized in that extracting the feature image Data processing device.
前記取得部は、前記特徴画像を加工する加工情報を取得し、
前記データ処理部は、前記加工情報に基づいて、前記特徴画像を加工する加工部を備えることを特徴とする請求項またはに記載のデータ処理装置。
The acquisition unit acquires processing information for processing the feature image,
Wherein the data processing unit, on the basis of the processing information, the data processing apparatus according to claim 1 or 2, characterized in that it comprises a processing unit for processing the feature image.
前記データ処理部は、
前記取得部で取得された前記イベント情報を画像に変換してイベント情報画像を生成する画像生成部と、
前記イベント情報画像を前記特徴画像に追加する追加部とを備えることを特徴とする請求項またはに記載のデータ処理装置。
The data processing unit
An image generation unit that converts the event information acquired by the acquisition unit into an image to generate an event information image;
The data processing apparatus according to claim 1 , 2 or 3 , further comprising an adding unit that adds the event information image to the feature image.
前記データ処理部は、
前記映像データを構成する画像が撮像された時間における前記監視対象の状態を示すイベント情報を取得する取得部と、
前記取得部で取得された前記イベント情報を画像に変換してイベント情報画像を生成する画像生成部と、
前記イベント情報画像を前記特徴画像に追加する追加部とを備えることを特徴とする請求項1に記載のデータ処理装置。
The data processing unit
An acquisition unit for acquiring event information indicating a state of the monitoring target at a time when an image constituting the video data is captured;
An image generation unit that converts the event information acquired by the acquisition unit into an image to generate an event information image;
The data processing apparatus according to claim 1, further comprising: an adding unit that adds the event information image to the feature image.
前記データ処理部は、
前記映像データを構成する画像が撮像された時間における前記監視対象の状態を示すイベント情報を取得する取得部と、
前記取得部で取得された前記イベント情報を画像に変換してイベント情報画像を生成する画像生成部とを備え、
前記表示生成部は、前記合成画像に含まれている前記特徴画像に前記イベント情報画像を追加する追加部を備えることを特徴とする請求項1に記載のデータ処理装置。
The data processing unit
An acquisition unit for acquiring event information indicating a state of the monitoring target at a time when an image constituting the video data is captured;
An image generation unit that converts the event information acquired by the acquisition unit into an image and generates an event information image;
The data processing apparatus according to claim 1, wherein the display generation unit includes an addition unit that adds the event information image to the feature image included in the composite image.
前記取得部は、前記特徴画像に前記イベント情報画像を追加するときの方法を指示する指示情報を取得し、
前記追加部は、前記指示情報に基づいて、前記イベント情報画像を前記特徴画像に追加することを特徴とする請求項またはに記載のデータ処理装置。
The acquisition unit acquires instruction information indicating a method for adding the event information image to the feature image;
The additional part, based on the instruction information, the data processing device according to the event information image to claim 4, 5 or 6, characterized in that to add to the feature images.
請求項1からのいずれか一項に記載のデータ処理装置を備えることを特徴とするプログラマブル表示器。 Programmable display device, characterized in that it comprises a data processing device according to any one of claims 1 to 7. 映像データを構成する画像から監視対象が表示されている複数の特徴画像を抽出するデータ処理工程と、
前記データ処理工程により前記映像データを構成する画像から抽出された複数の前記特徴画像を合成して合成画像を生成する表示生成工程とを備え
前記データ処理工程は、
前記映像データを構成する画像が撮像された時間における前記監視対象の状態を示すイベント情報を外部装置から取得する取得工程と、
前記取得工程により取得された前記イベント情報には、前記外部装置により制御されている装置の異常または故障の検出に応じて生成されたアラーム情報が含まれ、このアラーム情報に基づいて、前記映像データを構成する画像を選択し、選択した画像から前記特徴画像を抽出する抽出工程とを備えることを特徴とするデータ処理方法。
A data processing step of extracting a plurality of feature images in which a monitoring target is displayed from images constituting video data;
A display generation step of generating a composite image by combining a plurality of the feature images extracted from the image constituting the video data by the data processing step ;
The data processing step includes
An acquisition step of acquiring event information indicating a state of the monitoring target at a time when an image constituting the video data is captured;
The event information acquired by the acquisition step includes alarm information generated in response to detection of abnormality or failure of the device controlled by the external device, and the video data is based on the alarm information. select the image constituting the data processing method comprising Rukoto a extraction step of extracting the feature image from the selected image.
JP2018532182A 2017-10-20 2017-10-20 Data processing apparatus, programmable display and data processing method Active JP6400260B1 (en)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2017/038058 WO2019077750A1 (en) 2017-10-20 2017-10-20 Data processing device, programmable display, and data processing method

Publications (2)

Publication Number Publication Date
JP6400260B1 true JP6400260B1 (en) 2018-10-03
JPWO2019077750A1 JPWO2019077750A1 (en) 2019-11-14

Family

ID=63708678

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018532182A Active JP6400260B1 (en) 2017-10-20 2017-10-20 Data processing apparatus, programmable display and data processing method

Country Status (3)

Country Link
JP (1) JP6400260B1 (en)
CN (1) CN110140152B (en)
WO (1) WO2019077750A1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020068425A (en) * 2018-10-23 2020-04-30 オムロン株式会社 Image data processing apparatus, image data processing system, image data processing method, and program

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10150657A (en) * 1996-09-20 1998-06-02 Hitachi Ltd Mobile object displaying method, display system using it and program recording medium for it
JP2000224542A (en) * 1999-01-29 2000-08-11 Hitachi Ltd Image storage device, monitor system and storage medium
JP2004058737A (en) * 2002-07-25 2004-02-26 National Institute Of Advanced Industrial & Technology Safety monitoring device in station platform
JP2007194928A (en) * 2006-01-19 2007-08-02 Matsushita Electric Ind Co Ltd Remote monitoring device and method
JP2007267294A (en) * 2006-03-30 2007-10-11 Hitachi Ltd Moving object monitoring apparatus using a plurality of cameras
JP2010239992A (en) * 2009-03-31 2010-10-28 Sogo Keibi Hosho Co Ltd Person identification device, person identification method, and person identification program

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4582793B2 (en) * 2005-12-06 2010-11-17 ソニー株式会社 Image processing apparatus and image processing method
JP4973622B2 (en) * 2007-08-29 2012-07-11 カシオ計算機株式会社 Image composition apparatus and image composition processing program
JP5246286B2 (en) * 2011-03-15 2013-07-24 カシオ計算機株式会社 Image recording apparatus, image recording method, and program
CN113099118B (en) * 2015-06-26 2023-08-22 麦克赛尔株式会社 Image pickup apparatus and image processing method

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10150657A (en) * 1996-09-20 1998-06-02 Hitachi Ltd Mobile object displaying method, display system using it and program recording medium for it
JP2000224542A (en) * 1999-01-29 2000-08-11 Hitachi Ltd Image storage device, monitor system and storage medium
JP2004058737A (en) * 2002-07-25 2004-02-26 National Institute Of Advanced Industrial & Technology Safety monitoring device in station platform
JP2007194928A (en) * 2006-01-19 2007-08-02 Matsushita Electric Ind Co Ltd Remote monitoring device and method
JP2007267294A (en) * 2006-03-30 2007-10-11 Hitachi Ltd Moving object monitoring apparatus using a plurality of cameras
JP2010239992A (en) * 2009-03-31 2010-10-28 Sogo Keibi Hosho Co Ltd Person identification device, person identification method, and person identification program

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020068425A (en) * 2018-10-23 2020-04-30 オムロン株式会社 Image data processing apparatus, image data processing system, image data processing method, and program
JP7103156B2 (en) 2018-10-23 2022-07-20 オムロン株式会社 Image data processing equipment, image data processing system, image data processing method, and program

Also Published As

Publication number Publication date
JPWO2019077750A1 (en) 2019-11-14
CN110140152A (en) 2019-08-16
CN110140152B (en) 2020-10-30
WO2019077750A1 (en) 2019-04-25

Similar Documents

Publication Publication Date Title
US9762816B2 (en) Video processing apparatus, camera apparatus, video processing method, and program
JP5896617B2 (en) Test measurement system, test measurement instrument, and measurement view synchronization method thereof
JP5469491B2 (en) Image processing apparatus and image processing method
WO2021131552A1 (en) Operation analyzing device and operation analyzing method
JP6400260B1 (en) Data processing apparatus, programmable display and data processing method
US20130235059A1 (en) Image compositing apparatus
CN111787240B (en) Video generation method, apparatus and computer readable storage medium
US8656144B2 (en) Image processing device, image processing method, and image processing program
US20130314444A1 (en) Image data transmitting device, image data receiving device, image data transmitting system, image data transmitting method, image data receiving method, transmission image data, and computer product
JP2014014077A (en) Method and device for generating moving image
WO2017138473A1 (en) Display processing device and display processing method
US9934593B2 (en) Status determination system
US20210056723A1 (en) Image processing device, image processing method, and monitoring system
JP2002232918A (en) Image inspection device for camera module and image inspection method for the camera module
JP2013191185A (en) Abnormality detector
EP3301529A1 (en) Method and apparatus for displaying monitoring information
JP2010128567A (en) Cursor movement control method and device, and program
JP3716466B2 (en) Image processing device
JP2008022390A (en) Picture and waveform multi-display device and multi-display method
CN114339071A (en) Image processing circuit, image processing method and electronic device
JP6028305B2 (en) Method and apparatus for displaying markers
CN112861596A (en) Motion recognition device, motion recognition method, storage medium, and motion recognition system
JP6470136B2 (en) Screen image generator
JP2006234718A (en) X-ray inspecting apparatus
KR100873445B1 (en) System for recognizing difference of image and method for recognizing difference of image using image system

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180618

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180618

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20180618

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20180703

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180807

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180904

R150 Certificate of patent or registration of utility model

Ref document number: 6400260

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250