JP6834372B2 - Information processing equipment, information processing systems, information processing methods and programs - Google Patents

Information processing equipment, information processing systems, information processing methods and programs Download PDF

Info

Publication number
JP6834372B2
JP6834372B2 JP2016218365A JP2016218365A JP6834372B2 JP 6834372 B2 JP6834372 B2 JP 6834372B2 JP 2016218365 A JP2016218365 A JP 2016218365A JP 2016218365 A JP2016218365 A JP 2016218365A JP 6834372 B2 JP6834372 B2 JP 6834372B2
Authority
JP
Japan
Prior art keywords
unit
information processing
area
tracking
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016218365A
Other languages
Japanese (ja)
Other versions
JP2018077637A (en
Inventor
慶二 大村
慶二 大村
翔太郎 小元
翔太郎 小元
紀 山名
紀 山名
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2016218365A priority Critical patent/JP6834372B2/en
Publication of JP2018077637A publication Critical patent/JP2018077637A/en
Application granted granted Critical
Publication of JP6834372B2 publication Critical patent/JP6834372B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02PCLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
    • Y02P90/00Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
    • Y02P90/30Computing systems specially adapted for manufacturing

Landscapes

  • General Factory Administration (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Image Analysis (AREA)

Description

本発明は、情報処理装置、情報処理システム、情報処理方法およびプログラムに関する。 The present invention relates to information processing devices, information processing systems, information processing methods and programs.

製品の生産現場では、人が介在する工程において、作業者の歩行および動作等の動きを定量的に捉え、いかに素早く分析および改善に繋げるかが課題となっている。人の動きを定量化する技術としては、人の動きを「動線」として「見える化」を行う取り組みが世の中で広まっている。動線を取得する技術としては、無線LAN(Local Area Network)の位置情報を利用するもの、超音波の送信機を追跡の対象に付与して受信機で位置を特定するもの、および、ビーコン等を発信するIDをスマートフォンで受信して位置を捕捉するもの等の技術がある。ただし、これらの技術で追跡を実施するには、追跡対象物に無線LAN、もしくは超音波発信等の端末、またはIDを持たせる必要がある。また、追跡対象に、何らかの端末を持たせずに、動線を取得する方法としては、カメラで撮影した映像に映っている追跡対象を画像処理技術で追跡し位置を特定する技術が既に知られている。動線の座標を取得後、座標に合わせて、映像に動線を重畳させたり、どの作業工程でどの程度の時間だけ作業をしていたかの繰り返し作業(定型作業)を分析することによって、作業の改善を進めることができる。 At product production sites, the issue is how to quantitatively grasp the movements of workers such as walking and movement in the process involving humans, and how to quickly analyze and improve them. As a technology for quantifying human movements, efforts to "visualize" human movements as "traffic lines" are widespread in the world. Technologies for acquiring motion lines include those that use the location information of a wireless LAN (Local Area Network), those that attach an ultrasonic transmitter to the tracking target and specify the position with a receiver, and beacons. There are technologies such as those that capture the position by receiving the ID that transmits However, in order to carry out tracking with these technologies, it is necessary to give the tracked object a wireless LAN, a terminal such as an ultrasonic transmission, or an ID. In addition, as a method of acquiring a flow line without having a terminal as a tracking target, a technique of tracking a tracking target shown in an image taken by a camera with an image processing technique and specifying a position is already known. ing. After acquiring the coordinates of the movement line, the movement line is superimposed on the image according to the coordinates, and the repetitive work (standard work) of which work process and how long the work was done is analyzed. Improvements can be made.

このような、動線を描画して作業者の作業等を分析するための技術として、追跡対象を撮影した映像のフレームを読み込むフレーム読込手段と、フレーム読込手段により読み込まれたフレームに、追跡対象に対する追跡対象領域を設定する追跡対象領域設定手段と、フレーム読込手段により読み込まれた複数のフレーム間において追跡対象領域を追跡する追跡手段と、追跡手段の追跡結果に基づき、追跡対象の動作軌跡を描画する描画手段と、描画手段により描画された動作軌跡を表示装置に表示させる表示制御手段と、を有する軌跡描画装置の技術が開示されている(特許文献1参照)。 As a technique for drawing a flow line and analyzing the work of an operator, the tracking target is divided into a frame reading means for reading a frame of a video captured by the tracking target and a frame read by the frame reading means. Based on the tracking target area setting means for setting the tracking target area for, the tracking means for tracking the tracking target area among a plurality of frames read by the frame reading means, and the tracking result of the tracking means, the operation trajectory of the tracking target is determined. A technique of a locus drawing device including a drawing means for drawing and a display control means for displaying an operation locus drawn by the drawing means on a display device is disclosed (see Patent Document 1).

しかしながら、特許文献1に記載された技術では、一連の繰り返し作業(定型作業)を示す動線のうち、どの部分が特定の作業を行う作業領域に相当するのかについては、いったん動線を描画させて、その動線を見ながら手動で作業領域を設定することしかできないという問題があった。 However, in the technique described in Patent Document 1, the flow line is once drawn as to which part of the flow line indicating a series of repetitive work (standard work) corresponds to the work area where the specific work is performed. Therefore, there was a problem that the work area could only be set manually while looking at the flow line.

本発明は、上記に鑑みてなされたものであって、取得した動線から作業領域を決定することができる情報処理装置、情報処理システム、情報処理方法およびプログラムを提供することを目的とする。 The present invention has been made in view of the above, and an object of the present invention is to provide an information processing device, an information processing system, an information processing method, and a program capable of determining a work area from an acquired flow line.

上述した課題を解決し、目的を達成するために、本発明は、所定単位の一連の作業である定型作業における追跡対象の位置情報を含む複数の追跡結果情報を取得する第1取得部と、前記第1取得部によって取得された前記複数の追跡結果情報の前記追跡対象の位置情報が示すポイントの移動距離に基づいて、停滞しているポイント群である停滞部分を抽出する第1抽出部と、前記各追跡結果情報に対応する前記停滞部分に基づく所定のポイントを拡大した拡大領域を得る拡大部と、前記拡大部により得られた複数の前記拡大領域のうち少なくともいずれかが重なる領域に基づいて作業領域を決定する第1決定部と、を備えたことを特徴とする。 In order to solve the above-mentioned problems and achieve the object, the present invention includes a first acquisition unit that acquires a plurality of tracking result information including position information of a tracking target in a routine work which is a series of operations of a predetermined unit. With the first extraction unit that extracts the stagnant portion, which is a group of stagnant points, based on the moving distance of the points indicated by the position information of the tracking target of the plurality of tracking result information acquired by the first acquisition unit. , Based on an enlarged portion that obtains an enlarged region obtained by expanding a predetermined point based on the stagnant portion corresponding to each tracking result information, and an region in which at least one of a plurality of the enlarged regions obtained by the enlarged portion overlaps. It is characterized by having a first determination unit for determining a work area.

本発明によれば、取得した動線から作業領域を決定することができる。 According to the present invention, the work area can be determined from the acquired flow line.

図1は、実施の形態に係る画像処理システムの全体構成の一例を示す図である。FIG. 1 is a diagram showing an example of the overall configuration of the image processing system according to the embodiment. 図2は、実施の形態に係る情報処理装置のハードウェア構成の一例を示す図である。FIG. 2 is a diagram showing an example of the hardware configuration of the information processing apparatus according to the embodiment. 図3は、実施の形態に係る情報処理装置の機能ブロックの構成の一例を示す図である。FIG. 3 is a diagram showing an example of the configuration of the functional block of the information processing apparatus according to the embodiment. 図4は、実施の形態に係る情報処理装置の色登録処理の流れの一例を示すフローチャートである。FIG. 4 is a flowchart showing an example of the flow of the color registration process of the information processing apparatus according to the embodiment. 図5は、実施の形態に係る情報処理装置の表示部に表示される追跡画面において映像が表示されている状態の一例を示す図である。FIG. 5 is a diagram showing an example of a state in which an image is displayed on a tracking screen displayed on the display unit of the information processing apparatus according to the embodiment. 図6は、実施の形態に係る情報処理装置において追跡対象の色を登録する操作について説明する図である。FIG. 6 is a diagram illustrating an operation of registering a color to be tracked in the information processing apparatus according to the embodiment. 図7は、実施の形態に係る情報処理装置において追跡対象を追跡する追跡処理を説明する図である。FIG. 7 is a diagram illustrating a tracking process for tracking a tracking target in the information processing apparatus according to the embodiment. 図8は、実施の形態に係る情報処理装置の追跡処理で検出した追跡対象の情報を示す追跡結果データの一例を示す図である。FIG. 8 is a diagram showing an example of tracking result data showing information of a tracking target detected in the tracking process of the information processing apparatus according to the embodiment. 図9は、実施の形態に係る情報処理装置の定型作業領域の決定処理の流れの一例を示すフローチャートである。FIG. 9 is a flowchart showing an example of a flow of determination processing of a standard work area of the information processing apparatus according to the embodiment. 図10は、実施の形態に係る情報処理装置において定型作業領域を求めるために用いる定型作業の複数の動線の一例を示す図である。FIG. 10 is a diagram showing an example of a plurality of flow lines of routine work used for obtaining a fixed work area in the information processing apparatus according to the embodiment. 図11は、定型作業領域を求めるために用いる定型作業の複数の動線を太線化した状態の一例を示す図である。FIG. 11 is a diagram showing an example of a state in which a plurality of flow lines of the standard work used for obtaining the standard work area are thickened. 図12は、抽出された領域が連続していることの一例を示す図である。FIG. 12 is a diagram showing an example in which the extracted regions are continuous. 図13は、抽出された領域が連続していることの一例を示す図である。FIG. 13 is a diagram showing an example in which the extracted regions are continuous. 図14は、実施の形態に係る情報処理装置において定型作業領域を決定する動作を説明する図である。FIG. 14 is a diagram illustrating an operation of determining a routine work area in the information processing apparatus according to the embodiment. 図15は、実施の形態に係る情報処理装置の作業領域の決定処理の流れの一例を示すフローチャートである。FIG. 15 is a flowchart showing an example of a flow of determination processing of a work area of the information processing apparatus according to the embodiment. 図16は、停滞領域および突発的行動領域の一例を示す図である。FIG. 16 is a diagram showing an example of a stagnant area and a sudden action area. 図17は、実施の形態に係る情報処理装置において作業領域を決定する動作を説明する図である。FIG. 17 is a diagram illustrating an operation of determining a work area in the information processing apparatus according to the embodiment. 図18は、実施の形態に係る情報処理装置において決定された作業領域および移動領域の一例を示す図である。FIG. 18 is a diagram showing an example of a work area and a moving area determined in the information processing apparatus according to the embodiment.

以下に、図面を参照しながら、本発明に係る情報処理装置、情報処理システム、情報処理方法およびプログラムの実施の形態を詳細に説明する。また、以下の実施の形態によって本発明が限定されるものではなく、以下の実施の形態における構成要素には、当業者が容易に想到できるもの、実質的に同一のもの、およびいわゆる均等の範囲のものが含まれる。さらに、以下の実施の形態の要旨を逸脱しない範囲で構成要素の種々の省略、置換、変更および組み合わせを行うことができる。 Hereinafter, embodiments of the information processing apparatus, information processing system, information processing method, and program according to the present invention will be described in detail with reference to the drawings. Further, the present invention is not limited to the following embodiments, and the components in the following embodiments include those easily conceived by those skilled in the art, substantially the same, and so-called equal ranges. Includes. Furthermore, various omissions, substitutions, changes and combinations of components can be made without departing from the gist of the following embodiments.

(画像処理システムの全体構成)
図1は、実施の形態に係る画像処理システムの全体構成の一例を示す図である。図1を参照しながら、本実施の形態の画像処理システム1の全体構成について説明する。
(Overall configuration of image processing system)
FIG. 1 is a diagram showing an example of the overall configuration of the image processing system according to the embodiment. The overall configuration of the image processing system 1 of the present embodiment will be described with reference to FIG.

図1に示すように、本実施の形態の画像処理システム1は、撮像装置2a〜2dと、情報処理装置3と、ハブ4と、外部機器10と、を含む。 As shown in FIG. 1, the image processing system 1 of the present embodiment includes image pickup devices 2a to 2d, an information processing device 3, a hub 4, and an external device 10.

撮像装置2a〜2dは、被写体から光を電気信号に変換することによって被写体を撮像(撮影)し、複数のフレーム(画像データ)で構成された動画(例えば、10[FPS]、25[FPS]等)である映像データを生成するビデオカメラである。例えば、撮像装置2a〜2dは、製品を生産する生産設備または生産ライン等で作業する作業者を撮像して映像データを生成する。 The image pickup devices 2a to 2d capture (shoot) the subject by converting light from the subject into an electric signal, and move images (for example, 10 [FPS], 25 [FPS]] composed of a plurality of frames (image data). Etc.), which is a video camera that generates video data. For example, the image pickup devices 2a to 2d take an image of a worker working in a production facility or a production line that produces a product, and generate video data.

なお、撮像装置2a〜2dを区別なく呼称する場合、または総称する場合、単に「撮像装置2」というものとする。また、図1では、画像処理システム1は、4台の撮像装置2を含む構成となっているが、これに限定されるものではなく、他の台数の撮像装置2を含む構成であってもよい。 When the imaging devices 2a to 2d are referred to without distinction, or when they are collectively referred to, they are simply referred to as "imaging device 2". Further, in FIG. 1, the image processing system 1 has a configuration including four image pickup devices 2, but the present invention is not limited to this, and the image processing system 1 may include another number of image pickup devices 2. Good.

情報処理装置3は、各撮像装置2によって撮像された映像データに基づいて画像処理を実行する画像処理装置として機能するPC(Personal Computer)またワークステーション等である。情報処理装置3は、画像処理の対象となる映像データおよび画像処理した結果情報(位置情報等)を、通信ケーブルまたはネットワークを介して外部機器10へ送信する。また、情報処理装置3は、過去に撮像された映像データおよびその映像データが画像処理された結果情報を、通信ケーブルまたはネットワークを介して外部機器10から受信する。したがって、情報処理装置3は、通信ケーブルまたはネットワークを介して、外部機器10と通信可能となっている。 The information processing device 3 is a PC (Personal Computer), a workstation, or the like that functions as an image processing device that executes image processing based on the video data captured by each image pickup device 2. The information processing device 3 transmits video data to be image-processed and image-processed result information (position information, etc.) to the external device 10 via a communication cable or a network. Further, the information processing device 3 receives the video data captured in the past and the result information of the image processing of the video data from the external device 10 via the communication cable or the network. Therefore, the information processing device 3 can communicate with the external device 10 via the communication cable or the network.

ハブ4は、撮像装置2a〜2dを情報処理装置3と接続するためのEthernet(登録商標)規格に対応した集線装置である。ハブ4は、例えば、Ethernet規格に対応している場合、撮像装置2a〜2dと、情報処理装置3とはTCP(Transmission Control Protocol)/IP(Internet Protocol)等のプロトコルによりデータ通信が行われる。この場合、撮像装置2a〜2dおよび情報処理装置3は、TCP/IPのプロトコルにより通信するためのMAC(Media Access Control)アドレスを有し、かつプライベートIPアドレス等のIPアドレスが割り当てられている。 The hub 4 is a line concentrator corresponding to the Ethernet (registered trademark) standard for connecting the image pickup devices 2a to 2d to the information processing device 3. When the hub 4 is compatible with the Ethernet standard, for example, data communication is performed between the image pickup devices 2a and 2d and the information processing device 3 by a protocol such as TCP (Transmission Control Protocol) / IP (Internet Protocol). In this case, the image pickup devices 2a to 2d and the information processing device 3 have a MAC (Media Access Control) address for communicating by the TCP / IP protocol, and an IP address such as a private IP address is assigned.

なお、図1に示すハブ4は、TCP/IPのプロトコルによる通信を中継する例を示したが、これに限定されるものではない。例えば、情報処理装置3側にVGA(Video Graphics Array)端子またはUSB(Universal Serial Bus)ポートを有し、複数の撮像装置2がVGAケーブルまたはUSBケーブルを介してハブ4に集線されて情報処理装置3に接続される形態等であってもよい。 The hub 4 shown in FIG. 1 shows an example of relaying communication by the TCP / IP protocol, but the hub 4 is not limited to this. For example, the information processing device 3 has a VGA (Video Graphics Array) terminal or a USB (Universal Serial Bus) port, and a plurality of image pickup devices 2 are concentrated on a hub 4 via a VGA cable or a USB cable to be an information processing device. It may be in the form of being connected to 3.

また、各撮像装置2は、ハブ4を介して情報処理装置3に接続される構成について説明したが、これに限定されるものではなく、LAN(Local Area Network)、専用回線またはインターネット等のネットワークを介して情報処理装置3と通信する構成としてもよい。 Further, although the configuration in which each imaging device 2 is connected to the information processing device 3 via the hub 4 has been described, the present invention is not limited to this, and a network such as a LAN (Local Area Network), a dedicated line, or the Internet is used. It may be configured to communicate with the information processing device 3 via.

外部機器10は、各撮像装置2により撮像された映像データ、および、映像データにおける人物(作業者)の位置を示す位置情報等の画像処理の結果情報を記憶する外部記憶装置、またはデータベースサーバ等である。 The external device 10 is an external storage device, a database server, or the like that stores image data captured by each image pickup device 2 and image processing result information such as position information indicating the position of a person (worker) in the image data. Is.

なお、上述したように、映像データを収集する撮像装置2の台数に限定はないが、以下の説明では、図1に示したように、撮像装置2が4台接続された構成を例として説明する。 As described above, the number of image pickup devices 2 for collecting video data is not limited, but in the following description, as shown in FIG. 1, a configuration in which four image pickup devices 2 are connected will be described as an example. To do.

(情報処理装置のハードウェア構成)
図2は、実施の形態に係る情報処理装置のハードウェア構成の一例を示す図である。図2を参照しながら、本実施の形態の情報処理装置3のハードウェア構成の一例について説明する。
(Hardware configuration of information processing device)
FIG. 2 is a diagram showing an example of a hardware configuration of the information processing apparatus according to the embodiment. An example of the hardware configuration of the information processing apparatus 3 of the present embodiment will be described with reference to FIG.

図2に示すように、情報処理装置3は、CPU(Central Processing Unit)101と、ROM(Read Only Memory)102と、RAM(Random Access Memory)103と、外部記憶装置104と、ディスプレイ105と、ネットワークI/F106と、キーボード107と、マウス108と、DVD(Digital Versatile Disc)ドライブ109と、外部機器I/F111と、スピーカ112と、を備えている。 As shown in FIG. 2, the information processing device 3 includes a CPU (Central Processing Unit) 101, a ROM (Read Only Memory) 102, a RAM (Random Access Memory) 103, an external storage device 104, a display 105, and the like. It includes a network I / F 106, a keyboard 107, a mouse 108, a DVD (Digital Peripheral Disc) drive 109, an external device I / F 111, and a speaker 112.

CPU101は、情報処理装置3全体の動作を制御する装置である。ROM102は、情報処理装置3用のBIOS(Basic Input/Output System)およびファームウェア等のプログラムを記憶している不揮発性記憶装置である。RAM103は、CPU101のワークエリアとして使用される揮発性記憶装置である。 The CPU 101 is a device that controls the operation of the entire information processing device 3. The ROM 102 is a non-volatile storage device that stores programs such as a BIOS (Basic Input / Output System) for the information processing device 3 and firmware. The RAM 103 is a volatile storage device used as a work area of the CPU 101.

外部記憶装置104は、撮像装置2および外部機器10から受信した映像データ、画像処理の結果情報(位置情報等)、および設定情報等の各種データを記憶するHDD(Hard Disk Drive)またはSSD(Solid State Drive)等の記憶装置である。 The external storage device 104 is an HDD (Hard Disk Drive) or SSD (Solid) that stores various data such as video data received from the image pickup device 2 and the external device 10, image processing result information (position information, etc.), and setting information. It is a storage device such as State Drive).

ディスプレイ105は、カーソル、メニュー、ウィンドウ、文字もしくは画像等の各種情報、または情報処理装置3による画像処理を実行するアプリケーションの画面を表示する表示装置である。ディスプレイ105は、例えば、CRT(Cathode Ray Tube)ディスプレイ、LCD(Liquid Crystal Display:液晶ディスプレイ)または有機EL(Electroluminescence)ディスプレイ等である。なお、ディスプレイ105は、例えば、情報処理装置3の本体に対して、VGAケーブルまたはHDMI(登録商標)(High−Definition Multimedia Interface)ケーブル等によって接続されたり、または、Ethernetケーブルによって接続される。 The display 105 is a display device that displays various information such as cursors, menus, windows, characters or images, or a screen of an application that executes image processing by the information processing device 3. The display 105 is, for example, a CRT (Cathode Ray Tube) display, an LCD (Liquid Crystal Display) display, an organic EL (Electroluminance) display, or the like. The display 105 is connected to the main body of the information processing device 3, for example, by a VGA cable, an HDMI (registered trademark) (High-Definition Multimedia Interface) cable, or the like, or is connected by an Ethernet cable.

ネットワークI/F106は、ハブ4に接続してデータ通信するためのインターフェースである。ネットワークI/F106は、例えば、TCP/IPのプロトコルで通信可能にするNIC(Network Interface Card)である。具体的には、情報処理装置3は、撮像装置2から、ネットワークI/F106を介して、映像データを受信する。 The network I / F 106 is an interface for connecting to the hub 4 for data communication. The network I / F 106 is, for example, a NIC (Network Interface Card) that enables communication using the TCP / IP protocol. Specifically, the information processing device 3 receives video data from the image pickup device 2 via the network I / F 106.

キーボード107は、文字、数字、各種指示の選択、カーソルの移動、および設定情報の設定等を行う入力装置である。マウス108は、各種指示の選択および実行、処理対象の選択、カーソルの移動、ならびに設定情報の設定等を行うための入力装置である。 The keyboard 107 is an input device for selecting characters, numbers, various instructions, moving a cursor, setting setting information, and the like. The mouse 108 is an input device for selecting and executing various instructions, selecting a processing target, moving a cursor, setting setting information, and the like.

DVDドライブ109は、着脱自在な記憶媒体の一例としてのDVD110に対するデータの読み出し、書き込みおよび削除を制御する装置である。 The DVD drive 109 is a device that controls reading, writing, and deleting of data to a DVD 110 as an example of a removable storage medium.

外部機器I/F111は、外部の装置(例えば、外部機器10)等と接続してデータ通信をするためのインターフェースである。外部機器I/F111は、例えば、TCP/IPのプロトコルで通信可能にするNIC、または、USBインターフェースカードである。具体的には、情報処理装置3は、外部機器10と、外部機器I/F111を介してデータ通信を行う。 The external device I / F 111 is an interface for connecting to an external device (for example, the external device 10) and performing data communication. The external device I / F 111 is, for example, a NIC or a USB interface card that enables communication using the TCP / IP protocol. Specifically, the information processing device 3 performs data communication with the external device 10 via the external device I / F 111.

スピーカ112は、後述する作業時間等に対する異常判定において異常と判定された場合等に音声で通知する音声出力装置である。 The speaker 112 is a voice output device that notifies by voice when an abnormality is determined in an abnormality determination for working time or the like, which will be described later.

上述のCPU101、ROM102、RAM103、外部記憶装置104、ディスプレイ105、ネットワークI/F106、キーボード107、マウス108、DVDドライブ109、外部機器I/F111、およびスピーカ112は、アドレスバスおよびデータバス等のバス113によって互いに通信可能に接続されている。なお、ディスプレイ105が、Ethernetケーブルによって接続される場合には、ネットワークI/F106に接続されることになり、この場合、TCP/IP等のプロトコルによりデータ通信が行われる。 The CPU 101, ROM 102, RAM 103, external storage device 104, display 105, network I / F 106, keyboard 107, mouse 108, DVD drive 109, external device I / F 111, and speaker 112 are buses such as an address bus and a data bus. They are communicatively connected to each other by 113. When the display 105 is connected by an Ethernet cable, it is connected to the network I / F 106, and in this case, data communication is performed by a protocol such as TCP / IP.

(画像処理システムのブロック構成)
図3は、実施の形態に係る情報処理装置の機能ブロックの構成の一例を示す図である。図3を参照しながら、情報処理装置3のブロック構成について説明する。なお、図3においては、説明を簡略化するため、ハブ4の図示を省略して説明する。
(Block configuration of image processing system)
FIG. 3 is a diagram showing an example of the configuration of the functional block of the information processing apparatus according to the embodiment. The block configuration of the information processing apparatus 3 will be described with reference to FIG. In FIG. 3, for simplification of the description, the hub 4 will be omitted from the illustration.

図3に示すように、情報処理装置3は、映像受信部301と、入力部302と、設定部303と、記憶部304と、再生部305と、第1取得部306と、指定部307と、登録部308と、検出部309と、軌跡出力部310(動線生成部)と、データ通信部321と、太線化部322と、定型抽出部323(第2抽出部)と、連続判定部324(第1判定部)と、定型決定部325(第2決定部)と、停滞抽出部326(第1抽出部)と、代表点特定部327(特定部)と、拡大部328と、工程抽出部329と、工程決定部330(第1決定部)と、移動決定部331(第3決定部)と、第2取得部341と、領域判定部342(第2判定部)と、計測部343と、時間判定部344(第3判定部)と、通知部345と、管理部351(変更部、生成部)と、表示制御部352と、表示部353と、を有する。 As shown in FIG. 3, the information processing apparatus 3 includes a video receiving unit 301, an input unit 302, a setting unit 303, a storage unit 304, a playback unit 305, a first acquisition unit 306, and a designation unit 307. , Registration unit 308, detection unit 309, locus output unit 310 (movement line generation unit), data communication unit 321, thickening unit 322, standard extraction unit 323 (second extraction unit), and continuous determination unit. 324 (first determination unit), standard determination unit 325 (second determination unit), stagnation extraction unit 326 (first extraction unit), representative point identification unit 327 (specification unit), expansion unit 328, and process. Extraction unit 329, process determination unit 330 (first determination unit), movement determination unit 331 (third determination unit), second acquisition unit 341, area determination unit 342 (second determination unit), and measurement unit. It has 343, a time determination unit 344 (third determination unit), a notification unit 345, a management unit 351 (change unit, generation unit), a display control unit 352, and a display unit 353.

映像受信部301は、ハブ4を介して、撮像装置2から映像データを受信する機能部である。映像受信部301は、受信した映像データを記憶部304に記憶させ、または、データ通信部321を介して、外部機器10に送信する。映像受信部301は、図2に示すネットワークI/F106によって実現される。 The video receiving unit 301 is a functional unit that receives video data from the imaging device 2 via the hub 4. The video receiving unit 301 stores the received video data in the storage unit 304, or transmits the received video data to the external device 10 via the data communication unit 321. The video receiving unit 301 is realized by the network I / F 106 shown in FIG.

入力部302は、情報処理装置3に対して、色登録処理、追跡対象の追跡処理、および後述する定型作業エリアおよび作業エリアの決定処理等を実行させるための操作入力を行う装置である。入力部302は、図2に示すキーボード107およびマウス108によって実現される。 The input unit 302 is a device that performs operation input for causing the information processing device 3 to execute a color registration process, a tracking target tracking process, a routine work area and a work area determination process, which will be described later. The input unit 302 is realized by the keyboard 107 and the mouse 108 shown in FIG.

設定部303は、ユーザにより操作される入力部302からの操作信号に従って、各種設定情報を設定して記憶部304に記憶させる機能部である。設定部303は、例えば、後述するように登録部308により登録された基準色を中心とする所定範囲を示す情報(以下、「追跡パラメータ」という場合がある)を設定し、設定した追跡パラメータを、記憶部304に記憶させる。ここで、基準色を中心とする所定範囲は、基準色がRGB色空間で表される場合、基準色のR値に所定量を加算した上限値、および所定量を減算した下限値が設定されることによって、基準色のR値を中心とする所定範囲が定まる。基準色のG値およびB値についても、同様である。なお、所定量は、R値、G値およびB値それぞれ別々の値が設定されるものとしてもよい。設定部303は、図2に示すCPU101により実行されるプログラムによって実現される。 The setting unit 303 is a functional unit that sets various setting information according to an operation signal from the input unit 302 operated by the user and stores it in the storage unit 304. For example, the setting unit 303 sets information (hereinafter, may be referred to as “tracking parameter”) indicating a predetermined range centered on the reference color registered by the registration unit 308 as described later, and sets the set tracking parameter. , Stored in the storage unit 304. Here, in the predetermined range centered on the reference color, when the reference color is represented in the RGB color space, an upper limit value obtained by adding a predetermined amount to the R value of the reference color and a lower limit value obtained by subtracting the predetermined amount are set. As a result, a predetermined range centered on the R value of the reference color is determined. The same applies to the G value and B value of the reference color. The predetermined amount may be set to a separate value for each of the R value, the G value, and the B value. The setting unit 303 is realized by a program executed by the CPU 101 shown in FIG.

記憶部304は、映像受信部301により受信された映像データ、設定情報、および後述する追跡処理により得られた位置情報等の各種データを記憶する機能部である。記憶部304は、映像受信部301により受信された映像データが、どの撮像装置2により生成された映像データであるかを識別して記憶する。記憶部304は、例えば、図2に示すRAM103または外部記憶装置104によって実現される。 The storage unit 304 is a functional unit that stores various data such as video data received by the video receiving unit 301, setting information, and position information obtained by tracking processing described later. The storage unit 304 identifies and stores which image pickup device 2 generated the video data received by the video reception unit 301. The storage unit 304 is realized by, for example, the RAM 103 shown in FIG. 2 or the external storage device 104.

再生部305は、ユーザにより操作される入力部302からの操作信号に従って、映像受信部301により受信され、データ通信部321により受信され、または記憶部304から取得した映像データを表示制御部352に送り、表示制御部352に対して、映像データを表示部353に再生表示させる機能部である。具体的には、再生部305は、例えば、後述する図5に示すように、表示部353に表示される追跡画面400の個別表示部401に映像データを再生表示させる。再生部305は、図2に示すCPU101により実行されるプログラムによって実現される。 The playback unit 305 sends the video data received by the video reception unit 301, received by the data communication unit 321, or acquired from the storage unit 304 to the display control unit 352 according to the operation signal from the input unit 302 operated by the user. This is a functional unit that causes the feed and display control unit 352 to reproduce and display video data on the display unit 353. Specifically, for example, as shown in FIG. 5 described later, the reproduction unit 305 causes the individual display unit 401 of the tracking screen 400 displayed on the display unit 353 to reproduce and display the video data. The reproduction unit 305 is realized by a program executed by the CPU 101 shown in FIG.

第1取得部306は、映像受信部301により受信され、データ通信部321により受信され、または記憶部304に記憶された映像データからフレームを取得する機能部である。第1取得部306は、図2に示すCPU101により実行されるプログラムによって実現される。 The first acquisition unit 306 is a functional unit that acquires a frame from the video data received by the video reception unit 301, received by the data communication unit 321 or stored in the storage unit 304. The first acquisition unit 306 is realized by a program executed by the CPU 101 shown in FIG.

指定部307は、ユーザにより操作される入力部302からの操作信号に従って、表示部353における映像データを表示する表示領域(例えば、後述する図5に示す個別表示部401)において、追跡対象の追跡処理で使用する特徴情報としての色を特定するための指定領域(例えば、後述する図6に示す指定領域550)を指定する機能部である。指定部307は、指定した指定領域の情報を、撮像装置2ごとに関連付けて記憶部304に記憶させる。指定部307は、図2に示すCPU101により実行されるプログラムによって実現される。 The designation unit 307 tracks the tracking target in the display area (for example, the individual display unit 401 shown in FIG. 5 to be described later) for displaying the video data in the display unit 353 according to the operation signal from the input unit 302 operated by the user. It is a functional unit that designates a designated area (for example, a designated area 550 shown in FIG. 6 to be described later) for specifying a color as feature information used in the process. The designation unit 307 stores the information of the designated designated area in the storage unit 304 in association with each image pickup device 2. The designation unit 307 is realized by a program executed by the CPU 101 shown in FIG.

登録部308は、指定部307により指定された指定領域の色を示す画素値に基づいて、基準色を特定し、特定した基準色の情報を記憶部304に記憶(登録)する機能部である。ここで、個別表示部401に表示される映像データのフレームの画素値は、例えば、RGB色空間、またはHSV色空間等に基づいた色を示す情報である。具体的には、登録部308は、例えば、指定領域に含まれる画素の画素値の平均値を算出し、その平均値を基準色として特定する。なお、登録部308は、指定領域の中央の画素の画素値を基準色として特定してもよい。登録部308は、図2に示すCPU101により実行されるプログラムによって実現される。 The registration unit 308 is a functional unit that specifies a reference color based on a pixel value indicating a color of a designated area designated by the designation unit 307 and stores (registers) the information of the specified reference color in the storage unit 304. .. Here, the pixel value of the frame of the video data displayed on the individual display unit 401 is information indicating a color based on, for example, an RGB color space or an HSV color space. Specifically, the registration unit 308 calculates, for example, the average value of the pixel values of the pixels included in the designated area, and specifies the average value as a reference color. The registration unit 308 may specify the pixel value of the pixel in the center of the designated area as a reference color. The registration unit 308 is realized by a program executed by the CPU 101 shown in FIG.

検出部309は、追跡対象の追跡処理の対象となるフレームにおいて、登録部308により登録された基準色(設定部303により設定された追跡パラメータ)に基づいて、追跡対象を検出する機能部である。具体的には、検出部309は、追跡対象の追跡処理の対象となるフレームについて、抽出処理、二値化処理、およびラベリング処理等の処理を実行し、上述した基準色を中心とする所定範囲(以下、「基準色範囲」という場合がある)に入る色の画素を含むブロックに対応する領域を追跡対象として検出する。検出部309は、図2に示すCPU101により実行されるプログラムによって実現される。 The detection unit 309 is a functional unit that detects a tracking target based on a reference color (tracking parameter set by the setting unit 303) registered by the registration unit 308 in a frame to be tracked by the tracking target. .. Specifically, the detection unit 309 executes processing such as extraction processing, binarization processing, and labeling processing on the frame to be tracked to be tracked, and a predetermined range centered on the above-mentioned reference color. The area corresponding to the block containing the pixels of the color (hereinafter, may be referred to as “reference color range”) is detected as the tracking target. The detection unit 309 is realized by a program executed by the CPU 101 shown in FIG.

なお、検出部309は、基準色範囲に入る色の画素を含むブロックに対応する領域を追跡対象として検出しているが、これに限定されるものではない。例えば、登録部308は、指定部307により指定された指定領域内に存在する形状を特定し、特定した形状の情報(特徴情報の一例)を記憶部304に記憶(登録)し、検出部309は、登録された形状と同一または類似の形状を、追跡対象として検出するものとしてもよい。 Note that the detection unit 309 detects a region corresponding to a block including pixels of a color within the reference color range as a tracking target, but the detection unit 309 is not limited to this. For example, the registration unit 308 specifies a shape existing in the designated area designated by the designation unit 307, stores (registers) information on the specified shape (an example of feature information) in the storage unit 304, and detects (registers) the detection unit 309. May detect a shape that is the same as or similar to the registered shape as a tracking target.

また、検出部309は、映像データのフレームごとに追跡対象を検出する動作に限定されるものではなく、例えば、所定時間ごとに第1取得部306により取得されたフレームにおいて追跡対象を検出するものとしてもよい。また、フレームごとに追跡対象を検出する場合、そのフレームレートを設定可能としてもよく、所定時間ごとに検出する場合、その所定時間を設定可能とするものとしてもよい。 Further, the detection unit 309 is not limited to the operation of detecting the tracking target for each frame of the video data, and for example, the detection unit 309 detects the tracking target in the frame acquired by the first acquisition unit 306 at predetermined time intervals. May be. Further, when the tracking target is detected for each frame, the frame rate may be set, and when the tracking target is detected for each predetermined time, the predetermined time may be set.

軌跡出力部310は、追跡対象の軌跡を示す軌跡線(動線)を生成し、表示制御部352に、再生表示している映像データに軌跡線(動線)を重畳して表示させる機能部である。軌跡出力部310は、図2に示すCPU101により実行されるプログラムによって実現される。 The locus output unit 310 generates a locus line (traffic line) indicating the locus of the tracking target, and causes the display control unit 352 to superimpose the locus line (traffic line) on the video data being reproduced and displayed. Is. The locus output unit 310 is realized by a program executed by the CPU 101 shown in FIG.

データ通信部321は、外部機器10との間で、映像データおよび位置情報等を含む追跡結果情報(後述)等を送受信する機能部である。データ通信部321は、映像データおよび追跡結果情報等を受信した場合、これらの情報を記憶部304に記憶させるものとしてもよい。データ通信部321は、図2に示すネットワークI/F106によって実現される。 The data communication unit 321 is a functional unit that transmits / receives tracking result information (described later) including video data and position information to / from the external device 10. When the data communication unit 321 receives the video data, the tracking result information, and the like, the data communication unit 321 may store these information in the storage unit 304. The data communication unit 321 is realized by the network I / F 106 shown in FIG.

太線化部322は、後述する定型作業領域の決定処理において、表示部353に表示されている動線を太線化する機能部である。太線化部322は、図2に示すCPU101により実行されるプログラムによって実現される。 The thickening unit 322 is a functional unit that thickens the flow line displayed on the display unit 353 in the determination process of the standard work area described later. The thickened portion 322 is realized by a program executed by the CPU 101 shown in FIG.

定型抽出部323は、太線化部322により太線化された動線が所定数以上重なっている領域を抽出する機能部である。定型抽出部323は、図2に示すCPU101により実行されるプログラムによって実現される。 The standard extraction unit 323 is a functional unit that extracts a region in which a predetermined number or more of flow lines thickened by the thick line section 322 overlap. The standard extraction unit 323 is realized by a program executed by the CPU 101 shown in FIG.

連続判定部324は、定型抽出部323によって抽出された領域が連続しているか否か判定する機能部である。連続判定部324は、図2に示すCPU101により実行されるプログラムによって実現される。 The continuous determination unit 324 is a functional unit that determines whether or not the regions extracted by the standard extraction unit 323 are continuous. The continuous determination unit 324 is realized by a program executed by the CPU 101 shown in FIG.

定型決定部325は、連続判定部324により連続していると判定された領域を定型作業領域に決定する機能部である。定型決定部325は、図2に示すCPU101により実行されるプログラムによって実現される。 The standard determination unit 325 is a functional unit that determines a region determined to be continuous by the continuous determination unit 324 as a standard work area. The fixed form determination unit 325 is realized by a program executed by the CPU 101 shown in FIG.

停滞抽出部326は、動線に含まれる各座標を示すポイント群であって、追跡対象が停滞していると判断されるポイント群(停滞部分)を抽出する機能部である。停滞抽出部326は、図2に示すCPU101により実行されるプログラムによって実現される。 The stagnation extraction unit 326 is a point group indicating each coordinate included in the flow line, and is a functional unit that extracts a point group (stagnation portion) in which the tracking target is determined to be stagnant. The stagnation extraction unit 326 is realized by a program executed by the CPU 101 shown in FIG.

代表点特定部327は、定型作業領域の決定処理の対象となる複数の各動線において、停滞抽出部326により抽出された停滞部分を構成するポイントから代表のポイント(代表点)を特定する機能部である。代表点特定部327は、図2に示すCPU101により実行されるプログラムによって実現される。 The representative point identification unit 327 has a function of identifying a representative point (representative point) from the points constituting the stagnation portion extracted by the stagnation extraction unit 326 in each of a plurality of flow lines to be processed for determining the standard work area. It is a department. The representative point specifying unit 327 is realized by a program executed by the CPU 101 shown in FIG.

拡大部328は、代表点特定部327により特定された代表点を拡大する機能部である。拡大部328は、図2に示すCPU101により実行されるプログラムによって実現される。 The enlargement unit 328 is a functional unit that enlarges the representative point specified by the representative point identification unit 327. The enlargement unit 328 is realized by a program executed by the CPU 101 shown in FIG.

工程抽出部329は、拡大部328によって拡大された代表点が所定数以上重なっている領域を抽出する機能部である。工程抽出部329は、図2に示すCPU101により実行されるプログラムによって実現される。 The process extraction unit 329 is a functional unit that extracts a region in which representative points enlarged by the enlargement unit 328 overlap by a predetermined number or more. The process extraction unit 329 is realized by a program executed by the CPU 101 shown in FIG.

工程決定部330は、工程抽出部329により抽出された領域を矩形で囲んで、定型作業の中で作業者が停滞して作業を行う工程の領域(作業領域)として決定する機能部である。工程決定部330は、図2に示すCPU101により実行されるプログラムによって実現される。 The process determination unit 330 is a functional unit that surrounds the area extracted by the process extraction unit 329 with a rectangle and determines the area (work area) of the process in which the worker stagnates in the routine work. The process determination unit 330 is realized by a program executed by the CPU 101 shown in FIG.

移動決定部331は、定型決定部325により決定された定型作業領域から、工程決定部330により決定された作業領域と重なる領域を除いた領域を、移動領域に決定する機能部である。移動決定部331は、図2に示すCPU101により実行されるプログラムによって実現される。 The movement determination unit 331 is a functional unit that determines as a movement area an area excluding the area that overlaps with the work area determined by the process determination unit 330 from the standard work area determined by the standard determination unit 325. The movement determination unit 331 is realized by a program executed by the CPU 101 shown in FIG.

第2取得部341は、映像受信部301により受信された映像データからフレームを取得する機能部である。すなわち、第2取得部341は、リアルタイムの映像データのフレームを取得する。ただし、第2取得部341が取得する映像データのフレームは、リアルタイムのものではなく、記憶部304または外部機器10に記憶された過去の映像データのフレームであってもよい。第2取得部341は、図2に示すCPU101により実行されるプログラムによって実現される。 The second acquisition unit 341 is a functional unit that acquires a frame from the video data received by the video reception unit 301. That is, the second acquisition unit 341 acquires a frame of real-time video data. However, the frame of the video data acquired by the second acquisition unit 341 is not a real-time frame, but may be a frame of the past video data stored in the storage unit 304 or the external device 10. The second acquisition unit 341 is realized by a program executed by the CPU 101 shown in FIG.

領域判定部342は、作業者等の追跡対象が、作業領域内または移動領域内に存在するか否かを判定する機能部である。領域判定部342は、図2に示すCPU101により実行されるプログラムによって実現される。 The area determination unit 342 is a functional unit that determines whether or not a tracking target such as an operator exists in the work area or the moving area. The area determination unit 342 is realized by a program executed by the CPU 101 shown in FIG.

計測部343は、作業者等の追跡対象が領域判定部342によって、作業領域内または移動領域内に存在すると判定された場合、それぞれ作業時間または移動時間を計測する機能部である。また、計測部343は、所定時間において、追跡対象が作業領域内に存在した作業時間の最大値、最小値および平均値を算出する。このように、特定の作業者について作業時間の最大値、最小値、および平均値を算出することによって、その作業者の作業のむら、効率性、および作業能力等の分析を行うことが可能となる。なお、計測部343は、追跡対象が移動領域から外れた時間を計測するものとしてもよい。計測部343は、図2に示すCPU101により実行されるプログラムによって実現される。 The measurement unit 343 is a functional unit that measures the work time or the movement time, respectively, when it is determined by the area determination unit 342 that the tracking target of the worker or the like exists in the work area or the movement area. In addition, the measurement unit 343 calculates the maximum value, the minimum value, and the average value of the working time in which the tracking target exists in the working area at a predetermined time. By calculating the maximum value, the minimum value, and the average value of the working time for a specific worker in this way, it is possible to analyze the work unevenness, efficiency, work ability, and the like of the worker. .. The measurement unit 343 may measure the time when the tracking target deviates from the moving area. The measurement unit 343 is realized by a program executed by the CPU 101 shown in FIG.

時間判定部344は、計測部343により計測された作業時間が、所定範囲内であるか否かを判定する機能部である。なお、時間判定部344は、計測部343により追跡対象が移動領域から外れた時間が計測される場合、その時間が所定時間以上であるか否かを判定するものとしてもよい。また、上述の所定範囲は、設定部303により設定された範囲でもよく、または、上述の停滞抽出部326により抽出された停滞部分を構成するポイントの数によって求まる時間に基づく範囲としてもよい。時間判定部344は、図2に示すCPU101により実行されるプログラムによって実現される。 The time determination unit 344 is a function unit that determines whether or not the work time measured by the measurement unit 343 is within a predetermined range. When the measurement unit 343 measures the time when the tracking target is out of the moving area, the time determination unit 344 may determine whether or not the time is equal to or longer than a predetermined time. Further, the above-mentioned predetermined range may be a range set by the setting unit 303, or may be a range based on the time obtained by the number of points constituting the stagnation portion extracted by the above-mentioned stagnation extraction unit 326. The time determination unit 344 is realized by a program executed by the CPU 101 shown in FIG.

通知部345は、時間判定部344により作業時間が所定範囲外であると判定された場合、異常である旨を通知する機能部である。これによって、特定の作業者の作業領域における作業について何らかの問題があり、改善対象の作業として特定することができる。なお、通知部345は、時間判定部344により追跡対象が移動領域から外れた時間が所定時間以上であるか否か判定される場合、所定時間以上と判定されたとき、その旨を通知するものとしてもよい。これによって、作業を行う工程ではない移動中に何らかの突発的な行動が生じた等の旨を認識することができる。通知部345は、図2に示すスピーカ112によって実現される。なお、通知部345は、スピーカ112により実現されることに限定されるものではなく、例えば、表示部353に上述の通知内容を表示、または、メールにより所定の宛先に上述の通知内容を送信する機能等によって実現されるものとしてもよい。 The notification unit 345 is a functional unit that notifies that the work time is abnormal when the time determination unit 344 determines that the work time is out of the predetermined range. As a result, there is some problem with the work in the work area of a specific worker, and it can be specified as the work to be improved. When the time determination unit 344 determines whether or not the time when the tracking target deviates from the moving area is the predetermined time or more, the notification unit 345 notifies that fact when it is determined that the time is longer than the predetermined time. May be. As a result, it is possible to recognize that some unexpected action has occurred during the movement, which is not the process of performing the work. The notification unit 345 is realized by the speaker 112 shown in FIG. The notification unit 345 is not limited to being realized by the speaker 112. For example, the notification unit 345 displays the above notification content on the display unit 353, or transmits the above notification content to a predetermined destination by e-mail. It may be realized by a function or the like.

管理部351は、例えば、ユーザにより操作される入力部302からの操作信号に従って、追跡画面400に表示されている映像データについて、登録部308により登録された基準色によって特定される追跡対象の追跡処理を開始または停止させる機能部である。また、管理部351は、情報処理装置3の全体の動作の管理(例えば、各種情報の記憶部304への記憶)を行う。管理部351は、図2に示すCPU101により実行されるプログラムによって実現される。 The management unit 351 tracks the tracking target specified by the reference color registered by the registration unit 308 for the video data displayed on the tracking screen 400 according to the operation signal from the input unit 302 operated by the user, for example. It is a functional part that starts or stops processing. In addition, the management unit 351 manages the entire operation of the information processing device 3 (for example, storing various information in the storage unit 304). The management unit 351 is realized by a program executed by the CPU 101 shown in FIG.

表示制御部352は、表示部353の表示動作を制御する機能部である。具体的には、表示制御部352は、映像データ、設定部303により設定された設定情報、および、指定部307により指定された指定領域等を、表示部353に表示させる。表示制御部352は、図2に示すCPU101により実行されるプログラム(ドライバ)によって実現される。 The display control unit 352 is a functional unit that controls the display operation of the display unit 353. Specifically, the display control unit 352 causes the display unit 353 to display the video data, the setting information set by the setting unit 303, the designated area designated by the designation unit 307, and the like. The display control unit 352 is realized by a program (driver) executed by the CPU 101 shown in FIG.

表示部353は、表示制御部352の制御に従って各種データを表示する表示装置である。表示部353は、図2に示すCPU101により実行されるプログラム(アプリケーション)の機能により、例えば、後述する追跡画面400等を表示する。表示部353は、図2に示すディスプレイ105によって実現される。 The display unit 353 is a display device that displays various data under the control of the display control unit 352. The display unit 353 displays, for example, the tracking screen 400, which will be described later, by the function of the program (application) executed by the CPU 101 shown in FIG. The display unit 353 is realized by the display 105 shown in FIG.

なお、図3に示した情報処理装置3の設定部303、再生部305、第1取得部306、指定部307、登録部308、検出部309、軌跡出力部310、データ通信部321、太線化部322、定型抽出部323、連続判定部324、定型決定部325、停滞抽出部326、代表点特定部327、拡大部328、工程抽出部329、工程決定部330、移動決定部331、第2取得部341、領域判定部342、計測部343、時間判定部344、管理部351、および表示制御部352の一部または全部は、ソフトウェアであるプログラムではなく、ASIC(Application Specific Integrated Circuit)またはFPGA(Field−Programmable Gate Array)等のハードウェア回路によって実現されてもよい。 The setting unit 303, the reproduction unit 305, the first acquisition unit 306, the designation unit 307, the registration unit 308, the detection unit 309, the locus output unit 310, the data communication unit 321 and the thick line of the information processing device 3 shown in FIG. Unit 322, standard extraction unit 323, continuous determination unit 324, standard determination unit 325, stagnation extraction unit 326, representative point identification unit 327, expansion unit 328, process extraction unit 329, process determination unit 330, movement determination unit 331, second A part or all of the acquisition unit 341, the area determination unit 342, the measurement unit 343, the time determination unit 344, the management unit 351 and the display control unit 352 are not programs that are software, but are ASICs (Application Specific Integrated Circuits) or FPGAs. It may be realized by a hardware circuit such as (Field-Programmable Gate Array).

また、図3に示した各機能部は、機能を概念的に示したものであって、このような構成に限定されるものではない。例えば、図3で独立した機能部として図示した複数の機能部を、1つの機能部として構成してもよい。一方、図3で1つの機能部が有する機能を複数に分割し、複数の機能部として構成するものとしてもよい。 Further, each functional unit shown in FIG. 3 conceptually shows a function, and is not limited to such a configuration. For example, a plurality of functional units shown as independent functional units in FIG. 3 may be configured as one functional unit. On the other hand, the function possessed by one functional unit in FIG. 3 may be divided into a plurality of functions and configured as a plurality of functional units.

また、以降の説明の簡略化のため、表示制御部352が、受け取ったデータを表示部353に表示させるという表現を、単に、そのデータを表示制御部352に送った機能部が、表示部353(または、表示部353が表示する画面)に表示させると表現するものとする。例えば、再生部305が、映像データを表示制御部352に送り、表示制御部352に対して映像データを表示部353に再生表示させる場合、単に、再生部305が、映像データを表示部353に再生表示させると表現するものとする。 Further, for the sake of simplification of the following description, the expression that the display control unit 352 displays the received data on the display unit 353 is simply expressed by the functional unit that sends the data to the display control unit 352. (Or, it is expressed that it is displayed on the screen displayed by the display unit 353). For example, when the reproduction unit 305 sends the video data to the display control unit 352 and causes the display control unit 352 to reproduce and display the video data on the display unit 353, the reproduction unit 305 simply sends the video data to the display unit 353. It shall be expressed as being reproduced and displayed.

(色登録処理)
図4は、実施の形態に係る情報処理装置の色登録処理の流れの一例を示すフローチャートである。図5は、実施の形態に係る情報処理装置の表示部に表示される追跡画面において映像が表示されている状態の一例を示す図である。図6は、実施の形態に係る情報処理装置において追跡対象の色を登録する操作について説明する図である。図4〜図6を参照しながら、本実施の形態に係る情報処理装置3の色登録処理の流れについて説明する。
(Color registration process)
FIG. 4 is a flowchart showing an example of the flow of the color registration process of the information processing apparatus according to the embodiment. FIG. 5 is a diagram showing an example of a state in which an image is displayed on a tracking screen displayed on the display unit of the information processing apparatus according to the embodiment. FIG. 6 is a diagram illustrating an operation of registering a color to be tracked in the information processing apparatus according to the embodiment. The flow of the color registration process of the information processing apparatus 3 according to the present embodiment will be described with reference to FIGS. 4 to 6.

まず、色登録処理の流れを説明するにあたって、図5を参照しながら、追跡画面400の構成について説明する。追跡画面400は、色登録処理により特徴情報である色を登録し、個別表示部401に再生表示される映像において、特定の追跡対象の追跡処理を行うための画面である。追跡画面400は、図5に示すように、個別表示部401と、カメラ選択タブ401aと、映像操作ボタン部403と、シークバー404と、スライダ405と、拡大縮小ボタン部406と、スパン変更ボタン部407と、時刻表示部408と、登録ボタン409と、追跡開始ボタン410と、追跡停止ボタン411と、を含む。 First, in explaining the flow of the color registration process, the configuration of the tracking screen 400 will be described with reference to FIG. The tracking screen 400 is a screen for registering a color which is characteristic information by a color registration process and performing a tracking process for a specific tracking target in a video reproduced and displayed on the individual display unit 401. As shown in FIG. 5, the tracking screen 400 includes an individual display unit 401, a camera selection tab 401a, a video operation button unit 403, a seek bar 404, a slider 405, an enlargement / reduction button unit 406, and a span change button unit. It includes a 407, a time display unit 408, a registration button 409, a tracking start button 410, and a tracking stop button 411.

個別表示部401は、ユーザにより操作される入力部302からの操作信号に従って、再生部305によって、映像受信部301により受信され、データ通信部321により受信され、または記憶部304から取得した映像データが再生表示される表示部である。図5の例では、再生部305は、ユーザによる入力部302の操作により、「2」のカメラ選択タブ401aが選択操作されると、撮像装置2bにより撮像された映像データを記憶部304から取得して個別表示部401に再生表示させる。 The individual display unit 401 receives video data received by the playback unit 305 by the video reception unit 301, received by the data communication unit 321, or acquired from the storage unit 304 according to the operation signal from the input unit 302 operated by the user. Is a display unit that is played back and displayed. In the example of FIG. 5, when the camera selection tab 401a of "2" is selected by the operation of the input unit 302 by the user, the reproduction unit 305 acquires the video data captured by the image pickup device 2b from the storage unit 304. Then, it is reproduced and displayed on the individual display unit 401.

カメラ選択タブ401aは、ユーザが再生表示を所望する撮像装置2a〜2dの映像データのうちいずれの映像データを個別表示部401に表示させるのかを選択する操作部である。例えば、撮像装置2a〜2dによって撮像された映像データは、それぞれ「1」〜「4」に対応付けられており、図5の例では、「2」すなわち撮像装置2bの映像データが選択された例を示している。 The camera selection tab 401a is an operation unit for selecting which of the video data of the imaging devices 2a to 2d that the user wants to be reproduced and displayed to be displayed on the individual display unit 401. For example, the video data captured by the image pickup devices 2a to 2d are associated with "1" to "4", respectively, and in the example of FIG. 5, "2", that is, the video data of the image pickup device 2b is selected. An example is shown.

映像操作ボタン部403は、ユーザによる入力部302の操作により、個別表示部401での映像データの再生、早戻し、早送り、停止および一時停止を行うボタン群である。シークバー404は、その上に配置されるスライダ405の位置により、個別表示部401に再生表示されている映像データがどの時間のものなのかを示す棒状の形状体である。スライダ405は、個別表示部401に再生表示されている映像データの撮像時刻(表示されているフレームが撮像された時刻)に対応したシークバー404上の位置にスライドする形状体かつ操作部である。逆に、スライダ405は、ユーザによる入力部302の操作によってスライドされると、再生部305によって、スライダ405が存在するシークバー404上の位置に対応した撮像時刻の映像データのフレームが個別表示部401に表示される。 The video operation button unit 403 is a group of buttons for playing, rewinding, fast-forwarding, stopping, and pausing video data on the individual display unit 401 by operating the input unit 302 by the user. The seek bar 404 is a rod-shaped body that indicates the time of the video data reproduced and displayed on the individual display unit 401 depending on the position of the slider 405 arranged on the seek bar 404. The slider 405 is a shape and an operation unit that slides to a position on the seek bar 404 corresponding to the imaging time (time when the displayed frame is captured) of the video data reproduced and displayed on the individual display unit 401. On the contrary, when the slider 405 is slid by the operation of the input unit 302 by the user, the playback unit 305 displays the frame of the video data of the imaging time corresponding to the position on the seek bar 404 where the slider 405 exists as the individual display unit 401. Is displayed in.

拡大縮小ボタン部406は、ユーザによる入力部302の操作により、再生部305によって、個別表示部401に再生表示されている映像データが拡大表示または縮小表示されるボタン群である。例えば、拡大縮小ボタン部406のうち拡大ボタンを押下するごとに、所定の拡大率で映像データが拡大表示される。例えば、通常の表示状態を100%として、120%、140%、・・・のように拡大表示される。 The enlargement / reduction button unit 406 is a group of buttons in which the video data reproduced and displayed on the individual display unit 401 is enlarged or reduced by the reproduction unit 305 by the operation of the input unit 302 by the user. For example, each time the enlargement button is pressed in the enlargement / reduction button unit 406, the video data is enlarged and displayed at a predetermined enlargement ratio. For example, assuming that the normal display state is 100%, the display is enlarged as 120%, 140%, ....

スパン変更ボタン部407は、ユーザによる入力部302の操作により、再生部305によって、シークバー404の表示スパンが拡大または縮小されるボタン群である。なお、シークバー404の表示スパンを拡大または縮小するのは再生部305である必要はなく、異なる機能部が担うものとしてもよい。 The span change button unit 407 is a group of buttons whose display span of the seek bar 404 is enlarged or reduced by the reproduction unit 305 by the operation of the input unit 302 by the user. It is not necessary for the reproduction unit 305 to enlarge or reduce the display span of the seek bar 404, and different functional units may be responsible for it.

時刻表示部408は、再生部305によって、個別表示部401に再生表示されている映像データの撮像日付および撮像時刻を表示する表示領域である。 The time display unit 408 is a display area for displaying the imaging date and the imaging time of the video data reproduced and displayed on the individual display unit 401 by the reproduction unit 305.

登録ボタン409は、指定部307により指定された指定領域について、登録部308に基準色を特定し、特定した基準色の情報を登録(記憶部304に記憶)させるボタンである。 The registration button 409 is a button that specifies the reference color in the registration unit 308 for the designated area designated by the designation unit 307 and registers (stores) the information of the specified reference color in the storage unit 304.

追跡開始ボタン410は、ユーザによる入力部302の操作によって押下されると、管理部351に、個別表示部401に再生表示されている映像データにおいて、基準色によって特定される追跡対象の追跡処理を開始させるボタンである。追跡停止ボタン411は、ユーザによる入力部302の操作によって押下されると、管理部351に対して、個別表示部401に再生表示されている映像データに対して行われている追跡対象の追跡処理を停止させるボタンである。 When the tracking start button 410 is pressed by the operation of the input unit 302 by the user, the management unit 351 performs a tracking process of the tracking target specified by the reference color in the video data reproduced and displayed on the individual display unit 401. It is a button to start. When the tracking stop button 411 is pressed by the operation of the input unit 302 by the user, the tracking target tracking process performed on the video data reproduced and displayed on the individual display unit 401 by the management unit 351 is performed. It is a button to stop.

次に、色登録処理の具体的な流れを説明する。図5に示す追跡画面400は、再生部305により撮像装置2bに対応する映像データが再生表示されている状態を示している。 Next, the specific flow of the color registration process will be described. The tracking screen 400 shown in FIG. 5 shows a state in which the video data corresponding to the image pickup apparatus 2b is reproduced and displayed by the reproduction unit 305.

<ステップS11>
まず、個別表示部401において映像データの再生表示中に、色登録処理を所望する画像の部分が表示されているタイミングで、ユーザによる入力部302の操作によって映像操作ボタン部403の一時停止ボタンが押下されると、再生部305は、個別表示部401に再生表示されている映像データを一時停止させる。図5に示すように、一時停止した映像データのフレームには、作業者500が写っている。そして、第1取得部306は、一時停止した映像データから個別表示部401に表示されているフレームを取得する。そして、ステップS12へ移行する。
<Step S11>
First, at the timing when the part of the image desired to be color-registered is displayed during the reproduction display of the video data on the individual display unit 401, the pause button of the video operation button unit 403 is released by the operation of the input unit 302 by the user. When pressed, the reproduction unit 305 pauses the video data reproduced and displayed on the individual display unit 401. As shown in FIG. 5, the worker 500 is shown in the paused video data frame. Then, the first acquisition unit 306 acquires the frame displayed on the individual display unit 401 from the paused video data. Then, the process proceeds to step S12.

<ステップS12>
ここで、本実施の形態に係る情報処理装置3が個別表示部401に表示されているフレームにおける追跡の対象が、図6に示す作業者500の追跡対象501であるものとする。追跡対象501は、作業者500が着用している上着の一部であり、特定の色を有するものとする。
<Step S12>
Here, it is assumed that the tracking target in the frame in which the information processing device 3 according to the present embodiment is displayed on the individual display unit 401 is the tracking target 501 of the worker 500 shown in FIG. The tracking target 501 is a part of the outerwear worn by the worker 500 and shall have a specific color.

指定部307は、ユーザによる入力部302の操作(例えば、マウス108のドラッグ操作)に従って、第1取得部306により取得されたフレーム、すなわち、個別表示部401に表示されているフレームにおいて、図6に示すように、追跡対象の追跡処理で使用する特徴情報としての色を特定するために、追跡対象501において指定領域550を指定する。 The designation unit 307 is a frame acquired by the first acquisition unit 306 according to an operation of the input unit 302 by the user (for example, a drag operation of the mouse 108), that is, a frame displayed on the individual display unit 401. As shown in, in order to specify the color as the feature information used in the tracking process of the tracking target, the designated area 550 is designated in the tracking target 501.

なお、指定部307による指定領域の指定は、拡大縮小ボタン部406の拡大ボタンまたは縮小ボタンにより、個別表示部401に表示されているフレームを拡大または縮小した状態で行うことができるようにしてもよい。そして、ステップS13へ移行する。 It should be noted that the designated area can be designated by the designation unit 307 even if the frame displayed on the individual display unit 401 can be enlarged or reduced by the enlargement button or the reduction button of the enlargement / reduction button unit 406. Good. Then, the process proceeds to step S13.

<ステップS13>
登録部308は、ユーザによる入力部302の操作による登録ボタン409の押下によって、指定部307により指定された指定領域550に基づいて、基準色を特定し、特定した基準色の情報を記憶部304に記憶(登録)する。具体的には、登録部308は、例えば、指定領域550に含まれる画素の画素値の平均値を算出し、その平均値を基準色として特定する。
<Step S13>
The registration unit 308 identifies the reference color based on the designated area 550 designated by the designation unit 307 by pressing the registration button 409 by the operation of the input unit 302 by the user, and stores the information of the specified reference color in the storage unit 304. Memorize (register) in. Specifically, the registration unit 308 calculates, for example, the average value of the pixel values of the pixels included in the designated area 550, and specifies the average value as the reference color.

そして、設定部303は、登録部308により登録された基準色を中心とする所定範囲を示す情報を追跡パラメータとして設定し、設定した追跡パラメータを、記憶部304に記憶させる。この追跡パラメータが設定されることによって、基準色範囲が定まる。 Then, the setting unit 303 sets information indicating a predetermined range centered on the reference color registered by the registration unit 308 as a tracking parameter, and stores the set tracking parameter in the storage unit 304. By setting this tracking parameter, the reference color range is determined.

以上のステップS11〜S13によって、色登録処理(基準色の特定および登録)および追跡パラメータの設定が実行される。なお、上述の図4で示した色登録処理のフローは一例であり、その他の方法によって、基準色の特定、および追跡パラメータの設定が行われるものとしてもよい。 By the above steps S11 to S13, the color registration process (identification and registration of the reference color) and the setting of the tracking parameters are executed. The flow of the color registration process shown in FIG. 4 described above is an example, and the reference color may be specified and the tracking parameters may be set by other methods.

(追跡対象の追跡処理の概要)
図7は、実施の形態に係る情報処理装置において追跡対象を追跡する追跡処理を説明する図である。図8は、実施の形態に係る情報処理装置の追跡処理で検出した追跡対象の情報を示す追跡結果データの一例を示す図である。図7および図8を参照しながら、本実施の形態に係る情報処理装置3による追跡対象の追跡処理の概要について説明する。なお、予め、上述の色登録処理により、基準色が登録されているものとする。そして、個別表示部401での再生部305による映像データの再生表示中に、追跡対象の追跡処理を所望するフレームが表示されているタイミングで、ユーザによる入力部302の操作によって追跡開始ボタン410が押下されると、再生部305により表示されたフレームから、管理部351によって追跡対象の追跡処理が開始される。なお、再生部305によって個別表示部401に再生表示される映像データは、撮像装置2から映像受信部301を介して受信したリアルタイムの映像データであってもよく、または、記憶部304に記憶され、または、データ通信部321を介して外部機器10から受信した過去の映像データであってもよい。
(Overview of tracking process for tracking target)
FIG. 7 is a diagram illustrating a tracking process for tracking a tracking target in the information processing apparatus according to the embodiment. FIG. 8 is a diagram showing an example of tracking result data showing information of a tracking target detected in the tracking process of the information processing apparatus according to the embodiment. The outline of the tracking process of the tracking target by the information processing apparatus 3 according to the present embodiment will be described with reference to FIGS. 7 and 8. It is assumed that the reference color is registered in advance by the above-mentioned color registration process. Then, during the playback display of the video data by the playback unit 305 on the individual display unit 401, the tracking start button 410 is pressed by the operation of the input unit 302 by the user at the timing when the frame desired to be tracked for the tracking target is displayed. When pressed, the tracking process of the tracking target is started by the management unit 351 from the frame displayed by the reproduction unit 305. The video data reproduced and displayed on the individual display unit 401 by the reproduction unit 305 may be real-time video data received from the image pickup device 2 via the image reception unit 301, or is stored in the storage unit 304. Alternatively, it may be past video data received from the external device 10 via the data communication unit 321.

第1取得部306は、再生部305により再生表示されている映像データのフレームを取得する。なお、第1取得部306により取得される2つ目以降のフレームは、追跡処理が終了したフレームの次のフレームに限定されるものではなく、所定時間後に対応するフレームを取得するものとしてもよい。すなわち、追跡処理は、処理が開始された映像データのフレーム以降、フレーム毎に実行されることに限定せず、所定時間ごとのフレームに対して実行するものとしてもよい。 The first acquisition unit 306 acquires a frame of video data reproduced and displayed by the reproduction unit 305. The second and subsequent frames acquired by the first acquisition unit 306 are not limited to the frames following the frame for which the tracking process has been completed, and the corresponding frames may be acquired after a predetermined time. .. That is, the tracking process is not limited to being executed for each frame after the frame of the video data from which the process is started, and may be executed for each frame at a predetermined time.

次に、検出部309は、第1取得部306により取得されたフレームにおいて、登録部308により登録された基準色(設定部303により設定された追跡パラメータ)に基づいて、追跡対象を検出する。具体的には、検出部309は、当該フレームについて、抽出処理、二値化処理、およびラベリング処理等の処理を実行し、上述した基準色を中心とする基準色範囲に入る色の画素を含むブロックに対応する領域を追跡対象(図7に示す追跡対象501)として検出する。そして、管理部351は、図8に示す追跡結果データ1000(追跡結果情報)のように、検出された追跡対象の情報として、撮像された場所と、撮像された日付と、撮像された時刻と、追跡対象の中心座標(x座標およびy座標)と、が関連付けられた情報を、記憶部304に記憶させる。例えば、図8に示す追跡結果データ1000の例では、撮像された場所「area001」、日付「2016−04−02」、および時刻「10:23:45.2」に対応する追跡対象の中心座標のうちx座標が「0.83」であり、y座標が「0.41」であることを示している。なお、中心座標を表す形式はどのような形式でもよく、図8に示す追跡結果データ1000のように正規化した値であってもよく、または、フレームが横1920ピクセル、縦1080ピクセルの画像であれば、正規化された(x,y)=(0.83,0.41)は、(x,y)=(1593,442)と表すものとしてもよい。 Next, the detection unit 309 detects the tracking target in the frame acquired by the first acquisition unit 306 based on the reference color (tracking parameter set by the setting unit 303) registered by the registration unit 308. Specifically, the detection unit 309 executes processing such as extraction processing, binarization processing, and labeling processing on the frame, and includes pixels of colors that fall within the reference color range centered on the above-mentioned reference color. The area corresponding to the block is detected as a tracking target (tracking target 501 shown in FIG. 7). Then, the management unit 351 sets the captured location, the captured date, and the captured time as the detected tracking target information as in the tracking result data 1000 (tracking result information) shown in FIG. , The information associated with the center coordinates (x-coordinate and y-coordinate) of the tracking target is stored in the storage unit 304. For example, in the example of the tracking result data 1000 shown in FIG. 8, the center coordinates of the tracking target corresponding to the captured location “area001”, the date “2016-04-02”, and the time “10:23:45.2”. Of these, the x-coordinate is "0.83" and the y-coordinate is "0.41". The format for expressing the center coordinates may be any format, and may be a normalized value such as the tracking result data 1000 shown in FIG. 8, or an image having a frame of 1920 pixels in width and 1080 pixels in height. If so, the normalized (x, y) = (0.83, 0.41) may be expressed as (x, y) = (1593,442).

なお、追跡結果データ1000は、CSV(Comma−Separated Values)形式のファイルとして示しているが、これに限定されるものではなく、撮像された場所と、撮像された日付と、撮像された時刻と、追跡対象の中心座標(x座標およびy座標)と、を関連付ける情報であればどのような形式の情報であってもよい。 The tracking result data 1000 is shown as a CSV (Comma-Separated Values) format file, but the present invention is not limited to this, and the captured location, the captured date, and the captured time are included. , The information may be in any format as long as it is related to the center coordinates (x-coordinate and y-coordinate) of the tracking target.

次に、軌跡出力部310は、記憶部304に記憶された追跡結果データ1000から現在のフレームに対応する追跡対象の中心座標と、現在のフレームの前のフレームに対応する追跡対象の中心座標と、を読み出す。そして、軌跡出力部310は、現在のフレームに対応する追跡対象の中心点と、現在のフレームの前のフレームに対応する追跡対象の中心点とを結ぶ動線(軌跡線)を生成し、個別表示部401に表示されている現在のフレームに重畳して表示させる。この場合、軌跡出力部310は、追跡処理開始後のフレームから、現在のフレームの前のフレームまでについて生成した動線も同様に、現在のフレームに重畳して表示させる。これによって、個別表示部401には、図7に示すように、映像データに重畳して、追跡処理開始後からの追跡対象の軌跡を示す動線800が表示されることになる。なお、追跡結果情報(例えば、図8に示す追跡結果データ1000)の記憶のみを目的とするのであれば、軌跡出力部310は、追跡画面400の個別表示部401において、動線800を必ずしも表示させる必要はない。 Next, the locus output unit 310 sets the center coordinates of the tracking target corresponding to the current frame from the tracking result data 1000 stored in the storage unit 304, and the center coordinates of the tracking target corresponding to the frame before the current frame. , Is read. Then, the locus output unit 310 generates a flow line (trajectory line) connecting the center point of the tracking target corresponding to the current frame and the center point of the tracking target corresponding to the frame before the current frame, and individually. It is superimposed on the current frame displayed on the display unit 401 and displayed. In this case, the locus output unit 310 also superimposes and displays the flow lines generated from the frame after the start of the tracking process to the frame before the current frame on the current frame. As a result, as shown in FIG. 7, the individual display unit 401 is superposed on the video data to display the flow line 800 indicating the trajectory of the tracking target after the start of the tracking process. If the purpose is only to store the tracking result information (for example, the tracking result data 1000 shown in FIG. 8), the locus output unit 310 does not necessarily display the flow line 800 on the individual display unit 401 of the tracking screen 400. You don't have to.

以上のような動作によって、追跡対象の追跡処理が行われる。なお、上述の追跡対象の追跡処理は、映像データのフレームから追跡対象を検出することによって、追跡対象の位置情報を含む追跡結果情報を生成するものとしているが、これに限定されるものではない。例えば、追跡対象に無線LANもしくは超音波発信の端末、またはIDを持たせることによって、これらの位置情報を受信する装置を用いて、追跡対象を検出した日付および時刻、ならびに位置情報等を得ることによって、追跡結果情報を生成するものとしてもよい。 By the above operation, the tracking process of the tracking target is performed. The above-mentioned tracking process of the tracking target is supposed to generate tracking result information including the position information of the tracking target by detecting the tracking target from the frame of the video data, but the present invention is not limited to this. .. For example, by giving the tracking target a wireless LAN or a terminal for ultrasonic transmission, or an ID, the date and time when the tracking target is detected, the position information, and the like can be obtained by using a device that receives these position information. May generate tracking result information.

(定型作業領域の決定処理)
図9は、実施の形態に係る情報処理装置の定型作業領域の決定処理の流れの一例を示すフローチャートである。図10は、実施の形態に係る情報処理装置において定型作業領域を求めるために用いる定型作業の複数の動線の一例を示す図である。図11は、定型作業領域を求めるために用いる定型作業の複数の動線を太線化した状態の一例を示す図である。図12および図13は、それぞれ、抽出された領域が連続していることの一例を示す図である。図14は、実施の形態に係る情報処理装置において定型作業領域を決定する動作を説明する図である。図9〜図14を参照しながら、本実施の形態に係る情報処理装置3による定型作業領域の決定処理について説明する。
(Determining the standard work area)
FIG. 9 is a flowchart showing an example of a flow of determination processing of a standard work area of the information processing apparatus according to the embodiment. FIG. 10 is a diagram showing an example of a plurality of flow lines of routine work used for obtaining a fixed work area in the information processing apparatus according to the embodiment. FIG. 11 is a diagram showing an example of a state in which a plurality of flow lines of the standard work used for obtaining the standard work area are thickened. 12 and 13 are diagrams showing an example in which the extracted regions are continuous, respectively. FIG. 14 is a diagram illustrating an operation of determining a routine work area in the information processing apparatus according to the embodiment. The process of determining the standard work area by the information processing apparatus 3 according to the present embodiment will be described with reference to FIGS. 9 to 14.

<ステップS21>
第1取得部306は、映像受信部301により受信され、データ通信部321により受信され、または記憶部304に記憶された複数の映像データに対応するそれぞれの追跡結果情報を取得する。そして、ステップS22へ移行する。
<Step S21>
The first acquisition unit 306 acquires tracking result information corresponding to a plurality of video data received by the video receiving unit 301, received by the data communication unit 321 or stored in the storage unit 304. Then, the process proceeds to step S22.

<ステップS22>
軌跡出力部310は、第1取得部306により取得されたそれぞれの追跡結果情報に基づいて、追跡結果情報が示すポイント(追跡対象の座標)を時系列に結んで、動線を表示部353に表示させる。ここでは、第1取得部306は、3つの追跡結果情報を取得し、軌跡出力部310は、3つの追跡結果情報に基づいて、3つの動線を表示させたものとして説明する。ここで、図10に、軌跡出力部310によりポイントが時系列に結ばれた3つの動線(動線811〜813)を示す。動線811〜813は、それぞれ、所定単位の目的を達成するための一連の作業である定型作業の動線を示している。そして、ステップS23へ移行する。
<Step S22>
The locus output unit 310 connects the points (coordinates of the tracking target) indicated by the tracking result information in chronological order based on the respective tracking result information acquired by the first acquisition unit 306, and displays the flow line on the display unit 353. Display it. Here, it is assumed that the first acquisition unit 306 acquires three tracking result information, and the locus output unit 310 displays three flow lines based on the three tracking result information. Here, FIG. 10 shows three flow lines (flow lines 81 to 813) in which points are connected in time series by the locus output unit 310. The flow lines 81 to 813 indicate the flow lines of routine work, which is a series of work for achieving the purpose of a predetermined unit, respectively. Then, the process proceeds to step S23.

<ステップS23>
太線化部322は、軌跡出力部310により表示された動線を太線化する。ここで、図11に、動線811〜813が、太線化部322によりそれぞれ太線化され、太線化動線811a〜813aが得られた例を示す。なお、太線化部322がどれくらいの幅で動線を太線化するかについては、設定部303により設定可能であるものとしてもよい。そして、ステップS24へ移行する。
<Step S23>
The thickening unit 322 thickens the flow line displayed by the locus output unit 310. Here, FIG. 11 shows an example in which the flow lines 811 to 813 are thickened by the thickening unit 322, respectively, and the thickening flow lines 811a to 813a are obtained. It should be noted that the width of the thick line section 322 to thicken the flow line may be set by the setting section 303. Then, the process proceeds to step S24.

<ステップS24>
定型抽出部323は、太線化部322により太線化された動線が所定数α以上重なっている領域を抽出する。ここで、図11に示す例では、所定数αは2であるものとし、定型抽出部323は、太線化動線811a〜813aのうち、2以上が重なっている領域を抽出する。なお、所定数αについては、設定部303により設定可能であるものとしてもよい。そして、ステップS25へ移行する。
<Step S24>
The standard extraction unit 323 extracts a region in which the flow lines thickened by the thick line unit 322 overlap by a predetermined number α or more. Here, in the example shown in FIG. 11, it is assumed that the predetermined number α is 2, and the standard extraction unit 323 extracts a region in which two or more of the thick line flow lines 811a to 813a overlap. The predetermined number α may be set by the setting unit 303. Then, the process proceeds to step S25.

<ステップS25>
連続判定部324は、定型抽出部323によって抽出された領域が連続しているか否か判定する。ここで、抽出された領域が連続しているとは、例えば、図12に示すように、領域が環状に構成されている、または、図13に示すように、領域の両端が、表示部353に動線が表示された表示領域の各辺に位置している状態を示すものとする。連続判定部324による判定の結果、抽出された領域が連続している場合(ステップS25:Yes)、ステップS26へ移行し、連続していない場合(ステップS25:No)、ステップS27へ移行する。
<Step S25>
The continuous determination unit 324 determines whether or not the regions extracted by the standard extraction unit 323 are continuous. Here, the fact that the extracted regions are continuous means that, for example, the regions are formed in a ring shape as shown in FIG. 12, or both ends of the region are displayed in the display unit 353 as shown in FIG. It shall indicate the state of being located on each side of the display area where the flow line is displayed. As a result of the determination by the continuous determination unit 324, if the extracted regions are continuous (step S25: Yes), the process proceeds to step S26, and if they are not continuous (step S25: No), the process proceeds to step S27.

<ステップS26>
定型決定部325は、連続判定部324により連続していると判定された領域を定型作業領域に決定する。ここで、動線811〜813の例では、図14に示すように、太線化動線811a〜813aのうち2以上が重なっている領域が定型抽出部323により抽出され、定型決定部325は、抽出された領域を定型作業領域820として決定する。そして、定型作業領域の決定処理を終了する。
<Step S26>
The fixed form determination unit 325 determines a region determined to be continuous by the continuous determination unit 324 as a fixed form work area. Here, in the example of the flow lines 811 to 813, as shown in FIG. 14, the region where two or more of the thick line flow lines 811a to 813a overlap is extracted by the standard extraction unit 323, and the standard determination unit 325 The extracted area is determined as the standard work area 820. Then, the determination process of the standard work area is completed.

<ステップS27>
管理部351は、所定数αを1だけデクリメントする。そして、ステップS28へ移行する。
<Step S27>
The management unit 351 decrements the predetermined number α by one. Then, the process proceeds to step S28.

<ステップS28>
管理部351は、所定数αが1でないか否かを判定する。α≠1の場合(ステップS28:Yes)、ステップS24へ戻り、定型抽出部323が抽出する領域の重なっている数を1減らした状態で、再度、重なっている領域を抽出する。α=1の場合(ステップS28:No)、ステップS29へ移行する。
<Step S28>
The management unit 351 determines whether or not the predetermined number α is not 1. When α ≠ 1 (step S28: Yes), the process returns to step S24, and the overlapping regions are extracted again with the number of overlapping regions extracted by the standard extraction unit 323 reduced by one. When α = 1 (step S28: No), the process proceeds to step S29.

<ステップS29>
定型決定部325は、α=1の場合、複数の太線化動線で共通する領域として1だけ重なる領域を定型作業領域とするのは信頼性が低くなるものと判断し、定型作業領域を決定できないものとする。そして、定型作業領域の決定処理を終了する。
<Step S29>
When α = 1, the standard work area 325 determines that it is unreliable to set an area that overlaps by 1 as a common area in a plurality of thickened flow lines, and determines the standard work area. It shall not be possible. Then, the determination process of the standard work area is completed.

以上のステップS21〜S29の処理によって、定型作業領域の決定処理が行われる。すなわち、モデルとなる動線(図10の例では、動線811〜813)を利用して、定型作業が行われる領域である定型作業領域を決定する。 By the above steps S21 to S29, the routine work area determination process is performed. That is, the standard work area, which is the area where the standard work is performed, is determined by using the model flow line (in the example of FIG. 10, the flow lines 811 to 813).

(作業領域の決定処理)
図15は、実施の形態に係る情報処理装置の作業領域の決定処理の流れの一例を示すフローチャートである。図16は、停滞領域および突発的行動領域の一例を示す図である。図17は、実施の形態に係る情報処理装置において作業領域を決定する動作を説明する図である。図18は、実施の形態に係る情報処理装置において決定された作業領域および移動領域の一例を示す図である。図15〜図18を参照しながら、本実施の形態に係る情報処理装置3による作業領域の決定処理について説明する。
(Work area determination process)
FIG. 15 is a flowchart showing an example of a flow of determination processing of a work area of the information processing apparatus according to the embodiment. FIG. 16 is a diagram showing an example of a stagnant area and a sudden action area. FIG. 17 is a diagram illustrating an operation of determining a work area in the information processing apparatus according to the embodiment. FIG. 18 is a diagram showing an example of a work area and a moving area determined in the information processing apparatus according to the embodiment. The work area determination process by the information processing apparatus 3 according to the present embodiment will be described with reference to FIGS. 15 to 18.

<ステップS41>
第1取得部306は、映像受信部301により受信され、データ通信部321により受信され、または記憶部304に記憶された複数の映像データに対応するそれぞれの追跡結果情報を取得する。そして、ステップS42へ移行する。
<Step S41>
The first acquisition unit 306 acquires tracking result information corresponding to a plurality of video data received by the video receiving unit 301, received by the data communication unit 321 or stored in the storage unit 304. Then, the process proceeds to step S42.

<ステップS42>
停滞抽出部326は、第1取得部306により取得された追跡結果情報に基づく各動線に含まれる各座標を示すポイント群であって、追跡対象が停滞していると判断されるポイント群(停滞部分)を抽出する。ここでは、図10と同様に、第1取得部306は、3つの追跡結果情報を取得し、停滞抽出部326が停滞部分を抽出する対象の動線を、動線811〜813として説明する。停滞抽出部326は、例えば、特定の追跡結果情報で示されるn番目のポイントと、(n+1)番目のポイントとの距離を算出し、予め設定された所定値未満であれば、(n+1)番目のポイントは停滞しているポイントと判断する。そして、停滞抽出部326は、引き続き、(n+2)番目のポイント、(n+3)番目のポイント、・・・について停滞しているポイントか否かを判断していき、(n+m)番目のポイントと、(n+m+1)番目のポイントとの距離が所定値以上となった場合、(n+1)番目〜(n+m)番目のm個のポイント群が停滞しているポイント群(停滞部分)と判断する。このようにして、停滞抽出部326により停滞部分が抽出された例を図16に示す。動線811〜813については、停滞抽出部326によって、停滞領域831〜833に含まれるポイント群が停滞部分として抽出されたものとする。また、動線813のうち、突発的行動領域835は、本来の定型作業とは異なる作業者の突発的な行動を示している。そして、ステップS43へ移行する。
<Step S42>
The stagnation extraction unit 326 is a point group indicating each coordinate included in each flow line based on the tracking result information acquired by the first acquisition unit 306, and is a point group in which the tracking target is determined to be stagnation ( The stagnant part) is extracted. Here, as in FIG. 10, the first acquisition unit 306 acquires three tracking result information, and the flow line of the target for which the stagnation extraction unit 326 extracts the stagnation portion is described as a flow line 81 to 813. The stagnation extraction unit 326 calculates, for example, the distance between the nth point indicated by the specific tracking result information and the (n + 1) th point, and if it is less than a preset predetermined value, the (n + 1) th point. The point of is judged to be a stagnant point. Then, the stagnation extraction unit 326 continues to determine whether or not the (n + 2) th point, the (n + 3) th point, and so on are stagnant points, and the (n + m) th point and When the distance to the (n + m + 1) th point is equal to or greater than a predetermined value, it is determined that the (n + 1) th to (n + m) th points group is a stagnant point group (stagnation portion). An example in which the stagnation portion is extracted by the stagnation extraction unit 326 in this way is shown in FIG. Regarding the flow lines 81 to 813, it is assumed that the point group included in the stagnation area 831 to 833 is extracted as the stagnation portion by the stagnation extraction unit 326. Further, in the flow line 813, the sudden action area 835 shows the sudden action of the worker different from the original routine work. Then, the process proceeds to step S43.

<ステップS43>
代表点特定部327は、複数の各動線において、停滞抽出部326により抽出された停滞部分を構成するポイントから代表のポイント(代表点)を特定する。具体的には、代表点特定部327は、図16において、例えば、動線811を構成するポイントのうち、停滞領域831〜833にそれぞれ含まれる停滞しているポイント群の座標の平均値で定まる座標を代表点として特定する。すなわち、動線811では、停滞領域831〜833にそれぞれ含まれる停滞しているポイント群ごとに代表点が特定され、その結果、3つの代表点が特定される。動線812、813についても同様であり、動線811〜813全体では、9つの代表点が特定されることになる。そして、ステップS44へ移行する。
<Step S43>
The representative point specifying unit 327 identifies a representative point (representative point) from the points constituting the stagnant portion extracted by the stagnant extraction unit 326 in each of the plurality of flow lines. Specifically, in FIG. 16, the representative point specifying unit 327 is determined by, for example, the average value of the coordinates of the stagnant point groups included in the stagnant areas 831 to 833 among the points constituting the flow line 811. Specify the coordinates as a representative point. That is, in the flow line 811, a representative point is specified for each of the stagnant point groups included in the stagnant areas 831 to 833, and as a result, three representative points are specified. The same applies to the flow lines 812 and 813, and nine representative points are specified for the entire flow lines 81 to 813. Then, the process proceeds to step S44.

<ステップS44>
拡大部328は、代表点特定部327により特定された代表点に対応する距離(移動距離)を求める。例えば、上述した(n+1)番目のポイントに対応する距離を、n番目のポイントと、(n+1)番目のポイントとの距離であるものとすると、(n+1)番目〜(n+m)番目のm個のポイント群の代表点に対応する距離は、ポイント群を構成するポイントにそれぞれ対応する距離の平均値であるものとする。すなわち、(n+1)番目〜(n+m)番目のポイントにそれぞれ対応する距離の平均値が、(n+1)番目〜(n+m)番目のポイント群の代表点に対応する距離であるものとする。
<Step S44>
The enlargement unit 328 obtains a distance (moving distance) corresponding to the representative point specified by the representative point identification unit 327. For example, assuming that the distance corresponding to the (n + 1) th point described above is the distance between the nth point and the (n + 1) th point, the (n + 1) th to (n + m) th m points The distance corresponding to the representative point of the point group shall be the average value of the distances corresponding to the points constituting the point group. That is, it is assumed that the average value of the distances corresponding to the (n + 1) th to (n + m) th points is the distance corresponding to the representative point of the (n + 1) th to (n + m) th point group.

そして、拡大部328は、代表点に対応する距離(移動距離)に応じて、代表点を中心に円を拡大する。例えば、拡大部328は、代表点に対応する距離が小さいほど、停滞具合も大きいものとして、円を大きく拡大させる。ここで、図17に、停滞領域831〜833にそれぞれ対応する代表点を中心に円を拡大した状態を示す。動線811については、停滞領域831に対応する停滞部分の代表点を円に拡大したものが拡大領域841a、停滞領域832に対応する停滞部分の代表点を円に拡大したものが拡大領域841b、そして、停滞領域833に対応する停滞部分の代表点を円に拡大したものが拡大領域841cである。動線812については、停滞領域831に対応する停滞部分の代表点を円に拡大したものが拡大領域842a、停滞領域832に対応する停滞部分の代表点を円に拡大したものが拡大領域842b、そして、停滞領域833に対応する停滞部分の代表点を円に拡大したものが拡大領域842cである。動線813については、停滞領域833に対応する停滞部分の代表点を円に拡大したものが拡大領域843a、停滞領域832に対応する停滞部分の代表点を円に拡大したものが拡大領域843b、そして、停滞領域833に対応する停滞部分の代表点を円に拡大したものが拡大領域843cである。なお、拡大部328が拡大する形状は円に限定されるものではなく、その他の形状に拡大するものとしてもよい。 Then, the enlargement unit 328 expands the circle around the representative point according to the distance (moving distance) corresponding to the representative point. For example, the enlargement unit 328 greatly enlarges the circle, assuming that the smaller the distance corresponding to the representative point, the greater the degree of stagnation. Here, FIG. 17 shows a state in which the circle is enlarged around the representative points corresponding to the stagnation areas 831 to 833, respectively. Regarding the flow line 811, the expansion region 841a is the representative point of the stagnation portion corresponding to the stagnation region 831 expanded to a circle, and the expansion region 841b is the representative point of the stagnation portion corresponding to the stagnation region 832 expanded to a circle. The expansion region 841c is a circle in which the representative points of the stagnation portion corresponding to the stagnation region 833 are expanded. Regarding the flow line 812, the expansion area 842a is the representative point of the stagnation portion corresponding to the stagnation area 831 expanded to a circle, and the expansion area 842b is the representative point of the stagnation portion corresponding to the stagnation area 832 expanded to a circle. The expansion region 842c is a circle in which the representative points of the stagnation portion corresponding to the stagnation region 833 are expanded. Regarding the flow line 813, the expansion area 843a is the representative point of the stagnation portion corresponding to the stagnation area 833 expanded into a circle, and the expansion area 843b is the representative point of the stagnation portion corresponding to the stagnation area 832 expanded into a circle. The expansion region 843c is a circle in which the representative points of the stagnation portion corresponding to the stagnation region 833 are expanded. The shape of the enlarged portion 328 that expands is not limited to the circle, and may be expanded to other shapes.

そして、ステップS45へ移行する。 Then, the process proceeds to step S45.

<ステップS45>
工程抽出部329は、拡大部328によって拡大された代表点が所定数以上重なっている領域を抽出する。ここで、図17に示す例では、所定数は2であるものとし、工程抽出部329は、拡大領域が2以上重なっている領域を抽出する。具体的には、工程抽出部329は、停滞領域831に対応する拡大領域841a〜843aのうち2以上重なっている領域である重なり領域850aを抽出する。また、工程抽出部329は、停滞領域832に対応する拡大領域841b〜843bのうち2以上重なっている領域である重なり領域850bを抽出する。そして、工程抽出部329は、停滞領域833に対応する拡大領域841c〜843cのうち2以上重なっている領域である重なり領域850cを抽出する。なお、所定数については、設定部303により設定可能であるものとしてもよい。また、所定数は、停滞領域ごとに異なる数であってもよい。そして、ステップS46へ移行する。
<Step S45>
The process extraction unit 329 extracts a region in which representative points expanded by the expansion unit 328 overlap by a predetermined number or more. Here, in the example shown in FIG. 17, it is assumed that the predetermined number is 2, and the process extraction unit 329 extracts a region in which two or more enlarged regions overlap. Specifically, the process extraction unit 329 extracts an overlapping region 850a, which is an overlapping region of two or more of the enlarged regions 841a to 843a corresponding to the stagnant region 831. In addition, the process extraction unit 329 extracts the overlapping region 850b, which is an overlapping region of two or more of the expanded regions 841b to 843b corresponding to the stagnant region 832. Then, the process extraction unit 329 extracts the overlapping region 850c, which is a region in which two or more of the expanded regions 841c to 843c corresponding to the stagnant region 833 are overlapped. The predetermined number may be set by the setting unit 303. Further, the predetermined number may be a different number for each stagnation area. Then, the process proceeds to step S46.

<ステップS46>
工程決定部330は、工程抽出部329により抽出された領域(図17の例では、重なり領域850a〜850c)を矩形で囲むことにより、定型作業の中で作業者が停滞して作業を行う工程の領域(作業領域)として決定する。なお、工程抽出部329により抽出された領域を矩形で囲むことは必須の処理ではないが、矩形で囲んで作業領域を線分で囲まれた多角形の領域とすることによって、上述したように、領域判定部342により追跡対象が作業領域内に存在するか否かの判定処理のアルゴリズムを簡易に構成することができる。図17に示す例では、工程決定部330は、重なり領域850a〜850cをそれぞれ矩形で囲むことにより、図18に示すように、多角形状の作業領域860a〜860cを決定する。
<Step S46>
The process determination unit 330 encloses the area extracted by the process extraction unit 329 (overlapping areas 850a to 850c in the example of FIG. 17) with a rectangle, so that the operator stagnates in the routine work. It is determined as the area (work area) of. It is not essential to enclose the area extracted by the process extraction unit 329 with a rectangle, but by enclosing it with a rectangle and making the work area a polygonal area surrounded by a line segment, as described above. , The area determination unit 342 can easily configure an algorithm for determining whether or not the tracking target exists in the work area. In the example shown in FIG. 17, the process determination unit 330 determines the polygonal work areas 860a to 860c as shown in FIG. 18 by surrounding the overlapping areas 850a to 850c with rectangles, respectively.

さらに、移動決定部331は、定型決定部325により決定された定型作業領域から、工程決定部330により決定された作業領域と重なる領域を除いた領域を、作業領域間を移動する領域である移動領域に決定する。図18に示す例では、移動決定部331は、定型決定部325で決定された定型作業領域820から、工程決定部330により決定された作業領域860a〜860cと重なる領域を除いた領域を、移動領域に決定する。すなわち、工程決定部330は、図18において、移動領域871〜873をそれぞれ決定する。 Further, the movement determination unit 331 is an area for moving between the work areas, excluding the area overlapping the work area determined by the process determination unit 330 from the standard work area determined by the standard determination unit 325. Determine the area. In the example shown in FIG. 18, the movement determination unit 331 moves the area excluding the area overlapping the work areas 860a to 860c determined by the process determination unit 330 from the standard work area 820 determined by the standard determination unit 325. Determine the area. That is, the process determination unit 330 determines the movement regions 871 to 873 in FIG. 18, respectively.

また、移動決定部331は、決定した多角形上の移動領域において、各頂点の角度が所定の閾値未満、または所定の閾値以上である場合、すなわち、移動領域が示す作業者の移動方向の曲がりが大きい場合、当該頂点と、対向する頂点のうち最も近い頂点とを結ぶ。具体的には、図18に示すように、移動決定部331は、移動領域871において、頂点881の角度が所定の閾値未満であると判断し、頂点881に対向する頂点のうち最も近い頂点とを結んで区切り線871aを形成する。同様に、移動決定部331は、移動領域873において、頂点883の角度が所定の閾値未満であると判断し、頂点883に対向する頂点のうち最も近い頂点とを結んで区切り線873aを形成する。このように、移動領域に区切り線を形成することによって、移動領域において作業者の移動方向の曲がり具合が大きい部分を示すことができる。曲がり具合が大きいということは、通常の工程間の移動中に何らかの変則的な行動が発生した可能性があり、区切り線を形成することによって、その変則的な行動が発生した可能性がある部分を示すことができ、定型作業の改善に寄与することができる。そして、作業領域の決定処理を終了する。 Further, the movement determination unit 331 is in the movement region on the determined polygon, when the angle of each vertex is less than a predetermined threshold value or greater than or equal to a predetermined threshold value, that is, the bending of the operator in the movement direction indicated by the movement region. When is large, the vertex and the closest vertex among the opposing vertices are connected. Specifically, as shown in FIG. 18, the movement determination unit 331 determines that the angle of the apex 881 is less than a predetermined threshold value in the movement region 871, and sets it as the closest apex among the vertices facing the apex 881. To form a dividing line 871a. Similarly, the movement determination unit 331 determines that the angle of the apex 883 is less than a predetermined threshold value in the movement region 873, and connects the nearest apex among the vertices facing the apex 883 to form a dividing line 873a. .. By forming a dividing line in the moving area in this way, it is possible to indicate a portion of the moving area where the worker has a large degree of bending in the moving direction. A large degree of bending means that some anomalous behavior may have occurred during the movement between normal processes, and by forming a dividing line, the anomalous behavior may have occurred. Can contribute to the improvement of routine work. Then, the work area determination process is completed.

以上のステップS41〜S46の処理によって、作業領域の決定処理が行われる。すなわち、モデルとなる動線(図10の例では、動線811〜813)を利用して、定型作業の中で作業者が停滞して作業を行う工程の領域である作業領域を決定する。 By the above steps S41 to S46, the work area determination process is performed. That is, the work area, which is the area of the process in which the worker is stagnant in the routine work, is determined by using the flow line as a model (in the example of FIG. 10, the flow lines 811 to 813).

以上のように、取得した追跡対象の動線の情報(追跡結果情報)を利用し、動線を構成するポイントのうち停滞部分を抽出し、停滞部分を構成する特定のポイントを拡大し、その拡大領域が所定数以上重なった領域に基づいて作業領域を決定するものとしている。これによって、いったん動線を描画させて、その動線を見ながら手動で作業領域を設定する必要がなく、取得した動線から直接、作業領域を決定することができる。また、これによって、自動で作業領域を決定することができるので、定型作業の改善の迅速化に寄与することができる。 As described above, using the acquired flow line information (tracking result information), the stagnant part is extracted from the points constituting the flow line, the specific points constituting the stagnant part are expanded, and the points are expanded. The work area is determined based on the area where the enlarged areas overlap by a predetermined number or more. As a result, it is not necessary to draw a flow line once and manually set the work area while looking at the flow line, and the work area can be determined directly from the acquired flow line. Further, as a result, the work area can be automatically determined, which can contribute to speeding up the improvement of routine work.

なお、図15に示すフローチャートでは、代表点特定部327によって、停滞抽出部326により抽出された停滞部分を構成するポイントから代表点が特定され、拡大部328によって、代表点が拡大されて拡大領域を得るものとしているが、これに限定されるものではない。すなわち、停滞抽出部326により抽出された停滞部分を構成するポイントのすべてを拡大して、所定数以上重なっている領域を抽出して、その領域に基づいて作業領域を決定するものとしてもよい。 In the flowchart shown in FIG. 15, the representative point identification unit 327 identifies the representative point from the points constituting the stagnation portion extracted by the stagnation extraction unit 326, and the expansion unit 328 expands the representative point to expand the area. However, it is not limited to this. That is, all the points constituting the stagnation portion extracted by the stagnation extraction unit 326 may be expanded, regions overlapping by a predetermined number or more may be extracted, and the work area may be determined based on the regions.

また、上述の図7および図8で示した追跡対象の追跡処理(追跡結果情報の生成)、図9および図15等で示した定型作業領域および作業領域の決定処理、ならびに、第2取得部341により取得されたリアルタイムの映像データに対する領域判定部342、計測部343、時間判定部344および通知部345の機能に基づいた作業者の作業の異常判定処理は、情報処理装置3がすべて担うものとして説明したが、これに限定されるものではない。すなわち、これらの処理を、別々の装置で分散して処理するものとしてもよい。例えば、追跡対象の追跡処理は、情報処理装置3とは異なる装置で行い、情報処理装置3は、定型作業領域および作業領域の決定処理、および作業者の作業の異常判定処理を行うものとしてもよい。 Further, the tracking process of the tracking target (generation of tracking result information) shown in FIGS. 7 and 8 described above, the routine work area and the determination process of the work area shown in FIGS. 9 and 15, and the second acquisition unit. The information processing device 3 is responsible for all the abnormality determination processing of the worker's work based on the functions of the area determination unit 342, the measurement unit 343, the time determination unit 344, and the notification unit 345 for the real-time video data acquired by 341. However, it is not limited to this. That is, these processes may be distributed and processed by separate devices. For example, the tracking process of the tracking target may be performed by a device different from the information processing device 3, and the information processing device 3 may perform the routine work area and the work area determination process and the worker's work abnormality determination process. Good.

なお、上述の実施の形態の設定部303、再生部305、第1取得部306、指定部307、登録部308、検出部309、軌跡出力部310、データ通信部321、太線化部322、定型抽出部323、連続判定部324、定型決定部325、停滞抽出部326、代表点特定部327、拡大部328、工程抽出部329、工程決定部330、移動決定部331、第2取得部341、領域判定部342、計測部343、時間判定部344、管理部351、および表示制御部352の各機能部の少なくともいずれかがプログラムの実行によって実現される場合、そのプログラムは、ROM等に予め組み込まれて提供される。また、上述の実施の形態の情報処理装置3で実行されるプログラムは、インストール可能な形式または実行可能な形式のファイルでCD−ROM(Compact Disk Read Only Memory)、フレキシブルディスク(FD)、CD−R(Compact Disk Recordable)、DVD等のコンピュータで読み取り可能な記録媒体に記録して提供するように構成してもよい。また、上述の実施の形態の情報処理装置3で実行されるプログラムを、インターネット等のネットワークに接続されたコンピュータ上に格納し、ネットワーク経由でダウンロードさせることにより提供するように構成してもよい。また、上述の実施の形態の情報処理装置3で実行されるプログラムを、インターネット等のネットワーク経由で提供または配布するように構成してもよい。また、上述の実施の形態の情報処理装置3で実行されるプログラムは、上述した各機能部の少なくともいずれかを含むモジュール構成となっており、実際のハードウェアとしてはCPUが上述のROMからプログラムを読み出して実行することにより、上述の各部が主記憶装置上にロードされて生成されるようになっている。 It should be noted that the setting unit 303, the reproduction unit 305, the first acquisition unit 306, the designation unit 307, the registration unit 308, the detection unit 309, the locus output unit 310, the data communication unit 321 and the thickening unit 322 of the above-described embodiment are standard. Extraction unit 323, continuous determination unit 324, standard determination unit 325, stagnation extraction unit 326, representative point identification unit 327, enlargement unit 328, process extraction unit 329, process determination unit 330, movement determination unit 331, second acquisition unit 341, When at least one of the function units of the area determination unit 342, the measurement unit 343, the time determination unit 344, the management unit 351 and the display control unit 352 is realized by executing the program, the program is preliminarily incorporated in the ROM or the like. Will be provided. Further, the program executed by the information processing apparatus 3 of the above-described embodiment is a file in an installable format or an executable format, and is a CD-ROM (Computer Disk Read Only Memory), a flexible disk (FD), or a CD-. It may be configured to be recorded and provided on a computer-readable recording medium such as an R (Compact Disk Recordable) or a DVD. Further, the program executed by the information processing apparatus 3 of the above-described embodiment may be stored on a computer connected to a network such as the Internet and provided by downloading via the network. Further, the program executed by the information processing apparatus 3 of the above-described embodiment may be configured to be provided or distributed via a network such as the Internet. Further, the program executed by the information processing apparatus 3 of the above-described embodiment has a module configuration including at least one of the above-mentioned functional units, and as the actual hardware, the CPU programs from the above-mentioned ROM. By reading and executing the above-mentioned parts, the above-mentioned parts are loaded on the main storage device and generated.

1 画像処理システム
2、2a〜2d 撮像装置
3 情報処理装置
4 ハブ
10 外部機器
101 CPU
102 ROM
103 RAM
104 外部記憶装置
105 ディスプレイ
106 ネットワークI/F
107 キーボード
108 マウス
109 DVDドライブ
110 DVD
111 外部機器I/F
112 スピーカ
113 バス
301 映像受信部
302 入力部
303 設定部
304 記憶部
305 再生部
306 第1取得部
307 指定部
308 登録部
309 検出部
310 軌跡出力部
321 データ通信部
322 太線化部
323 定型抽出部
324 連続判定部
325 定型決定部
326 停滞抽出部
327 代表点特定部
328 拡大部
329 工程抽出部
330 工程決定部
331 移動決定部
341 第2取得部
342 領域判定部
343 計測部
344 時間判定部
345 通知部
351 管理部
352 表示制御部
353 表示部
400 追跡画面
401 個別表示部
401a カメラ選択タブ
403 映像操作ボタン部
404 シークバー
405 スライダ
406 拡大縮小ボタン部
407 スパン変更ボタン部
408 時刻表示部
409 登録ボタン
410 追跡開始ボタン
411 追跡停止ボタン
500 作業者
501 追跡対象
550 指定領域
800 動線
811〜813 動線
811a〜813a 太線化動線
820 定型作業領域
831〜833 停滞領域
835 突発的行動領域
841a〜843a、841b〜843b、841c〜843c 拡大領域
850a〜850c 重なり領域
860a〜860c 作業領域
871〜873 移動領域
871a、873a 区切り線
881、883 頂点
1000 追跡結果データ
1 Image processing system 2, 2a to 2d Imaging device 3 Information processing device 4 Hub 10 External device 101 CPU
102 ROM
103 RAM
104 External storage 105 Display 106 Network I / F
107 Keyboard 108 Mouse 109 DVD Drive 110 DVD
111 External device I / F
112 Speaker 113 Bus 301 Video receiving unit 302 Input unit 303 Setting unit 304 Storage unit 305 Playback unit 306 First acquisition unit 307 Designation unit 308 Registration unit 309 Detection unit 310 Trajectory output unit 321 Data communication unit 322 Thickening unit 323 Standard extraction unit 324 Continuous judgment unit 325 Standard determination unit 326 Stagnation extraction unit 327 Representative point identification unit 328 Expansion unit 329 Process extraction unit 330 Process determination unit 331 Movement determination unit 341 Second acquisition unit 342 Area determination unit 343 Measurement unit 344 Time determination unit 345 Notification Part 351 Management part 352 Display control part 353 Display part 400 Tracking screen 401 Individual display part 401a Camera selection tab 403 Video operation button part 404 Seek bar 405 Slider 406 Enlargement / reduction button part 407 Span change button part 408 Time display part 409 Registration button 410 Tracking Start button 411 Tracking stop button 500 Worker 501 Tracking target 550 Designated area 800 Flow line 811-813 Flow line 811a to 813a Thickened flow line 820 Routine work area 831 to 833 Stagnation area 835 Sudden action area 841a to 843a, 841b 843b, 841c to 843c Enlarged area 850a to 850c Overlapping area 860a to 860c Working area 871 to 873 Moving area 871a, 873a Separator 881, 883 Pole 1000 Tracking result data

特開2016−042306号公報JP-A-2016-042306

Claims (11)

所定単位の一連の作業である定型作業における追跡対象の位置情報を含む複数の追跡結果情報を取得する第1取得部と、
前記第1取得部によって取得された前記複数の追跡結果情報の前記追跡対象の位置情報が示すポイントの移動距離に基づいて、停滞しているポイント群である停滞部分を抽出する第1抽出部と、
前記各追跡結果情報に対応する前記停滞部分に基づく所定のポイントを拡大した拡大領域を得る拡大部と、
前記拡大部により得られた複数の前記拡大領域のうち少なくともいずれかが重なる領域に基づいて作業領域を決定する第1決定部と、
を備えた情報処理装置。
A first acquisition unit that acquires a plurality of tracking result information including position information of a tracking target in a routine work which is a series of operations of a predetermined unit, and
With the first extraction unit that extracts the stagnant portion, which is a group of stagnant points, based on the moving distance of the points indicated by the position information of the tracking target of the plurality of tracking result information acquired by the first acquisition unit. ,
An expansion unit for obtaining an expansion area obtained by expanding a predetermined point based on the stagnation portion corresponding to each tracking result information, and an expansion unit.
A first determination unit that determines a work area based on an area in which at least one of the plurality of expansion areas obtained by the expansion unit overlaps.
Information processing device equipped with.
前記第1抽出部により抽出された、前記各追跡結果情報に対応する前記停滞部分が含むポイントの位置に基づいて特定の位置のポイントである代表点を特定する特定部を、さらに備え、
前記拡大部は、前記各停滞部分に対応する前記代表点を拡大した前記拡大領域を得る請求項1に記載の情報処理装置。
A specific unit that identifies a representative point that is a point at a specific position based on the position of the point included in the stagnant portion corresponding to each tracking result information extracted by the first extraction unit is further provided.
The information processing device according to claim 1, wherein the enlarged portion obtains the enlarged region in which the representative point corresponding to each stagnant portion is enlarged.
前記拡大部は、前記各追跡結果情報に対応する前記停滞部分に含まれるポイントを拡大して前記拡大領域を得る請求項1に記載の情報処理装置。 The information processing device according to claim 1, wherein the expansion unit expands a point included in the stagnation portion corresponding to each tracking result information to obtain the expansion area. 前記第1取得部により取得された前記複数の追跡結果情報それぞれにおいて、前記追跡対象の位置情報を示すポイントを結合して動線にする動線生成部と、
前記動線を所定の幅に太線化する太線化部と、
前記太線化部により太線化された前記動線が所定数以上重なっている領域を抽出する第2抽出部と、
前記第2抽出部により抽出された領域が連続しているか否かを判定する第1判定部と、 前記第1判定部により連続していると判定された領域を、前記定型作業が行われる領域である定型作業領域に決定する第2決定部と、
をさらに備えた請求項1〜3のいずれか一項に記載の情報処理装置。
In each of the plurality of tracking result information acquired by the first acquisition unit, a flow line generation unit that combines points indicating the position information of the tracking target to form a flow line.
A thickened portion that thickens the flow line to a predetermined width,
A second extraction unit that extracts a region in which the flow lines thickened by the thick line portion overlap by a predetermined number or more,
The first determination unit for determining whether or not the regions extracted by the second extraction unit are continuous, and the region determined to be continuous by the first determination unit are the regions where the routine work is performed. The second decision unit that determines the standard work area, which is
The information processing apparatus according to any one of claims 1 to 3, further comprising.
前記第1判定部によって、前記第2抽出部により抽出された領域が連続していないと判定された場合、前記所定数を減じる変更部を、さらに備え、
前記第2抽出部は、前記太線化部により太線化された前記動線が、前記変更部により減じられた前記所定数以上重なっている領域を抽出する請求項4に記載の情報処理装置。
When the first determination unit determines that the regions extracted by the second extraction unit are not continuous, a change unit for reducing the predetermined number is further provided.
The information processing apparatus according to claim 4, wherein the second extraction unit extracts a region in which the flow lines thickened by the thickening unit overlap with the predetermined number reduced by the changing unit.
前記第2決定部により決定された前記定型作業領域から、前記第1決定部により決定された前記作業領域と重なる領域を除いた領域を、前記作業領域間を移動する領域である移動領域に決定する第3決定部を、さらに備えた請求項4または5に記載の情報処理装置。 The area excluding the area overlapping the work area determined by the first determination unit from the standard work area determined by the second determination unit is determined as a movement area which is an area for moving between the work areas. The information processing apparatus according to claim 4 or 5, further comprising a third determination unit. 追跡対象が前記作業領域に存在するか否かを判定する第2判定部と、
前記第2判定部により該追跡対象が前記作業領域に存在すると判定された場合、該作業領域に存在する時間としての作業時間を計測して、前記作業時間の最大値、最小値、および平均値のうち少なくともいずれか1つを算出する計測部と、
を備えた請求項1〜6のいずれか一項に記載の情報処理装置。
A second determination unit that determines whether or not the tracking target exists in the work area,
When the second determination unit determines that the tracking target exists in the work area, the work time as the time existing in the work area is measured, and the maximum value, the minimum value, and the average value of the work time are measured. A measuring unit that calculates at least one of them,
The information processing apparatus according to any one of claims 1 to 6.
前記計測部により計測された前記作業時間が所定範囲内であるか否かを判定する第3判定部と、
前記第3判定部によって前記作業時間が前記所定範囲内でないと判定された場合、その判定結果を通知する通知部と、
をさらに備えた請求項7に記載の情報処理装置。
A third determination unit that determines whether or not the work time measured by the measurement unit is within a predetermined range,
When the third determination unit determines that the work time is not within the predetermined range, the notification unit for notifying the determination result and the notification unit.
The information processing apparatus according to claim 7, further comprising.
1以上の撮像装置と、
請求項1〜8のいずれか一項に記載の情報処理装置と、
を備え、
前記情報処理装置は、
前記1以上の撮像装置で撮像されたそれぞれの映像データからフレームを取得する第2取得部と、
前記第2取得部により取得された前記フレームから、追跡対象を検出する検出部と、
前記検出部による該追跡対象の検出結果から該追跡対象の位置情報を含む前記追跡結果情報を生成する生成部と、
をさらに備えた情報処理システム。
With one or more imaging devices
The information processing device according to any one of claims 1 to 8.
With
The information processing device
A second acquisition unit that acquires a frame from each video data captured by one or more imaging devices, and
A detection unit that detects a tracking target from the frame acquired by the second acquisition unit, and
A generation unit that generates the tracking result information including the position information of the tracking target from the detection result of the tracking target by the detection unit.
Information processing system equipped with.
第1取得部、第1抽出部、拡大部及び第1決定部が情報処理装置に実装され、
前記第1取得部が、所定単位の一連の作業である定型作業における追跡対象の位置情報を含む複数の追跡結果情報を取得する取得ステップと、
前記第1抽出部が、取得した前記複数の追跡結果情報の前記追跡対象の位置情報が示すポイントの移動距離に基づいて、停滞しているポイント群である停滞部分を抽出する抽出ステップと、
前記拡大部が、前記各追跡結果情報に対応する前記停滞部分に基づく所定のポイントを拡大した拡大領域を得る拡大ステップと、
前記第1決定部が、複数の前記拡大領域のうち少なくともいずれかが重なる領域に基づいて作業領域を決定する決定ステップと、
を有する情報処理方法。
The first acquisition unit, the first extraction unit, the enlargement unit, and the first determination unit are mounted on the information processing device.
The acquisition step in which the first acquisition unit acquires a plurality of tracking result information including the position information of the tracking target in the routine work which is a series of operations of a predetermined unit, and
An extraction step of the first extraction unit, based on the movement distance of the point indicated by the position information of the tracking object of the acquired plurality of tracking result information, it extracts a stagnant portion is the point group has stagnated,
An expansion step in which the expansion unit obtains an expansion area in which a predetermined point based on the stagnation portion corresponding to each tracking result information is expanded.
A determination step in which the first determination unit determines a work area based on an area where at least one of the plurality of enlarged areas overlaps.
Information processing method having.
情報処理装置に、
所定単位の一連の作業である定型作業における追跡対象の位置情報を含む複数の追跡結果情報を取得する取得処理と、
取得した前記複数の追跡結果情報の前記追跡対象の位置情報が示すポイントの移動距離に基づいて、停滞しているポイント群である停滞部分を抽出する抽出処理と、
前記各追跡結果情報に対応する前記停滞部分に基づく所定のポイントを拡大した拡大領域を得る拡大処理と、
複数の前記拡大領域のうち少なくともいずれかが重なる領域に基づいて作業領域を決定する決定処理と、
を実行させるためのプログラム。
For information processing equipment
Acquisition processing to acquire a plurality of tracking result information including the position information of the tracking target in the routine work which is a series of operations of a predetermined unit, and
An extraction process for extracting a stagnant portion, which is a group of stagnant points, based on the moving distance of points indicated by the position information of the tracked target in the acquired plurality of tracking result information.
An expansion process for obtaining an expansion area obtained by expanding a predetermined point based on the stagnant portion corresponding to each tracking result information, and
A determination process for determining a work area based on an area where at least one of the plurality of enlarged areas overlaps.
A program to execute.
JP2016218365A 2016-11-08 2016-11-08 Information processing equipment, information processing systems, information processing methods and programs Active JP6834372B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016218365A JP6834372B2 (en) 2016-11-08 2016-11-08 Information processing equipment, information processing systems, information processing methods and programs

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016218365A JP6834372B2 (en) 2016-11-08 2016-11-08 Information processing equipment, information processing systems, information processing methods and programs

Publications (2)

Publication Number Publication Date
JP2018077637A JP2018077637A (en) 2018-05-17
JP6834372B2 true JP6834372B2 (en) 2021-02-24

Family

ID=62149114

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016218365A Active JP6834372B2 (en) 2016-11-08 2016-11-08 Information processing equipment, information processing systems, information processing methods and programs

Country Status (1)

Country Link
JP (1) JP6834372B2 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7367474B2 (en) * 2019-11-12 2023-10-24 株式会社ジェイテクト Factory equipment management system
JP7472482B2 (en) 2019-12-11 2024-04-23 オムロン株式会社 Information processing device, range determination method, and program
JP2023039802A (en) * 2021-09-09 2023-03-22 パナソニックIpマネジメント株式会社 Route generation and display device, and route generation and display method
WO2023228414A1 (en) * 2022-05-27 2023-11-30 富士通株式会社 Information processing program, information processing method, and information processing device

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5434455B2 (en) * 2009-10-08 2014-03-05 株式会社リコー Work time analysis support system and program
WO2013145632A1 (en) * 2012-03-30 2013-10-03 日本電気株式会社 Flow line data analysis device, system, program and method
JP6364743B2 (en) * 2013-10-31 2018-08-01 株式会社Jvcケンウッド Information processing apparatus, control method, program, and information system
JP6524619B2 (en) * 2014-08-18 2019-06-05 株式会社リコー Locus drawing apparatus, locus drawing method, locus drawing system, and program

Also Published As

Publication number Publication date
JP2018077637A (en) 2018-05-17

Similar Documents

Publication Publication Date Title
JP6834372B2 (en) Information processing equipment, information processing systems, information processing methods and programs
JP6834353B2 (en) Image processing equipment, image processing systems, image processing methods and programs
US9875408B2 (en) Setting apparatus, output method, and non-transitory computer-readable storage medium
JP6756338B2 (en) Image processing equipment, image processing systems, image processing methods and programs
US20080259184A1 (en) Information processing device and computer readable recording medium
JP5460793B2 (en) Display device, display method, television receiver, and display control device
EP4174771A1 (en) Implementation method and apparatus for behavior analysis of moving target, and electronic device
KR20110093040A (en) Apparatus and method for monitoring an object
CN111309203A (en) Method and device for acquiring positioning information of mouse cursor
US9436996B2 (en) Recording medium storing image processing program and image processing apparatus
JP6828377B2 (en) Image processing equipment, image processing systems, image processing methods and programs
US11363241B2 (en) Surveillance apparatus, surveillance method, and storage medium
JP2007048232A (en) Information processing device, information processing method, and computer program
US11551339B2 (en) Information processing apparatus, information processing method, and storage medium
KR102653640B1 (en) Information processing apparatus, information processing method, and storage medium
JP2021056899A (en) Image processor, image processing method, and program
JP2019021318A (en) Telepresence framework for marking region of interest using head-mounted devices
KR20140066560A (en) Method and apparatus for setting object area for use in video monitoring device
JP6347604B2 (en) Image projection apparatus, image projection method and program
JP2022068793A (en) Information processing apparatus, information processing method and program
TW201835851A (en) Object counting method having regional distribution property and related image processing device
JP7313850B2 (en) Information processing device, information processing method, and program
JP2022011927A (en) Information processing device, information processing method, and program
CN109272529B (en) Video analysis method
JP2021064870A (en) Information processing device, information processing system, information processing method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190806

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200625

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200804

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200917

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210105

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210118

R151 Written notification of patent or utility model registration

Ref document number: 6834372

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151